JP6694053B2 - レーダ対応センサフュージョン - Google Patents

レーダ対応センサフュージョン Download PDF

Info

Publication number
JP6694053B2
JP6694053B2 JP2018501256A JP2018501256A JP6694053B2 JP 6694053 B2 JP6694053 B2 JP 6694053B2 JP 2018501256 A JP2018501256 A JP 2018501256A JP 2018501256 A JP2018501256 A JP 2018501256A JP 6694053 B2 JP6694053 B2 JP 6694053B2
Authority
JP
Japan
Prior art keywords
radar
sensor
data
spatial information
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018501256A
Other languages
English (en)
Other versions
JP2018527558A (ja
Inventor
ジリアン,ニコラス・エドワード
シュベーズィヒ,カールステン・シィ
リアン,ジェイミー
アミフッド,パトリック・エム
プピレフ,アイバン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018527558A publication Critical patent/JP2018527558A/ja
Priority to JP2020027181A priority Critical patent/JP6889293B2/ja
Application granted granted Critical
Publication of JP6694053B2 publication Critical patent/JP6694053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/56Discriminating between fixed and moving objects or between objects moving at different speeds for presence detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/887Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons
    • G01S13/888Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons through wall detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/24Cell structures
    • H04W16/28Cell structures using beam steering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2105Dual mode as a secondary aspect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/80Arrangements in the sub-station, i.e. sensing device
    • H04Q2209/88Providing power supply at the sub-station
    • H04Q2209/883Providing power supply at the sub-station where the sensing device enters an active or inactive mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Bioethics (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Description

優先権
この出願は、2015年10月6日に出願された米国仮特許出願連続番号第62/237,975号への優先権を請求しており、米国仮特許出願連続番号第62/237,975号の開示は本願明細書において全文、参照により援用される。
背景
多くのコンピューティングデバイスおよび電子デバイスは、デバイスの周囲に基づいてシームレスかつ直観的なユーザ体験を提供するためにセンサを含む。たとえば、デバイスは、加速度計がデバイスの動きを示すことに応答してスリープ状態を終了し得、または、デバイスのタッチスクリーンは、近接センサがユーザの顔への接近を示すことに応答して無効化され得る。しかしながら、これらのセンサのほとんどは、精度、レンジまたは機能が制限されており、デバイスの周囲の粗い変化または大きな変化のみを感知可能である。したがって、正確なセンサ入力がなければ、デバイスはしばしば、異なるタイプのユーザインタラクションを推論するか、または、ユーザが存在するのかどうかについても推論することになる。これは、誤ったユーザ入力、ユーザの誤った検出または非検出、および、ユーザのフラストレーションにつながる。
上記のコンテキストにおけるセンサの不正確性の例は、ユーザに関連していない動き(たとえば動いている車両)を加速度計が感知することに応答して間違ってスリープ状態を終了し、ユーザがデバイスを間違って保持して近接センサを部分的に遮ることに応答してタッチスクリーンを無効化するデバイスを含む。そのような場合、デバイスのバッテリは誤った電力状態遷移により消耗され得るとともに、ユーザが自身の手を移動させるまで、タッチスクリーンを介するユーザ入力が中断される。これらは、デバイスとのユーザのインタラクティブな体験を中断し得るセンサ不正確性のいくつかの例である。
概要
この開示は、レーダ対応センサフュージョン(radar-enabled sensor fusion)のための装置および技術を記載する。いくつかの実施形態において、レーダフィールドが提供され、当該レーダフィールドにおけるターゲットに対応する反射信号が受信される。反射信号はレーダデータを提供するために変換され、当該レーダデータからは、ターゲットの物理的特徴を示すレーダ特徴が抽出される。物理的特徴に関連付けられる追加的なセンサデータを提供するよう、レーダ特徴に基づいてセンサがアクティベートされる。その後、レーダ特徴は、たとえばレーダ特徴の精度または分解能を増加させることによって、レーダ特徴を向上させるために追加的なセンサデータで増強される。これにより、向上されたレーダ特徴に依存するセンサベースアプリケーションの性能が改善され得る。
他の局面において、デバイスのレーダセンサは、対象のスペースについてレーダデータを得るためにアクティベートされる。3次元(3D)レーダ特徴がレーダデータから抽出され、位置データがセンサから受信される。位置データに基づいて、スペースについての3Dランドマークのセットを生成するよう3Dレーダ特徴の空間関係が決定される。当該3Dランドマークのセットは、既知の3Dコンテキストモデルと比較され、当該3Dランドマークとマッチする3Dコンテキストモデルを識別する。当該マッチする3Dコンテキストモデルに基づいて、当該スペースについてのコンテキストが抽出され、デバイスのコンテキストセッティングを構成するために使用される。
この概要は、詳細な説明においてさらに説明されるレーダ対応センサフュージョンに関して簡素化された概念を紹介するように提供されている。この概要は、特許請求される主題の必須の特徴を識別するようには意図されておらず、また、特許請求される主題の範囲を決定する際に使用されることも意図されていない。
レーダ対応センサフュージョンの実施形態は添付の図面を参照して記載される。同様の特徴およびコンポーネントを参照するために、図面の全体にわたって同じ番号が使用される。
レーダセンサと付加的なセンサとを有するコンピューティングデバイスを含む例示的な環境を示す図である。 図1に示されるセンサの例示的なタイプおよび構成を示す図である。 図1に示されるレーダセンサの例示的な実現例と、対応するレーダフィールドとを示す図である。 図1に示されるレーダセンサの別の例示的な実現例と、透過するレーダフィールドとを示す図である。 レーダ対応センサフュージョンを実現することができるコンポーネントの構成の例を示す図である。 追加的なセンサデータによりレーダデータを増強するための例示的な方法を示す図である。 向上されたレーダ特徴によるモーション追跡の実現例の例を示す図である。 1つ以上の実施形態に従った、低電力センサフュージョンのための例示的な方法を示す図である。 センサフュージョンエンジンを含むスマートテレビジョンによって実現される低電力センサフュージョンの例を示す図である。 相補的なセンサデータによりレーダ特徴を照合するための例示的な方法を示す図である。 対象のスペースについてコンテキストモデルを生成するための例示的な方法を示す図である。 1つ以上の実施形態に従った、コンテキストによりマッピングされる部屋の例を示す図である。 スペースに関連付けられるコンテキストに基づいてコンテキストセッティングを構成するための例示的な方法を示す図である。 変更されるスペースのコンテキストに応答してコンテキストセッティングを変更する例示的な方法を示す図である。 コンテキストの変化に応答してコンピューティングデバイスのコンテキストセッティングを変更する例を示す図である。 レーダ対応センサフュージョンの技術が実現され得る例示的なコンピューティングシステムを示す図である。
詳細な説明
概略
従来のセンサ技術はしばしば、所与のタイプのセンサに関連付けられる固有の欠点により制限されるとともに不正確である。たとえば、加速度計によって提供されるデータによってモーションが感知され得るが、加速度計データは当該モーションの源を決定するには有用ではない場合がある。他の場合においては、近接センサは、ある対象との接近を検出するのに十分なデータを提供し得るが、当該対象の識別性は接近データから決定可能でない場合がある。したがって、従来のセンサは、ユーザに対するデバイスの関係を含む、デバイスの周囲の不正確または不完全な感知につながり得る欠点または盲点を有する。
本願明細書において、レーダ対応センサフュージョンを実現する装置および技術が記載される。いくつかの実施形態では、各センサのそれぞれの欠点を軽減するために、センサのそれぞれの強みがレーダと組み合わせられる。たとえば、ユーザの顔の表面レーダ特徴が、赤緑青(RGB)カメラの像と組み合わされて、顔認識アプリケーションの精度が改善され得る。他の場合において、速いモーションを追跡することができるレーダモーション特徴が、空間情報をキャプチャすることに優れているRGBセンサの像と組み合わされ、これにより、速い空間動作を検出することができるアプリケーションが提供される。
さらに別の場合において、レーダ表面特徴は、デバイスの環境(たとえば部屋またはスペース)のマッピングを可能にするよう、加速度計からの方位または方向情報により増強され得る。そのような場合において、デバイスは、デバイスが動作しているコンテキストを学習または検出し得、これにより、デバイスのさまざまなコンテキスト特徴およびセッティングを可能にする。これらは、レーダが、本願明細書において記載されるセンサフュージョンまたはコンテキスト感知のために活用され得る態様のほんのいくつかの例である。以下の議論ではまず、動作環境を説明し、次いで、この環境において使用され得る技術を説明し、最後に例示的なシステムを説明する。
動作環境
図1は、レーダ対応センサフュージョンが有効化され得るコンピューティングデバイスを示す。コンピューティングデバイス102は、スマートグラス102−1、スマートウォッチ102−2、スマートフォン102−3、タブレット102−4、ラップトップコンピュータ102−5、および、ゲームシステム102−6といったさまざまな非限定的な例示的なデバイスを有することが示されているが、ホームオートメーションおよび制御システム、エンターテイメントシステム、音声システム、他の家電製品、セキュリティシステム、ネットブック、自動車、スマート機器、ならびに、e−リーダといった他のデバイスが使用されてもよい。なお、コンピューティングデバイス102は、ウェアラブルであり得るか、非ウェアラブルであるが携帯可能であり得るか、または、相対的に携帯不可能(たとえばデスクトップおよび電気製品)であり得る。
コンピューティングデバイス102は、1つ以上のコンピュータプロセッサ104と、メモリ媒体および記憶媒体を含むコンピュータ読取可能媒体106とを含む。コンピュータ読取可能媒体106上のコンピュータ読取可能命令として具現化されるアプリケーションおよび/またはオペレーティングシステム(図示せず)は、本願明細書において記載される機能のうちのいくつかを提供するよう、プロセッサ104によって実行され得る。コンピュータ読取可能媒体106はさらに、以下に記載されるセンサベースアプリケーション108、センサフュージョンエンジン110およびコンテキストマネージャ112を含む。
コンピューティングデバイス102はさらに、有線ネットワーク、無線ネットワーク、または光学ネットワークを介してデータを通信するための1つ以上のネットワークインターフェイス114と、ディスプレイ116とを含み得る。ネットワークインターフェイス114は、ローカルエリアネットワーク(LAN: local-area-network)、ワイヤレスローカルエリアネットワーク(WLAN: wireless local-area-network)、パーソナルエリアネットワーク(PAN: personal-area-network)、ワイドエリアネットワーク(WAN:wide-area-network)、イントラネット、インターネット、ピアツーピアネットワーク、ポイントツーポイントネットワーク、および、メッシュネットワークなどを介してデータを通信し得る。ディスプレイ116は、コンピューティングデバイス102に一体化され得るか、または、たとえばゲームシステム102−6といったコンピューティングデバイス102に関連付けられ得る。
コンピューティングデバイス102は、コンピューティングデバイス102が動作する環境のさまざまな特性、変動、刺激または特徴をコンピューティングデバイス102が感知することを可能にする1つ以上のセンサ118を含む。たとえば、センサ118は、さまざまなモーションセンサ、光センサ、音響センサおよび磁気センサを含み得る。代替的または付加的には、センサ118は、コンピューティングデバイス102のユーザとのインタラクションを可能にするか、または、コンピューティングデバイス102のユーザからの入力を受信する。センサ118の使用および実現例は変動し得、以下に記載される。
コンピューティングデバイス102はさらに、レーダセンサ120に関連付けられ得るか、または、レーダセンサ120を含み得る。レーダセンサ120は、無線周波数(RF)またはレーダ信号の送信および受信を通じて無線でターゲットを検出する機能を表わす。レーダセンサ120は、システム、および/または、システムオンチップ(SoC)もしくはセンサオンチップといったようなコンピューティングデバイス102内に埋め込まれるレーダ対応コンポーネントとして実現され得る。しかしながら、レーダセンサ120は、1つ以上の集積回路(IC)、埋め込まれたプロセッサ命令を有するか、もしくは、プロセッサ命令が格納されたメモリにアクセスするように構成されるプロセッサ、埋め込まれたファームウェアを有するハードウェア、さまざまなハードウェアコンポーネントを有するプリント回路基板アセンブリ、または、その任意の組み合わせといったように任意の他の好適な態様で実現することができるということが認識されるべきである。ここで、レーダセンサ120は、コンピューティングデバイス102の環境においてさまざまなタイプのターゲットを無線で検出するために提携して使用され得るレーダ放射要素122、アンテナ124およびデジタル信号プロセッサ126を含む。
一般に、レーダ放射要素122は、レーダフィールドを提供するように構成される。いくつかの場合では、レーダフィールドは、1つ以上のターゲット対象に少なくとも部分的に反射するように構成される。いくつかの場合では、ターゲット対象は、コンピューティングデバイス102の環境に存在するデバイスユーザまたは他の人々を含む。他の場合では、ターゲット対象は、手のモーション、呼吸速度、または、他の生理学的特徴といったユーザの身体的特徴を含む。レーダフィールドはさらに、織物または他の障害物を透過し、人間の組織で反射するように構成され得る。これらの織物または障害物は、木材、ガラス、プラスチック、綿、ウール、ナイロンおよび同様の繊維などを含み得、人の手のような人間の組織にて反射する。
レーダ放射要素122によって提供されるレーダフィールドは、0または1ミリメートル〜1.5メートルといった小さなサイズであり得るか、または、1〜30メートルといった中間サイズであり得る。これらのサイズは単に議論目的であり、レーダフィールドの任意の他の好適なサイズまたはレンジが使用され得るということが認識されるべきである。たとえば、レーダフィールドが中間サイズを有する場合、レーダセンサ120は、体、腕または脚の動きによって引き起こされる人間の組織からの反射に基づいて大きな身体ジェスチャを提供するよう、レーダフィールドの反射を受信および処理するように構成され得る。
いくつかの局面において、レーダフィールドは、レーダセンサ120がマイクロジェスチャのようなより小さくより正確なジェスチャを検出することを可能にするように構成され得る。例示的な中間サイズのレーダフィールドは、ユーザがジェスチャを行って、カウチからテレビを制御したり、部屋に亘ってステレオからの歌またはボリュームを変更したり、オーブンまたはオーブンタイマー(ここでは近いフィールドが有用である)をオフしたり、部屋でライトをオンまたはオフしたりなどを行うレーダフィールドを含む。レーダセンサ120またはそのエミッタは、連続的に変調された放射線、超広帯域放射線、または、サブミリメートル周波数放射線を放射するように構成され得る。
アンテナ124は、レーダセンサ120のRF信号を送受信する。いくつかの場合において、レーダ放射要素122は、レーダフィールドを送信するためにアンテナ124に結合され得る。当業者であれば認識するであろうように、これは、送信の場合には電気信号を電磁波に変換し、受信の場合にはその反対を行うことにより達成される。レーダセンサ120は、任意の好適な構成において、1つのアンテナまたは任意の好適な数のアンテナのアレイを含み得る。たとえば、これらのアンテナ124のいずれかは、ダイポールアンテナ、パラボラアンテナ、ヘリカルアンテナ、平面アンテナ、逆Fアンテナ、および、モノポールアンテナなどとして構成され得る。いくつかの実施形態において、アンテナ124は、オンチップで(たとえばSoCの一部として)構成または形成され、他の実施形態において、アンテナ124は、レーダセンサ120に取り付けられるか、または、レーダセンサ120に含まれる別個のコンポーネント、金属、誘電体、ハードウェアなどである。
第1のアンテナ124は、単一目的(たとえば、第1のアンテナが信号の送信に向けられ得、第2のアンテナ124が信号の受信に向けられ得る)であり得るか、または、多目的(たとえば、アンテナが信号の送受信に向けられる)であり得る。したがって、いくつかの実施形態はさまざまなアンテナの組み合わせを利用しており、その例としては、受信のために構成される4つの単一目的のアンテナと組み合わせて送信のために構成される2つの単一目的のアンテナを利用する実施形態がある。アンテナ124の配置、サイズおよび/または形状は、本願明細書においてさらに記載されるように、環境に関する情報をキャプチャするように設計されるパターンまたはスキームといった特定の送信パターンまたはダイバーシティスキームを向上させるように選ばれ得る。
いくつかの場合において、アンテナ124は、異なるチャネル、異なる無線周波数、および、異なる距離にてレーダセンサ120が、ターゲット対象に向けられた信号をまとめて送受信することを可能にする距離だけ物理的に互いに分離され得る。いくつかの場合において、アンテナ124は、三角測量技術をサポートするために空間的に分散され、別の場合において、アンテナはビームフォーミング技術をサポートするために配列される。示されていないが、各アンテナは、送信のための出力信号と、キャプチャおよび分析のための入力信号とを物理的にルーティングおよび管理するそれぞれのトランシーバパスに対応し得る。
デジタル信号プロセッサ126((DSP)またはデジタル信号処理コンポーネント)は一般に、信号をデジタルでキャプチャおよび処理することに関係する動作を表わす。たとえば、デジタル信号プロセッサ126は、アンテナ124によって受信されるアナログRF信号をサンプリングして、RF信号を表わすレーダデータ(たとえばデジタルサンプル)を生成し、次いで、このレーダデータを処理して、ターゲット対象に関する情報を抽出する。いくつかの場合において、デジタル信号プロセッサ126は、レーダデータに対して変換を実行して、ターゲットの特性、位置または力学を示すレーダ特徴を提供する。付加的または代替的には、デジタル信号プロセッサ126は、特定のダイバーシティまたはビームフォーミングスキームを形成するように複数の信号を構成するといったように、レーダ放射要素122および/またはアンテナ124によって生成および送信される信号の構成を制御する。
いくつかの場合において、デジタル信号プロセッサ126は、たとえばセンサベースアプリケーション108、センサフュージョンエンジン110またはコンテキストマネージャ112を通じて、RF信号の送信パラメータ(たとえば周波数チャネル、電力レベルなど)を制御する入力構成パラメータを受信する。次いで、デジタル信号プロセッサ126は、入力構成パラメータに基づいてRF信号を修正する。しばしば、デジタル信号プロセッサ126の信号処理機能は、センサベースアプリケーション108またはアプリケーションプログラミングインターフェイス(API: application programming interface)を介してアクセス可能および/または構成可能である信号処理機能またはアルゴリズムのライブラリに含まれる。デジタル信号プロセッサ126は、ハードウェア、ソフトウェア、ファームウェア、または、その任意の組み合わせで実現され得る。
図2は、一般的に200において、レーダ対応センサフュージョンの実施形態を実現するために使用され得る例示的なタイプおよび構成のセンサ118を示す。これらのセンサ118は、コンピューティングデバイス102が動作する環境のさまざまな特性、変動、刺激または特徴をコンピューティングデバイス102が感知することを可能にする。センサ118によって提供されるデータは、センサフュージョンエンジン110またはコンテキストマネージャ112のようなコンピューティングデバイスの他のエンティティに対してアクセス可能である。図示されていないが、センサ118はさらに、グローバルポジショニングモジュール、マイクロエレクトロメカニカルシステム(MEMS: micro-electromechanical system)、および、抵抗性タッチセンサなどを含み得る。代替的または付加的には、センサ118は、コンピューティングデバイス102のユーザとのインタラクションを可能にするか、または、コンピューティングデバイス102のユーザからの入力を受信する。そのような場合において、センサ118は、圧電センサ、タッチセンサ、または、ハードウェアスイッチ(たとえばキーボード、スナップドームまたはダイヤルパッド)に関連付けられる入力感知ロジックなどを含み得る。
この特定の例では、センサ118は加速度計202およびジャイロスコープ204を含む。モーションを感知するMEMSまたはグローバルポジショニングシステム(GPS)(図示せず)のようなこれらおよび他のモーションセンサおよび位置センサは、コンピューティングデバイス102の動きまたは方位を感知するように構成される。加速度計202またはジャイロスコープ204は、1次元、2次元、3次元、多軸および組み合わされた多軸などといったように、任意の好適な局面においてデバイスの動きまたは方位を感知し得る。付加的または代替的には、GPSのような位置センサは、コンピューティングデバイス102の移動した距離、移動速度、または、絶対もしくは相対的な位置を示し得る。いくつかの実施形態において、加速度計202またはジャイロスコープ204は、ユーザが特定の態様でコンピューティングデバイス102を移動する際に行われるジェスチャ入力(たとえば一連の位置および方位変化)をコンピューティングデバイス102が感知することを可能にする。
コンピューティングデバイス102はさらに、ホール効果センサ206および磁力計208を含む。図示されていないが、コンピューティングデバイス102はさらに、磁気ダイオード、磁気トランジスタ、および、磁気感知MEMSなどを含み得る。これらの磁界ベースのセンサは、コンピューティングデバイス102のまわりの磁界特徴を感知するように構成される。たとえば、磁力計208は、磁界強度、磁界方向または磁界方位における変化を感知し得る。いくつかの実施形態では、コンピューティングデバイス102は、磁界ベースのセンサから受信される入力に基づいてユーザまたは別のデバイスとの接近を判断する。
コンピューティングデバイス102の温度センサ210は、デバイスの筐体の温度、または、デバイスの環境の環境温度を感知し得る。示されていないが、温度センサ210はさらに、水分レベルが決定されることを可能にする湿度センサと共に実現され得る。いくつかの場合において、温度センサは、コンピューティングデバイス102を保持、装着、または携帯しているユーザの体温を感知し得る。付加的または代替的には、コンピューティングデバイスは、温度を遠隔で感知し得るか、または、対象との物理接触なしで感知し得る赤外線熱センサを含み得る。
コンピューティングデバイス102はさらに1つ以上の音響センサ212を含む。音響センサは、コンピューティングデバイス102が動作する環境の音を監視するように構成されるマイクロフォンまたは音波センサとして実現され得る。音響センサ212は、ユーザの音声入力を受信することができ、当該音声入力は次いで、コンピューティングデバイス102のDSPまたはプロセッサによって処理され得る。音響センサ212によってキャプチャされる音は、ピッチ、音色、高調波、音の大きさ、リズム、およびエンベロープ特性(たとえば、アタック、サステイン、ディケイ)などといった任意の好適な成分について分析または測定され得る。いくつかの実施形態では、コンピューティングデバイス102は、音響センサ212から受信されるデータに基づいてユーザを識別または区別する。
容量センサ214は、コンピューティングデバイス102がキャパシタンスの変化を感知することを可能にする。いくつかの場合において、容量センサ214は、タッチ入力を受信し得るか、または、ユーザとの接近を決定し得るタッチセンサとして構成される。他の場合では、容量センサ214は、コンピューティングデバイス102の筐体に接近している材料の特性を感知するように構成される。たとえば、容量センサ214は、表面(たとえばテーブルまたは机)、ユーザの身体、または、ユーザの衣類(たとえば衣類ポケットまたはスリーブ)に対するデバイスの接近を示すデータを提供し得る。付加的または代替的には、容量センサは、タッチ入力が受信されるコンピューティングデバイス102のタッチスクリーンまたは他の入力センサとして構成され得る。
コンピューティングデバイス102はさらに、対象との接近を感知する近接センサ216を含み得る。近接センサは、容量センサまたは赤外線(IR)センサのような任意の好適なタイプのセンサにより実現され得る。いくつかの場合には、近接センサは、短レンジIRエミッタおよびレシーバとして構成される。そのような場合、近接センサは、ユーザの顔または手との接近を検出するために、コンピューティングデバイス102の筐体またはスクリーン内に位置し得る。たとえば、スマートフォンの近接センサ216は、たとえば音声通話中にユーザの顔の検出を可能にし得、スマートフォンのタッチスクリーンを無効化して誤ったユーザ入力の受信を防止する。
コンピューティングデバイス102の環境光センサ218は、環境の光の強度、品質または変化を感知するように構成されるフォトダイオードまたは他の光学センサを含み得る。光センサは、環境光または方向付けされた光を感知することができ、当該感知された光はその後、デバイスの環境の局面を決定するよう、コンピューティングデバイス102によって(たとえばDSPを介して)処理され得る。たとえば、環境光の変化は、ユーザがコンピューティングデバイス102をピックアップしたか、または、ユーザのポケットからコンピューティングデバイス102を取り出したことを示し得る。
この例において、コンピューティングデバイスはさらに、赤緑青センサ220(RGBセンサ220)および赤外線センサ222を含む。RGBセンサ220は、画像またはビデオの形態にある像をキャプチャするように構成されるカメラセンサとして実現され得る。いくつかの場合において、RGBセンサ220は、低い光環境における像の発光ダイオード(LED)フラッシュ増加明度(light-emitting diode (LED) flash increase luminosity)に関連付けられる。少なくともいくつかの実施形態において、RGBセンサ220は、ユーザの識別を可能にするユーザの顔または他の身体特徴のようなユーザに関連付けられる像をキャプチャするように実現され得る。
赤外線センサ222は、赤外線周波数スペクトルにおいてデータをキャプチャするように構成され、熱変動を感知するように構成され得るか、または、赤外線(IR)カメラとして構成され得る。たとえば、赤外線センサ222はデバイスの環境においてユーザまたは他の人々に関連付けられる熱データを感知するように構成され得る。付加的または代替的には、赤外線センサはIR LEDに関連付けられるとともに、対象の接近あるいは対象との距離を感知するように構成され得る。
いくつかの実施形態では、コンピューティングデバイスは、RGBが向上した深さ情報を提供するようRGBセンサ220と共に実現され得る深さセンサ224を含む。深さセンサ222は、単一のモジュールとして実現され得るか、または、IRエミッタ、IRカメラおよび深さプロセッサのような別個のコンポーネントとして実現され得る。別個に実現される場合、IRエミッタは、IRカメラによって受信されるIR光を発し、深さプロセッサにIR像データを提供する。光速のような既知の変数に基づいて、深さセンサ224の深さプロセッサは、ターゲットへの距離を分解し得る(たとえば飛行時間カメラ(time-of-flight camera))。付加的または代替的には、深さセンサ224は、対象の表面またはコンピューティングデバイスの環境の3次元深さマップを分解し得る。
電力消費の観点から、センサ118の各々は、動作中に異なるそれぞれの電力量を消費し得る。たとえば、磁力計208または音響センサ212は、動作するために数十ミリアンペアを消費し得る一方、RGBセンサ、赤外線センサ222または深さセンサ224は、動作するために数百ミリアンペアを消費し得る。いくつかの実施形態において、電力を節約しつつ特定のタイプのデータを得るためにより低い電力センサが他のセンサの代わりにアクティベートされ得るように、センサ118のうちの1つ以上の電力消費が既知であるかまたは事前に定義されている。多くの場合では、レーダセンサ120は、センサ118より少ない電力を消費しつつさまざまなデータを得るよう、連続的または断続的に動作し得る。そのような場合において、レーダセンサ120は、コンピューティングデバイス102の電力の節約するためにセンサ118のすべてまたはほとんどの電源が落とされている間に動作し得る。付加的または代替的には、付加的なセンサデータを得るためにセンサ118のうちの1つのアクティベートするよう、レーダセンサ120によって提供されるデータに基づいて決定が行われ得る。
図3は、一般的に300において、レーダセンサ120と、これにより提供されるレーダフィールドとの例示的な構成を示す。図3のコンテキストにおいて、レーダセンサ120の2つの例示的な構成が示されており、レーダセンサ302−1がゲームシステム304に埋め込まれる第1の構成と、レーダセンサ302−2がテレビジョン306に埋め込まれている第2の構成とが示されている。レーダセンサ302−1および302−2は、互いに同様に実現され得るか、もしくは、互いとは異なって実現され得、または、レーダセンサ302−1および302−2は、本願明細書において他の所に記載されるレーダセンサと同様に実現され得るか、もしくは、互いとは異なって実現され得る。第1の例では、レーダセンサ302−1は、ゲームシステム304とインタラクションするよう近いレーダフィールドを提供し、第2の例では、レーダセンサ302−2は、テレビジョン306とインタラクションするために中間のレーダフィールド(たとえば部屋サイズ)を提供する。これらのレーダセンサ302−1および302−2はそれぞれ、近いレーダフィールド308−1および中間のレーダフィールド308−2を提供し、これらは以下に記載される。
ゲームシステム304は、レーダセンサ302−1を含むか、または、レーダセンサ302−1に関連付けられる。これらのデバイスは、ゲームシステム304とのユーザインタラクションを改善するよう一緒に動作する。たとえば、ゲームシステム304はコンテンツ表示およびユーザインタラクションが行われ得るタッチスクリーン310を含むものとする。このタッチスクリーン310は、スクリーンにタッチすることができるように人が直立および前方といったような特定の方位で座ることを必要とするといったように、ユーザにいくつかのチャレンジを提示し得る。さらに、タッチスクリーン310を通じて制御を選択するためのサイズは、何人かのユーザにとってインタラクションを難しくし得、時間が浪費され得る。しかしながら、レーダセンサ302−1を考えると、レーダセンサ302−1は、たとえば1つまたは2つの手によるジェスチャを含む3次元における小さくまたは大きくシンプルまたは複雑であるジェスチャにより、ユーザの手がデスクトップコンピュータ304とインタラクションすることを可能にする近いレーダフィールド308−1を提供する。容易に明白であるように、ユーザがそれを介して選択を行い得る大きなボリュームは実質的により容易であり得、タッチスクリーン310の平面のような平面を介してより良好な体験を提供し得る。
同様に、レーダセンサ302−2を考えると、レーダセンサ302−2は中間のレーダフィールド308−2を提供する。レーダフィールドの提供により、テレビジョンの前に位置するユーザとのさまざまなインタラクションが可能になる。たとえば、ユーザは、手のジェスチャから、腕のジェスチャ、全身のジェスチャに至るさまざまなジェスチャによってある距離からテレビジョン306とインタラクションし得る。これにより、ユーザの選択は、平面(たとえばタッチスクリーン310)、リモートコントロール(たとえばゲーミングまたはテレビジョンのリモート)、および、他の従来の制御メカニズムよりも簡易かつ容易であり得る。付加的または代替的には、テレビジョン306は、レーダセンサ302−2を介してユーザの識別性を決定し得、当該識別性は、他の機能(たとえばコンテンツ制御)を実現するためにセンサベースアプリケーションに提供され得る。
図4は、400において、レーダセンサと、これにより提供される透過するレーダフィールドとの別の例示的な構成を示す。この特定の例では、レーダフィールドが適用される表面は人間の組織である。示されるように、手402は、ラップトップ406に含まれる(図1の)レーダセンサ120によって与えられる表面レーダフィールド404を有する。レーダ放射要素122(図示せず)は、椅子408を透過し手402に適用される表面レーダフィールド404を提供する。この場合、アンテナ124は、椅子408を透過する(たとえば後方へ通り抜けて反射する)手402の表面でのインタラクションによって引き起こされる反射を受け取るように構成される。代替的には、レーダセンサ120は、たとえばスマートフォンがユーザのポケットに位置している場合、織物を通る反射を提供および受け取るように構成され得る。したがって、レーダセンサ120は、織物、衣類および他の不透明材料のような光学的なオクルージョンによってスペースをマッピングまたはスキャニングし得る。
いくつかの実施形態では、デジタル信号プロセッサ126は、手402を識別し、および/または、これによりなされるジェスチャを決定するために使用可能なレーダデータを提供するのに十分である、表面からの受け取られた反射信号を処理するように構成される。なお、表面レーダフィールド404により、別の手が識別され得るか、または、たとえば手402上の表面をタップするようジェスチャを実行するようにインタラクションし得、これにより表面レーダフィールド404とインタラクションする。例示的なジェスチャは、一本の指または複数本の指のスワイプ、スプレッド、スクイーズ、および非線形の動きなどを含む。あるいは、手402は、反射を引き起こすために単に移動するか、または、形状を変化させ得、これによりオクルージョンを伴う(occluded)ジェスチャをさらに実行する。
人間の組織の反射に関して、レーダフィールドを反射することにより、これらのフィールドが処理され、人間の組織の反射に基づいて識別証拠が決定され、対応するコンピューティングデバイスを制御することを許可された人についての認証のように、当該識別証拠が、ある人についての記録された識別証拠とマッチすることが確認される。これらの識別証拠は、その人またはその人の手のような人の部分についてのサイズ、形状、サイズの比、軟骨構造および骨格といったようなさまざまなバイオメトリック識別子を含み得る。これらの識別証拠はさらに、(たとえば特定の態様でレーダを反射する14カラットの金および3つのダイヤモンドの結婚指輪のような)固有の反射またはコピーすることが困難な反射を有するデバイスのような、モバイルコンピューティングデバイスを制御することを許可された人が着用するデバイスに関連付けられ得る。
さらに、レーダセンサシステムは、個人を識別可能である情報が除去されるように構成され得る。たとえば、ユーザについて個人が識別可能である情報を決定することができないようにユーザの識別性が処理され得るか、または、ユーザの特定の位置が決定され得ないように、位置情報が得られるユーザの地理的な位置が(たとえば都市、郵便番号または州レベルまで)一般化され得る。したがって、ユーザは、どのような情報がユーザに関して集められるかと、その情報がどのようにして使用されるかと、どのような情報がユーザに提供されるかとについてコントロールを有し得る。
図5は、一般に500において、センサフュージョンエンジン110およびコンテキストマネージャ112を含む、レーダ対応センサフュージョンを実現することができるコンポーネントの例示的な構成を示す。別個のエンティティとして示されているが、レーダセンサ120、センサフュージョンエンジン110、コンテキストマネージャ112、および、他のエンティティは、互いに組み合わせられ得るか、異なってオーガナイズされ得るか、または、図示されない相互接続またはデータバスを通じて直接的または間接的に通信し得る。したがって、図5に示されるセンサフュージョンエンジン110およびコンテキストマネージャ112の実現例は、これらのエンティティおよび本願明細書において記載される他のエンティティがレーダ対応センサフュージョンを実現するためにインタラクションし得る態様の非限定的な例を提供するように意図される。
この例において、センサフュージョンエンジンは、レーダ信号変圧器502(信号変圧器502)と、レーダ特徴抽出器504(特徴抽出器504)とを含む。センサフュージョンエンジン110上で具現化された別個のエンティティとして示されているが、信号変換器502および特徴抽出器504は、レーダセンサ120のデジタル信号プロセッサ126によって実現され得るか、または、レーダセンサ120のデジタル信号プロセッサ126内で実現され得る。センサフュージョンエンジン110は、センサデータ506がそこから受信されるセンサ118と通信可能に結合される。センサデータ506は、本願明細書において記載される任意のタイプのセンサに対応するデータのような任意の好適なタイプの生センサデータまたはあらかじめ処理されたセンサデータを含み得る。センサフュージョンエンジン110はさらにレーダセンサ120に動作可能に結合され、レーダセンサ120は、レーダデータ508をセンサフュージョンエンジン110に提供する。付加的または代替的には、レーダセンサ120によって提供されるレーダデータ508は、レーダセンサ120によって受信される際のレーダフィールドの反射信号を表わす生データのようなリアルタイムレーダデータを含み得る。
いくつかの実施形態では、信号変換器502は、反射信号を表わす生レーダデータをレーダデータ表現へ変換する。いくつかの場合において、これは、生レーダデータに対して信号前処理を実行することを含む。たとえば、アンテナが反射信号を受信すると、いくつかの実施形態は、信号をサンプリングして、生入力信号のデジタル表現を生成する。ひとたび生データが生成されると、信号変換器502は、生データを前処理して、信号をクリーンにするか、または、所望の周波数帯または所望のデータフォーマットにある当該信号のバージョンを生成する。付加的または代替的には、生データを前処理することは、雑音フロアを低減するかまたはエイリアシングを除去するために生データをフィルタリングすることと、異なるサンプルレートにて得るようデータを再サンプリングすることと、信号の複素表現(complex representation)を生成することとなどを含み得る。信号変換器502は、デフォルトパラメータに基づいて、生データを前処理し得る。他の場合においては、たとえば、当該前処理のタイプおよびパラメータは、センサフュージョンエンジン110またはコンテキストマネージャ112によって構成可能である。
信号変換器502は、受信した信号データを1つ以上の異なるデータ表現またはデータ変換物に変換する。いくつかの場合において、信号変換器502は、複数のパスおよび対応するアンテナからのデータを組み合わせる。組み合わされたデータは、レーダセンサ120の送信パス、受信パス、または組み合わされたトランシーバパスのさまざまな組み合わせからのデータを含み得る。ヒューリスティック(たとえば信号対雑音(SNR: signal-to-noise)比または最小の平均二乗誤差(MMSE: minimum mean square error))を最適化する加重積分、ビームフォーミング、および、三角測量などのような任意の好適なタイプのデータフュージョン技術が使用され得る。
信号変換器502はさらに、異なるタイプの特徴抽出のために信号データの複数の組み合わせを生成し得、および/または、特徴抽出の前駆体として信号データを別の表現に変換する。たとえば、信号変換器502は、ターゲット対象の3次元(3D)空間のプロファイルを生成するよう、組み合わされた信号データを処理し得る。しかしながら、ターゲット対象に関係する位相および振幅情報を含む複素ベクトルを産出するI/Q変換、ジェスチャセンサデバイスの範囲内のターゲット対象の空間表現を産出するビームフォーミング変換、または、目標速度および方向を産出するレンジドップラーアルゴリズムといった、任意の好適なタイプのアルゴリズムまたは変換が、生データのビュー、抽出物(abstraction)、または、バージョンを生成するために使用され得る。他のタイプのアルゴリズムおよび変換は、ターゲット認識情報を産出するレンジプロファイルアルゴリズム、高分解能ターゲット認識情報を産出するマイクロドップラーアルゴリズム、および、対応する周波数の視覚表現を産出するスペクトログラムアルゴリズムなどを含み得る。
本願明細書に記載されるように、生レーダデータは、それぞれの変換または組み合わされた信号データを生成するよう、いくつかの態様で処理され得る。いくつかの場合には、同じ生データが複数の態様で分析または変換され得る。たとえば、3Dプロファイル、ターゲット速度情報およびターゲット方向性運動情報を生成するよう、生データの同じキャプチャが処理され得る。生データの変換物を生成することに加えて、レーダ信号変換器は、たとえばその存在、形状、サイズ、方位、および、時間にわたる速度などに関する情報を識別するといった、ターゲット対象の基本分類を実行し得る。たとえば、いくつかの実施形態は、信号変換器502を使用して、時間にわたって手から反射されるエネルギーの量を測定することにより手の基本方位を識別する。
これらの変換および基本分類は、ハードウェア、ソフトウェア、ファームウェアまたは任意の好適な組み合わせで実行され得る。変換および基本分類はしばしば、デジタル信号プロセッサ126および/またはセンサフュージョンエンジン110によって実行される。いくつかの場合において、信号変換器502は、生レーダデータを変換するか、または、デフォルトパラメータに基づいて基本分類を実行する。他の場合において、変換または分類は、たとえばセンサフュージョンエンジン110またはコンテキストマネージャ112を通じて構成可能である。
特徴抽出器504は、信号変換器502から、レーダデータの変換された表現を受信する。これらのデータ変換物から、特徴抽出器504は、1つ以上のレーダ特徴510を分解、抽出、または、識別する。これらのレーダ特徴510は、ターゲットのさまざまな特性、力学または特徴を示し得、この例では、検出特徴512、反射特徴514、モーション特徴516、位置特徴518、および、形状特徴520を含む。これらの特徴は、例としてのみ記載されており、センサフュージョンエンジンが生レーダデータまたは変換されたレーダデータから特徴またはジェスチャ情報を抽出する態様を限定するようには意図されない。たとえば、レーダ特徴抽出器504は、信号変換器502によって提供されるレーダデータ表現から、レンジ特徴または画像特徴のような代替的なレーダ特徴を抽出し得る。
検出特徴512は、センサフュージョンエンジン110がコンピューティングデバイス102の環境においてユーザ、他の人々または対象の存在を検出することを可能にする。いくつかの場合において、検出特徴は、レーダフィールドにおける多くのターゲット、または、レーダフィールドによって掃引される部屋またはスペースにおける多くのターゲットを示す。反射特徴514は、時間にわたって反射されたエネルギーのような、ターゲットによって反射されるエネルギーのプロファイルを示し得る。これは、ターゲットのモーションの速度を時間にわたって追跡するのを可能にするのに有効であり得る。付加的または代替的には、反射特徴は、最も強い成分のエネルギーまたは移動しているターゲットのエネルギーの合計を示し得る。
モーション特徴516は、フュージョンエンジン110が、レーダフィールドにおけるターゲットの動きまたはモーションを追跡するか、または、レーダフィールドを通るターゲットの動きまたはモーションを追跡することを可能にし得る。いくつかの場合において、モーション特徴516は、1次元または3次元における速度重心を含むか、または、1次元における位相ベースの微小なターゲット変位を含む。付加的または代替的には、モーション特徴は、ターゲット速度または1D速度分散を含み得る。いくつかの実施形態では、位置特徴518は、ターゲット対象の2Dまたは3Dの空間座標を含む。位置特徴518はさらに、ターゲット対象への距離を範囲決めまたは決定するのに有用であり得る。
形状特徴520は、ターゲットまたは表面の形状を示し、空間分散を含み得る。いくつかの場合において、センサフュージョンエンジン110は、ターゲットまたはコンピューティングデバイス102の環境の3D表現を構築するために、異なるレーダフィールドをスキャンまたはビームフォームし得る。たとえば、レーダ特徴510の形状特徴520および他の特徴は、特定の部屋またはスペースの一意識別子(たとえばフィンガープリント)を構築するよう、センサフュージョンエンジン110によって組み合わせられ得る。
いくつかの実施形態において、特徴抽出器504は、特徴抽出または抜出のために、信号変換器502によって識別される基本分類上に構築される。上記の例を考えると、信号変換器502はターゲット対象を手として分類する。特徴抽出器504は、手のより低い分解能特徴を抽出するよう、この基本分類から構築され得る。言いかえれば、ターゲット対象を手として識別する情報が特徴抽出器504に提供されると、特徴抽出器504は、頭に関連する特徴(たとえば、まばたき、発言、または、頭を揺らす動き)の代わりに、手に関連する特徴(たとえばフィンガータッピング、形状ジェスチャまたはスワイプ動作)を探すためにこの情報を使用する。
別の例として、信号変換器502が、生レーダデータを時間にわたるターゲット対象の速度の測定値に変換するシナリオを考える。特徴抽出器504は、しきい値を使用してターゲット対象の加速速度を当該しきい値および遅いタップ特徴などと比較することにより、早いフィンガータップモーションを識別するためにこの情報を使用する。特徴を抽出するために、デジタル信号プロセッサ126の機械学習コンポーネント(図示せず)によって実現される機械学習アルゴリズムのような任意の好適なタイプのアルゴリズムが使用され得る。
さまざまな実施形態では、センサフュージョンエンジン110は、レーダ特徴510をセンサ118からのセンサデータ506と組み合わせるか、または、レーダ特徴510をセンサ118からのセンサデータ506により増強する。たとえば、センサフュージョンエンジン110は、特徴を抽出、識別、または、分類するために単一のアルゴリズムを適用し得るか、または、単一の特徴または複数の特徴を抽出するために複数のアルゴリズムを適用し得る。したがって、異なるアルゴリズムが、データの同じセットまたはデータの異なるセット上での異なるタイプの特徴を抽出するために適用され得る。レーダ特徴に基づいて、センサフュージョンエンジン110は、レーダ特徴に相補的または追加的なデータを提供するよう、特定のセンサをアクティベートし得る。これにより、レーダ特徴の精度または妥当性はセンサデータにより改善され得る。
センサフュージョンエンジン110は、センサベースアプリケーション108およびコンテキストマネージャ112に、センサデータ506、レーダデータ508またはそのさまざまな組み合わせを提供または公開する。たとえば、センサフュージョンエンジン110は、センサデータで増強されるレーダデータ、または、センサデータに基づいて照合されるレーダデータをセンサベースアプリケーション108に提供し得る。センサベースアプリケーション108は、デバイス機能を提供するために、または、デバイス動作を変更するために、コンピューティングデバイス102の環境またはそれについての関係に関する情報または知見を活用する任意の好適なアプリケーション、機能、ユーティリティまたはアルゴリズムを含み得る。
この特定の例では、センサベースアプリケーション108は、近接検出522、ユーザ検出524およびアクティビティ検出526を含む。近接検出アプリケーション522は、センサデータまたはレーダデータに基づき、ユーザまたは他の対象との接近を検出し得る。たとえば、近接検出アプリケーション522は、検出レーダ特徴512を使用して、接近してきている対象を検出し、ユーザとの接近を確認するために近接センサデータにスイッチングし得る。付加的または代替的には、アプリケーションは、接近している対象が、ユーザの別の同様のサイズの大きな身体の対象物ではなく顔であることを照合するために形状レーダ特徴520を活用し得る。
ユーザ検出アプリケーション524は、センサデータまたはレーダデータに基づきユーザの存在を検出し得る。いくつかの場合において、当該環境においてユーザが検出されると、ユーザ検出アプリケーション524はさらにユーザを追跡する。たとえば、ユーザ検出アプリケーション524は、検出レーダ特徴512と、ユーザの既知の3Dプロファイルをマッチする形状レーダ特徴520とに基づいて、その存在を検出し得る。ユーザ検出アプリケーション524はさらに、RGBセンサ220によって提供される画像データまたは音響センサ212によって提供される音声データによって、ユーザの検出を照合し得る。
いくつかの実施形態において、アクティビティ検出アプリケーション526は、コンピューティングデバイス102の環境におけるアクティビティを検出するようセンサデータおよびレーダデータを使用する。アクティビティ検出アプリケーション526は、検出特徴512およびモーション特徴516のためにレーダを監視し得る。付加的または代替的には、アクティビティ検出アプリケーション526は、雑音を検出するために音響センサ212を使用し得、動きを監視するためにRGBセンサ220または深さセンサ224を使用し得る。
センサベースアプリケーションはさらに、バイオメトリック認識528、生理学的監視530、および、モーション識別532を含む。バイオメトリック認識アプリケーション528は、たとえば顔認識を実現するよう、ユーザを識別するのに有用であるユーザのバイオメトリック特徴をキャプチャまたは取得するためにセンサデータおよびレーダデータを使用し得る。たとえば、バイオメトリック認識アプリケーション528は、ユーザの顔の骨格構造の3Dマップを得るために形状レーダ特徴520を使用し得、ユーザの識別性を確認するためにRGBセンサ220からのカラー画像を使用し得る。したがって、詐称者がユーザの外見を作り上げることができたとしても、詐称者は、ユーザの正確な顔構造を複製することができないので、バイオメトリック認識アプリケーション528を通じた識別に失敗することになる。
生理学的監視アプリケーション530は、呼吸、心拍数、反射運動、および細かい運動のスキルなどのようなユーザの医学的局面を検出または監視し得る。そのために、生理学的監視アプリケーション530は、たとえばユーザの胸の動きを追跡するとともに動脈の流れおよび皮膚下での筋肉収縮などを監視するよう、レーダデータを使用し得る。生理学的監視アプリケーション530は、音響データ、熱データ(たとえば温度)、画像データ(たとえば皮膚または目の色)、および、モーションデータ(たとえば震え)のような追加的なデータのためにデバイスの他のセンサを監視し得る。たとえば、生理学的監視アプリケーション530は、レーダモーション特徴516と、音響センサ212によって記録される呼吸雑音と、赤外線センサ222によってキャプチャされた呼気の熱シグネチャ(heat signature)とにより、ユーザの呼吸パターンを監視し得る。
モーション識別アプリケーション532は、さまざまなモーションシグネチャを識別するためにレーダデータおよびセンサデータを使用し得る。いくつかの場合では、モーションレーダ特徴516または他のレーダ特徴がモーションを追跡するのに有用である。そのような場合において、それらのモーションは、RGBセンサ220または深さセンサ224による正確なキャプチャには速すぎる場合がある。非常に速いモーションを追跡することができるレーダ特徴を使用することによって、モーション識別アプリケーション532は、モーションを追跡することができ、RGBセンサ220からの画像データを活用して付加的な空間情報を提供することができる。したがって、センサフュージョンエンジン110およびモーション識別アプリケーション532は、対応する空間情報により、速く移動している対象を追跡することができる。
センサベースアプリケーション108のジェスチャ検出アプリケーション534は、ジェスチャ認識およびマッピングを実行する。たとえば、フィンガータップモーション特徴が抽出された場合を考える。ジェスチャ検出アプリケーション534は、この情報、音響センサ212からの音声データ、または、RGBセンサ220からの画像データを使用して、当該特徴をダブルクリックジェスチャであると識別し得る。ジェスチャ検出アプリケーション534は、センサフュージョンエンジン110によって提供されるレーダデータおよびセンサデータに基づいて、どのジェスチャが行われた可能性が最も高いかと、さまざまなジェスチャの1つ以上の以前に学習された特性または特徴にこの情報がどのように関係があるかとについて、確率的決定を使用し得る。たとえば、機械学習アルゴリズムは、さまざまな受け取られた特徴が特定のジェスチャ(またはジェスチャの構成要素)に対応する尤度を決定するよう、これらの特徴にどのように重みを加えるかを決定するために使用され得る。
コンテキストマネージャ112は、レーダに基づいたコンテキスト感知を実現するために、センサベースアプリケーション108、センサデータ506、または、センサフュージョンエンジン110のレーダ特徴510にアクセスし得る。いくつかの実施形態において、レーダデータ508は、コンピューティングデバイス102が動作するスペースまたは部屋のマップを提供するために、センサデータ506と組み合わせられ得る。たとえば、3Dレーダ像をキャプチャしてメッシングを行うための合成開口技術を実現するために位置および慣性センサデータが活用され得る。したがって、デバイスがある環境を通って移動すると、コンテキストマネージャ112は、さまざまなスペースおよび部屋の詳細または高分解能3Dマップを構築し得る。付加的または代替的には、3D像は、光学的なオクルージョンによってキャプチャされ得るか、または、アクティビティ認識を改善するよう、センサフュージョンの他の技術と組み合わせて使用され得る。
この特定の例では、コンテキストマネージャ112は、コンテキストモデル536、デバイスコンテキスト538、および、コンテキストセッティング540を含む。コンテキストモデル536は、特定の部屋の寸法、形状または特徴のようなさまざまなスペースの物理モデルを含む。言いかえれば、コンテキストモデルは、3Dフィンガープリントのように、特定のスペースの固有の特徴を表すと考えられ得る。いくつかの場合には、コンテキストモデル536の構築は、機械学習技術を介して実現され、デバイスが特定のスペースに入るかまたは当該特定のスペースを通過すると受動的に実行され得る。デバイスコンテキスト538は、コンピューティングデバイス102が動作し得る複数のコンテキストを含むとともに、当該複数のコンテキストを示し得る。これらのコンテキストは、「ミーティング」、「取込中」、「利用可能」、「セキュア」、および「プライベート」などといった仕事のコンテキストの標準セットを含み得る。たとえば、「ミーティング」コンテキストは、複数の他の同僚および顧客と一緒に、会議室に存在しているデバイスに関連付けられ得る。付加的または代替的には、デバイスコンテキスト538は、家の異なる部屋についてのコンテキストといったように、ユーザによってプログラム可能またはカスタムであり得、各コンテキストが、そのコンテキストに関連付けられるそれぞれのレベルのプライバシーまたはセキュリティを示す。
コンテキストセッティング540は、コンテキストまたは他の環境特性に基づいて構成可能であるさまざまなデバイスまたはシステムセッティングを含む。コンテキストセッティング540は、呼出ボリューム、呼出モード、表示モード、および、ネットワークまたは他のデバイスへの接続などといった任意の好適なタイプのデバイスセッティングを含み得る。付加的または代替的には、コンテキストセッティング540は、セキュリティセッティング、プライバシーセッティング、ネットワークまたはデバイスの接続セッティング、および、リモートコントロール機能などといった、任意の好適なタイプのシステムセッティングを含み得る。たとえば、あるユーザが自身のホームシアターに歩いて入る場合、コンテキストマネージャ112は、このコンテキスト(たとえば「ホームシアター」)を認識し得、デバイスのアラートをミュートにし、ホームシアターにおける音声/ビデオ機器を制御するようデバイスの無線インターフェイスを構成することにより、コンテキストセッティングを構成し得る。これは、コンテキストマネージャ112がどのように決定し、コンテキストに基づいてデバイスを構成し得るについてのほんの一例である。
1つ以上の実施形態に従ってコンピューティングデバイス102、センサフュージョンエンジン110およびコンテキストマネージャ112のそれぞれの例を記載したが、レーダ対応センサフュージョンを実現するために、ここでは、本願明細書において記載されるそれらおよび他のエンティティによって実行され得る技術の議論を考える。
例示的な方法
図6、図8、図10、図11、図13および図14は、レーダ対応センサフュージョンおよび/またはレーダベースのコンテキスト感知を実現するための方法を示す。これらの方法は、実行される動作を特定するブロックのセットとして示されているが、それぞれのブロックによって動作を実行するために、示される順序または組み合わせに必ずしも限定されない。たとえば、本願明細書において記載される概念から逸脱することなく代替的な方法を実現するよう、異なる方法の動作が任意の順序で組み合わされ得る。以下の議論の部分では、図1〜図5を参照して当該技術が記載され得る。図1〜図5への参照は例示目的のみである。当該技術は、これらの図において記載される1つのデバイスまたは複数のデバイス上で動作する1つのエンティティまたは複数のエンティティによる実行に限定されない。
図6は、レーダセンサ120、センサフュージョンエンジン110またはコンテキストマネージャ112によって実行される動作を含む、追加的なセンサデータによりレーダデータを増強するための例示的な方法600を示す。
602において、図2または図3に示されるレーダフィールドのうちの1つのようなレーダフィールドが提供される。レーダフィールドは、図1のレーダセンサ120およびレーダ放射要素122と同様に実現され得るか、または、図1のレーダセンサ120およびレーダ放射要素122とは異なって実現され得るレーダシステムまたはレーダセンサによって提供され得る。提供されるレーダフィールドは、広いビームの完全な連続するレーダフィールドか、または、方向付けされた細いビームのスキャンされたレーダフィールドを含み得る。いくつかの場合において、レーダフィールドは、57〜64GHzまたは59〜61GHzのような60GHz帯に近い周波数で提供されるが、他の周波数帯が使用され得る。
例として、700においてラップトップコンピュータ102−5がレーダセンサ120を含み、レーダ対応センサフュージョンを実現可能である図7を考える。ここで、ユーザ702は、一人称シューティング(FPS: first person shooter)ビデオゲームをプレイするために、ラップトップ102−5のジェスチャ駆動コントロールメニューを使用していると仮定する。レーダセンサ120は、ゲームコントロールを可能にするようユーザ702の動きをキャプチャするためにレーダフィールド704を提供する。
604において、レーダフィールドにおけるターゲットに対応する1つ以上の反射信号が受信される。レーダ反射信号は、レーダフィールド内の人もしくは対象またはレーダフィールドを通過する人もしくは対象といった、レーダフィールドにおけるターゲット対象の複数点の重畳として受信され得る。本例のコンテキストにおいて、ユーザの手からの反射信号はレーダセンサ120によって受信される。
606において、1つ以上の反射信号がレーダデータ表現に変換される。反射信号は、たとえばレンジドップラー変換、レンジプロファイル変換、マイクロドップラー変換、I/Q変換、または、スペクトログラム変換を実行することにより、任意の好適な信号処理を使用して変換され得る。当該例を引き続き参照して、レーダセンサは、ユーザの手についてターゲット速度および方向情報を提供するようレンジドップラー変換を実行する。
608において、ターゲットの特徴を示すレーダ特徴がレーダデータから抽出される。レーダ特徴は、ターゲットの特徴、ターゲットの位置、または、ターゲットの力学のリアルタイム測定を提供し得る。レーダ特徴は、検出特徴、反射特徴、モーション特徴、位置特徴または形状特徴のような任意の好適なタイプの特徴を含み得、それらの例が本願明細書において記載される。本例のコンテキストでは、ユーザの手の反射レーダ特徴およびモーションレーダ特徴が、レーダデータから抽出される。
610において、レーダ特徴に基づいてセンサがアクティベートされる。当該センサは、追加的なデータを提供するためにアクティベートされ得る。いくつかの場合において、レーダ特徴またはレーダ特徴のタイプに基づいて、アクティベーションについてセンサが選択される。たとえば、RGBまたは赤外線センサは、表面特徴またはモーション特徴について追加的なセンサデータを提供するためにアクティベートされ得る。他の場合において、モーション特徴または位置特徴について追加的なデータを得るために加速度計またはジャイロスコープがアクティベートされ得る。さらに別の場合において、検出特徴を改善するよう、マイクロフォンまたは深さセンサからデータが受信され得る。当該例を引き続き参照して、センサフュージョンエンジン110は、空間情報をキャプチャするためにラップトップ102−5のRGBセンサ220をアクティベートする。
612において、レーダ特徴は、追加的なセンサデータにより増強される。これは、より正確または精密なレーダ特徴を提供するよう、レーダ特徴およびセンサデータを組み合わせるか、または、レーダ特徴およびセンサデータをフュージョンすることを含み得る。レーダ特徴を増強することは、追加的または相補的なセンサデータに基づいてレーダ特徴の精度または分解能を改善することを含み得る。このセンサフュージョンの例は、センサデータを使用して、レーダ特徴の位置の精度を増加させること、レーダ特徴に起因する誤りの検出を軽減すること、レーダ特徴の空間分解能を増加させること、レーダ特徴の表面分解能を増加させること、または、レーダ特徴の分類精度を改善することを含み得る。本例のコンテキストにおいて、センサフュージョンエンジン110は、非常に速い動きを空間的にキャプチャするセンサ情報を提供するよう、モーションレーダ特徴516およびRGB情報を組み合わせる。いくつかの場合において、RGBセンサ220は、センサの固有の制限により、そのようなモーションを検出またはキャプチャすることができない。
614において、増強されたレーダ特徴は、センサベースアプリケーションに提供される。これは、センサベースアプリケーションの性能を増加するのに有効であり得る。いくつかの場合において、レーダ特徴の増強により、近接検出、ユーザ検出、アクティビティ検出、およびジェスチャ検出などのような検出アプリケーションの精度が増加される。そのような場合において、センサデータは、たとえばターゲットの検出を確認または覆すことによって、誤った検出を除去するよう使用され得る。他の場合では、レーダ特徴の増強により、アプリケーションの一貫性が改善され得る。本例を結論付けると、フュージョンされたレーダデータ特徴が、ジェスチャ検出アプリケーション534に渡され、ジェスチャ検出アプリケーション534がゲームコントロール入力としてジェスチャをFPSビデオゲームへ渡す。
図8は、レーダセンサ120、センサフュージョンエンジン110またはコンテキストマネージャ112によって実行される動作を含む、低電力センサフュージョンのための例示的な方法を示す。
802において、デバイスのレーダセンサは、レーダフィールドの反射信号の変化について監視される。レーダセンサは、反射信号がそこから受信される連続的または断続的なレーダフィールドを提供し得る。いくつかの場合において、レーダセンサは、動作時において消費する電力がデバイスの他のセンサよりも少ない、デバイスの低電力センサである。反射信号の変化は、デバイスの動きまたはデバイスの環境内のターゲットの動きによって引き起こされ得る。例として、リビングルームにおいて第1のユーザ904がレーダ対応テレビジョン902を見ている図9の環境900を考える。ここで、ユーザ904が雑誌を読み始め、第2のユーザ906がリビングルームを入ってきたと仮定する。テレビジョンのレーダセンサ120は、第1および第2のユーザのこれらのアクションによって引き起こされた、反射されたレーダ信号の変化を検出する。
804において、反射信号はレーダフィールドにおいてターゲットを検出するよう変換される。いくつかの場合において、レーダフィールドにおけるターゲットの検出を確認するために、変換されたレーダデータから検出特徴が抽出される。他の場合において、ターゲットの物理的な特徴またはレーダフィールドにおけるターゲットの動きを識別するよう、形状特徴またはモーション特徴が、変換されたレーダデータから抽出される。本例のコンテキストにおいて、第1および第2のユーザについて検出レーダ特徴が、反射されたレーダ信号から抽出される。
806において、反射信号におけるターゲットの検出に応答して、ターゲットに関連するセンサデータを得るよう、高電力センサが低電力状態からアクティベートされる。たとえば、レーダ検出特徴がレーダフィールドでのユーザの動きまたは存在を示す場合、ユーザの像をキャプチャするためにRGBセンサがアクティベートされ得る。他の場合において、デバイスが移動していることを示す位置レーダ特徴または反射レーダ特徴に応答して、デバイスのGPSモジュールがアクティベートされ得る。当該例を引き続き参照して、センサフュージョンエンジン110は、テレビジョン902のRGBセンサ220をアクティベートする。RGBセンサ220は、第1のユーザ904の顔画像データ908と、第2のユーザ906の顔画像データ910とを得る。この画像データは、たとえば視線追跡または他の動的な顔認識機能を可能にするよう、ユーザの顔の静止画像またはビデオであり得る。
808において、ターゲットに関連するセンサデータが、センサベースアプリケーションに渡される。センサベースアプリケーションは、本願明細書において記載されるアプリケーションのような任意の好適なアプリケーションを含み得る。いくつかの場合において、レーダフィールドでの特定のアクティビティまたはターゲットの検出に応答して、センサベースアプリケーションの実行が開始または再開される。たとえば、コントロールエリアに認定されていない人が入ってきたことを示すアクティビティ特徴の感知に応答して、監視アプリケーションが再開され得る。その後、RGBセンサは、監視アプリケーションに画像データを渡し得る。図9における本例のコンテキストにおいて、RGBセンサは、顔画像データ908および顔画像データ910をバイオメトリック認識アプリケーション528へ渡す。
810において随意に、変換されたレーダデータから抽出されるレーダ特徴が、センサベースアプリケーションに渡される。いくつかの場合において、レーダ特徴は、センサベースアプリケーションに渡されたセンサデータについて付加的なコンテキストを提供する。たとえば、位置レーダ特徴は、RGB像を受信するアプリケーションに渡され得、これにより、当該アプリケーションが、当該像におけるターゲットにそれぞれの位置情報をタグ付けすることを可能にする。
当該例を引き続き参照して、センサフュージョンエンジン110は、ユーザの顔のそれぞれのレーダ表面特徴をバイオメトリック認識アプリケーション528に渡す。ここで、当該アプリケーションは、第1のユーザ904がテレビジョンを見ていないと決定し得(たとえば視線追跡)、第2のユーザ906がテレビジョン902を見ることに興味を持っていると決定し得る。顔画像データ910を使用して、センサフュージョンエンジン110は第2のユーザ906を識別し得、第2のユーザ906の識別性に基づいて、当該識別性に関連付けられる閲覧履歴を抽出する。コンテキストマネージャ112は、この閲覧履歴を活用して、第2のユーザ906が最後に見たチャネルへテレビジョンのチャネルを変更する。
812において、高電力センサは低電力状態に戻される。センサデータがひとたびセンサベースアプリケーションに渡されると、高電力センサは、デバイスの電力を節約するために低電力状態に戻され得る。レーダセンサは、多くの能力を提供しつつ消費する電力は相対的に小さいので、他のセンサは、より多くのセンサに特有のデータが得られる必要があるまで、低電力状態のままであり得る。これにより、デバイスの電力消費が低減され得、これは、バッテリで駆動されるデバイスについて実行時間を増加するのに有効である。方法800は、レーダフィールドの反射信号におけるその後の変化についてレーダセンサを監視するよう、動作812から動作802に戻り得る。本例を結論付けると、RGBセンサ220は、テレビジョンのチャネルを変更した後に低電力状態に戻され、さらに別のアクティビティがレーダセンサ120によって検出されるまで、低電力状態で存在し得る。
図10は、レーダセンサ120、センサフュージョンエンジン110またはコンテキストマネージャ112によって実行される動作を含む、レーダ特徴によりセンサデータを向上させるための例示的な方法を示す。
1002において、デバイスのセンサは環境の変動について監視される。当該センサは、図2を参照して記載されるセンサおよび本願明細書の他の箇所に記載されるセンサといった、任意の好適なタイプのセンサを含み得る。センサは、デバイスモーション、または、環境雑音または光のようなデバイスから離れた変動のような、デバイスの物理的状態の変動を監視するように構成され得る。いくつかの場合には、デバイスの電力を節約するために、デバイスが低電力状態にある間、または、デバイスの低電力プロセッサによっている間、センサは監視される。
1004において、環境の変動がセンサを介して検出される。環境の変動は、ユーザの声、環境雑音、デバイスモーション、ユーザの接近、温度変化、および、環境光の変化などといった任意の好適なタイプの変動を含み得る。検出された環境の変動は、特定のコンテキスト、アクティビティ、および、ユーザなどに関連付けられ得る。たとえば、環境の変動は、スリープ状態からデバイスを起動して使用のためにデバイスのロック解除を行うユーザからの音声コマンドを含み得る。
1006において、環境の変動の検出に応答して、レーダフィールドを提供するためにレーダセンサがアクティベートされる。デバイスのレーダセンサは、センサによって提供されるデータに追加的または相補的であるレーダデータを提供するようアクティベートされ得る。いくつかの場合において、レーダフィールドは、環境の変動または環境の変動を特徴付けるセンサデータを検出するセンサのタイプに基づいて構成される。たとえば、ユーザの接近が検出される場合、レーダセンサは、ユーザを識別するのに好適な短レンジレーダフィールドを提供するように構成される。他の場合において、レーダセンサは、環境雑音または振動の検出に応答して、掃引長レンジレーダフィールドを提供するように構成され得る。そのような場合、長レンジレーダフィールドは、アクティビティまたは雑音の源に関連付けられる位置を検出するために使用され得る。
1008において、レーダフィールドからの反射信号は、レーダデータを提供するために変換される。反射信号は、たとえばレンジドップラー変換、レンジプロファイル変換、マイクロドップラー変換、I/Q変換、または、スペクトログラム変換を実行することにより、任意の好適な信号処理を使用して変換され得る。いくつかの場合において、環境の変動またはセンサによって提供されるデータを検出するセンサのタイプに基づいて、レーダデータを提供するために使用される変換のタイプが選択される。
1010において、レーダ特徴がレーダデータから抽出される。レーダ特徴は、環境の変動に基づいて抽出され得る。いくつかの場合において、レーダ特徴のタイプは、環境の変動または環境の変動のタイプに基づいて選択される。たとえば、検出特徴またはモーション特徴は、音響センサが環境雑音を検出することに応答して選択され得る。他の場合では、加速度計がデバイスの動きを感知することに応答して、レーダセンサは位置特徴または形状特徴を抽出し得る。
1012において、センサデータはレーダ特徴により増強され、これにより、向上されたセンサデータが提供される。これは、センサデータに関連付けられる精度または信頼レートを増加させるのに有効であり得る。言いかえれば、センサが精度、レンジまたは別の測定に関して欠点を有する場合、レーダデータは、この欠点を補償するとともにセンサデータの品質を改善し得る。たとえば、ユーザの顔の表面特徴は、ユーザの識別性と、デバイスのロックを解除するよう受信される音声コマンドの妥当性とを確認し得る。
1014において、向上されたセンサデータは、センサベースアプリケーションに公開される。これは、アプリケーションの精度を改善することと、アプリケーションによって使用されるセンサデータの量を低減することと、アプリケーションの機能を拡張することとなどによって、センサベースアプリケーションの性能を改善するのに有効であり得る。たとえば、動きに応答してデバイスを起動するモーションベースの電力状態アプリケーションがさらに、モーションデータおよびユーザの顔の構造の表面特徴を含む向上されたセンサデータに基づいて、ユーザを認証し、デバイスをロック解除し得る。
図11は、レーダセンサ120、センサフュージョンエンジン110またはコンテキストマネージャ112によって実行される動作を含む、対象のスペースについて3Dコンテキストモデルを作成するための例示的な方法を示す。
1102において、デバイスのレーダセンサが、対象のスペースまたはエリアについてのレーダデータを得るためにアクティベートされる。レーダセンサは、デバイスが当該スペースまたはエリアに入るように移動していることを示す慣性データまたはGPSデータのようなデバイスの動きに応答してアクティベートされ得る。いくつかの場合において、レーダセンサは、当該スペースにおける無線アクセスポイント、無線電気製品または他の無線デバイスといった未知のデバイスがデバイスの無線インターフェイスによって検出可能であるデータを送信することを検出することに応答してアクティベートされる。
例として、ユーザ1202が自身のポケットに自分のスマートフォン102−3を入れた状態でリビングルームに入った図12の環境1200を考える。ここで、ユーザ1202は以前にこのスペースにいたことがなく、したがって、スマートフォン102−2はこのスペースに関連付けられる以前のコンテキスト情報を有していないと仮定する。テレビジョン1204のオープンエリアまたは無線データ送信の感知に応答して、スマートフォン102−3のレーダセンサ120は、レーダが透過するポケット材料を通って部屋をスキャニングを開始し、レーダデータを取得することを開始する。ユーザが部屋において方位を変更すると、レーダセンサ120は、付加的なレーダデータを得るために部屋をスキャニングし続ける。
1104において、3Dレーダ特徴がレーダデータから抽出される。3Dレーダ特徴は、3Dレーダ特徴か、または、3Dレーダ特徴を構築するのに有用な1Dおよび2Dの特徴の組み合わせを含み得る。3Dレーダ特徴は、対象のスペースまたはエリアの物理的局面をキャプチャするレーダ反射特徴、モーション特徴または形状特徴を含み得る。たとえば、3Dレーダ特徴は、家具、壁、電気製品、床敷物および建築上の特徴などのような当該スペースにおけるターゲットについてのレンジ、位置または形状情報を含み得る。本例のコンテキストにおいて、コンテキストマネージャ112は、テレビジョン1204、植物1206、ドア1208、ランプ1210、絵1212およびソファ1214のような、部屋におけるターゲットの位置および表面レーダ特徴を抽出する。レーダ形状は、部屋における各ターゲットのおよその形状、表面質感または(他のターゲットに対して絶対的または相対的な)位置を示し得る。
1106において、位置データはデバイスのセンサから受信される。位置データは、方位データ、慣性データ、モーションデータおよび方向データなどを含み得る。いくつかの場合において、レーダスキャニングまたはレーダイメージングのために、合成開口技術を実現するのに位置データが有用である。付加的または代替的には、デバイスの他のセンサが、スペースの環境を示すデータを提供し得る。たとえば、音響センサは、当該スペースに存在する環境雑音(たとえばファンの雑音または機械類の雑音)を識別するのに有用なデータを提供し得る。当該例を引き続き参照して、スマートフォン102−3の加速度計202は、ユーザが部屋の全体にわたって移動すると、センサフュージョンエンジン110に慣性および方位データを提供する。
1108において、当該位置データに基づいて、3Dレーダ特徴の空間関係が決定される。言及されたように、位置データは、合成開口を提供するために活用され得る。合成開口を通じて、レーダセンサは対象のエリアをスキャニングし得る。言いかえれば、デバイスがスペースを通って移動すると、レーダセンサは、複数の3Dレーダ特徴として部屋の物理的特徴をキャプチャし得る。その後、センサから受信される位置データは、複数の3D特徴同士間の空間関係を決定するために使用され得るか、または、これらの特徴がどのように3Dスペースに一緒にフィットするかを決定するために使用され得る。本例のコンテキストにおいて、コンテキストマネージャ112は、加速度計202の慣性および方位データを使用することによって、部屋におけるターゲット同士間の空間関係を決定する。
1110において、3Dマップの部分が3Dレーダ特徴およびその空間関係に基づいて生成される。3Dマップは、レーダ特徴によってキャプチャされるランドマークに基づいてスペースまたは部屋の部分について生成され得る。これらのランドマークは、家具、当該スペースの基本形状および形状寸法、ならびに、表面の反射率などといった、スペースの識別可能な物理的な特徴を含み得る。方法1100は、スペースの3Dマップの別の部分を生成するか、または、動作1112に進むために、動作1110から動作1102に戻り得る。当該例を引き続き参照して、センサフュージョンエンジンが部屋のほとんどをスキャニングしたと仮定すると、コンテキストマネージャ112は、当該部屋におけるターゲット1204〜1214のレーダ特徴および/または部屋の全体寸法に基づき、部屋の3Dマップの複数の部分を生成する。
1112において、3Dマップのこれらの部分は、スペースの3Dモデルを作成するために組み合わせられる。いくつかの場合において、3Dマップの当該部分は、それぞれの縁部をオーバーラップさせることによって、アセンブルされ得るか、または、メッシングされ得る。他の場合では、3Dマップの当該部分は、以前に得られた位置データに基づいて組み合わせられる。スペースの3Dマップは、レーダデータから抽出される多くの実現可能な3Dレーダ特徴に依存して、完全であるか、または、部分的であり得る。本例のコンテキストにおいて、コンテキストマネージャ112は、リビングルームの3Dモデルを提供するために、以前に生成された部分をメッシングする。
1114において、スペースの3Dモデルは、スペースのコンテキストに関連付けられる。これは、スペースの3Dコンテキストモデルを作成するのに有効であり得る。コンテキストは、部屋のタイプ、セキュリティレベル、プライバシーレベルおよびデバイスオペレーティングモードなどといった任意の好適なタイプのコンテキストであり得る。いくつかの場合において、コンテキストは、ユーザによって規定される。これは、予め規定されたコンテキストのリストから選択するようにユーザに促すことを含み得る。他の場合において、機械学習ツールが、マッピング動作を実現し得、スペースの物理的特徴に基づいてコンテキストを割り当て得る。当該例を引き続き参照して、コンテキストマネージャ112は、テレビジョン1204およびソファ1214の存在に基づいて、スペースに「リビングルーム」コンテキストを関連付ける。このコンテキストは、当該エリアはプライベートであり、セキュリティリスクは低いということと、テレビジョン1204はメディア対応であり、無線またはジェスチャで駆動される制御機能を通じて制御され得ることとを示す。たとえば、スマートフォン102−3上でのメディアの再生は、リビングルームに入ったときに、テレビジョン1204に転送され得る。
1116において、スペースの3Dコンテキストモデルがデバイスによって格納される。3Dコンテキストモデルは、ローカルメモリに格納され得るか、または、クラウドにアップロードされ得、これにより、デバイスまたは他のデバイスによるアクセスが可能になる。いくつかの場合において、3Dコンテキストモデルを格納することは、レーダセンサを介するスペースのその後の識別を可能にする。たとえば、デバイスは、スペースとそれに関連付けられるコンテキストとをデバイスが学習および記憶することを可能にする3Dコンテキストモデルのライブラリを維持し得る。本例を結論付けると、コンテキストマネージャ112は、その後のアクセスおよびデバイス構成を可能にするために、リビングルームの3Dコンテキストモデルを格納する。その例が本願明細書において記載される。
図13は、レーダセンサ120、センサフュージョンエンジン110またはコンテキストマネージャ112によって実行される動作を含む、3Dコンテキストモデルに基づいてデバイスのコンテキストセッティングを構成するための例示的な方法を示す。
1302において、デバイスのレーダセンサは、対象のスペースまたはエリアについてレーダデータを得るためにアクティベートされる。レーダセンサは、デバイスが当該スペースまたはエリアに入るように移動していることを示す慣性データまたはGPSデータのようなデバイスの動きに応答してアクティベートされ得る。いくつかの場合において、レーダセンサは、デバイスが以前に関連付けられたスペースにおける無線アクセスポイント、無線電気製品または他の無線デバイスといった既知のデバイスを検出することに応答してアクティベートされる。
1304において、3Dレーダ特徴がレーダデータから抽出される。3Dレーダ特徴は、3Dレーダ特徴か、または、3Dレーダ特徴を構築するのに有用な1Dおよび2Dの特徴の組み合わせを含み得る。3Dレーダ特徴は、対象のスペースまたはエリアの物理的局面をキャプチャするレーダ反射特徴、モーション特徴または形状特徴を含み得る。たとえば、3Dレーダ特徴は、家具、壁、電気製品、床敷物および建築上の特徴などのような当該スペースにおけるターゲットについてのレンジ、位置または形状情報を含み得る。
1306において、位置データはデバイスのセンサから受信される。位置データは、方位データ、慣性データ、モーションデータおよび方向データなどを含み得る。いくつかの場合において、レーダスキャニングまたはレーダイメージングのために、合成開口技術を実現するのに位置データが有用である。付加的または代替的には、デバイスの他のセンサが、スペースの環境を示すデータを提供し得る。たとえば、音響センサは、当該スペースに存在する環境雑音(たとえばファンの雑音または機械類の雑音)を識別するのに有用なデータを提供し得る。
1308において、センサによって提供された位置データに基づいて、3Dレーダ特徴の空間関係が決定される。言及されたように、位置データは、合成開口を提供するために活用され得る。合成開口を通じて、レーダセンサは対象のエリアをスキャニングし得る。言いかえれば、デバイスがスペースを通って移動すると、レーダセンサは、複数の3Dレーダ特徴として部屋の物理的特徴をキャプチャし得る。その後、センサから受信される位置データは、複数の3D特徴同士間の空間関係を決定するために使用され得るか、または、これらの特徴がどのように3Dスペースに一緒にフィットするかを決定するために使用され得る。
1310において、スペースの3Dランドマークのセットは、3Dレーダ特徴およびその空間方位に基づいて生成される。これらのランドマークは、家具、当該スペースの基本形状および形状寸法、ならびに、表面の反射率などといった、スペースの識別可能な物理的な特徴を含み得る。たとえば、会議室の3Dランドマークは、特定形状の脚部を有するテーブルと、天井から突出する支柱に搭載されるオーバーヘッドプロジェクタとを含み得る。
1312において、当該3Dランドマークのセットは既知の3Dコンテキストモデルと比較される。これは、デバイスが既知の3Dコンテキストモデルに基づいて動作しているスペースを識別するのに有効であり得る。いくつかの場合において、3Dランドマークのセットが3Dコンテキストモデルのセットに対応すると、既知の3Dコンテキストモデルへのマッチが決定される。たとえば家具を移動または置換するといった時間にわたる変動性を考慮すると、3Dランドマークの十分な部分が予め規定された信頼しきい値に合致するようマッチする場合に、マッチが決定され得る。そのような場合において、部屋形状および固定された構造(たとえば階段)を含み得る静的な3Dランドマークは、モデルマッチングレートに対して動的なランドマークが有する影響を最小化するよう、より重く重み付けされ得る。
1314において、スペースに関連付けられるコンテキストが、マッチングする3Dコンテキストモデルに基づいて抽出される。スペースについてのマッチがひとたび決定されると、デバイスに適用するべきコンテキストがデバイスによって抽出またはアクセスされ得る。コンテキストは、プライバシーコンテキスト、ミーティングコンテキスト、アポイントメントコンテキストまたはセキュリティコンテキストといった任意の好適なタイプのコンテキストであり得る。付加的または代替的には、3Dコンテキストモデルのコンテキストが現在のデバイスセッティングに対して不一致であるか、または、期限切れである場合、ユーザは、コンテキストを選択するか、コンテキストを作成するか、または、スペースについてコンテキストを更新するように促され得る。
1316において、コンテキストセッティングは、スペースに関連付けられるコンテキストに基づいて構成される。構成されるコンテキストセッティングは、呼出ボリューム、呼出モード、表示モード、および、ネットワークまたは他のデバイスへの接続などといった任意の好適なタイプのセッティングを含み得る。さらに、セキュアコンテンツまたはプライベートコンテンツの表示を可能または制限するよう、デバイスのセキュリティセッティングまたはプライバシーセッティングが構成され得る。
図14は、レーダセンサ120、センサフュージョンエンジン110またはコンテキストマネージャ112によって実行される動作を含む、コンテキストにおける変化に応答してコンテキストセッティングを変更するための例示的な方法を示す。
1402において、デバイスのレーダセンサは、対象のエリアについてレーダデータを得るためにアクティベートされる。レーダセンサは、そのエリアにおけるターゲットによって信号がそこから反射される連続または方向性のあるレーダフィールドを発し得る。当該エリアにおけるターゲットは、壁、家具、窓、床敷物、電気製品および部屋形状などといった任意の好適なタイプの対象を含み得る。例として、ユーザ1502がタブレットコンピュータ102−4によって表示されるデジタルコンテンツを読んでいる図15の環境1500を考える。ここで、コンテキストマネージャ112は、テーブルコンピュータが動作している部屋についてレーダデータを得るために、タブレットコンピュータ102−4のレーダセンサ120をアクティベートする。
1404において、レーダ特徴がレーダデータから抽出される。3Dレーダ特徴は、3Dレーダ特徴か、または、3Dレーダ特徴を構築するのに有用な1Dおよび2Dの特徴の組み合わせを含み得る。3Dレーダ特徴は、対象のスペースまたはエリアの物理的局面をキャプチャするレーダ反射特徴、モーション特徴または形状特徴を含み得る。たとえば、3Dレーダ特徴は、スペースにおけるターゲットについてのレンジ、位置または形状情報を含み得る。本例のコンテキストにおいて、タブレットコンピュータ102−4のセンサフュージョンエンジン110は、環境1500のリビングルーム内のターゲットと環境1500のリビングルームの形状とを識別するのに有用であるレーダ特徴を抽出する。
1406において随意に、デバイスのセンサからデータが受信される。いくつかの場合において、センサデータはスペースについてのコンテキストを決定するのに有用である。たとえば、音響センサは、噴水の流水またはファンの雑音の特定の周波数といった、スペースにおいて識別可能な環境雑音に関連付けられるデータを提供し得る。他の場合において、電気製品または電子デバイスは、特定のスペースについての識別データを提供するために音響センサによって検出され得る特定のヒューという雑音、ブーンいう雑音または超音波雑音を発し得る。
1408において、スペースについてのコンテキストは、少なくともレーダ特徴に基づいて決定される。いくつかの場合において、デバイスについてのコンテキストは、レーダ特徴に由来する形状および占有に基づいて決定される。たとえば、コンテキストマネージャは、デバイスのまわりのプライバシーバブル(privacy bubble)をセットするために、スペースのサイズと、他の占有者の数と、それらの占有者への距離とを決定し得る。他の場合において、レーダ特徴におけるランドマークのセットは、既知の3Dコンテキストモデルと比較される。これは、既知の3Dコンテキストモデルに基づいて、デバイスが動作しているスペースを識別するのに有効であり得る。
既知であると記載されているが、3Dコンテキストモデルはさらに、たとえばデバイス位置(たとえばGPS)に基づいて、アクセスされるか、または、デバイスにダウンロードされ得る。付加的または代替的には、他のタイプのセンサデータが、既知の3Dコンテキストモデルのデータと比較され得る。たとえば、デバイスによって検出される音およびワイヤレスネットワークは、既知の3Dコンテキストモデルの音響およびネットワークデータと比較され得る。当該例を引き続き参照して、タブレットコンピュータ102−4のコンテキストマネージャ112は、プライベートでややセキュアなコンテキストである「リビングルーム」として環境1500のコンテキストを決定する。
1410において、デバイスのコンテキストセッティングは、決定されたコンテキストに基づいて構成される。構成されるコンテキストセッティングは、呼出ボリューム、呼出モード、表示モード、および、ネットワークまたは他のデバイスへの接続などといった任意の好適なタイプのセッティングを含み得る。さらに、セキュアコンテンツまたはプライベートコンテンツの表示を可能または制限するよう、デバイスのセキュリティセッティングまたはプライバシーセッティングが構成され得る。本例のコンテキストにおいて、未知の人1504が部屋を入る前に、コンテキストマネージャ112は、プライベートコンテキストについてタブレットコンピュータ102−4の表示セッティング、セキュリティセッティングおよびアラートセッティングを構成すると仮定する。プライベートコンテキストにおいて、これらのセッティングは完全に有効化されるか、または、オープンとなる。
1412において、スペースはレーダセンサを介してアクティビティについて監視される。レーダセンサは、反射信号がそこから受信される連続的または断続的なレーダフィールドを提供し得る。いくつかの場合において、レーダセンサは、反射信号の変化に応答して、レーダフィールドにおけるアクティビティまたはターゲットを検出する。当該例を引き続き参照して、レーダセンサ120は、コンテキストの変化を示し得る任意のアクティビティまたは検出イベントについて、環境1500を監視する。
1414において、当該スペースにおけるアクティビティの源を識別するために、レーダ特徴がレーダデータから抽出される。これは、スペースにおけるターゲットを識別するために、検出特徴、モーション特徴または形状レーダ特徴を抽出することを含み得る。いくつかの場合において、アクティビティの源は、部屋から去る人といった、当該スペースを去るターゲットである。他の場合では、アクティビティの源は、スペースを入る人々または対象を含み得る。本例のコンテキストにおいて、未知の人1504が部屋に入りユーザ1502に接近すると仮定する。これに応答して、レーダセンサ120は、未知の人1504の識別を促進するために、検出および形状レーダ特徴1506を提供する。
1416において、アクティビティの源はスペースのコンテキストを変更すると決定される。いくつかの場合において、他の人々がスペースを去ることにより、ユーザプライバシーが増加するか、または、デバイスに対する雑音拘束条件が低減し、これにより、コンテキストがよりオープンになる。他の場合において、人々がスペースに入るか、または、デバイスに接近するように移動することにより、ユーザプライバシーが減少し得るか、または、デバイスおよびユーザについてセキュリティ上の問題が増加し得る。プライバシーの低減またはセキュリティについての必要性の増加により、デバイスのコンテキストは、よりプライベートかつセキュリティ志向になり得る。当該例を引き続き参照して、形状レーダ特徴1506は、顔認識を介して、未知の人1504を識別する試みに使用される。ここで、その顔認識が失敗し、未知のエンティティの存在がプライバシーとセキュリティに関してスペースのコンテキストを変更するとコンテキストマネージャ112が決定したと仮定する。
1418において、デバイスのコンテキストセッティングは、スペースのコンテキストの変化に基づいて変更される。コンテキストの変化に応答して、デバイスのコンテキストセッティングは、コンテキスト変化を補償するように変更され得る。デバイスのコンテキストがプライバシーまたはセキュリティにおいて増加すると、コンテキストセッティングの変更は、たとえば、ディスプレイを暗くするか、特定のアプリケーションを無効化するか、ディスプレイポラライゼーション(display polarization)に影響を与えるか、デバイスの無線接続を制限するか、または、音声再生ボリュームを低減することにより、デバイスによって公開されるコンテンツを制限することを含み得る。本例を結論付けると、コンテキストの変化の検出に応答して、コンテキストマネージャ112は、たとえば、セキュアアプリケーションを閉じるか、アラートおよびデバイスオーディオのボリュームを低減するか、または、未知の人がタブレットのコンテンツを識別することができないように表示されたコンテンツのフォントサイズを低減することにより、タブレットコンピュータ102−4のプライバシーおよびセキュリティセッティングを増加する。
例示的なコンピューティングシステム
図16は、レーダ対応センサフュージョンを実現するために、上記の図1〜図15を参照して記載されるように任意のタイプのクライアント、サーバおよび/またはコンピューティングデバイスとして実現され得る例示的なコンピューティングシステム1600のさまざまなコンポーネントを示す。
コンピューティングシステム1600は、デバイスデータ1604(たとえば受信されたデータ、受信中のデータ、ブロードキャスト送信のためにスケジュールされているデータ、データのデータパケットなど)の有線および/または無線通信を可能にする通信デバイス1602を含む。デバイスデータ1604または他のデバイスコンテンツは、デバイスの構成セッティング、デバイス上に格納されるメディアコンテンツ、および/または、デバイスのユーザに関連付けられる情報(たとえばジェスチャを実行する行為者の識別性)を含み得る。コンピューティングシステム1600上に格納されるメディアコンテンツは、任意のタイプの音声、ビデオおよび/または画像データを含み得る。コンピューティングシステム1600は、人間の発声と、レーダフィールドとのインタラクションと、ユーザが選択可能な入力(明示または暗黙的)と、メッセージと、音楽と、テレビジョンメディアコンテンツと、記録されたビデオコンテンツと、任意のコンテンツおよび/またはデータ源から受信される任意の他のタイプの音声、ビデオおよび/または画像データといった、任意のタイプのデータ、メディアコンテンツおよび/または入力が受信され得る1つ以上のデータ入力1606を含む。
コンピューティングシステム1600はさらに、シリアルおよび/またはパラレルインターフェイスと、無線インターフェイスと、任意のタイプのネットワークインターフェイスと、モデムと、任意の他のタイプの通信インターフェイスとのうちのいずれか1つ以上として実現され得る通信インターフェイス1608を含む。通信インターフェイス1608は、コンピューティングシステム1600と通信ネットワークとの間の接続および/または通信リンクを提供する。当該接続および/または通信リンクによって、他の電子デバイス、コンピューティングデバイスおよび通信デバイスがコンピューティングシステム1600とデータを通信する。
コンピューティングシステム1600は、コンピューティングシステム1600の動作を制御するとともに、レーダ対応センサフュージョンのための技術またはレーダ対応センサフュージョンが具現化され得る技術を可能にするよう、さまざまなコンピュータ実行可能命令を処理する1つ以上のプロセッサ1610(たとえば、マイクロプロセッサおよびコントローラなどのうちのいずれか)を含む。代替的または付加的には、コンピューティングシステム1600は、一般に1612において識別される、ハードウェア、ファームウェア、または、処理および制御回路に関して実現される固定論理回路のうちのいずれかまたは組み合わせにより実現され得る。示されていないが、コンピューティングシステム1600は、デバイス内においてさまざまなコンポーネントを結合するシステムバスまたはデータ転送システムを含み得る。システムバスは、メモリバスもしくはメモリコントローラ、周辺バス、ユニバーサルシリアルバス、および/または、さまざまなバスアーキテクチャのうちのいずれかを利用するプロセッサもしくはローカルバスといった異なるバス構造のうちのいずれか1つまたは組み合わせを含み得る。
コンピューティングシステム1600はさらに、永続的および/または一時的でない(すなわち単なる信号伝送とは対照的な)データの格納を可能にする1つ以上のメモリデバイスといったコンピュータ読取可能媒体1614を含む。当該コンピュータ読取可能媒体1614の例は、ランダムアクセスメモリ(RAM)と、不揮発性メモリ(たとえばリードオンリメモリ(ROM)、フラッシュメモリ、EPROM、EEPROMなどのうちのいずれか1つ以上)と、ディスクストレージデバイスとを含む。ディスクストレージデバイスは、ハードディスクドライブ、記録可能および/または再書込可能コンパクトディスク(CD)、任意のタイプのデジタルバーサタイルディスク(DVD)などといった任意のタイプの磁気または光学ストレージデバイスとして実現され得る。コンピューティングシステム1600はさらに、マスストレージデバイス(ストレージ媒体)1616を含み得る。
コンピュータ読取可能媒体1614は、デバイスデータ1604と、さまざまなデバイスアプリケーション1618と、コンピューティングシステム1600の動作局面に関係する任意の他のタイプの情報および/またはデータとを格納するためにデータストレージメカニズムを提供する。たとえば、オペレーティングシステム1620は、コンピュータ読取可能媒体1614によりコンピュータアプリケーションとして維持され得、プロセッサ1610上で実行され得る。デバイスアプリケーション1618はたとえば、任意の形態の制御アプリケーション、ソフトウェアアプリケーション、信号処理および制御モジュール、特定のデバイスに対してネイティブのコード、抽出モジュールまたはジェスチャモジュールなどといったデバイスマネージャを含み得る。デバイスアプリケーション1618はさらに、レーダ対応センサフュージョンを実現するために、センサベースアプリケーション108、センサフュージョンエンジン110およびコンテキストマネージャ112のようなシステムコンポーネント、エンジンまたはマネージャを含む。
コンピューティングシステム1600はさらに、レーダ放射要素122、レーダ受信要素およびアンテナ124を有するレーダセンサチップ1622のようなレーダシステムまたはセンサの1つ以上を含み得るか、または、当該レーダシステムまたはセンサの1つ以上へのアクセスを有し得る。示されていないが、センサフュージョンエンジン110またはコンテキストマネージャ112のうちの1つ以上の要素は、ハードウェアまたはファームウェアによって全体的または部分的に実現され得る。
結論
レーダ対応センサフュージョンを使用する技術およびレーダ対応センサフュージョンを含む装置を特徴および方法に特有の言語で記載したが、添付の特許請求の範囲の対象は、記載された特定の特徴または方法に必ずしも限定されないということが理解されるべきである。むしろ、特定の特徴および方法は、レーダ対応センサフュージョンが実現され得る例示的な態様として開示される。

Claims (17)

  1. デバイスのレーダ放射要素を介してレーダフィールドを提供することと、
    前記デバイスのレーダ受信要素を介して、前記レーダフィールドにおけるターゲットに対応する1つ以上の反射信号を受信することと、
    レーダデータを提供するよう前記1つ以上の反射信号を変換することと、
    前記ターゲットの空間情報を前記レーダデータから抽出することと、
    前記空間情報に関連付けられる追加的なセンサデータを提供するよう、前記空間情報に基づいて前記デバイスのセンサをアクティベートすることと、
    前記空間情報と前記追加的なセンサデータとを、前記追加的なセンサデータを用いて前記空間情報を照合するセンサベースアプリケーションに提供することとを含
    前記空間情報は、ターゲットの存在である、コンピュータによって実現される方法。
  2. 前記1つ以上の反射信号を変換することは、レンジドップラー変換、レンジプロファイル変換、マイクロドップラー変換、I/Q変換、または、スペクトログラム変換のうちの1つを実行することを含む、請求項1に記載のコンピュータによって実現される方法。
  3. 前記センサベースアプリケーションは、ユーザ検出含む、請求項1または2に記載のコンピュータによって実現される方法。
  4. 前記追加的なセンサデータを提供する前記センサは、加速度計、ジャイロスコープ、ホール効果センサ、磁力計、温度センサ、マイクロフォン、容量センサ、近接センサ、環境光センサ、赤緑青(RGB)画像センサ、赤外線センサ、または、深さセンサを含む、請求項1〜のいずれか1項に記載のコンピュータによって実現される方法。
  5. 前記空間情報を照合することは、
    前記空間情報の位置精度を増加させること、
    前記空間情報に起因する偽陽性検出を軽減すること、
    前記空間情報の空間分解能を増加すること、
    前記空間情報の表面分解能を増加すること、または、
    前記空間情報の分類精度を改善することを含む、請求項1〜のいずれか1項に記載のコンピュータによって実現される方法。
  6. 前記デバイスのレーダセンサは、前記レーダ放射要素およびレーダ受信要素を含み、前記レーダセンサは、アクティベートされる前記センサより少ない電力を消費し、前記レーダセンサは、前記1つ以上の反射信号における変化が検出されるまで、前記センサが低電力状態にある間、動作される、請求項1〜のいずれか1項に記載のコンピュータによって実現される方法。
  7. 装置であって、
    1つ以上のコンピュータプロセッサと、
    レーダセンサとを含み、前記レーダセンサは、
    レーダフィールドを提供するように構成されるレーダ放射要素と、
    前記レーダフィールドに対応する1つ以上の反射信号を受信するように構成されるレーダ受信要素と、
    前記装置の環境の変動を感知するように構成されるセンサと、
    命令を格納している1つ以上のコンピュータ読取可能記憶媒体とを含み、
    前記命令は、前記1つ以上のコンピュータプロセッサによる実行に応答して、
    デバイスのレーダ放射要素を介してレーダフィールドを提供することと、
    前記デバイスのレーダ受信要素を介して、前記レーダフィールドにおけるターゲットに対応する1つ以上の反射信号を受信することと、
    レーダデータを提供するよう前記1つ以上の反射信号を変換することと、
    前記ターゲットの空間情報を前記レーダデータから抽出することと、
    前記空間情報について追加的なセンサデータを提供するよう、前記空間情報に基づいて前記デバイスのセンサをアクティベートすることと、
    前記空間情報を、前記空間情報と前記追加的なセンサデータとを用いて、前記空間情報を照合するセンサベースアプリケーションに提供することとを行うよう、センサフュージョンエンジンを実現し、
    前記空間情報は、ターゲットの存在である、装置。
  8. 装置であって、
    1つ以上のコンピュータプロセッサと、
    レーダセンサとを含み、前記レーダセンサは、
    レーダフィールドを提供するように構成されるレーダ放射要素と、
    前記レーダフィールドに対応する1つ以上の反射信号を受信するように構成されるレーダ受信要素と、
    前記装置の環境の変動を感知するように構成されるセンサと、
    命令を格納している1つ以上のコンピュータ読取可能記憶媒体とを含み、
    前記命令は、前記1つ以上のコンピュータプロセッサによる実行に応答して、
    デバイスのレーダ放射要素を介してレーダフィールドを提供することと、
    前記デバイスのレーダ受信要素を介して、前記レーダフィールドにおけるターゲットに対応する1つ以上の反射信号を受信することと、
    レーダデータを提供するよう前記1つ以上の反射信号を変換することと、
    前記ターゲットの空間情報を前記レーダデータから抽出することと、
    前記空間情報について追加的なセンサデータを提供するよう、前記空間情報に基づいて前記デバイスのセンサをアクティベートすることと、
    前記空間情報を、前記空間情報と前記追加的なセンサデータとを用いて、前記空間情報を照合するセンサベースアプリケーションに提供することとを行うよう、センサフュージョンエンジンを実現し、
    前記装置は、複数のそれぞれのタイプの環境の変動を感知するように複数のセンサを含んでおり、前記センサフュージョンエンジンはさらに、前記空間情報のタイプに基づいて、前記追加的なセンサデータを提供するために前記複数のセンサからアクティベートする1つ以上のセンサを選択するように構成される、装置。
  9. 前記環境の変動を感知するように構成される前記センサは、加速度計、ジャイロスコープ、ホール効果センサ、磁力計、温度センサ、マイクロフォン、容量センサ、近接センサ、環境光センサ、赤緑青(RGB)画像センサ、赤外線センサ、または、深さセンサを含む、請求項またはに記載の装置。
  10. 前記レーダセンサはさらにアンテナアレイを含み、前記アンテナアレイを通じて、前記レーダ放射要素は前記レーダフィールドを提供し、前記レーダ受信要素は前記1つ以上の反射信号を受信する、請求項のいずれか1項に記載の装置。
  11. 前記アンテナアレイは、前記レーダ放射要素に直接的に結合される少なくとも2つのアンテナと、前記レーダ受信要素に直接的に結合される少なくとも2つのアンテナとを含む、請求項10に記載の装置。
  12. 前記装置は、スマートフォン、スマートグラス、スマートウォッチ、タブレットコンピュータ、ラップトップコンピュータ、セットトップボックス、スマート電気製品、ホームオートメーションコントローラ、または、テレビジョンとして具現化される、請求項11のいずれか1項に記載の装置。
  13. システムオンチップであって、
    レーダフィールドを提供するように構成されるレーダ放射要素と、
    反射信号を受信するように構成されるレーダ受信要素と、
    前記レーダフィールドが提供されるとともに前記反射信号が受信されるアンテナアレイと、
    1つ以上のセンサとの通信を可能にするように構成されるデータインターフェイスと、
    プロセッサと、
    命令を格納しているコンピュータ読取可能記憶媒体とを含み、
    前記命令は、前記プロセッサによる実行に応答して、
    前記レーダ放射要素にレーダフィールドを提供させることと、
    前記レーダ受信要素を介して、前記レーダフィールドに対応する前記反射信号のうちの1つ以上を受信することと、
    レーダデータを提供するよう前記1つ以上の反射信号を変換することと、
    前記レーダデータを前記システムオンチップを取り巻く環境の空間情報に分解することと、
    環境の変動を示すセンサデータを前記1つ以上のセンサから受信することと、
    前記空間情報を、前記1つ以上のセンサからの前記空間情報および追加的なセンサデータを用いて前記空間情報を照合するセンサベースアプリケーションに提供することとを実行するようにセンサフュージョンエンジンを実現し、
    前記空間情報は、ターゲットの存在である、システムオンチップ。
  14. 前記1つ以上のセンサは、加速度計、ジャイロスコープ、ホール効果センサ、磁力計、温度センサ、マイクロフォン、容量センサ、近接センサ、環境光センサ、赤緑青(RGB)画像センサ、赤外線センサ、または、深さセンサのうちの1つを含む、請求項13に記載のシステムオンチップ。
  15. 前記アンテナアレイは、前記レーダ放射要素に動作可能に接続される少なくとも2つのオンチップアンテナと、前記レーダ受信要素に動作可能に接続される少なくとも2つのオンチップアンテナとを含む、請求項13または14に記載のシステムオンチップ。
  16. レーダフィールドを提供するように構成される前記レーダ放射要素、レーダ受信要素、および、アンテナアレイはさらに、レーダデータの少なくとも4つのチャネルへの変換に好適な反射信号を提供するように構成される、請求項1315のいずれか1項に記載のシステムオンチップ。
  17. 1つ以上のプロセッサによって実行されるコンピュータプログラムであって、実行されることにより、前記1つ以上のプロセッサに請求項1〜のいずれか1項に記載の方法を実施させる、コンピュータプログラム。
JP2018501256A 2015-10-06 2016-10-06 レーダ対応センサフュージョン Active JP6694053B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027181A JP6889293B2 (ja) 2015-10-06 2020-02-20 レーダ対応センサフュージョン

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562237975P 2015-10-06 2015-10-06
US62/237,975 2015-10-06
US15/286,512 2016-10-05
US15/286,512 US10401490B2 (en) 2015-10-06 2016-10-05 Radar-enabled sensor fusion
PCT/US2016/055671 WO2017062566A1 (en) 2015-10-06 2016-10-06 Radar-enabled sensor fusion

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020027181A Division JP6889293B2 (ja) 2015-10-06 2020-02-20 レーダ対応センサフュージョン

Publications (2)

Publication Number Publication Date
JP2018527558A JP2018527558A (ja) 2018-09-20
JP6694053B2 true JP6694053B2 (ja) 2020-05-13

Family

ID=58446760

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018501256A Active JP6694053B2 (ja) 2015-10-06 2016-10-06 レーダ対応センサフュージョン
JP2020027181A Active JP6889293B2 (ja) 2015-10-06 2020-02-20 レーダ対応センサフュージョン
JP2021085256A Active JP7257447B2 (ja) 2015-10-06 2021-05-20 レーダ対応センサフュージョン

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020027181A Active JP6889293B2 (ja) 2015-10-06 2020-02-20 レーダ対応センサフュージョン
JP2021085256A Active JP7257447B2 (ja) 2015-10-06 2021-05-20 レーダ対応センサフュージョン

Country Status (6)

Country Link
US (26) US10817065B1 (ja)
EP (1) EP3359976A1 (ja)
JP (3) JP6694053B2 (ja)
KR (3) KR102245190B1 (ja)
CN (2) CN113655471B (ja)
WO (1) WO2017062566A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11079289B2 (en) 2017-08-18 2021-08-03 Google Llc Radar-based force sensing

Families Citing this family (202)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012154262A2 (en) 2011-02-21 2012-11-15 TransRobotics, Inc. System and method for sensing distance and/or movement
EP2901408B1 (en) * 2012-09-25 2021-08-25 Scoot Rides, Inc. Systems and methods for regulating vehicle access
JP6273662B2 (ja) 2012-10-05 2018-02-07 トランスロボティックス,インク. 高分解能距離感知のためのシステム及び方法、並びにその適用
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
KR102328589B1 (ko) 2015-04-30 2021-11-17 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
WO2016176606A1 (en) 2015-04-30 2016-11-03 Google Inc. Type-agnostic rf signal representations
WO2016176574A1 (en) 2015-04-30 2016-11-03 Google Inc. Wide-field radar-based gesture recognition
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US11906659B2 (en) * 2015-07-17 2024-02-20 Origin Wireless, Inc. Method, apparatus, and system for wireless micro motion monitoring
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
WO2017079484A1 (en) 2015-11-04 2017-05-11 Google Inc. Connectors for connecting electronics embedded in garments to external devices
CN105938399B (zh) * 2015-12-04 2019-04-12 深圳大学 基于声学的智能设备的文本输入识别方法
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
EP3267220A1 (en) * 2016-07-08 2018-01-10 Autoliv Development AB A vehicle radar system
US11067667B2 (en) 2016-09-08 2021-07-20 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US10934764B2 (en) 2016-09-08 2021-03-02 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US10572024B1 (en) * 2016-09-28 2020-02-25 Facebook Technologies, Llc Hand tracking using an ultrasound sensor on a head-mounted display
US11380118B2 (en) * 2016-11-21 2022-07-05 George Shaker System and method for sensing with millimeter waves
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US10466772B2 (en) * 2017-01-09 2019-11-05 Infineon Technologies Ag System and method of gesture detection for a remote device
US11243293B2 (en) * 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
US11048407B1 (en) 2017-02-08 2021-06-29 Michelle M Kassatly Interface and method for self-correcting a travel path of a physical object
US11435739B2 (en) 2017-02-08 2022-09-06 L. Samuel A Kassatly Interface and method for controlling the operation of an autonomously travelling object
DE102018202343A1 (de) * 2017-02-17 2018-08-23 Magna Closures Inc. Kraft-schwenktür mit virtual-handgriff -gestensteuerung
WO2018158578A1 (en) * 2017-03-01 2018-09-07 University Of St Andrews Classification method and device
US10684693B2 (en) * 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
WO2018165485A1 (en) * 2017-03-08 2018-09-13 Praesidium, Inc. Home occupant detection and monitoring system
US11918330B2 (en) 2017-03-08 2024-03-05 Praesidium, Inc. Home occupant detection and monitoring system
US20200341114A1 (en) * 2017-03-28 2020-10-29 Sri International Identification system for subject or activity identification using range and velocity data
JP6828807B2 (ja) * 2017-03-28 2021-02-10 日本電気株式会社 データ解析装置、データ解析方法およびデータ解析プログラム
US10551935B2 (en) * 2017-04-07 2020-02-04 University Of South Carolina Wearable computing device featuring machine-learning-based smoking detection
US10845477B2 (en) * 2017-05-10 2020-11-24 Google Llc Power management using a low-power radar
US10795009B2 (en) 2017-05-31 2020-10-06 Google Llc Digital beamforming for radar sensing using wireless communication chipset
US10782390B2 (en) 2017-05-31 2020-09-22 Google Llc Full-duplex operation for radar sensing using wireless communication chipset
US10754005B2 (en) 2017-05-31 2020-08-25 Google Llc Radar modulation for radar sensing using a wireless communication chipset
CN111108408A (zh) * 2017-06-27 2020-05-05 苹果公司 手势识别雷达***和方法
EP3431002B1 (en) * 2017-07-20 2021-11-03 Nokia Technologies Oy Rf based monitoring of user activity
US11030289B2 (en) * 2017-07-31 2021-06-08 Stmicroelectronics, Inc. Human presence detection
KR102671859B1 (ko) * 2017-08-02 2024-06-03 레드 밴드 리미티드 차량 탑승자의 생체 신호의 무접촉 검출 및 모니터링 시스템
WO2019117833A2 (en) * 2017-08-25 2019-06-20 Radarsan Radar Teknolojileri San Tic A.S A modular electronic control system
EP3454079B1 (en) * 2017-09-12 2023-11-01 Aptiv Technologies Limited Method to determine the suitablility of a radar target as a positional landmark
US10677905B2 (en) * 2017-09-26 2020-06-09 Infineon Technologies Ag System and method for occupancy detection using a millimeter-wave radar sensor
CN107895139B (zh) * 2017-10-19 2021-09-21 金陵科技学院 一种基于多特征融合的sar图像目标识别方法
US10641888B2 (en) 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
US10474934B1 (en) * 2017-11-26 2019-11-12 Jasmin Cosic Machine learning for computing enabled systems and/or devices
US10935651B2 (en) 2017-12-15 2021-03-02 Google Llc Radar angular ambiguity resolution
US10725161B2 (en) * 2017-12-15 2020-07-28 Google Llc Seamless authentication using radar
JP6870607B2 (ja) * 2017-12-28 2021-05-12 トヨタ自動車株式会社 自動運転システム
US10423964B2 (en) * 2017-12-29 2019-09-24 Scott Kimmel User controlled event record system
US11167771B2 (en) * 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
US10969479B2 (en) * 2018-01-09 2021-04-06 Panasonic Intellectual Property Management Co., Ltd. Estimation device and estimation method
DE102018200814B3 (de) * 2018-01-18 2019-07-18 Audi Ag Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug
US11140813B1 (en) * 2018-01-24 2021-10-12 Scythe Robotics, Inc. Moisture and vegetative health mapping
KR102116604B1 (ko) * 2018-01-26 2020-05-28 한양대학교 산학협력단 레이더를 이용한 제스처 인식 장치 및 방법
CN110113468B (zh) * 2018-02-01 2021-02-12 中兴通讯股份有限公司 一种状态检测装置和方法
US20190244062A1 (en) * 2018-02-04 2019-08-08 KaiKuTek Inc. Gesture recognition method, gesture recognition system, and performing device therefore
US10432779B2 (en) * 2018-02-23 2019-10-01 Motorola Mobility Llc Communication session modifications based on a proximity context
US11550046B2 (en) * 2018-02-26 2023-01-10 Infineon Technologies Ag System and method for a voice-controllable apparatus
US11169251B2 (en) 2018-03-28 2021-11-09 Qualcomm Incorporated Proximity detection using multiple power levels
CN111433627B (zh) 2018-04-05 2023-09-22 谷歌有限责任公司 使用机器学习执行角估计的基于智能设备的雷达***
US11465557B2 (en) * 2018-04-06 2022-10-11 Magna Closures Inc. Vehicle latch with integrated radar module
EP3553551B1 (en) * 2018-04-10 2022-06-01 Aptiv Technologies Limited Method for the recognition of an object
EP3553559B1 (en) 2018-04-11 2022-06-01 Aptiv Technologies Limited Method for the recognition of objects
EP3553552B1 (en) 2018-04-11 2022-05-25 Aptiv Technologies Limited Method for the recognition of a moving pedestrian
WO2019204144A1 (en) 2018-04-16 2019-10-24 Bird Rides, Inc. On-demand rental of electric vehicles
US10713343B2 (en) * 2018-05-10 2020-07-14 Lenovo (Singapore) Pte. Ltd. Methods, devices and systems for authenticated access to electronic device in a closed configuration
US11391817B2 (en) 2018-05-11 2022-07-19 Qualcomm Incorporated Radio frequency (RF) object detection using radar and machine learning
US10772511B2 (en) * 2018-05-16 2020-09-15 Qualcomm Incorporated Motion sensor using cross coupling
US10802133B2 (en) * 2018-05-17 2020-10-13 Infineon Technologies Ag Diverse sensing using different types of sensors
KR102511292B1 (ko) 2018-07-11 2023-03-17 삼성전자주식회사 전자 장치의 객체 인증 장치 및 방법
GB2576213A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
US10794997B2 (en) * 2018-08-21 2020-10-06 Google Llc Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures
US10770035B2 (en) * 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10890653B2 (en) * 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US20200082014A1 (en) * 2018-09-12 2020-03-12 Veoneer Us, Inc. Systems and methods for remote object classification
KR102535839B1 (ko) * 2018-09-14 2023-05-24 삼성전자주식회사 안테나 어레이를 이용하여 외부 객체를 감지하는 전자 장치 및 그의 동작 방법
IT201800009299A1 (it) * 2018-10-09 2020-04-09 Cover Sistemi Srl Un metodo di regolazione di uno o piu’ dispositivi ad uso domestico o industriale
US10536156B1 (en) * 2018-10-16 2020-01-14 Microchip Technology Incorporated Analog-to-digital converter controllers including configurable contexts
US10788880B2 (en) * 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
WO2020086648A1 (en) * 2018-10-25 2020-04-30 TransRobotics, Inc. Technologies for opportunistic synthetic aperture radar
EP3647910A1 (en) * 2018-10-30 2020-05-06 Infineon Technologies AG An improved apparatus for user interaction
US10761611B2 (en) * 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
US11406892B2 (en) * 2018-12-04 2022-08-09 Sony Interactive Entertainment Inc. Information processing apparatus
US11310226B2 (en) 2018-12-19 2022-04-19 Paypal, Inc. Gesture and motion detection using a device radar component for user authentication
US11327155B2 (en) 2018-12-21 2022-05-10 Robert Bosch Gmbh Radar sensor misalignment detection for a vehicle
US11748903B2 (en) * 2019-01-02 2023-09-05 Zebra Technologies Corporation System and method for robotic object detection using a convolutional neural network
KR102140045B1 (ko) * 2019-01-10 2020-07-31 세종대학교 산학협력단 미러 패딩을 이용한 손 동작 인식 장치 및 그 방법
CN111507361B (zh) * 2019-01-30 2023-11-21 富士通株式会社 基于微波雷达的动作识别装置、方法及***
US11226406B1 (en) 2019-02-07 2022-01-18 Facebook Technologies, Llc Devices, systems, and methods for radar-based artificial reality tracking
US11626010B2 (en) * 2019-02-28 2023-04-11 Nortek Security & Control Llc Dynamic partition of a security system
US11555915B2 (en) * 2019-03-01 2023-01-17 Samsung Electronics Co., Ltd. Determining relevant signals using multi-dimensional radar signals
CN110018470A (zh) * 2019-03-01 2019-07-16 北京纵目安驰智能科技有限公司 基于多传感器前融合的实例标注方法、模型、终端和存储介质
WO2020183602A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 情報処理装置および情報処理方法
US11017209B2 (en) * 2019-03-15 2021-05-25 Samsung Electronics Co., Ltd. Millimeter wave radar and camera fusion based face authentication system
US11550031B2 (en) * 2019-03-18 2023-01-10 Samsung Electronics Co., Ltd. Method and apparatus for biometric authentication using face radar signal
US10643420B1 (en) 2019-03-20 2020-05-05 Capital One Services, Llc Contextual tapping engine
US11734401B1 (en) * 2019-03-21 2023-08-22 United Services Automobile Association (Usaa) Environment based authentication
US11852523B2 (en) * 2019-03-28 2023-12-26 Ams Ag Optical sensor having directional sensitivity
KR102021531B1 (ko) * 2019-03-28 2019-11-04 세종대학교 산학협력단 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법
EP3719532B1 (en) 2019-04-04 2022-12-28 Transrobotics, Inc. Technologies for acting based on object tracking
US11715228B2 (en) 2019-04-04 2023-08-01 Battelle Memorial Institute Imaging systems and related methods including radar imaging with moving arrays or moving targets
WO2020204934A1 (en) * 2019-04-05 2020-10-08 Hewlett-Packard Development Company, L.P. Modify audio based on physiological observations
CN110034375A (zh) * 2019-04-19 2019-07-19 Oppo广东移动通信有限公司 天线模组及电子设备
US11442550B2 (en) * 2019-05-06 2022-09-13 Samsung Electronics Co., Ltd. Methods for gesture recognition and control
JP7407200B2 (ja) 2019-05-20 2023-12-28 グーグル エルエルシー マルチモードインターフェイスを提供するためのモバイルデバイスベースのレーダーシステム、およびそのための方法
JP7163513B2 (ja) 2019-06-17 2022-10-31 グーグル エルエルシー 異なる電力モードをマルチモードインターフェイスに適用するためのモバイルデバイスベースのレーダーシステム
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
GB2585074B (en) * 2019-06-28 2023-11-15 Xmos Ltd Indirect radar detection
KR20210002989A (ko) 2019-07-01 2021-01-11 삼성전자주식회사 사물 인식을 위한 골레이 시퀀스 길이 조절 방법 및 그 전자 장치
EP3770632A1 (de) * 2019-07-25 2021-01-27 VEGA Grieshaber KG Kombinierte radarsensoren mit einem radarensor zur füllstandsmessung und einem radasensor zur umgebungsüberwachung
WO2021013356A1 (de) * 2019-07-25 2021-01-28 Vega Grieshaber Kg Kombinierte radarsensoren mit einem radarensor zur füllstandsmessung und einem radasensor zur umgebungsüberwachung
WO2021021219A1 (en) * 2019-07-26 2021-02-04 Google Llc Reducing a state based on imu and radar
EP4004686A1 (en) 2019-07-26 2022-06-01 Google LLC Authentication management through imu and radar
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
JP7346595B2 (ja) * 2019-07-26 2023-09-19 グーグル エルエルシー レーダーベースのジェスチャー認識の状況感知型制御
JP7292437B2 (ja) 2019-07-26 2023-06-16 グーグル エルエルシー Imuおよびレーダーに基づいて状態を下げること
WO2021021224A1 (en) * 2019-07-26 2021-02-04 Google Llc Context-sensitive control of radar-based gesture-recognition
US20210042545A1 (en) * 2019-08-07 2021-02-11 EyeVerify, Inc. Microwave biometric authentication using machine learning
KR20210020632A (ko) * 2019-08-16 2021-02-24 삼성전자주식회사 밀리미터 웨이브를 이용하여 객체의 속성을 식별하는 전자 장치 및 그 제어 방법
KR102119346B1 (ko) * 2019-08-22 2020-06-26 고종민 초소형 복합센서 모듈
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN113874812A (zh) * 2019-08-30 2021-12-31 谷歌有限责任公司 用于多输入模式的输入模式通知
KR102479012B1 (ko) 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
CN112753005B (zh) 2019-08-30 2024-03-01 谷歌有限责任公司 移动设备的输入方法
CN110597390B (zh) * 2019-09-12 2022-05-20 Oppo广东移动通信有限公司 控制方法、电子装置和存储介质
CN110609282B (zh) * 2019-09-19 2020-11-17 中国人民解放军军事科学院国防科技创新研究院 基于后向投影的太赫兹孔径编码三维成像方法及装置
DE102019125348A1 (de) * 2019-09-20 2021-03-25 365FarmNet Group GmbH & Co. KG Verfahren zur Unterstützung eines Benutzers bei einer landwirtschaftlichen Tätigkeit
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
CN112666572A (zh) * 2019-09-30 2021-04-16 北京声智科技有限公司 基于雷达的唤醒方法、唤醒装置、电子设备及存储介质
CN110515092B (zh) * 2019-10-23 2020-01-10 南京甄视智能科技有限公司 基于激光雷达的平面触摸方法
KR20210048725A (ko) 2019-10-24 2021-05-04 삼성전자주식회사 카메라 제어를 위한 방법 및 이를 위한 전자 장치
US11747462B1 (en) * 2019-12-04 2023-09-05 Meta Platforms Technologies, Llc Devices, systems, and methods for radar-based artificial reality tracking
WO2021116944A1 (en) 2019-12-09 2021-06-17 Thales Canada Inc. Stationary status resolution system
KR20210074749A (ko) * 2019-12-12 2021-06-22 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
EP4078212A1 (en) * 2019-12-19 2022-10-26 Google LLC Smart-device-based radar system performing symmetric doppler interference mitigation
CN115066662A (zh) 2020-01-10 2022-09-16 马格纳电子***公司 通信***和方法
CN113138557B (zh) 2020-01-17 2023-11-28 北京小米移动软件有限公司 家居设备控制方法、装置以及存储介质
US11567580B2 (en) * 2020-01-29 2023-01-31 Samsung Electronics Co., Ltd. Adaptive thresholding and noise reduction for radar data
US11467254B2 (en) * 2020-02-27 2022-10-11 Samsung Electronics Co., Ltd. Method and apparatus of radar-based activity detection
US11734767B1 (en) 2020-02-28 2023-08-22 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (lidar) based generation of a homeowners insurance quote
CN113495267B (zh) * 2020-04-07 2024-06-21 北京小米移动软件有限公司 雷达天线阵列、移动终端、手势识别方法及装置
CN111427036A (zh) * 2020-04-14 2020-07-17 南京莱斯电子设备有限公司 一种短基线多雷达信号级融合检测方法
US11508138B1 (en) 2020-04-27 2022-11-22 State Farm Mutual Automobile Insurance Company Systems and methods for a 3D home model for visualizing proposed changes to home
CN111624572B (zh) * 2020-05-26 2023-07-18 京东方科技集团股份有限公司 一种人体手部与人体手势识别的方法及装置
IL275524B (en) 2020-06-18 2021-12-01 Elbit Systems C4I And Cyber Ltd System and method for measuring parameters without contact
US11989965B2 (en) * 2020-06-24 2024-05-21 AR & NS Investment, LLC Cross-correlation system and method for spatial detection using a network of RF repeaters
US11283510B2 (en) 2020-06-24 2022-03-22 AR & NS Investment, LLC Phase noise removal in a network of radio frequency (RF) repeaters
US11605228B2 (en) 2020-06-26 2023-03-14 Nxp Usa, Inc. System and method for sensor fusion system having distributed convolutional neural network
US11946996B2 (en) 2020-06-30 2024-04-02 Apple, Inc. Ultra-accurate object tracking using radar in multi-object environment
CN111813224B (zh) * 2020-07-09 2022-03-25 电子科技大学 一种基于超高分辨率雷达精细手势库的建立与识别方法
US11563783B2 (en) 2020-08-14 2023-01-24 Cisco Technology, Inc. Distance-based framing for an online conference session
US11555920B2 (en) * 2020-10-28 2023-01-17 GM Global Technology Operations LLC Estimating vehicle velocity using radar data
US11961009B2 (en) * 2020-11-02 2024-04-16 The Government Of The United States, As Represented By The Secretary Of The Army Artificial intelligence algorithm access to multiple users
CN112689771B (zh) * 2020-11-13 2022-01-11 华为技术有限公司 雷达认证方法及装置、计算机存储介质
US11782149B2 (en) 2021-01-08 2023-10-10 Google Llc Systems and methods for managing motion detection of an electronic device, and associated electronic devices
US20220221573A1 (en) * 2021-01-08 2022-07-14 Google Llc Systems and methods for managing sensors of an electronic device, and associated electronic devices
CN112774181B (zh) * 2021-01-11 2023-11-10 北京星汉云图文化科技有限公司 雷达数据的处理方法、处理***以及计算机存储介质
JP2024508843A (ja) 2021-02-25 2024-02-28 チェリッシュ ヘルス インコーポレイテッド 定義区域内の対象物を追跡する技術
KR102351551B1 (ko) * 2021-03-12 2022-01-18 (주)디지탈엣지 다기능 레이더 시스템 및 그의 신호 처리방법
US11592908B2 (en) * 2021-03-19 2023-02-28 Google Llc Hand gesture recognition based on detected wrist muscular movements
EP4060366A1 (en) * 2021-03-19 2022-09-21 Infineon Technologies AG Methods, device, local device and server for monitoring a user performing a physical exercise
US11543890B2 (en) * 2021-03-22 2023-01-03 KaiKuTek Inc. Custom gesture collection and recognition system having machine learning accelerator
US11804077B2 (en) * 2021-04-01 2023-10-31 KaiKuTek Inc. Generic gesture detecting method and generic gesture detecting device
EP4071586A1 (de) * 2021-04-09 2022-10-12 Fresenius Medical Care Deutschland GmbH Berührungsloses bedienen medizintechnischer geräte
US11467675B1 (en) * 2021-04-29 2022-10-11 Facebook Technologies, Llc Multi-component detection of gestures
US20220365200A1 (en) * 2021-05-12 2022-11-17 California State University Fresno Foundation System and method for human and animal detection in low visibility
CN115412104A (zh) * 2021-05-28 2022-11-29 北京小米移动软件有限公司 手势识别方法及装置、移动终端、计算机可读存储介质
CN115412837A (zh) * 2021-05-28 2022-11-29 北京三星通信技术研究有限公司 确定ue指向设备的方法及相关设备
US20220391022A1 (en) * 2021-06-03 2022-12-08 Arris Enterprises Llc System and method for human-device radar-enabled interface
KR102645313B1 (ko) * 2021-07-13 2024-03-11 한국전자기술연구원 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치
CN113561911B (zh) * 2021-08-12 2023-03-17 森思泰克河北科技有限公司 车辆控制方法、装置、毫米波雷达及存储介质
CN113791411B (zh) * 2021-09-07 2024-05-28 北京航空航天大学杭州创新研究院 一种基于轨迹判断的毫米波雷达手势识别方法及装置
US11963110B2 (en) 2021-10-26 2024-04-16 Dell Products Lp Method and apparatus for detecting, managing antenna proximity, and user privacy by sharing radar sensing telemetry
US11893205B2 (en) * 2021-11-01 2024-02-06 Microsoft Technology Licensing, Llc Real-time gestures in shared electronic canvases
US20230136270A1 (en) * 2021-11-03 2023-05-04 Microsoft Technology Licensing, Llc Synthetic aperture radar for head mounted displays
US20230143374A1 (en) * 2021-11-05 2023-05-11 Crystal D. Rhodes Feature extraction, labelling, and object feature map
US11914093B2 (en) * 2021-12-07 2024-02-27 Microsoft Technology Licensing, Llc RF antenna scanning for human movement classification
CN116414045A (zh) * 2021-12-31 2023-07-11 施耐德电气(澳大利亚)有限公司 感测节点、感测网络、智能楼宇控制***和相关联的方法
GB202204096D0 (en) * 2022-03-23 2022-05-04 British Telecomm A secure authentication token
US12026319B2 (en) * 2022-04-13 2024-07-02 Samsung Electronics Co., Ltd. Dynamic gesture recognition using mmWave radar
US20230359468A1 (en) * 2022-05-05 2023-11-09 Microsoft Technology Licensing, Llc User engagement surfaced through an application programming interface (api)
US11822736B1 (en) * 2022-05-18 2023-11-21 Google Llc Passive-accessory mediated gesture interaction with a head-mounted device
CN115378591B (zh) * 2022-07-18 2023-04-07 咚咚数字科技有限公司 一种基于融合的匿名生物特征密钥传输方法
DE102022121913A1 (de) * 2022-08-30 2024-02-29 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb einer motorischen Klappenanordnung eines Kraftfahrzeugs
CN117519474B (zh) * 2023-11-06 2024-05-14 中国人民解放军陆军工程大学 一种考虑运动先验的雷达手势特征获取方法
CN117473456B (zh) * 2023-12-28 2024-02-27 北京卓视智通科技有限责任公司 一种雷视智能融合的方法及***

Family Cites Families (723)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3570312A (en) 1968-06-21 1971-03-16 Frank Kreith Skin temperature sensing device
US3610874A (en) 1969-11-21 1971-10-05 Western Electric Co Laser welding technique
US3752017A (en) 1971-04-08 1973-08-14 Pace Inc Thermal hand tools
US3953706A (en) 1974-03-29 1976-04-27 Martin Marietta Corporation Laser bent beam controlled dwell wire stripper
US4104012A (en) 1976-10-12 1978-08-01 Ferrante Michael R Improved wire stripping apparatus
US4281645A (en) 1977-06-28 1981-08-04 Duke University, Inc. Method and apparatus for monitoring metabolism in body organs
GB2070469B (en) 1980-02-29 1983-06-08 Raychem Gmbh Electrical interconnection
US6513833B2 (en) 1992-05-05 2003-02-04 Automotive Technologies International, Inc. Vehicular occupant motion analysis system
GB8411480D0 (en) 1984-05-04 1984-06-13 Raychem Corp Sensor array
DE3432735A1 (de) 1984-09-06 1986-03-06 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und vorrichtung zum ordnen und ausrichten flexibler, isolierter leiter
US4700044A (en) 1986-07-31 1987-10-13 Hutchinson Technology Inc. Laser soldering apparatus and method
US4838797A (en) 1987-06-19 1989-06-13 The United States Of America As Represented By The Secretary Of The Navy Underwater connect and disconnect plug and receptacle
JP2826337B2 (ja) 1988-04-12 1998-11-18 シチズン時計株式会社 放射体温計
US4986277A (en) 1988-08-24 1991-01-22 Sackner Marvin A Method and apparatus for non-invasive monitoring of central venous pressure
US5016500A (en) 1990-04-10 1991-05-21 Teledyne Kinetics Battery powered temperature-controlled wire stripper
EP0467853B1 (de) 1990-07-18 1996-01-10 AVL Medical Instruments AG Einrichtung und Verfahren zur Blutdruckmessung
US5121124A (en) 1991-05-01 1992-06-09 Thermo Electron Technologies Corp. Microwave camera
JP3144030B2 (ja) 1992-02-24 2001-03-07 東陶機器株式会社 健康管理ネットワークシステム
US5298715A (en) 1992-04-27 1994-03-29 International Business Machines Corporation Lasersonic soldering of fine insulated wires to heat-sensitive substrates
US5497546A (en) 1992-09-21 1996-03-12 Matsushita Electric Works, Ltd. Method for mounting lead terminals to circuit board
US5564571A (en) 1993-07-19 1996-10-15 Cembre S.P.A. Strip for electrical connectors
US5341979A (en) 1993-09-03 1994-08-30 Motorola, Inc. Method of bonding a semiconductor substrate to a support substrate and structure therefore
US6835898B2 (en) 1993-11-16 2004-12-28 Formfactor, Inc. Electrical contact structures formed by configuring a flexible wire to have a springable shape and overcoating the wire with at least one layer of a resilient conductive material, methods of mounting the contact structures to electronic components, and applications for employing the contact structures
US5468917A (en) 1994-03-23 1995-11-21 International Business Machines Corporation Circuitized structure including flexible circuit with elastomeric member bonded thereto
US5517251A (en) 1994-04-28 1996-05-14 The Regents Of The University Of California Acquisition of video images simultaneously with analog signals
US5724707A (en) 1996-06-17 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Interlock attaching strap system
CH690686A5 (de) 1996-07-01 2000-12-15 Spoerry & Co Ag Verfahren zur Herstellung eines elektrisch leitenden Garnes, elektrisch leitendes Garn und Verwendung des elektrisch leitenden Garnes.
US6179785B1 (en) 1996-10-17 2001-01-30 Sherwood Services, Ag Ambient sensing feature for thermometer recalibration system
US6747632B2 (en) 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US5959529A (en) 1997-03-07 1999-09-28 Kail, Iv; Karl A. Reprogrammable remote sensor monitoring system
WO1999004230A1 (en) 1997-07-16 1999-01-28 Terumo Kabushiki Kaisha Ear type clinical thermometer
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3052286B2 (ja) 1997-08-28 2000-06-12 防衛庁技術研究本部長 飛行システムおよび航空機用擬似視界形成装置
US6210771B1 (en) 1997-09-24 2001-04-03 Massachusetts Institute Of Technology Electrically active textiles and articles made therefrom
JP3829220B2 (ja) 1997-10-09 2006-10-04 オムロンヘルスケア株式会社 心機能監視装置
WO1999028811A1 (en) 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JPH11237477A (ja) 1998-02-20 1999-08-31 Nagano Japan Radio Co 短波または超短波を用いた海洋レーダおよび短波または超短波を用いた海洋レーダシステム
JP3176580B2 (ja) 1998-04-09 2001-06-18 太陽誘電株式会社 電子部品の実装方法及び実装装置
US6080690A (en) 1998-04-29 2000-06-27 Motorola, Inc. Textile fabric with integrated sensing device and clothing fabricated thereof
FR2779859B1 (fr) 1998-04-30 2001-06-22 Jean Chretien Favreau Ecran matriciel tactile
JP2982792B2 (ja) 1998-05-22 1999-11-29 セイコーエプソン株式会社 薄膜トランジスタの製造方法
US6129673A (en) 1998-06-08 2000-10-10 Advanced Monitors, Corp. Infrared thermometer
US6037893A (en) 1998-07-31 2000-03-14 Litton Systems, Inc. Enhanced motion compensation technique in synthetic aperture radar systems
US6369804B1 (en) 1998-09-26 2002-04-09 Eleksen Limited Detector constructed from fabric having non-uniform conductivity
ATE362614T1 (de) 1998-10-20 2007-06-15 Omron Healthcare Co Ltd Infrarotthermometer
US6854985B1 (en) 1998-12-16 2005-02-15 Paricon Technologies Corporation Elastomeric interconnection device and methods for making same
US6791580B1 (en) 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US6303924B1 (en) 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
US6313825B1 (en) 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
US6504531B1 (en) 1999-05-20 2003-01-07 Eleksen Limited Detecting mechanical interactions
JP2000333910A (ja) 1999-05-25 2000-12-05 Nippon Colin Co Ltd 心機能監視装置
US8921473B1 (en) 2004-04-30 2014-12-30 Sydney Hyman Image making medium
ES2256985T3 (es) 1999-07-03 2006-07-16 Siemens Schweiz Ag Avisador de movimiento segun el principio doppler.
WO2001027855A2 (en) 1999-10-12 2001-04-19 The Government Of The United States Of America, As Represented By The Secretary, Department Of Health And Human Services, Centers For Disease Control And Prevention Image-synchronized multichannel biomedical data acquisition system
US6493933B1 (en) 1999-10-18 2002-12-17 Massachusetts Institute Of Technology Method of making flexible electronic circuitry
US6524239B1 (en) 1999-11-05 2003-02-25 Wcr Company Apparatus for non-instrusively measuring health parameters of a subject and method of use thereof
US7223105B2 (en) 1999-12-16 2007-05-29 Paricon Technologies Corporation Cable connector incorporating anisotropically conductive elastomer
US6590519B2 (en) 1999-12-22 2003-07-08 Hot/Shot Radar Inspections, Llc Method and system for identification of subterranean objects
JP2001208828A (ja) 2000-01-26 2001-08-03 Mitsubishi Electric Corp レーダ装置
US6590529B2 (en) 2000-02-14 2003-07-08 Mysky Communications Individualized, location specific weather forecasting system
US6440593B2 (en) 2000-02-16 2002-08-27 The University Of Massachusetts Molded article
DE10011263A1 (de) * 2000-03-08 2001-09-13 Bosch Gmbh Robert Objektdetektionssystem
US7194371B1 (en) 2000-03-27 2007-03-20 Cardiobeat.Com Medical testing system and method
BR0109801A (pt) 2000-04-03 2005-01-11 Univ Brunel Produto textil sensìvel à pressão condutora
US6616613B1 (en) 2000-04-27 2003-09-09 Vitalsines International, Inc. Physiological signal monitoring system
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
AU2001276991A1 (en) 2000-07-20 2002-02-05 J. Alexander Marchosky Patient-controlled automated medical record, diagnosis, and treatment system andmethod
DE10053061A1 (de) 2000-10-26 2002-05-08 Dornier Gmbh Verfahren zur adaptiven Zielverarbeitung in einem kraftfahrzeugradar
CN1299501C (zh) 2000-11-07 2007-02-07 松下电器产业株式会社 影像信号制作***和该***的影像信号记录播放装置
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6608585B2 (en) 2001-03-02 2003-08-19 Massachusetts Institute Of Technology High-definition imaging apparatus and method
JP2002262438A (ja) 2001-03-05 2002-09-13 Yazaki Corp 補機モジュール用中継部品および補機モジュール
JP2002298940A (ja) 2001-03-30 2002-10-11 Jst Mfg Co Ltd 樹脂ハンダを用いた電気接触子、電気コネクタ及びこれらのプリント配線板への接続方法
WO2002082999A1 (en) 2001-04-10 2002-10-24 Battelle Memorial Institute Image analysis system and method for discriminating movements of an individual
EP1428108B1 (en) 2001-05-14 2013-02-13 Koninklijke Philips Electronics N.V. Device for interacting with real-time streams of content
CA2445450C (en) 2001-05-17 2008-08-12 Thermal Technologies, Inc. Blood flow monitor for shock and resuscitation
US20020170897A1 (en) 2001-05-21 2002-11-21 Hall Frank L. Methods for preparing ball grid array substrates via use of a laser
US7266532B2 (en) 2001-06-01 2007-09-04 The General Hospital Corporation Reconfigurable autonomous device networks
JP3731071B2 (ja) 2001-07-02 2006-01-05 関西ティー・エル・オー株式会社 血行動態測定方法
US7158943B2 (en) 2001-09-04 2007-01-02 Ramon Van Der Riet Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships
WO2003045616A1 (en) 2001-11-24 2003-06-05 Delphi Technologies, Inc. Improvements in wire harnesses
CN1862601A (zh) 2001-12-10 2006-11-15 欧姆龙株式会社 物体探测装置及控制装置
DE10161527A1 (de) 2001-12-14 2003-07-03 Infineon Technologies Ag Aufbau- und Verbindungstechnik in textilen Strukturen
WO2003052541A2 (de) 2001-12-14 2003-06-26 Infineon Technologies Ag Keypad in textilien mit kapazativer ausleseschaltung
US6997882B1 (en) 2001-12-21 2006-02-14 Barron Associates, Inc. 6-DOF subject-monitoring device and method
US7845022B1 (en) 2002-02-14 2010-12-07 Nike, Inc. Deposition of electronic circuits on fibers and other materials
US7249954B2 (en) 2002-02-26 2007-07-31 Paricon Technologies Corporation Separable electrical interconnect with anisotropic conductive elastomer for translating footprint
JP2003280049A (ja) 2002-03-26 2003-10-02 Tdk Corp 機能性ファイバーおよび機能性ファイバーを用いた織編物
US7592276B2 (en) 2002-05-10 2009-09-22 Sarnoff Corporation Woven electronic textile, yarn and article
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7348285B2 (en) 2002-06-28 2008-03-25 North Carolina State University Fabric and yarn structures for improving signal integrity in fabric-based electrical circuits
AUPS335302A0 (en) 2002-07-03 2002-07-25 Uscom Pty Ltd Intergrated pressure and volume measurement method and apparatus
US6707418B2 (en) 2002-07-12 2004-03-16 Itt Manufacturing Enterprises, Inc. Correlating single continuous wave radar space object observation for initial orbit determination
US8509736B2 (en) 2002-08-08 2013-08-13 Global Tel*Link Corp. Telecommunication call management and monitoring system with voiceprint verification
US8190239B2 (en) 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
US20070030195A1 (en) 2002-09-12 2007-02-08 L-3 Communications Cyterra Corporation Concealed object detection
US20090177068A1 (en) 2002-10-09 2009-07-09 Stivoric John M Method and apparatus for providing derived glucose information utilizing physiological and/or contextual parameters
US7602413B2 (en) 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US20080065291A1 (en) 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components
US20060166620A1 (en) 2002-11-07 2006-07-27 Sorensen Christopher D Control system including an adaptive motion detector
US7280864B2 (en) 2002-11-27 2007-10-09 Ge Medical Systems Information Technologies, Inc. Method and apparatus for automated selection of correct image for quantitative analysis
JP3795856B2 (ja) 2002-12-09 2006-07-12 株式会社スクウェア・エニックス ビデオゲーム装置、ビデオゲームの進行制御方法、プログラム及び記録媒体
US7600234B2 (en) 2002-12-10 2009-10-06 Fisher-Rosemount Systems, Inc. Method for launching applications
GB0229316D0 (en) 2002-12-17 2003-01-22 Koninkl Philips Electronics Nv Electro-optic filament or fibre
US6929484B2 (en) 2003-01-09 2005-08-16 Roger E. Weiss Apparatus for applying a mechanically-releasable balanced compressive load to an assembly such as a compliant anisotropic conductive elastomer electrical connector
DE10307505B4 (de) 2003-02-21 2005-03-03 Infineon Technologies Ag Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Bestimmen eines Abstands von Mikroelektronikelementen der Textilgewebestruktur zu mindestens einer Referenzposition
KR100571811B1 (ko) 2003-05-09 2006-04-17 삼성전자주식회사 귀속형 생체 신호 측정 장치
GB0311320D0 (en) 2003-05-19 2003-06-25 Univ Manchester Knitted transducer devices
US20040249250A1 (en) 2003-06-04 2004-12-09 Mcgee Michael D. System and apparatus for monitoring and prompting medical self-care events and communicating medical self-care status
JP2005019393A (ja) 2003-06-05 2005-01-20 Sharp Corp 異方性導電物、表示装置、表示装置の製造方法および導電部材
AU2003247705A1 (en) 2003-07-02 2005-02-15 Paricon Technologies Corporation Pin-array, separable, compliant electrical contact member
JP2005051129A (ja) 2003-07-30 2005-02-24 Sony Corp 電子機器
US7392118B2 (en) 2003-08-18 2008-06-24 Fico Mirrors, Sa System and method for monitoring the external environment of a motor vehicle
CN100435723C (zh) 2003-08-20 2008-11-26 纽卡迪奥公司 用于三种特定导联心电图的无线记录、电信传送及处理的设备
WO2005022556A2 (en) 2003-09-02 2005-03-10 Integral Technologies, Inc. Very low resistance electrical interfaces to conductive loaded resin-based materials
DE10344285A1 (de) 2003-09-24 2005-05-12 Infineon Technologies Ag Prozessor-Anordnung, Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Weiterleiten von elektrischer Energieversorgung zwischen einer Vielzahl einander örtlich benachbart angeordneter Prozessorelemente
JP2005103863A (ja) 2003-09-29 2005-04-21 Pentel Corp 塗布具
WO2005033387A2 (en) 2003-09-30 2005-04-14 Milliken & Company Wrapped conductive yarn
GB0325622D0 (en) 2003-11-03 2003-12-10 Cambridge Consultants System for determining positional information
US7199749B2 (en) 2003-12-12 2007-04-03 Georgia Tech Research Corporation Radar detection device employing a scanning antenna system
GB0329566D0 (en) 2003-12-20 2004-01-28 Koninkl Philips Electronics Nv Woven material and display device constructed therefrom
US7299964B2 (en) 2004-01-15 2007-11-27 Georgia Tech Research Corp. Method and apparatus to create electrical junctions for information routing in textile structures
ATE479115T1 (de) 2004-01-20 2010-09-15 Bae Systems Information Verfahren und vorrichtung zur erkennung durch die wand unter verwendung von cw-radar
US7205932B2 (en) 2004-01-29 2007-04-17 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for improved determination of range and angle of arrival utilizing a two tone CW radar
DE102004004604B4 (de) 2004-01-29 2016-12-29 Siemens Healthcare Gmbh Verfahren und Bildgebungssystem zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP2005231450A (ja) 2004-02-18 2005-09-02 Honda Motor Co Ltd 車両用障害物検出装置
GB0404137D0 (en) 2004-02-25 2004-03-31 Koninkl Philips Electronics Nv A fabric
GB0404419D0 (en) 2004-02-27 2004-03-31 Intelligent Textiles Ltd Electrical components and circuits constructed as textiles
US7369100B2 (en) * 2004-03-04 2008-05-06 Eastman Kodak Company Display system and method with multi-person presentation function
US7148836B2 (en) 2004-03-05 2006-12-12 The Regents Of The University Of California Obstacle penetrating dynamic radar imaging system
JP2007531113A (ja) 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
US7129887B2 (en) 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
GB0408607D0 (en) 2004-04-17 2004-05-19 Koninkl Philips Electronics Nv Electrical connector
JP4299189B2 (ja) 2004-05-27 2009-07-22 アロカ株式会社 超音波診断装置及び画像処理方法
KR101134027B1 (ko) 2004-06-29 2012-04-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이 디바이스의 오염을 방지하는 방법 및 디바이스
US20070197878A1 (en) 2004-07-09 2007-08-23 Dror Shklarski Wearable device, system and method for monitoring physiological and/or environmental parameters
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7942744B2 (en) 2004-08-19 2011-05-17 Igt Virtual input system
US7295904B2 (en) 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US7307575B2 (en) 2004-09-14 2007-12-11 Bae Systems Information And Electronic Systems Integration Inc. Through-the-wall frequency stepped imaging system utilizing near field multiple antenna positions, clutter rejection and corrections for frequency dependent wall effects
US20060061504A1 (en) 2004-09-23 2006-03-23 The Regents Of The University Of California Through wall detection and tracking system
US7158076B2 (en) 2004-10-01 2007-01-02 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for correcting velocity-induced range estimate phase errors in a two-tone monopulse CW radar
US6970128B1 (en) 2004-10-06 2005-11-29 Raytheon Company Motion compensated synthetic aperture imaging system and methods for imaging
EP2039460A3 (de) 2004-11-02 2014-07-02 HID Global GmbH Verlegevorrichtung, Kontaktiervorrichtung, Zustellsystem, Verlege- und Kontaktiereinheit, herstellungsanlage, Verfahren zur Herstellung und eine Transpondereinheit
JP2006163886A (ja) 2004-12-08 2006-06-22 Canon Inc 情報入力方法及び情報入力装置
US7250853B2 (en) 2004-12-10 2007-07-31 Honeywell International Inc. Surveillance system
US20060136997A1 (en) 2004-12-21 2006-06-22 Eastman Kodak Company Authentication system and method
US9078619B2 (en) 2004-12-28 2015-07-14 Hypermed Imaging, Inc. Hyperspectral/multispectral imaging in determination, assessment and monitoring of systemic physiology and shock
US7531203B2 (en) 2005-01-06 2009-05-12 The Hong Kong Polytechnic University Method for the production of conductive flexible textile arrays
US7809171B2 (en) 2005-01-10 2010-10-05 Battelle Memorial Institute Facial feature evaluation based on eye location
JP2006196802A (ja) 2005-01-17 2006-07-27 Sony Corp 半導体装置および半導体装置の製造方法
DE102005003370A1 (de) 2005-01-24 2006-07-27 Juma Pcb Gmbh Verfahren zur durchgehenden Verlegung eines Leitungsdrahtes auf einer Leiterplatte und Vorrichtung zur Durchführung des Verfahrens
CN101238244B (zh) 2005-01-24 2011-03-30 株式会社昭和 采用阳极电解氧化处理的结晶性氧化钛被膜的制造方法
US20060183980A1 (en) 2005-02-14 2006-08-17 Chang-Ming Yang Mental and physical health status monitoring, analyze and automatic follow up methods and its application on clothing
JP2006234716A (ja) 2005-02-28 2006-09-07 Aichi Prefecture シート状センサ装置
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7019682B1 (en) 2005-04-12 2006-03-28 Trex Enterprises Corp. Imaging millimeter wave radar system
US7327308B2 (en) 2005-04-28 2008-02-05 Chung Shan Institute Of Science And Technology, Armaments Bureau, M.N.D. Programmable method and test device for generating target for FMCW radar
US7544627B2 (en) 2005-05-12 2009-06-09 The Hong Kong Polytechnic University Pressure sensing fabric
EP1727408A1 (de) 2005-05-13 2006-11-29 Eidgenössische Technische Hochschule Zürich Textil mit einem Leiterbahnsystem und Verfahren zu dessen Herstellung
EP1885925B1 (en) 2005-06-02 2010-10-06 NV Bekaert SA Electrically conductive elastic composite yarn
JP2007011873A (ja) 2005-07-01 2007-01-18 Toshiba Corp インタフェース装置およびインタフェース方法
US7462035B2 (en) 2005-07-27 2008-12-09 Physical Optics Corporation Electrical connector configured as a fastening element
US20070027369A1 (en) 2005-07-28 2007-02-01 Guido Pagnacco Apparatus and methods for assessing human physical performance
US7674231B2 (en) 2005-08-22 2010-03-09 Massachusetts Institute Of Technology Wearable pulse wave velocity blood pressure sensor and methods of calibration thereof
IL170689A (en) 2005-09-06 2011-08-31 Camero Tech Ltd Imaging device through a wall
US7791700B2 (en) 2005-09-16 2010-09-07 Kent Displays Incorporated Liquid crystal display on a printed circuit board
US8120524B2 (en) 2005-10-14 2012-02-21 Bae Systems Information And Electronic Systems Integration Inc. Motion detection systems using CW radar in combination with additional sensors
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP2007132768A (ja) 2005-11-10 2007-05-31 Hitachi Ltd 通信機能を有する車載レーダー装置
US20070118043A1 (en) 2005-11-23 2007-05-24 Microsoft Corporation Algorithms for computing heart rate and movement speed of a user from sensor data
JP4682028B2 (ja) 2005-11-28 2011-05-11 Hoya株式会社 導電層の製造方法、導電層、及び、信号伝送基板
CA2631675A1 (en) 2005-11-30 2007-06-21 The University Of North Carolina At Chapel Hill Identification of genetic polymorphic variants associated with somatosensory disorders and methods of using the same
US7834276B2 (en) 2005-12-16 2010-11-16 Unitech Printed Circuit Board Corp. Structure for connecting a USB communication interface in a flash memory card by the height difference of a rigid flexible board
US7317416B2 (en) 2005-12-22 2008-01-08 Leonard Flom Skeletal topography imaging radar for unique individual identification
US20080015422A1 (en) 2005-12-29 2008-01-17 Guidance Interactive Healthcare, Inc. Combined peripheral and health monitoring devices
US20070161921A1 (en) 2006-01-07 2007-07-12 Rausch Jeffrey L Bio-accurate temperature measurement device and method of quantitatively normalizing a body temperature measurement to determine a physiologically significant temperature event
FI119456B (fi) 2006-01-31 2008-11-14 Polar Electro Oy Liitinmekanismi
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US7395717B2 (en) 2006-02-10 2008-07-08 Milliken & Company Flexible capacitive sensor
KR100729676B1 (ko) 2006-02-17 2007-06-18 한국생산기술연구원 금속 필라멘트를 이용한 정보통신용 디지털사의 제조방법,제조장치 및 이에 의하여 제조된 디지털사
EP1835786B1 (de) 2006-02-24 2009-07-01 Sefar AG Flächenheizelement und Verfahren zur Herstellung eines Flächenheizelementes
CA2646279C (en) 2006-03-23 2015-12-08 Becton, Dickinson And Company System and methods for improved diabetes data management and use employing wireless connectivity between patients and healthcare providers and repository of diabetes management information
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
US8374668B1 (en) 2007-10-23 2013-02-12 Abbott Diabetes Care Inc. Analyte sensor with lag compensation
US7860343B2 (en) 2006-04-10 2010-12-28 Nokia Corporation Constructing image panorama using frame selection
DE102006018445B4 (de) 2006-04-18 2008-04-24 Imedos Gmbh Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße
GB2437997B (en) 2006-04-27 2011-07-27 Eleksen Ltd Manually operable position sensor
US9814425B2 (en) 2006-05-12 2017-11-14 Koninklijke Philips N.V. Health monitoring appliance
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US8326313B2 (en) 2006-05-12 2012-12-04 Shared Spectrum Company Method and system for dynamic spectrum access using detection periods
WO2007133085A1 (en) 2006-05-15 2007-11-22 Telefonaktiebolaget Lm Ericsson (Publ) A method and system for automatic classification of objects
US20080074307A1 (en) 2006-05-17 2008-03-27 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects within a doppler radar system
US7993275B2 (en) 2006-05-25 2011-08-09 Sotera Wireless, Inc. Bilateral device, system and method for monitoring vital signs
US9149192B2 (en) 2006-05-26 2015-10-06 Sotera Wireless, Inc. System for measuring vital signs using bilateral pulse transit time
WO2007143535A2 (en) 2006-06-01 2007-12-13 Biancamed Ltd. Apparatus, system, and method for monitoring physiological signs
JP5162849B2 (ja) 2006-06-11 2013-03-13 株式会社豊田中央研究所 不動点位置記録装置
WO2007147069A2 (en) 2006-06-14 2007-12-21 Advanced Brain Monitoring, Inc. Method for measuring central venous pressure or respiratory effort
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
GB2440568A (en) 2006-07-28 2008-02-06 Eleksen Ltd Interface apparatus connecting fabric sensor and electronic device
US9511877B2 (en) 2006-08-09 2016-12-06 Angela Masson Electronic kit bag
US8169404B1 (en) 2006-08-15 2012-05-01 Navisense Method and device for planary sensory detection
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
GB2443208A (en) 2006-10-27 2008-04-30 Studio 1 Ventures Ltd Textile pressure sensor
WO2008061385A2 (de) 2006-11-20 2008-05-29 Gerhard Staufert Leitertextil
NZ551819A (en) 2006-12-04 2009-03-31 Zephyr Technology Ltd Impact detection system
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
US20100065320A1 (en) 2006-12-07 2010-03-18 Nec Corporation Wiring board and method for manufacturing the same
US20080136775A1 (en) 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US8344949B2 (en) 2008-03-31 2013-01-01 Golba Llc Wireless positioning approach using time-delay of signals with a known transmission pattern
US8229506B2 (en) 2007-01-04 2012-07-24 At&T Intellectual Property I, L.P. Enhanced connection acquisition using an array antenna
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8607167B2 (en) 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US20090017910A1 (en) 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
GB0701869D0 (en) 2007-01-31 2007-03-14 Cambridge Consultants Adaptive radar
US7846104B2 (en) 2007-02-08 2010-12-07 Heart Force Medical Inc. Monitoring physiological condition and detecting abnormalities
US8918153B2 (en) 2007-02-16 2014-12-23 Mespere Lifesciences Inc. Method and device for measuring parameters of cardiac function
US8639309B2 (en) 2007-07-31 2014-01-28 J&M Shuler, Inc. Method and system for monitoring oxygenation levels of compartments and tissue
CA2684523A1 (en) 2007-04-20 2008-10-30 Softkinetic S.A. Volume recognition method and system
CA2686958A1 (en) 2007-05-10 2008-11-20 Grigore Burdea Periodic evaluation and telerehabilitation systems and methods
KR100888864B1 (ko) 2007-05-21 2009-03-17 한국과학기술원 바이오 레이더와 기울기 센서를 이용한 문자 입력 장치
US20080294012A1 (en) 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
WO2008147901A2 (en) 2007-05-22 2008-12-04 Qsi Corporation System and method for reducing vibrational effects on a force-based touch panel
US20110057164A1 (en) 2007-06-18 2011-03-10 California Institute Of Technology Carbon nanotube field emission device with overhanging gate
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US7692571B2 (en) 2007-06-29 2010-04-06 Trex Enterprises Corp. Millimeter wave imager with visible or infrared overlay for brownout assist
JP5060186B2 (ja) 2007-07-05 2012-10-31 株式会社東芝 脈波処理装置及び方法
US20090017799A1 (en) 2007-07-13 2009-01-15 Sony Ericsson Mobile Communications Ab System, device and method for transmitting a file by use of a throwing gesture to a mobile terminal
WO2009017362A2 (en) 2007-07-31 2009-02-05 Seoul National University Industry Foundation Electrically conductive metal composite embroidery yarn and embroidered circuit using thereof
JP5207513B2 (ja) 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
US8926509B2 (en) 2007-08-24 2015-01-06 Hmicro, Inc. Wireless physiological sensor patches and systems
WO2009032073A1 (en) 2007-08-28 2009-03-12 Woolsthorpe, Llc Non-invasive method and system for determining physiological characteristics
US20090058820A1 (en) 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
US8790257B2 (en) 2007-09-14 2014-07-29 Corventis, Inc. Multi-sensor patient monitor to detect impending cardiac decompensation
US8655004B2 (en) 2007-10-16 2014-02-18 Apple Inc. Sports monitoring system for headphones, earbuds and/or headsets
JP4858400B2 (ja) 2007-10-17 2012-01-18 ソニー株式会社 情報提供システム、情報提供装置、情報提供方法
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US20120029369A1 (en) 2007-10-31 2012-02-02 Icove David J Passive Microwave Assessment of Human Body Core to Surface Temperature Gradients and Basal Metabolic Rate
US8193929B1 (en) 2007-11-09 2012-06-05 Oceanit Laboratories, Inc. Integrated adaptive wireless mesh sensor platform and energy visualization and management system
US10235827B2 (en) 2007-11-09 2019-03-19 Ball Gaming, Inc. Interaction with 3D space in a gaming system
JP5385555B2 (ja) 2007-11-14 2014-01-08 日立コンシューマエレクトロニクス株式会社 生体検査システム、生体検査装置および生体検査方法
JP4337929B2 (ja) 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
GB0725316D0 (en) 2007-12-28 2008-02-06 Nokia Corp A controller
US8768520B2 (en) 2008-02-25 2014-07-01 Kingsdown, Inc. Systems and methods for controlling a bedroom environment and for providing sleep data
KR100982533B1 (ko) 2008-02-26 2010-09-16 한국생산기술연구원 디지털 밴드를 이용한 디지털 가먼트 및 그 제조 방법
US8218871B2 (en) 2008-03-05 2012-07-10 International Business Machines Corporation Detecting behavioral deviations by measuring respiratory patterns in cohort groups
US8341762B2 (en) 2008-03-21 2013-01-01 Alfiero Balzano Safety vest assembly including a high reliability communication system
US20090292468A1 (en) 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
US20100152600A1 (en) 2008-04-03 2010-06-17 Kai Sensors, Inc. Non-contact physiologic motion sensors and methods for use
WO2009134862A2 (en) 2008-04-29 2009-11-05 University Of Miami System and method for using interactive voice-recognition to automate a patient-centered best practice approach to disease evaluation and management
JP5461532B2 (ja) 2008-05-29 2014-04-02 キンバリー クラーク ワールドワイド インコーポレイテッド 電気経路を有する導電性ウェブ及びその製造方法
US20090295712A1 (en) 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
US8177721B2 (en) 2008-06-02 2012-05-15 The United States Of America As Represented By The Secretary Of The Navy Remote blood pressure waveform sensing method and apparatus
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
CN102057763B (zh) 2008-06-10 2016-01-20 皇家飞利浦电子股份有限公司 电子纺织品、制造其的方法以及用于其的纱线
JP2011525283A (ja) 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
US20100009662A1 (en) 2008-06-20 2010-01-14 Microsoft Corporation Delaying interaction with points of interest discovered based on directional device information
JP5283700B2 (ja) 2008-07-11 2013-09-04 国立大学法人 筑波大学 血管特性計測装置及び血管特性計測方法
US8154428B2 (en) 2008-07-15 2012-04-10 International Business Machines Corporation Gesture recognition control of electronic devices using a multi-touch device
JP2010048583A (ja) 2008-08-19 2010-03-04 Hosiden Corp 回転センサ
US8154435B2 (en) 2008-08-22 2012-04-10 Microsoft Corporation Stability monitoring using synthetic aperture radar
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
CN101349943B (zh) 2008-08-26 2010-08-04 中国人民解放军总后勤部军需装备研究所 织物操作控制器
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8823395B2 (en) 2008-09-19 2014-09-02 Koninklijke Philips N.V. Electronic textile and method for determining a functional area of an electronic textile
US9758907B2 (en) 2008-09-22 2017-09-12 Intel Corporation Method and apparatus for attaching chip to a textile
US20100094141A1 (en) 2008-10-14 2010-04-15 Amal Lesly Puswella Jugular venous pressure ruler
US7952512B1 (en) 2008-10-14 2011-05-31 Sprint Communications Company L.P. Mobile device enabled radar tags
US8516397B2 (en) 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
DE102008060862B4 (de) 2008-12-09 2010-10-28 Werthschützky, Roland, Prof. Dr.-Ing.habil. Verfahren zur miniaturisierbaren Kontaktierung isolierter Drähte
US20120123232A1 (en) 2008-12-16 2012-05-17 Kayvan Najarian Method and apparatus for determining heart rate variability using wavelet transformation
CN101751126A (zh) 2008-12-17 2010-06-23 孙骏恭 使用多个传感器空间的免提的基于手势的接口
US8688467B2 (en) 2009-01-09 2014-04-01 Cerner Innovation, Inc. Automated analysis of data collected by in-vivo devices
EP2387733B1 (en) 2009-01-15 2013-09-18 Duke University Broadband cloaking metamaterial apparatus and method
US20130035563A1 (en) 2010-01-26 2013-02-07 Angelides Kimon J Progressively Personalized Wireless-Based Interactive Diabetes Treatment
US8444564B2 (en) 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
EP2216866A3 (en) 2009-02-06 2011-07-13 HID Global GmbH Method to strip a portion of an insulated wire
WO2010101697A2 (en) 2009-02-06 2010-09-10 Oculis Labs, Inc. Video-based privacy supporting system
US9526429B2 (en) 2009-02-06 2016-12-27 Resmed Sensor Technologies Limited Apparatus, system and method for chronic disease monitoring
US9164168B2 (en) 2009-03-20 2015-10-20 Wright State University Systems for detecting movement of a target
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
TWM365363U (en) 2009-04-08 2009-09-21 Fu-Biau Hsu Illuminating textile article
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8289185B2 (en) 2009-05-05 2012-10-16 Advanced Technologies Group, LLC Sports telemetry system for collecting performance metrics and data
KR101127991B1 (ko) 2009-05-20 2012-03-29 주식회사 아모그린텍 은합연사와 이를 이용한 기능성 원단 및 그 제조방법
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
RU2011154465A (ru) 2009-06-03 2013-07-20 ДжиЛТ ТЕХНОВЭЙШНЗ, ЛЛСи Материал для использования с емкостным сенсорным экраном
US8759713B2 (en) 2009-06-14 2014-06-24 Terepac Corporation Methods for interconnecting bonding pads between components
US8020290B2 (en) 2009-06-14 2011-09-20 Jayna Sheats Processes for IC fabrication
US10085657B2 (en) 2009-06-17 2018-10-02 Sotera Wireless, Inc. Body-worn pulse oximeter
US8821350B2 (en) 2009-07-02 2014-09-02 Richard J. Maertz Exercise and communications system and associated methods
KR20110010906A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치
US8346354B2 (en) 2009-07-28 2013-01-01 The Invention Science Fund I, Llc Determining a neuromodulation treatment regimen in response to contactlessly acquired information
CN101655561A (zh) * 2009-09-14 2010-02-24 南京莱斯信息技术股份有限公司 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法
GB0916707D0 (en) 2009-09-23 2009-11-04 Elliptic Laboratories As Acoustic motion determination
US20110073353A1 (en) 2009-09-29 2011-03-31 Tex-Ray Industrial Co., Ltd. Conductive fabric and method for forming the same
US8312392B2 (en) 2009-10-02 2012-11-13 Qualcomm Incorporated User interface gestures and methods for providing file sharing functionality
JP5493070B2 (ja) 2009-10-15 2014-05-14 株式会社槌屋 導電性織物
JP5668966B2 (ja) 2009-10-15 2015-02-12 株式会社槌屋 導電性織物及び導電性織物を使用したタッチセンサ装置
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8367942B2 (en) 2009-10-27 2013-02-05 Hon Hai Precision Ind. Co., Ltd. Low profile electrical interposer of woven structure and method of making same
US9832019B2 (en) 2009-11-17 2017-11-28 Unho Choi Authentication in ubiquitous environment
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
WO2011066343A2 (en) 2009-11-24 2011-06-03 Next Holdings Limited Methods and apparatus for gesture recognition mode control
US20110213218A1 (en) 2009-12-17 2011-09-01 Weiner Bert A Patient healthcare monitoring/maintenance system
US9229102B1 (en) 2009-12-18 2016-01-05 L-3 Communications Security And Detection Systems, Inc. Detection of movable objects
US20150301167A1 (en) * 2009-12-18 2015-10-22 Christopher Gary Sentelle Detection of movable objects
WO2011075639A1 (en) 2009-12-18 2011-06-23 Christopher Gary Sentelle Moving entity detection
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US20110166940A1 (en) 2010-01-05 2011-07-07 Searete Llc Micro-impulse radar detection of a human demographic and delivery of targeted media content
US9069067B2 (en) 2010-09-17 2015-06-30 The Invention Science Fund I, Llc Control of an electronic apparatus using micro-impulse radar
US10385487B2 (en) 2010-01-14 2019-08-20 Byung-Ok Jeon Electrically conductive fabric and manufacturing method and apparatus thereof
KR101325817B1 (ko) 2010-01-14 2013-11-05 실버레이 주식회사 도전성 직조물, 그 제조방법 및 제조장치
US20110181510A1 (en) 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
US9335825B2 (en) * 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
FR2955972B1 (fr) 2010-02-03 2012-03-09 Commissariat Energie Atomique Procede d'assemblage d'au moins une puce avec un tissu incluant un dispositif a puce
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8522308B2 (en) 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US20140297006A1 (en) 2010-03-12 2014-10-02 Rajendra Padma Sadhu System and method for providing physiological feedback and rewards for engaging user and retention of customer
US9104312B2 (en) 2010-03-12 2015-08-11 Nuance Communications, Inc. Multimodal text input system, such as for use with touch screens on mobile phones
US8599061B2 (en) 2010-03-17 2013-12-03 George Mason Intellectual Properties, Inc. Cavity detection
JP5843207B2 (ja) 2010-03-19 2016-01-13 ディジマーク コーポレイション 直観的コンピューティング方法及びシステム
JP2011204019A (ja) 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
US9477324B2 (en) 2010-03-29 2016-10-25 Hewlett-Packard Development Company, L.P. Gesture processing
US20110245688A1 (en) 2010-03-31 2011-10-06 General Electric Company System and method of performing electrocardiography with motion detection
WO2011123833A1 (en) * 2010-04-01 2011-10-06 Yanntek, Inc. Immersive multimedia terminal
US8102306B2 (en) 2010-05-13 2012-01-24 The United States Of America As Represented By The Secretary Of The Navy Active-radar-assisted passive composite imagery for aiding navigation or detecting threats
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
JP2011253241A (ja) 2010-05-31 2011-12-15 Toyota Motor Corp 物体検出装置
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US8301232B2 (en) 2010-06-08 2012-10-30 Alivecor, Inc. Wireless, ultrasonic personal health monitoring system
US8509882B2 (en) 2010-06-08 2013-08-13 Alivecor, Inc. Heart monitoring system usable with a smartphone or computer
US20110307842A1 (en) 2010-06-14 2011-12-15 I-Jen Chiang Electronic reading device
US20120200600A1 (en) 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
US20110318985A1 (en) 2010-06-23 2011-12-29 Mcdermid William James Touch Sensor Fabric
US20110316888A1 (en) 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
US8907929B2 (en) 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
JP5726446B2 (ja) 2010-07-01 2015-06-03 京セラ株式会社 携帯電子機器
JP2012018583A (ja) 2010-07-08 2012-01-26 Canon Inc ソフトウェア開発支援装置及びその処理方法
TW201205404A (en) 2010-07-16 2012-02-01 Elan Microelectronics Corp Three-dimensional touch sensor and application thereof
JP2012028015A (ja) 2010-07-20 2012-02-09 Toshiba Corp 照明制御システムおよび照明制御方法
JP5659595B2 (ja) 2010-07-21 2015-01-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP2417908A1 (en) 2010-08-12 2012-02-15 Philips Intellectual Property & Standards GmbH Device, system and method for measuring vital signs
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8785778B2 (en) 2010-08-23 2014-07-22 Foster-Miller, Inc. PALS compliant routing system
WO2012026013A1 (ja) 2010-08-26 2012-03-01 京セミ株式会社 半導体素子付き織網基材の製造方法、その製造装置及び半導体素子付き織網基材
WO2012028884A1 (en) 2010-09-02 2012-03-08 Elliptic Laboratories As Motion feedback
US20130161078A1 (en) 2010-09-03 2013-06-27 Hui Hong Jim Kery Li Rigid-flex circuit board and manufacturing method
JP2012058921A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
EP2428814A1 (en) 2010-09-13 2012-03-14 France Telecom Object detection method, device and system
DE102010045657A1 (de) * 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
EP2620042A1 (en) 2010-09-21 2013-07-31 Koninklijke Philips Electronics N.V. Electronic textile and method of manufacturing an electronic textile
JP5515067B2 (ja) 2011-07-05 2014-06-11 島根県 操作入力装置および操作判定方法並びにプログラム
JP5167523B2 (ja) 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
US8560029B2 (en) 2011-09-21 2013-10-15 Mobile Joose, Inc Isolation enhancement between planar antenna elements
EP2621902B1 (en) 2010-09-28 2017-04-12 Panacea Biotec Ltd 3-azabicyclo[3.1.0]hexane compounds useful for the treatment of cns disorders
US9569003B2 (en) 2010-09-30 2017-02-14 Broadcom Corporation Portable computing device including a three-dimensional touch screen
US8483617B2 (en) * 2010-09-30 2013-07-09 Broadcom Corporation Portable computing device with high-speed data communication
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US8772621B2 (en) 2010-11-09 2014-07-08 Smule, Inc. System and method for capture and rendering of performance on synthetic string instrument
JP6083072B2 (ja) 2010-11-15 2017-02-22 モベア スマートエアマウス
EP2930530B1 (en) 2010-11-16 2019-12-25 Qualcomm Incorporated System and method for object position estimation based on ultrasonic reflected signals
WO2012068550A2 (en) 2010-11-20 2012-05-24 Kushler Clifford A Systems and methods for using entered text to access and process contextual information
US9557413B2 (en) 2010-12-06 2017-01-31 The University Of Memphis Research Foundation Surveillance and tracking system and method
US9015007B2 (en) 2010-12-13 2015-04-21 Southwest Research Institute Sensor array processor with multichannel reconstruction from random array sampling
KR101778127B1 (ko) 2010-12-14 2017-09-13 엘지전자 주식회사 터치 패널 및 터치 패널을 포함하는 디스플레이 장치
JP5510302B2 (ja) 2010-12-15 2014-06-04 トヨタ紡織株式会社 接続部材、その製造方法及び接続構造体
US9104308B2 (en) 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
US8475367B1 (en) 2011-01-09 2013-07-02 Fitbit, Inc. Biometric monitoring device having a body weight sensor, and methods of operating same
US8730190B2 (en) 2011-01-13 2014-05-20 Qualcomm Incorporated Detect motion generated from gestures used to execute functionality associated with a computer system
US20120191223A1 (en) 2011-01-25 2012-07-26 Honeywell International Inc. System and method for automatically selecting sensors
DE102011009577A1 (de) 2011-01-27 2012-08-02 Texas Instruments Deutschland Gmbh RFID-Transponder und Verfahren zum Verbinden eines Halbleiter-Dies mit einer Antenne
EP2667769B1 (en) 2011-01-27 2020-07-22 The Board of Trustees of the Leland Stanford Junior University Systems for monitoring the circulatory system
US20120220835A1 (en) 2011-02-14 2012-08-30 Wayne Chung Wireless physiological sensor system and method
JP5889539B2 (ja) * 2011-03-28 2016-03-22 独立行政法人石油天然ガス・金属鉱物資源機構 炭化水素の製造方法
JP5865597B2 (ja) 2011-03-29 2016-02-17 京セラ株式会社 携帯電子機器
US9318884B2 (en) 2011-03-30 2016-04-19 Illinois Tool Works Inc. Induction heating wire insulation heating and removal
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US20120270564A1 (en) 2011-04-19 2012-10-25 Qualcomm Incorporated Methods and apparatuses for use in a mobile device to detect signaling apertures within an environment
US8681122B2 (en) 2011-04-19 2014-03-25 Cypress Semiconductor Corporation Capacitive sensing with programmable logic for touch sense arrays
KR20120119420A (ko) 2011-04-21 2012-10-31 한국전자통신연구원 지능형 운동체 제어 장치 및 방법
US9103899B2 (en) 2011-04-29 2015-08-11 The Invention Science Fund I, Llc Adaptive control of a personal electronic device responsive to a micro-impulse radar
US20120280900A1 (en) 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
DE102011075725A1 (de) 2011-05-12 2012-11-15 Robert Bosch Gmbh Verfahren zum Erkennen von Gesten
KR20140002034A (ko) 2011-05-12 2014-01-07 애플 인크. 존재 감지
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
IL213125A0 (en) 2011-05-24 2011-10-31 Bird Aerosystems Ltd System, device and method of protecting aircrafts against incoming missiles and threats
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20120310665A1 (en) 2011-06-01 2012-12-06 Xerox Corporation Personalized medical record
PT2723615T (pt) 2011-06-24 2023-05-24 Surveillance Guard Co Ltd Um sistema de prevenção de acidente e um veículo que inclui o sistema de prevenção de acidente
US8851372B2 (en) 2011-07-18 2014-10-07 Tiger T G Zhou Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card
US8576110B2 (en) * 2011-07-07 2013-11-05 Raytheon Company Fast ray trace to identify radar multipaths
KR101235432B1 (ko) 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US9127964B2 (en) 2011-07-25 2015-09-08 Ips Group Inc. Low power vehicle detection
FR2978607A1 (fr) 2011-07-28 2013-02-01 Commissariat Energie Atomique Procede d'assemblage d'un dispositif a puce micro-electronique dans un tissu, dispositif a puce, et tissu incorporant un dispositif a puce serti
KR101330809B1 (ko) 2011-08-03 2013-12-19 주식회사 팬택 터치 패널 및 이를 구비한 전자기기
US8740793B2 (en) 2011-08-29 2014-06-03 General Electric Company Radar based systems and methods for monitoring a subject
CA3157660C (en) 2011-09-09 2023-03-14 Accipiter Radar Technologies, Inc. Device and method for 3d sampling with avian radar
US10027923B1 (en) 2011-09-09 2018-07-17 Huan Chang Methods and system for recording, searching and faithful reproduction of sensations
US9632102B2 (en) 2011-09-25 2017-04-25 Theranos, Inc. Systems and methods for multi-purpose analysis
JP5774228B2 (ja) 2011-09-16 2015-09-09 クアルコム,インコーポレイテッド モバイルデバイスが車両に乗っていることの検出
US20130076788A1 (en) 2011-09-26 2013-03-28 Eyeducation A. Y. Ltd Apparatus, method and software products for dynamic content management
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
US8617081B2 (en) 2011-09-28 2013-12-31 Xerox Corporation Estimating cardiac pulse recovery from multi-channel source data via constrained source separation
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
DE112012004179T5 (de) 2011-10-06 2014-09-11 Iee International Electronics & Engineering S.A. Elektrisch leitfähige Textilien für Insassenerfassungs-und/oder Heizanwendungen
TW201315438A (zh) 2011-10-14 2013-04-16 Ind Tech Res Inst 非接觸式之心脈量測方法及其系統
CN102660988B (zh) 2011-10-18 2014-03-12 北京盈胜泰科技术有限公司 智能坐便器
US20130104084A1 (en) 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
EP2587347A3 (en) 2011-10-25 2016-01-20 Broadcom Corporation Portable computing device including a three-dimensional touch screen
RU2621633C2 (ru) 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US20130106710A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Methods, apparatuses, and computer program products for adjusting touchscreen sensitivity
US10082950B2 (en) 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
JP2013101526A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US8869115B2 (en) 2011-11-23 2014-10-21 General Electric Company Systems and methods for emotive software usability
US9557819B2 (en) 2011-11-23 2017-01-31 Intel Corporation Gesture input with multiple views, displays and physics
WO2013075270A1 (zh) 2011-11-25 2013-05-30 Yang Chang-Ming 一种侦测心跳或电极接触良好与否的物品、方法及***
JP6125526B2 (ja) 2011-12-07 2017-05-10 フィリップス ライティング ホールディング ビー ヴィ 廃棄物選別を容易化する手段を備えた電子織物
US9323379B2 (en) 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
US20130147933A1 (en) 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
CN104094194A (zh) 2011-12-09 2014-10-08 诺基亚公司 用于基于多个传感器信号的融合识别手势的方法和设备
CN106342197B (zh) 2011-12-14 2013-02-13 中国电子科技集团公司第二十七研究所 一种用于对激光设备进行远近距离动态精度指标测试的***
US9389681B2 (en) 2011-12-19 2016-07-12 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
US8749485B2 (en) 2011-12-20 2014-06-10 Microsoft Corporation User control gesture detection
WO2013096704A1 (en) * 2011-12-20 2013-06-27 Sadar 3D, Inc. Systems, apparatus, and methods for acquisition and use of image data
WO2013095679A1 (en) 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US20130169471A1 (en) 2011-12-28 2013-07-04 Hrl Laboratories, Llc Coded aperture beam analysis method and apparatus
US9141194B1 (en) 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
JP5673568B2 (ja) 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
US8682395B2 (en) 2012-01-27 2014-03-25 Blackberry Limited Communications device and method having non-touch based input screen
US8527146B1 (en) 2012-01-30 2013-09-03 Google Inc. Systems and methods for updating vehicle behavior and settings based on the locations of vehicle passengers
KR101849373B1 (ko) 2012-01-31 2018-04-17 한국전자통신연구원 인체의 관절구조를 추정하기 위한 장치 및 방법
US20130194173A1 (en) 2012-02-01 2013-08-01 Ingeonix Corporation Touch free control of electronic systems and associated methods
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US20130207962A1 (en) 2012-02-10 2013-08-15 Float Hybrid Entertainment Inc. User interactive kiosk with three-dimensional display
KR101330810B1 (ko) 2012-02-24 2013-11-18 주식회사 팬택 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법
US9389690B2 (en) 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US9153084B2 (en) 2012-03-14 2015-10-06 Flextronics Ap, Llc Destination and travel information application
US9412273B2 (en) 2012-03-14 2016-08-09 Autoconnect Holdings Llc Radar sensing and emergency response vehicle detection
JP2013196047A (ja) 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
EP2650754A3 (en) 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
US20130249793A1 (en) 2012-03-22 2013-09-26 Ingeonix Corporation Touch free user input recognition
US9125456B2 (en) 2012-03-26 2015-09-08 Chong Sun CHOW Object-containing button
JP5928069B2 (ja) 2012-03-28 2016-06-01 トヨタ紡織株式会社 織物
EP2836888A4 (en) 2012-03-29 2015-12-09 Intel Corp CREATING THREE-DIMENSIONAL GRAPHICS USING GESTURES
CN106012222B (zh) 2012-03-30 2018-01-16 英威达技术有限公司 具有控制纱***的拉伸机织织物
US9575652B2 (en) 2012-03-31 2017-02-21 Microsoft Technology Licensing, Llc Instantiable gesture objects
US8933912B2 (en) 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9170674B2 (en) 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
JP5024495B1 (ja) 2012-04-17 2012-09-12 オムロン株式会社 ジェスチャ入力装置およびジェスチャ入力装置の制御方法
US9448636B2 (en) 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US20130283203A1 (en) 2012-04-24 2013-10-24 Yahoo! Inc. Method and system for displaying search results
JP5721662B2 (ja) 2012-04-26 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力受付方法、入力受付プログラム、及び入力装置
US9552503B2 (en) * 2012-05-01 2017-01-24 5D Robotics, Inc. Distributed positioning and collaborative behavior determination
US20140121540A1 (en) 2012-05-09 2014-05-01 Aliphcom System and method for monitoring the health of a user
US9411042B2 (en) 2012-05-09 2016-08-09 Duke University Multi-sensor compressive imaging
US8939367B2 (en) 2012-05-24 2015-01-27 Kenneth James Hintz Cavity axis orientation measurement device
US8897522B2 (en) 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US8793046B2 (en) * 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US9183310B2 (en) 2012-06-12 2015-11-10 Microsoft Technology Licensing, Llc Disambiguating intents within search engine result pages
JP2015523132A (ja) 2012-06-12 2015-08-13 コーニンクレッカ フィリップス エヌ ヴェ カメラによる生命徴候測定システム
US20130338460A1 (en) 2012-06-18 2013-12-19 David Da He Wearable Device for Continuous Cardiac Monitoring
BR112014031856A2 (pt) 2012-06-19 2017-06-27 Nat Univ Singapore sistema de método para avaliação de situação e encontro remoto com o uso de dados paralelos e trajetos de comunicação por voz
US9005129B2 (en) 2012-06-22 2015-04-14 Fitbit, Inc. Wearable heart rate monitor
US9042971B2 (en) 2012-06-22 2015-05-26 Fitbit, Inc. Biometric monitoring device with heart rate measurement activated by a single user-gesture
US8768438B2 (en) 2012-06-25 2014-07-01 Xerox Corporation Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function
US9582933B1 (en) 2012-06-26 2017-02-28 The Mathworks, Inc. Interacting with a model via a three-dimensional (3D) spatial environment
US9201815B2 (en) 2012-06-27 2015-12-01 Ubiquiti Networks, Inc. Method and apparatus for maintaining network connections between devices
JP5915414B2 (ja) * 2012-06-29 2016-05-11 ブラザー工業株式会社 プログラムおよび携帯端末
FR2992784B1 (fr) 2012-06-29 2015-08-07 Laselec Dispositif de denudage de cables electriques utilisant des diodes laser violettes ou bleues
KR101387190B1 (ko) 2012-07-05 2014-04-21 최재홍 천년초 선인장을 이용한 발효산물을 제조하는 방법
CN102819315B (zh) 2012-07-23 2016-04-13 中兴通讯股份有限公司 一种3d人机交互方法及***
US9140782B2 (en) 2012-07-23 2015-09-22 Google Technology Holdings LLC Inter-vehicle alert system with nagable video look ahead
US9223494B1 (en) 2012-07-27 2015-12-29 Rockwell Collins, Inc. User interfaces for wearable computers
US9235241B2 (en) 2012-07-29 2016-01-12 Qualcomm Incorporated Anatomical gestures detection system using radio signals
WO2014019085A1 (en) 2012-08-01 2014-02-06 Whirlscape, Inc. One-dimensional input system and method
CA2880902C (en) 2012-08-03 2020-07-28 Charles Rashid Portable collision warning apparatus
US8819812B1 (en) 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US9323985B2 (en) 2012-08-16 2016-04-26 Microchip Technology Incorporated Automatic gesture recognition for a sensor system
US20140049487A1 (en) 2012-08-17 2014-02-20 Qualcomm Incorporated Interactive user interface for clothing displays
US20140051941A1 (en) 2012-08-17 2014-02-20 Rare Light, Inc. Obtaining physiological measurements using a portable device
DE102012214852B4 (de) 2012-08-21 2024-01-18 Robert Bosch Gmbh Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
KR20140027837A (ko) 2012-08-27 2014-03-07 삼성전자주식회사 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
WO2014036436A1 (en) 2012-08-30 2014-03-06 Alivecor, Inc. Cardiac performance monitoring system for use with mobile communications devices
WO2014032984A1 (en) 2012-09-03 2014-03-06 Sony Corporation Hand-held security scanning device
EP2892421A1 (en) 2012-09-04 2015-07-15 Whoop, Inc. Systems, devices and methods for continuous heart rate monitoring and interpretation
US9811901B2 (en) 2012-09-07 2017-11-07 Massachusetts Institute Of Technology Linear-based Eulerian motion modulation
US8945328B2 (en) 2012-09-11 2015-02-03 L.I.F.E. Corporation S.A. Methods of making garments having stretchable and conductive ink
US9817440B2 (en) 2012-09-11 2017-11-14 L.I.F.E. Corporation S.A. Garments having stretchable and conductive ink
US8948839B1 (en) 2013-08-06 2015-02-03 L.I.F.E. Corporation S.A. Compression garments having stretchable and conductive ink
CN104768455B (zh) 2012-09-11 2018-01-02 L.I.F.E.公司 可穿戴式通信平台
US9036865B2 (en) 2012-09-12 2015-05-19 International Business Machines Corporation Location determination for an object using visual data
US20140073969A1 (en) 2012-09-12 2014-03-13 Neurosky, Inc. Mobile cardiac health monitoring
US9877650B2 (en) 2012-09-20 2018-01-30 Masimo Corporation Physiological monitor with mobile computing device connectivity
US9002174B2 (en) 2012-10-01 2015-04-07 Microsoft Technology Licensing, Llc Semantic zoom for related content
WO2014107203A2 (en) 2012-10-04 2014-07-10 Hooper William W Proximity sensor
JP6273662B2 (ja) 2012-10-05 2018-02-07 トランスロボティックス,インク. 高分解能距離感知のためのシステム及び方法、並びにその適用
US11099652B2 (en) 2012-10-05 2021-08-24 Microsoft Technology Licensing, Llc Data and user interaction based on device proximity
US9870056B1 (en) 2012-10-08 2018-01-16 Amazon Technologies, Inc. Hand and hand pose detection
US8860602B2 (en) 2012-10-09 2014-10-14 Accipiter Radar Technologies Inc. Device and method for cognitive radar information network
CN104838512B (zh) 2012-10-12 2017-11-07 帝人株式会社 压电元件
CN202887794U (zh) 2012-10-12 2013-04-17 上海斯麟特种设备工程有限公司 一种涂胶棉纱编织电缆
US9632574B2 (en) 2012-10-31 2017-04-25 Sony Corporation Device and method for authenticating a user
WO2014072567A1 (en) 2012-11-06 2014-05-15 Nokia Corporation Method and apparatus for creating motion effect for image
US9729986B2 (en) 2012-11-07 2017-08-08 Fairchild Semiconductor Corporation Protection of a speaker using temperature calibration
WO2014072461A1 (de) 2012-11-11 2014-05-15 Grönemeyer Medical GmbH & Co. KG Verfahren und vorrichtung zur bestimmung von vitalparametern
TWI471756B (zh) 2012-11-16 2015-02-01 Quanta Comp Inc 虛擬觸控方法
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9529439B2 (en) 2012-11-27 2016-12-27 Qualcomm Incorporated Multi device pairing and sharing via gestures
EP2925214A4 (en) 2012-11-30 2016-09-21 Kinsa Inc MOBILE HEALTH SYSTEM
GB2508626B (en) 2012-12-05 2014-10-29 R & D Core Ltd Contact sensor
TW201425974A (zh) 2012-12-17 2014-07-01 Ind Tech Res Inst 姿態感測裝置與方法
US9075429B1 (en) 2012-12-19 2015-07-07 Amazon Technologies, Inc. Distortion correction for device display
CN103903146A (zh) 2012-12-26 2014-07-02 北大方正集团有限公司 一种防伪信息验证的方法及装置
US20140188989A1 (en) 2012-12-27 2014-07-03 Google Inc. Exchanging content across multiple devices
FI124657B (en) 2012-12-31 2014-11-28 Suunto Oy Male connector for telemetric receiver
WO2014106823A2 (en) 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US20140191939A1 (en) 2013-01-09 2014-07-10 Microsoft Corporation Using nonverbal communication in determining actions
CN103091667B (zh) 2013-01-10 2014-12-10 清华大学 一种车载雷达标定装置及标定方法
EP2943126B1 (en) 2013-01-14 2019-09-04 Uscom Limited Combined blood flow and pressure monitoring system and method
US9696867B2 (en) 2013-01-15 2017-07-04 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures
WO2014116968A1 (en) 2013-01-25 2014-07-31 Vanderbilt University Smart mobile health monitoring system and related methods
DE102013201359A1 (de) 2013-01-29 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
US9146668B2 (en) * 2013-01-31 2015-09-29 Hewlett-Packard Development Company, L.P. Graphical element placement on a display surface
WO2014124520A1 (en) 2013-02-13 2014-08-21 Mespere Lifesciences Inc. Method and device for measuring venous blood oxygenation
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
IN2013CH00818A (ja) 2013-02-25 2015-08-14 Cognizant Technology Solutions India Pvt Ltd
US9203835B2 (en) 2013-03-01 2015-12-01 Paypal, Inc. Systems and methods for authenticating a user based on a biometric model associated with the user
US20160012198A1 (en) 2013-03-05 2016-01-14 Vtm, Llc Medical Telecommunications System
JP6389831B2 (ja) 2013-03-06 2018-09-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. バイタルサイン情報を決定するためのシステム及び方法
US9519351B2 (en) 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
CN104035552B (zh) 2013-03-08 2017-08-25 广州三星通信技术研究有限公司 三维操作方法和三维操作装置
WO2014165230A1 (en) 2013-03-13 2014-10-09 Lookout, Inc. System and method for changing security behavior of a device based on proximity to another device
US9913415B2 (en) 2013-03-13 2018-03-06 Federal-Mogul Powertrain Llc EMI shielding textile fabric, wrappable sleeve constructed therefrom and method of construction thereof
US20140276104A1 (en) 2013-03-14 2014-09-18 Nongjian Tao System and method for non-contact monitoring of physiological parameters
US20140280295A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Multi-language information retrieval and advertising
US8925807B2 (en) 2013-03-14 2015-01-06 Daniel Utley Audio port power generation circuit and auxiliary device
US11044451B2 (en) 2013-03-14 2021-06-22 Jawb Acquisition Llc Proximity-based control of media devices for media presentations
US9654506B2 (en) 2013-03-15 2017-05-16 Global 9-Times-5, Llc Managing and accounting for privacy settings through tiered cookie set access
WO2014144261A2 (en) 2013-03-15 2014-09-18 Medusa Scientific Llc Electric field sensing and e field visualization
US20140281975A1 (en) 2013-03-15 2014-09-18 Glen J. Anderson System for adaptive selection and presentation of context-based media in communications
US20140364711A1 (en) 2013-03-27 2014-12-11 AkibaH Health Corporation All-in-one analyte sensor in a detachable external mobile device case
GB201305812D0 (en) 2013-03-28 2013-05-15 Univ Warwick Gesture tracking and classification
WO2014165476A1 (en) 2013-04-01 2014-10-09 Gollakota Shyamnath Devices, systems, and methods for detecting gestures using wireless communication signals
US9170324B2 (en) 2013-04-04 2015-10-27 Raytheon Company Statistical movement analysis
GB201306475D0 (en) 2013-04-10 2013-05-22 Elliptic Laboratories As Touchless interaction devices
US10183142B2 (en) 2013-04-10 2019-01-22 Koninklijke Philips N.V. System and method for enhancing sleep slow wave activity based on cardiac activity
US20140309855A1 (en) 2013-04-12 2014-10-16 Bao Tran Smart car with automatic signalling
WO2014172668A1 (en) 2013-04-18 2014-10-23 California Institute Of Technology Life detecting radars
KR101373633B1 (ko) 2013-04-23 2014-03-13 상명대학교서울산학협력단 항복강력이 증가된 도전성금속복합사의 제조방법과, 이 제조방법에 의해 제조된 도전성금속복합사와, 이 도전성금속복합사를 이용하여 제조되는 자수회로제품
US10203405B2 (en) 2013-04-25 2019-02-12 The United States Of America As Represented By The Secretary Of The Army Multitone radar with range determination and method of use
US20140329567A1 (en) 2013-05-01 2014-11-06 Elwha Llc Mobile device with automatic volume control
WO2014183262A1 (en) 2013-05-14 2014-11-20 Empire Technology Development Llc Detection of user gestures
WO2014190018A1 (en) 2013-05-21 2014-11-27 Stanley Innovation, Inc. A system and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology
KR101999958B1 (ko) 2013-05-22 2019-07-15 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140357369A1 (en) 2013-06-04 2014-12-04 Microsoft Corporation Group inputs via image sensor system
US10031586B2 (en) 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
FI126204B (en) 2013-06-14 2016-08-15 Suunto Oy Apparatus and method for mounting an electronic device having a male removable coupling member
WO2014204323A1 (en) 2013-06-17 2014-12-24 Stretchsense Limited Stretchable fabric sensors
US9436984B2 (en) 2013-06-21 2016-09-06 Xerox Corporation Compensating for motion induced artifacts in a physiological signal extracted from a single video
EP3014407A4 (en) 2013-06-28 2017-08-02 Chia Ming Chen Controlling device operation according to hand gestures
KR20150006195A (ko) 2013-07-08 2015-01-16 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US20150029050A1 (en) 2013-07-25 2015-01-29 Elwha Llc Wearable radar reflectors
US20150068069A1 (en) 2013-07-27 2015-03-12 Alexander Bach Tran Personally powered appliance
US8903568B1 (en) 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
US9529513B2 (en) 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
US20150042789A1 (en) 2013-08-07 2015-02-12 Blackberry Limited Determining the distance of an object to an electronic device
WO2015018675A1 (en) 2013-08-07 2015-02-12 Koninklijke Philips N.V. Monitoring system and method for monitoring the hemodynamic status of a subject
US20150046183A1 (en) 2013-08-12 2015-02-12 James V. Cireddu Remote, virtual physical exam acquisition and distribution
EP3033448A1 (en) 2013-08-16 2016-06-22 Footfalls and Heartbeats Limited Method for making electrically conductive textiles and textile sensor
WO2015038684A1 (en) 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
JP6304257B2 (ja) 2013-09-12 2018-04-04 パナソニック株式会社 レーダ装置、車両及び移動体速度検出方法
WO2015038133A1 (en) 2013-09-12 2015-03-19 Intel Corporation Detecting gestures on the side of a computing device
FI126008B (en) 2013-09-13 2016-05-31 Murata Manufacturing Co cardiac monitoring system
US20150077345A1 (en) 2013-09-16 2015-03-19 Microsoft Corporation Simultaneous Hover and Touch Interface
US9383426B2 (en) 2013-09-17 2016-07-05 Farrokh Mohamadi Real-time, two dimensional (2-D) tracking of first responders with identification inside premises
EP3047357B1 (en) 2013-09-17 2019-12-11 Nokia Technologies Oy Determination of a display angle of a display
US20150085060A1 (en) 2013-09-20 2015-03-26 Microsoft Corporation User experience for conferencing with a touch screen display
KR102065417B1 (ko) 2013-09-23 2020-02-11 엘지전자 주식회사 웨어러블 이동단말기 및 그 제어방법
KR102271637B1 (ko) 2013-09-27 2021-07-02 센셀, 인크. 저항성 터치 센서 시스템 및 방법
US9001082B1 (en) 2013-09-27 2015-04-07 Sensel, Inc. Touch sensor detector system and method
US9224237B2 (en) 2013-09-27 2015-12-29 Amazon Technologies, Inc. Simulating three-dimensional views using planes of content
US20150095987A1 (en) 2013-10-01 2015-04-02 Certify Global LLC Systems and methods of verifying an authentication using dynamic scoring
US10152761B2 (en) 2013-10-04 2018-12-11 Iqvia Inc. Facilitating transactions for health applications designed for mobile devices
US9588591B2 (en) 2013-10-10 2017-03-07 Google Technology Holdings, LLC Primary device that interfaces with a secondary device based on gesture commands
CN105980965A (zh) 2013-10-10 2016-09-28 视力移动科技公司 用于非接触式打字的***、设备和方法
JP5929870B2 (ja) 2013-10-17 2016-06-08 株式会社デンソー 物標検出装置
US9396642B2 (en) 2013-10-23 2016-07-19 Quanttus, Inc. Control using connected biometric devices
US10228801B2 (en) 2013-10-24 2019-03-12 University Of Maryland, Baltimore County System and method for proximity-based position, movement and gesture detection using capacitive sensor arrays
EP3068301A4 (en) 2013-11-12 2017-07-12 Highland Instruments, Inc. Analysis suite
EP3073905B1 (en) 2013-11-27 2017-04-12 Koninklijke Philips N.V. Device and method for obtaining pulse transit time and/or pulse wave velocity information of a subject
US20180160943A1 (en) 2013-12-10 2018-06-14 4Iiii Innovations Inc. Signature based monitoring systems and methods
US20150177866A1 (en) 2013-12-23 2015-06-25 Microsoft Corporation Multiple Hover Point Gestures
US9322908B2 (en) 2013-12-23 2016-04-26 Elwha Llc Systems and methods for concealed radar imaging
US9547070B2 (en) 2013-12-26 2017-01-17 International Business Machines Corporation Radar integration with handheld electronic devices
US20160192039A1 (en) 2013-12-28 2016-06-30 Intel Corporation System and method for device action and configuration based on user context detection from sensors in peripheral devices
US20150205358A1 (en) 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
MX2016009335A (es) 2014-01-21 2017-02-02 California Inst Of Techn Sistemas de sensores hemodinamicos, electronicos, portatiles.
US20150226004A1 (en) 2014-02-10 2015-08-13 Michael C. Thompson Technique to verify underground targets utilizing virtual reality imaging and controlled excavation
FR3017722A1 (fr) 2014-02-17 2015-08-21 Tounwendsida Ulysse Philippe Semde Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal
KR102302439B1 (ko) 2014-02-21 2021-09-15 삼성전자주식회사 전자 장치
US10429888B2 (en) 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
US9594443B2 (en) 2014-02-26 2017-03-14 Lenovo (Singapore) Pte. Ltd. Wearable device authentication and operation
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150257653A1 (en) 2014-03-14 2015-09-17 Elwha Llc Device, system, and method for determining blood pressure in a mammalian subject
EP2923642B1 (en) 2014-03-25 2017-03-15 Ulrich Scholten Application agnostic sensor, control computer and methods for operating
US9921657B2 (en) 2014-03-28 2018-03-20 Intel Corporation Radar-based gesture recognition
KR20160148530A (ko) 2014-04-16 2016-12-26 데이진 가부시키가이샤 섬유를 사용한 전기 신호를 출력 또는 입력으로 하는 트랜스듀서
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
CN103926584B (zh) * 2014-04-30 2016-07-06 电子科技大学 一种空间-频率-极化组合协同探测方法
US9365213B2 (en) 2014-04-30 2016-06-14 Here Global B.V. Mode transition for an autonomous vehicle
US10528195B2 (en) 2014-04-30 2020-01-07 Lg Innotek Co., Ltd. Touch device, wearable device having the same and touch recognition method
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
CA2949088C (en) 2014-05-15 2023-01-24 Federal Express Corporation Wearable devices for courier processing and methods of use thereof
US9628702B2 (en) 2014-05-21 2017-04-18 Google Technology Holdings LLC Enhanced image capture
US10782657B2 (en) 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
US9635044B2 (en) 2014-06-02 2017-04-25 Bastille Networks, Inc. Electromagnetic persona generation based on radio frequency fingerprints
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9331422B2 (en) 2014-06-09 2016-05-03 Apple Inc. Electronic device with hidden connector
US9354709B1 (en) 2014-06-17 2016-05-31 Amazon Technologies, Inc. Tilt gesture detection
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US20170131395A1 (en) 2014-06-25 2017-05-11 University Of Washington Devices, systems, and methods for detecting gestures using multiple antennas and/or reflections of signals transmitted by the detecting device
US10099315B2 (en) 2014-06-27 2018-10-16 Jabil Inc. System, apparatus and method for hybrid function micro welding
KR20160004073A (ko) * 2014-07-02 2016-01-12 삼성전자주식회사 비휘발성 메모리 장치 및 그 구동 방법
JP6282188B2 (ja) 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
GB2528044B (en) 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs
US9552069B2 (en) 2014-07-11 2017-01-24 Microsoft Technology Licensing, Llc 3D gesture recognition
US10234952B2 (en) 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
US9378353B2 (en) 2014-08-07 2016-06-28 Verizon Patent And Licensing Inc. Methods and systems for determining a user identity by analysis of reflected radio frequency signals received by an antenna array
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
WO2016023027A1 (en) 2014-08-08 2016-02-11 Orn, Inc. Garment including integrated sensor components and feedback components
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US9870457B2 (en) 2014-08-15 2018-01-16 California Institute Of Technology HERMA—heartbeat microwave authentication
US20160054792A1 (en) 2014-08-22 2016-02-25 Google Inc. Radar-Based Biometric Recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US10931934B2 (en) 2014-09-02 2021-02-23 FLIR Belgium BVBA Watercraft thermal monitoring systems and methods
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
US11181637B2 (en) 2014-09-02 2021-11-23 FLIR Belgium BVBA Three dimensional target selection systems and methods
US11137490B2 (en) * 2014-09-16 2021-10-05 Teknologian Tutkimuskeskus Vtt Navigational aid with adaptive radar
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US20160085296A1 (en) 2014-09-23 2016-03-24 Intel Corporation Wearable input device
JP6206674B2 (ja) 2014-09-24 2017-10-04 富士フイルム株式会社 診療支援装置、診療支援装置の作動方法および作動プログラム、並びに診療支援システム
US9839123B2 (en) 2014-09-29 2017-12-05 Imec Vzw Smart textile product and method for fabricating the same
US10694960B2 (en) 2014-09-29 2020-06-30 Microsoft Technology Licensing, Llc Wearable pulse pressure wave sensing device
WO2016053624A1 (en) 2014-09-30 2016-04-07 Arimtax Technologies Llc Fabric sensing device
US9315197B1 (en) 2014-09-30 2016-04-19 Continental Automotive Systems, Inc. Hands accelerating control system
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
GB201417536D0 (en) 2014-10-03 2014-11-19 Microsoft Corp Adapting quantization
US20160106328A1 (en) 2014-10-16 2016-04-21 Xerox Corporation Determining arterial pulse transit time from time-series signals obtained at proximal and distal arterial sites
US10055064B2 (en) 2014-10-29 2018-08-21 Sony Corporation Controlling multiple devices with a wearable input device
US10945663B2 (en) 2014-11-04 2021-03-16 North Carolina State University Smart sensing systems and related methods
US9398422B2 (en) 2014-11-05 2016-07-19 Beco, Inc. Systems, methods and apparatus for light enabled indoor positioning and reporting
KR102202600B1 (ko) 2014-11-10 2021-01-13 한국전자통신연구원 레이더 신호 처리를 위한 빔 형성 장치 및 그 방법
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
US9733340B2 (en) 2014-11-21 2017-08-15 Texas Instruments Incorporated Techniques for high arrival angle resolution using multiple nano-radars
US20160090839A1 (en) 2014-11-26 2016-03-31 Larry G. Stolarczyk Method of protecting the health and well-being of coal mine machine operators
US9830073B2 (en) 2014-12-12 2017-11-28 Alpine Electronics, Inc. Gesture assistive zoomable selector for screen
US20160306034A1 (en) 2014-12-23 2016-10-20 Infineon Technologies Ag RF System with an RFIC and Antenna System
US10064582B2 (en) 2015-01-19 2018-09-04 Google Llc Noninvasive determination of cardiac health and other functional states and trends for human physiological systems
KR101560282B1 (ko) 2015-03-06 2015-10-14 주식회사 휴이노 생체 신호 측정 및 측정된 생체 신호에 기초한 실시간 혈압 추정 모니터링 기능을 구비한 모바일 단말기
US9552097B2 (en) 2015-01-28 2017-01-24 Qualcomm Incorporated Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric
US9753136B2 (en) 2015-02-11 2017-09-05 Motorola Mobility Llc Portable electronic device with proximity sensors for gesture control and contact detection
US10132920B2 (en) 2015-02-16 2018-11-20 Kenneth J Hintz Dispersive object detector and clutter reduction device
US9699663B1 (en) 2015-02-20 2017-07-04 Kathryn Jovancevic Spectrum sharing system
US10660382B2 (en) 2015-02-27 2020-05-26 Honeywell Safety Products Usa, Inc. Apparatus, systems and methods for optimizing and masking compression in a biosensing garment
US9817109B2 (en) 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
US10481696B2 (en) 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US20160283101A1 (en) 2015-03-26 2016-09-29 Google Inc. Gestures for Interactive Textiles
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
US20160284436A1 (en) 2015-03-26 2016-09-29 Google Inc. Conductive Thread for Interactive Textiles
JP6421935B2 (ja) 2015-03-31 2018-11-14 パナソニックIpマネジメント株式会社 車両移動推定装置および車両移動推定方法
US10709383B2 (en) 2015-04-02 2020-07-14 Microsoft Technology Licnesing, Llc Wrist-worn pulse transit time sensor
US9848780B1 (en) 2015-04-08 2017-12-26 Google Inc. Assessing cardiovascular function using an optical sensor
EP3286577B1 (en) 2015-04-20 2021-03-17 ResMed Sensor Technologies Limited Detection and identification of a human from characteristic signals
US20160321428A1 (en) 2015-04-29 2016-11-03 Google, Inc. Customizable Health Monitoring
WO2016176606A1 (en) 2015-04-30 2016-11-03 Google Inc. Type-agnostic rf signal representations
KR102328589B1 (ko) 2015-04-30 2021-11-17 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
WO2016176574A1 (en) 2015-04-30 2016-11-03 Google Inc. Wide-field radar-based gesture recognition
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US20160338599A1 (en) 2015-05-22 2016-11-24 Google, Inc. Synchronizing Cardiovascular Sensors for Cardiovascular Monitoring
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US20160349845A1 (en) 2015-05-28 2016-12-01 Google Inc. Gesture Detection Haptics and Virtual Tools
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
US9778353B2 (en) 2015-06-24 2017-10-03 Htc Corporation Handheld device, object positioning method and computer-readable recording medium
US20180296163A1 (en) 2015-07-27 2018-10-18 Google Inc. Altering Physiological Signals Based On Patient Movement
US9807619B2 (en) 2015-08-04 2017-10-31 Network Performance Research Group Llc Methods and apparatuses for use of simultaneous multiple channels in the dynamic frequency selection band in wireless networks
WO2017034090A1 (ko) 2015-08-26 2017-03-02 주식회사 퓨처플레이 스마트 인터렉션 장치
US10063427B1 (en) 2015-09-14 2018-08-28 Amazon Technologies, Inc. Visualizing and interacting with resources of an infrastructure provisioned in a network
TWI619047B (zh) 2015-09-15 2018-03-21 新益先創科技股份有限公司 具電容感應功能之穿戴式裝置與互動式機器寵物
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US20170097684A1 (en) 2015-10-06 2017-04-06 Google, Inc. Compressed Sensing for Gesture Tracking and Recognition with Radar
US9864918B2 (en) 2015-11-04 2018-01-09 Ford Global Technologies, Llc Predicting vehicle movements based on driver body language
WO2017079484A1 (en) 2015-11-04 2017-05-11 Google Inc. Connectors for connecting electronics embedded in garments to external devices
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
US20170329412A1 (en) 2016-05-16 2017-11-16 Google Inc. Systems and Methods of Gesture-Based Control
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
US20180005766A1 (en) 2016-07-01 2018-01-04 Wisconsin Alumni Research Foundation Conductive textiles and related devices
CN106154270A (zh) 2016-09-07 2016-11-23 深圳市保千里电子有限公司 雷达分时检测目标的方法
US20180113032A1 (en) 2016-10-11 2018-04-26 North Carolina State University Flexible stretchable capacitive sensor
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
JP7496203B2 (ja) 2019-11-28 2024-06-06 株式会社Lixil 便器装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11079289B2 (en) 2017-08-18 2021-08-03 Google Llc Radar-based force sensing

Also Published As

Publication number Publication date
US11385721B2 (en) 2022-07-12
KR102245190B1 (ko) 2021-04-26
KR20220011218A (ko) 2022-01-27
US20210326642A1 (en) 2021-10-21
JP7257447B2 (ja) 2023-04-13
US10503883B1 (en) 2019-12-10
US10222469B1 (en) 2019-03-05
US10823841B1 (en) 2020-11-03
CN107710012A (zh) 2018-02-16
US20220066567A1 (en) 2022-03-03
US20200278422A1 (en) 2020-09-03
US20230273298A1 (en) 2023-08-31
KR20180030123A (ko) 2018-03-21
US10768712B2 (en) 2020-09-08
US10379621B2 (en) 2019-08-13
US11592909B2 (en) 2023-02-28
JP2018527558A (ja) 2018-09-20
US11693092B2 (en) 2023-07-04
US11698438B2 (en) 2023-07-11
CN113655471A (zh) 2021-11-16
CN107710012B (zh) 2021-08-27
US20190257939A1 (en) 2019-08-22
US20190321719A1 (en) 2019-10-24
US11698439B2 (en) 2023-07-11
US20200393912A1 (en) 2020-12-17
US11175743B2 (en) 2021-11-16
US20220043519A1 (en) 2022-02-10
US20220019291A1 (en) 2022-01-20
US20190011989A1 (en) 2019-01-10
KR102352236B1 (ko) 2022-01-14
KR102377488B1 (ko) 2022-03-21
US20170097413A1 (en) 2017-04-06
US10459080B1 (en) 2019-10-29
JP2021131396A (ja) 2021-09-09
CN113655471B (zh) 2024-03-29
US10908696B2 (en) 2021-02-02
WO2017062566A1 (en) 2017-04-13
US10540001B1 (en) 2020-01-21
US11132065B2 (en) 2021-09-28
US20210096653A1 (en) 2021-04-01
EP3359976A1 (en) 2018-08-15
JP2020101560A (ja) 2020-07-02
US10817065B1 (en) 2020-10-27
US20220066568A1 (en) 2022-03-03
US11080556B1 (en) 2021-08-03
US11256335B2 (en) 2022-02-22
KR20210047964A (ko) 2021-04-30
US11481040B2 (en) 2022-10-25
US10310621B1 (en) 2019-06-04
US10300370B1 (en) 2019-05-28
JP6889293B2 (ja) 2021-06-18
US10401490B2 (en) 2019-09-03
US20200089314A1 (en) 2020-03-19
US20210365124A1 (en) 2021-11-25
US20190232156A1 (en) 2019-08-01
US10705185B1 (en) 2020-07-07
US11656336B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP7257447B2 (ja) レーダ対応センサフュージョン
US11561519B2 (en) Systems and methods of gestural interaction in a pervasive computing environment
US11914792B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
Braun et al. Capacitive proximity sensing in smart environments
US20180232571A1 (en) Intelligent assistant device communicating non-verbal cues
CN110301118A (zh) 用于智能助理计算设备的位置校准
Kaholokula Reusing ambient light to recognize hand gestures
CN111919250B (zh) 传达非语言提示的智能助理设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200416

R150 Certificate of patent or registration of utility model

Ref document number: 6694053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250