JP2017522962A - ユーザデータ処理方法、およびデバイス - Google Patents

ユーザデータ処理方法、およびデバイス Download PDF

Info

Publication number
JP2017522962A
JP2017522962A JP2016575952A JP2016575952A JP2017522962A JP 2017522962 A JP2017522962 A JP 2017522962A JP 2016575952 A JP2016575952 A JP 2016575952A JP 2016575952 A JP2016575952 A JP 2016575952A JP 2017522962 A JP2017522962 A JP 2017522962A
Authority
JP
Japan
Prior art keywords
data
user
user behavior
smart
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016575952A
Other languages
English (en)
Other versions
JP6380961B2 (ja
Inventor
元莉 甘
元莉 甘
▲紅▼▲軍▼ 王
▲紅▼▲軍▼ 王
振威 ▲単▼
振威 ▲単▼
冰 ▲劉▼
冰 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2017522962A publication Critical patent/JP2017522962A/ja
Application granted granted Critical
Publication of JP6380961B2 publication Critical patent/JP6380961B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本発明の実施形態は、ユーザデータ処理方法、およびデバイスを提供している。方法は、第1のデバイスによって、第1のデータおよび少なくとも一部の第2のデータを獲得するステップであって、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、獲得するステップと、第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、第1のデバイスによって、ユーザ行動に対応するユーザデータを決定して、ユーザ行動および/またはユーザデータを提示するステップとを含んでおり、その結果、ユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。

Description

本発明の実施形態は、通信技術の分野に関し、詳細には、ユーザデータ処理方法、およびデバイスに関する。
今日では、ウェアラブルスマートデバイスが人気を獲得しており、ますますより多くのタイプのこれらのデバイスが存在している。例えば、スマートウォッチ、スマートグラス、およびスマートバンドが存在している。前述のデバイスは、持ち運びに便利なだけでなく、豊富なユーティリティ機能を人々に提供している。そのようなデバイスの出現は、現代の人々のライフスタイル、運動スタイル、およびリラクゼーションスタイルを大きく変化させている。
現在では、歩数、睡眠、心拍数、および血圧などのデータを、非ウェアラブルスマートデバイス(例えば、スマートフォンまたはタブレットコンピュータなどのモバイル端末)のセンサを使用して検出し、非ウェアラブルスマートデバイスに表示している。あるいは、歩数、睡眠、心拍数、および血圧などのデータを、ウェアラブルスマートデバイス(例えば、スマートバンド、スマートウォッチ、またはスマートリング)のセンサを使用して検出し、非ウェアラブルスマートデバイスに同期して表示している。
デバイス間の相互接続および相互通信を用いて、データを、伝送および共有し、特定のルールに則ってユーザに表示する場合には、より詳細な要件が存在する。現在では、ユーザがウェアラブルスマートデバイスと非ウェアラブルスマートデバイスとの両方を持ち運び得る場合に、どのようにしてユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようにするかという問題、ならびに、どのようにしてこれらのデータをより科学的に記録および表示するかという問題を解決するための適した方法が存在していない。
本発明の実施形態は、ユーザデータ処理方法、および方法を提示しており、その結果、ユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。
第1の態様に従って、本発明の実施形態は、ユーザデータ処理方法を提供しており、方法は、
第1のデバイスによって、第1のデータおよび少なくとも一部の第2のデータを獲得するステップであって、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、獲得するステップと、
第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、第1のデバイスによって、ユーザ行動に対応するユーザデータを決定して、ユーザ行動および/またはユーザデータを提示するステップとを含む。
第1の態様の第1の可能な実施様態においては、事前に設定されたルールは、
ユーザ行動の発生から停止までの検出時間内において、事前に設定された時間長に従って検出時間を複数の時間セグメントに分割して、各時間セグメントについて、選択ルールに従って、各時間セグメントに対応するユーザデータとして第1のデータおよび少なくとも一部の第2のデータから1つを選択することと、
時間セグメントにそれぞれ対応するユーザデータを集計して、集計をユーザ行動のユーザデータとして使用することとを含む。
第1の態様の第1の可能な実施様態に準拠している、第2の可能な実施様態においては、方法は、
ユーザ行動および/またはユーザデータを提示するステップは、座標形式でユーザ行動および/またはユーザデータを表示するステップであって、座標が時間軸を含む、表示するステップを含み、座標形式でユーザ行動および/またはユーザデータを表示するステップは、第1のデータおよび少なくとも一部の第2のデータに従って、ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出した場合には、領域の中心点を計算するステップと、第1のデバイスの表示画面上の時間軸上の検出時間セグメントに対応する点に、中心点において発生しているユーザ行動を表示するステップとを特に含む、ことをさらに含む。
第1の態様の第3の可能な実施様態においては、方法は、
第1のデバイスによって、第1のデータおよび少なくとも一部の第2のデータに従って決定することによってユーザ行動の状態を取得するステップをさらに含み、
それに対応するように、事前に設定されたルールは、ユーザ行動の状態に従って、高優先度を有する第1のデータまたは高優先度を有する第2のデータをユーザ行動に対応するユーザデータとして選択することを含む。
第2の態様に従って、本発明の実施形態は、第1のデバイスを提供しており、第1のデバイスは、
第1のデータおよび少なくとも一部の第2のデータを獲得するように構成される、獲得モジュールであって、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、獲得モジュールと、
第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、第1のデバイスによって、ユーザ行動に対応するユーザデータを決定するように構成される、処理モジュールと、
ユーザ行動および/またはユーザデータを提示するように構成される、提示モジュールとを備える。
第2の態様の第1の可能な実施様態においては、事前に設定されたルールは、
ユーザ行動の発生から停止までの検出時間内において、事前に設定された時間長に従って検出時間を複数の時間セグメントに分割して、各時間セグメントについて、選択ルールに従って、各時間セグメントに対応するユーザデータとして第1のデータおよび少なくとも一部の第2のデータから1つを選択することと、
時間セグメントにそれぞれ対応するユーザデータを集計して、集計をユーザ行動のユーザデータとして使用することとを含む。
第2の態様の第1の可能な実施様態に準拠している、第2の可能な実施様態においては、事前に設定されたルールは、第1のデータおよび少なくとも一部の第2のデータに従って、ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出した場合には、領域の中心点を計算することをさらに含み、
それに対応するように、提示モジュールは、第1のデバイスの表示画面上の時間軸上の検出時間セグメントに対応する点に、中心点において発生しているユーザ行動を表示するようにさらに構成される。
第2の態様の第3の可能な実施様態においては、デバイスは、
第1のデバイスによって、第1のデータおよび少なくとも一部の第2のデータに従って決定することによってユーザ行動の状態を取得するように構成される、決定モジュールをさらに備え、
それに対応するように、事前に設定されたルールは、ユーザ行動の状態に従って、高優先度を有する第1のデータまたは高優先度を有する第2のデータをユーザ行動に対応するユーザデータとして選択することを含む。
本発明の実施形態において提供したユーザデータ処理方法、およびデバイスにおいては、第1のデバイスは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得された第1のデータと、ユーザ行動を検出することによって第2のデバイスによって獲得された少なくとも一部の第2のデータとを獲得し、その後、事前に設定されたルールに則って、ユーザ行動に対応するユーザデータを決定し、ユーザ行動および/またはユーザデータを第1のデバイスに提示しており、その結果、ユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。
本発明の実施形態におけるまたは従来技術における技術的解決手法をより明確に説明するために、実施形態または従来技術を説明するのに必要な添付の図面を以下に簡単に説明する。添付の図面の以下の説明においては、本発明の実施形態の一部を示していることは明らかであり、当業者は、創造的努力なしにこれらの添付の図面から他の図面をさらに導出し得る。
本発明による、ユーザデータ処理方法の実施形態1のフローチャートである。 本発明による、ユーザデータ処理方法の実施形態2のフローチャートである。 本発明による、ユーザデータ処理方法の実施形態3のフローチャートである。 本発明による、第1のデバイスの実施形態1の概略構造図である。 本発明による、第1のデバイスの実施形態2の概略構造図である。
本発明の実施形態の目的、技術的解決手法、および利点をより明確にするために、本発明の実施形態における添付の図面を参照して、本発明の実施形態における技術的解決手法を以下に明確かつ完全に説明する。説明した実施形態が本発明の実施形態のすべてではなく一部であることは明らかであろう。創造的努力なしに本発明の実施形態に基づいて当業者によって得られる他の実施形態のすべては、本発明の保護範囲に含まれるものとする。
図1は、本発明による、ユーザデータ処理方法の実施形態1のフローチャートである。図1に示したように、本実施形態の方法は、以下のステップを含み得る。
ステップ101: 第1のデバイスが、第1のデータおよび少なくとも一部の第2のデータを獲得する、ここで、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである。
第1のデバイスは、非ウェアラブルスマートデバイスまたはウェアラブルスマートデバイスであり得るし、第2のデバイスは、ウェアラブルスマートデバイスである。例えば、非ウェアラブルスマートデバイスは、スマートフォン、タブレットコンピュータなどであり得るし、ウェアラブルスマートデバイスは、スマートメガネ、スマートウォッチ、スマートリングなどであり得る。
第1のデバイスは、第1のデータおよび少なくとも一部の第2のデータを獲得しており、このことは、第1のデバイスが、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータと、ユーザ行動を検出することによって第2のデバイスによって獲得されたデータとを獲得する、すなわち、第1のデータは、第1のデバイスそのものによって獲得されたデータであり、第2のデータは、第2のデバイスそのものによって獲得されたデータであるものとして特に理解してもよい。
ステップ102: 第1のデバイスが、第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、ユーザ行動に対応するユーザデータを決定し、ユーザ行動および/またはユーザデータを提示する。
第1のデバイスは、獲得した第1のデータおよび獲得した第2のデータに従って、事前に設定されたルールに則って、ユーザ行動に対応するユーザデータを決定し、ユーザ行動および/またはユーザデータを第1のデバイスに提示する、ここで、ユーザデータは、事前に設定されたルールに従って獲得した第1のデータおよび獲得した第2のデータから決定されたデータである。加えて、提示は、視覚に限定されず、聴覚、触覚、味覚なども含み得る。
本実施形態においては、第1のデバイスは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得された第1のデータと、ユーザ行動を検出することによって第2のデバイスによって獲得された少なくとも一部の第2のデータとを獲得し、その後、事前に設定されたルールに則って、ユーザ行動に対応するユーザデータを決定し、ユーザ行動および/またはユーザデータを第1のデバイスに提示しており、その結果、ユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。
前述の実施形態における事前に設定されたルールは、事前に設定された時間長に従って、ユーザ行動の発生から停止までの検出時間内において、検出時間を少なくとも1つの時間セグメントに分割することと、各時間セグメントについて、選択ルールに従って、時間セグメントに対応するユーザデータとして第1のデータおよび少なくとも一部の第2のデータから1つを選択することとを含み得る。図2の実施形態を参照して詳細な説明を以下にする。
図2は、本発明による、ユーザデータ処理方法の実施形態2のフローチャートである。図2に示したように、本実施形態の方法は、以下のステップを含み得る。
ステップ201: 第1のデバイスが、第1のデータおよび少なくとも一部の第2のデータを獲得する、ここで、第1のデータは、ユーザ走行行動を検出することによって第1のデバイスそのものによって獲得された歩数データであり、第2のデータは、ユーザ走行行動を検出することによって少なくとも1つの第2のデバイスによって獲得された歩数データである。
本実施形態においては、第1のデバイスは、例えば、スマートフォンであり、第2のデバイスは、例えば、スマートバンドおよび一足のスマートシューズである。ユーザ行動としてランニングを使用している例を使用して本実施形態を説明する。第1のデータは、ユーザ走行行動を検出することによってスマートフォンそのものによって獲得された歩数データであり、第2のデータは、ユーザ走行行動を検出することによってスマートバンドおよび/または一足のスマートシューズによって獲得された歩数データである。
ステップ202: 第1のデバイスが、第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、ユーザ走行行動に対応する歩数データを決定し、ユーザデータを提示する。
特に、ユーザ走行行動の発生から停止までの検出時間内において、スマートフォンが歩数データを有しており、かつ、スマートバンドまたは一足のスマートシューズが歩数データを有していない場合には、スマートフォンによって獲得された歩数データが選択される。スマートフォンが歩数データを有しておらず、スマートバンドが歩数データを有しており、一足のスマートシューズが歩数データを有していない場合には、スマートバンドによって獲得された歩数データが選択される。スマートフォンが歩数データを有しておらず、スマートバンドも歩数データを有しておらず、一足のスマートシューズが歩数データを有している場合には、一足のスマートシューズによって獲得された歩数データが選択される、すなわち、獲得した歩数データがユーザデータとして選択される。
ユーザ走行行動の発生から停止までの検出時間内に、スマートフォン、スマートバンド、および一足のスマートシューズのうちの少なくとも2つが歩数データを有しているとする。この場合には、データ記録点を細分する、ここで、本実施形態においては、5分毎に1つの点とする。例えば、1時間が12セグメントの時間に分割される。各時間セグメント内に、相対的に運動量の多い歩数データが歩数データとして選択される。例えば、第1の5分の時間セグメント内に、スマートフォンによって獲得された歩数が150であり、スマートバンドによって獲得された歩数が158であり、一足のスマートシューズによって獲得された歩数が160である場合には、一足のスマートシューズによって獲得された160という歩数のデータが、第1の5分の時間セグメント内の歩数データとして選択される。他の時間セグメント内の歩数データを同様に導き出してもよい。当然のことながら、5分という時間は、絶対的なものではなく相対的なものであり、具体的な時間は、スマートデバイスの性能によって決定されてもよく、本明細書ではこれに限定されない。
その後、時間セグメントにそれぞれ対応する歩数データを集計してユーザ走行行動の発生から停止までの検出時間内の最終ユーザデータを取得し、最終ユーザデータをスマートフォンに提示する。
本実施形態においては、スマートフォンは、ユーザ走行行動を検出することによってスマートフォンそのものによって獲得された歩数データと、ユーザ走行行動を検出することによってスマートバンドおよび一足のスマートシューズによって獲得された歩数データとを獲得し、その後、データ記録点を細分して、各時間セグメント内において、相対的に運動量の多いデータをユーザデータとして選択する。最後に、時間セグメントにそれぞれ対応するユーザデータ集計してユーザ走行行動の発生から停止までの検出時間内の最終ユーザデータを取得し、最終ユーザデータをスマートフォンに提示しており、その結果、ユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。
前述の実施形態に基づいて、本方法の実施形態においては、ある時間内におけるユーザの位置も端末デバイスによって取得したユーザデータに従って対応する時間軸上に表示されてもよい。本実施形態においては、第1のデータは、第1のデバイス(スマートフォンなど)によって取得した経度および緯度であり得るし、第2のデータは、第2のデバイス(スマートウォッチなど)によって取得した経度および緯度であり得る。本実施形態を、経度および緯度の点を30秒毎に記録している例を使用して説明しているが、具体的な時間間隔は、実際の状況に従って設定されてもよく、本明細書ではこれに限定されない。
スマートフォンが経度および緯度データを獲得しており、スマートウォッチが経度および緯度データを獲得していない場合には、経度およびスマートフォンによって獲得された緯度データを使用する、または、スマートフォンが経度および緯度データを獲得しておらず、スマートウォッチが経度および緯度データを獲得している場合には、スマートウォッチによって獲得された経度および緯度データを使用する。
スマートフォンおよびスマートウォッチの両方が経度および緯度データを、時間セグメントが重なる点において、獲得している場合には、スマートフォンの経度および緯度データはGPSによるものまたは基地局もしくはWIFIによるものである可能性がある一方で、スマートウォッチの経度および緯度データはGPSによるものであり、基地局またはWIFIによって提供される経度および緯度データは精密ではなくズレがあるため、スマートウォッチによって獲得された経度および緯度データが使用される。
ユーザ行動および/またはユーザデータを提示することは、座標形式でユーザ行動および/またはユーザデータを表示することであって、座標が時間軸を含む、表示することを含み、座標形式でユーザ行動および/またはユーザデータを表示することは、第1のデータおよび少なくとも一部の第2のデータに従って、ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出した場合には、領域の中心点を計算することと、第1のデバイスの表示画面上の時間軸上の検出時間セグメントに対応する点に、中心点において発生しているユーザ行動を表示することとを特に含む。
スマートフォンは、獲得した経度および緯度データに従ってユーザの移動追跡を描画し、時間セグメント内におけるユーザの活動の範囲を集約することにより取得する。ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出すると、スマートフォンは、領域の中心点を計算し、スマートフォンの表示画面上の時間軸上に、検出時間セグメント内の中心点において発生したユーザ行動を表示する。
本実施形態においては、スマートフォンなどの非ウェアラブルスマートデバイスは、ユーザ行動を検出することによって非ウェアラブルスマートデバイスそのものによって獲得された経度および緯度データと、ユーザ行動を検出することによってスマートウォッチなどのウェアラブルスマートデバイスによって獲得された経度および緯度データとを獲得し、その後、ユーザの移動追跡を取得するために、獲得した経度および緯度の点に従って描画して、時間セグメント内のユーザの活動の範囲を集約することにより取得する。ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることが検出されると、ユーザ行動の移動追跡が存在する同一の領域の中心点を計算し、検出時間セグメント内の中心点において発生しているユーザ行動をスマートフォンの表示画面上の時間軸上に表示する、その結果、ユーザが、さまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。
実施形態1において説明した事前に設定されたルールは、ユーザ行動の状態に従って、高優先度を有する第1のデータまたは高優先度を有する第2のデータをユーザ行動に対応するユーザデータとして選択することをさらに含み得る。図3の実施形態を参照して詳細な説明を以下にする。
図3は、本発明による、ユーザデータ処理方法の実施形態3のフローチャートである。図3に示したように、本実施形態の方法は、以下のステップを含み得る。
ステップ301: 第1のデバイスが、第1のデータおよび少なくとも一部の第2のデータを獲得する、ここで、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである。
本実施形態においては、第1のデバイスが、スマートフォン、スマートメガネ、およびスマートウォッチであり、第2のデバイスが、スマートメガネ、スマートウォッチ、一足のスマートシューズ、スマートバンド、およびスマートリングである例を使用して説明している。
第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータである、すなわち、ユーザ行動を検出することによってスマートフォン、スマートメガネ、およびスマートウォッチによって獲得されたデータ、例えば、歩数、心拍数、および血圧などのデータである。第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、すなわち、ユーザ行動を検出することによって一足のスマートシューズ、スマートバンド、およびスマートリングによって獲得されたデータ、例えば、歩数、心拍数、および血圧などのデータである。
まず、一足のスマートシューズ、スマートバンド、およびスマートリングは、ブロードキャストADV_INDパケットを周期的に送信し、ADV_INDパケットを受信した後に、スマートフォン、スマートメガネ、およびスマートウォッチは、SCAN_REQパケットをブロードキャストして近隣のBluetooth(登録商標)デバイスをスキャンし、SCAN_REQパケットを受信した後に、一足のスマートシューズ、スマートバンド、およびスマートリングは、デバイスの識別番号(IDentity、略して、ID)などの情報およびデバイスのBluetooth(登録商標)アドレスを搬送するSCAN_RSPパケットを用いて応答し、SCAN_RSPパケットを受信した後に、スマートフォン、スマートメガネ、およびスマートウォッチは、デバイスのBluetooth(登録商標)アドレスに従って、対応するデバイスとの接続を確立し、一足のスマートシューズ、スマートバンド、およびスマートリングなどのデバイスの性能、例えば、デバイスによってサポートされているサービスに関する情報を獲得する。
その後、スマートフォンなどのスマートデバイス、スマートメガネ、およびスマートウォッチは、ユーザ行動を検出することによってスマートデバイスそのものによって獲得されたデータと、ユーザ行動を検出することによって一足のスマートシューズ、スマートバンド、およびスマートリングなどのスマートデバイスによって獲得されたデータとを獲得する。
ステップ302: 第1のデバイスが、第1のデータおよび少なくとも一部の第2のデータに従って決定することによってユーザ行動の状態を取得する。
スマートフォン、スマートメガネ、およびスマートウォッチのモーションセンサ(加速度センサ、重力センサ、およびジャイロスコープなど)は、ユーザの状態を識別するために使用される、または、ユーザ行動の状態は、デバイスそのものによって獲得されたデータまたは一足のスマートシューズ、スマートバンド、およびスマートリングから獲得されたデータを収集および統合することによって、スマートフォン、スマートメガネ、およびスマートウォッチなどのデバイスによって特定される、ここで、ユーザ行動の状態は、例えば、動作状態、静止状態、または睡眠状態である。
ステップ303: 第1のデバイスが、ユーザ行動の状態に従って、高優先度を有する第1のデータまたは高優先度を有する第2のデータをユーザ行動に対応するユーザデータとして選択し、ユーザデータを提示する。
特に、ユーザデータ優先度ポリシーが、プロセッサを有する第1のデバイス(本実施形態は、一例として、スマートフォン、スマートメガネ、およびスマートウォッチのみを使用して説明をしている)に設定されており、スマートフォン、スマートメガネ、およびスマートウォッチデバイスのすべてをユーザが身につけている場合には、スマートフォンに設定されたユーザデータ優先度ポリシーは第1位にランク付けされ、スマートメガネに設定されたユーザデータ優先度ポリシーは第2位にランク付けされ、スマートウォッチに設定されたユーザデータ優先度ポリシーは第3位にランク付けされる。本実施形態においては、一例として、歩数データ、心拍数データ、血圧データ、および睡眠品質データのみを使用して説明している。
優先度ポリシーの詳細な内容は以下の通りである。
ユーザが移動状態にあり歩数データを獲得する必要がある場合には、一足のスマートシューズまたはスマートフットバンドによって獲得された歩数データが優先的に選択され、一足のスマートシューズまたはスマートフットバンドのセンサのデータを取得できない場合には、スマートバンドまたはスマートウォッチによって獲得された歩数データが選択され、その次に、スマートリングまたはスマートメガネによって獲得された歩数データが選択される、すなわち、優先順位は、一足のスマートシューズまたはスマートフットバンド>スマートバンドまたはスマートウォッチ>スマートリングまたはスマートメガネとなり、
心拍数または血圧データを獲得する必要がある場合には、スマートバンドまたはスマートウォッチから獲得された心拍数または血圧データが優先的に選択され、スマートバンドまたはスマートウォッチのセンサのデータを取得できない場合には、スマートリングによって獲得された心拍数または血圧データが選択され、その次に、スマートフットバンドまたは一足のスマートシューズによって獲得された心拍数または血圧データが選択される、すなわち、優先順位は、スマートバンドまたはスマートウォッチ>スマートリング>スマートフットバンドまたは一足のスマートシューズとなる。
ユーザが睡眠状態にあり睡眠品質データ(睡眠品質は、夢、脈、および身体動作記録などのデータを使用してしばしば実施される)を獲得する必要がある場合には、スマートバンドまたはスマートウォッチから獲得された睡眠品質データが優先的に選択される。スマートバンドまたはスマートウォッチのセンサのデータを取得できない場合には、スマートリングによって獲得された睡眠品質データが選択され、その次に、スマートフットバンドによって獲得された心拍数または血圧データが選択される、すなわち、優先順位は、スマートバンドまたはスマートウォッチ>スマートリング>スマートフットバンドとなる。
優先度ポリシーは、ユーザの行動習性に従って設定される、例えば、大抵の場合、ユーザは、デフォルトでは、一足のスマートシューズまたはスマートフットバンドから歩数データを優先的に獲得し、次に、スマートバンドまたはスマートウォッチから歩数データから獲得し、次に、スマートリングまたはスマートメガネから歩数データを獲得する。しかしながら、ユーザが個人設定をしている場合には、例えば、ユーザは、スマートリングまたはスマートメガネから歩数データをまず獲得し、次に、一足のスマートシューズまたはスマートフットバンドから歩数データを獲得し、次に、スマートバンドまたはスマートウォッチから歩数データを獲得する。優先度ポリシーは、ユーザの個人的な要件に従って設定される、すなわち、現在の優先順位は、スマートリングまたはスマートメガネ>一足のスマートシューズまたはスマートフットバンド>スマートバンドまたはスマートウォッチとなる。
その後、前述の優先度ポリシーを使用して選択された対応するユーザデータを、スマートフォン、スマートメガネ、スマートウォッチ、一足のスマートシューズ、スマートバンド、およびスマートリングに提示する、ここで、提示方式は、視覚、聴覚、触覚、および味覚などの複数の方式であってもよい。例えば、対応するユーザデータは、スマートフォン、スマートメガネ、およびスマートウォッチに表示されるし、対応するユーザデータは、音声方式でスマートフォンによって再生されるし、対応するユーザデータは、振動方式で一足のスマートシューズ、スマートバンド、およびスマートリングによってユーザに促される。
本実施形態においては、スマートフォンなどのスマートデバイス、スマートメガネ、およびスマートウォッチは、ユーザ行動を検出することによってスマートデバイスそのものによって獲得されたデータと、ユーザ行動を検出することによって一足のスマートシューズ、スマートバンド、およびスマートリングなどのスマートデバイスによって獲得されたデータとを獲得する。その後、ユーザ行動の状態を獲得したデータに従って識別する。続いて、ユーザデータ優先度ポリシーは、スマートフォン、スマートメガネ、およびスマートウォッチなどの、プロセッサを有するデバイスに設定されており、優先度ポリシーを使用して選択された対応するユーザデータを、スマートフォン、スマートメガネ、スマートウォッチ、一足のスマートシューズ、スマートバンド、およびスマートリングに提示しており、その結果、ユーザがさまざまな状況における第1の時間内の最も正確かつ最も必要としているデータを閲覧できるようになり、それによって、ユーザエクスペリエンスを改善している。
図4は、本発明による、第1のデバイスの実施形態1の概略構造図である。図4に示したように、本実施形態の第1のデバイス01は、獲得モジュール11、処理モジュール12、および提示モジュール13を備え得る、ここで、獲得モジュール11は、第1のデータおよび少なくとも一部の第2のデータを獲得するように構成され、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータであり、処理モジュール12は、第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、第1のデバイスによって、ユーザ行動に対応するユーザデータを決定するように構成され、提示モジュール13は、ユーザ行動および/またはユーザデータを提示するように構成される。
前述の実施形態に基づいて、特に、事前に設定されたルールは、ユーザ行動の発生から停止までの検出時間内において、事前に設定された時間長に従って検出時間を複数の時間セグメントに分割して、各時間セグメントについて、選択ルールに従って、時間セグメントに対応するユーザデータとして第1のデータおよび少なくとも一部の第2のデータから1つを選択することと、時間セグメントにそれぞれ対応するユーザデータを集計して、集計をユーザ行動のユーザデータとして使用することとを含み得る。
さらに、事前に設定されたルールは、第1のデータおよび少なくとも一部の第2のデータに従って、ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出した場合には、領域の中心点を計算することを含み得るし、
それに対応するように、提示モジュール13は、第1のデバイスの表示画面上の時間軸上の検出時間セグメントに対応する点に、中心点において発生しているユーザ行動を表示するようにさらに構成される。
本実施形態における第1のデバイスは、前述の方法の実施形態の技術的解決手法を実行するように構成され得る。第1のデバイスの実施形態の原理および技術的効果は方法のそれらと類似しているため、さらなる詳細を再びここで説明することはしない。
図5は、本発明による、第1のデバイスの実施形態2の概略構造図である。図4に示したように、図4に示したデバイスの構造に基づいて、本実施形態の第1のデバイス01は、決定モジュール14をさらに備え得る、ここで、決定モジュール14は、第1のデバイスによって、第1のデータおよび少なくとも一部の第2のデータに従って決定することによってユーザ行動の状態を取得するように構成される。
それに対応するように、事前に設定されたルールは、ユーザ行動の状態に従って、高優先度を有する第1のデータまたは高優先度を有する第2のデータをユーザ行動に対応するユーザデータとして選択することを含み得る。
本実施形態における第1のデバイスは、前述の方法の実施形態の技術的解決手法を実行するように構成され得る。第1のデバイスの実施形態の原理および技術的効果は方法のそれらと類似しているため、さらなる詳細を再びここで説明することはしない。
本発明において提供したいくつかの実施形態においては、開示したデバイスおよび方法が他の方式で実施され得ることを理解されたい。例えば、説明したデバイス実施形態は例示的なものにすぎない。例えば、ユニット分割は、論理機能分割にすぎず、実際の実施形態においては他の分割であってもよい。例えば、複数のユニットまたはコンポーネントを組み合わせても別のシステムと統合してもよいし、またはいくつかの特徴を無視しても行わなくてもよい。加えて、図示または記載した相互接続または直接接続または通信接続は、いくつかのインターフェースを介して実装され得る。デバイスまたはユニット間の間接接続または通信接続は、電子的、機械的、またはその他の形式で実装され得る。
別個の部分として説明したユニットは、物理的に別個のものであってもなくてもよいし、ユニットとして表示した部分は、物理ユニットであってもなくてもよいし、一ヶ所に配置されていてもよいし、または複数のネットワークユニットに分散されていてもよい。実施形態の解決手法の目的を達成するために、一部またはすべてのユニットを実際の必要性に応じて選択してもよい。
加えて、本発明の実施形態における機能ユニットは1つの処理ユニットに統合されてもよいし、または、ユニットの各々は物理的に単独で存在してもよいし、または、2つ以上のユニットが1つのユニットに統合される。統合ユニットは、ハードウェアの形式で実装されてもよいし、またはソフトウェア機能ユニットを加えたハードウェアの形式で実装されてもよい。
前述の統合ユニットがソフトウェア機能ユニットの形式で実装される場合には、統合ユニットは、コンピュータ可読記憶媒体に記憶され得る。ソフトウェア機能ユニットは、記憶媒体に記憶され、コンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスであり得る)またはプロセッサに本発明の実施形態において説明した方法のステップの一部を行うように命令するためのいくつかの命令を含む。前述の記憶媒体は、USBフラッシュドライブ、リムーバブルハードディスク、リードオンリーメモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク、または光ディスクなどの、プログラムコードを記憶することができる任意の媒体を含む。
簡便かつ簡潔な説明を目的として、前述の機能モジュールの分割を一例として図のように行っていることは、当業者によって明確に理解されよう。実際の適用においては、前述の機能を、異なる機能モジュールに割り振り、要件に従って実装することが可能である、すなわち、装置の内部構造は、異なる機能モジュールに分割して、上述した機能のすべてまたは一部を実装される。前述のデバイスの詳細な動作プロセスについては、前述の方法の実施形態における対応するプロセスを参照すればよいので、その詳細を本明細書では再び説明しない。
最後に、前述の実施形態は、本発明の技術的解決手法を説明することを意図しているにすぎず、本発明を限定することを意図していないことに留意されたい。前述の実施形態を参照して本発明を詳細に説明してきたが、当業者は、本発明の実施形態の技術的解決手法の範囲を逸脱しない限り、前述の実施形態において説明した技術的解決手法に対して変更をさらに行い得る、またはその技術的特徴の一部またはすべてに対して均等物との置換をさらに行い得ることを理解すべきである。
01 デバイス
11 獲得モジュール
12 処理モジュール
13 提示モジュール
14 決定モジュール
第2の態様に従って、本発明の実施形態は、第1のデバイスを提供しており、第1のデバイスは、
第1のデータおよび少なくとも一部の第2のデータを獲得するように構成される、獲得モジュールであって、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、獲得モジュールと、
第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、ユーザ行動に対応するユーザデータを決定するように構成される、処理モジュールと、
ユーザ行動および/またはユーザデータを提示するように構成される、提示モジュールとを備える。
第2の態様の第3の可能な実施様態においては、デバイスは、
1のデータおよび少なくとも一部の第2のデータに従って決定することによってユーザ行動の状態を取得するように構成される、決定モジュールをさらに備え、
それに対応するように、事前に設定されたルールは、ユーザ行動の状態に従って、高優先度を有する第1のデータまたは高優先度を有する第2のデータをユーザ行動に対応するユーザデータとして選択することを含む。
本発明の実施形態の目的、技術的解決手法、および利点をより明確にするために、本発明の実施形態における添付の図面を参照して、本発明の実施形態における技術的解決手法を以下に明確に説明する。説明した実施形態が本発明の実施形態のすべてではなく一部であることは明らかであろう。創造的努力なしに本発明の実施形態に基づいて当業者によって得られる他の実施形態のすべては、本発明の保護範囲に含まれるものとする。
ユーザが睡眠状態にあり睡眠品質データ(睡眠品質は、夢、脈、および身体動作記録などのデータを使用してしばしば実施される)を獲得する必要がある場合には、スマートバンドまたはスマートウォッチから獲得された睡眠品質データが優先的に選択される。スマートバンドまたはスマートウォッチのセンサのデータを取得できない場合には、スマートリングによって獲得された睡眠品質データが選択され、その次に、スマートフットバンドによって獲得された睡眠品質データが選択される、すなわち、優先順位は、スマートバンドまたはスマートウォッチ>スマートリング>スマートフットバンドとなる。
図4は、本発明による、第1のデバイスの実施形態1の概略構造図である。図4に示したように、本実施形態の第1のデバイス01は、獲得モジュール11、処理モジュール12、および提示モジュール13を備え得る、ここで、獲得モジュール11は、第1のデータおよび少なくとも一部の第2のデータを獲得するように構成され、第1のデータは、ユーザ行動を検出することによって第1のデバイスそのものによって獲得されたデータであり、第2のデータは、ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータであり、処理モジュール12は、第1のデータおよび第2のデータに従って、事前に設定されたルールに則って、ユーザ行動に対応するユーザデータを決定するように構成され、提示モジュール13は、ユーザ行動および/またはユーザデータを提示するように構成される。
図5は、本発明による、第1のデバイスの実施形態2の概略構造図である。図5に示したように、図4に示したデバイスの構造に基づいて、本実施形態の第1のデバイス01は、決定モジュール14をさらに備え得る、ここで、決定モジュール14は、第1のデータおよび少なくとも一部の第2のデータに従って決定することによってユーザ行動の状態を取得するように構成される。
前述の統合ユニットがソフトウェア機能ユニットの形式で実装される場合には、統合ユニットは、コンピュータ可読記憶媒体に記憶され得る。ソフトウェア機能ユニットは、記憶媒体に記憶され、コンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスであり得る)またはプロセッサに本発明の実施形態において説明した方法のステップの一部を行うように命令するためのいくつかの命令を含む。前述の記憶媒体は、USBフラッシュドライブ、リムーバブルハードディスク、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク、または光ディスクなどの、プログラムコードを記憶することができる任意の媒体を含む。

Claims (8)

  1. ユーザデータ処理方法であって、
    第1のデバイスによって、第1のデータおよび少なくとも一部の第2のデータを獲得するステップであって、前記第1のデータは、ユーザ行動を検出することによって前記第1のデバイスそのものによって獲得されたデータであり、前記第2のデータは、前記ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、獲得するステップと、
    前記第1のデータおよび前記第2のデータに従って、事前に設定されたルールに則って、前記第1のデバイスによって、前記ユーザ行動に対応するユーザデータを決定して、前記ユーザ行動および/または前記ユーザデータを提示するステップとを含む、方法。
  2. 前記事前に設定されたルールは、
    前記ユーザ行動の発生から停止までの検出時間内において、事前に設定された時間長に従って前記検出時間を複数の時間セグメントに分割して、各時間セグメントについて、選択ルールに従って、各時間セグメントに対応するユーザデータとして前記第1のデータおよび前記少なくとも一部の第2のデータから1つを選択することと、
    前記時間セグメントにそれぞれ対応する前記ユーザデータを集計して、前記集計を前記ユーザ行動の前記ユーザデータとして使用することとを含む、請求項1に記載の方法。
  3. 前記ユーザ行動および/または前記ユーザデータを提示するステップは、座標形式で前記ユーザ行動および/または前記ユーザデータを表示するステップであって、前記座標が時間軸を含む、表示するステップを含み、前記座標形式で前記ユーザ行動および/または前記ユーザデータを表示するステップは、
    前記第1のデータおよび前記少なくとも一部の第2のデータに従って、前記ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出した場合には、前記領域の中心点を計算するステップと、前記第1のデバイスの表示画面上の前記時間軸上の前記検出時間セグメントに対応する点に、前記中心点において発生している前記ユーザ行動を表示するステップとを特に含む、請求項2に記載の方法。
  4. 前記方法は、
    前記第1のデバイスによって、前記第1のデータおよび前記少なくとも一部の第2のデータに従って決定することによって前記ユーザ行動の状態を取得するステップをさらに含み、
    それに対応するように、前記事前に設定されたルールは、前記ユーザ行動の前記状態に従って、高優先度を有する前記第1のデータまたは高優先度を有する前記第2のデータを前記ユーザ行動に対応する前記ユーザデータとして選択することを含む、請求項1に記載の方法。
  5. 第1のデバイスであって、
    第1のデータおよび少なくとも一部の第2のデータを獲得するように構成される、獲得モジュールであって、前記第1のデータは、ユーザ行動を検出することによって前記第1のデバイスそのものによって獲得されたデータであり、前記第2のデータは、前記ユーザ行動を検出することによって少なくとも1つの第2のデバイスによって獲得されたデータである、獲得モジュールと、
    前記第1のデータおよび前記第2のデータに従って、事前に設定されたルールに則って、前記第1のデバイスによって、前記ユーザ行動に対応するユーザデータを決定するように構成される、処理モジュールと、
    前記ユーザ行動および/または前記ユーザデータを提示するように構成される、提示モジュールとを備える、第1のデバイス。
  6. 前記事前に設定されたルールは、
    前記ユーザ行動の発生から停止までの検出時間内において、事前に設定された時間長に従って前記検出時間を複数の時間セグメントに分割して、各時間セグメントについて、選択ルールに従って、各時間セグメントに対応するユーザデータとして前記第1のデータおよび前記少なくとも一部の第2のデータから1つを選択することと、
    前記時間セグメントにそれぞれ対応する前記ユーザデータを集計して、前記集計を前記ユーザ行動の前記ユーザデータとして使用することとを含む、請求項5に記載の第1のデバイス。
  7. 前記ユーザ行動および/または前記ユーザデータを提示することは、座標形式で前記ユーザ行動および/または前記ユーザデータを表示することであって、前記座標が時間軸を含む、表示することを含み、前記座標形式で前記ユーザ行動および/または前記ユーザデータを表示することは、前記第1のデータおよび前記少なくとも一部の第2のデータに従って、前記ユーザ行動の移動追跡が検出時間セグメント内の同一の領域に存在していることを検出した場合には、前記領域の中心点を計算することを特に含み、
    それに対応するように、前記提示モジュールは、前記第1のデバイスの表示画面上の時間軸上の前記検出時間セグメントに対応する点に、前記中心点において発生している前記ユーザ行動を表示するようにさらに構成される、請求項6に記載の第1のデバイス。
  8. 前記デバイスは、
    前記第1のデバイスによって、前記第1のデータおよび前記少なくとも一部の第2のデータに従って決定することによって前記ユーザ行動の状態を取得するように構成される、決定モジュールをさらに備え、
    それに対応するように、前記事前に設定されたルールは、前記ユーザ行動の前記状態に従って、高優先度を有する前記第1のデータまたは高優先度を有する前記第2のデータを前記ユーザ行動に対応する前記ユーザデータとして選択することを含む、請求項5に記載の第1のデバイス。
JP2016575952A 2014-06-30 2014-06-30 ユーザデータ処理方法、およびデバイス Active JP6380961B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/081247 WO2016000163A1 (zh) 2014-06-30 2014-06-30 用户数据的处理方法和设备

Publications (2)

Publication Number Publication Date
JP2017522962A true JP2017522962A (ja) 2017-08-17
JP6380961B2 JP6380961B2 (ja) 2018-08-29

Family

ID=55018249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016575952A Active JP6380961B2 (ja) 2014-06-30 2014-06-30 ユーザデータ処理方法、およびデバイス

Country Status (5)

Country Link
US (1) US20170213367A1 (ja)
EP (1) EP3145156A4 (ja)
JP (1) JP6380961B2 (ja)
CN (1) CN105519074B (ja)
WO (1) WO2016000163A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9745516B2 (en) 2013-03-15 2017-08-29 All Power Labs, Inc. Simultaneous pyrolysis and communition for fuel flexible gasification and pyrolysis
CN107811624A (zh) * 2017-12-12 2018-03-20 深圳金康特智能科技有限公司 一种基于双智能穿戴设备的用户信息采集***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006334087A (ja) * 2005-06-01 2006-12-14 Medical Electronic Science Inst Co Ltd 睡眠状態判定システム及び睡眠状態判定方法
JP2007222276A (ja) * 2006-02-22 2007-09-06 Tanita Corp 健康管理装置
JP2010274119A (ja) * 2009-06-01 2010-12-09 Seiko Epson Corp 動作判別方法、コンピューター読み取り可能な記憶媒体、動作判別システムおよび体調査定方法
JP2013168026A (ja) * 2012-02-15 2013-08-29 Omron Healthcare Co Ltd 睡眠分析結果表示プログラム、睡眠改善支援画面表示プログラム及び睡眠改善行動結果表示プログラム
WO2013184672A2 (en) * 2012-06-04 2013-12-12 Nike International Ltd. Fitness training system with energy expenditure calculation that uses multiple sensor inputs
US20140039839A1 (en) * 2010-09-30 2014-02-06 Fitbit, Inc. Methods and Systems for Geo-Location Optimized Tracking and Updating for Events Having Combined Activity and Location Information
US20140164611A1 (en) * 2010-09-30 2014-06-12 Fitbit, Inc. Tracking user physical activity with multiple devices
JP2015066337A (ja) * 2013-09-30 2015-04-13 ダイキン工業株式会社 生体情報取得装置
JP2017079807A (ja) * 2014-03-11 2017-05-18 株式会社東芝 生体センサ、生体データ収集端末、生体データ収集システム、及び生体データ収集方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050195094A1 (en) * 2004-03-05 2005-09-08 White Russell W. System and method for utilizing a bicycle computer to monitor athletic performance
US20070049814A1 (en) * 2005-08-24 2007-03-01 Muccio Philip E System and device for neuromuscular stimulation
US9664518B2 (en) * 2010-08-27 2017-05-30 Strava, Inc. Method and system for comparing performance statistics with respect to location
CN202282004U (zh) * 2011-06-02 2012-06-20 上海巨浪信息科技有限公司 基于情景感知与活动分析的移动健康管理***
JP5951802B2 (ja) * 2012-02-02 2016-07-13 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited ユーザーのパーソナルコンテキストを識別および分析するためのシステムおよび方法
US9582755B2 (en) * 2012-05-07 2017-02-28 Qualcomm Incorporated Aggregate context inferences using multiple context streams
US20140003983A1 (en) * 2012-06-28 2014-01-02 Trebor International Restrained, unattached, ultrapure pump diaphragm
CN103198615B (zh) * 2013-03-21 2015-05-20 浙江畅志科技有限公司 基于多传感器协同的人体跌倒检测预警装置
CN103810254A (zh) * 2014-01-22 2014-05-21 浙江大学 基于云端的用户行为实时分析方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006334087A (ja) * 2005-06-01 2006-12-14 Medical Electronic Science Inst Co Ltd 睡眠状態判定システム及び睡眠状態判定方法
JP2007222276A (ja) * 2006-02-22 2007-09-06 Tanita Corp 健康管理装置
JP2010274119A (ja) * 2009-06-01 2010-12-09 Seiko Epson Corp 動作判別方法、コンピューター読み取り可能な記憶媒体、動作判別システムおよび体調査定方法
US20140039839A1 (en) * 2010-09-30 2014-02-06 Fitbit, Inc. Methods and Systems for Geo-Location Optimized Tracking and Updating for Events Having Combined Activity and Location Information
US20140164611A1 (en) * 2010-09-30 2014-06-12 Fitbit, Inc. Tracking user physical activity with multiple devices
JP2013168026A (ja) * 2012-02-15 2013-08-29 Omron Healthcare Co Ltd 睡眠分析結果表示プログラム、睡眠改善支援画面表示プログラム及び睡眠改善行動結果表示プログラム
WO2013184672A2 (en) * 2012-06-04 2013-12-12 Nike International Ltd. Fitness training system with energy expenditure calculation that uses multiple sensor inputs
JP2015066337A (ja) * 2013-09-30 2015-04-13 ダイキン工業株式会社 生体情報取得装置
JP2017079807A (ja) * 2014-03-11 2017-05-18 株式会社東芝 生体センサ、生体データ収集端末、生体データ収集システム、及び生体データ収集方法

Also Published As

Publication number Publication date
CN105519074A (zh) 2016-04-20
EP3145156A4 (en) 2017-05-31
WO2016000163A1 (zh) 2016-01-07
CN105519074B (zh) 2019-06-07
JP6380961B2 (ja) 2018-08-29
EP3145156A1 (en) 2017-03-22
US20170213367A1 (en) 2017-07-27

Similar Documents

Publication Publication Date Title
AU2016212943B2 (en) Image processing method and electronic device for supporting the same
KR102289837B1 (ko) 촬영 방법 및 전자 장치
KR102299076B1 (ko) 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
US20160226956A1 (en) Electronic Device and Content Providing Method Thereof
KR102376700B1 (ko) 비디오 컨텐츠 생성 방법 및 그 장치
KR20170097888A (ko) 복수의 디바이스들로부터 수집된 데이터 통합 및 제공 방법 및 이를 구현한 전자 장치
EP3023969A2 (en) Display and method and electronic device
EP3267872A1 (en) System, device and method for remotely monitoring the well-being of a user with a wearable device
WO2016097376A1 (en) Wearables for location triggered actions
US20160063101A1 (en) Mobile terminal, recommendation system, and recommendation method
CA2886948A1 (en) Method relating to presence granularity with augmented reality
US10182756B2 (en) Mobile terminal and control method therefor
EP3476119B1 (en) Method for controlling multi-filed of view image and electronic device for supporting the same
US20180225876A1 (en) Electronic device for providing vr image based on polyhedron and image providing method thereof
WO2014131003A1 (en) System and method for monitoring biometric data
KR20170094745A (ko) 영상 인코딩 방법 및 이를 지원하는 전자 장치
CN111836069A (zh) 虚拟礼物赠送方法、装置、终端、服务器及存储介质
KR20150110319A (ko) 영상을 디스플레이 하는 방법 및 디바이스
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR102423364B1 (ko) 영상을 제공하는 방법 및 이를 지원하는 전자 장치
JP6380961B2 (ja) ユーザデータ処理方法、およびデバイス
KR20170052984A (ko) 사용자의 위치를 결정하는 전자 장치 및 그 제어 방법
KR20170014919A (ko) 전자 장치 및 전자 장치에서 피부 상태 검출 방법
US20180341652A1 (en) Information presentation method, information presentation program, and information presentation apparatus
CN111147672A (zh) 用于场境上的呼叫者识别的***和方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180724

R150 Certificate of patent or registration of utility model

Ref document number: 6380961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250