JPWO2019230234A1 - Information processing equipment, programs, and sensing devices - Google Patents
Information processing equipment, programs, and sensing devices Download PDFInfo
- Publication number
- JPWO2019230234A1 JPWO2019230234A1 JP2020521783A JP2020521783A JPWO2019230234A1 JP WO2019230234 A1 JPWO2019230234 A1 JP WO2019230234A1 JP 2020521783 A JP2020521783 A JP 2020521783A JP 2020521783 A JP2020521783 A JP 2020521783A JP WO2019230234 A1 JPWO2019230234 A1 JP WO2019230234A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- information processing
- determination
- vibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
情報処理装置は、ユーザの両耳に装着され、且つ、ユーザの生体組織の振動を検出する一対のセンサから、振動に関する振動情報を取得する手段を備え、振動情報に基づいて、ユーザの生体組織の状態を判定する手段を備え、判定の結果を記憶装置に記憶する手段を備える。The information processing device includes means for acquiring vibration information related to vibration from a pair of sensors that are attached to both ears of the user and detect vibration of the user's biological tissue, and based on the vibration information, the user's biological tissue. A means for determining the state of the above, and a means for storing the determination result in a storage device.
Description
本発明は、情報処理装置、プログラム、及び、センシングデバイスに関する。 The present invention relates to an information processing device, a program, and a sensing device.
一般に、化粧品の販売店では、消費者の肌の状態に応じた商品の販売を提案するために、消費者の肌の状態の分析が行われている。 In general, cosmetics stores analyze the skin condition of consumers in order to propose the sale of products according to the skin condition of consumers.
従来、人の肌の状態を分析するために、肌の状態を光学的に検出する光学センサが用いられている。例えば、特開2011−149901号公報には、複数波長域の光による像を撮像するために規則的に配列された複数の受光部を有する装置が開示されている。 Conventionally, in order to analyze the condition of human skin, an optical sensor that optically detects the condition of the skin has been used. For example, Japanese Patent Application Laid-Open No. 2011-149901 discloses an apparatus having a plurality of light receiving units regularly arranged for capturing an image of light in a plurality of wavelength regions.
しかし、光学的に検出された肌の状態は、肌の表面の光学特性に強く依存する。そのため、特開2011−149901号公報で得られる検出結果は、肌の内部の状態を反映していない。したがって、肌を含む生体組織の状態の判定の精度は、十分に高くない。 However, the optically detected skin condition strongly depends on the optical properties of the skin surface. Therefore, the detection results obtained in Japanese Patent Application Laid-Open No. 2011-149901 do not reflect the internal condition of the skin. Therefore, the accuracy of determining the state of living tissue including skin is not sufficiently high.
本発明の目的は、生体組織の状態の判定の精度を向上させることである。 An object of the present invention is to improve the accuracy of determining the state of a living tissue.
本発明の一態様は、
ユーザの両耳に装着され、且つ、前記ユーザの生体組織の振動を検出する一対のセンサから、前記振動に関する振動情報を取得する手段を備え、
前記振動情報に基づいて、前記ユーザの生体組織の状態を判定する手段を備え、
前記判定の結果を記憶装置に記憶する手段を備える、
情報処理装置である。One aspect of the present invention is
A means for acquiring vibration information related to the vibration from a pair of sensors worn on both ears of the user and detecting the vibration of the user's biological tissue is provided.
A means for determining the state of the living tissue of the user based on the vibration information is provided.
A means for storing the result of the determination in a storage device is provided.
It is an information processing device.
本発明によれば、生体組織の状態の判定の精度を向上させることができる。 According to the present invention, the accuracy of determining the state of living tissue can be improved.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating an embodiment, the same constituent elements are in principle given the same reference numerals, and the repeated description thereof will be omitted.
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの概略図である。図2は、図1の情報処理システムの構成を示すブロック図である。(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a schematic view of the information processing system of the present embodiment. FIG. 2 is a block diagram showing a configuration of the information processing system of FIG.
図1に示すように、ユーザUは、センシングデバイス10の構成要素である一対のセンサ15を自身の両耳に装着する。
図1〜図2に示すように、情報処理システム1は、センシングデバイス10と、サーバ30とを備える。
センシングデバイス10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。As shown in FIG. 1, the user U wears a pair of
As shown in FIGS. 1 and 2, the information processing system 1 includes a
The
センシングデバイス10は、サーバ30にリクエストを送信する情報処理装置の一例である。センシングデバイス10は、例えば、以下の少なくとも1つである。
・ユーザUの両耳の内側に装着可能なインナーイヤー型デバイス(つまり、イヤフォン型デバイス)
・ユーザUの両耳の外側に装着可能なアウターイヤー型デバイス(つまり、ヘッドフォン型デバイス)
・インナーイヤー型デバイス、又は、アウターイヤー型デバイス、及び、コンピュータ(一例として、スマートフォン、タブレット端末、又は、パーソナルコンピュータ)の組合せThe
-Inner ear type device that can be worn inside both ears of user U (that is, earphone type device)
-Outer ear type device that can be worn on the outside of both ears of user U (that is, headphone type device)
-A combination of an inner ear type device or an outer ear type device and a computer (for example, a smartphone, a tablet terminal, or a personal computer).
サーバ30は、センシングデバイス10から送信されたリクエストに応じたレスポンスをセンシングデバイス10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
The
(1−1)センシングデバイスの構成
図2を参照して、センシングデバイス10の構成について説明する。(1-1) Configuration of Sensing Device The configuration of the
図2に示すように、センシングデバイス10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、一対のセンサ15と、波形出力部16と、一対の音声出力部17と、を備える。
As shown in FIG. 2, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
The
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーションのプログラムThe program includes, for example, the following program.
-OS (Operating System) program-Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、センシングデバイス10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
The
入出力インタフェース13は、センシングデバイス10に接続される入力デバイスからユーザの指示を取得し、かつ、センシングデバイス10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ、及び、音声出力部17である。The input /
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display and an
通信インタフェース14は、センシングデバイス10とサーバ30との間の通信を制御するように構成される。
The
一対のセンサ15は、センシングデバイス10を装着したユーザUの肌の振動を検出し、且つ、検出した振動に応じた電気信号(以下「振動信号」という)を生成するように構成される。
The pair of
波形出力部16は、振動素子(不図示)に接続される。波形出力部16は、所定の周波数で振動素子を振動させることにより、センシングデバイス10を装着したユーザUに対して、所定の波形を有する振動を付加するように構成される。波形出力部16は、例えば、一対のセンサ15のうち一方の近傍(例えば、ユーザUがセンシングデバイス10を装着したときに、ユーザUの両耳のうち一方の耳の近傍に接触する位置)に配置される。
The
一対の音声出力部17は、プロセッサ12によって生成された音声信号に基づく音声を出力するように構成される。
The pair of
(1−2)サーバの構成
図2を参照して、サーバ30の構成について説明する。(1-2) Server Configuration The configuration of the
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
As shown in FIG. 2, the
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
The
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラムThe program includes, for example, the following program.
・ OS program ・ Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果The data includes, for example, the following data.
・ Database referenced in information processing ・ Execution result of information processing
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
The
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。The input /
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
通信インタフェース34は、サーバ30とセンシングデバイス10との間の通信を制御するように構成される。
The
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。(2) Outline of the Embodiment The outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the present embodiment.
図3に示すように、ユーザUは、一対のセンサ15を両耳に装着する。
ユーザUの両耳に装着された一対のセンサ15は、ユーザUの生体組織の振動を検出する。
センシングデバイス10は、一対のセンサ15から検出結果(振動)に関する振動情報を取得し、且つ、振動情報に基づいて、ユーザUの生体組織の状態を判定するように構成される。As shown in FIG. 3, the user U wears a pair of
A pair of
The
本実施形態によれば、一対のセンサ15が取得した振動に応じた生体組織の状態を判定する。これにより、生体組織の状態の判定の精度を向上させることができる。
According to this embodiment, the state of the living tissue according to the vibration acquired by the pair of
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。(3) Database The database of the present embodiment will be described. The following database is stored in the
(3−1)ユーザ情報データベース
本実施形態のユーザ情報データベースについて説明する。図4は、本実施形態のユーザ情報データベースのデータ構造を示す図である。(3-1) User Information Database The user information database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the user information database of the present embodiment.
図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「認証情報」フィールドと、「画像」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。The user information database of FIG. 4 stores user information about the user.
The user information database includes a "user ID" field, a "user name" field, an "authentication information" field, an "image" field, and a "user attribute" field. Each field is associated with each other.
「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納される。「ユーザID」フィールドの情報は、ユーザ情報データベースの各レコードの主キーである。 A user ID that identifies a user (an example of "user identification information") is stored in the "user ID" field. The information in the "User ID" field is the primary key for each record in the user information database.
「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。 The Username field stores information about the user's name (eg, text).
「認証情報」フィールドには、ログイン認証のために参照される認証情報が格納される。認証情報は、例えば、以下の少なくとも1つである。
・パスワード
・指紋のパターンに関する情報
・顔の特徴量に関する情報
・ワンタイム認証コードThe Credentials field stores the credentials referenced for login authentication. The authentication information is, for example, at least one of the following.
・ Password ・ Information about fingerprint pattern ・ Information about facial features ・ One-time authentication code
「画像」フィールドには、ユーザの画像(例えば、ユーザの肌の画像、及び、ユーザの髪の画像の少なくとも1つ)の画像データが格納される。 The "image" field stores image data of the user's image (eg, at least one of the user's skin image and the user's hair image).
「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。 The "user attribute" field stores user attribute information related to the user's attribute. The "User Attributes" field includes a "Gender" field and an "Age" field.
「性別」フィールドには、ユーザの性別に関する情報が格納される。 The Gender field stores information about the user's gender.
「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 The Age field stores information about the user's age.
(3−2)センシングログ情報データベース
本実施形態のセンシングログ情報データベースについて説明する。図5は、本実施形態のセンシングログ情報データベースのデータ構造を示す図である。(3-2) Sensing log information database The sensing log information database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the sensing log information database of the present embodiment.
図5のセンシングログ情報データベースには、センシングデバイス10によって取得された情報の履歴(以下「センシングログ情報」という)が格納される。
センシングログ情報データベースは、「ログID」フィールドと、「判定日時」フィールドと、「波形ファイル」フィールドと、「振幅」フィールドと、「位置」フィールドと、「方向」フィールドと、「速度」フィールドと、「状態」フィールドと、を含む。各フィールドは、互いに関連付けられている。
センシングログ情報データベースは、ユーザIDに関連付けられている。The sensing log information database of FIG. 5 stores a history of information acquired by the sensing device 10 (hereinafter referred to as “sensing log information”).
The sensing log information database includes a "log ID" field, a "judgment date and time" field, a "waveform file" field, an "amplitude" field, a "position" field, a "direction" field, and a "speed" field. , Includes the "Status" field. Each field is associated with each other.
The sensing log information database is associated with the user ID.
「ログID」フィールドには、センシングログ情報を識別するログIDが格納される。「ログID」フィールドの情報は、センシングログ情報データベースの各レコードの主キーである。 A log ID that identifies sensing log information is stored in the "log ID" field. The information in the "Log ID" field is the primary key for each record in the sensing log information database.
「判定日時」フィールドには、生体組織の状態の判定の実行日時に関する情報が格納される。 In the "determination date and time" field, information regarding the execution date and time of the determination of the state of the living tissue is stored.
「波形ファイル」フィールドには、センシングデバイス10によって検出された振動の波形を示す波形ファイルが格納される。
The "waveform file" field stores a waveform file showing the vibration waveform detected by the
「振幅」フィールドには、センシングデバイス10によって検出された振動の振幅に関する情報が格納される。
The "amplitude" field stores information about the amplitude of vibration detected by the
「位置」フィールドには、センシングデバイス10の検出が実行されたときにユーザUが触れた接触部位に関する接触部位情報が格納される。
In the "position" field, contact site information regarding the contact site touched by the user U when the detection of the
「方向」フィールドには、センシングデバイス10の検出が実行されたときにユーザUが触れた接触部位の変位方向に関する情報が格納される。
The "direction" field stores information about the displacement direction of the contact portion touched by the user U when the detection of the
「速度」フィールドには、センシングデバイス10の検出が実行されたときにユーザUが触れた接触部位の変位速度に関する情報が格納される。
In the "velocity" field, information regarding the displacement velocity of the contact portion touched by the user U when the detection of the
「状態」フィールドには、生体組織の状態の判定結果に関する情報が格納される。「状態」フィールドは、複数のサブフィールド(「凹凸」フィールド、及び、「ケアレベル」フィールド)を含む。 The "state" field stores information regarding the determination result of the state of the living tissue. The "state" field includes a plurality of subfields ("concavo-convex" field and "care level" field).
「凹凸」フィールドには、生体組織(肌及び髪の少なくとも1つ)の凹凸に関する情報(例えば、凹凸の程度を示す数値)が格納される。 The "concavo-convex" field stores information about the unevenness of the biological tissue (at least one of the skin and hair) (for example, a numerical value indicating the degree of unevenness).
「ケアレベル」フィールドには、生体組織(肌及び髪の少なくとも1つ)に対するケアの適正レベルに関する情報(例えば、ケアの適正を示す数値)が格納される。ケアの適正レベルに関する情報は、例えば、肌ケアのために肌に塗布された塗布物(一例として、肌ケア用クリーム)の塗布の強度及び位置の適正レベルを示す。 The "care level" field stores information about the appropriate level of care for living tissue (at least one of the skin and hair) (eg, a numerical value indicating the appropriateness of care). The information regarding the appropriate level of care indicates, for example, the appropriate level of application strength and position of an application (for example, a skin care cream) applied to the skin for skin care.
(3−3)レコメンド情報マスタデータベース
本実施形態のレコメンド情報マスタデータベースについて説明する。図6は、本実施形態のレコメンド情報マスタデータベースのデータ構造を示す図である。(3-3) Recommendation Information Master Database The recommendation information master database of the present embodiment will be described. FIG. 6 is a diagram showing a data structure of the recommendation information master database of the present embodiment.
図6のレコメンド情報マスタデータベースには、生体組織の状態に応じてユーザに提示すべきレコメンド情報が格納される。
レコメンド情報マスタデータベースは、「レコメンドID」フィールドと、「状態」フィールドと、「レコメンド情報」フィールドと、を含む。The recommendation information master database of FIG. 6 stores recommendation information to be presented to the user according to the state of the living tissue.
The recommendation information master database includes a "recommendation ID" field, a "status" field, and a "recommendation information" field.
「レコメンドID」フィールドには、レコメンド情報を識別するレコメンドIDが格納される。「レコメンドID」フィールドの情報は、レコメンド情報マスタデータベースの各レコードの主キーである。 In the "Recommend ID" field, a recommendation ID that identifies the recommendation information is stored. The information in the "Recommend ID" field is the primary key for each record in the recommendation information master database.
「状態」フィールドには、生体組織の状態の指標(例えば、凹凸及びケアレベル)毎に、生体組織の状態に関する情報が格納される。 In the "state" field, information on the state of the living tissue is stored for each index of the state of the living tissue (for example, unevenness and care level).
「レコメンド情報」フィールドには、生体組織の状態の判定結果に基づいてユーザに対して推奨されるレコメンド情報が格納される。「レコメンド情報」フィールドは、複数のサブフィールド(「アドバイス」フィールド及び「推奨アイテム」フィールド)を含む。各サブフィールドは、互いに、関連付けられている。 In the "recommendation information" field, recommendation information recommended for the user based on the determination result of the state of the living tissue is stored. The "Recommendation Information" field includes a plurality of subfields ("Advice" field and "Recommended Items" field). Each subfield is associated with each other.
「アドバイス」フィールドには、生体組織の状態に応じて推奨されるアドバイスに関するレコメンドアドバイス情報が格納される。レコメンドアドバイス情報は、例えば、以下の少なくとも1つを含む。
・生体組織のケアの方法
・ケアアイテムの使用方法The "advice" field stores recommended advice information regarding recommended advice according to the condition of the living tissue. The recommendation advice information includes, for example, at least one of the following.
・ How to care for living tissues ・ How to use care items
「推奨アイテム」フィールドには、生体組織の状態に応じて使用が推奨されるケアアイテムに関するレコメンドアイテム情報(例えば、当該アイテムを識別するアイテムID)が格納される。 In the "recommended item" field, recommended item information (for example, an item ID that identifies the item) regarding a care item that is recommended to be used according to the state of the living tissue is stored.
(4)情報処理
本実施形態の情報処理について説明する。図7は、本実施形態の情報処理のシーケンス図である。図8〜図9は、図7の情報処理において表示される画面例を示す図である。図10は、図7のセンシングの詳細な処理のフローチャートである。(4) Information processing The information processing of the present embodiment will be described. FIG. 7 is a sequence diagram of information processing of the present embodiment. 8 to 9 are diagrams showing an example of a screen displayed in the information processing of FIG. 7. FIG. 10 is a flowchart of the detailed processing of the sensing of FIG. 7.
図7に示すように、センシングデバイス10は、ログイン情報の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図8)をディスプレイに表示する。As shown in FIG. 7, the
Specifically, the
画面P100は、操作オブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、ログイン情報(例えば、ユーザID及びパスワード)のユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB100は、ログインリクエストを実行させるためのユーザ指示を受け付けるオブジェクトである。The screen P100 includes an operation object B100 and a field object F100.
The field object F100 is an object that accepts user input of login information (for example, user ID and password).
The operation object B100 is an object that receives a user instruction for executing a login request.
ステップS100の後、センシングデバイス10は、ログインリクエスト(S101)を実行する。
具体的には、ユーザがフィールドオブジェクトF100にログイン情報を入力し、且つ、操作オブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
ログインリクエストデータは、以下の情報を含む。
・フィールドオブジェクトF100に入力されたユーザID
・フィールドオブジェクトF100に入力されたパスワードAfter step S100, the
Specifically, when the user inputs login information to the field object F100 and operates the operation object B100, the
The login request data includes the following information.
-User ID entered in the field object F100
-Password entered in the field object F100
ステップS101の後、サーバ30は、ログインリクエストデータに基づいて、ユーザ認証(S300)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたパスワードを特定する。
プロセッサ32は、特定したパスワードと、ログインリクエストデータに含まれるパスワードと、を照合する。
2つのパスワードが一致する場合、ユーザ認証に成功する。
2つのパスワードが一致しない場合、ユーザ認証に失敗する。After step S101, the
Specifically, the
The
If the two passwords match, the user authentication is successful.
If the two passwords do not match, user authentication will fail.
ステップS300の後、サーバ30は、ログインレスポンス(S301)を実行する。
具体的には、ステップS300でユーザ認証に成功した場合、プロセッサ32は、ログインレスポンスデータをセンシングデバイス10に送信する。After step S300, the
Specifically, when the user authentication is successful in step S300, the
ステップS301の後、センシングデバイス10は、音楽再生(S102)を実行する。
具体的には、プロセッサ12は、画面P101(図8)をディスプレイに表示する。After step S301, the
Specifically, the
画面P101は、操作オブジェクトB101と、フィールドオブジェクトF101と、を含む。
フィールドオブジェクトF101は、再生対象となる音楽ファイルを指定するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB101は、フィールドオブジェクトF101で受け付けられたユーザ指示によって指定される音楽ファイルの再生を開始するためのユーザ指示を受け付けるオブジェクトである。The screen P101 includes an operation object B101 and a field object F101.
The field object F101 is an object that receives a user instruction for designating a music file to be played back.
The operation object B101 is an object that receives a user instruction for starting playback of the music file specified by the user instruction received by the field object F101.
ユーザがフィールドオブジェクトF101に音楽ファイルを指定するためのユーザ指示を与え、且つ、操作オブジェクトB101を操作すると、プロセッサ12は、指定された音楽ファイルに基づく音声信号を生成する。
プロセッサ12は、生成した音声信号を音声出力部17に送信する。
一対の音声出力部17は、プロセッサ12から送信された音声信号を出力する。
これにより、ユーザは、フィールドオブジェクトF101に指定した音楽ファイルに対応する音楽を聴くことができる。When the user gives a user instruction for designating a music file to the field object F101 and operates the operation object B101, the
The
The pair of
As a result, the user can listen to the music corresponding to the music file specified in the field object F101.
ステップS102の後、センシングデバイス10は、センシング(S103)を実行する。
具体的には、ステップS103は、図10のフローチャートに従って実行される。After step S102, the
Specifically, step S103 is executed according to the flowchart of FIG.
図10に示すように、センシングデバイス10は、キャリブレーション(S1030)を実行する。
具体的には、プロセッサ12は、画面P102(図8)をディスプレイに表示する。
画面P102には、ユーザUの顔の特定の部位(例えば、鼻、眉毛、及び、耳たぶ)を順番に触れることをユーザUに促すためのメッセージが表示される。As shown in FIG. 10, the
Specifically, the
On the screen P102, a message for prompting the user U to touch a specific part of the face of the user U (for example, nose, eyebrows, and earlobe) in order is displayed.
プロセッサ12は、波形出力部16に、所定のキャリブレーション制御信号を与える。
波形出力部16は、プロセッサ12から与えられたキャリブレーション制御信号に従い、所定のキャリブレーション周波数で振動素子を振動させる。振動素子が振動すると、センシングデバイス10を装着したユーザUの肌に、所定の波形を有する振動(以下「キャリブレーション振動」という)が加えられる。
一対のセンサ15は、ユーザUの肌を伝搬した振動(以下「キャリブレーション用伝搬振動」という)を検出し、且つ、キャリブレーション用伝搬振動に応じた電気信号を生成する。
プロセッサ12は、一対のセンサ15によって生成された電気信号に基づいて、キャリブレーション用伝搬振動の波形を生成する。
プロセッサ12は、キャリブレーション波形と、キャリブレーション用伝搬振動の波形と、を比較することにより、検出振動の歪を計算する。この歪は、キャリブレーション振動がユーザUの肌を伝搬する間に、ユーザUの身体特性(例えば、顔の大きさ)及びセンシングデバイス10の装着位置の少なくとも1つに起因して発生する。
プロセッサ12は、計算した歪に応じた動作パラメータを波形出力部16に与える。これにより、ユーザUの身体特性及びセンシングデバイス10の装着位置の少なくとも1つに応じて、波形出力部16の動作に関する動作パラメータが補正される。The
The
The pair of
The
The
The
ステップS1030の後、測定(S1031)を実行する。
具体的には、プロセッサ12は、画面P103(図8)をディスプレイに表示する。
画面P103には、ユーザUの所望の部位(例えば、ユーザUが気になっている部位)に触れることをユーザUに促すためのメッセージが表示される。After step S1030, measurement (S1031) is performed.
Specifically, the
On the screen P103, a message for prompting the user U to touch a desired part of the user U (for example, a part that the user U is interested in) is displayed.
一対のセンサ15は、ユーザUの肌を伝搬した振動(以下「センシング用伝搬振動」という)を検出し、且つ、センシング用伝搬振動に応じた電気信号を生成する。
The pair of
ステップS1031は、所定時間の間、継続的に実行される(S1032−NO)。
所定時間の測定(S1031)が終了すると(S1032−YES)、センシングデバイス10は、検出結果の生成(S1033)を実行する。
具体的には、プロセッサ12は、一対のセンサ15によって生成された電気信号に基づいて、センシング用伝搬振動の波形に関する波形データを生成する。
プロセッサ12は、波形データに基づいて、振動情報を生成する。振動情報は、例えば、以下の少なくとも1つを含む
・振動周波数
・センシング用伝搬振動の振幅(一例として、振幅の平均値、左右のセンサ15によって取得された振幅の差)
・左右のセンサ15によって取得された波形データの位相差
・接触部位
・接触部位の変位方向
・接触部位の変位速度Step S1031 is continuously executed for a predetermined time (S1032-NO).
When the measurement (S1031) for a predetermined time is completed (S1032-YES), the
Specifically, the
The
-Phase difference of waveform data acquired by the left and right sensors 15-Contact part-Displacement direction of contact part-Displacement speed of contact part
ステップS1033の後、センシングデバイス10は、判定リクエスト(S104)を実行する。
具体的には、プロセッサ12は、画面P104(図9)をディスプレイに表示する。After step S1033, the
Specifically, the
画面P104は、測定が終了したことを示すメッセージと、操作オブジェクトB104と、を含む。
操作オブジェクトB104は、判定リクエストを実行させるためのユーザ指示を受け付けるオブジェクトである。The screen P104 includes a message indicating that the measurement has been completed and the operation object B104.
The operation object B104 is an object that receives a user instruction for executing a determination request.
ユーザUが操作オブジェクトB104を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS1033で生成された波形データ
・ステップS1033で特定された部位に関する情報
・ステップS1033で計算された振幅の平均値
・ステップS1033で計算された方向及び速度When the user U operates the operation object B104, the
The judgment request data includes the following information.
-Waveform data generated in step S1033-Information about the part specified in step S1033-Average value of amplitude calculated in step S1033-Direction and velocity calculated in step S1033
ステップS104の後、サーバ30は、判定(S302)を実行する。
具体的には、記憶装置31には、状態判定モデルが記憶されている。
状態判定モデルは、センシング用伝搬振動の波形に基づいて生体組織(例えば、肌又は髪)の状態を判定するためのモデルである。状態判定モデルの入力及び出力は、以下のとおりである。
・入力:波形データ
・出力:生体組織の状態
プロセッサ32は、判定リクエストデータに含まれる波形データを状態判定モデルに入力することにより、ユーザUの生体組織の状態を判定する。After step S104, the
Specifically, the
The state determination model is a model for determining the state of a living tissue (for example, skin or hair) based on the waveform of the propagation vibration for sensing. The inputs and outputs of the state determination model are as follows.
Input: Waveform data / Output: State of living tissue The
ステップS302の後、サーバ30は、レコメンド(S303)を実行する。
具体的には、プロセッサ32は、レコメンド情報マスタデータベース(図6)を参照して、生体組織の状態の判定結果(一例として、凹凸及びケアレベルの組合せ)に関連付けられたレコードを特定する。
プロセッサ32は、特定したレコードの「レコメンド情報」フィールドのレコメンド情報(つまり、アドバイス及び推奨アイテム)を特定する。After step S302, the
Specifically, the
ステップS303の後、サーバ30は、データベースの更新(S304)を実行する。
具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDに関連付けられたセンシングログ情報データベース(図5)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「ログID」フィールドには、新規のログIDが格納される。
・「判定日時」フィールドには、ステップS302の実行日時に関する情報が格納される。
・「波形ファイル」フィールドには、判定リクエストデータに含まれる波形データが格納される。
・「振幅」フィールドには、判定リクエストデータに含まれる振幅の平均値が格納される。
・「位置」フィールドには、判定リクエストデータに含まれる部位に関する情報が格納される。
・「方向」フィールドには、判定リクエストデータに含まれる方向に関する情報が格納される。
・「速度」フィールドには、判定リクエストデータに含まれる速度に関する情報が格納される。
・「状態」フィールドには、ステップS302で判定された生体組織の状態の判定結果に関する情報が格納される。After step S303, the
Specifically, the
-A new log ID is stored in the "log ID" field.
-In the "determination date and time" field, information regarding the execution date and time of step S302 is stored.
-The waveform data included in the judgment request data is stored in the "waveform file" field.
-In the "Amplitude" field, the average value of the amplitude included in the judgment request data is stored.
-In the "position" field, information about the part included in the judgment request data is stored.
-The "direction" field stores information about the direction included in the judgment request data.
-In the "speed" field, information about the speed included in the judgment request data is stored.
-In the "state" field, information regarding the determination result of the state of the living tissue determined in step S302 is stored.
ステップS304の後、サーバ30は、判定レスポンス(S305)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをセンシングデバイス10に送信する。After step S304, the
Specifically, the
第1例として、判定レスポンスデータは、以下の情報を含む。
・ステップS304で「状態」フィールドに記憶された生体組織の状態の判定結果に関する情報
・ステップS302で特定されたレコードの「レコメンド情報」フィールド(つまり、「アドバイス」フィールド及び「推奨アイテム」フィールド)のレコメンド情報As a first example, the determination response data includes the following information.
-Information regarding the determination result of the state of the living tissue stored in the "state" field in step S304-In the "recommendation information" field (that is, the "advice" field and the "recommended item" field) of the record specified in step S302. Recommendation information
第2例として、記憶装置31には、生体組織の状態毎に、当該状態を再現する音声に関する音声データが記憶されている。音声データには、例えば、様々な状態の肌サンプル又は毛髪サンプルに触れたときの音が録音されている。
この場合、判定レスポンスデータは、ステップS304で「状態」フィールドに記憶された生体組織の状態の判定結果に対応する音声データを含む。As a second example, the
In this case, the determination response data includes voice data corresponding to the determination result of the state of the living tissue stored in the "state" field in step S304.
ステップS305の後、センシングデバイス10は、判定結果の提示(S105)を実行する。
After step S305, the
ステップS105の第1例として、プロセッサ12は、第1例の判定レスポンスデータに基づいて、画面P105をディスプレイに表示する。
As a first example of step S105, the
画面P105は、表示オブジェクトA105a〜A105bを含む。
表示オブジェクトA105aには、ステップS1033で特定された接触部位と、判定レスポンスデータに含まれる生体組織の状態の判定結果に関する情報と、が表示される。
表示オブジェクトA105bには、判定レスポンスデータに含まれるレコメンド情報が表示される。
この場合、ユーザUは、視覚によって、自身の生体組織の状態を認識することができる。The screen P105 includes display objects A105a to A105b.
The display object A105a displays the contact site identified in step S1033 and the information regarding the determination result of the state of the living tissue included in the determination response data.
The recommendation information included in the determination response data is displayed on the display object A105b.
In this case, the user U can visually recognize the state of his / her living tissue.
ステップS105の第2例として、プロセッサ12は、第2例の判定レスポンスデータに基づいて、音声データに対応する音声を提示する。
この場合、ユーザUは、聴覚によって、自身の生体組織の状態を認識することができる。As a second example of step S105, the
In this case, the user U can recognize the state of his / her own living tissue by hearing.
このように、本実施形態によれば、一対のセンサ15によって検出されたセンシング用伝搬振動の波形に基づいて、ユーザUの生体組織(例えば、肌又は髪)の状態が判定される。したがって、生体組織の状態の判定の精度を向上させることができる。
As described above, according to the present embodiment, the state of the living tissue (for example, skin or hair) of the user U is determined based on the waveform of the propagating vibration for sensing detected by the pair of
(5)変形例
本実施形態の変形例について説明する。(5) Modification Example A modification of the present embodiment will be described.
(5−1)変形例1
変形例1について説明する。変形例1は、センシング用伝搬振動の波形に基づいてユーザUの筋肉組織の状態を判定する例である。(5-1) Modification 1
Modification 1 will be described. Modification 1 is an example of determining the state of the muscle tissue of the user U based on the waveform of the propagation vibration for sensing.
変形例1のセンシングデバイス10は、ステップS1031において、ユーザUの筋肉の筋音を検出し、且つ、筋音に応じた電気信号を生成する。
In step S1031, the
センシングデバイス10は、ステップS1033において、センシング用伝搬振動の波形に関する波形データと、筋音に関する筋音データと、を生成する。
In step S1033, the
センシングデバイス10は、ステップS104において、センシング用伝搬振動の波形に関する波形データと、筋音データと、を含む判定リクエストデータをサーバ30に送信する。
In step S104, the
変形例1のサーバ30は、ステップS302(図7)において、判定リクエストデータに含まれる波形データ及び筋音データに基づいて、ユーザUの表情を判定する。
具体的には、記憶装置31には、表情判定モデルが記憶されている。
状態判定モデルは、センシング用伝搬振動の波形に基づいて表情を判定するためのモデルである。表情判定モデルの入力及び出力は、以下のとおりである。
・入力:波形データ及び筋音データ
・出力:表情
プロセッサ32は、判定リクエストデータに含まれる波形データ及び筋音データを表情判定モデルに入力することにより、ユーザUの表情を判定する。In step S302 (FIG. 7), the
Specifically, the facial expression determination model is stored in the
The state determination model is a model for determining a facial expression based on the waveform of the propagation vibration for sensing. The inputs and outputs of the facial expression determination model are as follows.
-Input: Waveform data and muscle sound data-Output: Expression The
サーバ30は、ステップS303において、ユーザUの表情の判定結果に基づいて、レコメンド情報を決定する。
具体的には、プロセッサ32は、レコメンド情報マスタデータベース(図6)を参照して、表情の判定結果に関連付けられたレコードを特定する。
プロセッサ32は、特定したレコードの「レコメンド情報」フィールドのレコメンド情報を特定する。In step S303, the
Specifically, the
The
変形例1によれば、一対のセンサ15によって検出されたセンシング用伝搬振動の波形に基づいて、ユーザUの筋肉組織の状態(例えば、表情)が判定される。したがって、筋肉組織の状態の判定の精度を向上させることができる。
According to the first modification, the state (for example, facial expression) of the muscle tissue of the user U is determined based on the waveform of the propagation vibration for sensing detected by the pair of
(5−2)変形例2
変形例2について説明する。変形例2は、生体組織の状態の時間変化に応じたレコメンド情報を提供する例である。(5-2) Modification 2
Modification 2 will be described. The second modification is an example of providing recommendation information according to the time change of the state of the living tissue.
変形例2のサーバ30は、ステップS303(図7)において、生体組織の状態の時間変化に応じたレコメンド情報を判定する。
具体的には、記憶装置31には、レコメンド判定モデルが記憶されている。
レコメンド判定モデルは、生体組織の状態の時間変化に基づいてレコメンド情報を判定するためのモデルである。レコメンド判定モデルの入力及び出力は以下のとおりである。
・入力:生体組織の状態の時間変化
・出力:レコメンド情報In step S303 (FIG. 7), the
Specifically, the recommendation determination model is stored in the
The recommendation determination model is a model for determining the recommendation information based on the time change of the state of the living tissue. The inputs and outputs of the recommendation judgment model are as follows.
・ Input: Time change of the state of living tissue ・ Output: Recommendation information
プロセッサ32は、ログインリクエストデータに含まれるユーザIDに関連付けられたセンシングログ情報データベース(図5)を特定する。
プロセッサ32は、特定したセンシングログ情報データベースにおいて、「判定日時」フィールドの情報が所定条件を満たすレコードを抽出する。所定条件は、例えば、ステップS303の実行日時を基準として、遡って所定期間内(一例として、1ヶ月以内)の日時を示すことである。
プロセッサ32は、抽出したレコードの「状態」フィールドの情報を参照して、生体組織の状態の時間変化を判定する。
プロセッサ32は、判定した生体組織の状態の時間変化をレコメンド判定モデルに入力することにより、レコメンド情報を決定する。The
The
The
The
変形例2によれば、生体組織の状態の時間変化に応じたレコメンド情報がユーザUに提示される。これにより、ユーザUにより適合するレコメンド情報を提示することができる。 According to the second modification, the recommendation information according to the time change of the state of the living tissue is presented to the user U. As a result, the recommendation information that is more suitable for the user U can be presented.
(5−3)変形例3
変形例3について説明する。変形例3は、ユーザUの生体組織の状態を判定するときに、他のユーザの判定結果を参照する例である。(5-3)
変形例3のサーバ30は、ステップS302(図7)において、他のユーザの判定結果を参照して、ユーザUの生体組織の状態を判定する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザID(つまり、判定の対象となる対象ユーザUのユーザID)に関連付けられた「ユーザ属性」フィールドのユーザ属性情報(以下「対象ユーザ属性情報」という)を特定する。対象ユーザUは、「第1ユーザ」の一例である。対象ユーザ属性情報は、「第1ユーザ属性情報」の一例である。
プロセッサ32は、ユーザ情報データベースを参照して、特定した対象ユーザ属性情報に対応するユーザ情報(以下「参照ユーザ属性情報」という)に関連付けられたユーザID(以下「参照ユーザID」という)を特定する。「対象ユーザ属性情報に対応するユーザ属性情報」とは、以下の何れかの条件を満たすユーザ属性情報である。参照ユーザ属性情報は、「第2ユーザ属性情報」の一例である。
・対象ユーザ属性情報と同一のユーザ属性情報
・「性別」フィールドの情報が対象ユーザ属性情報と同一のユーザ属性情報
・「年齢」フィールドの情報と対象ユーザ情報の年齢との差が所定値以下であるユーザ属性情報In step S302 (FIG. 7), the
Specifically, the
The
-User attribute information that is the same as the target user attribute information-User attribute information that has the same information in the "Gender" field as the target user attribute information-The difference between the information in the "Age" field and the age of the target user information is less than the specified value Certain user attribute information
プロセッサ32は、参照ユーザIDに関連付けられたセンシングログ情報データベース(図5)の「波形ファイル」フィールドを参照して、参照ユーザIDに対応する参照ユーザ(「第2ユーザ」の一例)の波形データを特定する。
プロセッサ32は、判定リクエストデータに含まれる波形データと、参照ユーザの波形データと、を状態判定モデルに入力することにより、ユーザUの生体組織の状態を判定する。The
The
変形例3によれば、対象ユーザUの波形データだけでなく、参照ユーザの波形データも参照して、対象ユーザUの生体組織の状態を判定する。つまり、状態判定モデルに入力される波形データの数は、本実施形態より多い。これにより、判定の精度を向上させることができる。 According to the third modification, not only the waveform data of the target user U but also the waveform data of the reference user is referred to to determine the state of the biological tissue of the target user U. That is, the number of waveform data input to the state determination model is larger than that of the present embodiment. Thereby, the accuracy of the determination can be improved.
(6)本実施形態の小括
本実施形態について小括する。(6) Summary of the present embodiment A summary of the present embodiment will be given.
本実施形態の第1態様は、
ユーザUの両耳に装着され、且つ、ユーザUの生体組織の振動を検出する一対のセンサ15から、振動に関する振動情報を取得する手段(例えば、ステップS302の処理を実行するプロセッサ32)を備え、
振動情報に基づいて、ユーザUの生体組織の状態を判定する手段(例えば、ステップS302の処理を実行するプロセッサ32)を備え、
前記判定の結果を記憶装置に記憶する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。The first aspect of this embodiment is
A means (for example, a
A means for determining the state of the living tissue of the user U based on the vibration information (for example, a
A means for storing the result of the determination in a storage device (for example, a
An information processing device (for example, a server 30).
第1態様によれば、肌の振動に応じて生体組織の状態が判定される。これにより、生体組織の状態の判定の精度を向上させることができる。 According to the first aspect, the state of the living tissue is determined according to the vibration of the skin. Thereby, the accuracy of determining the state of the living tissue can be improved.
本実施形態の第2態様は、
判定の結果をユーザUに提示する手段(例えば、ステップS305の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。The second aspect of this embodiment is
A means for presenting the determination result to the user U (for example, a
An information processing device (for example, a server 30).
第2態様によれば、ユーザUは容易に生体組織の状態を知ることができる。 According to the second aspect, the user U can easily know the state of the living tissue.
本実施形態の第3態様は、
提示する手段は、判定の結果に対応する音声をユーザUに提示する、
情報処理装置(例えば、サーバ30)である。The third aspect of this embodiment is
The presenting means presents the voice corresponding to the result of the determination to the user U.
An information processing device (for example, a server 30).
第3態様によれば、振動から判定された生体組織の状態を、振動と親和性の高い音声という形態で知らせることができる。 According to the third aspect, the state of the living tissue determined from the vibration can be notified in the form of a voice having a high affinity with the vibration.
本実施形態の第4態様は、
判定が行われた時間に関する時間情報の少なくとも1つと、判定の結果と、を関連付けて記憶装置31に記憶する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。The fourth aspect of this embodiment is
A means (for example, a
An information processing device (for example, a server 30).
第4態様によれば、生体組織の状態の時間変化を記録することができる。 According to the fourth aspect, the time change of the state of the living tissue can be recorded.
本実施形態の第5態様は、
判定する手段は、記憶装置31に記憶された複数の判定の結果に基づいて、生体組織の状態の動的変化を判定する、
情報処理装置(例えば、サーバ30)である。A fifth aspect of this embodiment is
The determination means determines a dynamic change in the state of the living tissue based on the results of a plurality of determinations stored in the
An information processing device (for example, a server 30).
第5態様によれば、生体組織の状態の時間変化を記録することができる。 According to the fifth aspect, the time change of the state of the living tissue can be recorded.
本実施形態の第6態様は、
ユーザUの属性に関するユーザ属性情報と、判定の結果と、を関連付けて記憶装置31に記憶する手段(例えば、ステップS304の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。The sixth aspect of this embodiment is
A means (for example, a
An information processing device (for example, a server 30).
第6態様によれば、ユーザ属性毎に、生体組織の状態を記録することができる。 According to the sixth aspect, the state of the living tissue can be recorded for each user attribute.
本実施形態の第7態様は、
一対のセンサ15を装着した第1ユーザから、第1ユーザの第1ユーザ属性情報を取得する手段を備え、
記憶装置31に記憶されたユーザ属性情報の中から、第1ユーザ属性情報に対応する少なくとも1つの第2ユーザ属性情報を特定する手段を備え、
判定する手段は、一対のセンサ15から取得した第1振動情報と、第2ユーザ属性情報に関連付けられた第2振動情報と、に基づいて、第1ユーザの生体組織の状態を判定する、
情報処理装置(例えば、サーバ30)である。The seventh aspect of this embodiment is
A means for acquiring the first user attribute information of the first user from the first user equipped with the pair of
A means for identifying at least one second user attribute information corresponding to the first user attribute information from the user attribute information stored in the
The determination means determines the state of the living tissue of the first user based on the first vibration information acquired from the pair of
An information processing device (for example, a server 30).
第7態様によれば、あるユーザ(第1ユーザ)の生体組織の状態を判定するときに、他のユーザ(第2ユーザ)の生体組織の状態の判定結果を参照する。これにより、生体組織の状態の判定の精度を向上させることができる。 According to the seventh aspect, when determining the state of the biological tissue of a certain user (first user), the determination result of the state of the biological tissue of another user (second user) is referred to. Thereby, the accuracy of determining the state of the living tissue can be improved.
本実施形態の第8態様は、
判定する手段は、ユーザUがユーザUの肌に触れた接触部位の位置を判定する、
情報処理装置(例えば、サーバ30)である。The eighth aspect of this embodiment is
The determination means determines the position of the contact portion where the user U touches the skin of the user U.
An information processing device (for example, a server 30).
第8態様によれば、振動から接触部位の位置を判定する。これにより、接触部位の位置に応じた様々な処理が実現可能になる。 According to the eighth aspect, the position of the contact portion is determined from the vibration. This makes it possible to realize various processes according to the position of the contact portion.
本実施形態の第9態様は、
判定する手段は、接触部位の位置の変位を判定する、
情報処理装置(例えば、サーバ30)である。The ninth aspect of this embodiment is
The determination means determines the displacement of the position of the contact portion,
An information processing device (for example, a server 30).
第9態様によれば、振動から接触部位の位置の変位を判定する。これにより、接触部位の位置の変化に応じた様々な処理が実現可能になる。 According to the ninth aspect, the displacement of the position of the contact portion is determined from the vibration. This makes it possible to realize various processes according to the change in the position of the contact portion.
本実施形態の第10態様は、
判定する手段は、ユーザUの肌の状態、髪の状態、及び、表情の少なくとも1つを判定する、
情報処理装置(例えば、サーバ30)である。The tenth aspect of this embodiment is
The determination means determines at least one of the skin condition, the hair condition, and the facial expression of the user U.
An information processing device (for example, a server 30).
本実施形態の第11態様は、
コンピュータ(例えば、プロセッサ32)を、上記の何れかに記載の各手段として機能させるためのプログラムである。The eleventh aspect of this embodiment is
It is a program for making a computer (for example, a processor 32) function as each means described in any of the above.
本実施形態の第12態様は、
上記の何れかに記載の情報処理装置(例えば、サーバ30)と接続可能であり、且つ、ユーザUの耳に装着可能なセンシングデバイス10であって、
ユーザUの両耳に接触し、且つ、ユーザUの生体組織の振動を検出する一対のセンサ15を備え
音声を出力する音声出力部17を備える、
センシングデバイス10である。The twelfth aspect of this embodiment is
A
A pair of
The
第12態様によれば、肌の振動は、比較的小型のセンサ15によって測定される。これにより、生体組織の状態を判定するためのセンシングデバイス10を小型化することができる。
また、第12態様によれば、一対のセンサ15は、ユーザUの両耳に装着可能であるので、ユーザUの使用に対する心理障壁を低減することができる。その結果、ユーザUは、違和感を覚えることなくセンシングデバイス10を使用することができる。これは、ユーザUによるセンシングデバイス10の使用頻度(つまり、センシングログ情報の取得頻度)の増加を導く。According to the twelfth aspect, the vibration of the skin is measured by a relatively
Further, according to the twelfth aspect, since the pair of
本実施形態の第13態様は、
ユーザUの身体特性、及び、センシングデバイス10の装着位置の少なくとも1つに基づいて、キャリブレーションを実行する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を更に備える、
センシングデバイス10である。The thirteenth aspect of this embodiment is
Further comprising means for performing calibration based on the physical characteristics of the user U and at least one of the mounting positions of the sensing device 10 (eg, the
The
第13態様によれば、ユーザUの身体的特性、及び、ユーザUによるによるセンシングデバイス10の装着位置に関わらず、測定精度を向上させることができる。
According to the thirteenth aspect, the measurement accuracy can be improved regardless of the physical characteristics of the user U and the mounting position of the
(7)その他の変形例 (7) Other modifications
記憶装置11は、ネットワークNWを介して、センシングデバイス10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
The
上記の情報処理の各ステップは、センシングデバイス10のみでも実行可能である。この場合、記憶装置31に記憶されたデータベースは、記憶装置11に記憶される。
Each step of the above information processing can be executed only by the
画面P102〜P104に含まれるメッセージは、一対の音声出力部17を介してユーザUに提示されてもよい。
The messages included in the screens P102 to P104 may be presented to the user U via the pair of
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.
1 情報処理システム
10 センシングデバイス
11 記憶装置
12 プロセッサ
13 入出力インタフェース
14 通信インタフェース
15 センサ
16 波形出力部
17 音声出力部
30 サーバ
31 記憶装置
32 プロセッサ
33 入出力インタフェース
34 通信インタフェース1
Claims (13)
前記振動情報に基づいて、前記ユーザの生体組織の状態を判定する手段を備え、
前記判定の結果を記憶装置に記憶する手段を備える、
情報処理装置。A means for acquiring vibration information related to the vibration from a pair of sensors worn on both ears of the user and detecting the vibration of the user's biological tissue is provided.
A means for determining the state of the living tissue of the user based on the vibration information is provided.
A means for storing the result of the determination in a storage device is provided.
Information processing device.
請求項1に記載の情報処理装置。A means for presenting the result of the determination to the user.
The information processing device according to claim 1.
請求項2に記載の情報処理装置。The presenting means presents the user with a voice corresponding to the result of the determination.
The information processing device according to claim 2.
請求項1〜3の何れかに記載の情報処理装置。A means for storing at least one of the time information regarding the time when the determination is performed and the result of the determination in the storage device in association with each other.
The information processing device according to any one of claims 1 to 3.
請求項4に記載の情報処理装置。The determination means determines a dynamic change in the state of the living tissue based on the results of a plurality of determinations stored in the storage device.
The information processing device according to claim 4.
請求項1〜5の何れかに記載の情報処理装置。A means for storing the user attribute information regarding the user's attribute and the result of the determination in the storage device in association with each other.
The information processing device according to any one of claims 1 to 5.
前記記憶装置に記憶されたユーザ属性情報の中から、前記第1ユーザ属性情報に対応する少なくとも1つの第2ユーザ属性情報を特定する手段を備え、
前記判定する手段は、前記一対のセンサから取得した第1振動情報と、前記第2ユーザ属性情報に関連付けられた第2振動情報と、に基づいて、前記第1ユーザの生体組織の状態を判定する、
請求項6に記載の情報処理装置。A means for acquiring the first user attribute information of the first user from the first user equipped with the pair of sensors is provided.
A means for identifying at least one second user attribute information corresponding to the first user attribute information from the user attribute information stored in the storage device is provided.
The determination means determines the state of the living tissue of the first user based on the first vibration information acquired from the pair of sensors and the second vibration information associated with the second user attribute information. To do,
The information processing device according to claim 6.
請求項1〜7の何れかに記載の情報処理装置。The determination means determines the position of the contact portion where the user touches the user's skin.
The information processing device according to any one of claims 1 to 7.
請求項8に記載の情報処理装置。The determination means determines the displacement of the position of the contact portion.
The information processing device according to claim 8.
請求項1〜9の何れかに記載の情報処理装置。The determination means determines at least one of the user's skin condition, hair condition, and facial expression.
The information processing device according to any one of claims 1 to 9.
ユーザの両耳に接触し、且つ、ユーザの生体組織の振動を検出する一対のセンサを備え
音声を出力する音声出力部を備える、
センシングデバイス。A sensing device that can be connected to the information processing device according to any one of claims 1 to 10 and can be worn on the user's ear.
It is equipped with a pair of sensors that come into contact with both ears of the user and detect vibrations of the user's biological tissue, and is provided with a voice output unit that outputs voice.
Sensing device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018101356 | 2018-05-28 | ||
JP2018101356 | 2018-05-28 | ||
PCT/JP2019/016427 WO2019230234A1 (en) | 2018-05-28 | 2019-04-17 | Information processing device, program, and sensing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019230234A1 true JPWO2019230234A1 (en) | 2021-07-01 |
JP7216084B2 JP7216084B2 (en) | 2023-01-31 |
Family
ID=68698869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020521783A Active JP7216084B2 (en) | 2018-05-28 | 2019-04-17 | Information processing device, program, and sensing device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7216084B2 (en) |
TW (1) | TW202010468A (en) |
WO (1) | WO2019230234A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005168884A (en) * | 2003-12-12 | 2005-06-30 | Olympus Corp | Respiration examination device |
JP2010022572A (en) * | 2008-07-18 | 2010-02-04 | Aloka Co Ltd | Biological information detection device |
JP2010187928A (en) * | 2009-02-18 | 2010-09-02 | Gifu Univ | Method, apparatus, and program for evaluating mechanical function of blood vessel to be measured, and storage medium |
WO2016067942A1 (en) * | 2014-10-28 | 2016-05-06 | 株式会社三菱ケミカルホールディングス | Subject information processing device, information processing method, information processing program, and computer readable recording medium with same program recorded thereon |
WO2016083807A1 (en) * | 2014-11-25 | 2016-06-02 | Inova Design Solutions Ltd | Portable physiology monitor |
-
2019
- 2019-04-17 WO PCT/JP2019/016427 patent/WO2019230234A1/en active Application Filing
- 2019-04-17 JP JP2020521783A patent/JP7216084B2/en active Active
- 2019-05-15 TW TW108116682A patent/TW202010468A/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005168884A (en) * | 2003-12-12 | 2005-06-30 | Olympus Corp | Respiration examination device |
JP2010022572A (en) * | 2008-07-18 | 2010-02-04 | Aloka Co Ltd | Biological information detection device |
JP2010187928A (en) * | 2009-02-18 | 2010-09-02 | Gifu Univ | Method, apparatus, and program for evaluating mechanical function of blood vessel to be measured, and storage medium |
WO2016067942A1 (en) * | 2014-10-28 | 2016-05-06 | 株式会社三菱ケミカルホールディングス | Subject information processing device, information processing method, information processing program, and computer readable recording medium with same program recorded thereon |
WO2016083807A1 (en) * | 2014-11-25 | 2016-06-02 | Inova Design Solutions Ltd | Portable physiology monitor |
Also Published As
Publication number | Publication date |
---|---|
WO2019230234A1 (en) | 2019-12-05 |
TW202010468A (en) | 2020-03-16 |
JP7216084B2 (en) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9990040B2 (en) | Haptic CAPTCHA | |
US10824232B2 (en) | Sound outputting apparatus, electronic apparatus, and control method thereof | |
US10366778B2 (en) | Method and device for processing content based on bio-signals | |
EP2778843B1 (en) | Automatic haptic effect adjustment system | |
US10620593B2 (en) | Electronic device and control method thereof | |
US20180129291A1 (en) | Automatic remote sensing and haptic conversion system | |
CN103576853A (en) | Method and display apparatus for providing content | |
WO2019132772A1 (en) | Method and system for monitoring emotions | |
KR20200120105A (en) | Electronic device and method for providing information to relieve stress thereof | |
JP7216084B2 (en) | Information processing device, program, and sensing device | |
JP2012252426A (en) | Information processing system, information processing method, information processing device, information processing terminal, program, and recording medium | |
CN108304076B (en) | Electronic device, video playing application management method and related product | |
US9039628B2 (en) | Touch-sensitive display apparatus capable of measuring pulse rate and method thereof | |
WO2021215266A1 (en) | Control device and control method | |
JP7251614B2 (en) | Wearable device, information processing device, information processing system, and program | |
WO2021215267A1 (en) | Control device and control method | |
US11429188B1 (en) | Measuring self awareness utilizing a mobile computing device | |
CN116665892B (en) | Autism evaluation system, method and device | |
JP7195314B2 (en) | Binaural sound processing device, information processing device, and program | |
WO2023037692A1 (en) | Information processing apparatus, method and computer program product for measuring a level of cognitive decline in a user | |
Motti et al. | Design Guidelines and Evaluation | |
WO2020105413A1 (en) | Learning system and learning method | |
Shakespeare | 7 Tips for Hardwiring Verification and Validation Into Your Hearing Aid Fittings: Why do audiologists avoid probe microphone real-ear measurements in hearing aid fittings? Here’s how to make it a no-brainer in your practice. | |
JPWO2020162151A1 (en) | Information processing equipment and programs | |
WO2024047341A1 (en) | Emotion-based experience |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7216084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |