JP6685397B2 - 機器制御システム - Google Patents

機器制御システム Download PDF

Info

Publication number
JP6685397B2
JP6685397B2 JP2018527291A JP2018527291A JP6685397B2 JP 6685397 B2 JP6685397 B2 JP 6685397B2 JP 2018527291 A JP2018527291 A JP 2018527291A JP 2018527291 A JP2018527291 A JP 2018527291A JP 6685397 B2 JP6685397 B2 JP 6685397B2
Authority
JP
Japan
Prior art keywords
information
recommended
unit
user
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018527291A
Other languages
English (en)
Other versions
JPWO2018011892A1 (ja
Inventor
遠藤 聡
聡 遠藤
正之 小松
正之 小松
諭司 花井
諭司 花井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018011892A1 publication Critical patent/JPWO2018011892A1/ja
Application granted granted Critical
Publication of JP6685397B2 publication Critical patent/JP6685397B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/70Device selection
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Optics & Photonics (AREA)
  • Dermatology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、機器の操作を容易に行うことのできる機器制御システムに関する。
近年、ウェアラブルセンサ(ウェアラブルデバイス)が普及してきている。ウェアラブルセンサは、利用者に装着され、例えば、加速度といった動作情報や、脈拍といった生体情報を検出することができる。ウェアラブルセンサにより検出された情報は、利用者の行動管理や健康管理に活用されている。
このようなウェアラブルセンサに関連する先行技術の一例として、特許文献1には、行動状況モニター装置の発明が開示されており、また、特許文献2には、行動パターン解析システムの発明が開示されている。
特許文献1の発明では、腕時計型の行動状況モニター装置が用いられており、行動状況モニター装置が検出した温度データから、利用者(装着者)の行動を解析し、利用者に指示や警告を与えることができる。また、特許文献2の発明では、モーションセンサ及び位置センサが用いられており、モーションセンサが検出した動きの情報と、位置センサが検出した位置情報とに基づいて、利用者の行動や状況を特定し、必要な情報を携帯端末に提供することができる。
特開2004−8471号公報 特開2011−81431号公報
上述した特許文献1,2の発明に代表されるように、従来では、ウェアラブルセンサを、利用者の行動管理や健康管理に活用している。
最近では、ウェアラブルセンサを、利用者のより身近な生活に活用しようとする試みがなされている。例えば、家庭内には、様々な家電機器が配置されているが、これらは、それぞれのリモコンや操作パネルを、利用者が個々に操作する必要があった。そこで、これらの家電機器を、ウェアラブルセンサを用いて操作することができれば、利用者の利便性が向上すると考えられる。
しかしながら、ウェアラブルセンサを用いて家電機器を操作することについて、未だ有用な提案がなされていないのが実情であった。
本発明は、上記のような問題点を解決するためになされたもので、機器の操作を容易に行うことのできる機器制御システムを提供することを目的とする。
上記目的を達成するために、本発明に係る機器制御システムは、
機器の候補群から機器を選択する機器選択と、当該機器選択にて選択された機器への操作の候補群から操作を選択する操作選択とに応じて、機器を制御する機器制御システムであって、
利用者に装着され、生体情報を含む情報を検出するセンサ部と、
前記センサ部が検出した情報に基づいた前記利用者に対する推奨操作を、前記機器が未選択の状態で、前記機器の候補群と共に表示する表示部と、
を備える。
本発明によれば、センサ部が検出した情報に基づいて、利用者に推奨される推奨操作が、機器を選択するための候補群と共に表示される。その際、利用者が推奨操作を選択することで、機器の選択と操作内容の選択とをまとめて行えることとなり、機器の操作を容易に行うことができる。
本発明の実施形態1に係る機器制御システムの全体構成の一例を示す模式図である。 スマートグラスの構成の一例を示すブロック図である。 機器選択画面の一例を示す模式図である。 操作選択画面の一例を示す模式図である。 コントローラの構成の一例を示すブロック図である。 機器情報の一例を示す模式図である。 定義情報の一例を示す模式図である。 定義情報の一例を示す模式図である。 家電機器の構成の一例を示すブロック図である。 機器制御処理の一例を示すフローチャートである。 主要な構成の関連を説明するための関連図である。 本発明の実施形態2に係る機器制御システムの全体構成の一例を示す模式図である。 本発明の実施形態3に係る機器制御システムの全体構成の一例を示す模式図である。 本発明の実施形態4に係る機器制御システムの全体構成の一例を示す模式図である。 本発明の実施形態5に係る機器制御システムの全体構成の一例を示す模式図である。 本発明の実施形態の変形例に係る機器制御システムの全体構成の一例を示す模式図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付す。以下では、具体例として、本発明が住居内における機器制御システムに適用される場合について説明するが、後述するように、ビル内や施設内における機器制御システムにおいても同様に本発明を適用することができる。すなわち、以下に説明する実施形態は説明のためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素又は全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
(実施形態1)
図1は、本発明の実施形態1に係る機器制御システム1の全体構成の一例を示す模式図である。この機器制御システム1は、利用者がスマートグラス10を装着し、ジェスチャ(一例として、指先の動きによるジェスチャ)によって容易に家電機器30を操作可能とするシステムである。図示するように、機器制御システム1には、住居H内(宅内)にスマートグラス10と、コントローラ20と、複数の家電機器30とが配置されている。コントローラ20と家電機器30とは、例えば、有線LAN(Local Area Network)や無線LANからなる宅内ネットワーク80を介して通信可能に接続されている。また、スマートグラス10とコントローラ20とは、例えば、Bluetooth(登録商標)に代表される近距離無線通信により、通信可能に接続されている。
スマートグラス10は、ウェアラブルセンサ(ウェアラブルデバイス)の一例である。利用者は、眼鏡をかける要領でスマートグラス10を装着し、後述するように、表示される画像(後述する機器選択画面G1や操作選択画面G2)を視認して、ジェスチャによる操作入力(選択)を行う。なお、スマートグラス10は、1台に限られず、複数台でもよい。例えば、親子4人がそれぞれ自分のスマートグラス10を所有していてもよく、また、両親(父、母)が自分のスマートグラス10を所有し、2人の子供が何れかのスマートグラス10を使用できるようにしてもよい。
このスマートグラス10の構成の一例について、以下、図2のブロック図を参照して説明する。図示するように、スマートグラス10は、通信部11と、表示部12と、センサ部13と、データ記憶部14と、制御部15とを備える。
通信部11は、一例として、Bluetooth(登録商標)に代表される近距離無線通信方式が採用された通信ユニットであり、制御部15による制御の下、コントローラ20との間で必要となる情報を送受信する。なお、宅内ネットワーク80が無線LANである場合に、通信部11は、無線LANの通信ユニットであってもよい。通信部11は、センサ部13が検出したセンサ情報(後述する画像情報、動作情報、生体情報、又は、環境情報)を、コントローラ20に送信する。また、通信部11は、コントローラ20から送られる表示情報を受信する。
なお、スマートグラス10には、利用者がジェスチャを開始する際に押下すべき開始ボタンが配置されており、この開始ボタンが押されると、通信部11は、ジェスチャ(操作入力)の開始を通知する開始情報をコントローラ20に送信する。
表示部12は、一例として、カラー液晶パネルであり、通信部11が受信した表示情報に基づいた画像を表示する。つまり、表示部12は、コントローラ20から送られた表示情報に基づいた画像を表示する。例えば、表示部12は、図3Aに示すような機器選択画面G1を表示する。この機器選択画面G1には、部屋に応じて、機器(家電機器30)の候補群が表示されるようになっている。利用者は、この機器選択画面G1に表示される機器の候補群の中から、操作しようとする何れかの機器を選択する。なお、機器選択画面G1には、おすすめ設定RMも含まれている。このおすすめ設定RMは、スマートグラス10を装着した利用者に推奨される推奨情報であり、推奨される機器への推奨される操作内容を示している。また、おすすめ設定RMには、ジェスチャ(選択するために利用者が行うべきジェスチャ)の内容も含まれている。そして、利用者が、おすすめ設定RMを選んだ場合には、推奨情報に従って、機器の選択と操作内容の選択とをまとめて行うことができる。
この他にも、表示部12は、図3Bに示すような操作選択画面G2を表示する。操作選択画面G2は、機器選択画面G1において機器が選択された場合に表示される。この操作選択画面G2には、選択された機器に対する操作内容(設定内容)の候補群が表示されるようになっている。利用者は、この操作選択画面G2に表示される操作内容の候補群の中から、指示しようとする操作内容(変更しようとする設定内容)を選択する。なお、操作選択画面G2にも、おすすめ設定RMが含まれている。そのため、操作しようとする機器を選択した後にも、利用者に推奨される推奨操作(推奨される機器への推奨される操作)を選択することも可能となっている。
図2に戻って、センサ部13は、一例として、スマートグラス10を装着した利用者の動作情報、生体情報、又は、環境情報を検出する。なお、何れか1種類の情報に限られず、センサ部13は、複数種類の情報を検出してもよい。例えば、センサ部13は、3軸の加速度センサや3軸のジャイロセンサを備えており、利用者の動作情報(一例として、加速度や角速度の値)を検出する。なお、スマートグラス10は、カメラ(レンズや撮像素子)を備えており、このカメラもセンサ部13として機能する。例えば、センサ部13としてのカメラは、利用者が指先を動かすジェスチャを行った際に、指先の動きをトラッキングした画像情報を順次生成(検出)する。
また、センサ部13は、例えば、心拍センサ、脈拍センサ、体温センサ、又は、体表温センサを備えており、利用者の生体情報(一例として、心拍、脈拍、体温、又は、体表温の値)を検出する。この他にも、センサ部13は、例えば、温度センサや照度センサを備えており、利用者の環境情報(一例として、室温や照度の値)を検出する。
センサ部13は、センサ情報(画像情報、動作情報、生体情報、又は、環境情報)を、通信部11を通じてコントローラ20に送信する。なお、センサ部13は、画像情報や動作情報を、制御部15(後述するジェスチャ解析部151)にも供給する。
データ記憶部14は、一例として、不揮発性の半導体メモリから構成され、スマートグラス10の動作に必要な種々の情報を記憶する。例えば、データ記憶部14は、上述した図3Aの機器選択画面G1や図3Bの操作選択画面G2が表示された際に、利用者がすべきジェスチャの正解モデルを記憶する。つまり、データ記憶部14は、候補群中から何れかを選択するために対応付けられたジェスチャや、おすすめ設定RMを選択するために対応付けられたジェスチャの正解モデルを記憶する。
制御部15は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)などを備え、スマートグラス10全体を制御する。制御部15は、例えば、ジェスチャ解析部151として機能する。この機能は、CPUが、RAMをワークメモリとして用い、ROMに記憶されているプログラムを適宜実行することにより実現される。
ジェスチャ解析部151は、センサ部13が検出した画像情報に従って、利用者が行ったジェスチャを解析する。例えば、ジェスチャ解析部151は、順次更新される画像情報を基に、利用者の指先の動きをトラッキングし、利用者が行ったジェスチャを特定する。そして、ジェスチャ解析部151は、特定したジェスチャがデータ記憶部14に記憶された何れかのジェスチャ(正解モデル)と一致する場合に、一致したジェスチャが対応付けられている候補(おすすめ設定RMも含む)を示す指示情報を、通信部11を通じてコントローラ20に送信する。
なお、ジェスチャ解析部151が、このように画像情報を基にジェスチャを解析するのは、ウェアラブルセンサとして、スマートグラス10が用いられている場合の一例である。そのため、後述するように、他の種類のウェアラブルセンサが用いられる場合において、ジェスチャ解析部151は、センサ部13が検出した動作情報を基にジェスチャを解析する。例えば、ジェスチャ解析部151は、センサ部13が検出した動作情報(加速度や角速度の値)から指先や腕の変位をトラッキングし、利用者が行ったジェスチャを特定する。
図1に戻って、コントローラ20は、スマートグラス10から送られるセンサ情報に従って、スマートグラス10を装着した利用者に対して推奨するための推奨情報を決定する。そして、コントローラ20は、決定した推奨情報を含む表示情報をスマートグラス10に送信する。また、コントローラ20は、スマートグラス10から送られる指示情報に従って、家電機器30を制御する。
このコントローラ20の構成の一例について、以下、図4のブロック図を参照して説明する。図示するように、コントローラ20は、通信部21と、データ記憶部22と、制御部23とを備える。
通信部21は、一例として、Bluetooth(登録商標)に代表される近距離無線通信方式と、有線LANや無線LANの通信方式とが採用された複合通信ユニットであり、制御部23による制御の下、スマートグラス10との間、及び、家電機器30との間で、必要となる情報を送受信する。例えば、通信部21は、スマートグラス10から送られるセンサ情報、開始情報、及び、指示情報を受信する。また、通信部21は、表示情報をスマートグラス10に送信する。更に、通信部21は、宅内ネットワーク80を介して、家電機器30から送られる動作情報や電力情報を受信し、また、制御コマンドを家電機器30に送信する。
データ記憶部22は、例えば、不揮発性の半導体メモリから構成され、コントローラ20の動作に必要な種々の情報を記憶する。例えば、データ記憶部22は、家電機器30の情報を管理するための機器情報221や、推奨情報の条件と内容とを定めた定義情報222(222a,222b)を記憶する。
具体的な機器情報221の一例を図5に示す。図5の機器情報221には、識別番号、機器(家電機器30)、配置場所、動作状態、及び、電力量が含まれている。このような機器情報221は、例えば、表示情報を生成する際に使用される。
具体的な定義情報222(222a,222b)の一例を図6A,6Bに示す。図6Aの定義情報222aには、優先順位、機器(家電機器30)、条件(条件1,条件2,・・・)、及び、推奨操作が含まれている。なお、優先順位は、その項目(機器、条件、及び、推奨操作)の優先度を示しており、高い順に、レベルA,B,C,・・・と規定されている。例えば、レベルBの項目は、各レベルAの項目の条件を満たしていない場合に、対象となり得る。また、レベルCの項目は、更に各レベルBまでの項目の条件を満たしていない場合に、対象となり得る。そして、条件を最初に満たした項目の推奨操作が推奨情報となる。
図6Bの定義情報222bは、複数人の利用者が在室している場合に、その人員構成に応じて推奨操作を調整するために用いられる。例えば、スマートグラス10が複数台使用されている場合や、1台のスマートグラス10の使用だけでも、画像情報から他の利用者が在室していることが検出された場合に、この定義情報222bが用いられる。つまり、上述した定義情報222aで決定された推奨情報(推奨操作)が、定義情報222bを元に調整される。なお、利用者が単独で在室している場合には、定義情報222aで決定された推奨情報(推奨操作)がそのまま採用される。
図6Bの定義情報222bには、構成パターン(人員構成)、機器(家電機器30)、及び、調整内容が含まれている。なお、調整内容は、定義情報222aで決定された推奨情報(推奨操作)について調整する内容を示している。すなわち、定義情報222aと定義情報222bとにより、利用者の人員構成に応じて異なる内容の推奨操作(推奨情報)が定められていることになる。
この他にも、データ記憶部22は、利用者の嗜好を収集した嗜好情報(例えば、エアコン(冷房時)であれば、温度が低めで、微風が好みであるとか、照明であれば、電球色が好みであるとか)や、家電機器30が使用した電力量又は電気料金を集計した電力情報を記憶してもよい。
図4に戻って、制御部23は、CPU,ROM,RAMなどを備え、コントローラ20全体を制御する。制御部23は、機能的には、推奨処理部231と、管理部232と、機器制御部233とを備える。これらの機能は、CPUが、RAMをワークメモリとして用い、例えば、ROMに記憶されているプログラムを適宜実行することにより実現される。
推奨処理部231は、通信部21が受信したセンサ情報(管理部232から中継されたセンサ情報)に基づいて、利用者に対して推奨するための推奨情報を決定する。すなわち、推奨処理部231は、スマートグラス10から送られた画像情報、動作情報、生体情報、又は、環境情報から、定義情報222(定義情報222a,222b)により定められた推奨操作を決定する。
例えば、推奨処理部231は、生体情報(一例として、心拍、脈拍、体温、又は、体表温の値)を基に、定義情報222の項目における条件を満たした推奨操作を決定する。また。推奨処理部231は、環境情報(一例として、室温や照度の値)を基に、定義情報222の項目における条件を満たした推奨操作を決定する。なお、上述したように、複数人の利用者が在室している場合に、推奨処理部231は、定義情報222bを更に用いて、定義情報222aで決定された推奨操作を調整する。
この他にも、推奨処理部231は、機器情報221の動作状態(現在の動作状態)に基づいて、推奨操作を決定してもよい。また、データ記憶部22が、上述した嗜好情報を記憶している場合に、推奨処理部231は、この嗜好情報に基づいて、利用者に対して推奨するための推奨情報を決定してもよい。更に、データ記憶部22が、上述した電力情報を記憶している場合に、推奨処理部231は、この電力情報と、予め定められた目標電力量又は目標電気料金との比較に基づいて、利用者に対して推奨するための推奨操作を決定してもよい。
管理部232は、通信部21が受信した開始情報や指示情報を適宜保持して、操作時のシーケンス管理を行う。例えば、上述した開示ボタン(ジェスチャの開始時に利用者に押下される開始ボタン)の押下に伴いスマートグラス10から開始情報が送られると、管理部232は、シーケンスを第1段階(機器の選択段階)に移行する。この第1段階において、指示情報が送られ、その指示内容が機器の選択であれば、管理部232は、シーケンスを第2段階(操作の選択段階)に移行し、一方、その指示内容が推奨操作(おすすめ設定RM)の選択であれば、シーケンスを最終段階(機器の制御段階)に移行する。また、第2段階において、指示情報が送られ、その指示内容が操作の選択や推奨操作の選択であれば、管理部232は、シーケンスを最終段階に移行する。
また、管理部232は、通信部21が受信したセンサ情報を適宜保持し、推奨処理部231にセンサ情報を渡す(中継する)。そして、推奨処理部231が決定した推奨情報(推奨操作)を含めた表示情報を生成する。例えば、シーケンスが第1段階であれば、管理部232は、上述した機器選択画面G1を表す表示情報を生成する。また、シーケンスが第2段階であれば、管理部232は、上述した操作選択画面G2を表す表示情報を生成する。
更に、管理部232は、シーケンスが最終段階に移行すると、指示情報に応じた制御情報を、機器制御部233に通知する。また、管理部232は、機器制御部233から通知される家電機器30の動作情報や電力情報に応じて、データ記憶部22に記憶される機器情報221を更新する。
機器制御部233は、管理部232から制御情報が通知されると、対象となる家電機器30に応じた制御コマンドを生成する。そして、機器制御部233は、生成した制御コマンドを、通信部21を通じて対象の家電機器30に送信する。また、機器制御部233は、例えば、予め規定された情報収集タイミングになると、家電機器30に対して情報を要求し、応答して送信される動作情報や電力情報を受信する。そして、機器制御部233は、受信した動作情報や電力情報を管理部232に通知する。
図1に戻って、家電機器30は、住居H内の各部屋で使用される各種電化製品であり、一例として、エアコン、床暖房、照明、及び、テレビが含まれる。なお、家電機器30の種類は、これらに限られず、他に、IH調理器、空気清浄機、換気扇、及び、冷蔵庫を含んでもよい。
このような家電機器30の構成の一例について、以下、図7のブロック図を参照して説明する。図示するように、家電機器30は、通信部31と、データ記憶部32と、主機能部33と、制御部34と、を備える。
通信部31は、例えば、宅内ネットワーク80と接続するための通信アダプタであり、制御部34の制御の下、宅内ネットワーク80を介して、コントローラ20と通信を行う。なお、通信部31を、着脱可能な外付けの通信アダプタで構成してもよい。
データ記憶部32は、例えば、不揮発性の半導体メモリから構成され、家電機器30の状態を示す情報(一例として、動作状態、運転モード、及び、電力量)を記憶する。
主機能部33は、家電機器30本来の機能(例えば、エアコンであれば、冷房や暖房の空調機能)を実現するための構成であり、制御部34により制御される。
制御部34は、CPU,RAM,ROMなどを備え、家電機器30全体を制御する。制御部34は、機能的には、データ処理部341と、制御実行部342とを備える。これらの機能は、CPUが、RAMをワークメモリとして用い、ROMやデータ記憶部32に記憶されているプログラムを適宜実行することにより実現される。
データ処理部341は、例えば、家電機器30が備えるセンサによる計測値や、動作状態や設定状態の監視結果から、逐次、データ記憶部32に記憶される情報を更新する。そして、データ処理部341は、コントローラ20からの要求に応じて、データ記憶部32に記憶される情報をコントローラ20に送信する。
制御実行部342は、コントローラ20から送られた制御コマンドを通信部31にて受信すると、受信した制御コマンドに基づいた制御を、主機能部33に実行させる。
以下、本発明の実施形態1に係る機器制御システム1の動作について、図8を参照して説明する。図8は、機器制御処理の一例を示すフローチャートである。この機器制御処理は、例えば、スマートグラス10の開始ボタンが利用者に押下された際に開始される。なお、開始ボタンの押下に伴う開始情報は、スマートグラス10からコントローラ20に送信されているものとする。
まず、スマートグラス10は、センサ情報をコントローラ20に送信する(ステップS401)。つまり、センサ部13は、スマートグラス10を装着した利用者の動作情報、生体情報、又は、環境情報を検出する。そして、通信部11は、このセンサ情報をコントローラ20に送信する。
コントローラ20は、送られたセンサ情報を基に、推奨操作を決定する(ステップS402)。つまり、推奨処理部231は、センサ情報に基づいて、利用者に対して推奨するための推奨情報を決定する。すなわち、推奨処理部231は、スマートグラス10から送られた画像情報、動作情報、生体情報、又は、環境情報から、定義情報222(定義情報222a,222b)により定められた推奨操作を決定する。
例えば、推奨処理部231は、生体情報(一例として、心拍、脈拍、体温、又は、体表温の値)を基に、定義情報222の項目における条件を満たした推奨操作を決定する。また。推奨処理部231は、環境情報(一例として、室温や照度の値)を基に、定義情報222の項目における条件を満たした推奨操作を決定する。なお、複数人の利用者が在室している場合に、推奨処理部231は、定義情報222bを更に用いて、定義情報222aで決定された推奨操作を調整する。この他にも、データ記憶部22が、嗜好情報を記憶している場合に、推奨処理部231は、この嗜好情報に基づいて、利用者に対して推奨するための推奨情報を決定してもよい。また、データ記憶部22が、電力情報を記憶している場合に、推奨処理部231は、この電力情報と、予め定められた目標電力量又は目標電気料金との比較に基づいて、利用者に対して推奨するための推奨操作を決定してもよい。
コントローラ20は、表示情報を生成して、スマートグラス10に送信する(ステップS403)。つまり、管理部232は、ステップS402にて決定された推奨操作を含めた表示情報を生成する。なお、管理部232は、シーケンス管理を行っており、例えば、シーケンスが第1段階であれば、機器選択画面G1を表す表示情報を生成し、一方、シーケンスが第2段階であれば、操作選択画面G2を表す表示情報を生成する。そして、通信部21は、この表示情報をスマートグラス10に送信する。
スマートグラス10は、送られた表示情報に基づいた画面を表示する(ステップS404)。すなわち、表示部12は、図3Aに示すような機器選択画面G1や、図3Bに示すような操作選択画面G2を表示する。
このような画面を視認した利用者が、ジェスチャを行うと、スマートグラス10は、そのジェスチャを解析する(ステップS405)。つまり、ジェスチャ解析部151は、センサ部13が検出した画像情報に従って、利用者が行ったジェスチャを解析する。例えば、ジェスチャ解析部151は、順次更新される画像情報を基に、利用者の指先の動きをトラッキングし、利用者が行ったジェスチャを特定する。なお、ジェスチャ解析部151が、このように画像情報を基にジェスチャを解析するのは、ウェアラブルセンサとして、スマートグラス10が用いられている場合の一例である。そのため、後述するように、他の種類のウェアラブルセンサが用いられる場合において、ジェスチャ解析部151は、センサ部13が検出した動作情報を基にジェスチャを解析する。例えば、ジェスチャ解析部151は、センサ部13が検出した動作情報(加速度や角速度の値)から指先や腕の変位をトラッキングし、利用者が行ったジェスチャを特定する。
ステップS405にて解析された利用者のジェスチャが、正解モデルと一致する場合に、スマートグラス10は、指示情報をコントローラ20に送信する(ステップS406)。つまり、ジェスチャ解析部151は、特定したジェスチャがデータ記憶部14に記憶された何れかのジェスチャ(正解モデル)と一致する場合に、一致したジェスチャが対応付けられている候補(おすすめ設定RMも含む)を示す指示情報を、通信部11を通じてコントローラ20に送信する。
コントローラ20は、送られた指示情報が操作決定であるか否かを判別する(ステップS407)。つまり、シーケンス管理を行っている管理部232は、シーケンスが第1段階において、指示情報が推奨操作(おすすめ設定RM)の選択である場合、及び、シーケンスが第2段階において、指示情報が操作の選択や推奨操作の選択である場合に、操作決定であると判別する。
コントローラ20は、送られた指示情報が操作決定でないと判別すると(ステップS407;No)、上述したステップS403に処理を戻す。このステップS403では、シーケンス管理に応じた表示画像が生成され、再度、スマートグラス10に送信される。
一方、送られた指示情報が操作決定であると判別した場合に(ステップS407;Yes)、コントローラ20は、操作コマンドを生成して家電機器30に送信する(ステップS408)。つまり、機器制御部233は、管理部232から制御情報が通知されると、対象となる家電機器30に応じた制御コマンドを生成する。そして、通信部21は、この操作コマンドを対象の家電機器30に送信する。
家電機器30は、送られた制御コマンドを実行する(ステップS409)。つまり、制御実行部342は、コントローラ20から送られた制御コマンドを通信部31にて受信すると、受信した制御コマンドに基づいた制御を、主機能部33に実行させる。
このような機器制御処理において、スマートグラス10の表示部12には、センサ部13が検出したセンサ情報に基づいて、利用者に推奨される推奨操作が、機器を選択するための候補群と共に表示される。その際、利用者が推奨操作を選択することで、機器の選択と操作内容の選択とをまとめて行えることとなり、機器の操作を容易に行うことができる。
このような機器制御システム1(より詳細には、スマートグラス10、及び、コントローラ20)における主要な構成の関連を図9を参照して説明する。
図9の関連図に示すように、センサ部13にて検出されたセンサ情報(画像情報、動作情報、生体情報、又は、環境情報)は、管理部232に送信される。管理部232に送信されたセンサ情報は、推奨処理部231に送信される。推奨処理部231は、センサ情報を基に推奨情報(推奨操作)を生成して、管理部232に送信する。そして、管理部232は、推奨情報を含んだ表示情報を表示部12に送信する。
また、センサ部13にて検出されたセンサ情報(画像情報や動作情報)は、ジェスチャ解析部151にも送信される。ジェスチャ解析部151は、センサ情報を基に利用者が行ったジェスチャを解析する。そして、利用者が行ったジェスチャが正解モデルと一致すると、指示情報が管理部232に送信される。
送信された指示情報が操作決定であれば、管理部232は、制御情報を機器制御部233に送信する。なお、機器制御部233は、送られた制御情報を基に、制御コマンドを生成して、対象の家電機器30に送信する。また、機器制御部233は、家電機器30から送られた動作情報を、管理部232に送信する。
このように、主要な構成の関連が維持されるのであれば、これら主要な構成がどのデバイスに存在していても、上述した動作が可能となる。そのため、以下に説明するように、機器制御システム1は、異なるデバイス構成によっても実現可能である。
(実施形態2)
図10は、本発明の実施形態2に係る機器制御システム2の全体構成の一例を示す模式図である。この機器制御システム2は、一例として、指輪型のセンサ端末16が加えられている点で、図1の機器制御システム1と異なる。
センサ端末16は、ウェアラブルセンサの一例である。利用者は、ジェスチャを行う指に、センサ端末16を装着する。このセンサ端末16は、上述した図9の関連図におけるセンサ部13を備えている。例えば、センサ部13は、3軸の加速度センサや3軸のジャイロセンサを備えており、利用者の動作情報(一例として、加速度や角速度の値)を検出する。また、センサ端末16は、一例として、Bluetooth(登録商標)に代表される近距離無線通信方式が採用された通信ユニットも備えており、センサ部13が検出した動作情報をスマートグラス10に送信する。
スマートグラス10は、図9の関連図におけるジェスチャ解析部151を備えており、センサ端末16から送られた動作情報(つまり、センサ部13が検出した動作情報)を基に、利用者が行ったジェスチャの解析を行う。例えば、ジェスチャ解析部151は、センサ部13が検出した動作情報(加速度や角速度の値)から指先や腕の変位をトラッキングし、利用者が行ったジェスチャを特定する。そして、ジェスチャ解析部151は、特定したジェスチャがデータ記憶部14に記憶された何れかのジェスチャ(正解モデル)と一致する場合に、一致したジェスチャが対応付けられている候補(おすすめ設定RMも含む)を示す指示情報を、通信部11を通じてコントローラ20に送信する。
また、スマートグラス10は、図9の関連図における表示部12を備えており、コントローラ20から送られた表示情報に基づいた画面(例えば、機器選択画面G1や操作選択画面G2)を表示する。
コントローラ20は、図1の機器制御システム1におけるコントローラ20と同様である。つまり、図9の関連図における推奨処理部231、管理部232、及び、機器制御部233を備えている。
すなわち、このような機器制御システム2においても、図9の関連図における主要な構成の関連が維持されており、利用者は、家電機器30の操作を容易に行うことができる。
(実施形態3)
図11は、本発明の実施形態3に係る機器制御システム3の全体構成の一例を示す模式図である。この機器制御システム3は、一例として、スマートフォン17が加えられている点で、図10の機器制御システム2と異なる。
センサ端末16は、図10の機器制御システム2におけるセンサ端末16と同様である。つまり、図9の関連図におけるセンサ部13を備えている。なお、機器制御システム3におけるセンサ端末16は、センサ部13が検出した動作情報をスマートフォン17に送信する。
スマートフォン17は、図9の関連図におけるジェスチャ解析部151を備えており、センサ端末16から送られた動作情報(つまり、センサ部13が検出した動作情報)を基に、利用者が行ったジェスチャの解析を行う。例えば、ジェスチャ解析部151は、センサ部13が検出した動作情報(加速度や角速度の値)から指先や腕の変位をトラッキングし、利用者が行ったジェスチャを特定する。そして、ジェスチャ解析部151は、特定したジェスチャが自身のデータ記憶部に記憶された何れかのジェスチャ(正解モデル)と一致する場合に、一致したジェスチャが対応付けられている候補(おすすめ設定RMも含む)を示す指示情報を、通信ユニットを通じてコントローラ20に送信する。
スマートグラス10は、図9の関連図における表示部12を備えており、コントローラ20から送られた表示情報に基づいた画面(例えば、機器選択画面G1や操作選択画面G2)を表示する。
コントローラ20は、図1の機器制御システム1と同様である。つまり、図9の関連図における推奨処理部231、管理部232、及び、機器制御部233を備えている。
すなわち、このような機器制御システム3においても、図9の関連図における主要な構成の関連が維持されており、利用者は、家電機器30の操作を容易に行うことができる。
(実施形態4)
図12は、本発明の実施形態4に係る機器制御システム4の全体構成の一例を示す模式図である。この機器制御システム4は、スマートグラス10の代わりにスマートフォン17を備えている点で、図10の機器制御システム2と異なる。
センサ端末16は、図10の機器制御システム2におけるセンサ端末16と同様である。つまり、図9の関連図におけるセンサ部13を備えている。なお、機器制御システム4におけるセンサ端末16は、センサ部13が検出した動作情報をスマートフォン17に送信する。
スマートフォン17は、図9の関連図におけるジェスチャ解析部151を備えており、センサ端末16から送られた動作情報(つまり、センサ部13が検出した動作情報)を基に、利用者が行ったジェスチャの解析を行う。例えば、ジェスチャ解析部151は、センサ部13が検出した動作情報(加速度や角速度の値)から指先や腕の変位をトラッキングし、利用者が行ったジェスチャを特定する。そして、ジェスチャ解析部151は、特定したジェスチャが自身のデータ記憶部に記憶された何れかのジェスチャ(正解モデル)と一致する場合に、一致したジェスチャが対応付けられている候補(おすすめ設定RMも含む)を示す指示情報を、通信ユニットを通じてコントローラ20に送信する。
また、スマートフォン17は、図9の関連図における表示部12を備えており、コントローラ20から送られた表示情報に基づいた画面(例えば、機器選択画面G1や操作選択画面G2)を表示する。
コントローラ20は、図1の機器制御システム1におけるコントローラ20と同様である。つまり、図9の関連図における推奨処理部231、管理部232、及び、機器制御部233を備えている。なお、管理部232は、生成した表示情報を、スマートフォン17に送信する。
すなわち、このような機器制御システム4においても、図9の関連図における主要な構成の関連が維持されており、利用者は、家電機器30の操作を容易に行うことができる。
(実施形態5)
図13は、本発明の実施形態5に係る機器制御システム5の全体構成の一例を示す模式図である。この機器制御システム5は、スマートグラス10の代わりに一例としてスマートウォッチ18を備えている点で、図1の機器制御システム1と異なる。
スマートウォッチ18は、ウェアラブルセンサの一例である。利用者は、スマートウォッチ18をジェスチャを行う手(腕)に装着する。スマートウォッチ18は、上述した図9の関連図におけるセンサ部13を備えている。例えば、センサ部13は、3軸の加速度センサや3軸のジャイロセンサを備えており、利用者の動作情報(一例として、加速度や角速度の値)を検出する。
また、スマートウォッチ18は、図9の関連図におけるジェスチャ解析部151を備えており、センサ部13が検出した動作情報を基に、利用者が行ったジェスチャの解析を行う。例えば、ジェスチャ解析部151は、センサ部13が検出した動作情報(加速度や角速度の値)から指先や腕の変位をトラッキングし、利用者が行ったジェスチャを特定する。そして、ジェスチャ解析部151は、特定したジェスチャが自身のデータ記憶部に記憶された何れかのジェスチャ(正解モデル)と一致する場合に、一致したジェスチャが対応付けられている候補(おすすめ設定RMも含む)を示す指示情報を、通信ユニットを通じてコントローラ20に送信する。
また、スマートウォッチ18は、図9の関連図における表示部12を備えており、コントローラ20から送られた表示情報に基づいた画面(例えば、機器選択画面G1や操作選択画面G2)を表示する。
コントローラ20は、図1の機器制御システム1におけるコントローラ20と同様である。つまり、図9の関連図における推奨処理部231、管理部232、及び、機器制御部233を備えている。なお、管理部232は、生成した表示情報を、スマートウォッチ18に送信する。
すなわち、このような機器制御システム5においても、図9の関連図における主要な構成の関連が維持されており、利用者は、家電機器30の操作を容易に行うことができる。
このように、異なるデバイス構成の機器制御システム1〜5によっても、図9の関連図における主要な構成の関連が維持される。なお、機器制御システム1〜5におけるデバイス構成が同じでも、図9の主要な構成の一部が別のデバイスに備えられていてもよい。
例えば、上述した本発明の実施形態2に係る機器制御システム2では、図9の関連図におけるジェスチャ解析部151が、スマートグラス10に備えられている場合について説明したが、他のデバイスに備えられていてもよい。一例として、ジェスチャ解析部151が、コントローラ20に備えられていても、図9の関連図における主要な構成の関連が維持されるのであれば、同様に、利用者は、家電機器30の操作を容易に行うことができる。
(実施形態の変形例)
上記の実施形態1〜5に係る機器制御システム1〜5では、住宅H内にコントローラ20を配置する場合について説明したが、このコントローラ20に相当する装置を住宅H外に配置するようにしてもよい。例えば、インターネット上のサーバ60をコントローラ20として機能させてもよい。
一例として、図14に示す機器制御システム6では、住宅H内に、コントローラ20の代わりに、ルータ50が配置されている。一方、宅外ネットワーク90上には、上述したコントローラ20として機能させるサーバ60が配置されている。この場合、ルータ50とサーバ60とが協業してコントローラ20の役割を果たす。
この場合も、図9の関連図における主要な構成の関連が維持され、利用者は、家電機器30の操作を容易に行うことができる。
(他の実施形態)
上記の実施形態では、住居H内における機器制御システム1〜6について説明したが、本願発明は、ビル内や施設内における機器制御システム1〜6においても同様に適用することができる。
また、上記の実施形態では、専用のコントローラ20を用いる場合について説明したが、コントローラ20の動作を規定する動作プログラムを既存のパーソナルコンピュータや情報端末機器などに適用することで、当該パーソナルコンピュータなどを本発明に係るコントローラ20として機能させることも可能である。
また、このようなプログラムの配布方法は任意であり、例えば、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、メモリカードなどのコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネットなどの通信ネットワークを介して配布してもよい。
本発明は、広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
本発明は、機器の操作を容易に行うことのできる機器制御システムに採用され得る。
1〜6 機器制御システム、10 スマートグラス、11,21,31 通信部、12 表示部、13 センサ部、14,22,32 データ記憶部、15,23,34 制御部、151 ジェスチャ解析部、16 センサ端末、17 スマートフォン、18 スマートウォッチ、20 コントローラ、221 機器情報、222(222a,222b) 定義情報、231 推奨処理部、232 管理部、233 機器制御部、30 家電機器、33 主機能部、341 データ処理部、342 制御実行部、50 ルータ、60 サーバ、80 宅内ネットワーク、90 宅外ネットワーク

Claims (9)

  1. 機器の候補群から機器を選択する機器選択と、当該機器選択にて選択された機器への操作の候補群から操作を選択する操作選択とに応じて、機器を制御する機器制御システムであって、
    利用者に装着され、生体情報を含む情報を検出するセンサ部と、
    前記センサ部が検出した情報に基づいた前記利用者に対する推奨操作を、前記機器が未選択の状態で、前記機器の候補群と共に表示する表示部と、
    を備える機器制御システム。
  2. 前記センサ部は、画像情報、動作情報、及び、環境情報の何れかを含む情報を更に検出し、
    前記センサ部が検出した情報に基づいて、前記利用者に対して推奨される機器への推奨される操作内容を示す推奨操作を決定する推奨処理部を更に備え、
    前記表示部は、前記推奨処理部が決定した推奨操作を表示する、
    請求項1に記載の機器制御システム。
  3. 利用者の人員構成に応じて異なる内容の推奨操作を定めた定義情報を記憶する記憶部を更に備え、
    前記推奨処理部は、前記センサ部が検出した情報に基づいて、在室している人員構成を特定し、特定した人員構成と前記定義情報とに従って、前記センサ部を装着した利用者に対する推奨操作を決定する、
    請求項2に記載の機器制御システム。
  4. 前記表示部に表示される前記推奨操作には、予め定められたジェスチャが対応付けられており、
    前記センサ部が検出した画像情報又は動作情報に基づいて、前記利用者が行ったジェスチャを解析するジェスチャ解析部と、
    前記解析されたジェスチャが前記推奨操作に対応付けられているジェスチャと一致した場合に、前記推奨操作に応じた動作を対象となる機器に実行させる機器制御部と、を更に備える、
    請求項2に記載の機器制御システム。
  5. 前記センサ部は、前記生体情報として、脈拍、心拍、体温、及び、体表温の何れかを検出し、
    前記推奨処理部は、前記センサ部が検出した脈拍、心拍、体温、及び、体表温の何れかに基づいて、前記利用者に対して推奨される空調機器への操作内容を示す推奨操作を決定する、
    請求項2に記載の機器制御システム。
  6. 前記センサ部は、前記環境情報として、照度を検出し、
    前記推奨処理部は、前記センサ部が検出した照度に基づいて、前記利用者に対して推奨される照明機器への操作内容を示す推奨操作を決定する、
    請求項2に記載の機器制御システム。
  7. 利用者に応じて異なる嗜好を収集した嗜好情報を記憶する記憶部を更に備え、
    前記推奨処理部は、前記嗜好情報に基づいて、前記センサ部を装着した利用者に対して推奨される推奨操作を決定する、
    請求項2に記載の機器制御システム。
  8. 前記機器の動作状況を収集した機器情報を記憶する記憶部を更に備え、
    前記推奨処理部は、前記機器情報に応じた現在の動作状態に基づいて、前記利用者に対する推奨操作を決定する、
    請求項2に記載の機器制御システム。
  9. 前記機器が使用した電力量又は電気料金を集計した電力情報を記憶する記憶部を更に備え、
    前記推奨処理部は、前記電力情報と、予め定められた目標電力量又は目標電気料金との比較に基づいて、前記利用者に対する推奨操作を決定する、
    請求項2に記載の機器制御システム。
JP2018527291A 2016-07-12 2016-07-12 機器制御システム Active JP6685397B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070570 WO2018011892A1 (ja) 2016-07-12 2016-07-12 機器制御システム

Publications (2)

Publication Number Publication Date
JPWO2018011892A1 JPWO2018011892A1 (ja) 2018-09-06
JP6685397B2 true JP6685397B2 (ja) 2020-04-22

Family

ID=60952919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527291A Active JP6685397B2 (ja) 2016-07-12 2016-07-12 機器制御システム

Country Status (5)

Country Link
US (1) US10754161B2 (ja)
EP (1) EP3486746B1 (ja)
JP (1) JP6685397B2 (ja)
CN (1) CN109416573B (ja)
WO (1) WO2018011892A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019213855A1 (zh) * 2018-05-09 2019-11-14 Fang Chao 设备控制方法和***
JP7496674B2 (ja) * 2019-08-15 2024-06-07 三菱電機株式会社 設備機器システム及び設備機器制御方法
KR102658691B1 (ko) * 2019-08-28 2024-04-17 엘지전자 주식회사 정보 제공 방법 및 정보 제공 장치
CN111427287B (zh) * 2020-02-20 2021-11-16 珠海格力电器股份有限公司 一种智能厨房控制方法、装置、电子设备及存储介质
EP3876025A1 (de) * 2020-03-02 2021-09-08 Siemens Aktiengesellschaft Anordnung zur hinderniserkennung und kollisionswarnung
CN112181152B (zh) * 2020-11-13 2023-05-26 幻蝎科技(武汉)有限公司 基于mr眼镜的广告推送管理方法、设备及应用
JP7514747B2 (ja) 2020-12-02 2024-07-11 東芝ライフスタイル株式会社 情報処理システム、機器コントローラ、およびプログラム
KR20220169330A (ko) * 2021-06-18 2022-12-27 삼성전자주식회사 웨어러블 장치 및 그 제어 방법
KR20240035251A (ko) * 2022-09-08 2024-03-15 삼성전자주식회사 전자 장치 및 이의 제어 방법

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP2004008471A (ja) 2002-06-06 2004-01-15 Seiko Instruments Inc 行動状況モニター装置、行動状況解析装置および行動状況解析システム
JP4516042B2 (ja) * 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
JP4961914B2 (ja) * 2006-09-08 2012-06-27 ソニー株式会社 撮像表示装置、撮像表示方法
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
JP2010262510A (ja) * 2009-05-08 2010-11-18 Nippon Telegr & Teleph Corp <Ntt> センサネットワークシステム、データ処理装置、およびデータ処理方法
JP5263833B2 (ja) * 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
JP5440080B2 (ja) 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
JP2011155957A (ja) * 2010-02-04 2011-08-18 Nippon Telegr & Teleph Corp <Ntt> 状態測定システムおよび方法
US9575561B2 (en) * 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
JP2012146216A (ja) * 2011-01-13 2012-08-02 Nikon Corp 電子機器および電子機器の制御プログラム
US9183588B2 (en) * 2011-01-20 2015-11-10 Ebay, Inc. Three dimensional proximity recommendation system
WO2013049248A2 (en) * 2011-09-26 2013-04-04 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
JP2013069224A (ja) * 2011-09-26 2013-04-18 Sony Corp 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
JP5318172B2 (ja) * 2011-09-30 2013-10-16 株式会社東芝 電子機器およびプログラム
US20130211843A1 (en) * 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
JP5938977B2 (ja) * 2012-03-23 2016-06-22 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
US8948832B2 (en) * 2012-06-22 2015-02-03 Fitbit, Inc. Wearable heart rate monitor
KR20140094125A (ko) * 2013-01-21 2014-07-30 삼성전자주식회사 디스플레이 장치 및 이를 이용한 사용자 맞춤형 정보 제공방법
JP6108926B2 (ja) * 2013-04-15 2017-04-05 オリンパス株式会社 ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法
KR20140127527A (ko) * 2013-04-25 2014-11-04 삼성전자주식회사 디스플레이장치 및 디스플레이장치를 이용한 추천정보 제공 방법
JP5562468B1 (ja) * 2013-04-26 2014-07-30 三菱電機株式会社 コントローラ、エネルギーマネジメントシステム、遠隔制御方法、及び、プログラム
JP6210272B2 (ja) * 2013-06-26 2017-10-11 セイコーエプソン株式会社 入力装置、脈拍数算出装置および入力方法
JP6373849B2 (ja) * 2013-08-28 2018-08-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America プログラム、端末装置及び情報提供システムにおける情報提供方法
KR102231105B1 (ko) * 2013-09-05 2021-03-24 삼성전자주식회사 제어 장치 및 그 제어 방법
JP2015122023A (ja) * 2013-12-25 2015-07-02 セイコーエプソン株式会社 ウェアラブル機器及びウェアラブル機器の制御方法
KR102135586B1 (ko) * 2014-01-24 2020-07-20 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20150101703A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 디스플레이 장치 및 제스처 입력 처리 방법
US10409382B2 (en) * 2014-04-03 2019-09-10 Honda Motor Co., Ltd. Smart tutorial for gesture control system
US10222868B2 (en) * 2014-06-02 2019-03-05 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
JP6447917B2 (ja) * 2014-08-06 2019-01-09 パナソニックIpマネジメント株式会社 手首装着型の入力装置
US9467795B2 (en) * 2014-09-11 2016-10-11 Motorola Solutions, Inc. Method and apparatus for application optimization and collaboration of wearable devices
CN105607253B (zh) * 2014-11-17 2020-05-12 精工爱普生株式会社 头部佩戴型显示装置以及控制方法、显示***
CN104867311A (zh) * 2015-05-14 2015-08-26 连宁 通过第三方终端配置无线遥控终端的方法和装置

Also Published As

Publication number Publication date
EP3486746B1 (en) 2024-01-03
US20190129176A1 (en) 2019-05-02
WO2018011892A1 (ja) 2018-01-18
CN109416573B (zh) 2022-04-12
US10754161B2 (en) 2020-08-25
CN109416573A (zh) 2019-03-01
JPWO2018011892A1 (ja) 2018-09-06
EP3486746A1 (en) 2019-05-22
EP3486746A4 (en) 2019-06-26

Similar Documents

Publication Publication Date Title
JP6685397B2 (ja) 機器制御システム
KR102553299B1 (ko) 데이터 학습 서버 및 이의 학습 모델 생성 및 이용 방법
KR101902864B1 (ko) 스마트 워치의 시계 화면 디자인 생성 방법 및 그 장치
US10146194B2 (en) Building lighting and temperature control with an augmented reality system
KR102037416B1 (ko) 외부 기기 관리 방법, 외부 기기의 동작 방법, 호스트 단말, 관리 서버 및 외부 기기
CN105571048B (zh) 群动态环境控制
CN101681494B (zh) 便携式电子设备
US20130204408A1 (en) System for controlling home automation system using body movements
EP3699507B1 (en) Air-conditioning control device
US10318121B2 (en) Control method
JP5988195B2 (ja) 機器制御装置、機器制御システムおよびプログラム
CN105960666A (zh) 用于从智能设备获取感官信息的智能可穿戴设备和方法
KR20160136657A (ko) 전자 장치가 외부 기기를 제어하는 방법 및 상기 전자 장치
KR20210067604A (ko) 인공 지능을 이용한 주방 환경의 통합 관리 방법 및 그 시스템
WO2016001974A1 (ja) 空調システム
KR20160075079A (ko) 다른 전자 장치를 제어하는 전자 장치 및 제어 방법
KR20170108285A (ko) 증강현실 기술을 이용한 실내장치 제어시스템 및 방법
JP6707141B2 (ja) 機器制御装置、機器制御システム、機器制御方法及びプログラム
CN113932425B (zh) 用于控制空调的方法及装置、空调
JP6257109B2 (ja) リモートコントローラ、サーバ、プログラム及び情報処理方法
JP6362677B2 (ja) コントローラ、ホームシステム、環境制御方法、及び、プログラム
EP3444704A1 (en) System for adjusting an audio/visual device based on health and wellness data
JP7432890B2 (ja) 照明制御システムおよび照明制御方法
JP5208146B2 (ja) 調停サーバ、調停方法および調停プログラム
JP2019115028A (ja) 機器制御方法、機器制御装置及び機器制御システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200331

R150 Certificate of patent or registration of utility model

Ref document number: 6685397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250