JP2018536222A - スマートデバイス制御方法および装置 - Google Patents

スマートデバイス制御方法および装置 Download PDF

Info

Publication number
JP2018536222A
JP2018536222A JP2018518410A JP2018518410A JP2018536222A JP 2018536222 A JP2018536222 A JP 2018536222A JP 2018518410 A JP2018518410 A JP 2018518410A JP 2018518410 A JP2018518410 A JP 2018518410A JP 2018536222 A JP2018536222 A JP 2018536222A
Authority
JP
Japan
Prior art keywords
smart
image
smart device
user
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018518410A
Other languages
English (en)
Other versions
JP6423129B1 (ja
Inventor
華一君 劉
華一君 劉
珂 呉
珂 呉
鵬飛 張
鵬飛 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Inc
Original Assignee
Xiaomi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Inc filed Critical Xiaomi Inc
Application granted granted Critical
Publication of JP6423129B1 publication Critical patent/JP6423129B1/ja
Publication of JP2018536222A publication Critical patent/JP2018536222A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47CCHAIRS; SOFAS; BEDS
    • A47C21/00Attachments for beds, e.g. sheet holders, bed-cover holders; Ventilating, cooling or heating means in connection with bedsteads or mattresses
    • A47C21/003Lighting, radio, telephone or the like connected to the bedstead
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47CCHAIRS; SOFAS; BEDS
    • A47C31/00Details or accessories for chairs, beds, or the like, not provided for in other groups of this subclass, e.g. upholstery fasteners, mattress protectors, stretching devices for mattress nets
    • A47C31/008Use of remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Position Input By Displaying (AREA)

Abstract

本開示の実施例は、スマートデバイス制御方法および装置に関し、スマートホーム分野に属する。前記方法は、スマートマットレスが中継デバイスを介して送信した画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定し、前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスを送信する。
【選択図】図2

Description

本願は、出願番号201510792231.5、出願日2015年11月17日の中国特許出願に基づいて提出され、当該中国特許出願の優先権を出張し、当該中国特許出願のすべての内容が本願に援用される。
本開示の実施例は、スマートホーム分野に関し、特に、スマートデバイス制御方法および装置に関する。
スマートホーム技術の発展に伴い、ますます多くのスマートデバイスは、ユーザーの生活に入って、同時にユーザーの生活に影響を与える。ユーザーがスマートデバイスに対する煩雑な操作から逃し、ユーザーがスマートデバイスをを使用しやすいように、スマートデバイス制御方法が必要となる。現在、関連技術において、ユーザーは、基本的にスマートデバイスのリモコンによりスマートデバイスを制御し、例えば、当該スマートデバイスがスマートエアコンである場合、ユーザーは、スマートエアコンのリモコンにより、スマートエアコンを制御して、オンにしたり、オフにしたり、温度を上げたり、温度下げたりするなどの操作を行うこことができる。
関連技術の問題を克服するために、本開示の実施例は、スマートデバイス制御方法および装置を提供する。
本開示の実施例の第一の態様によるスマートデバイス制御方法は、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定することと、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信することとを含む。
第一の態様と組み合わせて、前記第一の態様の第一のの可能な実現形態において、前記第一の画像に基づいてデバイス識別子情報を確定することは
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記デバイス識別子情報を確定することとを含む。
第一の態様の第一の可能な実現形態と組み合わせて、前記第一の態様の第二の可能な実現形態において、前記第一の画像から前記ユーザーの視線方向を確定することは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む。
第一の態様の第二の可能な実現形態と組み合わせて、前記第一の態様の第三の可能な実現形態において、前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定することとを含む。
第一の態様の第一の可能な実現形態と組み合わせて、前記第一の態様の第四の可能な実現形態において、前記視線方向に基づいて前記デバイス識別子情報を確定することは、
前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定すること、または、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定することとを含む。
本開示の実施例の第二の態様によるスマートデバイス制御方法は、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記ユーザーの眼球情報を確定することと、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信することとを含む。
第二の態様と組み合わせて、前記第二の態様の第一の可能な実現形態において、前記第一の画像および前記眼球情報を前記中継デバイスに送信した後、さらに、
中継デバイスから送信された、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
前記第二の画像を前記中継デバイスに送信することとを含む。
本開示の実施例の第三の態様によるスマートデバイス制御方法は、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
第三の態様と組み合わせて、前記第三の態様の第一の可能な実現形態において、前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
第三の態様の第一の可能な実現形態と組み合わせて、前記第三の態様の第二の可能な実現形態において、前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
第三の態様の第一の可能な実現形態と組み合わせて、前記第三の態様の第三の可能な実現形態において、前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
前記デバイス識別子情報が第二の画像である場合、前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
第三の態様の第一の可能な実現形態と組み合わせて、前記第三の態様の第四の可能な実現形態において、前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
前記デバイス識別子情報が前記ユーザーの視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
第三の態様の第一の可能な実現形態と組み合わせて、前記第三態様の第五の可能な実現形態において、前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む。
本開示の実施例の第四の態様によるスマートデバイス制御方法は、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
第四の態様と組み合わせて、前記第四の態様の第一の可能な実現形態において、前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
第四の態様の第一の可能な実現形態と組み合わせて、前記第四の態様の第二の可能な実現形態において、前記第一の画像から前記ユーザーの視線方向を確定することは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む。
第四の態様の第二の可能な実現形態と組み合わせて、前記第四の態様の第三の可能な実現形態において、前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定することとを含む。
第四の態様の第一の可能な実現形態と組み合わせて、前記第四の態様の第四の可能な実現形態において、前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定することと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
第四の態様の第一の可能な実現形態と組み合わせて、前記第四の態様の第五の可能な実現形態において、前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信することと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することとを含む。
第四の態様の第五の可能な実現形態と組み合わせて、前記第四の態様の第六の可能な実現形態において、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
第四の態様の第五の可能な実現形態と組み合わせて、前記第四の態様の第七の可能な実現形態において、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
第四の態様の第一の可能な実現形態と組み合わせて、前記第四の態様の第八種の可能な実現形態において、前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む。
本開示の実施例の第五の態様によるスマートデバイス制御装置は、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される画像収集モジュールと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される送信モジュールとを含む。
第五の態様と組み合わせて、前記第五の態様の第一の可能な実現形態において、前記確定モジュールは、
前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
前記視線方向に基づいて前記デバイス識別子情報を確定するように構成される第二の確定ユニットとを含む。
第五の態様の第一の可能な実現形態と組み合わせて、前記第五の態様の第二の可能な実現形態において、前記第一の確定ユニットは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む。
第五の態様の第二の可能な実現形態と組み合わせて、前記第五の態様の第三の可能な実現形態において、前記第二の識別サブユニットは、具体的に、
前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し
前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定するように構成される。
第五の態様の第一の可能な実現形態と組み合わせて、前記第五の態様の第四の可能な実現形態において、前記第二の確定ユニットは、
前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定するように構成される画像収集サブユニット、または、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定するように構成される確定サブユニットとを含む。
本開示の実施例の第六の態様によるスマートデバイス制御装置は、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される第一の画像収集モジュールと、
前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される第一の送信モジュールとを含む。
第六の態様と組み合わせて、前記第六の態様の第一の可能な実現形態において、前記スマートデバイス制御装置は、
中継デバイスが送信した、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得するように構成される第二の画像収集モジュールと、
前記第二の画像を前記中継デバイスに送信するように構成される第二の送信モジュールとをさらに含む。
本開示の実施例の第七の態様によるスマートデバイス制御装置は、
前記スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む。
第七の態様と組み合わせて、前記第七の態様の第一の可能な実現形態において、前記制御モジュールは、
前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定するように構成される確定ユニットと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む。
第七の態様の第一の可能な実現形態と組み合わせて、前記第七の態様の第二の可能な実現形態において、前記確定ユニットは、
前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択するように構成される選択サブユニットと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第一の確定サブユニットとを含む。
第七の態様の第一の可能な実現形態と組み合わせて、前記第七の態様の第三の可能な実現形態において、前記確定ユニットは、
前記デバイス識別子情報が第二の画像である場合、前記第二の画像からスマートデバイスのデバイスマークを識別するように構成される識別サブユニットと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む。
第七の態様の第一の可能な実現形態と組み合わせて、前記第七の態様の第四の可能な実現形態において、前記確定ユニットは、
前記デバイス識別子情報が前記視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第二の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第三の確定サブユニットとを含む。
第七の態様の第一の可能な実現形態と組み合わせて、前記第七の態様の第五の可能な実現形態において、前記制御ユニットは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第三の取得サブユニットと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む。
本開示の実施例の第八の態様によるスマートデバイス制御装置は、
前記スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む。
第八の態様と組み合わせて、前記第八の態様の第一の可能な実現形態において、前記制御モジュールは、
前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定するように構成される第二の確定ユニットと
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む。
第八の態様の第一の可能な実現形態と組み合わせて、前記第八の態様の第二の可能な実現形態において、前記第一の確定ユニットは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む。
第八の態様の第二の可能な実現形態と組み合わせて、前記第八の態様の第三の可能な実現形態において、前記第二の識別サブユニットは、具体的に、
前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定するように構成される。
第八の態様の第一の可能な実現形態と組み合わせて、前記第八の態様の第四の可能な実現形態において、前記第二の確定ユニットは、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定するように構成される第一の確定サブユニットと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む。
第八の態様の第一の可能な実現形態と組み合わせて、前記第八の態様の第五の可能な実現形態において、前記第二の確定ユニットは、
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信するように構成される送信サブユニットと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定するように構成される第三の確定サブユニットとを含む。
第八の態様の第五の可能な実現形態と組み合わせて、前記第八の態様の第六の可能な実現形態において、前記第三の確定サブユニットは、具体的に、
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択し、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される。
第八の態様の第五の可能な実現形態と組み合わせて、前記第八の態様の第七種の可能な実現形態において、前記第三の確定サブユニットは、具体的に、
前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別し、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される。
第八の態様の第一の可能な実現形態と組み合わせて、前記第八の態様の第八の可能な実現形態において、前記制御ユニットは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第二の取得サブユニットと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む。
本開示の実施例の第九の態様によるスマートデバイス制御装置は、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、前記プロセッサは、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定し、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される。
本開示の実施例の第十の態様によるスマートデバイス制御装置は、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、プロセッサは、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用するという画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
前記ユーザーの眼球情報を確定し、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される。
本開示の実施例の第十一の態様によるスマートデバイス制御装置は、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、前記プロセッサは、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される。
本開示の実施例の第十二の態様によるスマートデバイス制御装置は、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、前記プロセッサは、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される。
本開示の実施例による技術的解決手段は、本開示の実施例において中継デバイスによりスマートマットレス、スマート撮影デバイスとターゲットスマートデバイスの間のインタラクションを実現し、ターゲットスマートデバイスが画像を収集し、収集された画像からデバイス識別子情報と眼球情報を取得し、それによってデバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスに対する制御を実現し、ユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高めるという有益な効果を含むことができる。
以上の一般的な説明と後の詳しい説明は、例示的なものと解釈的なものだけであるが、本開示を限定できないと理解すべきである。
一つの例示的な実施例によるスマートデバイス制御システムの構造図である。 一つの例示的な実施例による第一のスマートデバイス制御方法のフロチャートである。 一つの例示的な実施例による第二のスマートデバイス制御方法のフロチャートである。 一つの例示的な実施例による第三のスマートデバイス制御方法のフロチャートである。 一つの例示的な実施例による第四のスマートデバイス制御方法のフロチャートである。 一つの例示的な実施例による第五のスマートデバイス制御方法のフロチャートである。 一つの例示的な実施例による瞳オフセット角度の模式図。 一つの例示的な実施例による水平方向と指定された方向の模式図である。 一つの例示的な実施例による第六のスマートデバイス制御方法のフロチャートである。 一つの例示的な実施例による第一のスマート制御装置のブロック図である。 一つの例示的な実施例による確定モジュールのブロック図。 一つの例示的な実施例による第一の確定ユニットのブロック図である。 一つの例示的な実施例による第二の確定ユニットのブロック図である。 一つの例示的な実施例による第二のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による第三のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による第四のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による制御モジュールのブロック図である。 一つの例示的な実施例による第一の確定ユニットのブロック図である。 一つの例示的な実施例による第二の確定ユニットのブロック図である。 一つの例示的な実施例による第三の確定ユニットのブロック図である。 一つの例示的な実施例による制御ユニットのブロック図である。 一つの例示的な実施例による第五のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による制御モジュールのブロック図である。 一つの例示的な実施例による第一の確定ユニットのブロック図である。 一つの例示的な実施例による第一の第二の確定ユニットのブロック図である。 一つの例示的な実施例による第二の確定ユニットのブロック図である。 一つの例示的な実施例による制御ユニットのブロック図である。 一つの例示的な実施例による第六のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による第七のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による第八のスマートデバイス制御装置のブロック図である。 一つの例示的な実施例による第九のスマートデバイス制御装置のブロック図である。
ここの図面は、明細書に組み込まれて本明細書の一部を構成し、本開示に合う実施例を示し、明細書とともに本発明の原理を解釈することに用いられる。
ここで、例示的な実施例を詳しく説明し、その例が図面に示される。以下の説明が図面に関する場合、他に示されない限り、異なる図面の同一の数字は、同一のまたは類似の要素を表す。以下の例示的な実施例において説明された実施形態は、本発明と一致するすべての実施形態を代表しない。逆に、それらは、添付の特許請求の範囲に詳しく説明されたものような本発明のいくつかの態様と一致する装置および方法の例だけである。
本開示の実施例を詳しく解釈して説明する前に、先に本開示の実施例のシステムアーキテクチャを紹介する。図1は、本開示の実施例によるスマートデバイス制御システムアーキテクチャである。図1を参照し、当該スマートデバイス制御システムは、スマートマットレス、中継デバイス、スマート撮影デバイスとターゲットスマートデバイスを含み、スマートマットレス、スマート撮影デバイスおよびターゲットスマートデバイスは、中継デバイスとそれぞれネットワークまたはブルートゥース(登録商標)を介して接続し、かつスマートマットレス、スマート撮影デバイスとターゲットスマートデバイスの間のメッセージ交換が中継デバイスにより完了されることができる。その中、当該スマートマットレスは、スマートマットレス、スマート撮影デバイスとターゲットスマートデバイスの間のメッセージ交換メカニズムをトリガするように構成され、当該スマート撮影デバイスは、眼球情報とデバイス識別子情報を取得するように構成され、当該中継デバイスは、眼球情報に基づいてターゲットスマートデバイスを制御できる。
図2は、一つの例示的な実施例による第一のスマートデバイス制御方法のフロチャートである。図2に示すように、当該方法は、スマート撮影デバイスに用いられ、以下のステップを含む。
ステップ201において、スマートマットレスが中継デバイスを介して送信した画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得する。当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
ステップ202において、当該第一の画像に基づいて、制御すべきターゲットスマートデバイスを制御するためのデバイス識別子情報および当該ユーザーの眼球情報を確定する。
ステップ203において、当該中継デバイスが当該デバイス識別子情報と当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように、当該デバイス識別子情報と当該眼球情報を当該中継デバイスへ送信する。
本開示の実施例において、スマート撮影デバイスは、中継デバイスを介してスマートマットレスによって送信された画像収集要求を受信して画像収集を行い、収集された画像によりデバイス識別子情報と眼球情報を確定することができ、それによって中継デバイスがデバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御し、このようにしてユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合の、ユーザーのユーザー体験を高める。
本開示の別の実施例において、当該第一の画像に基づいてデバイス識別子情報を確定することは、
当該第一の画像から当該ユーザーの視線方向を確定することと、
当該視線方向に基づいて当該デバイス識別子情報を確定することとを含む。
本開示の別の実施例において、当該第一の画像から当該ユーザーの視線方向を確定することは、
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得することと、
当該ユーザーの目の位置に基づいて、当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することとを含む。
本開示の別の実施例において、当該ユーザーの目の位置に基づいて、当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することは
当該ユーザーの目の位置に基づいて、当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定することとを含む。
本開示の別の実施例において、当該視線方向基づいて当該デバイス識別子情報を確定することは、
当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を当該デバイス識別子情報として確定すること、または、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定することを含む。
前記のすべての選択的な技術的解決手段がいずれも任意の組み合わせに従って本開示の選択的な実施例を形成することができるので、本開示の実施例において、これを詳しく説明しない。
図3は、一つの例示的な実施例による第二のスマートデバイス制御方法のフロチャートである。図3に示すように、当該方法は、スマート撮影デバイスに用いられ、以下のステップを含む。
ステップ301において、スマートマットレスが中継デバイスを介して送信した画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得する。当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
ステップ302において、当該ユーザーの眼球情報を確定する。
ステップ303において、当該中継デバイスが当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御するように、当該第一の画像と当該眼球情報を当該中継デバイスへ送信する。
本開示の実施例において、スマート撮影デバイスは、中継デバイスを介してスマートマットレスによって送信された画像収集要求を受信して画像収集を行い、収集された画像により眼球情報を確定することができ、それによって中継デバイスが収集された画像と眼球情報に基づいてターゲットスマートデバイスを制御し、このようにしてユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
本開示の別の実施例において、当該第一の画像と当該眼球情報を当該中継デバイスを送信した後、
当該中継デバイスから送信された、当該第一の画像を分析して取得した視線方向を受信した場合、当該中継デバイスが当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
当該第二の画像を当該中継デバイスに送信することとをさらに含む。
前記のすべての選択的な技術的解決手段がいずれも任意の組み合わせに従って本開示の選択的な実施例を形成できるので、本開示の実施例においてこれを詳しく説明しない。
図4は、一つの例示的な実施例による第三のスマートデバイス制御方法のフロチャートである。図4に示すように、当該方法は、中継デバイスに用いられ、以下のステップを含む。
ステップ401において、スマートマットレスから送信された、スマートマットレス識別子が含まれている画像収集要求を受信する。当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
ステップ402において、当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ当該第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて、当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信する。
ステップ403において、当該デバイス識別子情報と当該眼球情報に基づいて、当該ターゲットスマートデバイスを制御する。
本開示の実施例において、中継デバイスは、スマートマットレスから送信された画像収集要求を受信し、当該請求をスマート撮影デバイスへ送信し、スマート撮影デバイスが収集された画像に基づいて返したデバイス識別子情報と眼球情報を受信し、当該デバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御することができ、このようにしてユーザーはリモコンを使わずにターゲットスマートデバイスを制御でき、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
本開示の別の実施例において、当該デバイス識別子情報と当該眼球情報に基づいて、当該ターゲットスマートデバイスを制御することは、
当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することと、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することとを含む。
本開示の別の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、
当該デバイス識別子情報が第二の画像である場合、記憶された画像ライブラリから、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行って取得した第二の画像とマッチングするターゲット画像を選択することと、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、
当該デバイス識別子情報が第二の画像である場合、当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別することと、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、
当該デバイス識別子情報が当該ユーザーの視線方向と水平方向の間の夾角である第一の夾角と当該視線方向と指定された方向の間の夾角である第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて、記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該眼球情報基づいて当該ターゲットスマートデバイスを制御することは、
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することとを含む。
前記のすべての選択的な技術的解決手段がいずれも任意の組み合わせに従って本開示の選択的な実施例を構成できるので、本開示の実施例においてこれを詳しく説明しない。
図5は、一つの例示的な実施例による第四のスマートデバイス制御方法のフロチャートである。図5に示すように、当該方法は、中継デバイスに用いられ、以下のステップを含む。
ステップ501において、スマートマットレスから送信された、スマートマットレス識別子が含まれている画像収集要求を受信する。当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
ステップ502において、当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、当該第一の画像と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて、当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信する。
ステップ503において、当該第一の画像と当該眼球情報に基づいて、ターゲットスマートデバイスを制御する。
本開示の実施例において、中継デバイスは、スマートマットレスから送信された画像収集要求を受信し、当該請求をスマート撮影デバイスへ送信し、スマート撮影デバイスから返された、収集された画像と眼球情報を受信し、当該画像と眼球情報に基づいてターゲットスマートデバイスを制御することができ、このようにしてユーザーは、リモコンを使わずにターゲットスマートデバイスを制御でき、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
本開示の別の実施例において、当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御することは、
当該第一の画像から当該ユーザーの視線方向を確定することと、
当該視線方向に基づいて当該ターゲットスマートデバイスを確定することと、
当該眼球情報基づいて当該ターゲットスマートデバイスを制御することとを含む。
本開示の別の実施例において、当該第一の画像から当該ユーザーの視線方向を確定することは、
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得することと、
当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することとを含む。
本開示の別の実施例において、当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することは、
当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定することとを含む。
本開示の別の実施例において、当該視線方向に基づいて当該ターゲットスマートデバイスを確定することは、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定することと、
当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該視線方向に基づいて当該ターゲットスマートデバイスを確定することは、
当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を返すように、当該視線方向を当該スマート撮影デバイスへ送信することと、
当該スマート撮影デバイスから返された第二の画像を受信した場合、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定することとを含む。
本開示の別の実施例において、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定することは、
記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択することと、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定することは、
当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別することと、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することは、
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することとを含む。
前記のすべての選択的な技術的解決手段がいずれも任意の組み合わせに従って本開示の選択的な実施例を構成できるので、本開示の実施例においてこれを詳しく説明しない。
図6は、一つの例示的な実施例によるスマートデバイス制御方法のフロチャートである。図6に示すように、当該方法は、以下のステップを含む。
ステップ601において、スマートマットレスは、当該スマートマットレスに作用する圧力を検出し、圧力データを取得し、当該圧力データが圧力閾値以上である場合、中継デバイスへスマートマットレス識別子が含まれている当該画像収集要求を送信する。
ここで、スマートマットレスに圧力検出装置が取り付けられることができ、当該スマートマットレスは、当該圧力検出装置によりスマートマットレスに作用する圧力を検出し、さらに圧力データを取得することができ、例えば、当該圧力検出装置は、圧力センサなどであってもよく、当該圧力センサにより取得された圧力データは、30キログラム、50キログラムなどであってもよく、これに対して、本開示の実施例において具体的に限定しない。
ユーザーがスマートマットレスを使用する場合に、スマートマットレスに対して大きい圧力を生じるため、スマートマットレスは、検出された圧力データにより、ユーザーが当該スマートマットレスを使用するか否かを判断することができる。検出された圧力データが圧力閾値以上である場合、当該スマートマットレスに作用する圧力が大きいと確定でき、さらにこの時にユーザーが当該スマートマットレスを使用し、かつ当該ユーザーが当該スマートマットレスに仰向けに寝そべる可能性があると確定できる。なお、ユーザーが当該スマートマットレスに仰向けに寝そべる場合、ユーザーは、一般的にスマートテレビを消したり、スマートエアコンの温度を下げたりするなどの必要があるため、当該スマートマットレスは、中継デバイスへ当該画像収集要求を送信してもよい。
圧力閾値は、予め設定されることができ、例えば、圧力閾値が30キログラム、40キログラム、50キログラムなどであってよく、本開示の実施例においてこれを具体的に限定しないと説明すべきである。
例えば、圧力閾値が30キログラムであり、ユーザーがスマートマットレスを使用しかつユーザーの体重が50キログラムであり、当該スマートマットレスが圧力検出装置により検出した圧力データが50キログラムであり、圧力データが圧力閾値より大きい場合、ユーザーが当該スマートマットレスを使用していることを示す。そのため、当該スマートマットレスは、中継デバイスへ画像収集要求を送信してもよい。
スマートマットレス識別子は、スマートマットレスを唯一的に識別することに用いられ、即ち、スマートマットレス識別子は当該スマートマットレスの識別子であり、かつ当該スマートマットレス識別子は当該スマートマットレスのMAC(Media Access Control:媒体アクセス制御)アドレス、工場シリアル番号等であってもよく、本開示の実施例において具体的に限定されないと説明すべきである。
なお、本開示の実施例において、中継デバイスは、スマートマットレス、スマート撮影デバイスとターゲットスマートデバイスの間の通信を実現するように構成され、当該中継デバイスはスマートマットレス、スマート撮影デバイスおよびターゲットスマートデバイスと同一のLANに位置してもよく、かつ、当該中継デバイスは家庭用ルータ、家庭用サーバー等であってもよく、本開示の実施例において具体的に限定されない。
また、スマートマットレス、スマート撮影デバイスおよびターゲットスマートデバイスには、いずれもwifi(登録商標)(Wireless Fidelity:無線ネットワーク)、ブルートゥースまたは他の無線通信チップが設置されることができ、それによって自身に内蔵されたwifi、ブルートゥースまたは他の無線通信チップを介してサーバーと通信することができ、即ち、スマートマットレス、スマート撮影デバイスおよびターゲットスマートデバイスのそれぞれと中継デバイスとの間のメッセジー伝送は、wifiを介して実現されてよく、ブルートゥースを介して実現されてもよく、他の形態で実現されてもよく、本開示の実施例において具体的に限定されない。
ステップ602において、中継デバイスが当該画像収集要求を受信した場合、当該スマートマットレス識別子に基づいて、当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信する。
本開示の実施例において、中継デバイスがユーザーの眼球情報によりターゲットスマートデバイスを制御でき、一般的にユーザーがスマートマットレスを使用する時にターゲットスマートデバイスを制御する可能性があるため、ユーザーの眼球情報を取得するために、スマート撮影デバイスにより画像を収集する必要があり、即ち、当該中継デバイスがスマートマットレスから送信された画像収集要求を受信した場合、当該中継デバイスは、当該画像収集要求に含まれているスマートマットレス識別子に基づいて、記憶されたスマートマットレス識別子とスマート撮影デバイス識別子の間の対応関係から、対応するスマート撮影デバイス識別子を取得し、かつ取得されたスマート撮影デバイス識別子に対応するスマート撮影デバイスを当該スマートマットレスにバインドされたスマート撮影デバイスとして確定し、このようにして当該画像収集要求を当該スマート撮影デバイスへ送信する。
ここで、スマートマットレスがスマート撮影デバイスにバインドされた場合、中継デバイスにはスマートマットレス識別子とスマート撮影デバイス識別子の間の対応関係が記憶されてもよい。即ち、中継デバイスは、当該スマートマットレス識別子基づいて当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信する前に、スマートマットレス識別子とスマート撮影デバイス識別子を含むことができるデバイスバインド請求を受信でき、その後、当該中継デバイスは、当該スマートマットレス識別子と当該スマート撮影デバイス識別子の間の対応関係を記憶できる。
当該デバイスバインド請求の送信元はスマートマットレス、スマート撮影デバイスなどであってよく、当然、スマート端末であってもよく、本開示の実施例において具体的に限定されないと説明すべきである。なお、一つのスマートマットレスは一つのスマート撮影デバイスにバインドされてよく、同時に複数のスマート撮影デバイスにバインドされてもよく、本開示の実施例において具体的に限定されない。
なお、当該スマート撮影デバイス識別子は、当該スマート撮影デバイスを唯一的に識別することに用いられ、即ち、当該スマート撮影デバイス識別子は、当該スマート撮影デバイスの識別子であり、かつ当該スマート撮影デバイス識別子は当該スマート撮影デバイスのMACアドレス、工場シリアル番号などであってよく、本開示の実施例において具体的に限定されない。
例えば、スマートマットレス識別子がスマートマットレスの工場シリアル番号であり、スマート撮影デバイス識別子が当該スマート撮影デバイスの工場シリアル番号であり、当該画像収集要求に含まれているスマートマットレス識別子が0001である場合、当該中継デバイスは、当該スマートマットレス識別子0001に基づいて、表1に示すスマートマットレス識別子とスマート撮影デバイス識別子の間の対応関係から対応するスマート撮影デバイス識別子000Aおよび000Bを取得し、当該画像収集要求をスマート撮影デバイス識別子が000Aと000Bであるスマート撮影デバイスへ送信することができる。
本開示の実施例において、前記表1に示すスマートマットレス識別子とスマート撮影デバイス識別子の間の対応関係だけを例として説明し、前記表1は本開示の実施例に対して限定を構成しないと説明すべきである。
ステップ603において、スマート撮影デバイスが中継デバイスから送信された画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得する。
デバイス識別子情報がターゲットスマートデバイスを確定することに用いられ、かつデバイス識別子情報が第一の画像に基づいて取得されることができるため、スマート撮影デバイスは、中継デバイスから送信された画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行って、第一の画像を取得する必要がある。
なお、ユーザーは、当該スマートマットレスを使用する時に、スマートマットレスの異なる位置にいる可能性があり、同様に異なる姿勢がある可能性があり、かつ第一の画像についてユーザーの顔部正面画像を収集する必要があるため、ユーザーの顔部正面画像を収集できるために、一般的にスマートマットレスの周辺に複数の当該スマートマットレスにバインドされたスマート撮影デバイスを設置することができ、当該複数のスマート撮影デバイスが同時に画像収集を行うようにし、それによって複数のスマート撮影デバイスで収集する場合、ユーザーの顔部正面画像を取得する信頼性を高めることができる。言い換えれば、第一の画像に対する収集について、一つのスマート撮影デバイスにより収集してよく、複数のスマート撮影デバイスにより収集してもよく、ユーザーの顔部正面画像を収集するだけでよく、本開示の実施例において具体的に限定されない。
スマートマットレスにバインドされたスマート撮影デバイスは、当該スマートマットレスの周辺のいずれかの位置に取り付けられることができ、例えば、当該スマート撮影デバイスは、当該スマートマットレスのベッドの頭部、ベッドの足元部などの位置に取り付けられてよく、本開示の実施例において具体的に限定されないと説明すべきである。
ステップ604において、スマート撮影デバイスは当該第一の画像に基づいて、制御すべきターゲットスマートデバイスを制御するためのデバイス識別子情報および当該ユーザーの眼球情報を確定する。
デバイス識別子情報が制御すべきターゲットスマートデバイスを制御することに用いられるため、ターゲットスマートデバイスを制御するために、スマート撮影デバイスは当該第一の画像に基づいてデバイス識別子情報を確定することができる。スマート撮影デバイスが第一の画像に基づいてデバイス識別子情報を確定する操作は、スマート撮影デバイスが当該第一の画像から当該ユーザーの視線方向を確定し、当該視線方向に基づいてデバイス識別子情報を確定することであってよい。
ここで、スマート撮影デバイスが当該第一の画像から当該ユーザーの視線方向を確定する操作は、当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得し、当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することであってよい。
スマート撮影デバイスが当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得する操作は、当該第一の画像に対して人体識別を行い、かつ識別された人体に対して顔識別を行って当該ユーザーの目の位置を取得することであってよい。
ここで、当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得する操作は、スマート撮影デバイスが当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定することであってよい。
スマート撮影デバイスは、当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定する時に、当該ユーザーの目の位置に基づいて瞳の正常な注視方向と現在の瞳の眼窩における位置を確定し、それによって当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、図7に示すように、図7において、瞳の正常な注視方向とユーザーの瞳の正常な注視方向に対する瞳オフセット角度がマーキングされた。なお、スマート撮影デバイスは、ユーザーの左目の瞳の左目の正常な注視方向に対する瞳オフセット角度を確定してよく、ユーザーの右目の瞳の右目の正常な注視方向に対する瞳オフセット角度を確定してもよく、同様に、ユーザーの両目の瞳の正常な注視方向に対する瞳オフセット角度を同時に確定してもよく、本開示の実施例において具体的に限定されない。
なお、正常な注視方向は、ユーザーの瞳が眼窩の真中位置に位置する時にユーザーが注視する方向であり、即ち、ユーザーの目が正面前方を注視する方向である。
また、本開示の実施例において、顔識別、人体識別、視線識別の具体的な操作過程に関して従来技術を参照でき、本開示の実施例において具体的に説明しない。
本開示の実施例は、ユーザーの眼球情報によりターゲットスマートデバイスを制御し、ユーザーの眼球情報が一般的にユーザーの視線方向と関連関係があり、かつターゲットスマートデバイスがデバイス識別子情報に基づいて確定されるため、ターゲットスマートデバイスを確定するために、当該スマート撮影デバイスは、当該視線方向に基づいて当該デバイス識別子情報を確定する必要がある。当該スマート撮影デバイスが当該視線方向に基づいて当該デバイス識別子情報を確定する操作は、当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を当該デバイス識別子情報として確定し、または、当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定することであってよい。
水平方向は、視線方向が水平面に垂直的にマッピングする方向であり、指定された方向は予め設定する方向であり、例えば、指定された方向はスマートマットレスのベッドの頭部に並行する方向などであり、本開示の実施例において具体的に限定されないと説明すべきである。例えば、水平方向と指定された方向は、図8に示すようなものであってよく、且つ図8の夾角Aは第一の夾角であり、夾角Bは第二の夾角である。
なお、ターゲットスマートデバイスに対する制御操作は、ユーザー眼球情報に基づいて確定されることができるため、ターゲットスマートデバイスに対する制御操作を確定するために、スマート撮影デバイスは当該ユーザーの眼球情報を確定する必要がある。スマート撮影デバイスが当該ユーザーの眼球情報を確定する操作は、ユーザーがターゲットスマートデバイスを注視する注視持続時間を確定し、当該注視持続時間を当該ユーザーの眼球情報として確定することであってよい。
眼球情報は、ターゲットスマートデバイスに対する制御操作を確定することに用いられ、当該眼球情報は、ユーザーの視線がターゲットスマートデバイスを注視する注視持続時間であってよく、当該注視持続時間は3秒、5秒、10秒などであってよく、かつ各注視持続時間は、一つの制御操作に対応し、これに対して、本開示の実施例において具体的に限定しないと説明すべきである。
なお、本開示の実施例において、当該眼球情報は、ユーザーがターゲットスマートデバイスを注視する注視持続時間だけではなく、当然、実際の適用においてユーザーの眼球の移動方向または回転方向であってよく、当該移動方向は左へ移動する方向であってよく、右へ移動する方向などであってよく、当該回転方向は、右へ回転する方向であってよく、左へ回転する方向などであってよく、かつ各方向は、一つの制御操作に対応し、これに対して、本開示の実施例において同様に限定しない。
ステップ605において、スマート撮影デバイスは、デバイス識別子情報と眼球情報を当該中継デバイスへ送信する。
ターゲットスマートデバイスが中継デバイスにより制御されるため、当該中継デバイスがデバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御するように、当該スマート撮影デバイスは、デバイス識別子情報と眼球情報を当該中継デバイスへ送信することができる。
ステップ606において、中継デバイスは、スマート撮影デバイスから送信されたデバイス識別子情報と眼球情報を受信した場合、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定する。
デバイス識別子情報の内容が差異があるため、中継デバイスが当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、以下の三つの形態がある。
第一の形態において、当該デバイス識別子情報が第二の画像である場合、中継デバイスは、記憶された画像ライブラリから、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行って取得した当該第二の画像とマッチングするターゲット画像を選択し、当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定する。
ここで、当該デバイス識別子情報が第二の画像である場合、記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択する操作は、当該第二の画像に対して画像識別を行い、第二の画像におけるスマートデバイスが存在する画像区域を取得し、記憶された画像ライブラリから第二の画像のスマートデバイスが存在する画像区域と同じ画像を選択し、当該画像をターゲット画像として確定し、または、第二の画像と記憶された画像ライブラリにおける画像の間の類似度を確定し、確定された類似度に基づいて当該画像ライブラリから第二の画像との類似度が類似度閾値より大きい画像を選択し、選択された画像をターゲット画像として確定することであってよい。
類似度閾値は、予め設定されてよく、例えば、類似度閾値は95%、90%などであってよく、本開示の実施例において具体的に限定されない。
第二の形態において、当該デバイス識別子情報が第二の画像である場合、中継デバイスは、当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別し、当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定する。
例えば、中継デバイスが当該第二の画像から識別したスマートデバイスのデバイスマークはマーク1である場合、中継デバイスは、当該マーク1に基づいて下記の表2に示すデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子ID1を取得する。そのため、中継デバイスは、ID1に対応するスマートデバイスをターゲットスマートデバイスとして確定する。
本開示の実施例において、前記表2に示すデバイスマークとスマートデバイス識別子の間の対応関係のみを例として説明するので、前記表2は、本開示の実施例に対して限定を構成しないと説明すべきである。
ここで、当該第二の画像におけるスマートデバイスのデバイスマークの識別形態は、画像識別形態であってよく、他の識別形態であってもよく、本開示の実施例において具体的に限定されない。
デバイスマークは、対応するスマートデバイスを唯一的にマーキングすることに用いられ、当該デバイスマークは予め設定されることができ、例えば、当該デバイスマークは、二次元コード、バーコードまたは他の識別可能なマークであってよく、本開示の実施例において具体的に限定されないと説明すべきである。
なお、スマートデバイス識別子がスマートデバイスを唯一的に識別することに用いられ、当該スマートデバイス識別子は、予め設定されることができ、例えば、当該スマートデバイス識別子は、MACアドレス、工場シリアル番号などであってよく、本開示の実施例において具体的に限定されない。
また、デバイスマークとスマートデバイス識別子の間の対応関係は、同様に予め設定されることができ、即ち、中継デバイスは、当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得する前に、マーク設定要求を受信でき、当該識別子設定要求に当該デバイスマークと当該スマートデバイス識別子が含まれていることができ、その後、当該中継デバイスは、当該デバイスマークとスマートデバイス識別子の間の対応関係を記憶できる。
第三の形態において、当該デバイス識別子情報が第一の夾角と第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、当該第一の夾角が当該ユーザーの視線方向と水平方向の間の夾角であり、当該第二の夾角が当該視線方向と指定された方向の間の夾角であり、取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定する。
例えば、第一の夾角が10度であり、第二の夾角が30度である場合、第一の夾角10度と第二の夾角30度に基づいて下記表3に示す第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子ID1を取得し、当該スマートデバイス識別子ID1に対応するスマートデバイスを取得してターゲットスマートデバイスとして確定する。
本開示の実施例において、前記表3に示す第一の夾角、第二の夾角とスマート撮影デバイス識別子の間の対応関係だけを例として説明するので、前記表3は、本開示の実施例に対して限定を構成しないと説明すべきである。
なお、本開示の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定する操作は、中継デバイスによって完成されてよく、スマート撮影デバイスによって完成されてもよく、本開示の実施例において中継デバイスによって完成されることを例として説明し、これに対して、本開示の実施例において具体的に限定しない。
ステップ607において、中継デバイスは、当該眼球情報に基づいて当該ターゲットスマートデバイスを制御する。
眼球情報とターゲットスマートデバイスの制御操作の間に対応関係があるため、中継デバイスは、当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得し、当該ターゲットスマートデバイスが当該制御操作を実行するように、取得された制御操作に基づいて当該ターゲットスマートデバイスを制御する。
眼球情報と制御操作の間の対応関係は、予め設定されることができ、即ち、中継デバイスは、眼球情報に基づいて当該ターゲットスマートデバイスを制御する前に、当該眼球情報と当該制御操作を含むことができる眼球制御関連請求を受信でき、その後、当該中継デバイスは当該眼球情報と制御操作の間の対応関係を記憶できると説明すべきである。例えば、眼球情報が3秒である場合、対応する制御操作は、スマートデバイスをオフにすることであってよく、眼球情報が5秒である場合、対応する制御操作は、スマートデバイスをオンにすることであってよく、スマートデバイスがスマートエアコンである場合、眼球情報が10秒であることに対応する制御操作は、温度を下げることなどであってよく、本開示の実施例において具体的に限定されないと説明すべきである。
なお、当該眼球制御関連請求の送信元は、スマートマットレス、スマート撮影デバイスなどであってよく、当然としてスマート端末であってもよく、本開示の実施例において具体的に限定されない。
また、制御操作がターゲットスマートデバイスのみに対してオンオフ制御を行う操作である場合、中継デバイスは、眼球情報に基づいてターゲットスマートデバイスに対してオンオフ制御を行う操作は、さらに、ターゲットスマートデバイスが現在オン状態にある場合、ターゲットスマートデバイスをオフにするように、当該中継デバイスは、当該眼球情報に基づいてターゲットスマートデバイスへオフメッセジーを送信することができ、ターゲットスマートデバイスが現在オフ状態にある場合、ターゲットスマートデバイスをオンにするように、当該中継デバイスは、当該眼球情報に基づいてターゲットスマートデバイスへオンメッセジーを送信することができる。
ここで、ターゲットスマートデバイスの現在の状態は中継デバイスによって記憶されことができ、かつ中継デバイスはターゲットスマートデバイスの状態を切り替える後、次回ターゲットスマートデバイスを制御するように、さらに記憶されたターゲットスマートデバイスの現在の状態を更新することができる。
例えば、眼球情報が3秒であり、ターゲットスマートデバイスの現在の状態がオン状態にある場合、ターゲットスマートデバイスをオフにするように、当該中継デバイスは、当該眼球情報に基づいてターゲットスマートデバイスへオフメッセジーを送信することができる。
本開示の実施例において、スマートマットレスは、圧力閾値以上の圧力データを検出した場合、中継デバイスによりスマート撮影デバイスをトリガし、スマート撮影デバイスに画像を収集させ、スマート撮影デバイスにより収集された画像に対して画像識別と視線識別を行い、それによって中継デバイスにターゲットスマートデバイスを確定させ、ターゲットスマートデバイスを制御し、このようにしてユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、これにより、スマートデバイスに対する制御がより便利にかつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図9は、一つの例示的な実施例による別のスマートデバイス制御方法のフロチャートである。図9に示すように、当該方法は、以下のステップを含む。
ステップ901において、スマートマットレスは、当該スマートマットレスに作用する圧力を検出し、圧力データを取得し、当該圧力データが圧力閾値以上である場合、中継デバイスへスマートマットレス識別子が含まれている画像収集要求を送信する。
当該ステップの詳細な過程は、前記実施例のステップ601を参照でき、本開示の実施例において詳しく説明されない。
ステップ902において、中継デバイスが当該画像収集要求を受信した場合、当該スマートマットレス識別子に基づいて当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信する。
当該ステップの詳細な過程は、前記実施例におけるステップ602を参照でき、本開示の実施例において詳しく説明されない。
ステップ903において、スマート撮影デバイスは、中継デバイスから送信された画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得する。
当該ステップの詳細な過程は、前記実施例におけるステップ603を参照でき、本開示の実施例において詳しく説明されない。
ステップ904において、スマート撮影デバイスは、当該ユーザーの眼球情報を確定する。
眼球情報とターゲットスマートデバイスの制御操作の間に対応関係があるため、ターゲットスマートデバイスに対する制御操作を確定するために、スマート撮影デバイスは、当該ユーザーの眼球情報を確定する必要がある。本開示の実施例において、スマート撮影デバイスが当該ユーザーの眼球情報を確定する操作は、前記実施例のステップ604における眼球情報を確定する操作を参照でき、本開示の実施例において詳しく説明されない。
ステップ905において、スマート撮影デバイスは、当該第一の画像と当該眼球情報を当該中継デバイスへ送信する。
ターゲットスマートデバイスが中継デバイスにより制御されるため、当該中継デバイスが当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御するように、当該スマート撮影デバイスは、当該第一の画像と当該眼球情報を当該中継デバイスへ送信する。
ステップ906において、中継デバイスは、当該第一の画像から当該ユーザーの視線方向を確定する。
中継デバイスが第一の画像から当該ユーザーの視線方向を確定する操作は、中継デバイスが当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得し、当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することであってよい。
ここで、中継デバイスが当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得する操作は、当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定することであってよい。
本発明の実施例において、画像識別と視線識別の詳細な過程は前記実施例におけるステップ603を参照でき、本開示の実施例において詳しく説明されない。
ステップ907において、中継デバイスは、当該視線方向に基づいて当該ターゲットスマートデバイスを確定する。
中継デバイスが当該視線方向に基づいて当該ターゲットスマートデバイスを確定する操作は、下記の二つの形態がある。
第一の形態において、当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定する。
第二の形態において、中継デバイスは、当該視線方向を当該スマート撮影デバイスへ送信し、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を返するようにし、当該スマート撮影デバイスから返された第二の画像を受信した場合、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定する。
ここで、中継デバイスが当該視線方向を当該スマート撮影デバイスへ送信し、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を返すようにする操作は、中継デバイスが当該視線方向を当該スマート撮影デバイスへ送信し、スマート撮影デバイスが当該中継デバイスから送信された視線方向を受信した場合、当該視線方向に指される位置に対して画像収集を行い、第二の画像を取得することであってよく、当該視線方向は、当該中継デバイスが当該第一の画像を分析して取得したものであり、スマート撮影デバイスは、当該第二の画像を当該中継デバイスへ送信する。
中継デバイスが当該スマート撮影デバイスから返された第二の画像を受信した場合、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定する操作は、下記の二つの形態がある。
1)、記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択し、当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定する。
2)、当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別し、当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定する。
当該ステップの詳細な過程は前記実施例のステップ606を参照でき、本開示の実施例において詳しく説明されない。
ステップ908において、中継デバイスは、当該眼球情報に基づいて当該ターゲットスマートデバイスを制御する。
中継デバイスが当該眼球情報に基づいて当該ターゲットスマートデバイスを制御する操作は、当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得し、取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することであってよい。
当該ステップの詳細な過程は前記実施例のステップ607を参照でき、本開示の実施例において詳しく説明されない。
本開示の実施例において、スマートマットレスは、圧力閾値以上の圧力データを受信した場合、中継デバイスによりスマート撮影デバイスをトリガし、スマート撮影デバイスが画像を収集し、収集された画像を中継デバイスへ送信するようにし、中継デバイスにより収集された画像に対して画像識別と視線識別を行い、このようにしてターゲットスマートデバイスを確定し、ターゲットスマートデバイスを制御し、これにより、ユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図10は、一つの例示的な実施例によるスマートデバイス制御装置のブロック図である。図10に示すように、当該装置は、画像収集モジュール1001、確定モジュール1002および送信モジュール1003を含む。
画像収集モジュール1001は、スマートマットレスが中継デバイスを介して送信した画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成され、当該画像収集要求はユーザーが当該スマートマットレスを使用する時にトリガすることである。
確定モジュール1002は、当該第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および当該ユーザーの眼球情報を確定するように構成される。
送信モジュール1003は、当該中継デバイスがデバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御するように、当該デバイス識別子情報と当該眼球情報を当該中継デバイスへ送信するように構成される。
本開示の別の実施例において、図11に示すように、当該確定モジュール1002は、
当該第一の画像から当該ユーザーの視線方向を確定するように構成される第一の確定ユニット10021と、
当該視線方向に基づいて当該デバイス識別子情報を確定するように構成される第二の確定ユニット10022を含む。
本開示の別の実施例において、図12に示すように、当該第一の確定ユニット10021は、
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得するように構成される第一の識別サブユニット100211と、
当該ユーザーの目の位置に基づいて当該ユーザーの眼に対して視線識別を行い、当該ユーザーの視線方向を取得するように構成される第二の識別サブユニット100212とを含む。
本開示の別の実施例において、当該第二の識別サブユニット100212は、具体的に、
当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定するように構成される。
本開示の別の実施例において、図13に示すように、当該第二の確定ユニット10022は、当該視線方向に指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を当該デバイス識別子情報として確定するように構成される画像収集サブユニット100221、または、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定するように構成される確定サブユニット100222を含む。
本開示の実施例において、スマート撮影デバイスは、中継デバイスによりスマートマットレスから送信された画像収集要求を受信し、画像収集を行い、収集された画像によりデバイス識別子情報と眼球情報を確定することができ、中継デバイスがデバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御するようにし、これにより、ユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図14は、一つの例示的な実施例による別のスマートデバイス制御装置のブロック図である。図14を参照して、当該装置は、第一の画像収集モジュール1401、確定モジュール1402と第一の送信モジュール1403を含む。
第一の画像収集モジュール1401は、スマートマットレスが中継デバイスを介して送信した画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成され、当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
確定モジュール1402は、当該ユーザーの眼球情報を確定するように構成される。
第一の送信モジュール1403は、当該中継デバイスが当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御するように、当該第一の画像と当該眼球情報を当該中継デバイスへ送信するように構成される。
本開示の別の実施例において、図15に示すように、当該装置は、さらに、
当該中継デバイスから送信された、当該第一の画像を分析して取得した視線方向を受信した場合、当該視線方向に指される位置に対して画像収集を行い、第二の画像を取得するように構成される第二の画像収集モジュール1404、
当該第二の画像を当該中継デバイスへ送信するように構成される第二の送信モジュール1405を含む。
本開示の実施例において、スマート撮影デバイスは、中継デバイスによりスマートマットレスから送信された画像収集要求を受信し、画像収集を行い、収集され画像により眼球情報を確定することができ、中継デバイスが収集された画像と眼球情報に基づいてターゲットスマートデバイスを制御するようにし、これにより、ユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図16は、一つの例示的な実施例による別のスマートデバイス制御装置のブロック図である。図16に示すように、当該装置は、受信モジュール1601、送信モジュール1602と制御モジュール1603を含む。
受信モジュール1601は、スマートマットレスから送信されたスマートマットレス識別子が含まれている画像収集要求を受信するように構成され、当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
送信モジュール1602は、当該スマート撮影デバイスが当該スマートマットレス位置に対して画像収集を行い、第一の画像を取得し、当該第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される。
制御モジュール1603は、当該デバイス識別子情報と当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように構成される。
本開示の別の実施例において、図17に示すように、当該制御モジュール1603は、
当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定するように構成される確定ユニット16031と、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように構成される制御ユニット16032を含む。
本開示の別の実施例において、図18に示すように、当該確定ユニット16031は、
当該デバイス識別子情報が、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択するように構成される選択サブユニット160311と、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第一の確定サブユニット160312とを含む。
本開示の別の実施例において、図19に示すように、当該確定ユニット16031は、
当該デバイス識別子情報が第二の画像である場合、当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別するように構成される識別サブユニット160313と、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニット160314と、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニット160315とを含む。
本開示の別の実施例において、図20に示すように、当該確定ユニット16031は、
当該デバイス識別子情報が当該ユーザーの視線方向と水平方向の間の夾角である第一の夾角および当該視線方向と指定された方向の間の夾角である第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から、対応するスマートデバイス識別子を取得するように構成される第二の取得サブユニット160316と、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第三の確定サブユニット160317とを含む。
本開示の別の実施例において、図21に示すように、当該制御ユニット16032は、
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第三の取得サブユニット160321と、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御するように構成される制御サブユニット160322とを含む。
本開示の実施例において、中継デバイスは、スマートマットレスから送信された画像収集要求を受信し、当該請求をスマート撮影デバイスへ送信し、スマート撮影デバイスが収集された画像に基づいて返したデバイス識別子情報と眼球情報を受信し、当該デバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御することができ、ユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、これにより、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図22は、一つの例示的な実施例による別のスマートデバイス制御装置のブロック図である。図22に示すように、当該装置は、受信モジュール2201、送信モジュール2202と制御モジュール2203を含む。
受信モジュール2201は、スマートマットレスから送信されたスマートマットレス識別子が含まれている画像収集要求を受信するように構成される。当該画像収集要求は、ユーザーが当該スマートマットレスを使用する時にトリガすることである。
送信モジュール2202は、当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、当該第一の画像と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される。
制御モジュール2203は、当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御するように構成される。
本開示の別の実施例において、図23に示すように、当該制御モジュール2203は、
当該第一の画像から当該ユーザーの視線方向を確定するように構成される第一の確定ユニット22031と、
当該視線方向に基づいて当該ターゲットスマートデバイスを確定するように構成される第二の確定ユニット22032と、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように構成される制御ユニット22033とを含む。
本開示の別の実施例において、図24に示すように、当該第一の確定ユニット22031は、
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得するように構成される第一の識別サブユニット220311と、
当該ユーザーの目の位置に基づいて当該ユーザーの眼に対して視線識別を行い、当該ユーザーの視線方向を取得するように構成される第二の識別サブユニット220312とを含む。
本開示の別の実施例において、当該第二の識別サブユニット220312は、具体的に、
当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定するように構成される。
本開示の別の実施例において、図25に示すように、当該第二の確定ユニット22032は、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定するように構成される第一の確定サブユニット220321と、
当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニット220322と、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニット220323とを含む。
本開示の別の実施例において、図26に示すように、当該第二の確定ユニット22032は、
当該スマート撮影デバイスが当該視線方向によって指向される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を返すように、当該視線方向を当該スマート撮影デバイスへ送信するように構成される送信サブユニット220324と、
当該スマート撮影デバイスから返された第二の画像を受信した場合、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定するように構成される第三の確定サブユニット220325とを含む。
本開示の別の実施例において、当該第三の確定サブユニット220325は、具体的に、
記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択し、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される。
本開示の別の実施例には、当該第三の確定サブユニット220325は、具体的に、
当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別し、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される。
本開示の別の実施例において、図27に示すように、当該制御ユニット22033は、
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第二の取得サブユニット220331と、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御するように構成される制御サブユニット220332とを含む。
本開示の実施例において、中継デバイスは、スマートマットレスから送信された画像収集要求を受信し、当該請求をスマート撮影デバイスへ送信し、スマート撮影デバイスから返された、収集された画像と眼球情報を受信し、当該画像と眼球情報に基づいてターゲットスマートデバイスを制御することができる。このようにしてユーザーはリモコンを使わずにターゲットスマートデバイスを制御でき、これにより、スマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
前記実施例における装置に関して、その中の各モジュールが操作を実行する具体的な形態は、当該方法に関する実施例において詳しく説明されたが、ここで詳しく説明しない。
図28は、一つの例示的な実施例によるスマートデバイス制御のための装置2800のブロック図である。例えば、装置2800は、携帯電話、コンピューター、ディジタルブロードキャスト端末、メッセージ送受信デバイス、ゲームコンソール、タブレットデバイス、医療デバイス、フィットネスデバイス、パーソナルディジタルアシスタント、スマートカメラなどであってよい。
図28を参照し、装置2800は、処理コンポーネント2802、メモリー2804、電源コンポーネント2806、マルチメディアコンポーネント2808、オーディオコンポーネント2810、入力/出力(I/O)インタフェース2812、センサーコンポーネント2814、および通信コンポーネント2816の一つまたは複数のコンポーネントを含むことができる。
処理コンポーネント2802は、一般的に、制御装置2800の全体操作、例えば表示、電話コール、データ通信、カメラ操作および記録操作に関する操作を制御する。処理コンポーネント2802は、前記の方法の全部または一部のステップを完了するように、一つまたは複数のプロセッサ2820を含んでコマンドを実行することができる。また、処理コンポーネント2802は、ほかのコンポーネントとのインタラクションを容易にするように、一つまたは複数のモジュールを含むことができる。例えば、処理コンポーネント2802は、マルチメディア2808とのインタラクションを容易にするように、マルチメディアモジュールを含むことができる。
メモリー2804は、装置2800での操作をサポートするように、様々なタイプのデータを記憶するように構成される。これらのデータの例は、装置2800で操作されるいかなるアプリケーションプログラムまたは方法のためのコマンド、メッセージ、ピクチャ、ビデオなどを含む。メモリー2804は、いかなるタイプの揮発性または不揮発性記憶デバイス、例えば、スタティックランダムアクセスメモリー(SRAM)、電気的消去可能プログラマブル読み取り専用メモリー(EEPROM)、消去可能プログラマブル読み取り専用メモリー(EPROM)、プログラマブル読み取り専用メモリー(PROM)、読み取り専用メモリー(ROM)、磁気メモリー、フラッシュメモリー、磁気ディスク、または光ディスク、またはこれらの組み合わせによって実現されることができる。
電源コンポーネント2806は、装置2800の様々なコンポーネントに電力を供給する。電源コンポーネント2806は、電源管理システム、一つまたは複数の電源、および装置2800のために電力を生成、管理および配布することに関するほかのコンポーネントを含むことができる。
マルチメディアコンポーネント2808は、前記装置2800とユーザーの間の一つの出力インタフェースを提供するスクリーンを含む。いくつかの実施例において、スクリーンは、液晶ディスプレー(LCD)とタッチパネル(TP)を含むことができる。スクリーンは、タッチパネルを含む場合、ユーザーからの入力信号を受信するように、タッチスクリーンとして実現されることがえきる。タッチパネルは、タッチ、スライドおよびタッチパネルー上のジェスチャーをセンシングするように、一つまたは複数のタッチセンサーを含む。前記タッチセンサーは、タッチまたはスライド動作の限界をセンシングするだけでなく、前記タッチまたはスライド操作に関する持続時間および圧力を検出することができる。いくつかの実施例において、マルチメディアコンポーネント2808は、フロントカメラおよび/またはリアカメラを含む。装置2800が操作モード、例えば、撮影モードまたはビデオモードにある場合、フロントカメラおよび/またはリアカメラは、外部からのマルチメディアデータを受信できる。各フロントカメラおよびリアカメラは、固定された光学レンズシステムであり、または焦点距離と光学ズーム機能を備える。
オーディオコンポーネント2810は、オーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント2810は、マイク(MIC)を含み、装置2800が操作モード、例えば記録モードおよび音声識別モードにある場合、マイクは、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらにメモリー2804に記憶され、または、通信コンポーネント2816を介して送信されることができる。いくつかの実施例において、オーディオコンポーネント2810は、さらに、オーディオ信号を出力するように構成されるスピーカーを含む。
I/Oインタフェース2812は、処理コンポーネント2802と周辺インタフェースモジュールの間にインタフェースを提供する。前記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタンなどであってよい。これらのボタンは、ホームページボタン、音量ボタン、スタートボタンとロックボタンを含むがこれらに限定されない。
センサーコンポーネント2814は、装置2800に各方面の状態評価を提供するように構成される一つまたは複数のセンサーを含む。例えば、センサーコンポーネント2814は、装置2800のオン/オフ状態、コンポーネントの相対的な位置決め、例えば前記コンポーネントが装置2800のディスプレイとキークッションであることを検出することができ、また、センサーコンポーネント2814は、装置2800または装置2800の一つのコンポーネントの位置変化、ユーザーと装置2800の接触が存在する否か、装置2800の方位または加速/減速と装置2800の温度変化を検出できる。センサーコンポーネント2814は、如何なる物理的な接触がない場合に付近物体の存在を検出するように構成される近接センサーを含むことができる。センサーコンポーネント2814は、さらに、イメージングアプリケーションに用いられるように構成されるCMOSまたはCCD画像センサーのような光センサーを含むことができる。いくつかの実施例において、当該センサーコンポーネント2814は、さらに、加速度センサー、ジャイロセンサー、磁気センサー、圧力センサーまたは温度センサーを含むことができる。
通信コンポーネント2816は、装置2800とほかのデバイスとの有線または無線形態の通信を容易にするように構成される。装置2800は、通信基準に基づく無線ネットワーク、例えばWiFi(登録商標)にアクセスできる。一つの例示的な実施例において、通信コンポーネント2816は、ブロードキャストチャネルを介して外部ブロードキャスト管理システムからのブロードキャスト信号またはブロードキャストに関する情報を受信する。一つの例示的な実施例において、前記通信コンポーネント2816は、さらに、近距離通信を促進するように、近距離通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、ウルトラワイドバンド(UWB)技術、ブルートゥース(BT)技術とほかの技術に基づいて実現されることができる。
例示的な実施例において、装置2800は、一つまたは複数の特定用途向け集積回路(ASIC)、ディジタル信号処理機(DSP)、ディジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブル ゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたはほかの電子部品によって実現されることができ、前記方法を実行するように構成される。
例示的な実施例において、さらに、コマンドを含むメモリー2804のようなコマンドを含む非一時的なコンピュータ可読記憶媒体が提供され、前記コマンドは、前記方法を完了するように、装置2800のプロセッサ2820によって実行されることができる。例えば、前記非一時的なコンピュータ可読記憶媒体は、ROM、ランダムアクセスメモリー(RAM)、CD−ROM、磁気テープ、フロッピーディスクと光データ記憶デバイスなどであってよい。
非一時的なコンピュータ可読記憶媒体であって、前記記憶媒体におけるコマンドがスマート撮影デバイスのプロセッサで実行される場合、スマート撮影デバイスは、スマートデバイス制御方法を実行することができ、前記方法は、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および当該ユーザーの眼球情報を確定することと、
当該中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信することとを含む。
本開示の別の実施例において、当該第一の画像に基づいてデバイス識別子情報を確定することは、
当該第一の画像から当該ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記デバイス識別子情報を確定することとを含む。
本開示の別の実施例において、当該第一の画像から当該ユーザーの視線方向を確定することは、
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得することと、
当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む。
本開示の別の実施例において、当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
当該ユーザーの目の位置に基づいて、当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
当該瞳オフセット角度に基づいて、当該ユーザーの視線方向を確定することとを含む。
本開示の別の実施例において、当該視線方向に基づいて当該デバイス識別子情報を確定することは、
当該視線方向に指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を前記デバイス識別子情報として確定すること、または、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定することとを含む。
本開示の実施例において、スマート撮影デバイスは、中継デバイスによりスマートマットレスから送信された画像収集要求を受信し、画像収集を行い、収集された画像によりデバイス識別子情報および眼球情報を確定し、中継デバイスがデバイス識別子情報および眼球情報に基づいてターゲットスマートデバイスを制御するようにし、それによってユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、ターゲットスマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図29は、一つの例示的な実施例によるスマートデバイス制御のための装置2900のブロック図である。例えば、装置2900は、携帯電話、コンピューター、ディジタルブロードキャスト端末、メッセージ送受信デバイス、ゲームコンソール、タブレットデバイス、医療デバイス、フィットネスデバイス、パーソナルディジタルアシスタント、スマートカメラなどであってよい。
図29を参照し、装置2900は、処理コンポーネント2902、メモリー2904、電源コンポーネント2906、マルチメディアコンポーネント2908、オーディオコンポーネント2910、入力/出力(I/O)インタフェース2912、センサーコンポーネント2914、および通信コンポーネント2916の一つまたは複数のコンポーネントを含むことができる。
処理コンポーネント2902は、一般的に、制御装置2900の全体操作、例えば表示、電話コール、データ通信、カメラ操作および記録操作に関する操作を制御する。処理コンポーネント2902は、前記の方法の全部または一部のステップを完了するように、一つまたは複数のプロセッサ2920を含んでコマンドを実行することができる。また、処理コンポーネント2902は、ほかのコンポーネントとのインタラクションを容易にするように、一つまたは複数のモジュールを含むことができる。例えば、処理コンポーネント2902は、マルチメディア2908とのインタラクションを容易にするように、マルチメディアモジュールを含むことができる。
メモリー2904は、装置2900での操作をサポートするように、様々なタイプのデータを記憶するように構成される。これらのデータの例は、装置2900で操作されるいかなるアプリケーションまたは方法のためのコマンド、メッセージ、ピクチャ、ビデオなどを含む。メモリー2904は、いかなるタイプの揮発性または不揮発性記憶デバイス、例えばスタティックランダムアクセスメモリー(SRAM)、電気的消去可能プログラマブル読み出し専用メモリー(EEPROM)、消去可能プログラマブル読み出し専用メモリー(EPROM)、プログラマブル読み出し専用メモリー(PROM)、読み出し専用メモリー(ROM)、磁気メモリー、フラッシュメモリー、磁気ディスクまたは光ディスク、またはこれらの組み合わせで実現されることができる。
電源コンポーネント2906は、装置2900の各コンポーネントに電力を提供する。電源コンポーネント2906は、電源管理システム、一つまたは複数の電源、および装置2900のために電力を生成、管理および配布することに関するほかのコンポーネントを含むことができる。
マルチメディアコンポーネント2908は、前記装置2900とユーザーの間の一つの出力インタフェースを提供するスクリーンを含む。いくつかの実施例において、スクリーンは、液晶ディスプレー(LCD)とタッチパネル(TP)を含むことができる。スクリーンは、タッチパネルを含む場合、ユーザーからの入力信号を受信するように、タッチスクリーンとして実現されることができる。タッチパネルは、タッチ、スライドおよびタッチパネルー上のジェスチャーをセンシングするように、一つまたは複数のタッチセンサーを含む。前記タッチセンサーは、タッチまたはスライド動作の限界をセンシングするだけでなく、前記タッチまたはスライド操作に関する持続時間および圧力を検出することができる。いくつかの実施例において、マルチメディアコンポーネント2908は、フロントカメラおよび/またはリアカメラを含む。装置2900が操作モード、例えば撮影モードまたはビデオモードにある場合、フロントカメラおよび/またはリアカメラは、外部からのマルチメディアデータを受信できる。各フロントカメラおよびリアカメラは、固定された光学レンズシステムであり、または焦点距離と光学ズーム機能を備える。
オーディオコンポーネント2910は、オーディオ信号を出力および/または入力するように構成する。例えば、オーディオコンポーネント2910は、マイク(MIC)を含み、装置2900が操作モード、例えば記録モードおよび音声識別モードにある場合、マイクが、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらにメモリー2904に記憶され、または、通信コンポーネント2916を介して送信されることができる。いくつかの実施例において、オーディオコンポーネント2910は、さらに、オーディオ信号を出力するように構成されるスピーカーを含む。
I/Oインタフェース2912は、処理コンポーネント2902と周辺インタフェースモジュールの間にインタフェースを提供する。前記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタンなどであってよい。これらのボタンは、ホームページボタン、音量ボタン、スタートボタンとロックボタンを含むがこれらに限定されない。
センサーコンポーネント2914は、各方面の状態評価を提供するように構成される一つまたは複数のセンサーを含む。例えば、センサーコンポーネント2914は、装置2900のオン/オフ状態、コンポーネントの相対的な位置決め、例えば前記コンポーネントが装置2900のディスプレイとキークッションであることを検出することができ、また、センサーコンポーネント2914は、装置2900または装置2900の一つのコンポーネントの位置変化、ユーザーと装置2900の接触が存在するか、装置2900の方位または加速/減速と装置2900の温度変化を検出できる。センサーコンポーネント2914は、如何なる物理的な接触がない場合に付近物体の存在を検出するように構成される近接センサーを含むことができる。センサーコンポーネント2914は、さらに、イメージングアプリケーションに用いられるように構成されるCMOSまたはCCD画像センサーのような光センサーを含むことができる。いくつかの実施例において、当該センサーコンポーネント2914は、さらに、加速度センサー、ジャイロセンサー、磁気センサー、圧力センサーまたは温度センサーを含むことができる。
通信コンポーネント2916は、装置2900とほかのデバイスとの有線または無線形態の通信を容易にするように構成される。装置2900は、通信基準に基づく無線ネットワーク、例えばWiFiにアクセスできる。一つの例示的な実施例において、通信コンポーネント2916は、ブロードキャストチャネルを介して外部ブロードキャスト管理システムからのブロードキャスト信号またはブロードキャストに関する情報を受信する。一つの例示的な実施例において、前記通信コンポーネント2916は、さらに、近距離通信を促進するように、近距離通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、ウルトラワイドバンド(UWB)技術、ブルートゥース(BT)技術とほかの技術に基づいて実現されることができる。
例示的な実施例において、装置2900は、一つまたは複数の特定用途向け集積回路(ASIC)、ディジタル信号処理機(DSP)、ディジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブル ゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたはほかの電子部品によって実現されることができ、前記方法を実行するように構成される。
例示的な実施例において、さらに、コマンドを含むメモリー2904のようなコマンドを含む非一時的なコンピュータ可読記憶媒体が提供される。前記コマンドは、前記方法を完了するように、装置2900のプロセッサ2920によって実行されることができる。例えば、前記非一時的なコンピュータ可読記憶媒体は、ROM、ランダムアクセスメモリー(RAM)、CD−ROM、磁気テープ、フロッピーディスクと光データ記憶デバイスなどであってよい。
非一時的なコンピュータ可読記憶媒体であって、前記記憶媒体におけるコマンドがスマート撮影デバイスのプロセッサによって実行される場合、スマート撮影デバイスは、スマートデバイス制御方法を実行することができ、前記方法は、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
当該ユーザーの眼球情報を確定することと、
当該中継デバイスが当該第一の画像および当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように、当該第一の画像および当該眼球情報を当該中継デバイスに送信することとを含む。
本開示の別の実施例において、当該第一の画像および当該眼球情報を前記中継デバイスに送信した後、さらに、
当該中継デバイスから送信された、第一の画像を分析して取得した視線方向を受信した場合、当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
当該第二の画像を当該中継デバイスに送信することとを含む。
本開示の実施例において、スマート撮影デバイスは、中継デバイスによりスマートマットレスから送信された画像収集要求を受信し、画像収集を行い、収集された画像により眼球情報を確定することができ、中継デバイスが収集された画像および眼球情報に基づいてターゲットスマートデバイスを制御するようにし、それによってユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、ターゲットスマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザー体験を高める。
図30は、一つの例示的な実施例によるスマートデバイス制御のための装置3000のブロック図である。例えば、装置3000は、中継デバイスとして提供されることができる。図30を参照し、装置3000は、処理コンポーネント3022を含み、それがさらに一つまたは複数のプロセッサ、および処理コンポーネント3022で実行可能なコマンド例えばアプリケーションプログラムを記憶するように構成される、メモリー3032に代表されるメモリー資源を含む。メモリー3032に記憶されたアプリケーションプログラムは、それぞれが一組のコマンドに対応する、一つまたは複数のモジュールを含むことができる。
装置3000は、さらに装置3000の電源管理を実行するように構成される電源コンポーネント3026、装置3000をネットワークに接続するように構成される有線または無線ネットワークインタフェース3050、および入力出力(I/O)インタフェース3058を含むことができる。装置3000は、メモリー3032に記憶された操作システム、例えば、Windows(登録商標) Server、Mac(登録商標) OS X、Unix(登録商標)、Linux(登録商標)、FreeBSD(登録商標)またはこれらと類似するものに基づいて操作されることができる。
また、処理コンポーネント3022は、下記方法を実行するように、コマンドを実行するように構成される。前記方法は、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ当該第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて当該画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
当該デバイス識別子情報と当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することとを含む。
本開示の別の実施例において、当該デバイス識別子情報と当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することは、
当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することと、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することとを含む。
本開示の別の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、
当該デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択することと、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、
当該デバイス識別子情報が第二の画像である場合、当該第二の画像からスマートデバイスのデバイスマークを識別することと、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することは、
当該デバイス識別子情報が当該ユーザーの視線方向と水平方向の間の夾角である第一の夾角および当該視線方向と指定された方向の間の夾角である第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて、記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することは、
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することとを含む。
本開示の実施例において、中継デバイスは、スマートマットレスから送信された画像収集要求を受信し、当該画像収集要求をスマート撮影デバイスへ送信し、スマート撮影デバイスが収集された画像に基づいて返したデバイス識別子情報と眼球情報を受信し、当該デバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスを制御することができ、このようにしてユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、これにより、ターゲットスマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
図31は、一つの例示的な実施例によるスマートデバイス制御のための装置3100のブロック図である。例えば、装置3100は、中継デバイスとして提供されることができる。図31を参照し、装置3100は、処理コンポーネント3122を含み、それがさらに一つまたは複数のプロセッサ、および処理コンポーネント3122で実行可能なコマンド例えばアプリケーションプログラムを記憶するように構成される、メモリー3132に代表されるメモリー資源を含む。メモリー3132に記憶されたアプリケーションプログラムは、それぞれがが一組のコマンドに対応する一つまたは複数のモジュールを含むことができる。
装置3100は、さらに装置3100の電源管理を実行するように構成される電源コンポーネント3126、装置3100をネットワークに接続するように構成される有線または無線ネットワークインタフェース3150、および入力出力(I/O)インタフェース3158を含むことができる。装置3100は、メモリー3132に記憶された操作システム、例えば、Windows(登録商標) Server、Mac(登録商標) OS X、Unix(登録商標)、Linux(登録商標)、FreeBSD(登録商標)または類似するものに基づいて操作されることができる。
また、処理コンポーネント3122は、下記方法を実行するように、コマンドを実行するように構成される。当該方法は、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スートマットレス識別子が含まれている画像収集要求を受信することと、
当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、当該第一の画像と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御することとを含む。
本開示の別の実施例において、前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
本開示の別の実施例において、前記第一の画像から前記ユーザーの視線方向を確定することは、
前記第一の画像を顔識別し、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目を視線識別し、前記ユーザーの視線方向を取得することとを含む。
本開示の別の実施例において、前記ユーザーの目の位置に基づいて前記ユーザーの目を視線識別し、前記ユーザーの視線方向を取得することは、
前記ユーザーの目の位置に基づいて前記ユーザーの瞳が正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定することとを含む。
本開示の別の実施例において、前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定することと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信することと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することとを含む。
本開示の別の実施例において、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
前記第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイスマークの間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
本開示の別の実施例において、前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む。
本開示の実施例において、中継デバイスは、スマートマットレスから送信された画像収集要求を受信し、当該請求をスマート撮影デバイスへ送信し、スマート撮影デバイスから返された、収集された画像と眼球情報を受信し、当該画像と眼球情報に基づいてターゲットスマートデバイスを制御することができ、このようにしてユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、ターゲットスマートデバイスに対する制御がより便利かつ容易になり、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。
当業者は、明細書を考えてここで開示された実施例を実施した後、本開示のほかの実施形態を想到しやすい。本願は、本公開のいかなる変形、用途または適応性変化を含むことを目的とし、これらの変形、用途または適応性変化が、本開示の一般的な原理に従い、かつ本開示に開示されない本技術分野の周知常識と慣用技術手段を含む。明細書と実施例は、例示的なもののみとして見なされ、本開示の本当の範囲と精神は以下の請求項によって指される。
本発明は、以上に述べられ且つ図に示す精確な構造に限定されるものではなく、その範囲を逸脱しない限り、様々な修正と変更を行うことができると理解すべきである。本公開の範囲は、添付の請求項のみによって限定される。
本開示の実施例において中継デバイスによりスマートマットレス、スマート撮影デバイスとターゲットスマートデバイスの間のインタラクションを実現し、ターゲットスマートデバイスが画像を収集し、収集された画像からデバイス識別子情報と眼球情報を取得し、それによってデバイス識別子情報と眼球情報に基づいてターゲットスマートデバイスに対する制御を実現し、ユーザーがリモコンを使わずにターゲットスマートデバイスを制御でき、ターゲットスマートデバイスを制御する場合のユーザーのユーザー体験を高める。

Claims (48)

  1. スマートデバイス制御方法であって、
    スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
    前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定することと、
    前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信することとを含む、前記スマートデバイス制御方法。
  2. 前記第一の画像に基づいてデバイス識別子情報を確定することは、
    前記第一の画像から前記ユーザーの視線方向を確定することと、
    前記視線方向に基づいて前記デバイス識別子情報を確定することとを含む
    請求項1に記載のスマートデバイス制御方法。
  3. 前記第一の画像から前記ユーザーの視線方向を確定することは、
    前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
    前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む
    請求項2に記載のスマートデバイス制御方法。
  4. 前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
    前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
    前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定することとを含む
    請求項3に記載のスマートデバイス制御方法。
  5. 前記視線方向に基づいて前記デバイス識別子情報を確定することは、
    前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定すること、
    または、
    前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定することとを含む
    請求項2に記載のスマートデバイス制御方法。
  6. スマートデバイス制御方法であって、
    スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
    前記ユーザーの眼球情報を確定することと、
    前記中継デバイスが前記第一の画像および前記眼球情報に基づいてターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信することとを含む、前記スマートデバイス制御方法。
  7. 前記第一の画像および前記眼球情報を前記中継デバイスに送信した後、さらに、
    中継デバイスから送信された、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
    前記第二の画像を前記中継デバイスに送信することとを含む
    請求項6に記載のスマートデバイス制御方法。
  8. スマートデバイス制御方法であって、
    スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
    前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
    前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む前記スマートデバイス制御方法。
  9. 前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
    前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することと、
    前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む
    請求項8に記載のスマートデバイス制御方法。
  10. 前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
    前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
    前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
    請求項9に記載のスマートデバイス制御方法。
  11. 前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
    前記デバイス識別子情報が第二の画像である場合、前記第二の画像からスマートデバイスのデバイスマークを識別することと、
    前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
    請求項9に記載のスマートデバイス制御方法。
  12. 前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
    前記デバイス識別子情報が、前記視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
    請求項9に記載のスマートデバイス制御方法。
  13. 前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
    前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
    取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む
    請求項9に記載のスマートデバイス制御方法。
  14. スマートデバイス制御方法であって、
    スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
    前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
    前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む、前記スマートデバイス制御方法。
  15. 前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
    前記第一の画像から前記ユーザーの視線方向を確定することと、
    前記視線方向に基づいて前記ターゲットスマートデバイスを確定することと、
    前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む
    請求項14に記載のスマートデバイス制御方法。
  16. 前記第一の画像から前記ユーザーの視線方向を確定することは、
    前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
    前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む
    請求項15に記載のスマートデバイス制御方法。
  17. 前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
    前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
    前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定することとを含む
    請求項16に記載のスマートデバイス制御方法。
  18. 前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
    前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定することと、
    前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
    請求項15に記載のスマートデバイス制御方法。
  19. 前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
    前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信することと、
    前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することとを含む
    請求項15に記載のスマートデバイス制御方法。
  20. 前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
    記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
    前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
    請求項19に記載のスマートデバイス制御方法。
  21. 前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
    前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別することと、
    前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイスマークの間の対応関係から対応するスマートデバイス識別子を取得することと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
    請求項19に記載のスマートデバイス制御方法。
  22. 前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
    前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
    取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む
    請求項15に記載のスマートデバイス制御方法。
  23. スマートデバイス制御装置であって、
    スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される画像収集モジュールと、
    前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
    前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される送信モジュールとを含む、前記スマートデバイス制御装置。
  24. 前記確定モジュールは、
    前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
    前記視線方向に基づいて前記デバイス識別子情報を確定するように構成される第二の確定ユニットとを含む
    請求項23に記載のスマートデバイス制御装置。
  25. 前記第一の確定ユニットは、
    前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
    前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む
    請求項24に記載のスマートデバイス制御装置。
  26. 前記第二の識別サブユニットは、具体的に、
    前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し
    前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定するように構成される
    請求項25に記載のスマートデバイス制御装置。
  27. 前記第二の確定ユニットは、
    前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定するように構成される画像収集サブユニット、または、
    前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定するように構成される確定サブユニットとを含む
    請求項24に記載のスマートデバイス制御装置。
  28. スマートデバイス制御装置であって、
    スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される第一の画像収集モジュールと、
    前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
    前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される第一の送信モジュールとを含む、前記スマートデバイス制御装置。
  29. 中継デバイスから送信された、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得するように構成される第二の画像収集モジュールと、
    前記第二の画像を前記中継デバイスに送信するように構成される第二の送信モジュールとをさらに含む
    請求項28に記載のスマートデバイス制御装置。
  30. スマートデバイス制御装置であって、
    スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
    前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
    前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む、前記スマートデバイス制御装置。
  31. 前記制御モジュールは、
    前記デバイス識別子情報に基づいて、前記ターゲットスマートデバイスを確定するように構成される確定ユニットと、
    前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む
    請求項30に記載のスマートデバイス制御装置。
  32. 前記確定ユニットは、
    前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指向される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択するように構成される選択サブユニットと、
    前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第一の確定サブユニットとを含む
    請求項31に記載のスマートデバイス制御装置。
  33. 前記確定ユニットは、
    前記デバイス識別子情報が第二の画像である場合、前記第二の画像からスマートデバイスのデバイスマークを識別するように構成される識別サブユニットと、
    前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するための第一の取得サブユニットと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む
    請求項31に記載のスマートデバイス制御装置。
  34. 前記確定ユニットは、
    前記デバイス識別子情報が、前記視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第二の取得サブユニットと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第三の確定サブユニットとを含む
    請求項31に記載のスマートデバイス制御装置。
  35. 前記制御ユニットは、
    前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第三の取得サブユニットと、
    取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む
    請求項31に記載のスマートデバイス制御装置。
  36. スマートデバイス制御装置であって、
    スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
    前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
    前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む、前記スマートデバイス制御装置。
  37. 前記制御モジュールは、
    前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
    前記視線方向に基づいて前記ターゲットスマートデバイスを確定するように構成される第二の確定ユニットと
    前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む
    請求項36に記載のスマートデバイス制御装置。
  38. 前記第一の確定ユニットは、
    前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
    前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む
    請求項37に記載のスマートデバイス制御装置。
  39. 前記第二の識別サブユニットは、具体的に、
    前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定するように構成される
    請求項38に記載のスマートデバイス制御装置。
  40. 前記第二の確定ユニットは、
    前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定するように構成される第一の確定サブユニットと、
    前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニットと、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む
    請求項37に記載のスマートデバイス制御装置。
  41. 前記第二の確定ユニットは、
    前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信するように構成される送信サブユニットと、
    前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定するように構成される第三の確定サブユニットとを含む
    請求項37に記載のスマートデバイス制御装置。
  42. 前記第三の確定サブユニットは、具体的に、
    記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択し、
    前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される
    請求項41に記載のスマートデバイス制御装置。
  43. 前記第三の確定サブユニットは、具体的に、
    前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別し、
    前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイスマークの間の対応関係から対応するスマートデバイス識別子を取得し、
    取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される
    請求項41に記載のスマートデバイス制御装置。
  44. 前記制御ユニットは、
    前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第二の取得サブユニットと、
    取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む
    請求項37に記載のスマートデバイス制御装置。
  45. スマートデバイス制御装置であって、
    プロセッサと、
    プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
    前記プロセッサは、
    スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
    前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定し、
    前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される、前記スマートデバイス制御装置。
  46. スマートデバイス制御装置であって、
    プロセッサと、
    プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
    前記プロセッサは、
    スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
    前記ユーザーの眼球情報を確定し、
    前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される、前記スマートデバイス制御装置。
  47. スマートデバイス制御装置であって、
    プロセッサと、
    プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
    前記プロセッサは、
    スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
    前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
    前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される、前記スマートデバイス制御装置。
  48. スマートデバイス制御装置であって、
    プロセッサと、
    プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
    前記プロセッサは、
    スマートマットレスから送信されたユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
    前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
    前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される、前記スマートデバイス制御装置。
JP2018518410A 2015-11-17 2015-12-25 スマートデバイス制御方法および装置 Active JP6423129B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510792231.5 2015-11-17
CN201510792231.5A CN105468144B (zh) 2015-11-17 2015-11-17 智能设备控制方法及装置
PCT/CN2015/099021 WO2017084173A1 (zh) 2015-11-17 2015-12-25 智能设备控制方法及装置

Publications (2)

Publication Number Publication Date
JP6423129B1 JP6423129B1 (ja) 2018-11-14
JP2018536222A true JP2018536222A (ja) 2018-12-06

Family

ID=55605928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018518410A Active JP6423129B1 (ja) 2015-11-17 2015-12-25 スマートデバイス制御方法および装置

Country Status (8)

Country Link
US (1) US9894260B2 (ja)
EP (1) EP3171293A1 (ja)
JP (1) JP6423129B1 (ja)
KR (1) KR101942082B1 (ja)
CN (1) CN105468144B (ja)
MX (1) MX365738B (ja)
RU (1) RU2656690C1 (ja)
WO (1) WO2017084173A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10441087B2 (en) * 2015-02-24 2019-10-15 Sleep Number Corporation Mattress with adjustable firmness
CN105942749B (zh) * 2016-05-30 2019-03-01 京东方科技集团股份有限公司 电视床及其工作方法
CN106599876A (zh) * 2016-12-28 2017-04-26 重庆金鑫科技产业发展有限公司 一种基于生物特征识别的信息处理方法及装置
CN107832653A (zh) * 2017-10-27 2018-03-23 上海京颐科技股份有限公司 医疗终端及其控制方法、电子设备
KR102582863B1 (ko) 2018-09-07 2023-09-27 삼성전자주식회사 사용자 의도 기반 제스처 인식 방법 및 장치
CN112665136B (zh) * 2021-01-08 2022-05-31 青岛海尔空调器有限总公司 基于智能床垫的空调器的控制方法和智能床垫
CN114253396A (zh) * 2021-11-15 2022-03-29 青岛海尔空调电子有限公司 一种目标控制方法、装置、设备和介质
CN114027667B (zh) * 2021-12-01 2023-08-15 慕思健康睡眠股份有限公司 一种在离床状态判定方法、装置、智能床垫及介质
CN115191774B (zh) * 2022-07-28 2023-06-23 慕思健康睡眠股份有限公司 一种基于电动床的调节方法及***、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040073931A1 (en) * 2002-10-10 2004-04-15 Tempur World, Inc. Interactive bed display
JP2005095570A (ja) * 2003-08-19 2005-04-14 Sony Corp 画像表示システム、画像表示装置、画像表示方法
JP2005177342A (ja) * 2003-12-22 2005-07-07 Fukuda Denshi Co Ltd 無線テレメータ、セントラルモニタ及びそれらを用いた患者監視システム
US20120053423A1 (en) * 2010-08-24 2012-03-01 Christopher Kenalty Smart mattress
JP2015524308A (ja) * 2012-07-31 2015-08-24 張志剛 スマートマットレス
US9600080B2 (en) * 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1174337C (zh) * 2002-10-17 2004-11-03 南开大学 识别人眼注视与否的方法和装置及其应用
US8690751B2 (en) * 2003-12-31 2014-04-08 Raphael Auphan Sleep and environment control method and system
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
JP4837762B2 (ja) * 2009-06-18 2011-12-14 本田技研工業株式会社 車載機器操作装置
WO2012095783A1 (en) * 2011-01-12 2012-07-19 Koninklijke Philips Electronics N.V. Improved detection of breathing in the bedroom
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
CN102508551B (zh) 2011-11-18 2014-06-18 北京恒信彩虹科技有限公司 一种目光捕捉方法和采用目光捕捉的人机交互方法
CN102523401B (zh) * 2011-12-29 2015-09-30 深圳Tcl新技术有限公司 智能家居电视机控制***及方法
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US9375142B2 (en) * 2012-03-15 2016-06-28 Siemens Aktiengesellschaft Learning patient monitoring and intervention system
CN102981625A (zh) * 2012-12-05 2013-03-20 深圳Tcl新技术有限公司 眼动遥控方法和***
CN103873959B (zh) * 2012-12-13 2019-02-05 联想(北京)有限公司 一种控制方法和电子设备
US20160162039A1 (en) 2013-07-21 2016-06-09 Pointgrab Ltd. Method and system for touchless activation of a device
US9830424B2 (en) * 2013-09-18 2017-11-28 Hill-Rom Services, Inc. Bed/room/patient association systems and methods
JP2015064476A (ja) * 2013-09-25 2015-04-09 セイコーエプソン株式会社 画像表示装置、画像表示装置を制御する方法
CA2990779C (en) * 2013-12-16 2018-11-06 Blue Ocean Laboratories, Inc. Sleep system alarm
US20150281659A1 (en) * 2014-03-11 2015-10-01 Hill-Rom Services, Inc. Image transmission or recording triggered by bed event
CN104977904B (zh) * 2014-04-04 2018-06-19 浙江大学 一种可见即可控的智能家居控制***及控制方法
CN104606003A (zh) * 2015-02-02 2015-05-13 河海大学常州校区 基于人脸识别的智能护理床及其工作方法
US20170020391A1 (en) * 2015-07-24 2017-01-26 Johnson & Johnson Vision Care, Inc. Biomedical devices for real time medical condition monitoring using biometric based information communication
US20170020440A1 (en) * 2015-07-24 2017-01-26 Johnson & Johnson Vision Care, Inc. Biomedical devices for biometric based information communication and sleep monitoring
US20170020441A1 (en) * 2015-07-24 2017-01-26 Johnson & Johnson Vision Care, Inc. Systems and biomedical devices for sensing and for biometric based information communication
CN105045240A (zh) * 2015-07-31 2015-11-11 小米科技有限责任公司 家电控制方法及装置
CN105117007B (zh) * 2015-08-20 2019-02-12 小米科技有限责任公司 显示设备的控制方法、装置及智能垫体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040073931A1 (en) * 2002-10-10 2004-04-15 Tempur World, Inc. Interactive bed display
JP2005095570A (ja) * 2003-08-19 2005-04-14 Sony Corp 画像表示システム、画像表示装置、画像表示方法
JP2005177342A (ja) * 2003-12-22 2005-07-07 Fukuda Denshi Co Ltd 無線テレメータ、セントラルモニタ及びそれらを用いた患者監視システム
US20120053423A1 (en) * 2010-08-24 2012-03-01 Christopher Kenalty Smart mattress
JP2015524308A (ja) * 2012-07-31 2015-08-24 張志剛 スマートマットレス
US9600080B2 (en) * 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
新井康平ほか1名: ""視線入力に基づくロボットアーム制御および摂食支援システム"", 電気学会論文誌C, vol. 第132巻, 第3号, JPN6018037454, 1 March 2012 (2012-03-01), JP, pages 416 - 423 *
鈴木真ほか2名: ""視線制御式レーザスキャナによる福祉ロボット用インタフェース"", 精密工学会 学術講演会 講演論文集1959−2002年, JPN6018037452, 25 May 2009 (2009-05-25), pages 6 - 6 *

Also Published As

Publication number Publication date
WO2017084173A1 (zh) 2017-05-26
EP3171293A1 (en) 2017-05-24
US20170142317A1 (en) 2017-05-18
CN105468144A (zh) 2016-04-06
KR20180040719A (ko) 2018-04-20
MX2016004501A (es) 2017-07-04
US9894260B2 (en) 2018-02-13
CN105468144B (zh) 2019-02-12
JP6423129B1 (ja) 2018-11-14
RU2656690C1 (ru) 2018-06-06
KR101942082B1 (ko) 2019-01-24
MX365738B (es) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6423129B1 (ja) スマートデバイス制御方法および装置
US11032514B2 (en) Method and apparatus for providing image service
JP6353603B2 (ja) スマートホームデバイスの制御方法、装置、電子デバイス、プログラム及び記憶媒体
KR102386398B1 (ko) 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
KR102289837B1 (ko) 촬영 방법 및 전자 장치
KR102360067B1 (ko) 전자 장치 및 전자 장치의 정보 공유 방법
RU2644057C2 (ru) Способ и устройство для дистанционного управления
JP6272552B2 (ja) デバイスバインディング方法、装置、プログラム及び記録媒体
WO2021017836A1 (zh) 控制大屏设备显示的方法、移动终端及第一***
JP7125834B2 (ja) 画像取得方法および装置
JP6374517B2 (ja) 権限検証方法および装置
JP2017532922A (ja) 画像撮影方法及び装置
JP6282785B2 (ja) 目標機能のスターティング方法、装置、システム、プログラム及び記録媒体
JP6100980B2 (ja) 送信パワー調整方法、送信パワー調整装置、プログラム及び記録媒体
EP3402185A1 (en) Method and apparatus for transmitting video during voice call
US20220086735A1 (en) Method and Device for Controlling Connection to Network
JP6556832B2 (ja) 無線アクセスポイントの制御方法、装置、プログラムおよび記録媒体
KR20170055213A (ko) 비행이 가능한 전자 장치를 이용한 촬영 방법 및 장치
US20170249513A1 (en) Picture acquiring method, apparatus, and storage medium
JP2017526099A5 (ja)
JP6289758B2 (ja) 制御プログラムダウンロード方法、装置、プログラム及び記録媒体
KR20160030382A (ko) 스트림 미디어 데이터를 방송하기 위한 방법 및 장치
WO2017166697A1 (zh) 一种显示图像数据的方法和装置
EP3445077B1 (en) Unlocking mobile terminal in augmented reality
KR20160001229A (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181017

R150 Certificate of patent or registration of utility model

Ref document number: 6423129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250