JP2018536222A - スマートデバイス制御方法および装置 - Google Patents
スマートデバイス制御方法および装置 Download PDFInfo
- Publication number
- JP2018536222A JP2018536222A JP2018518410A JP2018518410A JP2018536222A JP 2018536222 A JP2018536222 A JP 2018536222A JP 2018518410 A JP2018518410 A JP 2018518410A JP 2018518410 A JP2018518410 A JP 2018518410A JP 2018536222 A JP2018536222 A JP 2018536222A
- Authority
- JP
- Japan
- Prior art keywords
- smart
- image
- smart device
- user
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 214
- 210000001508 eye Anatomy 0.000 claims description 112
- 238000003384 imaging method Methods 0.000 claims description 98
- 210000001747 pupil Anatomy 0.000 claims description 56
- 230000001960 triggered effect Effects 0.000 claims description 37
- 238000012790 confirmation Methods 0.000 claims description 31
- 230000005540 biological transmission Effects 0.000 claims description 27
- 238000010586 diagram Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004071 soot Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47C—CHAIRS; SOFAS; BEDS
- A47C21/00—Attachments for beds, e.g. sheet holders, bed-cover holders; Ventilating, cooling or heating means in connection with bedsteads or mattresses
- A47C21/003—Lighting, radio, telephone or the like connected to the bedstead
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47C—CHAIRS; SOFAS; BEDS
- A47C31/00—Details or accessories for chairs, beds, or the like, not provided for in other groups of this subclass, e.g. upholstery fasteners, mattress protectors, stretching devices for mattress nets
- A47C31/008—Use of remote controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00352—Input means
- H04N1/00381—Input by recognition or interpretation of visible user gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
- Position Input By Displaying (AREA)
Abstract
【選択図】図2
Description
本開示の実施例は、スマートホーム分野に関し、特に、スマートデバイス制御方法および装置に関する。
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定することと、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信することとを含む。
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記デバイス識別子情報を確定することとを含む。
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む。
前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定することとを含む。
前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定すること、または、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定することとを含む。
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記ユーザーの眼球情報を確定することと、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信することとを含む。
中継デバイスから送信された、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
前記第二の画像を前記中継デバイスに送信することとを含む。
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記デバイス識別子情報が第二の画像である場合、前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記デバイス識別子情報が前記ユーザーの視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む。
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む。
前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定することとを含む。
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定することと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信することと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することとを含む。
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む。
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される画像収集モジュールと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される送信モジュールとを含む。
前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
前記視線方向に基づいて前記デバイス識別子情報を確定するように構成される第二の確定ユニットとを含む。
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む。
前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し
前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定するように構成される。
前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定するように構成される画像収集サブユニット、または、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定するように構成される確定サブユニットとを含む。
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される第一の画像収集モジュールと、
前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される第一の送信モジュールとを含む。
中継デバイスが送信した、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得するように構成される第二の画像収集モジュールと、
前記第二の画像を前記中継デバイスに送信するように構成される第二の送信モジュールとをさらに含む。
前記スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む。
前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定するように構成される確定ユニットと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む。
前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択するように構成される選択サブユニットと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第一の確定サブユニットとを含む。
前記デバイス識別子情報が第二の画像である場合、前記第二の画像からスマートデバイスのデバイスマークを識別するように構成される識別サブユニットと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む。
前記デバイス識別子情報が前記視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第二の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第三の確定サブユニットとを含む。
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第三の取得サブユニットと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む。
前記スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む。
前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定するように構成される第二の確定ユニットと
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む。
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む。
前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定するように構成される。
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定するように構成される第一の確定サブユニットと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む。
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信するように構成される送信サブユニットと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定するように構成される第三の確定サブユニットとを含む。
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択し、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される。
前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別し、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される。
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第二の取得サブユニットと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む。
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、前記プロセッサは、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定し、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される。
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、プロセッサは、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用するという画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
前記ユーザーの眼球情報を確定し、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される。
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、前記プロセッサは、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される。
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
ここで、前記プロセッサは、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される。
当該第一の画像から当該ユーザーの視線方向を確定することと、
当該視線方向に基づいて当該デバイス識別子情報を確定することとを含む。
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得することと、
当該ユーザーの目の位置に基づいて、当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することとを含む。
当該ユーザーの目の位置に基づいて、当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定することとを含む。
当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を当該デバイス識別子情報として確定すること、または、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定することを含む。
当該中継デバイスから送信された、当該第一の画像を分析して取得した視線方向を受信した場合、当該中継デバイスが当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
当該第二の画像を当該中継デバイスに送信することとをさらに含む。
当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することと、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することとを含む。
当該デバイス識別子情報が第二の画像である場合、記憶された画像ライブラリから、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行って取得した第二の画像とマッチングするターゲット画像を選択することと、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該デバイス識別子情報が第二の画像である場合、当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別することと、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該デバイス識別子情報が当該ユーザーの視線方向と水平方向の間の夾角である第一の夾角と当該視線方向と指定された方向の間の夾角である第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて、記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することとを含む。
当該第一の画像から当該ユーザーの視線方向を確定することと、
当該視線方向に基づいて当該ターゲットスマートデバイスを確定することと、
当該眼球情報基づいて当該ターゲットスマートデバイスを制御することとを含む。
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得することと、
当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、当該ユーザーの視線方向を取得することとを含む。
当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定することとを含む。
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定することと、
当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を返すように、当該視線方向を当該スマート撮影デバイスへ送信することと、
当該スマート撮影デバイスから返された第二の画像を受信した場合、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定することとを含む。
記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択することと、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別することと、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することとを含む。
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定する。
当該第一の画像から当該ユーザーの視線方向を確定するように構成される第一の確定ユニット10021と、
当該視線方向に基づいて当該デバイス識別子情報を確定するように構成される第二の確定ユニット10022を含む。
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得するように構成される第一の識別サブユニット100211と、
当該ユーザーの目の位置に基づいて当該ユーザーの眼に対して視線識別を行い、当該ユーザーの視線方向を取得するように構成される第二の識別サブユニット100212とを含む。
当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定するように構成される。
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定するように構成される確定サブユニット100222を含む。
当該中継デバイスから送信された、当該第一の画像を分析して取得した視線方向を受信した場合、当該視線方向に指される位置に対して画像収集を行い、第二の画像を取得するように構成される第二の画像収集モジュール1404、
当該第二の画像を当該中継デバイスへ送信するように構成される第二の送信モジュール1405を含む。
当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定するように構成される確定ユニット16031と、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように構成される制御ユニット16032を含む。
当該デバイス識別子情報が、当該スマート撮影デバイスが当該視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択するように構成される選択サブユニット160311と、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第一の確定サブユニット160312とを含む。
当該デバイス識別子情報が第二の画像である場合、当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別するように構成される識別サブユニット160313と、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニット160314と、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニット160315とを含む。
当該デバイス識別子情報が当該ユーザーの視線方向と水平方向の間の夾角である第一の夾角および当該視線方向と指定された方向の間の夾角である第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から、対応するスマートデバイス識別子を取得するように構成される第二の取得サブユニット160316と、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第三の確定サブユニット160317とを含む。
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第三の取得サブユニット160321と、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御するように構成される制御サブユニット160322とを含む。
当該第一の画像から当該ユーザーの視線方向を確定するように構成される第一の確定ユニット22031と、
当該視線方向に基づいて当該ターゲットスマートデバイスを確定するように構成される第二の確定ユニット22032と、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように構成される制御ユニット22033とを含む。
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得するように構成される第一の識別サブユニット220311と、
当該ユーザーの目の位置に基づいて当該ユーザーの眼に対して視線識別を行い、当該ユーザーの視線方向を取得するように構成される第二の識別サブユニット220312とを含む。
当該ユーザーの目の位置に基づいて当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、
当該瞳オフセット角度に基づいて当該ユーザーの視線方向を確定するように構成される。
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定するように構成される第一の確定サブユニット220321と、
当該第一の夾角と当該第二の夾角に基づいて記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニット220322と、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニット220323とを含む。
当該スマート撮影デバイスが当該視線方向によって指向される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を返すように、当該視線方向を当該スマート撮影デバイスへ送信するように構成される送信サブユニット220324と、
当該スマート撮影デバイスから返された第二の画像を受信した場合、当該第二の画像に基づいて当該ターゲットスマートデバイスを確定するように構成される第三の確定サブユニット220325とを含む。
記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択し、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される。
当該第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別し、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得し、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定するように構成される。
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第二の取得サブユニット220331と、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御するように構成される制御サブユニット220332とを含む。
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および当該ユーザーの眼球情報を確定することと、
当該中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信することとを含む。
当該第一の画像から当該ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記デバイス識別子情報を確定することとを含む。
当該第一の画像に対して顔識別を行い、当該ユーザーの目の位置を取得することと、
当該ユーザーの目の位置に基づいて当該ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む。
当該ユーザーの目の位置に基づいて、当該ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
当該瞳オフセット角度に基づいて、当該ユーザーの視線方向を確定することとを含む。
当該視線方向に指される位置に対して画像収集を行い、第二の画像を取得し、当該第二の画像を前記デバイス識別子情報として確定すること、または、
当該視線方向と水平方向の間の第一の夾角および当該視線方向と指定された方向の間の第二の夾角を確定し、当該第一の夾角と当該第二の夾角を当該デバイス識別子情報として確定することとを含む。
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
当該ユーザーの眼球情報を確定することと、
当該中継デバイスが当該第一の画像および当該眼球情報に基づいて当該ターゲットスマートデバイスを制御するように、当該第一の画像および当該眼球情報を当該中継デバイスに送信することとを含む。
当該中継デバイスから送信された、第一の画像を分析して取得した視線方向を受信した場合、当該視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
当該第二の画像を当該中継デバイスに送信することとを含む。
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ当該第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて当該画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
当該デバイス識別子情報と当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することとを含む。
当該デバイス識別子情報に基づいて当該ターゲットスマートデバイスを確定することと、
当該眼球情報に基づいて当該ターゲットスマートデバイスを制御することとを含む。
当該デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから当該第二の画像とマッチングするターゲット画像を選択することと、
当該ターゲット画像におけるスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該デバイス識別子情報が第二の画像である場合、当該第二の画像からスマートデバイスのデバイスマークを識別することと、
当該デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該デバイス識別子情報が当該ユーザーの視線方向と水平方向の間の夾角である第一の夾角および当該視線方向と指定された方向の間の夾角である第二の夾角である場合、当該第一の夾角と当該第二の夾角に基づいて、記憶された第一の夾角、第二の夾角とスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを当該ターゲットスマートデバイスとして確定することとを含む。
当該眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて当該ターゲットスマートデバイスを制御することとを含む。
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スートマットレス識別子が含まれている画像収集要求を受信することと、
当該スマート撮影デバイスが当該スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、当該第一の画像と当該ユーザーの眼球情報を返すように、当該スマートマットレス識別子に基づいて当該画像収集要求を当該スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
当該第一の画像と当該眼球情報に基づいてターゲットスマートデバイスを制御することとを含む。
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む。
前記第一の画像を顔識別し、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目を視線識別し、前記ユーザーの視線方向を取得することとを含む。
前記ユーザーの目の位置に基づいて前記ユーザーの瞳が正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定することとを含む。
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定することと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信することと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することとを含む。
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記第二の画像から当該第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイスマークの間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む。
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む。
Claims (48)
- スマートデバイス制御方法であって、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定することと、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信することとを含む、前記スマートデバイス制御方法。 - 前記第一の画像に基づいてデバイス識別子情報を確定することは、
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記デバイス識別子情報を確定することとを含む
請求項1に記載のスマートデバイス制御方法。 - 前記第一の画像から前記ユーザーの視線方向を確定することは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む
請求項2に記載のスマートデバイス制御方法。 - 前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定することとを含む
請求項3に記載のスマートデバイス制御方法。 - 前記視線方向に基づいて前記デバイス識別子情報を確定することは、
前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定すること、
または、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定することとを含む
請求項2に記載のスマートデバイス制御方法。 - スマートデバイス制御方法であって、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得することと、
前記ユーザーの眼球情報を確定することと、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいてターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信することとを含む、前記スマートデバイス制御方法。 - 前記第一の画像および前記眼球情報を前記中継デバイスに送信した後、さらに、
中継デバイスから送信された、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得することと、
前記第二の画像を前記中継デバイスに送信することとを含む
請求項6に記載のスマートデバイス制御方法。 - スマートデバイス制御方法であって、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む前記スマートデバイス制御方法。 - 前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む
請求項8に記載のスマートデバイス制御方法。 - 前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
請求項9に記載のスマートデバイス制御方法。 - 前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
前記デバイス識別子情報が第二の画像である場合、前記第二の画像からスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
請求項9に記載のスマートデバイス制御方法。 - 前記デバイス識別子情報に基づいて前記ターゲットスマートデバイスを確定することは、
前記デバイス識別子情報が、前記視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
請求項9に記載のスマートデバイス制御方法。 - 前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む
請求項9に記載のスマートデバイス制御方法。 - スマートデバイス制御方法であって、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信することと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信することと、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む、前記スマートデバイス制御方法。 - 前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記第一の画像から前記ユーザーの視線方向を確定することと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定することと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することとを含む
請求項14に記載のスマートデバイス制御方法。 - 前記第一の画像から前記ユーザーの視線方向を確定することは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得することと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することとを含む
請求項15に記載のスマートデバイス制御方法。 - 前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得することは、
前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定することと、
前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定することとを含む
請求項16に記載のスマートデバイス制御方法。 - 前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定することと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
請求項15に記載のスマートデバイス制御方法。 - 前記視線方向に基づいて前記ターゲットスマートデバイスを確定することは、
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信することと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することとを含む
請求項15に記載のスマートデバイス制御方法。 - 前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択することと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
請求項19に記載のスマートデバイス制御方法。 - 前記第二の画像に基づいて前記ターゲットスマートデバイスを確定することは、
前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別することと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイスマークの間の対応関係から対応するスマートデバイス識別子を取得することと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定することとを含む
請求項19に記載のスマートデバイス制御方法。 - 前記眼球情報に基づいて前記ターゲットスマートデバイスを制御することは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得することと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御することとを含む
請求項15に記載のスマートデバイス制御方法。 - スマートデバイス制御装置であって、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される画像収集モジュールと、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される送信モジュールとを含む、前記スマートデバイス制御装置。 - 前記確定モジュールは、
前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
前記視線方向に基づいて前記デバイス識別子情報を確定するように構成される第二の確定ユニットとを含む
請求項23に記載のスマートデバイス制御装置。 - 前記第一の確定ユニットは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む
請求項24に記載のスマートデバイス制御装置。 - 前記第二の識別サブユニットは、具体的に、
前記ユーザーの目の位置に基づいて、前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し
前記瞳オフセット角度に基づいて、前記ユーザーの視線方向を確定するように構成される
請求項25に記載のスマートデバイス制御装置。 - 前記第二の確定ユニットは、
前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を前記デバイス識別子情報として確定するように構成される画像収集サブユニット、または、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定し、前記第一の夾角と前記第二の夾角を前記デバイス識別子情報として確定するように構成される確定サブユニットとを含む
請求項24に記載のスマートデバイス制御装置。 - スマートデバイス制御装置であって、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得するように構成される第一の画像収集モジュールと、
前記ユーザーの眼球情報を確定するように構成される確定モジュールと、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される第一の送信モジュールとを含む、前記スマートデバイス制御装置。 - 中継デバイスから送信された、前記第一の画像を分析して取得した視線方向を受信した場合、前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得するように構成される第二の画像収集モジュールと、
前記第二の画像を前記中継デバイスに送信するように構成される第二の送信モジュールとをさらに含む
請求項28に記載のスマートデバイス制御装置。 - スマートデバイス制御装置であって、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む、前記スマートデバイス制御装置。 - 前記制御モジュールは、
前記デバイス識別子情報に基づいて、前記ターゲットスマートデバイスを確定するように構成される確定ユニットと、
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む
請求項30に記載のスマートデバイス制御装置。 - 前記確定ユニットは、
前記デバイス識別子情報が、前記スマート撮影デバイスが前記視線方向によって指向される位置に対して画像収集を行って取得した第二の画像である場合、記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択するように構成される選択サブユニットと、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第一の確定サブユニットとを含む
請求項31に記載のスマートデバイス制御装置。 - 前記確定ユニットは、
前記デバイス識別子情報が第二の画像である場合、前記第二の画像からスマートデバイスのデバイスマークを識別するように構成される識別サブユニットと、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するための第一の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む
請求項31に記載のスマートデバイス制御装置。 - 前記確定ユニットは、
前記デバイス識別子情報が、前記視線方向と水平方向の間の夾角である第一の夾角および前記視線方向と指定された方向の間の夾角である第二の夾角である場合、前記第一の夾角と前記第二の夾角に基づいて、記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第二の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第三の確定サブユニットとを含む
請求項31に記載のスマートデバイス制御装置。 - 前記制御ユニットは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第三の取得サブユニットと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む
請求項31に記載のスマートデバイス制御装置。 - スマートデバイス制御装置であって、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信するように構成される受信モジュールと、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信するように構成される送信モジュールと、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御モジュールとを含む、前記スマートデバイス制御装置。 - 前記制御モジュールは、
前記第一の画像から前記ユーザーの視線方向を確定するように構成される第一の確定ユニットと、
前記視線方向に基づいて前記ターゲットスマートデバイスを確定するように構成される第二の確定ユニットと
前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される制御ユニットとを含む
請求項36に記載のスマートデバイス制御装置。 - 前記第一の確定ユニットは、
前記第一の画像に対して顔識別を行い、前記ユーザーの目の位置を取得するように構成される第一の識別サブユニットと、
前記ユーザーの目の位置に基づいて前記ユーザーの目に対して視線識別を行い、前記ユーザーの視線方向を取得するように構成される第二の識別サブユニットとを含む
請求項37に記載のスマートデバイス制御装置。 - 前記第二の識別サブユニットは、具体的に、
前記ユーザーの目の位置に基づいて前記ユーザーの瞳の正常な注視方向に対する瞳オフセット角度を確定し、前記瞳オフセット角度に基づいて前記ユーザーの視線方向を確定するように構成される
請求項38に記載のスマートデバイス制御装置。 - 前記第二の確定ユニットは、
前記視線方向と水平方向の間の第一の夾角および前記視線方向と指定された方向の間の第二の夾角を確定するように構成される第一の確定サブユニットと、
前記第一の夾角と前記第二の夾角に基づいて記憶された前記第一の夾角、前記第二の夾角およびスマートデバイス識別子の間の対応関係から対応するスマートデバイス識別子を取得するように構成される第一の取得サブユニットと、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される第二の確定サブユニットとを含む
請求項37に記載のスマートデバイス制御装置。 - 前記第二の確定ユニットは、
前記スマート撮影デバイスが前記視線方向によって指される位置に対して画像収集を行い、第二の画像を取得し、前記第二の画像を返すように、前記視線方向を前記スマート撮影デバイスへ送信するように構成される送信サブユニットと、
前記スマート撮影デバイスから返された第二の画像を受信した場合、前記第二の画像に基づいて前記ターゲットスマートデバイスを確定するように構成される第三の確定サブユニットとを含む
請求項37に記載のスマートデバイス制御装置。 - 前記第三の確定サブユニットは、具体的に、
記憶された画像ライブラリから前記第二の画像とマッチングするターゲット画像を選択し、
前記ターゲット画像におけるスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される
請求項41に記載のスマートデバイス制御装置。 - 前記第三の確定サブユニットは、具体的に、
前記第二の画像から前記第二の画像におけるスマートデバイスのデバイスマークを識別し、
前記デバイスマークに基づいて記憶されたデバイスマークとスマートデバイスマークの間の対応関係から対応するスマートデバイス識別子を取得し、
取得されたスマートデバイス識別子に対応するスマートデバイスを前記ターゲットスマートデバイスとして確定するように構成される
請求項41に記載のスマートデバイス制御装置。 - 前記制御ユニットは、
前記眼球情報に基づいて記憶された眼球情報と制御操作の間の対応関係から対応する制御操作を取得するように構成される第二の取得サブユニットと、
取得された制御操作に基づいて前記ターゲットスマートデバイスを制御するように構成される制御サブユニットとを含む
請求項37に記載のスマートデバイス制御装置。 - スマートデバイス制御装置であって、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
前記プロセッサは、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
前記第一の画像に基づいて、制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報および前記ユーザーの眼球情報を確定し、
前記中継デバイスが前記デバイス識別子情報および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記デバイス識別子情報および前記眼球情報を前記中継デバイスに送信するように構成される、前記スマートデバイス制御装置。 - スマートデバイス制御装置であって、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
前記プロセッサは、
スマートマットレスが中継デバイスを介して送信した、ユーザーが前記スマートマットレスを使用する時にトリガされる画像収集要求を受信した場合、前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、
前記ユーザーの眼球情報を確定し、
前記中継デバイスが前記第一の画像および前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように、前記第一の画像および前記眼球情報を前記中継デバイスに送信するように構成される、前記スマートデバイス制御装置。 - スマートデバイス制御装置であって、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
前記プロセッサは、
スマートマットレスから送信された、ユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像に基づいて制御すべきターゲットスマートデバイスを確定するためのデバイス識別子情報と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
前記デバイス識別子情報と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される、前記スマートデバイス制御装置。 - スマートデバイス制御装置であって、
プロセッサと、
プロセッサで実行可能なコマンドを記憶するように構成されるメモリーとを含み、
前記プロセッサは、
スマートマットレスから送信されたユーザーがスマートマットレスを使用する時にトリガされる、スマートマットレス識別子が含まれている画像収集要求を受信し、
前記スマート撮影デバイスが前記スマートマットレスの位置に対して画像収集を行い、第一の画像を取得し、かつ前記第一の画像と前記ユーザーの眼球情報を返すように、前記スマートマットレス識別子に基づいて前記画像収集要求を前記スマートマットレスにバインドされたスマート撮影デバイスへ送信し、
前記第一の画像と前記眼球情報に基づいて前記ターゲットスマートデバイスを制御するように構成される、前記スマートデバイス制御装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510792231.5 | 2015-11-17 | ||
CN201510792231.5A CN105468144B (zh) | 2015-11-17 | 2015-11-17 | 智能设备控制方法及装置 |
PCT/CN2015/099021 WO2017084173A1 (zh) | 2015-11-17 | 2015-12-25 | 智能设备控制方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6423129B1 JP6423129B1 (ja) | 2018-11-14 |
JP2018536222A true JP2018536222A (ja) | 2018-12-06 |
Family
ID=55605928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018518410A Active JP6423129B1 (ja) | 2015-11-17 | 2015-12-25 | スマートデバイス制御方法および装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9894260B2 (ja) |
EP (1) | EP3171293A1 (ja) |
JP (1) | JP6423129B1 (ja) |
KR (1) | KR101942082B1 (ja) |
CN (1) | CN105468144B (ja) |
MX (1) | MX365738B (ja) |
RU (1) | RU2656690C1 (ja) |
WO (1) | WO2017084173A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10441087B2 (en) * | 2015-02-24 | 2019-10-15 | Sleep Number Corporation | Mattress with adjustable firmness |
CN105942749B (zh) * | 2016-05-30 | 2019-03-01 | 京东方科技集团股份有限公司 | 电视床及其工作方法 |
CN106599876A (zh) * | 2016-12-28 | 2017-04-26 | 重庆金鑫科技产业发展有限公司 | 一种基于生物特征识别的信息处理方法及装置 |
CN107832653A (zh) * | 2017-10-27 | 2018-03-23 | 上海京颐科技股份有限公司 | 医疗终端及其控制方法、电子设备 |
KR102582863B1 (ko) | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
CN112665136B (zh) * | 2021-01-08 | 2022-05-31 | 青岛海尔空调器有限总公司 | 基于智能床垫的空调器的控制方法和智能床垫 |
CN114253396A (zh) * | 2021-11-15 | 2022-03-29 | 青岛海尔空调电子有限公司 | 一种目标控制方法、装置、设备和介质 |
CN114027667B (zh) * | 2021-12-01 | 2023-08-15 | 慕思健康睡眠股份有限公司 | 一种在离床状态判定方法、装置、智能床垫及介质 |
CN115191774B (zh) * | 2022-07-28 | 2023-06-23 | 慕思健康睡眠股份有限公司 | 一种基于电动床的调节方法及***、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040073931A1 (en) * | 2002-10-10 | 2004-04-15 | Tempur World, Inc. | Interactive bed display |
JP2005095570A (ja) * | 2003-08-19 | 2005-04-14 | Sony Corp | 画像表示システム、画像表示装置、画像表示方法 |
JP2005177342A (ja) * | 2003-12-22 | 2005-07-07 | Fukuda Denshi Co Ltd | 無線テレメータ、セントラルモニタ及びそれらを用いた患者監視システム |
US20120053423A1 (en) * | 2010-08-24 | 2012-03-01 | Christopher Kenalty | Smart mattress |
JP2015524308A (ja) * | 2012-07-31 | 2015-08-24 | 張志剛 | スマートマットレス |
US9600080B2 (en) * | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1174337C (zh) * | 2002-10-17 | 2004-11-03 | 南开大学 | 识别人眼注视与否的方法和装置及其应用 |
US8690751B2 (en) * | 2003-12-31 | 2014-04-08 | Raphael Auphan | Sleep and environment control method and system |
RU2370817C2 (ru) * | 2004-07-29 | 2009-10-20 | Самсунг Электроникс Ко., Лтд. | Система и способ отслеживания объекта |
JP4837762B2 (ja) * | 2009-06-18 | 2011-12-14 | 本田技研工業株式会社 | 車載機器操作装置 |
WO2012095783A1 (en) * | 2011-01-12 | 2012-07-19 | Koninklijke Philips Electronics N.V. | Improved detection of breathing in the bedroom |
US10120438B2 (en) * | 2011-05-25 | 2018-11-06 | Sony Interactive Entertainment Inc. | Eye gaze to alter device behavior |
CN102508551B (zh) | 2011-11-18 | 2014-06-18 | 北京恒信彩虹科技有限公司 | 一种目光捕捉方法和采用目光捕捉的人机交互方法 |
CN102523401B (zh) * | 2011-12-29 | 2015-09-30 | 深圳Tcl新技术有限公司 | 智能家居电视机控制***及方法 |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US9375142B2 (en) * | 2012-03-15 | 2016-06-28 | Siemens Aktiengesellschaft | Learning patient monitoring and intervention system |
CN102981625A (zh) * | 2012-12-05 | 2013-03-20 | 深圳Tcl新技术有限公司 | 眼动遥控方法和*** |
CN103873959B (zh) * | 2012-12-13 | 2019-02-05 | 联想(北京)有限公司 | 一种控制方法和电子设备 |
US20160162039A1 (en) | 2013-07-21 | 2016-06-09 | Pointgrab Ltd. | Method and system for touchless activation of a device |
US9830424B2 (en) * | 2013-09-18 | 2017-11-28 | Hill-Rom Services, Inc. | Bed/room/patient association systems and methods |
JP2015064476A (ja) * | 2013-09-25 | 2015-04-09 | セイコーエプソン株式会社 | 画像表示装置、画像表示装置を制御する方法 |
CA2990779C (en) * | 2013-12-16 | 2018-11-06 | Blue Ocean Laboratories, Inc. | Sleep system alarm |
US20150281659A1 (en) * | 2014-03-11 | 2015-10-01 | Hill-Rom Services, Inc. | Image transmission or recording triggered by bed event |
CN104977904B (zh) * | 2014-04-04 | 2018-06-19 | 浙江大学 | 一种可见即可控的智能家居控制***及控制方法 |
CN104606003A (zh) * | 2015-02-02 | 2015-05-13 | 河海大学常州校区 | 基于人脸识别的智能护理床及其工作方法 |
US20170020391A1 (en) * | 2015-07-24 | 2017-01-26 | Johnson & Johnson Vision Care, Inc. | Biomedical devices for real time medical condition monitoring using biometric based information communication |
US20170020440A1 (en) * | 2015-07-24 | 2017-01-26 | Johnson & Johnson Vision Care, Inc. | Biomedical devices for biometric based information communication and sleep monitoring |
US20170020441A1 (en) * | 2015-07-24 | 2017-01-26 | Johnson & Johnson Vision Care, Inc. | Systems and biomedical devices for sensing and for biometric based information communication |
CN105045240A (zh) * | 2015-07-31 | 2015-11-11 | 小米科技有限责任公司 | 家电控制方法及装置 |
CN105117007B (zh) * | 2015-08-20 | 2019-02-12 | 小米科技有限责任公司 | 显示设备的控制方法、装置及智能垫体 |
-
2015
- 2015-11-17 CN CN201510792231.5A patent/CN105468144B/zh active Active
- 2015-12-25 KR KR1020187009655A patent/KR101942082B1/ko active IP Right Grant
- 2015-12-25 MX MX2016004501A patent/MX365738B/es active IP Right Grant
- 2015-12-25 WO PCT/CN2015/099021 patent/WO2017084173A1/zh active Application Filing
- 2015-12-25 RU RU2016118481A patent/RU2656690C1/ru active
- 2015-12-25 JP JP2018518410A patent/JP6423129B1/ja active Active
-
2016
- 2016-07-26 US US15/219,791 patent/US9894260B2/en active Active
- 2016-09-27 EP EP16190832.2A patent/EP3171293A1/en not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040073931A1 (en) * | 2002-10-10 | 2004-04-15 | Tempur World, Inc. | Interactive bed display |
JP2005095570A (ja) * | 2003-08-19 | 2005-04-14 | Sony Corp | 画像表示システム、画像表示装置、画像表示方法 |
JP2005177342A (ja) * | 2003-12-22 | 2005-07-07 | Fukuda Denshi Co Ltd | 無線テレメータ、セントラルモニタ及びそれらを用いた患者監視システム |
US20120053423A1 (en) * | 2010-08-24 | 2012-03-01 | Christopher Kenalty | Smart mattress |
JP2015524308A (ja) * | 2012-07-31 | 2015-08-24 | 張志剛 | スマートマットレス |
US9600080B2 (en) * | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
Non-Patent Citations (2)
Title |
---|
新井康平ほか1名: ""視線入力に基づくロボットアーム制御および摂食支援システム"", 電気学会論文誌C, vol. 第132巻, 第3号, JPN6018037454, 1 March 2012 (2012-03-01), JP, pages 416 - 423 * |
鈴木真ほか2名: ""視線制御式レーザスキャナによる福祉ロボット用インタフェース"", 精密工学会 学術講演会 講演論文集1959−2002年, JPN6018037452, 25 May 2009 (2009-05-25), pages 6 - 6 * |
Also Published As
Publication number | Publication date |
---|---|
WO2017084173A1 (zh) | 2017-05-26 |
EP3171293A1 (en) | 2017-05-24 |
US20170142317A1 (en) | 2017-05-18 |
CN105468144A (zh) | 2016-04-06 |
KR20180040719A (ko) | 2018-04-20 |
MX2016004501A (es) | 2017-07-04 |
US9894260B2 (en) | 2018-02-13 |
CN105468144B (zh) | 2019-02-12 |
JP6423129B1 (ja) | 2018-11-14 |
RU2656690C1 (ru) | 2018-06-06 |
KR101942082B1 (ko) | 2019-01-24 |
MX365738B (es) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6423129B1 (ja) | スマートデバイス制御方法および装置 | |
US11032514B2 (en) | Method and apparatus for providing image service | |
JP6353603B2 (ja) | スマートホームデバイスの制御方法、装置、電子デバイス、プログラム及び記憶媒体 | |
KR102386398B1 (ko) | 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치 | |
KR102289837B1 (ko) | 촬영 방법 및 전자 장치 | |
KR102360067B1 (ko) | 전자 장치 및 전자 장치의 정보 공유 방법 | |
RU2644057C2 (ru) | Способ и устройство для дистанционного управления | |
JP6272552B2 (ja) | デバイスバインディング方法、装置、プログラム及び記録媒体 | |
WO2021017836A1 (zh) | 控制大屏设备显示的方法、移动终端及第一*** | |
JP7125834B2 (ja) | 画像取得方法および装置 | |
JP6374517B2 (ja) | 権限検証方法および装置 | |
JP2017532922A (ja) | 画像撮影方法及び装置 | |
JP6282785B2 (ja) | 目標機能のスターティング方法、装置、システム、プログラム及び記録媒体 | |
JP6100980B2 (ja) | 送信パワー調整方法、送信パワー調整装置、プログラム及び記録媒体 | |
EP3402185A1 (en) | Method and apparatus for transmitting video during voice call | |
US20220086735A1 (en) | Method and Device for Controlling Connection to Network | |
JP6556832B2 (ja) | 無線アクセスポイントの制御方法、装置、プログラムおよび記録媒体 | |
KR20170055213A (ko) | 비행이 가능한 전자 장치를 이용한 촬영 방법 및 장치 | |
US20170249513A1 (en) | Picture acquiring method, apparatus, and storage medium | |
JP2017526099A5 (ja) | ||
JP6289758B2 (ja) | 制御プログラムダウンロード方法、装置、プログラム及び記録媒体 | |
KR20160030382A (ko) | 스트림 미디어 데이터를 방송하기 위한 방법 및 장치 | |
WO2017166697A1 (zh) | 一种显示图像数据的方法和装置 | |
EP3445077B1 (en) | Unlocking mobile terminal in augmented reality | |
KR20160001229A (ko) | 이동단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180914 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6423129 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |