JP6310556B2 - スクリーン制御方法及び装置 - Google Patents

スクリーン制御方法及び装置 Download PDF

Info

Publication number
JP6310556B2
JP6310556B2 JP2016526239A JP2016526239A JP6310556B2 JP 6310556 B2 JP6310556 B2 JP 6310556B2 JP 2016526239 A JP2016526239 A JP 2016526239A JP 2016526239 A JP2016526239 A JP 2016526239A JP 6310556 B2 JP6310556 B2 JP 6310556B2
Authority
JP
Japan
Prior art keywords
screen
mobile terminal
predetermined
orientation
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016526239A
Other languages
English (en)
Other versions
JP2017533480A (ja
Inventor
高毅
王洪強
葛雲源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Inc
Original Assignee
Xiaomi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Inc filed Critical Xiaomi Inc
Publication of JP2017533480A publication Critical patent/JP2017533480A/ja
Application granted granted Critical
Publication of JP6310556B2 publication Critical patent/JP6310556B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/027Arrangements or methods related to powering off a display
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、モバイル通信技術分野に関し、特にスクリーン制御方法及び装置に関する。
技術の絶え間ない発展につれて、携帯電話に代表されるモバイル端末はすでにユーザに広く使用されており、携帯電話はもはやユーザの身の回りには欠かせない使用ツールとなった。
携帯電話が待機状態のとき、節電のため通常はスクリーンをオフにしなければならない。ユーザが再度携帯電話を閲覧又は使用するときは、携帯電話上の特定のボタンにトリガーしてスクリーンをオンにしなければならない。
本発明は、関連技術に存在する不足を解決するため、スクリーン制御方法及び装置を提供する。
本発明の実施例の第1の態様によれば、スクリーン制御方法を提供する。
前記スクリーン制御方法は、
モバイル端末の移動方向を検出するステップと、
前記モバイル端末のスクリーンの向きを検出するステップと、
所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信するステップと、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信し、前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯するステップと、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにするステップであって、前記第1所定方向と前記第2所定方向は異なる方向となる前記オフにするステップと、を含む。
本発明が提供する当該方法は、ユーザが手に持っているモバイル端末の移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きが全てユーザの顔を向いていることを検出し、且つモバイル端末もユーザウェアラブルのスマートグラスが送信したスクリーン識別成功情報を受信したとき、ユーザがモバイル端末を閲覧又は操作する必要があると特定することができる。このとき、モバイル端末のスクリーンを点灯する。ユーザが特定ボタンに触れなければモバイル端末のスクリーンをオンにできないという煩雑性を無くすことができるのみならず、モバイル端末のスクリーン点灯の正確性を高め、誤操作を避けることができる。
好ましくは、前記第1所定方向が上向きであれば、前記第2所定方向は下向きである。
ユーザ間は一般的には立っているか座っている状態であるため、第1所定方向は上向きで良く、第2所定方向は下向きでよい。上向きである時、ユーザの顔を向いていることを示す。
好ましくは、前記モバイル端末の移動方向を検出するステップは、
前記モバイル端末における重力センサが検出した重力数値を取得するステップと、
前記重力数値が第1所定閾値より大きいとき、前記モバイル端末の移動方向を前記第1所定方向として特定するステップと、
前記重力数値が第2所定閾値より小さいとき、前記モバイル端末の移動方向を前記第2所定方向として特定し、前記第1所定閾値は前記第2所定閾値より大きいステップと、を含む。
モバイル端末内部に設置した重力センサが検出したデータに基づいて、モバイル端末の移動方向の検出を準備し、より速く検出することができる。
好ましくは、前記モバイル端末のスクリーンの向きを検出するステップは、
前記モバイル端末における重力センサが収集したZ軸データを取得するステップと、
前記Z軸データが正値であるとき、前記モバイル端末のスクリーンの向きを前記第1所定方向として特定するステップと、
前記Z軸データが負値であるとき、前記モバイル端末のスクリーンの向きを前記第2所定方向として特定するステップと、を含む。
モバイル端末内部に設置した重力センサが検出したデータに基づいて、モバイル端末のスクリーンの向きの検出を準備し、より速く検出することができる。
好ましくは、前記方法は、
前記モバイル端末のスクリーンの状態を検出するステップと、
前記モバイル端末のスクリーンがオフ状態のとき、前記モバイル端末のスクリーン点灯を実行するステップと、
前記モバイル端末のスクリーンが点灯状態のとき、前記モバイル端末のスクリーンオフを実行するステップと、をさらに含む。
本発明の実施例の第2の態様によれば、スマートグラスに用いられるスクリーン制御方法をする。前記方法は、
モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動するステップと、
スマートグラスの視野範囲内の画像を取得するステップと、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断するステップと、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成するステップと、
前記スクリーン識別成功情報を前記モバイル端末へ送信するステップと、を含む。
スマートグラスの視野範囲内に対する画像識別により、ユーザかモバイル端末のスクリーンを注視しているかどうか、又はユーザがモバイル端末のスクリーンを眺めているかどうかを正確に判断することができる。もしユーザモバイル端末のスクリーンを注視していれば、スマートグラスはモバイル端末のスクリーン識別に成功したことを示し、スクリーン識別成功情報を生成し、モバイル端末へ送信することができる。これにより、モバイル端末は相応の操作を行う。
好ましくは、前記画像中にモバイル端末のスクリーン特徴が含まれているかどうかを判断するステップは、
前記画像中の特徴情報を抽出するステップと、
前記モバイル端末の所定のスクリーン特徴テンプレートを取得するステップと、
前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするかどうかを判断するステップと、
前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするとき、画像中に前記モバイル端末のスクリーン特徴が含まれていることを特定するステップと、
前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングしないとき、前記画像中に前記モバイル端末のスクリーン特徴が含まれていないことを特定するステップと、を含む。
スマートグラスが撮影した画像に対する識別により、特徴マッチング方法を利用して当該画像中にモバイル端末のスクリーン特徴が含まれているかどうかを正確に判断することができる。即ち、ユーザがモバイル端末のスクリーンを注視又は眺めているかどうかを特定することができる。
本発明の実施例の第3の態様によれば、モバイル端末に用いられるスクリーン制御装置を提供する。前記装置は、
前記モバイル端末の移動方向を検出する、移動方向検出手段と、
前記モバイル端末のスクリーンの向きを検出する、スクリーン向き検出手段と、
所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信する、情報受信手段と、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向き全てが第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信する、指令送信手段と、
前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯する、スクリーン点灯手段と、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにするスクリーンオフ手段であって、前記第1所定方向と前記第2所定方向は異なる方向となる、前記スクリーンオフ手段と、を備える。
好ましくは、前記第1所定方向は上向きであり、前記第2所定方向は下向きである。
好ましくは、前記移動方向検出手段は、
前記モバイル端末における重力センサが検出した重力数値を取得する、重力数値取得モジュールと、
前記重力数値が第1所定閾値より大きいとき、前記モバイル端末の移動方向を前記第1所定方向として特定する、第1移動方向特定モジュールと、
前記重力数値が第2所定閾値より小さいとき、前記モバイル端末の移動方向を前記第2所定方向として特定し、前記第1所定閾値は前記第2所定閾値より大きい、第2移動方向特定モジュールと、を備える。
好ましくは、前記スクリーン向き検出手段は、
前記モバイル端末における重力センサが収集したZ軸データを取得する、データ取得モジュールと、
前記Z軸データが正値のとき、前記モバイル端末のスクリーンの向きを前記第1所定方向として特定する、第1スクリーン向き特定モジュールと、
前記Z軸データが負値のとき、前記モバイル端末のスクリーンの向きを前記第2所定方向として特定する、第2スクリーン向き特定モジュールと、を備える。
好ましくは、前記装置は、
前記モバイル端末のスクリーンの状態を検出するスクリーン状態検出手段をさらに備え、
前記スクリーン点灯手段は、さらに、前記モバイル端末のスクリーンがオフ状態のとき、前記モバイル端末のスクリーンを点灯し、
前記スクリーンオフ手段は、さらに、前記モバイル端末のスクリーンが点灯状態のとき、前記モバイル端末のスクリーンをオフにする。
本発明の実施例の第4の態様によれば、スクリーン制御装置を提供する。前記装置はスマートグラスに用いられ、
モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動する、起動手段と、
スマートグラスの視野範囲内の画像を取得する、画像取得手段と、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断する、判断手段と、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成する、情報生成手段と、
前記スクリーン識別成功情報を前記モバイル端末へ送信する、情報送信手段と、を備える。
好ましくは、前記判断手段は、
前記画像中の特徴情報を抽出する、特徴情報抽出モジュールと、
前記モバイル端末の所定のスクリーン特徴テンプレートを取得する、特徴テンプレート取得モジュールと、
前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするかどうかを判断する、マッチング判断モジュールと、
前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするとき、画像中に前記モバイル端末のスクリーン特徴が含まれていることを特定する、第1スクリーン特徴特定モジュールと、
前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングしないとき、前記画像中に前記モバイル端末のスクリーン特徴が含まれていないことを特定する、第2スクリーン特徴特定モジュールと、を備える。
本発明の実施例の第4の態様によれば、モバイル端末を提供する。前記端末は、
プロセッサと、
前記プロセッサの実行可能な指令を記憶するためのメモリと、を備え、
前記プロセッサは、
前記モバイル端末の移動方向を検出し、
前記モバイル端末のスクリーンの向きを検出し、
所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信し、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信し、前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯し、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにし、前記第1所定方向と前記第2所定方向は異なる方向となるように構成される。
本発明の実施例の第5の態様によれば、スマートグラスを提供する。前記スマートグラスは、
プロセッサと、
前記プロセッサの実行可能な指令を記憶するためのメモリと、を備え、
前記プロセッサは、
モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動し、
スマートグラスの視野範囲内の画像を取得し、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断し、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成し、
前記スクリーン識別成功情報を前記モバイル端末へ送信するように構成される。
本発明の実施例にかかる技術案は、以下の格別な作用効果を含むことができる。
本発明の実施例にかかるスクリーン制御方法及び装置は、ユーザが手に持っているモバイル端末の移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きが全てユーザの顔を向いていることを検出し、且つモバイル端末もユーザウェアラブルのスマートグラスが送信したスクリーン識別成功情報を受信したとき、ユーザがモバイル端末を閲覧又は操作する必要があると特定することができる。このとき、モバイル端末のスクリーンを点灯する。ユーザが特定ボタンに触れなければモバイル端末のスクリーンをオンにできないという煩雑性無くすことができるのみならず、モバイル端末のスクリーン点灯の正確性を高め、誤操作を避けることができる。
ユーザが手に持っているモバイル端末の移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きが全てユーザの顔から離れていることを検出したとき、ユーザがモバイル端末を閲覧又は操作する必要がないと特定できる。これにより、当該モバイル端末のスクリーンをオフにして、モバイル端末の電力を節約して、駆動能力を高め、ユーザが特定ボタンに触れなければモバイル端末のスクリーンをオンにできないという煩雑性を回避することができる。
前記した一般的な記述及び後続する詳細な記述は、単に例示的及び解釈的なものであり、本発明を制限できるものでないと理解されるべきである。
ここでの図面は、明細書を構成する一部として見なされ、本発明に適した実施例を示し、且つ、明細書の文字記載とともに本発明の仕組みを解釈するために用いられる。
一実施例にかかるシナリオを示す図である。 別の一実施例にかかるスクリーン制御方法を示すフローチャートである。 図2におけるステップS210を示すフローチャートである。 さらなる一実施例にかかるシナリオを示す図である。 図2におけるステップS220を示すフローチャートである。 さらなる一実施例にかかるスクリーン制御方法を示すフローチャートである。 さらなる一実施例にかかるスクリーン制御方法を示すフローチャートである。 さらなる一実施例にかかるシナリオを示す図である。 図7におけるステップS730を示すフローチャートである。 一実施例にかかるスクリーン制御装置を示す構造模式図である。 図10における移動方向検出手段を示す図である。 図10におけるスクリーン向き検出手段を示す図である。 さらなる一実施例にかかるスクリーン制御装置を示す構造模式図である。 さらなる一実施例にかかるスクリーン制御装置を示す構造模式図である。 図14における判断手段を示す図である。 一実施例にかかるモバイル端末を示す構造模式図である。
次に、実施例を詳細に説明し、例示が図に示されている。以下の記述が図にかかるとき、別途にて示さない限り、異なる図面における同じ符号は、同じまたは類似する要素を示す。以下の実施例に記述される実施形態は、本発明と一致する全ての実施形態を代表するとは限らない。逆に、それらは、添付する特許請求の範囲に記載されているように、本発明の一部の態様と一致する装置及び方法の例に過ぎない。
図1に示すように、図1は、一実施例にかかるシナリオを示す図である。図1は、携帯電話100と、スマートグラス200と、スマートブレスレット300を備える。ここで、携帯電話100は、それぞれスマートグラス200と、スマートブレスレット300と通信でき、この通信方法はブルートゥース(登録商標)、ワイヤレスネットワーク等の方法を用いることができる。
ユーザ携帯電話100を手に持って操作するとき、もし携帯電話100に移動が生じれば、携帯電話100に内蔵の重力センサは当該携帯電話100自身の重力数値を検出することができ、且つ携帯電話100は当該重力数値に基づいて、自身の移動方向を判断することができる。この他に、スマートブレスレット300自身は加速度センサを設置しており、当該加速度センサに基づいて数値を検出し、当該数値に基づいて、ユーザの姿態識別情報を識別することができる、且つ当該姿態識別情報を携帯電話100へ送信する。例えば、当該姿態識別情報は、ユーザの手のひらの向きを含むことができる。
携帯電話100が上方向に移動し、ユーザの手のひらが上向きであるとき、携帯電話100はスマートグラス200へスクリーン識別指令を送信する。スマートグラス200は携帯電話100が送信したスクリーン識別指令を受信したとき、スマートグラス200は当該スクリーン識別指令に基づいて、スクリーン識別操作を起動し、スマートグラス200の現在の視野内に携帯電話100を含むかどうかを識別する。もしスマートグラス200の現在の視野内に携帯電話100を含む場合、スマートグラス200は携帯電話100へ識別成功情報を送信し、携帯電話100はスマートグラス200が送信した識別成功情報に基づいて、モバイル端末のスクリーンを点灯する。
説明が必要なことは、前記携帯電話100が上方向に移動し、携帯電話のスクリーンが上向き且つユーザの手のひらも上向きであるとき、ユーザが携帯電話100をユーザの顔に向けて移動しながら操作していることを示す。この方法によりユーザが意図的に携帯電話を閲覧していることを一定程度予測する。ユーザが携帯電話を閲覧する必要があるかどうかをより正確に判断するために、スマートグラス200のスクリーン識別操作を組み合わせなければならない。これにより、ユーザがスクリーンを閲覧する必要があるかどうかをよりいっそう正確に判断することができる。さらに携帯電話100のスクリーンを点灯し、通常はユーザが特定ボタンに触れなければ携帯電話のスクリーンをオンにできないという問題避けることができ、ユーザの操作に大きな便利を与えることができる。
携帯電話100が下方向に移動し、携帯電話のスクリーンが下向き且つユーザの手のひらも下向きであるとき、ユーザは携帯電話100を閲覧する必要がないことを示す。当然、携帯電話100のスクリーンも点灯する必要がない。もしこのとき携帯電話100のスクリーンが点灯状態であれば、携帯電話100のスクリーンを直接オフにすることができる。
説明が必要なことは、図1における100はタブレットPC等のモバイルデバイスでも良く、300はスマートウォッチ等のウェアラブルリストバンドデバイスでもよい。
前記実行フローを詳細に説明するために、本発明の実施例はモバイル端末に用いられるスクリーン制御方法を提供する。図2に示すように、当該方法は以下のステップを含んでもよい。
ステップS210では、モバイル端末の移動方向を検出する。
モバイル端末はユーザが頻繁に使用する携帯電話、タブレットPC及び電子書籍等のポータブルデバイスでもよい。理解の便宜上、実施例ではモバイル端末は携帯電話を例にして説明を記述する。
現在、ユーザが使用している携帯電話は一般的に加速度センサのような携帯電話の移動方向を検出するセンサを設置している。携帯電話は、内部に設置したセンサが検出したパラメータ情報により、容易に自身の移動方向を識別することができる。
ステップS220では、モバイル端末のスクリーンの向きを検出する。
携帯電話のスクリーンの向きを上向きと下向きに区別することができる。同様に携帯電話内の加速度センサが検出したパラメータ情報を利用して、携帯電話のスクリーンの向きが上向きか下向きかどうかを判断することができる。例えば、携帯電話のスクリーンの向きは他の方向でもよく、ユーザの左側又は右側等でもよい。本発明に係る実施例はこれに限らず、上向きと下向きのみを例にする。
ステップS230では、所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信する。
所定のスマートウェアラブルデバイスは現在常用しているスマートブレスレット、スマートウォッチ等のデバイスでもよいため、ここでは、スマートウォッチを例とする。一般的にスマートウォッチは加速度センサをしており、加速度センサが検出したパラメータ情報を取得することにより、スマートウォッチはより速く、ユーザのリストバンド部位かどうか動いているかを正確に識別し、ユーザの手のひらの現在の向きを判断することができる。
ステップS240では、移動方向、スクリーンの向き及び姿態識別情報における手のひらの向き全てが第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信する。
携帯電話の移動方向、スクリーンの向き及びユーザの手のひらの向き全てが第1所定方向であると検出したとき、例えば、第1所定方向が顔を向いているときは、ユーザが意図的に携帯電話を操作する必要があり、携帯電話のスクリーン上の関連情報を閲覧していることを示す。このとき、ユーザが携帯電話を閲覧する必要があるかどうかをより正確に確認するため、スマートグラスへスクリーン識別指令を送信し、ユーザが装着しているスマートグラスの視野内に当該携帯電話の画像特徴があるかどうかを確認しなければならない。
ステップS250では、所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、モバイル端末のスクリーンを点灯する。
スクリーン識別成功情報は、スマートグラスがユーザの眼球が携帯電話を注視していることの検出にした成功情報を含まなければならない。もしユーザが目を閉じている状態又はユーザの眼球が携帯電話を注視していない場合、ユーザはおそらく携帯電話を閲覧又は操作必要がないことを示す。誤操作を避けるため、このとき携帯電話のスクリーンも点灯する必要はない。
もし携帯電話が所定のスマートグラスが送信したスクリーン識別成功情報を受信した場合、携帯電話の移動方向、スクリーンの向き及びユーザの手のひらの向きを組み合わせ、ユーザが現在手に持っている携帯電話は自身の顔を向いて移動し、且つユーザの目は携帯電話を注視していることを示し、ユーザが当該携帯電話を閲覧又は操作しなければならないことを特定することができる。したがって、このとき、携帯電話のスクリーンを点灯することができる。ユーザが特定ボタンに触れなければ携帯電話のスクリーンを点灯できないという問題を避けることができ、前記ステップも大幅に携帯電話のスクリーン点灯の精度を高め、誤操作を避けることができる。
ステップS260では、移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、モバイル端末のスクリーンをオフにする。
モバイル端末の移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、例えば、向きがユーザの顔から離れているとき、ユーザはすでに携帯電話を閲覧又は操作する必要がないことを示す。もしこのとき携帯電話のスクリーンが点灯状態であれば、携帯電話の電力を節約するため、及びユーザが特定ボタンに触れなければ携帯電話のスクリーンをオンにできないことをさけるため、この場合は、自動で携帯電話のスクリーンをオフにして、携帯電話のスクリーンを非点灯状態にさせることができる。
説明が必要なことは、第1所定方向と第2所定方向は異なる。例えば、第1所定方向がユーザの顔を向いていれば、第2所定方向はユーザの顔から離れていてもよい。実施例にかかるユーザとは、実施例において携帯電話を操作するユーザをいう。当然、実施例にかかるウェアラブルデバイスも当該ユーザの体に装着しているものをいう。
本発明の実施例が提供するスクリーン制御方法は、検出したユーザが手に持っているモバイル端末の移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きが全てユーザの顔方向にあり、且つモバイル端末もユーザウェアラブルのスマートグラスが送信したスクリーン識別成功情報を受信するとき、ユーザがモバイル端末を閲覧又は操作する必要があると特定することができる。このとき、モバイル端末のスクリーンを点灯する。ユーザが特定ボタンに触れなければモバイル端末のスクリーンをオンにできないという煩雑性を無くすことができるのみならず、モバイル端末のスクリーン点灯の正確性を高め、誤操作を避けることができる。
検出したユーザが手に持っているモバイル端末の移動方向、スクリーンの向き及び姿態識別情報における手のひらの向きが全てユーザの顔方向から離れているとき、ユーザがモバイル端末を閲覧又は操作する必要がないと特定できる。これにより、当該モバイル端末のスクリーンをオフにして、モバイル端末の電力を節約して、駆動能力を高め、ユーザが特定ボタンに触れなければモバイル端末のスクリーンをオンにできないという煩雑性を回避することができる。モバイルデバイス使用において、ユーザの操作に大きな便利を与えることができる。
説明が必要なことは、第1所定方向はユーザの顔を向いており、第2所定方向はユーザの顔から離れている。ユーザの状態は一般的には立っているか座っている状態であるため、前記ステップでは第1所定方向は上向きでよく、第2所定方向は下向きでよい。上向きである時は、ユーザの顔を向いていることを示す。モバイル端末が位置する水平面を境界線とすることができ、モバイル端末が当該水平面より上方向に移動している時は、当該モバイル端末は上方向に移動していると特定することができる。これに反して、当該モバイル端末が下方向に移動していれば、当然下方向に移動していると特定することができる。もし当該モバイル端末が当該水平面に沿って移動していれば、当該モバイル端末が移動している方向は水平方向となる。即ち、上向きに移動しておらず、下向きにも移動していない。
モバイル端末のスクリーンの向きも当該モバイル端末が位置する水平面を境界線とすることができ、モバイル端末のスクリーンが位置するスクリーンと当該水平面との夾角を判断基準にして、当該モバイル端末のスクリーンの向きを特定することができる。これらは従来技術であるため、繰り返して説明しない。
本発明の実施例にかかるスマートウェアラブルデバイスは主に、スマートブレスレット、スマートウォッチ等のリストバンドデバイスを指し、スマートグラスは含まない。スマートウェアラブルデバイスはユーザの腕に装着され、スマートウェアラブルデバイスとユーザの腕の相対位置はさほど変化しない。例えば、図1に示すように、スマートブレスレット300の上端とユーザの手の甲の位置はさほど変化しない。これにより、スマートブレスレット300に内蔵した加速度センサは、当該スマートブレスレットが動いている方位等の情報を検出することができる。さらに、ユーザの腕部の向き及びユーザ手の平の向きを直接検出することができる。
正確にモバイル端末の移動方向を検出するため、図2に示す方法の詳細として、さらなる一実施例において、図3に示すように、ステップS210はさらに以下のステップを含んでもよい。
ステップS211では、モバイル端末における重力センサが検出した重力数値を取得する。
現在、携帯電話、タブレットPC等のユーザが使用しているモバイル端末デバイスには内部に全て重力センサを設置しており、モバイル端末は当該重力センサにより、自身の重力数値を取得することができる。
図4を組み合わせると、現在の重力センサはモバイル端末の三軸の重力数値、即ち(x,y,z)を検出することができる。
ステップS212では、重力数値が第1所定閾値より大きいとき、モバイル端末の移動方向を第1所定方向であると特定する。
ステップS213では、重力数値が第2所定閾値より小さいとき、モバイル端末の移動方向を第2所定方向であると特定する。
現在のモバイル端末内部に設置した重力センサに基づいて、モバイル端末の移動方向を検出するステップは、多くの方法があるため、ここでは繰り返して説明しない。例えば、重力センサが検出したz軸重力数値に基づいて、当該モバイル端末の移動方向を判断することができる。もし当該z軸重力数値が第1所定の数値より大きければ、モバイル端末は第1所定方向を向いて移動していると特定することができる。もし当該z軸重力数値が第2所定閾値より小さければ、モバイル端末は第2所定方向を向いて移動していると特定することができる。
例えば、さらに当該z軸重力数値がある正数より大きければ、モバイル端末上方向に移動していることを示し、もし当該z軸重力数値がある負数より小さければ、当該モバイル端末が下向きに移動していることを示す。
当然、説明が必要なことは、第1所定閾値は第2所定閾値より大きい。
これにより、モバイル端末に内蔵した重力センサが検出した重力数値に基づいて、より速く、正確に出当該モバイル端末が移動している方向を判断することができる。
正確にモバイル端末のスクリーンの向きを検出するため、図2に示す方法の詳細として、さらなる一実施例において、図5に示すように、ステップS220はさらに以下のステップを含んでもよい。
ステップS221では、モバイル端末における重力センサが収集したZ軸データを取得する。
ステップS222では、Z軸データが正値のとき、モバイル端末のスクリーンの向きは第1所定方向であると特定する。
ステップS223では、Z軸データが負値のとき、モバイル端末のスクリーンの向きは第2所定方向であるであると特定する。
前記ステップ及び図4を組み合わせて説明できるため、ここでは繰り返して説明しないが、モバイル端末に内蔵した重力センサが検出したz軸重力数値に基づいて、より速く、正確に当該モバイル端末モバイルスクリーンの向きを判断することができ、z軸重力数値が正値のときは、当該モバイル端末のスクリーンが下向きであることを示し、z軸重力数値が負値のときは、当該モバイル端末のスクリーンが上向きであることを示す。
正確にモバイル端末のスクリーンを点灯又はオフするため、図2に示す方法の詳細として、さらなる一実施例において、図6に示すように、当該方法はさらに以下のステップを含んでもよい。
ステップS270では、モバイル端末のスクリーンの状態を検出する。
ステップS280では、モバイル端末のスクリーンがオフ状態のとき、モバイル端末のスクリーンを点灯する。
ステップS290では、モバイル端末のスクリーンが点灯状態のとき、モバイル端末のスクリーンをオフにする。
図2に示す基礎において、もしこのときユーザが手に持っているモバイル端末をユーザの顔に向けて移動し、且つモバイル端末はスマートグラスが送信したスクリーン成功識別情報を受信すれば、当該ユーザが意図的に当該モバイル端末を閲覧又は操作したことを示し、当該モバイル端末のスクリーンの状態を検出しなければならない。もしこのとき、当該モバイル端末のスクリーンの状態がオフであれば、当該モバイル端末のスクリーンを点灯しなければならない。もしこのとき、モバイル端末のスクリーンがすでに点灯状態であれば、このときは操作する必要がない。
類似して、もしこのとき、ユーザが手に持っているモバイル端末をユーザの顔から離して移動していれば、ユーザはすでに当該モバイル端末を閲覧又は操作する必要がないことを示す。このとき、当該モバイル端末のスクリーンの状態がオフ状態であるかどうかをさらに検出しなければならなない。もしオフ状態でなければ、当該モバイル端末のスクリーンをオフにする。もしオフ状態であれば、操作する必要はない。
図2に示すスマートグラス200側はいかにユーザがモバイル端末100を閲覧しているかどうかを検出するステップを詳細に説明するため、さらなる一実施例において、図7において詳細に紹介する。図7に示すように、図7は、スマートグラスに用いられるスクリーン制御方法を提供する。当該方法は以下のステップを含んでもよい。
ステップS710では、モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動する。
スマートグラスとモバイル端末は事前にペアリングしており、且つ両者はブルートゥース(登録商標)等の方法により通信することができる。スマートグラスはモバイル端末が送信したスクリーン識別指令を受信したとき、カメラを起動するなどスマートグラスのスクリーン識別操作をオンにする。
ステップS720では、スマートグラスの視野範囲内の画像を取得する。
ステップS730では、画像中にモバイル端末のスクリーン特徴が含まれているかどうかを判断する。
画像中にモバイル端末のスクリーン特徴を含むときは、ステップS740を実行する。
ステップS740では、スクリーン識別成功情報を生成する。
ステップS750では、スクリーン識別成功情報をモバイル端末へ送信する。
スマートグラスは自身のカメラをオンにすると、ある方向の視野範囲内にある景色を撮影しなければならない。このとき、2つの方法により識別判断を行うことができる。
第1方法では、従来技術において比較的成熟したアイトラッキング技術を利用してユーザが注視する方向にある景色を撮影し、ステップS730を実行する。このとき、スマートグラスが撮影した画像が含む視野範囲は小さい可能性がある。これにより、容易にユーザがモバイル端末のスクリーンを注視しているかどうかを識別することができる。
第2方法では、スマートグラスは自身に内蔵したカメラを起動し、視野範囲内に含むすべての景色の画像を撮影する。このような状況のもと、スマートグラスが撮影した画像が含む対象は多い可能性があるが、スマートグラスはユーザ頭部の移動に従い移動するため、即ち、スマートグラスとユーザ頭部の相対位置はさほど変化しない。これにより、撮影した画像の中心位置を中心として、所定の面積の画像を目標領域画像として取り出し、当該目標画像中にモバイル端末のスクリーン特徴が含まれているかどうかを検出する。即ち、ステップS730を実行する。図8を参照すると、図8に示すように、100はモバイル端末であり、500は前記スマートグラスが撮影した画像から選択した目標領域内の画像であり、400はスマートグラスが撮影した画像である。
この他に、さらにユーザのグラスが目を閉じた状態であるかどうかを判断しなければならない。もしユーザが現在目を閉じた状態であれば、ユーザが手に持っているモバイル端末の動作は習慣性のある動作であり、当該モバイル端末を閲覧又は操作する必要がないことを示し、前記ステップの実行を終了することができる。もしスマートグラスが撮影した画像から、モバイル端末の特徴情報はスクリーン特徴ではないことを識別し、モバイル端末の側面又は背面であれば、ユーザが手に持っているモバイル端末の動作は習慣性のある動作であり、当該モバイル端末を閲覧又は操作する必要がないことを示し、前記ステップの実行を終了することができる。
前記ステップにおけるスマートグラスの視野範囲内に対する画像識別により、ユーザがモバイル端末のスクリーンを注視しているかどうか又はユーザがモバイル端末のスクリーンを眺めているかどうかを正確に判断することができる。もしユーザモバイル端末のスクリーンを注視していれば、スマートグラスはモバイル端末のスクリーン識別に成功したことを示し、スクリーン識別成功情報を生成し、モバイル端末へ送信することができる。これにより、モバイル端末は相応の操作を行う。
スマートグラスが撮影した画像がモバイル端末のスクリーン特徴を含むかどうかをいかに判断するかを詳細に説明するため、図7に示す方法の詳細として、在さらなる一実施例において、図9に示すように、ステップS730はさらに以下のステップを含んでもよい。
ステップS731では、画像中の特徴情報を抽出する。
スマートグラスが撮影した画像中の特徴情報を抽出するステップは、おもに当該画像中のモバイル端末を含むスクリーン特徴情報を抽出する。具体的には従来技術中の画像事前処理、興味のある領域の抽出により、画像中の特徴を抽出することができるが、ここでは繰り返して説明しない。
ステップS732では、モバイル端末の所定のスクリーン特徴テンプレートを取得する。
モバイル端末のスクリーン特徴テンプレートは事前に設置しており、スマートグラスのローカルデータベースに記憶することができる。多様なタイプのモバイル端末のスクリーン特徴モジュールを記憶でき、且つこれらのスクリーン特徴テンプレートは異なる姿態のモバイル端末のスクリーン特徴を含むことができる。
ステップS733では、特徴情報と所定のスクリーン特徴テンプレートがマッチングするかどうかを判断する。
マッチング度を設定でき、特徴情報とスクリーン特徴テンプレートのマッチング度がある設定の閾値より大きい又は等しいとき、特定特徴情報と当該スクリーン特徴テンプレートが互いにマッチングしていると特定する。特徴情報とスクリーン特徴テンプレートのマッチング度がある設定の閾値より大きくなく又は等しくないときはマッチングしない。
特徴情報と所定のスクリーン特徴テンプレートがマッチングするとき、ステップS734を実行する。
ステップS734では、画像中にモバイル端末のスクリーン特徴が含まれていることを特定する。
もし特徴情報とスクリーン特徴テンプレートが互いにマッチングすれば、当該画像中にモバイル端末のスクリーン特徴を含むことを示す。即ち、ユーザはモバイル端末のスクリーンを注視していることを示す。
特徴情報と所定のスクリーン特徴テンプレートがマッチングしないとき、ステップS735を実行する。
ステップS735では、画像中にモバイル端末のスクリーン特徴が含まれていないことを特定する。
もし特徴情報とスクリーン特徴テンプレートがマッチングしなければ、当該画像中にモバイル端末のスクリーン特徴を含まない、又は含んでいるスクリーン特徴が少ないことを示す。即ち、ユーザはモバイル端末のスクリーンを注視していないことを示す。
スマートグラスが撮影した画像に対する識別により、特徴マッチング方法を利用して当該画像中にモバイル端末のスクリーン特徴が含まれているかどうか正確に判断できる。即ち、ユーザがモバイル端末のスクリーンを注視又は眺めているかどうかを特定することができる。
以上の方法における実施例の記述により、当業者は、本発明はソフトウェアに必須の汎用ハードウェアプラットフォームを加えることにより実現することをできることを熟知している。当然ハードウェアによって実現することもでき、おおくの状況においては前者がより適切な実施方法である。このような理解に基づいて、本発明技術方案は本質上又は従来技術に貢献している部分はソフトウェア製品の形式により体現することができる。当該コンピュータソフトウェア製品は記憶媒体に記憶し、コンピュータデバイス(パーソナルコンピュータ、サーバ、又はネットワークデバイス等)に本発明の各実施例における前記方法の全て又は一部のステップを実行させる若干の指令を含む。前記記憶媒体は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク又はCD−ROM等の各種プログラムコード記憶可能な媒体を含む。
この他に、前記各実施例の実現として、本発明の実施例はさらにスクリーン制御装置を提供する。当該装置はモバイル端末中に位置し、図10に示すように、図10は、移動方向検出手段10と、スクリーン向き検出手段20と、情報受信手段30と、指令送信手段40と、スクリーン点灯手段50と、スクリーンオフ手段60と、を備える。
移動方向検出手段10は、前記モバイル端末の移動方向を検出するように構成される。
スクリーン向き検出手段20は、前記モバイル端末のスクリーンの向きを検出するように構成される。
ただし、情報受信手段30は、所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信するように構成される。
指令送信手段40は、前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向き全てが第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信するように構成される。
スクリーン点灯手段50は、前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯するように構成される。
スクリーンオフ手段60は、前記移動方向前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにし、前記第1所定方向と前記第2所定方向は異なる方向となるように構成される。
この他に、前記第1所定方向は上向きであり、前記第2所定方向は下向きである。
さらなる一実施例において、図10に基づいて、図11が示すように、移動方向検出手段10は、以下の重力数値取得モジュール11と、第1移動方向特定モジュール12と、第2移動方向特定モジュール13と、を備える。ただし、
重力数値取得モジュール11は、前記モバイル端末における重力センサが検出した重力数値を取得するように構成される。
第1移動方向特定モジュール12は、前記重力数値が第1所定閾値より大きいとき、前記モバイル端末の移動方向を前記第1所定方向として特定するように構成される。
第2移動方向特定モジュール13は、前記重力数値が第2所定閾値より小さいとき、前記モバイル端末の移動方向を特定し、前記第2所定方向とし、前記第1所定閾値は前記第2所定閾値より大きいように構成される。
さらなる一実施例において、図10に基づいて、図12に示すように、スクリーン向き検出手段20は、データ取得モジュール21と、第1スクリーン向き特定モジュール22と、第2スクリーン向き特定モジュール23と、を備える。ただし、
データ取得モジュール21は、前記モバイル端末における重力センサが収集したZ軸データを取得するように構成される。
第1スクリーン向き特定モジュール22は、前記Z軸データが正値のとき、前記モバイル端末のスクリーンの向きを前記第1所定方向として特定するように構成される。
第2スクリーン向き特定モジュール23は、前記Z軸データが負値のとき、前記モバイル端末のスクリーンの向きを前記第2所定方向として特定するように構成される。
さらなる一実施例において、図10に基づいて、図13に示すように、当該装置はさらに、スクリーン状態検出手段70を備えてもよい。ただし、
前記スクリーン状態検出手段70は、前記モバイル端末のスクリーンの状態を検出するように構成される。
前記スクリーン点灯手段50は、さらに前記モバイル端末のスクリーンがオフ状態のとき、前記モバイル端末のスクリーンを点灯するように構成される。
前記スクリーンオフ手段60は、さらに前記モバイル端末のスクリーンが点灯状態のとき、前記モバイル端末のスクリーンをオフにするように構成される。
この他に、本発明の実施例はスクリーン制御装置をさらに提供する。当該装置はスマートグラス内に位置し、図14の示すように、当該装置は、起動手段910と、画像取得手段920と、判断手段930と、情報生成手段940と、情報送信手段950と、を備える。ただし、
起動手段910は、モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動するように構成される。
画像取得手段920は、スマートグラスの視野範囲内の画像を取得するように構成される。
判断手段930は、前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断するように構成される。
情報生成手段940は、前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成するように構成される。
情報送信手段950は、前記スクリーン識別成功情報を前記モバイル端末へ送信するように構成される。
さらなる一実施例において、図14に基づいて、図15が示すように、判断手段930は、特徴情報抽出モジュール931と、特徴テンプレート取得モジュール932と、マッチング判断モジュール933と、第1スクリーン特徴特定モジュール934と、第2スクリーン特徴特定モジュール935と、を備える。ただし、
特徴情報抽出モジュール931は、前記画像中の特徴情報を抽出するように構成される。
特徴テンプレート取得モジュール932は、前記モバイル端末の所定のスクリーン特徴テンプレートを取得するように構成される。
マッチング判断モジュール933は、前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするかどうかを判断するように構成される。
第1スクリーン特徴特定モジュール934は、前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするとき、画像中に前記モバイル端末のスクリーン特徴が含まれていることを特定するように構成される。
第2スクリーン特徴特定モジュール935は、前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングしないとき、前記画像中に前記モバイル端末のスクリーン特徴が含まれていないことを特定するように構成される。
前記実施例における装置について、ここでは各モジュール実行操作の具体的方法はすでに関連する当該方法の実施例にて詳細に紹介したため、ここでは繰り返して説明しない。
図16に示すように、図16は一実施例にかかるモバイル端末を示す構造模式図である。例えば、端末1600はモバイルフォン、コンピュータ、デジタルブロードキャスト端末、メッセージ送受信機器、ゲーム機、タブレット機器、医療機器、フィットネス機器、パーソナル・デジタル・アシスタント等である。
図16を参照すると、端末1600は、処理ユニット1602、メモリ1604、電源ユニット1606、マルチメディアユニット1608、オーディオユニット1610、入力/出力(I/O)インターフェース1612、センサユニット1614、及び、通信ユニット1616のうちの1つまたは複数を含んでもよい。
処理ユニット1602は、通常は、表示、電話発呼、データ通信、カメラ操作及び記録操作に関連する操作のような、装置1600の全般操作を制御する。処理ユニット1602は、上記方法の全部または一部のステップを実施させるように、指令を実行するための1つまたは複数のプロセッサ1620を含んでもよい。また、処理ユニット1602は、処理ユニット1602と他のユニットとの間の相互作用を容易にするように、1つ又は複数のモジュールを含んでもよい。例えば、処理ユニット1602は、マルチメディアユニット1608と処理ユニット1602との間の相互作用を容易にするように、マルチメディアモジュールを含んでもよい。
メモリ1604は、各タイプのデータを記憶して装置1600での操作をサポートするように構成される。これらのデータの例示は、装置1600で操作するための任意のアプリケーションもしくは方法の指令、連絡人データ、電話帳データ、メッセージ、ピクチャ、ビデオなどを含む。メモリ1604は、如何なる種別の揮発性もしくは不揮発性記憶装置またはそれらの組合せで実現されてもよい。例えば、スタティックランダムアクセスメモリ(SRAM)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM)、プログラマブル読み出し専用メモリ(PROM)、読み出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクであってもよい。
電源ユニット1606は、装置1600のユニットのそれぞれに電力を供給する。電源ユニット1606は、電源管理システム、1つまたは複数の電源、並びに、装置1600用の電力を生成、管理及び配分するに関する他のユニットを含んでもよい。
マルチメディアユニット1608は、前記装置1600とユーザとの間に1つの出力インターフェースを供給するスクリーンを含む。一部の実施例では、スクリーンは、液晶ディスプレイ(LCD)及びタッチパネル(TP)を含んでもよい。スクリーンは、タッチパネルを含む場合、ユーザからの入力信号を受信するように、タッチスクリーンとして実現されてもよい。タッチパネルは、タッチ、スライド及びタッチパネルでの姿態を感知するように、1つまたは複数のタッチセンサを含む。前記タッチセンサは、タッチあるいはスライド動作の境界を感知するだけではなく、前記タッチあるいはスライド操作と関連する持続時間及び圧力をさらに検出することができる。一部の実施例では、マルチメディアユニット1608は、1つのフロントカメラ及び/またはバックカメラを含む。装置1600が操作モード、例えば、撮影モードあるいはビデオモードであるとき、フロントカメラ及び/またはバックカメラは、外部のマルチメディアデータを受信することができる。フロントカメラ及びバックカメラのそれぞれは、1つの固定の光学レンズシステムであってもよいし、焦点距離及び光学ズーム能力を有するものであってもよい。
オーディオユニット1610は、オーディオ信号を出力及び/または入力するように構成される。例えば、オーディオユニット1610は、マイク(MIC)を備え、装置1600が操作モード、例えば、発呼モード、記録モード及び音声識別モードであるとき、マイクは、外部オーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらに、メモリ1604に格納される、または、通信ユニット1616を介して送信されることができる。一部の実施例では、オーディオユニット1610は、オーディオ信号を出力するためのスピーカをさらに含む。
I/Oインターフェース1612は、処理ユニット1602とペリフェラルインターフェースモジュールとの間でインターフェースを供給するものであり、前記ペリフェラルインターフェースモジュールは、キーボード、クリックホイール、ボタンなどであってもよい。これらのボタンには、ホームページボタン、ボリュームボタン、起動ボタン及びロックボタンが含まれてもよいが、それらに限定されない。
センサユニット1614は、様々な側面での状態推定を装置1600に供給するための1つまたは複数のセンサを含む。例えば、センサユニット1614は、装置1600のオン/オフ状態、ユニットの相対位置を検出することができ、前記ユニットは、例えば、装置1600のディスプレイ及びキーパッドである。センサユニット1614は、さらに、装置1600もしくは装置1600の1つのユニットの位置変更、ユーザと装置1600との接触の存在もしくは非存在、装置1600の方位もしくは加速/減速及び装置1600の温度変化をさらに検出することができる。センサユニット1614は、如何なる物理的接触もないとき、近辺にある物体の存在を検出するための近接センサを含んでもよい。センサユニット1614は、さらに、イメージングアプリケーションに使用される光センサ、例えばCMOSまたはCCD画像センサを含んでもよい。一部の実施例では、当該センサユニット1614は、さらに、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信ユニット1616は、装置1600と他の機器間の無線または有線方式の通信ができるように構成される。装置1600は、通信規格に基づく無線ネットワーク、例えば、WiFi、2Gもしくは3G、またはそれらの組合せにアクセスすることができる。ある実施例では、通信ユニット1616は、外部ブロードキャスト管理システムからのブロードキャスト信号またはブロードキャスト関連情報をブロードキャストチャネルを介して受信する。ある実施例では、前記通信ユニット1616は、さらに、短距離通信を容易にするように、ニアフィールド通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術及び他の技術によって実現されてもよい。
実施例では、装置1600は、上記方法を実行するための1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子部品によって実現されてもよい。
実施例では、指令を含む非一時的コンピュータ読み取り可能な記憶媒体、例えば、指令を含むメモリ1604をさらに提供し、上記指令が装置1600のプロセッサ1620によって実行されることで上述方法を実施させることができる。例えば、前記非一時的コンピュータ読み取り可能な記憶媒体は、ROM、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク及び光データ記憶機器などであってもよい。
ただし、端末1600はモバイル端末でもよく、スマートグラスでもよい。
非一時的コンピュータ読み取り可能な記憶媒体は、前記記憶媒体中の指令をモバイル端末のプロセッサにより実行するとき、モバイル端末にスクリーン制御方法を実行させる。前記方法は、
前記モバイル端末の移動方向を検出するステップと、
前記モバイル端末のスクリーンの向きを検出するステップと、
所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信するステップと、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向き全てが第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信するステップと、前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯するステップと、
前記移動方向、前記スクリーンの向き及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにし、前記第1所定方向と前記第2所定方向は異なる方向となるステップと、を含む。
この他に、非一時的コンピュータ読み取り可能な記憶媒体は、前記記憶媒体中の指令をスマートグラスのプロセッサにより実行するとき、スマートグラスにスクリーン制御方法を実行させる。前記方法は、
モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動するステップと、
スマートグラスの視野範囲内の画像を取得するステップと、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断するステップと、
前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成するステップと、
前記スクリーン識別成功情報を前記モバイル端末へ送信するステップと、を含む。
理解できることは、本発明は多くの汎用又は専用の算定システム環境又は配置に用いることができる。例えば、パーソナルコンピュータ、サーバコンピュータ、ポータブルデバイス又は携帯式デバイス、タブレット型デバイス、マルチプロセッサと、システム、マイクロプロセッサに基づくシステム、セット トップ ボックス、書き込み可能な消費電子デバイス、ネットワークPC、小型コンピュータ、大型コンピュータ等の以上のいかなるシステム又はデバイスの分散コンピューティング環境等を含む。
本発明は、例えば、プログラムモジュールのようなコンピュータにより実行したコンピュータの実行可能な指令の一般上下文中において記述することができる。一般的に、プログラムモジュールは、特定タスクを実行する又は抽象データタイプを特定するルーチン、プログラム、オブジェクト、ユニット、データ構造等を含む。分散コンピューティング環境において本発明を実践することもでき、これら分散コンピューティング環境において通信ネットワークにより接続した遠隔処理デバイスによりタスクを実行する。分散コンピューティング環境において、プログラムモジュール記憶デバイスを含むローカルまたは遠隔コンピュータ記憶媒体に位置することができる。
説明が必要なことは、本文において、「第1」と「第2」などの関連用語は1つのエンティティ又は操作と別のエンティティ又は操作を区別するために使用するもので、これらエンティティ又は操作にはいかなる関係又は順序を要求又は暗示するとは限らない。さらに、関連用語の「備える」、「含まれる」またはその他の変形例は、非排他的な含むという意味をカバーし、一連の要素の処理、方法、物品又は装置のみに含まれない要素を含み、明確に列挙された他の要素、もしくはこのような過程、方法、物品又は固有の要素を含む装置をさらに含む。多くの制限がない状況のもと、「を含む……」という語句が限定する要素は、過程、方法、物品またはデバイスにこれらと別の同様な要素を含むことを排除しない。
当業者は明細書を考慮し、ここに公開された開示を実践した後、本発明の他の実施案を容易に想到する。本願は、本発明の如何なる変形、用途又は適合もカバーすることを意図する。これらの変形、用途又は適合は、本発明の一般的な仕組みに従い、かつ、本発明に公開されていない当分野における公知常識又は慣用技術手段を含む。明細書及び実施例は単なる例示と見なされ、本発明の本当の範囲及び思想は添付する特許請求の範囲によって与えられる。
本発明が以上で記載され、且つ図面に示された正確な構造に限定されるものでなく、その要旨を逸脱しない範囲で様々な補正や変更も可能であることは理解されるべきである。本発明の範囲は、添付する特許請求の範囲のみによって限定される。
本発明は、出願番号が201510547144.3であり、出願日が2015年08月31日である中国特許出願を基に提出するものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、参照のため本願に援用される。

Claims (16)

  1. モバイル端末に用いられるスクリーン制御方法であって、
    前記モバイル端末の移動方向を検出するステップと、
    前記モバイル端末のスクリーンの向きを検出するステップと、
    所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信するステップと、
    前記移動方向、前記スクリーンの向き、及び前記姿態識別情報における手のひらの向きがいずれも第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信し、前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯するステップと、
    前記移動方向、前記スクリーンの向き、及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにするステップと、を含み、
    前記第1所定方向と前記第2所定方向は異なることを特徴とするスクリーン制御方法。
  2. 前記第1所定方向は上向きであり、前記第2所定方向は下向きであることを特徴とする請求項1に記載のスクリーン制御方法。
  3. 前記モバイル端末の移動方向を検出するステップは、
    前記モバイル端末における重力センサが検出した重力数値を取得するステップと、
    前記重力数値が第1所定閾値より大きいとき、前記モバイル端末の移動方向を前記第1所定方向として特定するステップと、
    前記重力数値が第2所定閾値より小さいとき、前記モバイル端末の移動方向を前記第2所定方向として特定するステップと、を含み、
    前記第1所定閾値は前記第2所定閾値より大きいことを特徴とする請求項1又は2に記載のスクリーン制御方法。
  4. 前記モバイル端末のスクリーンの向きを検出するステップは、
    前記モバイル端末における重力センサが収集したZ軸データを取得するステップと、
    前記Z軸データが正値であるとき、前記モバイル端末のスクリーンの向きを前記第1所定方向として特定するステップと、
    前記Z軸データが負値であるとき、前記モバイル端末のスクリーンの向きを前記第2所定方向として特定するステップと、を含むことを特徴とする請求項1又は2に記載のスクリーン制御方法。
  5. 前記モバイル端末のスクリーンの状態を検出するステップと、
    前記モバイル端末のスクリーンがオフ状態のとき、前記モバイル端末のスクリーン点灯を実行するステップと、
    前記モバイル端末のスクリーンが点灯状態のとき、前記モバイル端末のスクリーンオフを実行するステップと、をさらに含むことを特徴とする請求項1に記載のスクリーン制御方法。
  6. スマートグラスに用いられるスクリーン制御方法であって、
    モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動するステップと、
    スマートグラスの視野範囲内の画像を取得するステップと、
    前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断するステップと、
    前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成するステップと、
    前記スクリーン識別成功情報を前記モバイル端末へ送信するステップと、を含むことを特徴とするスクリーン制御方法。
  7. 前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断するステップは、
    前記画像中の特徴情報を抽出するステップと、
    前記モバイル端末の所定のスクリーン特徴テンプレートを取得するステップと、
    前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするかどうかを判断するステップと、
    前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするとき、前記画像中に前記モバイル端末のスクリーン特徴が含まれていることを特定するステップと、
    前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングしないとき、前記画像中に前記モバイル端末のスクリーン特徴が含まれていないことを特定するステップと、を含むことを特徴とする請求項6に記載のスクリーン制御方法。
  8. モバイル端末に用いられるスクリーン制御装置であって、
    前記モバイル端末の移動方向を検出する、移動方向検出手段と、
    前記モバイル端末のスクリーンの向きを検出する、スクリーン向き検出手段と、
    所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信する、情報受信手段と、
    前記移動方向、前記スクリーンの向き、及び前記姿態識別情報における手のひらの向きがいずれも第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信する、指令送信手段と、
    前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯する、スクリーン点灯手段と、
    前記移動方向、前記スクリーンの向き、及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフにするスクリーンオフ手段と、を備え、
    前記第1所定方向と前記第2所定方向は異なることを特徴とするスクリーン制御装置。
  9. 前記第1所定方向は上向きであり、前記第2所定方向は下向きであることを特徴とする請求項8に記載のスクリーン制御装置。
  10. 前記移動方向検出手段は、
    前記モバイル端末における重力センサが検出した重力数値を取得する、重力数値取得モジュールと、
    前記重力数値が第1所定閾値より大きいとき、前記モバイル端末の移動方向を前記第1所定方向として特定する、第1移動方向特定モジュールと、
    前記重力数値が第2所定閾値より小さいとき、前記モバイル端末の移動方向を前記第2所定方向として特定する、第2移動方向特定モジュールと、を備え、
    前記第1所定閾値は前記第2所定閾値より大きいことを特徴とする請求項8又は9に記載のスクリーン制御装置。
  11. 前記スクリーン向き検出手段は、
    前記モバイル端末における重力センサが収集したZ軸データを取得する、データ取得モジュールと、
    前記Z軸データが正値のとき、前記モバイル端末のスクリーンの向きを前記第1所定方向として特定する、第1スクリーン向き特定モジュールと、
    前記Z軸データが負値のとき、前記モバイル端末のスクリーンの向きを前記第2所定方向として特定する、第2スクリーン向き特定モジュールと、を備えることを特徴とする請求項8又は9に記載のスクリーン制御装置。
  12. 前記モバイル端末のスクリーンの状態を検出するスクリーン状態検出手段をさらに備え、
    前記スクリーン点灯手段は、さらに、前記モバイル端末のスクリーンがオフ状態のとき、前記モバイル端末のスクリーンを点灯し、
    前記スクリーンオフ手段は、さらに、前記モバイル端末のスクリーンが点灯状態のとき、前記モバイル端末のスクリーンをオフにすることを特徴とする請求項8に記載のスクリーン制御装置。
  13. スマートグラスに用いられるスクリーン制御装置であって、
    モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動する、起動手段と、
    スマートグラスの視野範囲内の画像を取得する、画像取得手段と、
    前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断する、判断手段と、
    前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成する、情報生成手段と、
    前記スクリーン識別成功情報を前記モバイル端末へ送信する、情報送信手段と、を備えることを特徴とするスクリーン制御装置。
  14. 前記判断手段は、
    前記画像中の特徴情報を抽出する、特徴情報抽出モジュールと、
    前記モバイル端末の所定のスクリーン特徴テンプレートを取得する、特徴テンプレート取得モジュールと、
    前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするかどうかを判断する、マッチング判断モジュールと、
    前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングするとき、画像中に前記モバイル端末のスクリーン特徴が含まれていることを特定する、第1スクリーン特徴特定モジュールと、
    前記特徴情報と前記所定のスクリーン特徴テンプレートがマッチングしないとき、前記画像中に前記モバイル端末のスクリーン特徴が含まれていないことを特定する、第2スクリーン特徴特定モジュールと、を備えることを特徴とする請求項13に記載のスクリーン制御装置。
  15. プロセッサと、
    前記プロセッサの実行可能な指令を記憶するためのメモリと、を備え、
    前記プロセッサは、
    バイル端末の移動方向を検出し、
    前記モバイル端末のスクリーンの向きを検出し、
    所定のスマートウェアラブルデバイスが送信した姿態識別情報を受信し、
    前記移動方向、前記スクリーンの向き、及び前記姿態識別情報における手のひらの向きがいずれも第1所定方向であるとき、所定のスマートグラスへスクリーン識別指令を送信し、前記所定のスマートグラスが送信したスクリーン識別成功情報を受信したとき、前記モバイル端末のスクリーンを点灯し、
    前記移動方向、前記スクリーンの向き、及び前記姿態識別情報における手のひらの向きがいずれも第2所定方向であるとき、前記モバイル端末のスクリーンをオフするように構成され、
    前記第1所定方向と前記第2所定方向は異なることを特徴とするモバイル端末。
  16. プロセッサと、
    前記プロセッサの実行可能な指令を記憶するためのメモリと、を備え、
    前記プロセッサは、
    モバイル端末が送信したスクリーン識別指令を受信したとき、スクリーン識別操作を起動し、
    スマートグラスの視野範囲内の画像を取得し、
    前記画像中に前記モバイル端末のスクリーン特徴が含まれているかどうかを判断し、
    前記画像中に前記モバイル端末のスクリーン特徴が含まれているとき、スクリーン識別成功情報を生成し、
    前記スクリーン識別成功情報を前記モバイル端末へ送信するように構成されることを特徴とするスマート端末。
JP2016526239A 2015-08-31 2015-12-29 スクリーン制御方法及び装置 Active JP6310556B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510547144.3A CN105183156B (zh) 2015-08-31 2015-08-31 屏幕控制方法及装置
CN201510547144.3 2015-08-31
PCT/CN2015/099598 WO2017036035A1 (zh) 2015-08-31 2015-12-29 屏幕控制方法及装置

Publications (2)

Publication Number Publication Date
JP2017533480A JP2017533480A (ja) 2017-11-09
JP6310556B2 true JP6310556B2 (ja) 2018-04-11

Family

ID=54905282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016526239A Active JP6310556B2 (ja) 2015-08-31 2015-12-29 スクリーン制御方法及び装置

Country Status (8)

Country Link
US (1) US10191564B2 (ja)
EP (1) EP3136201B1 (ja)
JP (1) JP6310556B2 (ja)
KR (1) KR101876655B1 (ja)
CN (1) CN105183156B (ja)
MX (1) MX369243B (ja)
RU (1) RU2646364C2 (ja)
WO (1) WO2017036035A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105183156B (zh) 2015-08-31 2019-03-12 小米科技有限责任公司 屏幕控制方法及装置
CN105700681B (zh) * 2015-12-31 2018-10-12 联想(北京)有限公司 一种控制方法、电子设备
CN105786183B (zh) * 2016-02-29 2019-01-11 宇龙计算机通信科技(深圳)有限公司 控制方法、控制装置和可穿戴智能设备
KR101859685B1 (ko) 2016-06-16 2018-05-18 주식회사 팜한농 프로토포르피리노겐 옥시다아제 변이체 및 이를 이용하는 제초제 내성 부여 및/또는 증진을 위한 조성물 및 방법
CN106444349B (zh) * 2016-07-18 2019-07-09 深圳市亿能科技有限公司 智能手表翻转阈值设置方法及***
CN106054581A (zh) * 2016-07-28 2016-10-26 努比亚技术有限公司 一种智能手表屏幕的控制方法和智能手表
CN106339088B (zh) * 2016-08-30 2020-03-10 维沃移动通信有限公司 检测设备运动状态的方法、手持式移动终端及穿戴式设备
CN107817887B (zh) * 2016-09-13 2021-07-20 上海中兴软件有限责任公司 一种信息处理方法和装置
CN106529258A (zh) * 2016-11-30 2017-03-22 赵云龙 移动设备的安全管理方法及***
CN106600689A (zh) * 2016-12-16 2017-04-26 北京小米移动软件有限公司 3d打印数据生成方法及装置
CN106708271A (zh) * 2016-12-30 2017-05-24 珠海市魅族科技有限公司 一种终端屏幕控制方法及装置
CN106851118A (zh) * 2017-04-05 2017-06-13 深圳天珑无线科技有限公司 相机控制方法及装置
CN106816139A (zh) * 2017-04-11 2017-06-09 广东美的制冷设备有限公司 背光源的控制方法、控制装置及带有背光源的终端
CN107193519A (zh) * 2017-05-26 2017-09-22 珠海市魅族科技有限公司 显示控制方法及装置、计算机装置和计算机可读存储介质
CN107317927A (zh) * 2017-06-22 2017-11-03 深圳市沃特沃德股份有限公司 与用户互动的方法及智能终端
US10866652B2 (en) 2017-11-13 2020-12-15 Samsung Electronics Co., Ltd. System and method for distributed device tracking
CN107908983A (zh) * 2017-11-14 2018-04-13 维沃移动通信有限公司 一种控制移动终端屏幕的方法和移动终端
CN108595930B (zh) * 2018-04-23 2023-01-10 北京小米移动软件有限公司 终端设备控制方法及装置
US10868814B2 (en) 2018-04-30 2020-12-15 Samsung Electronics Co., Ltd. System and method for flow-based architecture
CN108601072A (zh) * 2018-05-10 2018-09-28 Oppo广东移动通信有限公司 熄屏显示的方法、移动终端以及存储介质
CN111837174B (zh) 2018-06-25 2023-03-28 麦克赛尔株式会社 头戴式显示器、头戴式显示器协作***及其方法
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
CN109101119B (zh) * 2018-07-23 2021-10-22 Oppo广东移动通信有限公司 终端控制方法、装置以及移动终端
KR102539579B1 (ko) 2018-12-18 2023-06-05 삼성전자주식회사 정보의 표시 영역을 적응적으로 변경하기 위한 전자 장치 및 그의 동작 방법
CN111756907A (zh) * 2019-03-26 2020-10-09 北京小米移动软件有限公司 操作执行方法、装置及存储介质
CN110058686B (zh) * 2019-03-27 2023-01-24 南京维沃软件技术有限公司 一种控制方法及终端设备
CN110686667B (zh) * 2019-09-24 2024-01-09 努比亚技术有限公司 方向指示方法、双屏终端及计算机可读存储介质
CN111626161A (zh) * 2020-05-15 2020-09-04 Oppo(重庆)智能科技有限公司 人脸识别方法及装置、终端和可读存储介质
JP6892960B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、情報処理システム、制御方法及びプログラム
CN112285915B (zh) * 2020-10-26 2023-07-18 腾讯科技(深圳)有限公司 增强现实组件以及显微镜
US11809641B2 (en) 2021-02-05 2023-11-07 Nokia Technologies Oy Orientation of visual content rendered on a display of a mobile device
US12014099B2 (en) * 2022-03-08 2024-06-18 Google Llc Multi-device awareness for casting and content delivery

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9189069B2 (en) * 2000-07-17 2015-11-17 Microsoft Technology Licensing, Llc Throwing gestures for mobile devices
DE602004013321T2 (de) * 2004-10-06 2009-05-20 Nokia Corp. Zugriffssteuerung für Kommunikationsendgerät
US8344998B2 (en) * 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
CN102369724B (zh) * 2009-02-18 2016-05-04 谷歌公司 自动捕获信息,例如使用文档感知设备捕获信息
CN101980516A (zh) * 2010-10-26 2011-02-23 浙江大学 一种用于Android***手机上的锁屏以及解屏方法
JP2013207574A (ja) * 2012-03-28 2013-10-07 Panasonic Corp 携帯端末
JP5884689B2 (ja) * 2012-09-11 2016-03-15 カシオ計算機株式会社 携帯機器及びその制御方法、並びに、携帯機器の制御プログラム
US20160147300A1 (en) * 2013-06-28 2016-05-26 Nokia Technologies Oy Supporting Activation of Function of Device
KR102056221B1 (ko) * 2013-07-12 2019-12-16 삼성전자주식회사 시선인식을 이용한 장치 연결 방법 및 장치
CN105531330A (zh) 2013-07-24 2016-04-27 I-技术有限公司 作为抑制剂的对映异构体右旋美托咪啶在海洋生物污损表面附着的应用
CN103399642A (zh) * 2013-08-21 2013-11-20 珠海市魅族科技有限公司 一种屏幕唤醒的控制方法及终端
KR102135353B1 (ko) * 2013-08-30 2020-07-17 엘지전자 주식회사 시계형 단말기와 이를 포함하는 시스템
KR102100911B1 (ko) * 2013-08-30 2020-04-14 엘지전자 주식회사 안경형 단말기와 이를 포함하는 시스템 및 안경형단말기의 제어방법
CN103581443A (zh) * 2013-11-14 2014-02-12 惠州Tcl移动通信有限公司 一种基于传感器的智能终端自动唤醒方法及***
KR102195518B1 (ko) * 2013-12-13 2020-12-29 삼성전자 주식회사 전자장치의 화면 표시 제어장치 및 방법
KR20160113592A (ko) * 2014-01-27 2016-09-30 엘지전자 주식회사 안경형 단말기와 그 안경형 단말기의 제어방법
CN103927117A (zh) * 2014-03-26 2014-07-16 广东明创软件科技有限公司 快速点亮屏幕的方法及其移动终端
KR102218553B1 (ko) * 2014-04-21 2021-02-22 삼성전자주식회사 화면 제어를 위한 방법 및 전자장치
CN104090649A (zh) * 2014-05-20 2014-10-08 上海翰临电子科技有限公司 一种智能表带及其操作控制方法
CN104765551B (zh) * 2015-04-20 2017-11-03 广东欧珀移动通信有限公司 点亮移动终端屏幕的方法、装置及***
CN104808800A (zh) * 2015-05-21 2015-07-29 上海斐讯数据通信技术有限公司 智能眼镜设备、移动终端及移动终端操作方法
CN105183156B (zh) * 2015-08-31 2019-03-12 小米科技有限责任公司 屏幕控制方法及装置

Also Published As

Publication number Publication date
MX369243B (es) 2019-10-30
KR20170037869A (ko) 2017-04-05
CN105183156B (zh) 2019-03-12
CN105183156A (zh) 2015-12-23
KR101876655B1 (ko) 2018-07-09
RU2646364C2 (ru) 2018-03-02
EP3136201B1 (en) 2018-10-17
EP3136201A1 (en) 2017-03-01
WO2017036035A1 (zh) 2017-03-09
US10191564B2 (en) 2019-01-29
MX2016007020A (es) 2017-06-29
JP2017533480A (ja) 2017-11-09
US20170060266A1 (en) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6310556B2 (ja) スクリーン制御方法及び装置
US10750007B2 (en) Method and device for preventing terminal from being inadvertently touched
JP6388706B2 (ja) 無人航空機の撮影制御方法及び撮影制御装置、電子デバイス
KR101850035B1 (ko) 이동 단말기 및 그 제어방법
KR101850034B1 (ko) 이동 단말기 및 그 제어방법
US20180124223A1 (en) Screen control method, apparatus, and non-transitory tangible computer readable storage medium
CN111382624B (zh) 动作识别方法、装置、设备及可读存储介质
US20150002676A1 (en) Smart glass
JP6105953B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
US9213413B2 (en) Device interaction with spatially aware gestures
EP3299946B1 (en) Method and device for switching environment picture
KR20160071263A (ko) 이동단말기 및 그 제어방법
US20150109200A1 (en) Identifying gestures corresponding to functions
KR101537624B1 (ko) 이동단말기 및 그 제어방법
CN105892751B (zh) 控制触控屏触发的方法及装置、电子设备
CN115543064A (zh) 界面显示控制方法、界面显示控制装置及存储介质
CN114663901A (zh) 图像处理方法、图像识别装置、电子设备及介质
CN112462963A (zh) 非接触手势控制方法、装置及存储介质
WO2024020899A1 (zh) 握持姿态的识别方法、装置、设备、存储介质及芯片
CN109670432B (zh) 动作识别方法及装置
CN117041728A (zh) 对焦方法及装置、电子设备、可读存储介质
JP2015226210A (ja) 携帯端末、カメラ制御プログラムおよびカメラ制御方法
CN117372858A (zh) 物品识别方法及装置、电子设备、存储介质
CN111813486A (zh) 页面显示方法、装置、电子设备及存储介质
KR20150051583A (ko) 전자 기기 및 그 제어 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180316

R150 Certificate of patent or registration of utility model

Ref document number: 6310556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250