JP2014174829A - 携帯型装置 - Google Patents

携帯型装置 Download PDF

Info

Publication number
JP2014174829A
JP2014174829A JP2013048258A JP2013048258A JP2014174829A JP 2014174829 A JP2014174829 A JP 2014174829A JP 2013048258 A JP2013048258 A JP 2013048258A JP 2013048258 A JP2013048258 A JP 2013048258A JP 2014174829 A JP2014174829 A JP 2014174829A
Authority
JP
Japan
Prior art keywords
portable device
area
handle
input operation
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013048258A
Other languages
English (en)
Other versions
JP5965339B2 (ja
Inventor
Junichi Suda
淳一 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013048258A priority Critical patent/JP5965339B2/ja
Priority to PCT/JP2014/054166 priority patent/WO2014141856A1/ja
Priority to CN201480003023.6A priority patent/CN104781769B/zh
Priority to US14/440,636 priority patent/US20150301713A1/en
Priority to DE112014001224.6T priority patent/DE112014001224T5/de
Priority to KR1020157012474A priority patent/KR101679158B1/ko
Publication of JP2014174829A publication Critical patent/JP2014174829A/ja
Application granted granted Critical
Publication of JP5965339B2 publication Critical patent/JP5965339B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0279Improving the user comfort or ergonomics
    • H04M1/0281Improving the user comfort or ergonomics for providing single handed use or left/right hand conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】入力操作の受け付けに支障をきたすことなく誤操作を防止する。
【解決手段】携帯型装置(1)は、メニューを表示するメニュー表示部(122)と、携帯型装置(1)の持ち手を判定する持ち手判定部(125)と、メニューを表示したときに、該メニューが表示されていない持ち手判定結果に応じた領域を無効領域に設定する無効領域設定部(126)とを備える。
【選択図】図1

Description

本発明は、表示面に対する入力を受け付ける携帯型装置の誤操作の防止に関する。
従来から、スマートフォン等のタッチパネルを備えた携帯型装置の操作性向上のための技術開発が進められている。例えば、下記特許文献1には、タッチスクリーンの各辺を囲むように配設したタッチセンサによって携帯電話機の何れの部分が持たれたかを検出し、その検出結果に応じた位置をタッチ操作の無効化領域とすることにより、無効化領域に指を置いて休ませることを可能にしている。また、下記特許文献2には、スクロール操作の軌跡の突出方向に応じてUIの表示位置を変更することが記載されている。
特開2011−28603号公報(2011年2月10日公開) 特開2012−155675号公報(2012年8月16日公開)
ここで、スマートフォン等の表示面に対する入力操作を受け付ける携帯型装置は、携帯型装置を把持している手で操作されることがあり、このような操作の際には、ユーザの意図しない誤操作が行われるという問題があった。例えば、右手で携帯型装置を把持しながら、右手の親指で操作を行う場合に、右手の親指の付け根部分が画面に触れてしまうことによる誤操作が生じていた。ユーザの持ち手位置付近を、入力操作が無効となる無効領域とすることにより、上記の誤操作を防ぐことは可能と考えられる。しかし、無効領域の設定に関する上記特許文献1の技術では、該領域を設定すべきタイミングについて考慮されていないという問題がある。すなわち、特許文献1では、携帯電話機の持ち手位置付近が常に無効化領域とされるため、表示面の全面を活用した入力操作の受け付けが不能となる。本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力操作を無効にするべきタイミング(例えば、誤操作が生じる可能性のある状態となったタイミング)で、誤操作が生じる可能性のある領域に対する入力操作を無効にすることにより、入力操作の受け付けに支障をきたすことなく、誤操作の防止が可能な携帯型装置等を提供することにある。
上記の課題を解決するために、本発明の一態様に係る携帯型装置は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、所定の入力操作に応じて、上記表示面の一部の領域に、入力操作の対象となる入力対象オブジェクトを表示する表示手段と、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、上記入力対象オブジェクトの表示中に、該入力対象オブジェクトが表示されていない領域であって、上記持ち手判定手段の判定結果に応じた領域に対する入力操作を無効とする無効領域設定手段と、を備えている。
また、本発明の他の態様に係る携帯型装置は、画画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、上記持ち手判定手段が持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域に対する入力操作を無効とする無効領域設定手段と、を備えている。
上記本発明の各態様によれば、入力操作を無効にするべきタイミング(入力対象オブジェクトが表示されているタイミング、または表示面の端部を始点とするドラッグ操作が行われたタイミング等)で、誤操作が生じる可能性のある領域に対する入力操作を無効にする。よって、入力操作の受け付けに支障をきたすことなく、誤操作を防止することができるという効果を奏する。
本発明の一実施形態に係る携帯型装置の要部構成を示すブロック図である。 メニューの表示例を示す図である。 誤操作が発生し易い領域を示す図である。 無効領域の設定例を示す図である。 無効領域の他の設定例を示す図である。 メニュー表示操作の軌跡を示す図である。 無効領域設定処理の一例を示すフローチャートである。 メニュー操作時にメニュー以外の領域で検出されたタッチ領域に基づいて持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。 携帯型装置の持ち手に応じた傾き方を示す図である。 携帯型装置の傾きによって持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。 上下方向のドラッグ操作の軌跡を示す図である。 ドラッグ操作の軌跡の解析によって持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。 無効領域解除処理の一例を示すフローチャートである。
〔実施形態1〕
図1は、本発明の一実施形態に係る携帯型装置1の要部構成を示すブロック図である。携帯型装置1は筐体を把持した片手で操作可能なサイズおよび形状の装置であり、図示のように、タッチパネル11、制御部12、記憶部13、および傾きセンサ(傾き検出部)100を備えている。タッチパネル11は、制御部12の制御に従って画像を表示する表示部111と、ユーザの入力操作を受け付ける入力部112とを備えている。表示部111の表示面が入力部112の入力面を兼ねており、表示面に対するユーザのタッチ操作を携帯型装置1に対する入力操作として受け付ける。制御部12は、携帯型装置1が備える各部を統括的に制御するものであり、操作判定部121、メニュー表示部(表示手段)122、操作記録部123、操作解析部124、持ち手判定部(持ち手判定手段)125、無効領域設定部(無効領域設定手段、解除手段)126、および無操作時間計測部129を備えている。記憶部13は、携帯型装置1が使用する各種データを格納する。図示の例では、ユーザの操作の軌跡を示す操作データ131と、携帯型装置1の持ち手を判定するための持ち手判定条件133とが格納されている。また、傾きセンサ100は、携帯型装置1が保持されている姿勢を特定するためのものである。なお、傾きセンサ100は、ジャイロセンサや加速度センサなどであってもよい。
操作判定部121は、入力部112が受け付けた入力が、携帯型装置1に対するどのような操作であるか判定する。例えば、入力部112が表示部111の表示面の右端部または左端部を始点とするドラッグ操作(表示面への接触状態を維持した状態で、接触位置をスライドさせる操作)を受け付けたときには、メニューを表示させる操作であるメニュー表示操作が行われたと判定する。なお、メニューを表示させるための操作は、上記のドラッグ操作に限られない。メニュー表示部122は、メニュー表示操作が行われた旨の通知を操作判定部121から受信したときに、表示部111にメニューを表示させる。具体的には、図2に示すような画面を表示する。同図の例では、メニューのオブジェクトO(以下、メニューと呼ぶ)が表示されている。このメニューは、表示面の端部を始点として表示面の中央側に向かって延在しており、複数の項目(この例では6つ)を含む。ユーザは、所望の項目を選択することにより、その項目に対応する処理を携帯型装置1に実行させることができる。操作記録部123は、入力部112が受け付けた入力操作の内容を示す操作データ131を記録し、操作解析部124は、操作データ131を解析し、持ち手判定部125は、操作解析部124の解析結果から持ち手判定条件133に従って持ち手を判別する。無効領域設定部126は、持ち手判定部125の判別結果に応じた位置に無効領域を設定し、設定した無効領域を操作判定部121に通知すると共に、該無効領域に対する操作を受け付けないように指示することによって、無効領域内で行われた操作を無効にする。なお、操作の無効化方法はこれに限定されず、例えば入力部112を制御して無効領域内で行われた操作が操作判定部121に通知されないようにしてもよい。また、無効領域内に操作の対象となるオブジェクトを表示しないように制御してもよい。
<メニューの表示と無効領域の設定>
図2の画面例では、表示面右下隅の座標を基準座標A(X0,Y0)とし、メニュー右下隅の座標をメニュー基準点B(X0,Y1)としている。また、メニューの幅をW、高さをH、基準座標Aからメニュー基準点Bまでの距離をD(D=Y0−Y1)で示している。オブジェクトOの画像データと共に、上記各パラメータ(W,H,D)を予め記憶しておくことにより、図2のような表示を行うことができる。なお、メニュー表示操作を行った指(典型的には親指)にて、スムーズに項目を選択することができるように、メニュー基準点Bのy座標Y1は、メニュー表示操作の始点のy座標と同一か、またはこれに近い値に設定することが好ましい。なお、表示面の左端を始点とするドラッグ操作を行った場合、表示面の左端を始点としてメニューを表示する。
次に、無効領域の設定について、図3から図5を参照して説明する。図3は、誤操作が発生し易い領域を示す図である。図3の(a)および(b)に示すように、ユーザが携帯型装置1を右手で持った状態で、メニューのうち領域Pを親指でタッチしようとした場合、領域Qを手のひら(親指の付け根部分)で誤ってタッチしてしまい易い。
続いて、無効領域の設定について、図4および図5を参照して説明する。図4の無効領域Tは、右手持ちのときに設定される無効領域であり、誤操作がされ易い領域Q(図3参照)を含むように、メニューよりも下側(y軸正方向側)の表示面の右下寄りに設定される。図4の例では、無効領域Tの高さをD/Nとし、幅をW/Mとしている。なお、NおよびMは、何れも1以上の整数である。以上より、無効領域Tの範囲は、
(N×X0−W)/N<X<X0,((N−1)×Y0+Y1)/N<Y<Y0
と表される。
また、図5に示すように、五角形形状の無効領域T’も、誤操作がされ易い領域Qを含むように、メニューよりも下側に設定される。無効領域T’は、図4の無効領域Tと比べてメニューに近い側の領域を広くカバーするので、より誤操作が発生し難い。上記の無効領域TおよびT’は、何れも領域Qをカバーしつつ、その高さはメニューに達しない高さであり、その幅はメニューの幅W以下である。これにより、誤操作の発生を防ぎつつ、無効領域外に対する操作を受け付けることを可能にしている。左手持ちのときの無効領域は、上記の例と同様に、メニューより下側の持ち手側(表示面の左下隅)に設定すればよい。なお、無効領域は、持ち手に応じた領域であって、誤操作が発生しやすい領域をカバーするものであればよく、その形状は上記の例に限定されない。ただし、無効領域は、上記の例のように、持ち手に応じた特に誤操作が発生し易い領域のみをカバーし、必要以上に広く設定しないことが好ましい。これにより、矩形形状の表示面の辺に沿って帯状の無効化領域を設定している特許文献1(同文献の図3、図7等)の技術と比べて、無効領域を設定した状態においても、広い範囲でユーザの入力操作を受け付けることができる。
<持ち手判定方法>
持ち手判定方法について、メニュー表示操作の軌跡を示す図6に基づいて説明する。上述のように、メニュー表示操作は、表示面の右端または左端を始点とするドラッグ操作である。このため、右手でメニュー表示操作を行ったときの軌跡は、同図の(a)に示すように、表示面の左端から右上に向かう円弧状の軌跡L11、または表示面の右端から左下に向かう円弧状の軌跡L12となる。一方、左手でメニュー表示操作を行ったときの軌跡は、同図(b)に示すように、表示面の左端から右下に向かう円弧状の軌跡L14、または表示面の右端から左上に向かう円弧状の軌跡L13となる。以下では、左端から右上に向かう円弧状の軌跡を右上がりの軌跡と呼び、右端から左下に向かう円弧状の軌跡を左下がりの軌跡と呼ぶ。同様に、左端から右下に向かう円弧状の軌跡を右下がりの軌跡と呼び、右端から左上に向かう円弧状の軌跡を左上がりの軌跡と呼ぶ。
以上より、メニュー表示操作の軌跡が、右上がりまたは左下がり(傾きが正)であれば持ち手は右手であると推定し、右下がりまたは左上がり(傾きが負)であれば持ち手は左手であると推定することができる。従って、メニュー表示操作を解析して、その軌跡の傾きを特定することができれば、持ち手を判定することができる。
<携帯型装置1が実行する無効領域設定処理>
図7の無効領域設定処理では、入力部112がメニュー表示指示を受け付け(S101)、操作判定部121がメニューを表示させる操作を受け付けた旨をメニュー表示部122に通知する。また、操作判定部121は、メニューを表示させる操作の軌跡を示すデータを操作記録部123に送る。そして、メニュー表示部122は、メニューを表示部111に表示する(S102;表示ステップ)。また、操作記録部123は、操作の軌跡を示す上記データを操作データ131として記録し(S103)、その旨を操作解析部124に通知する。
次に、操作解析部124は、操作データ131を解析し(S104)、軌跡に一定以上の傾きがあるか判定する(S105)。ここで、一定以上の傾きがないと判定した場合(S105でNO)、処理は終了する。一方、一定以上の傾きがあると判定した場合(S015でYES)には、操作解析部124は、軌跡の傾きが、右上がりまたは左下がりであるか判定し(S106)、この判定の結果を持ち手判定部125に通知する。
ここで、軌跡の傾きが右上がりまたは左下がりであると判定された場合(S106でYES)には、その旨の通知を受信した持ち手判定部125が、持ち手判定条件133に従い、持ち手が右手であると判定する(S107;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の右手側に無効領域を設定する(S108;無効領域設定ステップ)。一方、軌跡の傾きが左上がりまたは右下がりであると判定された場合(S106でNO)には、その旨の通知を受信した持ち手判定部125が、持ち手判定条件133に従い、持ち手が左手であると判定する(S109;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の左手側に無効領域を設定する(S110;無効領域設定ステップ)。このように、持ち手に応じた無効領域を設定した後、処理は終了する。
以上説明した無効領域設定処理は、表示する対象に着目すれば、メニューを表示するときに、持ち手の判定結果に応じた無効領域を設定する処理であると表現できる。また、受け付けた入力操作に着目すれば、端部を始点とするドラッグ操作(メニューを表示させる操作)が行われたときに、持ち手の判定結果に応じた無効領域を設定する処理であると表現できる。このように、携帯型装置1は、メニューを表示するタイミング(端部を始点とするドラッグ操作が行われたタイミング)にて、無効領域を設定する。つまり、携帯型装置1は、親指の根元付近が表示面に触れてしまうことによる誤操作が生じる可能性があり、無効領域を設定する必要性が高い状態となったとき(メニューが表示されているとき)に無効領域を設定する。言い換えれば、上記のような誤操作が生じる可能性の低いときには無効領域を設定しない。これにより、常に無効領域を設定する上記特許文献1の技術と比べて、表示画面の全面にて入力操作を受け付け可能な期間を長くすることができる。なお、表示するオブジェクトは、入力操作の対象となるものであればよく、メニューに限られない。また、上記オブジェクトを表示させるための操作は、画面端を始点とするものであればよく、例えば画面の上または下端を始点とするものであってもよい。
〔実施形態2〕
本実施形態では、図1に示す構成の携帯型装置1が、上記実施形態とは異なる方式で持ち手判定を行って無効領域を設定する例を図8に基づいて説明する。図8の左側のフローチャートでは、図7の例と同様に、まず、メニューの表示操作を受け付け(S101)、メニューを表示する(S102)。メニューが表示されている状態において、入力部112が表示面に対するタッチ操作を受け付ける(S203)と、操作判定部121は、表示面上において指が触れた領域であるタッチ領域を示すデータを操作記録部123に送る(S203)。そして、操作記録部123は、タッチ領域を示す上記データを操作データ131として記憶部13に記録し(S204)、その旨を操作解析部124に通知する。
これにより、無効領域設定処理が行われる(S205)。そして、無効領域設定処理によって無効領域が設定された場合、無効領域設定部126は、無効領域を解除するか判定する(S206)。S206では、例えば、無効領域を解除するユーザ操作、メニューの表示終了、あるいは表示したメニューによって操作されるアプリケーションソフトウェアの実行終了等が検出されたときに、無効領域を解除すると判定としてもよい。ここで、無効領域を解除すると判定した場合(S206のYES)には、無効領域設定部126は、操作判定部121に指示して無効を解除させ(S207)、これにより処理は終了する。
続いて、S205の無効領域設定処理の詳細について説明する。図8の右側に示すように、本実施形態の無効領域設定処理では、まず、操作解析部124が、操作データ131を解析し、S203で受け付けた操作がメニューに対する操作♯1であるかを判定する(S208)。具体的には、操作データ131の示すタッチ位置が、メニューの表示されている領域内に含まれていれば操作♯1であると判定し、含まれていなければ操作♯1ではないと判定する。
ここで、操作♯1ではないと判定した場合(S208でNO)、無効領域設定処理は終了する。一方、操作♯1であると判定した場合(S208でYES)には、操作解析部124は、操作データ131をさらに解析し、持ち手判定の対象となるタッチ領域が記録されているかを判定する(S209)。ここでは、メニューの表示されている領域内に含まれるタッチ領域とは別のタッチ領域が記録されていればYESと判定し、記録されていなければNOと判定する。つまり、S209では、メニュー以外に対するタッチ操作♯2が行われたか判定する。
S209において、持ち手判定の対象となるタッチ領域が記録されていないと判定した場合(S209でNO)には、無効領域設定処理は終了する。この場合には、携帯型装置1が両手で持たれているような無効領域を設定することが好ましく状況であると考えられるためである。一方、記録されていると判定した場合(S209でYES)には、操作解析部124は、持ち手判定の対象となるタッチ領域の重心の位置を示す情報(例えば座標)と共に、その旨を持ち手判定部125に通知する。
次に、持ち手判定部125は、操作解析部124から通知された上記情報に基づき、タッチ領域の重心が右手側の期待押下領域(期待接触領域)内にあるかを判定する(S210)。ここで、期待押下領域とは、メニューへの入力操作時にユーザの指が触れる可能性が高い領域として予め設定された表示面上の領域であり、右手持ちの場合に指が触れる可能性が高い右手側の期待押下領域と、左手持ちの場合に指が触れる可能性が高い左手側の期待押下領域とが予め設定されている。例えば、図3の領域Qを含む表示面右下隅の領域を右手側の期待押下領域としてもよく、左手側の期待押下領域は、右手側の期待押下領域と同様の形状の表示面左下隅の領域としてもよい。なお、期待押下領域の範囲を示す情報は、その範囲が右手持ち(右手側)に対応するか、左手持ち(左手側)に対応するかを示す情報と対応付けた持ち手判定条件133として記憶部13に記録しておけばよい。
期待押下領域は、ユーザが携帯型装置1を片手で把持するときに、携帯型装置1の持ち手側の角部分(親指の根元付近。図3参照。)をカバーするように設定すればよく、例えば図4および図5に示したような無効領域と同様の範囲としてもよい。すなわち、右手側の期待押下領域を、
(N×X0−W)/N<X<X0,((N−1)×Y0+Y1)/N<Y<Y0
と設定してもよい(図4参照)。左手側の期待押下領域も同様である。無論、期待押下領域は、メニューへの入力操作時に指が触れる可能性が高い領域を含むものであればよく、この例に限られない。例えば、図5の無効領域のように、携帯型装置1の持ち手側の角(右下角または左下角)からメニューに向かうにつれて幅広となる領域を期待押下領域としてもよい。期待押下領域の形状も無効領域の形状と同様、矩形および五角形に限られず、台形、円形、三角形、および、六角形以上の多角形などであってもよい。また、期待押下領域と無効領域とは、同一の領域であってもよいし、異なる領域であってもよい。
ここで、持ち手判定条件133に従い、タッチ領域の重心が右手側の期待押下領域内にあると判定した場合(S210のYES)には、持ち手判定部125は、右手持ちと判定する(S211;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の右手側に無効領域を設定する(S212;無効領域設定ステップ)。一方、タッチ領域の重心が左手側の期待押下領域内にあると判定した場合(S212でNO)には、左手持ちと判定(S213;持ち手判定ステップ)してその旨を無効領域設定部126に通知し、無効領域設定部126は、表示面の左手側に無効領域を設定する(S214;無効領域設定ステップ)。このように、持ち手に応じた無効領域を設定した後、処理は終了する。
〔実施形態3〕
本実施形態では、図1に示す構成の携帯型装置1が、上記実施形態とは異なる方式で持ち手判定を行って無効領域を設定する例を図9および図10に基づいて説明する。図9の(a)に示すように、携帯型装置1を右手持ちしているときには、親指の付け根に近い携帯型装置1の角(図9の(a)において丸で囲んだ角)が他の角よりも鉛直下方向に位置するように、携帯型装置1が右下がりに傾く。一方、左手持ちしているときには、図9の(b)に示すように左下がりに傾く。これは、片手でしっかりと携帯型装置1を保持しながら操作するためには、脇を締めて、肘を体側面に密着させ固定する必要があり、さらに、掌と携帯型装置1を密着させた状態で、携帯型装置1の左右端を、掌の親指の根本部分(親指内転筋)と、小指・薬指・中指・人指し指の第1間接とで、携帯型装置1の片方の端を掌下部に沿わせる形で挟み込むように保持しながら親指で操作するため、携帯型装置1の左右端のどちらか一方を下方向へ向けることになることによる。
本実施形態の持ち手判定方法は、これを利用したものであり、携帯型装置1が所定時間以上右下がりに傾いていれば右手持ち、所定時間以上左下がりに傾いていれば左手持ちと判定する。具体的には、所定時間以上右下がりに傾いていることと、右手持ちとが対応付けられ、所定時間以上左下がりに傾いていることと、左手持ちとが対応付けられた持ち手判定条件133を用いて持ち手判定を行う。なお、傾きは、傾きセンサ100(図1参照)によって計測されたデータから算出する。
図10の無効領域設定処理では、図7の例と同様に、まず、メニューの表示操作を受け付け(S101)、メニューを表示する(S102)。操作判定部121は、メニューの表示操作が行われたと判定した場合、持ち手判定部125にその旨を通知する。この通知を受信した持ち手判定部125は、傾きセンサ100が測定したデータから携帯型装置1の傾きを検出し(S303)、その傾きを示す情報を所定時間記録する(S304)。所定時間の記録が完了したときに、持ち手判定部125は、記録した情報に基づいて携帯型装置1が傾いているかを判定する(S305)。具体的には、右下がりまたは左下がりの何れかに傾いている時間が所定の下限時間以上であれば傾いていると判定する。ここで、傾いていないと判定した場合(S305でNO)、無効領域を設定せずに処理を終了する。一方、傾いていると判定した場合(S305でYES)、傾きが右下がりであるかを判定する(S306)。
ここで、傾きが右下がりであると判定した場合(S306でYES)には、持ち手判定部125は、持ち手判定条件133に従い、右手持ちと判定する(S307;持ち手判定ステップ)。そして、持ち手判定部125は、この判定結果を無効領域設定部126に通知し、無効領域設定部126は、表示面の右手側に無効領域を設定する(S308;無効領域設定ステップ)。一方、左下がりに傾いていると判定した場合(S306でNO)には、左手持ちと判定し(S309;持ち手判定ステップ)、この判定結果を無効領域設定部126に通知して左手側に無効領域を設定させる(S310;無効領域設定ステップ)。このように、持ち手に応じた無効領域を設定した後、処理は終了する。
〔持ち手判定方法の他の例〕
持ち手判定方法のさらに他の例を図11および図12に基づいて説明する。図11は、上下方向のドラッグ操作の軌跡を示す図であり、図12は、ドラッグ操作の軌跡の解析によって持ち手を判定する場合の無効領域設定処理の一例を示すフローチャートである。図11の(a)に示すように、上下方向のドラッグ操作を右手の親指で行う場合、その付け根を支点として親指が動かされる結果、表示面に描かれる軌跡は左側に突出した円弧状となる。一方、上下方向のドラッグ操作を左手の親指で行う場合、表示面に描かれる軌跡は右側に突出した円弧状となる。よって、ドラッグ操作の軌跡が何れの方向に突出しているかを特定することによって、持ち手を判定することができる。つまり、持ち手判定条件133を、ドラッグ操作の軌跡が左側に突き出た弧であれば右手持ちであり、右側に突き出た弧であれば左手持ちであることを示すものとして、持ち手の判定を行うことができる。
図12のフローチャートでは、まず、操作判定部121は、ドラッグ操作を待ち受けている(S401)そして、入力部112が受け付けた操作の軌跡からドラッグ操作が行われたと判定したとき(S401でYES)に、その軌跡を示すデータを操作記録部123に送信して、操作データ131として記録させる(S402)。また、操作記録部123は、操作データ131を記録した旨を操作解析部124に通知する。
次に、操作解析部124は、操作データ131を解析し、軌跡が円弧状であるか判断する(S403)。ここで、円弧状ではないと判断した場合(S403でNO)、無効領域設定処理は終了する。一方、円弧状であると判断した場合(S403でYES)、軌跡が左方向に突き出た弧となっているか判断する(S404)。
ここで、左方向に突き出た弧となっていると判断した場合(S404でYES)、操作解析部124は、その旨を持ち手判定部125に通知する。そして、持ち手判定部125は、持ち手判定条件133に従って右手持ち判定し(S405;持ち手判定ステップ)、この判定結果を無効領域設定部126に通知する。一方、S404において右方向に突き出た弧となっていると判断した場合(S404でNO)、操作解析部124は、その旨を持ち手判定部125に通知する。そして、持ち手判定部125は、持ち手判定条件133に従って左手持ちと判定し(S406;持ち手判定ステップ)、この判定結果を無効領域設定部126に通知する。
この後、操作判定部121が、メニューを表示させる操作が行われたと判断したとき(S407でYES)には、その旨をメニュー表示部122および無効領域設定部126に通知して、処理はS408に進む。一方、メニューを表示させる操作が行われなければS401に戻る。これにより、メニュー表示操作を行う直前の持ち手に応じた無効領域を設定することができる。
S408では、メニュー表示部122はメニューを表示する。そして、無効領域設定部126は、持ち手判定部125からの最後の通知の内容に基づき、左手持ちであるか確認し(S409;持ち手判定ステップ)、左手持ちであれば左手側に無効領域を設定し(S410;無効領域設定ステップ)、右手持ちであれば右手側に無効領域を設定する(S411;無効領域設定ステップ)。これにより処理は終了する。なお、傾きの検出および持ち手の判定は、メニューの表示前に行っておいてもよい。これにより、メニューの表示から無効領域設定までの時間を短縮することができ、メニューの表示と同時に無効領域を設定することも可能になる。
〔無効領域の解除〕
無効領域の解除について、図13に基づいて説明する。なお、図13のフローチャートは、無効領域が設定された後の処理を示している。無効領域を設定した無効領域設定部126は、無操作時間計測部129に無操作時間を計測するように指示し、無操作時間計測部129は、この指示に従って無操作時間の計測を開始する(S501)。なお、無操作時間とは、入力部112に対する入力操作が行われていない状態の継続時間である。
そして、無操作時間計測部129は、無操作時間が所定時間以上継続しているか確認し(S502)、所定時間以上継続していることが確認されたとき(S502でYES)に、無効領域設定部126にその旨を通知する。この通知を受信した無効領域設定部126は、操作判定部121に指示して無効領域の設定を解除させ(S503)、これにより無効領域解除処理は終了する。
〔変形例〕
ドラッグ操作の軌跡に基づいて持ち手を判定する方法は、上記各実施形態の例に限られない。例えば、右手でドラッグ操作を行ったときの軌跡と、左手でドラッグ操作を行ったときの軌跡とを、判定用の軌跡として事前に登録しておき、登録された軌跡と、検出されたドラッグ操作の軌跡とのパターンマッチングによって持ち手を判定してもよい。さらに、上記各実施形態で示した持ち手の判定方法を併用し、予め定めた優先度の高い判定方法から順に適用し、最初に出た持ち手の判定結果を採用すればよい。これにより、例えば、傾きからは持ち手が判定できなかった場合に、ドラッグ操作の軌跡から持ち手を判定して無効領域を設定することも可能になる。
〔ソフトウェアによる実現例〕
携帯型装置1の制御ブロック(特に制御部12)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、携帯型装置1は、各機能を実現するソフトウェアである制御プログラムの命令を実行するCPU、上記制御プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記制御プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記制御プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記制御プログラムは、該制御プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記制御プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る携帯型装置1は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、所定の入力操作に応じて、上記表示面の一部の領域に、入力操作の対象となる入力対象オブジェクト(メニュー)を表示する表示手段(メニュー表示部122)と、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段(持ち手判定部125)と、上記入力対象オブジェクトの表示中に、該入力対象オブジェクトが表示されていない領域であって、上記持ち手判定手段の判定結果に応じた領域に対する入力操作を無効とする無効領域設定手段(無効領域設定部126)と、を備えている。上記の構成によれば、入力対象オブジェクト(以下、必要に応じてオブジェクトと略称する)の表示中に、持ち手の判定結果に応じた領域を、該領域に対する入力操作を無効にする無効領域に設定するので、オブジェクトに対する入力操作を行うときにオブジェクト以外の領域に誤って触れてしまうことによる誤操作を防ぐことができる。また、オブジェクトの表示中に無効領域を設定するため、オブジェクトが表示されるまでの期間、表示面の全面での入力操作の受け付けが可能である。
本発明の態様2に係る携帯型装置1は、上記態様1において、記無効領域設定手段は、上記表示面において、上記入力対象オブジェクトに対して上記携帯型装置を把持するユーザ側であり、かつ上記持ち手判定手段が判定した持ち手側寄りの領域に対する入力操作を無効としてもよい。上記構成によれば、携帯型装置が片手で把持され、その手の親指で操作される場合に適した無効化領域を設定することができる。
本発明の態様3に係る携帯型装置1は、上記態様1または2において、上記所定の入力操作は、上記表示面に対して所定の軌跡を描く入力操作であり、上記持ち手判定手段は、上記入力対象オブジェクトを表示させた入力操作の軌跡から、携帯型装置の持ち手を判定する。上記構成によれば、オブジェクトを表示させた入力操作の軌跡を利用して持ち手を判定するので、持ち手判定のための特別な構成が不要となり、また持ち手判定のための操作をユーザに行わせる必要もなくなる。また、オブジェクトの表示と同時に無効領域を設定することも可能となる。
本発明の態様4に係る携帯型装置1は、上記態様1または2において、上記持ち手判定手段は、上記入力対象オブジェクトに対する入力操作と同時、または該入力操作と連続して、該入力対象オブジェクトに対して右手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域と、入力対象オブジェクトに対して左手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域との何れかに対する接触が検出されている場合に、何れの期待接触領域に接触があったかに応じて、携帯型装置の持ち手を判定し、上記無効領域設定手段は、接触が検出された期待接触領域を含む領域に対する入力操作を無効にしてもよい。上記構成によれば、持ち手判定のための特別な構成が不要であり、また持ち手判定のための操作を行わせる必要もなく、期待接触領域を含む領域を無効領域とするので、オブジェクトに対する入力操作時の誤操作を適切に防ぐことができる。
本発明の態様5に係る携帯型装置1は、上記態様1または2において、上記携帯型装置1の傾きを計測する傾き検出部を備え、上記持ち手判定手段は、上記傾き検出部により計測された傾きから、上記携帯型装置1の持ち手を判定する。ここで、携帯型装置1を片手で持ちながら操作しているときには、携帯型装置1は持ち手に応じて傾いた状態で保持される可能性が高い。このため、上記構成によれば、携帯型装置1が片手で操作されている状態における持ち手を判定することができる。
本発明の態様6に係る携帯型装置1は、上記態様1または2において、上記持ち手判定手段は、上記表示面に対する上下方向のドラッグ操作の軌跡が左側に突出した円弧状となっている場合に右手持ちと判定し、右側に突出した円弧状となっている場合に左手持ちと判定してもよい。上記構成によれば、センサ等の特別な構成を備えることなく持ち手を判定することができる。
本発明の態様7に係る携帯型装置1は、上記態様1から6の何れか1態様において、上記無効領域設定手段により無効領域が設定された後、入力操作が検出されない状態が所定の時間継続している場合に、無効領域の設定を解除する解除手段(無効領域設定部126)を備えていてもよい。上記構成によれば、オブジェクトを表示したが、表示したオブジェクトへの入力操作が行われない場合に、自動的に無効領域の設定を解除して、入力面を広く使った入力操作が可能な状態に戻すことができる。
本発明の態様8に係る携帯型装置1は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、上記持ち手判定手段が持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域を、該領域に対する入力操作が無効となる無効領域に設定する無効領域設定手段と、を備えている。また、本発明の態様10に係る制御方法は、画像を表示する表示面に対する入力操作を受け付ける携帯型装置1の制御方法であって、上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置1が右手で把持されているか、左手で把持されているかを判定する持ち手判定ステップ(S107、S109;S211、S213;S307、S309;S405、S406)と、上記持ち手判定ステップにおいて持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域に対する入力操作を無効とする無効領域設定ステップ(S108、S110;S212、S214;S308、S310;S409、S410、S411)と、を含んでいる。表示面の端部を始点とするドラッグ操作は、画面外にあるものを画面内に引き込むことを想起させるので、新たな選択対象の表示を指示するための操作に割り当てられることが多い。つまり、表示面の端部を始点とするドラッグ操作が行われた後には、この操作によって新たに表示された選択対象に対する入力操作が行われる可能性があり、この入力操作の際にはユーザが意図しない領域に誤って触れてしまうことによる誤操作が発生する可能性がある。そこで、上記の構成によれば、表示面の端部を始点とするドラッグ操作の軌跡から持ち手を判定し、この判定を行ったときに持ち手の判定結果に応じた無効領域を設定する。すなわち、誤操作が発生する可能性があるタイミングで無効領域を設定するので、入力操作の受け付けに支障をきたすことなく、誤操作を防止することができる。
本発明の各態様に係る携帯型装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記携帯型装置が備える各手段として動作させることにより上記携帯型装置をコンピュータにて実現させる携帯型装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、携帯電話やスマートフォン等の携帯型装置に利用することができる。
1 携帯型装置
100 傾きセンサ(傾き検出部)
122 メニュー表示部(表示手段)
125 持ち手判定部(持ち手判定手段)
126 無効領域設定部(無効領域設定手段、解除手段)

Claims (8)

  1. 画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、
    所定の入力操作に応じて、上記表示面の一部の領域に、入力操作の対象となる入力対象オブジェクトを表示する表示手段と、
    上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、
    上記入力対象オブジェクトの表示中に、該入力対象オブジェクトが表示されていない領域であって、上記持ち手判定手段の判定結果に応じた領域に対する入力操作を無効とする無効領域設定手段と、を備えていることを特徴とする携帯型装置。
  2. 上記無効領域設定手段は、上記表示面において、上記入力対象オブジェクトに対して上記携帯型装置を把持するユーザ側であり、かつ上記持ち手判定手段が判定した持ち手側寄りの領域に対する入力操作を無効とすることを特徴とする請求項1に記載の携帯型装置。
  3. 上記所定の入力操作は、上記表示面に対して所定の軌跡を描く入力操作であり、
    上記持ち手判定手段は、上記入力対象オブジェクトを表示させた入力操作の軌跡から、携帯型装置の持ち手を判定することを特徴とする請求項1または2に記載の携帯型装置。
  4. 上記持ち手判定手段は、上記入力対象オブジェクトに対する入力操作と同時、または該入力操作と連続して、該入力対象オブジェクトに対して右手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域と、入力対象オブジェクトに対して左手で入力操作する際にユーザの指が触れる可能性が高い領域として予め上記表示面に設定された期待接触領域との何れかに対する接触が検出されている場合に、何れの期待接触領域に接触があったかに応じて、携帯型装置の持ち手を判定し、
    上記無効領域設定手段は、接触が検出された期待接触領域を含む領域に対する入力操作を無効にすることを特徴とする請求項1または2に記載の携帯型装置。
  5. 上記携帯型装置の傾きを計測する傾き検出部を備え、
    上記持ち手判定手段は、上記傾き検出部により計測された傾きから、上記携帯型装置の持ち手を判定することを特徴とする請求項1または2に記載の携帯型装置。
  6. 上記持ち手判定手段は、上記表示面に対する上下方向のドラッグ操作の軌跡が左側に突出した円弧状となっている場合に右手持ちと判定し、右側に突出した円弧状となっている場合に左手持ちと判定することを特徴とする請求項1または2に記載の携帯型装置。
  7. 上記無効領域設定手段により無効領域が設定された後、入力操作が検出されない状態が所定の時間継続している場合に、無効領域の設定を解除する解除手段を備えていることを特徴とする請求項1から6の何れか1項に記載の携帯型装置。
  8. 画像を表示する表示面に対する入力操作を受け付ける携帯型装置であって、
    上記表示面の端部を始点とするドラッグ操作の軌跡から、上記携帯型装置が右手で把持されているか、左手で把持されているかを判定する持ち手判定手段と、
    上記持ち手判定手段が持ち手を判定したときに、持ち手の判定結果に応じた上記表示面上の領域に対する入力操作を無効とする無効領域設定手段と、を備えていることを特徴とする携帯型装置。
JP2013048258A 2013-03-11 2013-03-11 携帯型装置 Expired - Fee Related JP5965339B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013048258A JP5965339B2 (ja) 2013-03-11 2013-03-11 携帯型装置
PCT/JP2014/054166 WO2014141856A1 (ja) 2013-03-11 2014-02-21 携帯型装置
CN201480003023.6A CN104781769B (zh) 2013-03-11 2014-02-21 携带式装置
US14/440,636 US20150301713A1 (en) 2013-03-11 2014-02-21 Portable device
DE112014001224.6T DE112014001224T5 (de) 2013-03-11 2014-02-21 Tragbare Vorrichtung
KR1020157012474A KR101679158B1 (ko) 2013-03-11 2014-02-21 휴대형 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013048258A JP5965339B2 (ja) 2013-03-11 2013-03-11 携帯型装置

Publications (2)

Publication Number Publication Date
JP2014174829A true JP2014174829A (ja) 2014-09-22
JP5965339B2 JP5965339B2 (ja) 2016-08-03

Family

ID=51536532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013048258A Expired - Fee Related JP5965339B2 (ja) 2013-03-11 2013-03-11 携帯型装置

Country Status (6)

Country Link
US (1) US20150301713A1 (ja)
JP (1) JP5965339B2 (ja)
KR (1) KR101679158B1 (ja)
CN (1) CN104781769B (ja)
DE (1) DE112014001224T5 (ja)
WO (1) WO2014141856A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143179A (ja) * 2015-01-30 2016-08-08 ブラザー工業株式会社 表示装置および表示プログラム
WO2017006394A1 (ja) * 2015-07-03 2017-01-12 三菱電機株式会社 情報処理システム
JP2018181097A (ja) * 2017-04-18 2018-11-15 京セラドキュメントソリューションズ株式会社 操作入力装置、情報処理装置、操作入力方法
WO2022168579A1 (ja) * 2021-02-05 2022-08-11 株式会社デンソー 車両用制御装置及び車両用制御方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102169521B1 (ko) * 2013-05-14 2020-10-23 삼성전자 주식회사 입력장치, 디스플레이장치 및 그 제어방법
JP2015038695A (ja) * 2013-08-19 2015-02-26 ソニー株式会社 情報処理装置および情報処理方法
US9317183B2 (en) * 2013-08-20 2016-04-19 Google Inc. Presenting a menu at a mobile device
KR20160024575A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 전자 장치를 잠금해제하는 방법과 이를 지원하는 전자 장치
US10248311B2 (en) * 2015-07-06 2019-04-02 Samsung Electronics Co., Ltd. Electronic device supporting virtual keyboard and method for configuring the virtual keyboard
CN106569713B (zh) * 2016-10-31 2020-07-17 南京云岸信息科技有限公司 一种触控区域调整装置、方法及终端
JP6627795B2 (ja) * 2017-02-08 2020-01-08 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
JP2018151852A (ja) * 2017-03-13 2018-09-27 セイコーエプソン株式会社 入力装置、入力制御方法、およびコンピュータープログラム
CN108594995A (zh) * 2018-04-13 2018-09-28 广东小天才科技有限公司 一种基于手势识别的电子设备操作方法及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028603A (ja) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2011237945A (ja) * 2010-05-07 2011-11-24 Fujitsu Toshiba Mobile Communications Ltd 携帯型電子機器
JP2012108674A (ja) * 2010-11-16 2012-06-07 Ntt Docomo Inc 表示端末
JP2012175213A (ja) * 2011-02-18 2012-09-10 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169820A (ja) 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP5058187B2 (ja) * 2009-02-05 2012-10-24 シャープ株式会社 携帯情報端末
US8674959B2 (en) * 2010-06-28 2014-03-18 Intel Corporation Dynamic bezel for a mobile device
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
JP2012155675A (ja) * 2011-01-28 2012-08-16 Panasonic Corp タッチパネル装置
CN102778969B (zh) * 2011-05-13 2015-12-09 联想移动通信科技有限公司 触摸式移动终端及其运行方法
CN103619243B (zh) * 2011-06-24 2016-05-04 株式会社村田制作所 移动设备
CN102591576B (zh) * 2011-12-27 2014-09-17 华为终端有限公司 一种手持设备及触摸响应方法
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
KR101496512B1 (ko) * 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028603A (ja) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011141825A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置およびプログラム
JP2011237945A (ja) * 2010-05-07 2011-11-24 Fujitsu Toshiba Mobile Communications Ltd 携帯型電子機器
JP2012108674A (ja) * 2010-11-16 2012-06-07 Ntt Docomo Inc 表示端末
JP2012175213A (ja) * 2011-02-18 2012-09-10 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143179A (ja) * 2015-01-30 2016-08-08 ブラザー工業株式会社 表示装置および表示プログラム
WO2017006394A1 (ja) * 2015-07-03 2017-01-12 三菱電機株式会社 情報処理システム
JPWO2017006394A1 (ja) * 2015-07-03 2017-07-06 三菱電機株式会社 情報処理システム
JP2018181097A (ja) * 2017-04-18 2018-11-15 京セラドキュメントソリューションズ株式会社 操作入力装置、情報処理装置、操作入力方法
WO2022168579A1 (ja) * 2021-02-05 2022-08-11 株式会社デンソー 車両用制御装置及び車両用制御方法
JP7491232B2 (ja) 2021-02-05 2024-05-28 株式会社デンソー 車両用制御装置及び車両用制御方法

Also Published As

Publication number Publication date
CN104781769B (zh) 2018-01-19
KR101679158B1 (ko) 2016-11-23
KR20150068478A (ko) 2015-06-19
CN104781769A (zh) 2015-07-15
US20150301713A1 (en) 2015-10-22
WO2014141856A1 (ja) 2014-09-18
JP5965339B2 (ja) 2016-08-03
DE112014001224T5 (de) 2016-01-07

Similar Documents

Publication Publication Date Title
JP5965339B2 (ja) 携帯型装置
JP5726754B2 (ja) 携帯情報端末、入力制御方法、およびプログラム
JP5434997B2 (ja) 画像表示装置
US20110122080A1 (en) Electronic device, display control method, and recording medium
JP5222967B2 (ja) 携帯端末
US20150253925A1 (en) Display control device, display control method and program
JP2011028635A (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
JP2012058883A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6131091B2 (ja) 情報処理装置および制御プログラム
JPWO2015198688A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2014137646A (ja) 表示装置、表示装置の制御方法、および、記録媒体
US20170075453A1 (en) Terminal and terminal control method
JP6000035B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
JP7218567B2 (ja) 情報入力装置
JP5995171B2 (ja) 電子機器、情報処理方法、及び情報処理プログラム
JP6682951B2 (ja) プログラムおよび情報処理装置
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
EP3568745B1 (en) Hover interaction using orientation sensing
KR101463086B1 (ko) 다기능 장치에 명령을 입력하는 방법
JP6034140B2 (ja) 表示装置、表示制御方法及びプログラム
JP2011175310A (ja) 情報処理装置および情報処理システム
JP2015156154A (ja) 入力装置およびそれを備えた携帯端末装置
JP2015049837A (ja) 携帯端末装置
JP2017045472A (ja) タッチパネル式装置によるヘッドマウントディスプレイ上のポインタ操作が可能なシステム、プログラム、及び方法
JP2015035110A (ja) 表示装置、及び、表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160701

R150 Certificate of patent or registration of utility model

Ref document number: 5965339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees