JP5411733B2 - 表示装置及びプログラム - Google Patents

表示装置及びプログラム Download PDF

Info

Publication number
JP5411733B2
JP5411733B2 JP2010023145A JP2010023145A JP5411733B2 JP 5411733 B2 JP5411733 B2 JP 5411733B2 JP 2010023145 A JP2010023145 A JP 2010023145A JP 2010023145 A JP2010023145 A JP 2010023145A JP 5411733 B2 JP5411733 B2 JP 5411733B2
Authority
JP
Japan
Prior art keywords
display
image
user
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010023145A
Other languages
English (en)
Other versions
JP2011164676A (ja
Inventor
出亜 加納
和宏 山田
靖 恩田
祐光 宮沢
敬広 大堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010023145A priority Critical patent/JP5411733B2/ja
Publication of JP2011164676A publication Critical patent/JP2011164676A/ja
Application granted granted Critical
Publication of JP5411733B2 publication Critical patent/JP5411733B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示装置の持ち方に応じた表示制御に関する。
タッチスクリーン(タッチパネルともいう。)を有する電子機器を片手で持った場合のデータ入力について、特許文献1には、入力ボタン群を表示すべきタッチパネル上の領域を入力者に指などであらかじめ指定させる技術が記載されている。
特開2008−152441号公報
しかし、画像の表示に際し、タッチパネルに対する事前の指定を要するのでは、使い勝手が悪い。
そこで、本発明の目的は、ユーザが表示装置を持つと、その持ち方に応じた画像が表示されるようにすることにある。
本発明の一態様に係る表示装置は、筐体と、前記筐体の一部の面である表示面に画像を表示する表示部と、前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザ前記筐体の持ちを検知する第1検知部と、前記表示面のうちの前記ユーザにより指示された位置を検知する第2検知部と、前記第1検知部及び前記第2検知部による検知結果に応じた制御を行う制御部とを備え、前記制御部が、前記第1検知部により検知された持ち手に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像であって、複数の項目に相当する領域を有する第1の画像の当該複数の項目の展開の方向を制御し、前記表示部に表示された第1の画像の前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像であって、複数の項目に相当する領域を有する第2の画像当該複数の項目の展開の方向を、前記第1検知部により検知された持ち手に応じて制御する構成を有する。
本発明の好ましい態様において、前記第1検知部は、前記表示面の右側において接触を検知する第1センサと、前記表示面の左側において接触を検知する第2センサとを有し、
前記第1センサが接触を検知した検知領域と前記第2センサが接触を検知した検知領域の数又は大きさに基づいてユーザの持ち手を検知してもよい。
本発明の別の好ましい態様において、前記第1検知部は、前記ユーザによる接触を検知する検知領域を前記表示面の上下方向に沿うように複数有し、前記制御部は、前記第1の画像の前記上下方向についての表示位置を前記第1検知部により接触が検知された検知領域に応じて制御してもよい。
本発明の別の態様に係るプログラムは、筐体と、前記筐体の一部の面である表示面に画像を表示する表示部と、前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザ前記筐体の持ちを検知する第1検知部と、前記表示面のうちのユーザにより指示された位置を検知する第2検知部とを備える表示装置のコンピュータに、前記第1検知部により検知された持ち手に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像であって、複数の項目に相当する領域を有する第1の画像の当該複数の項目の展開の方向を制御するステップと、前記表示部に表示された第1の画像の前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像であって、複数の項目に相当する領域を有する第2の画像当該複数の項目の展開の方向を、前記第1検知部により検知された持ち手に応じて制御するステップと実行させる構成を有する。
本発明によれば、ユーザが表示装置を持つと、その持ち方に応じた画像が表示されるようにすることが可能である。
表示装置の外観を示す図(第1実施形態) 表示装置のハードウェア構成を示すブロック図 表示装置の制御部が実現する機能を示す機能ブロック図 表示装置の持ち方を例示する図 制御部が実行する処理を示すフローチャート 第1の判定処理を示すフローチャート 不連続点を例示する図 第2の判定処理を示すフローチャート 第1の画像の表示例を示す図 第1の画像の表示例を示す図 第2の画像の表示例を示す図 第2の画像の表示例を示す図 表示装置の外観を示す図(第2実施形態) 表示装置のハードウェア構成を示すブロック図 表示装置の制御部が実現する機能を示す機能ブロック図 制御部が実行する処理を示すフローチャート ユーザインタフェースの切り替えの利用例を示す図
[第1実施形態]
図1は、本発明の実施の一形態である表示装置の外観を示す図である。図1において、表示装置10は、筐体11を有する電子機器である。表示装置10は、ここでは、いわゆるスマートフォン(又は携帯電話機)であるとする。また、筐体11は、図1に直方体状で記載されるが、他の形状であることを妨げない。筐体11は、その一部の面に表示面11Dを有し、表示面11Dが設けられていない部分にセンサ面11S1及び11S2を有する。なお、センサ面11S2は、図1においては隠れた位置にあって図示されていないが、センサ面11S1と対称に設けられている。
表示面11Dは、画像が表示される面であり、タッチスクリーンを構成している。表示面11Dは、例えば、液晶表示素子や、有機EL(electro luminescence)表示素子で構成される複数の画素によって画像を表示する。なお、表示面11Dは、ここでは長方形の領域であるとする。センサ面11S1及び11S2は、ユーザの手指の接触を検知する面である。センサ面11S1及び11S2は、ユーザによる接触を検知するセンサを有する。ここでいうセンサは、例えば、圧力を検知するセンサや、接触している位置とそうでない位置とを電圧によって区別する抵抗膜などである。なお、センサ面11S1及び11S2を構成するセンサの検知対象は、指等の物体の接触に応じて変化する物理量であれば、上述した圧力や電圧に限定されない。センサ面11S1及び11S2は、それぞれ、表示面11Dの長辺に沿って複数の領域に分割され、各々の領域において接触を個別に検知する。この領域は、本発明に係る検知領域に相当する。
なお、本実施形態においては、筐体11が有する6面のうち、表示面11Dが設けられている面をユーザに対する正面、センサ面11S1及び11S2が設けられている面を側面、正面の反対側の面を背面とする。また、センサ面11S1がユーザからみて左側にあり、センサ面11S2がユーザからみて右側にあるものとする。センサ面11S1及び11S2は、側面の全体を占める必要はなく、その一部に設けられていてもよい。
図2は、表示装置10のハードウェア構成を示すブロック図である。同図に示すように、表示装置10は、制御部110と、記憶部120と、表示部130と、第1検知部140と、第2検知部150とを備える。なお、表示装置10は、スマートフォンとしての機能を実現するために、図2に記載の構成に加え、通信網に接続するための無線通信部などを備えるが、ここでは図示を省略する。
制御部110は、CPU(Central Processing Unit)等の演算処理装置やメモリを備え、プログラムを実行することによって表示装置10の動作を制御する。記憶部120は、フラッシュメモリ、ハードディスク等の記憶手段を備え、表示装置10が用いるデータを記憶する。記憶部120に記憶されているデータには、制御部110が実行するプログラムに加え、後述する表示装置10の持ち方のパターンなどが含まれ得る。表示部130は、表示面11Dを構成する表示素子と、表示面11Dに画像を表示させるための駆動回路とを備え、表示面11Dに表示させる画像の切り替えを、制御部110からの命令に応じて行う。
第1検知部140は、センサ面11S1及び11S2を構成するセンサ(以下「第1のセンサ」という。)を備え、ユーザの持ち方(保持する方法・作法)を検知する。第2検知部150は、表示面11Dに重ねて設けられたセンサを備え、表示面11Dへの指等の物体の接触を検知する。なお、第2検知部150のセンサ(以下「第2のセンサ」という。)は、例えば静電容量方式(指先の距離に応じて変化する静電容量を検知する方式)を採用した場合のように、接触ではなく接近を検知するものであってもよい。第1検知部140及び第2検知部150は、その検知結果を表す情報(以下「検知情報」という。)を制御部110に供給する。制御部110は、この検知情報に応じて制御を行う。検知情報は、接触の有無を表す二値の情報でもよいし、接触(又は接近)の程度を表す多値(二値より多い値)の情報でもよいが、ここでは前者とする。
図3は、制御部110が実現する機能を示す機能ブロック図である。制御部110は、プログラムを実行することにより、同図に示す第1判定部111、第2判定部112、表示制御部113及び処理実行部114に相当する機能を実現する。なお、これらの機能は、OS(operating system)の機能の一部として提供されてもよく、また、ユーザインタフェース(以下「UI」という。)に関連する独立したアプリケーションとして提供されてもよいものである。また、これらの機能は、そのすべてが単一のハードウェア(例えばCPU)によって構成されている必要はなく、一部が専用の回路によって別個に構成されていてもよい。
第1判定部111は、第1検知部140から供給される検知情報(以下「第1の検知情報」という。)を取得し、第1の検知情報に基づいて筐体11の持ち方を判定する。この判定には、後述する持ち手(利き手)の判定などが含まれ、あらかじめいくつかの持ち方がパターンとして分類されている。第2判定部112は、第2検知部150から供給される検知情報(以下「第2の検知情報」という。)を取得し、表示面11Dのうちのユーザにより指示された位置を判定する。この判定には、タッチスクリーン上の位置検知に関する周知の技術が用いることが可能である。
表示制御部113は、第1判定部111による判定結果(すなわちユーザの持ち方)に応じて表示部130による画像の表示を制御するとともに、第2判定部112による判定結果(すなわちユーザの指示位置)に応じて表示部130による画像の表示を制御する。処理実行部114は、表示部130の表示制御以外の処理を実行する。処理実行部114は、例えば、スマートフォンが有する機能(音声通話、データ通信、ゲームなど)を実現するために必要な処理を実行する。かかる処理は、該当する機能そのものを実行する処理であってもよいが、該当する機能が別個のアプリケーションとして用意されている場合には、当該アプリケーションを起動する処理である。
表示装置10の構成は、以上のとおりである。表示装置10は、かかる構成のもと、プログラムによりあらかじめ予定された設定やユーザの操作に応じて、スマートフォンとしての所定の機能を実現するための処理を実行する。なお、本実施形態において、「操作」とは、表示面11Dへの指示と同意である。また、表示装置10は、表示部130においてユーザによる指示を受け付ける前に、ユーザが表示装置10をどのように持っているかを検知及び判定し、ユーザの持ち方に基づいて、その後の指示が容易となるような画像の表示を推測し、表示部130にかかる表示を行わせる。
図4は、表示装置10の持ち方を例示する図であり、ユーザによる左手LHでの持ち方と右手RHでの持ち方とを例示する図である。ユーザは、表示面11Dを母指で指示するため、表示装置10の背面を掌で覆うようにし、母指以外の示指、中指、薬指及び小指と母指の付け根周辺の部分とで表示装置10を支える。以下においては、表示装置10をこのように持ったときに、ユーザの手首に近い側を「下方」といい、ユーザの手首から遠い側を「上方」という。
なお、図4の例は、表示装置10の持ち方の一例にすぎない。ユーザは、自身の手の大きさや癖などに応じて、例えば、小指を立てたり、示指で側面ではなく背面を支えたりしてもよい。表示装置10は、持ち手の左右に限らず、このようないくつかの持ち方をパターン化して記憶しておくとよい。
図5は、制御部110が実行する処理を示すフローチャートである。制御部110は、まず、第1検知部140により供給される第1の検知情報に基づき、ユーザが表示装置10を持っているか否かを判断する(ステップS1)。この判断は、例えば、接触を検知している検知領域の数に基づいて行われる。制御部110は、ユーザが表示装置10を持っていると判断すると、持ち方の判定を所定の時間待機する(ステップS2)。ここで制御部110が待機する時間のことを、以下においては「待機時間」という。
待機時間を設ける理由は、次のとおりである。すなわち、ユーザは、鞄などに収納された表示装置10を取り出したり、あるいは机などの平らな面に置かれた表示装置10を持ち上げたりする場合には、最初に持ったままの持ち方で操作を行うとは限らないからである。ユーザは、多くの場合、表示装置10をいったん持ってから、自身が操作しやすい位置にこれを持ち替える。待機時間は、この持ち替えを考慮して設けられるものである。
なお、待機時間は、あらかじめ設定された値(例えば、0〜1秒程度)であってもよいが、第1検知部140の検知結果に応じて決められていてもよい。例えば、制御部110は、第1の検知情報の出力結果が安定した状態(すなわち、接触を検知する検知領域の変動が所定の閾値未満となり、表示装置10を保持する手指がほとんど動かなくなったとみなせる状態)になったときに待機時間が終わるようにしてもよい。
待機時間が終了すると、制御部110は、ユーザによる表示装置10の持ち方を判定する処理(以下「判定処理」という。)を実行する(ステップS3)。この判定処理には、いくつかの態様が考えられる。制御部110は、複数ある判定処理のいずれかを選択的に、又は組み合わせて実行する。ここで例示する判定処理は、ユーザの持ち手を判定する第1の判定処理と、ユーザが持っている位置の上下を判定する第2の判定処理である。
図6は、第1の判定処理を示すフローチャートである。第1の判定処理において、制御部110は、センサ面11S1及び11S2のそれぞれについて、第1の検知情報に基づいて不連続点を抽出する(ステップS311)。続いて、制御部110は、センサ面11S1及び11S2のそれぞれについて抽出された不連続点の数又は大きさを比較する(ステップS312)。ここにおいて、「不連続点」とは、接触を検知した検知領域に挟まれた状態で存在する接触を検知していない検知領域をいい、単独又は群で存在する検知領域である。
図7は、不連続点を例示する図である。ここにおいて、センサ面11S2は、指の接触を検知した検知領域が黒色で示され、指の接触を検知していない検知領域が白色で示されている。
ユーザがセンサ面11S1又は11S2に指で触れる場合、指と指の間には、不連続点が生じる。例えば、ユーザがセンサ面11S1又は11S2を4本の指で支えれば、不連続点は3箇所に生じる。一方、ユーザがセンサ面11S1又は11S2に母指の付け根周辺の部分(図4参照)で触れる場合には、指で触れる場合に比べ、不連続点が生じにくい。制御部110は、この不連続点の生じやすさ、すなわち不連続点の数又は大きさ(若しくはこれらの組み合わせ)に基づいて、持ち手の左右を判定することが可能である。例えば、制御部110は、センサ面11S1に生じた不連続点がセンサ面11S2に生じた不連続点よりも多ければ、ユーザが右手で表示装置10を持っていると判定する。
制御部110は、以上のようにして不連続点をセンサ面11S1及び11S2について比較し、その比較結果に応じた情報(以下「判定情報」という。)を生成する(ステップS313)。第1の判定処理における判定情報は、ユーザの持ち手が右手であるか左手であるかを表す情報であり、例えば「11」と「10」や「L」と「R」のようにして区別されるものである。
図8は、第2の判定処理を示すフローチャートである。第2の判定処理において、制御部110は、センサ面11S1及び11S2のそれぞれについて、接触を検知した検知領域の数と位置を第2の検知情報に基づいて特定する(ステップS321)。制御部110は、かかる検知領域のセンサ面11S1及び11S2の上下方向についての分布を特定し、これをあらかじめ決められた基準の分布と比較する(ステップS322)。制御部110は、ステップS321において特定した分布が基準の分布よりも上寄りであれば、ユーザが表示装置10の上方を保持していると判定し、ステップS321において特定した分布が基準の分布よりも下寄りであれば、ユーザが表示装置10の下方を保持していると判定する。制御部110は、ステップS322の比較結果に応じた判定情報を生成する(ステップS323)。第2の判定処理における判定情報は、ユーザの持つ位置が上方であるか下方であるかを表す情報であり、例えば「21」と「20」のようにして区別されるものである。
なお、以上の説明においては、ユーザによる持ち方が上下方向について2段階で判定されたが、例えば「上方」、「中間」、「下方」といったように、3以上の段階で判定されてもよい。
このような判定処理を終えると、制御部110は、判定結果に応じた画像を表示部130に表示させる(ステップS4)。ここで表示される画像は、ユーザによる指示を受け付けるための画像であり、例えば、ボタンの形状を有していたり、あるいはアイコンや絵文字などである。ステップS4において表示される画像のことを、以下においては「第1の画像」という。制御部110は、判定処理の結果に応じて第1の画像の表示態様を制御する。ここにおいて、表示態様には、画像の表示位置や、後述する展開の態様などが含まれ、さらには、画像の色や形状も含まれ得る。なお、第1の画像は、指示を受け付ける画像であれば足り、必ずしも展開を要するものではない。
制御部110は、第1の画像が表示部130に表示されると、第1の検知情報に基づいて、表示面11Dに対するユーザの指示があるか否かを判断する(ステップS5)。制御部110は、かかる指示があれば、ユーザに指示され、第2検知部150により検知された位置に応じた処理を実行する(ステップS6)。なお、ステップS6において実行される処理には、処理実行部114が実行する処理と、表示制御部113による画像の表示制御とが含まれる。ステップS6において表示される画像のうち、第1の画像を操作することにより表示される画像のことを、以下においては「第2の画像」という。第2の画像は、第1の画像において指示された位置に従って表示内容が決まるものである。第2の画像は、本実施形態においてはユーザの指示を受け付けるための画像であるとするが、かかる画像に限定されるものではない。
図9は、第1の画像の第1の表示例を示す図である。図9(a)は、持ち手が左手であると検知された場合の表示例であり、図9(b)は、持ち手が右手であると検知された場合の表示例である。同図において、第1の画像I11及びI12は、それぞれ、「A」、「B」、「C」、「D」、「E」で表される5つの項目に相当する領域を有する。ここにおいて、項目は、特定の機能に割り当てられており、例えば、「A」が“電話”、「B」が“電子メール”、「C」が“Webブラウザ”、「D」が“ゲーム”、などといった具合である。
また、第1の画像I11及びI12は、左右方向に展開するように表示される画像である。ここにおいて、「展開」とは、所定の決められた方向に広がりを有することをいい、ここでは、広がりが項目の数に応じている。ここでいう展開は、アニメーション表示によって、例えば、項目A、B、C、D、Eの順番で徐々に表示されるような視覚効果を有するものであってもよい。この第1の表示例において、第1の画像I11と第1の画像I12とでは、その展開の方向が異なっている。具体的には、第1の画像I11は、左から右へと項目が展開され、第1の画像I12は、これとは逆に、右から左へと項目が展開される。このようにすると、両者の画像が鏡像の関係になり、ユーザが指示に用いる指を基準とした場合の各項目の相対的な位置が右手持ちの場合と左手持ちの場合とで同じようになるため、ユーザの持ち手が異なっても操作感が同じようになる。
なお、第1の画像I11及びI12は、展開の方向だけでなく、位置が異なってもよい。例えば、表示装置10は、第1の画像I11を左寄りに表示し、第1の画像I12を右寄りに表示してもよい。
図10は、第1の画像の第2の表示例を示す図である。図10(a)は、ユーザが表示装置10を上方寄りに持っていると検知された場合の表示例であり、図10(b)は、ユーザが表示装置10を下方寄りに持っていると検知された場合の表示例である。第1の画像I13及びI14は、その展開方向が上下方向である点において第1の表示例と相違する。また、第1の画像I13は、第1の画像I14よりも上寄りに表示され、第1の画像I14は、第1の画像I13よりも下寄りに表示される。
図11は、第2の画像の表示例を示す図であり、第1の表示例において項目Bが選択(すなわち指示)された場合を例示する図である。図11(a)において、第2の画像I21は、「B1」、「B2」、「B3」、「B4」で表される4つの項目に相当する領域を有する。これらの項目は、項目Bが“電子メール”あれば、例えば、「B1」が“(電子メールの)新規作成”、「B2」が“(電子メールの)受信”、「B3」が“(電子メールの)送信”、などといった具合である。この表示例において、第2の画像I21は、第1の画像I11と異なる方向に展開されている。
図11(b)及び図11(c)は、第2の画像の展開の態様をユーザの持ち手に応じて異ならせた表示例である。図11(b)に示す第2の画像I22は、各々の項目が項目Bから遠くなるに従って左寄りになるように展開されるものであり、図11(c)に示す第2の画像I23は、各々の項目が項目Bから遠くなるに従って右寄りになるように展開されるものである。第2の画像I22は、第2の画像I21と比較すると、左手で持った場合に、ユーザが母指を伸ばさなくても(あるいは母指が比較的短いユーザであっても)、項目Bからより遠い項目(例えば項目B4)を指示しやすいように各項目が表示されている。したがって、第2の画像I22は、第2の画像I21と比較した場合に、ユーザが項目B4をより指示しやすいようになっている。
なお、制御部110は、ユーザの上下方向の保持位置に応じて第2の画像の表示態様を異ならせてもよい。
図12は、第2の画像の上下方向の位置を異ならせた表示例を示す図である。図12(a)において、第1の画像I15は、第1の画像I11よりも上方に表示されている画像であり、ユーザが図11(a)の表示例の場合よりも表示装置10の上寄りを保持している場合に表示される画像である。このとき、第2の画像I24は、上方向ではなく下方向に展開される。なお、制御部110は、図12(b)に示す第2の画像I251及びI252のように、一部の項目を上方向に展開させ、残りの項目を下方向に展開させてもよい。
以上のとおり、表示装置10は、ユーザによる持ち方を検知し、検知した持ち方に応じた表示態様で第1の画像や第2の画像を表示することを可能にする。すなわち、表示装置10によれば、第1の画像や第2の画像の表示態様(すなわちUI)をワンパターンにさせずに、ユーザの手の大きさ、利き手、癖などに応じたものにすることが可能であり、各々のユーザにおける使い勝手を向上させることを期待できる。表示装置10は、特に、ユーザがこれを片手で持つ場合に効果が期待できる。
なお、本実施形態で説明された表示制御は、表示装置10において常に実行されることが求められるものではなく、必要に応じて実行されればよい。例えば、表示装置10は、ユーザによる持ち方をパターン化して記憶し、ある程度のパターンが蓄積された後には、蓄積されたパターンに応じた表示を行うことも可能である。具体的には、例えば、あるユーザが表示装置10をほぼ毎回右手で持つ場合には、右手用の第1の画像及び第2の画像を表示する、といった態様が考えられる。また、表示装置10は、持ち方の検知の有無をユーザが設定できる機能を設け、持ち方に応じた表示制御をユーザが必要とする場合に限って行うようにしてもよい。
[第2実施形態]
図13は、本発明の実施の一形態であって、上述した第1実施形態と異なる形態である表示装置の外観を正面から示す図である。本実施形態の表示装置20は、上述した表示装置10と同様の表示面21Dを有する筐体21と、複数のキー22Kを有する筐体22とを備えるものである。すなわち、表示装置20は、ユーザの操作を受け付ける手段として、タッチスクリーンに加えてキー22Kを備える点が表示装置10と相違するものである。よって、本実施形態においては、「操作」には表示面21Dへの指示とキー22Kの選択による指示とが含まれ、この点が第1実施形態と相違する。なお、キー22Kは、操作子の一例であり、レバーやスイッチなどに代替可能である。また、筐体21と筐体22とは、その連結部分においてヒンジ等によって折り畳み可能に構成されていてもよいし、着脱が可能であってもよい。また、筐体21と筐体22とは、一体に構成されていてもよいし、一方が他方に重なるようにスライドする構成であってもよい。
また、表示装置20は、筐体21にセンサ面21Sを有し、筐体22にセンサ面22Sを有する。センサ面21Sは、筐体21の背面にあってもよいし、側面にあってもよい。これは、センサ面22Sについても同様である。なお、本実施形態においては、ユーザが筐体21を左手側に持ち、筐体22を右手側に持つことを想定する。また、センサ面21S及び22Sの具体的な構造は、第1実施形態のセンサ面11S1及び11S2と同様である。したがって、センサ面21S及び22Sも、複数の検知領域を有する。
図14は、表示装置20のハードウェア構成を示すブロック図である。表示装置20は、制御部210と、記憶部220と、表示部230と、第1検知部240と、第2検知部250と、操作部260とを備える。なお、表示装置20が有する各部は、第1実施形態の表示装置10と名称が同一のものについては、第1実施形態の該当する部分と共通する機能を有する。よって、かかる共通の部分については、その説明が適宜省略される。表示装置20は、操作部260を有する点が表示装置10と異なる。操作部260は、複数のキー22Kを有し、ユーザの操作(すなわち指示)を受け付ける。操作部260は、ユーザの操作に応じた情報(以下「キー情報」という。)を制御部210に供給する。
図15は、制御部210が実現する機能を示す機能ブロック図である。制御部210は、プログラムを実行することにより、同図に示す第1判定部211、第2判定部212、受付部213、切替部214及び処理実行部215に相当する機能を実現する。第1判定部211は、第1検知部240から供給される第1の検知情報を取得し、ユーザの筐体21及び22の持ち方を判定する。第2判定部212は、第2検知部250から供給される第2の検知情報を取得し、表示面21Dのうちのユーザにより指示された位置を判定する。第1判定部211及び第2判定部212は、判定結果を切替部214に供給する。受付部213は、操作部260からキー情報を取得し、キー情報を切替部214に供給する。
切替部214は、第1判定部211、第2判定部212及び受付部213から供給される情報を用いて、表示面21Dとキー22Kのいずれからの操作を受け付けるかを切り替える。すなわち、切替部214は、表示面21D及びキー22Kの有効・無効を切り替える。そして、切替部214は、有効な操作のみが処理実行部215に反映されるように情報の伝達を制御する。処理実行部215は、切替部214から供給される情報に応じた処理を実行する。処理実行部215が実行する処理には、上述した処理実行部114が実行する処理と同様の処理に加え、表示部230の表示制御が含まれる。
表示装置20の構成は、以上のとおりである。表示装置20は、かかる構成のもと、表示面21Dとキー22Kの双方で受け付けることが可能な操作を受け付けるUIを、ユーザが表示装置20のどの位置を持っているか(特に、筐体21と筐体22のいずれを主として持っているか)に応じて切り替える。表示装置20は、具体的には、ユーザが筐体21を片手で持っている場合には、表示面21Dによる操作を有効にし、ユーザが筐体22を片手で持っている場合には、表示面22Kによる操作を有効にする。
図16は、制御部210が実行する処理を示すフローチャートである。制御部210は、まず、第1検知部240により供給される第1の検知情報に基づき、ユーザが表示装置20を持っているか否かを判断する(ステップSa1)。また、制御部210は、ユーザが表示装置20を持っていると判断すると、持ち方の判定を所定の時間待機する(ステップSa2)。ここまでの処理は、第1実施形態(図5参照)と同様のものである。
制御部210は、待機時間が終了すると、ユーザによる表示装置20の持ち方を判定する(ステップSa3)。本実施形態において、制御部210は、例えば、センサ面21Sとセンサ面22Sのいずれの検出領域がより多くの接触を検出しているかによって、ユーザが筐体21と筐体22のいずれを主として持っているのかを判定する。また、制御部210は、この判定結果に基づいて、表示面21Dとキー22Kの一方による入力を有効にし、他方を無効にするようにUIの切り替えを行う(ステップSa4)。
なお、制御部210は、ユーザによる指示を受け付けるための画像を表示面21Dにあらかじめ表示させてもよいが、ステップSa3の判定により筐体21を持っていると判定された後にかかる画像を表示させてもよい。
制御部210は、ステップSa4の切り替えの後、第2の検知情報及びキー情報に基づいて、表示面21D又はキー22Kに対するユーザの指示があるか否かを判断する(ステップSa5)。制御部210は、ユーザから指示があると、当該指示を受け付けたUIが有効か否かを判断する(ステップSa6)。そして、制御部210は、指示を受け付けたUIが有効である場合には、当該指示に応じた処理を実行する(ステップSa7)。一方、制御部210は、指示を受け付けたUIが無効である場合には、当該指示を無視して、ステップSa5に戻って新たな別の指示を待機する。
図17は、本実施形態の切り替えの利用例を示す図であり、これから実行しようとする処理についてユーザの認否(YES又はNO)を確認する場合を例示したものである。この利用例において、画像IYは、ユーザが処理の実行を認める場合に行う指示を受け付けるための画像である。一方、画像INは、ユーザが処理の実行を認めない場合に行う指示を受け付けるための画像である。また、キーKYは、画像IYと同様の指示を受け付けるためのキーである。一方、キーKNは、画像INと同様の指示を受け付けるためのキーである。
図17の例において、表示装置20は、ユーザが筐体21を左手で持っていると検出及び判定した場合には、画像IY又はINによる指示を受け付け、キーKY又はKNによる指示を受け付けない。一方、表示装置20は、ユーザが筐体22を右手で持っていると検出及び判定した場合には、キーKY又はKNによる指示を受け付け、画像IY又はINによる指示を受け付けない。
以上のとおり、表示装置20によれば、ユーザの持ち方に応じてUIの切り替えが行われるため、ユーザが持った場所により近い(あるいは入力がより容易な)位置にあるUIが使用可能になる。また、表示装置20によれば、同じ指示を受け付けることが可能な複数のUIがある場合において、あるUIが有効になった場合には、他のUIが無効になるため、相異なるUIから同じ指示が入力されたり、あるいは相反する指示が同時に入力されるといった、本来あるべき入力と異なる入力が行われないようにすることができる。
なお、表示装置20は、表示面21Dとキー22Kの双方で受け付けることが可能な操作について、その操作の有効・無効を切り替えることを特徴とするものである。よって、表示装置20は、表示面21Dとキー22Kのいずれか一方でしか受け付けられない操作がある場合には、当該操作を受け付けることを妨げない(無効にしない)ようにしてもよい。例えば、表示装置20は、キー22Kでしか受け付けられない操作がある場合には、たとえ表示面21Dが有効で、キー22Kが無効であったとしても、当該操作を有効にする。また、例えば、電源をオフにする操作については表示面21Dとキー22Kのいずれでも有効にする、といったように、本実施形態に係る切り替えの制御に依存しない指示が存在してもよい。
[変形例]
上述した実施形態は、本発明の実施の一例にすぎない。本発明は、上述した実施形態に対して、以下の変形を適用することが可能である。なお、以下に示す変形例は、必要に応じて、各々を適当に組み合わせて実施されてもよいものである。同様に、第2実施形態の表示装置20に第1実施形態の表示制御を行わせたりすることも可能である。
本発明において、持ち手の判定には、圧力の大小や動きの多少を用いることも可能である。例えば、ユーザが図4に示したような持ち方をする場合には、母指を頻繁に動かすため、母指の付け根周辺の方に圧力や動きの変化が生じやすくなることが考えられる。このような場合、制御部110は、圧力や動きの変化をセンサ面11S1とセンサ面11S2とで比較し、その相違に基づいて持ち手を判定することができる。
本発明において、表示面を指示するものは、指でなくともよい。本発明は、例えば、指先に指示用の器具を装着し、この器具を介して操作を行うことも可能である。なお、本発明は、かかる器具が光や磁気を発するものであれば、その光や磁気を検出することによって指示位置を特定するものであってもよい。
なお、本発明は、スマートフォンや携帯電話機に限らず、その他の表示装置に適用することが可能である。例えば、本発明は、タッチスクリーンを用いて操作するものであれば、デジタルスチルカメラ、音楽プレーヤ、ゲーム機、電子機器のリモートコンロトーラなどにも適用することができる。
また、本発明は、タッチスクリーン等を有する表示装置のコンピュータ(CPU等)に本発明を実現させるためのプログラムや、かかるプログラムを記憶させた光ディスク等の記録媒体としても特定され得る。本発明に係るプログラムは、インターネット等のネットワークを介して、表示装置にダウンロードさせ、これをインストールして利用可能にするなどの形態でも提供され得る。
10、20…表示装置、11、21、22…筐体、11D、21D…表示面、11S1、11S2、21S、22S…センサ面、22K…キー、110、210…制御部、111、211…第1判定部、112、212…第2判定部、113…表示制御部、114、215…処理実行部、213…受付部、214…切替部、120、220…記憶部、130、230…表示部、140、240…第1検知部、150、250…第2検知部、260…操作部

Claims (4)

  1. 筐体と、
    前記筐体の一部の面である表示面に画像を表示する表示部と、
    前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザの前記筐体の持ち手を検知する第1検知部と、
    前記表示面のうちの前記ユーザにより指示された位置を検知する第2検知部と、
    前記第1検知部及び前記第2検知部による検知結果に応じた制御を行う制御部とを備え、
    前記制御部が、
    前記第1検知部により検知された持ち手に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像であって、複数の項目に相当する領域を有する第1の画像の当該複数の項目の展開の方向を制御し、
    前記表示部に表示された第1の画像の前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像であって、複数の項目に相当する領域を有する第2の画像当該複数の項目の展開の方向を、前記第1検知部により検知された持ち手に応じて制御する
    ことを特徴とする表示装置。
  2. 前記第1検知部は、
    前記表示面の右側において接触を検知する第1センサと、前記表示面の左側において接触を検知する第2センサとを有し、
    前記第1センサが接触を検知した検知領域と前記第2センサが接触を検知した検知領域の数又は大きさに基づいてユーザの持ち手を検知する
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記第1検知部は、前記ユーザによる接触を検知する検知領域を前記表示面の上下方向に沿うように複数有し、
    前記制御部は、前記第1の画像の上下方向についての表示位置を前記第1検知部により接触が検知された検知領域に応じて制御する
    ことを特徴とする請求項1又は2に記載の表示装置。
  4. 筐体と、
    前記筐体の一部の面である表示面に画像を表示する表示部と、
    前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザ前記筐体の持ちを検知する第1検知部と、
    前記表示面のうちのユーザにより指示された位置を検知する第2検知部と
    を備える表示装置のコンピュータに、
    前記第1検知部により検知された持ち手に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像であって、複数の項目に相当する領域を有する第1の画像の当該複数の項目の展開の方向を制御するステップと、
    前記表示部に表示された第1の画像の前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像であって、複数の項目に相当する領域を有する第2の画像当該複数の項目の展開の方向を、前記第1検知部により検知された持ち手に応じて制御するステップと
    を実行させるプログラム。
JP2010023145A 2010-02-04 2010-02-04 表示装置及びプログラム Active JP5411733B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023145A JP5411733B2 (ja) 2010-02-04 2010-02-04 表示装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023145A JP5411733B2 (ja) 2010-02-04 2010-02-04 表示装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2011164676A JP2011164676A (ja) 2011-08-25
JP5411733B2 true JP5411733B2 (ja) 2014-02-12

Family

ID=44595333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023145A Active JP5411733B2 (ja) 2010-02-04 2010-02-04 表示装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5411733B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9423876B2 (en) * 2011-09-30 2016-08-23 Microsoft Technology Licensing, Llc Omni-spatial gesture input
JP5879986B2 (ja) * 2011-12-05 2016-03-08 株式会社ニコン 電子機器
CN103379211A (zh) * 2012-04-23 2013-10-30 华为终端有限公司 一种自动切换手持模式的方法及无线手持设备
JP2013235468A (ja) * 2012-05-10 2013-11-21 Fujitsu Ltd 携帯端末及び携帯端末用カバー
US9196262B2 (en) * 2013-03-14 2015-11-24 Qualcomm Incorporated User sensing system and method for low power voice command activation in wireless communication systems
WO2015025549A1 (ja) 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
US9870081B2 (en) 2013-08-22 2018-01-16 Sharp Kabushiki Kaisha Display device and touch-operation processing method
JP2015102943A (ja) * 2013-11-22 2015-06-04 富士通株式会社 携帯装置、画面表示プログラム及び画面表示方法
US20150205400A1 (en) * 2014-01-21 2015-07-23 Microsoft Corporation Grip Detection
JP6158260B2 (ja) * 2015-08-24 2017-07-05 京セラ株式会社 電子機器、制御プログラム及び電子機器の動作方法
US10372260B2 (en) * 2016-12-12 2019-08-06 Microsoft Technology Licensing, Llc Apparatus and method of adjusting power mode of a display of a device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785216B2 (ja) * 1992-02-07 1995-09-13 インターナショナル・ビジネス・マシーンズ・コーポレイション メニュー表示装置および方法
JP4786292B2 (ja) * 2005-10-26 2011-10-05 シャープ株式会社 情報処理装置、階層情報出力方法及びプログラム
JP4699955B2 (ja) * 2006-07-21 2011-06-15 シャープ株式会社 情報処理装置
JP4863211B2 (ja) * 2006-12-15 2012-01-25 株式会社日立ソリューションズ 文字データ入力装置
JP2008165451A (ja) * 2006-12-28 2008-07-17 Sharp Corp 表示装置一体型入力装置
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
JP2009169820A (ja) * 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP5045559B2 (ja) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 携帯端末

Also Published As

Publication number Publication date
JP2011164676A (ja) 2011-08-25

Similar Documents

Publication Publication Date Title
JP5411733B2 (ja) 表示装置及びプログラム
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
KR101946366B1 (ko) 디스플레이 디바이스 및 그 제어 방법
KR101510738B1 (ko) 휴대단말의 대기화면 구성 방법 및 장치
KR101452038B1 (ko) 모바일 기기 및 그 화면 제어 방법
US7783789B2 (en) Apparatus with programmable touch screen and method thereof
KR101701492B1 (ko) 데이터 표시 방법 및 그를 수행하는 단말기
US8786562B2 (en) Mobile electronic device, control method, and storage medium storing control program
CN104932809B (zh) 用于控制显示面板的装置和方法
US20090164930A1 (en) Electronic device capable of transferring object between two display units and controlling method thereof
EP2354904A2 (en) Multi-display device and method for controlling the same
US20100295796A1 (en) Drawing on capacitive touch screens
KR20180134668A (ko) 이동 단말기 및 그 제어방법
US20140082489A1 (en) Mobile device and method for controlling the same
EP2946265A1 (en) Portable terminal and method for providing haptic effect to input unit
CN109683763A (zh) 一种图标移动方法及移动终端
KR20140030379A (ko) 단말의 표시 제어 방법 및 그 단말
WO2013175798A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP5628991B2 (ja) 表示装置、表示方法、及び表示プログラム
KR20150003957A (ko) 전자 장치의 잠금 화면 운용 방법 및 장치
JP5057115B2 (ja) 端末装置、及びプログラム
JP2012174247A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
WO2013047023A1 (ja) 表示装置、表示方法およびプログラム
JP6213467B2 (ja) 端末装置、表示制御方法およびプログラム
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131108

R150 Certificate of patent or registration of utility model

Ref document number: 5411733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250