JP2014016707A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2014016707A
JP2014016707A JP2012152401A JP2012152401A JP2014016707A JP 2014016707 A JP2014016707 A JP 2014016707A JP 2012152401 A JP2012152401 A JP 2012152401A JP 2012152401 A JP2012152401 A JP 2012152401A JP 2014016707 A JP2014016707 A JP 2014016707A
Authority
JP
Japan
Prior art keywords
state
operation state
display
detected
specific information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012152401A
Other languages
English (en)
Inventor
Hidetoshi Takenaka
英俊 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Saitama Ltd
Original Assignee
NEC Saitama Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Saitama Ltd filed Critical NEC Saitama Ltd
Priority to JP2012152401A priority Critical patent/JP2014016707A/ja
Priority to EP13812978.8A priority patent/EP2827229A4/en
Priority to PCT/JP2013/003086 priority patent/WO2014006806A1/ja
Priority to CN201380036149.9A priority patent/CN104428737A/zh
Priority to US14/397,672 priority patent/US20150130728A1/en
Publication of JP2014016707A publication Critical patent/JP2014016707A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作性を損なうという問題を解決することができるという問題を解決すること。
【解決手段】本発明における情報処理装置は、操作物体の操作を受け付ける表示入力部と、前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、前記入力操作に応じて、予め設定された処理を実行する制御手段と、を備え、前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う。
【選択図】図1

Description

本発明は、情報処理装置にかかり、特に、操作物体による表示面に対する入力操作に基づく入力を受け付ける情報処理装置に関する。
近年、ユーザによる直感的な操作を実現可能にするタッチパネル式入力装置が、携帯電話機やタブレットPC(Personal Computer)等の情報処理装置に採用され、広く普及している。タッチパネル式入力装置は、表示装置の表示面に形成され、表示面における操作物体の位置を検出することにより、入力操作を受け付ける。例えば、タッチパネル式入力装置は、ユーザが画面を指で軽くたたくタップや、ユーザが画面上を素早く払うフリック等の入力操作を受け付ける。
ここで、タッチパネル式入力装置を用いて文字を入力する技術がある。例えば、画面に表示された「あ」の文字が3回タップされた場合に、タッチパネル式入力装置が、「あ」行の3番目の文字である「う」の文字の入力を受け付ける技術がある。また、例えば、画面に表示された「あ」の文字がユーザにより接触された場合に、タッチパネル式入力装置が、「あ」の文字の上下左右のそれぞれの方向に「い、う、え、お」の文字のそれぞれを表示し、ユーザによるタップまたはフリックに基づいて選択された文字の入力を受け付ける技術がある。
なお、文字入力の他、タッチパネル式入力装置を用いてユーザが画面に接触した場合に、動画像を制御するためのコントローラを表示し、ユーザによる入力操作を受け付けて、入力操作に応じたコントローラの機能(例えば「早送り」や「早戻し」)を実行する技術がある(例えば特許文献1参照)。
特開平8−69275号公報
しかしながら、上述した技術では、ユーザが一度画面に接触すると、その接触を入力操作として受け付けるので、ユーザが誤って画面に接触した場合に、誤った入力操作に基づく入力を受け付けてしまい、その誤った入力操作を解除することができなかった。
例えば、「あ」と「か」の文字が並んで表示されている場合に、ユーザが「か」を入力しようとして誤操作により「あ」の文字に接触すると、「あ」の文字の上下左右のそれぞれの方向に「い、う、え、お」の文字のそれぞれが表示される。この場合、ユーザが「か」の文字に接触するためには、一度画面から指等を離して「あ、い、う、え、お」のいずれかの文字を一度入力してから、再度「か」の文字に接触する必要があり、操作性を損なうという問題があった。
このため、本発明の目的は、上述した課題である、操作性を損なうという問題を解決することができる情報処理装置を提供することにある。
上記目的を達成すべく、本発明の一形態である情報処理装置は、
操作物体の操作を受け付ける表示入力部と、
前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
前記入力操作に応じて、予め設定された処理を実行する制御手段と、
を備え、
前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
という構成を取る。
また、本発明の他の形態である情報処理方法は、
操作物体の操作を受け付ける表示入力部を備える情報処理装置に、
前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付けるとともに、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
という構成を取る。
また、本発明の他の形態であるプログラムは、
操作物体の操作を受け付ける表示入力部を備える情報処理装置に、
前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
前記入力操作に応じて、予め設定された処理を実行する制御手段と、
を実現させるとともに、
前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
ことを実現させるためのプログラムである。
本発明は、以上のように構成されることにより、操作性を向上することができるという優れた効果を有する。
本発明の第1実施形態における情報処理装置の構成を示すブロック図である。 本発明の第1実施形態における操作検出部の構成の機能的構成を示すブロック図である。 本発明における表示部の構成を説明する図である。 本発明における入力操作の例を説明する図である。 本発明における入力操作の例を説明する図である。 本発明における表示部の表示例を示す図である。 本発明における表示部の表示例を示す図である。 本発明における表示部の表示例を示す図である。 本発明における表示部の表示例を示す図である。 本発明における表示部の他の表示例を示す図である。 本発明における表示部の他の表示例を示す図である。 本発明における表示部の他の表示例を示す図である。 本発明における情報処理装置の動作を示すフローチャートである。 本発明における情報処理装置の他の動作を示すフローチャートである。 本発明における表示部の他の表示例を示す図である。 本発明の第2実施形態における情報処理装置の構成を示すブロック図である。 本発明の第2実施形態における操作検出部の構成の機能的構成を示すブロック図である。 本発明における表示部の構成を説明する図である。 本発明における入力操作の例を説明する図である。 本発明における情報処理装置の動作を示すフローチャートである。
<第1実施形態>
本発明の第1実施形態を、図1乃至図15を参照して説明する。図1と図2は、情報処理装置の構成を示すブロック図であり、図3乃至図12、図15は、情報処理装置に対する操作を説明する図である。また、図13と図14は、情報処理装置の動作を説明するための図である。
[構成]
図1に示すように、本実施形態における情報処理装置1は、制御部21と、記憶部22と、表示入力部23と、押下スイッチ部25と、操作検出部26とを備えている。情報処理装置1は、例えば、スマートフォンやタブレットPCなどである。情報処理装置1は、押下スイッチ部25と後述するタッチパネル32(タッチパネル式入力装置)とにより表示入力部23の面上における操作物体の位置を検出し、検出した位置に基づく入力操作を受け付ける。
情報処理装置1は、CPU(Central Processing Unit)などの演算部に組み込まれたプログラムで制御された、制御部21と操作検出部26とを備えている。なお、プログラムは記憶部22に記憶される。また、情報処理装置1は、コンピュータが読み取り可能な記録媒体に記録されたプログラムを読み取ることもできる。記録媒体は、例えば、フレキシブルディスク、光ディスク、光磁気ディスク、および、半導体メモリ等の可搬性を有する媒体である。
制御部21は、表示入力部23の入出力を制御する。表示入力部23は、表示部31とタッチパネル32とを備えており、例えば、制御部21は、表示部31の表示面に文字や画像などの各種データを表示する。表示部31は、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイ等により構成されている。なお、表示部31は、上述した構成に限定されず、いかなる構成にて実現されてもよい。
タッチパネル32は、静電容量方式のタッチパネルであり、表示部31の表示面(表示入力部23の面)に形成される。タッチパネル24は、表示部31の表示面に対する指やペンなどの操作物体による接触と、接触された表示面上の位置とを検出する。なお、タッチパネル32は、静電容量方式に限られず、操作物体の表示面に対する接触が検出できる構成であればよい。
押下スイッチ部25は、表示部31の表示面に形成され、操作物体による押下を検出するための構成を有している。例えば、押下スイッチ部25は、所定の間隔を空けて配置された2つの透明電極を備えている。そして、押下スイッチ部25が2つの透明電極の相互接触を検出することで、図2の押下検出部43は、操作物体による押下を検出する。押下検出部43については後述して説明する。
なお、押下スイッチ部25は、操作物体により押下された位置を検出するための構成を有していてもよい。例えば、押下スイッチ部25は、ある方向に対して平行に配線された複数の直線電極を有する第1の透明電極と、ある方向に対して垂直な方向に配線された複数の直線電極を有する第2の透明電極とを備える。そして、操作物体による押下により第1の透明電極が押下され、相互に接触した第1の透明電極の直線電極と第2の透明電極の直線電極とを検出することで、接触された位置を特定できるようにしてもよい。
ここで、図3を参照して、表示部31とタッチパネル32と押下スイッチ部25の構成について説明する。図3は、タッチパネル24と押下スイッチ部25とが表示面に形成された表示部31を示す図である。図3に示すように、情報処理装置1は、一番下に表示部31を有し、表示部31の表示面上にタッチパネル32を有し、タッチパネル32の上に押下スイッチ部25を有している。なお、押下スイッチ部25は表示部31の表示面に形成した例を示すがこれに限られない。例えば、表示部31(具体的には表示部31の下部に押下スイッチを配置)もしくは表示部31を覆う透明保護部材(ガラス)が押下されたことを検知できるような構成、要は接触状態と押下状態とを検知できるような構成を有していればよい。なお、表示部31とタッチパネル32と押下スイッチ部25とが配置される順番は上記に限られず、いかなる構成にて実現されてもよい。
図4は、操作物体としての指61が表示面に接触した例を示している。図4の例では、指61が表示部31の一番上に配置された押下スイッチ部25の面上に接触している。そして、タッチパネル32は、指61(操作物体)が接触検出可能な面(例えば押下スイッチ部25の面)に接触した状態を、表示面に対する操作物体による接触として検出する。一方、図4の状態では、押下検出部43は、押下スイッチ部25による2つの透明電極の接触を検出せず、押下を検出しない。
次に、図2を参照して、操作物体の操作状態の検出について詳細に説明する。図2は、操作検出部26の機能的構成を示すブロック図である。図2に示すように、操作検出部26は、操作状態検出部41と、位置情報取得部42と、押下検出部43との機能ブロックを備えている。操作検出部26(操作検出手段)は、表示部31の表示面に対する操作物体の操作を検出する。
操作状態検出部41は、表示部31の表示面の同一操作位置における異なる2つの操作状態を検出する。例えば、操作状態検出部41は、表示面に対して操作物体が接触する接触状態(第1操作状態)(例えば図4の状態)と、操作物体が表示面を押下する押下状態(第2操作状態)とを検出する。なお、操作状態は接触状態と押下状態の2つに限られない。また、操作状態は3つ以上の複数であってもよい。
操作状態検出部41は、図4の例のように、タッチパネル32により操作物体が表示面に接触したと判定された場合に、接触状態を検出する。また、例えば、図5に示すように、操作物体としての指61が押下スイッチ部25を押下すると、押下スイッチ部25の一方の透明電極が下方に向かって凹み、他方の透明電極と接触する。このとき、押下検出部43は、指61による押下を検出する。そして、操作状態検出部41は、押下検出部43により操作物体による押下が検出された場合に押下状態を検出する。
続いて、位置情報取得部42は、タッチパネル32により検出された位置に基づいて、操作物体により接触された表示面上の位置を表す位置情報を取得する。位置情報取得部42は、例えば、表示面上に接触した操作物体の領域の重心に対する座標を位置情報として取得する。なお、位置情報取得部42は、押下スイッチ部25により押下が検出された場合(押下状態)に、押下スイッチ部25により検出した情報に基づいて、表示面を押下した操作物体の位置情報を取得してもよい。また、位置情報には、表示部31に表示される文字や画像等の項目が予め対応付けられている。
そして、制御部21は、操作物体の操作状態と位置情報とに基づいて、予め設定された処理を実行する。制御部21(制御手段)は、操作状態検出部41により接触状態が検出されると、操作物体により選択された特定情報(すなわち、位置情報取得部42により取得された位置情報に対応付けられた情報)の指定指示を行う。この特定情報の指定指示とは、ユーザが入力を所望する情報を指定しただけの状態であり、後述するように指定指示した特定情報は解除、取消(キャンセル)することができる。また、制御部21は、操作状態検出部41により押下状態が検出されると、特定情報の確定指示を行う。この特定情報の確定指示とは、ユーザが入力を所望する情報の入力を確定した状態であり、後述するように選択された項目に関連付けられた関連情報を表示させる。なお、特定情報の確定指示は、関連情報を表示させる処理に限られない。
ここで、図6乃至図9を参照して、制御部21の具体的な処理について説明する。図6は、表示部31に表示された画像の例を示す図である。図6に示すように、制御部21は、文字入力が指示された場合、入力表示領域81と、仮想入力領域82とを表示部31に表示する。入力表示領域81は、操作物体の入力操作に基づいて入力が確定した文字を表示する領域である。仮想入力領域82は、仮想的なキーボード等の入力インタフェースを表示する領域である。例えば、表示部31は、仮想入力領域82に「あ段」の文字のそれぞれを表示する。なお、仮想入力領域82に表示される文字(画像)は、「あ段」の文字のそれぞれに限られない。例えば、アルファベットや記号等でもよい。例えば、ユーザが「き」の文字を入力する場合の制御部21の動作について、図7乃至図9を参照して説明する。なお、以下では、操作物体が指61である場合について説明するが、操作物体は指に限られない。
図7に示すように、例えば、ユーザが「か」の文字に触れようとして、「あ」の文字に触れた場合(指61が仮想入力領域82に表示された「あ」の表示面上に接触した場合)、制御部21は、仮想入力領域82の「あ」の上部(図7の上部)に、「あ」の文字が拡大された選択文字101A(選択情報)を表示する。なお、選択文字101A(選択情報)は、予め「あ」の文字に対応付られている。また、他の文字についても同様に選択情報が対応付けられている。すなわち、操作状態検出部41が接触状態を検出した場合(タッチパネル32により接触が検出され、且つ、押下検出部43により押下スイッチ部25が押下されていないと判定された場合)に、制御部21は、選択文字101Aを表示部31に表示する。
なお、選択情報を表示する表示位置は上部に限られず、表示位置の周囲でもよい。また、例えば仮想入力領域82内の文字の表示を妨げない場所であれば表示位置は仮想入力領域82内でも入力表示領域81内(例えば、日本語を変換する前に入力が確定された文字列であって変換確定前の文字列の次文字位置)でもよい。例えば、入力表示領域81に表示された入力文字列のうち変換前の文字列(例えば、漢字に変換する前のひらがなの文字列)の次に文字が入力される位置に、選択情報を表示してもよい。さらに、選択情報は、拡大した画像に限らず、例えば文字や画像の色を変更したものでもよい。これにより、指61により接触された文字が大きく表示されるので、ユーザの視認性を向上することができる。
ここで、指61(操作物体)の操作状態が接触状態である場合、制御部21は、指61により指定された「あ」の文字(特定情報)を指定する(指定指示を行う)だけであり、「あ」の文字の入力は受け付けない。従って、接触状態が解除された場合(接触状態から指61が表示面から離れた状態に変更した場合)、制御部21は、指61により指定された特定情報の指定を解除し、表示部31の表示を元に戻す(図6の表示に戻す)ように、選択情報の表示を削除する。
次に、図7の状態から、「か」の文字を選択するためにユーザが指61を右方向に移動させると図8の状態になる。図8に示すように、指61は仮想入力領域82に表示された「か」の表示面上に接触している。このとき、制御部21は、仮想入力領域82の「か」の上部(図8の上部)に、「か」の文字が拡大された選択文字101Bを表示する。すなわち、接触状態が維持されたまま指61が右方向に移動すると、「あ」の文字の右隣に配置された「か」の文字が拡大されて表示される。これにより、ユーザが誤操作により、ユーザの意図した文字と異なる文字に接触した場合に、その文字の入力を受け付けないので、ユーザが表示面から指を離すことなく意図した文字に接触することができ、ユーザの操作性を向上することができる。
そして、図8の状態から指61が表示面に向かって押下されると図9の状態になる。図9に示すように、指61により「か」の文字が表示面に向かって押下されると、制御部21は、「か」の文字を中心として、その文字の表示位置の周囲(例えば上下左右の方向)に「か行」の文字である「き、く、け、こ」が配置された関連文字111(関連情報)を表示する。すなわち、押下検出部43により押下スイッチ部25が押下されたことを検出した場合に、制御部21は、関連文字111を表示する。
つまり、制御部21は、指61(操作物体)の操作状態が押下状態である場合、指61の接触により指定された「か」の文字(特定情報)の確定指示を行う。そして、制御部21は、押下状態の後に押下状態が解除された場合(指61が表示面から離れた状態に変更した場合)、押下状態が解除される直前に指61が接触していた位置に表示されている文字(押下状態が解除される直前に指定された情報)を入力表示領域81に表示する。例えば、関連文字111の「き」の文字の上部に指61が移動し、その後、指61が表示面から離れた場合、制御部21は、「き」の文字の入力を受け付け、入力表示領域81に表示する。
なお、図9の例では、関連文字111が「か、き、く、け、こ(「こ」は指61に隠れているので図示せず)」を含む画像として表示されているが、関連文字111の表示は、上記に限られない。例えば、「か」の上下左右の少なくとも1つの領域に「か、き、く、け、こ」の文字のうち少なくとも1つを含む文字列を表示してもよい(例えば、「か」の下側に「かきくけこ」の文字列を表示してもよい)。また、図8の選択文字101Bの表示位置の周囲に「き、く、け、こ」の文字を表示してもよい。勿論、「か」行に限らず、他の文字に指61が接触した場合には、同様の処理が実行される。例えば、指61により「さ」の文字が押下された場合、「し、す、せ、そ」の文字が「さ」の表示位置の周囲に表示される。このように、接触状態と押下状態の2段階の操作状態に応じて、各操作状態に予め設定された処理を実行するので、ユーザによる誤操作を低減し、操作性を向上することができる。
特に、ユーザの接触操作と押下操作とを取り消す機能(キャンセル機能)を有していない場合には、選択動作である接触操作が実行されてもユーザの入力が確定せず、確定動作である押下操作が実行されることで、ユーザの入力が確定する。例えば、押下検出部43により押下状態が検出され、関連文字111が表示された表示面に対して、ユーザが指61を上下左右のいずれかの方向へずらした時、または、指61をずらさずにタッチパネル32から離した時に、関連文字111のいずれかの入力が確定する。このように、ユーザの明示的な操作である押下操作(確定動作)を経由して入力を確定するので、ユーザの誤操作を低減することができる。
また、操作状態検出部41は、操作物体の押下状態を段階的に検出することもできる。例えば、3つの透明電極(操作物体と直接接触するものから順に第1乃至第3の透明電極)を配置し、押下スイッチ部25が押下を検出するためのスイッチを2段階にしてもよい。なお、操作物体の押下状態を段階的に検出する方法は上記に限られず、他の構成により実現されてもよい。
具体的には、押下検出部43は、押下スイッチ部25の第1の透明電極と第2の透明電極とが接触したか否か、および、第2の透明電極と第3の透明電極とが接触したか否かを判定する。押下検出部43により、第1の透明電極と第2の透明電極とが接触したと判定され、かつ、第2の透明電極と第3の透明電極とが接触していないと判定された場合、操作状態検出部41は第1押下状態を検出する。そして、例えば制御部21は、第1押下状態が検出された場合、上述した例と同様に、関連文字として「か、き、く、け、こ」を表示する。
一方、押下検出部43により、第2の透明電極と第3の透明電極とが接触したと判定された場合、操作状態検出部41は第2押下状態を検出する。そして、例えば制御部21は、第2押下状態が検出された場合、「か行」の濁音である「が、ぎ、ぐ、げ、ご」を関連文字として表示する。
このように、押下状態を段階的に判定することで、簡単な操作で、より多様な処理を実行することができる。勿論、押下状態の段階的な判定は2段階に限られず、3段階以上の複数でもよい。また、制御部21は、関連文字等の関連情報を表示する代わりに、操作物体による操作状態を解除するための情報(例えば「キャンセル」ボタン)を少なくとも含む情報を表示し、ユーザの入力を文字の入力操作と同様の操作で取り消すようにすることもできる。また、接触時または押下後に表示される関連情報を表示した後に、押下検出部43が2段階目以上の押下状態(例えば第3操作状態)を検出した場合に、制御部21は自動的に関連情報の表示を削除してもよい(確定指示を行った特定情報の確定処理を取り消してもよい)。さらに、押下状態の段階的な判定に応じてキャンセルボタンの領域を広げるような関連情報の動的制御を行ってもよい。なお、上記では日本語入力の例を示したが、日本語に限らず英字、数字等の入力でもよい。また、文字の表示に限らず、予測変換候補の文字列や、学習結果に基づく出現頻度の高い文字列を表示してもよい。
なお、操作物体(指61)の入力操作は、文字入力に限られない。図10乃至図12を参照して、入力操作の他の例について説明する。この例では、ユーザがインターネット等の通信ネットワークを介して、商品を購入する場合について説明する。図10に示すように、表示部31は、販売される商品の画像としてノートパソコンの画像(標準画像131A,131B)を表示する。
図10の状態から、指61が標準画像131Aの表示面上に接触すると、制御部21は、ノートパソコンの標準画像131Aを拡大した拡大画像141A(選択情報)を表示する。すなわち、制御部21は、指61が接触状態の場合に、拡大画像141Aを表示する。そして、指61(操作物体)の操作状態が接触状態である場合、制御部21は、指61により指定されたノートパソコン(標準画像131A)の指定指示を行う。従って、接触が解除された場合(接触状態から指61が表示面から離れた状態に変化した場合)、制御部21は、指61により指定された項目(例えばノートパソコン)の選択を解除し、拡大画像141Aを標準画像131Aに戻す(図10の表示に戻す)ように、拡大画像141A(選択情報)の表示を削除する。
一方、図11の状態から指61が表示面に向かって押下されると図12の状態になる。図12に示すように、指61によりノートパソコンの拡大画像141Aが表示面に向かって押下されると、制御部21は、拡大画像141Aの表示位置の周囲(例えば上下左右の方向)に、拡大画像141Aのノートパソコンに関連する商品の画像である関連画像151A,151B,151C(関連情報)を表示する。関連情報は、例えば、拡大画像141Aのノートパソコンを購入した他のユーザがよく購入している他の商品等である。勿論、関連する商品は、上記に限らず、拡大画像141Aのノートパソコンの周辺機器等、指61により指定された商品に関連するものであればよい。
制御部21は、指61(操作物体)の操作状態が押下状態である場合、指61により指定された商品の選択を確定する。そして、制御部21は、押下状態が解除された場合(押下態から指61が表示面から離れた状態に変化した場合)、押下状態が解除される直前にに指61が接触していた位置に表示されている商品(押下状態が解除される直前に指定された特定情報または関連情報)の購入処理を開始する。
なお、制御部21は、指61(操作物体)の操作状態が押下状態である場合に、関連情報として、拡大画像141Aを「コピーする」、「保存する」、および、「印刷する」等、指61により指定された画像(項目)に関連して設定される処理(メニュー)を表示してもよい。表示される処理(メニュー)は、上記に限られない。このように、接触状態と押下状態の2段階の操作状態に応じて、2つの異なる操作を実行するので、ユーザによる入力操作が容易になり、操作性を向上することができる。
また、上述した情報処理装置1では、押下スイッチ部25により押下を検出するとしたが、圧力センサ等を使用して押下を検出することもできる。例えば、圧力センサが検出した圧力の値が予め設定された閾値以上であると判定された場合に、操作状態検出部41は、押下状態を検出する。一方、圧力センサが検出した圧力の値が0を超え、且つ、閾値未満である場合に、操作状態検出部41は、接触状態を検出する。このように、圧力の大きさに基づいて、押下状態を検出することができる。
さらに、上記した押下状態からユーザがフリック操作などの連続操作を行う場合には、一時的に押下状態の圧力の大きさが変動することがある。従って、操作状態検出部41は、段階的な押下状態を検出するためにヒステリシス的な制御を利用してもよい。例えば、上記した2つの閾値(第1閾値と第2閾値(第1閾値<第2閾値))を設定し、操作状態検出部41は、圧力センサが検出した圧力の値が第2閾値未満から第2閾値以上に変化した場合に、接触状態(または非押下状態)から押下状態へ状態遷移する。また、操作状態検出部41は、圧力センサが検出した圧力の値が第1閾値以上から第1閾値未満へ変化した場合に、押下状態から接触状態へ状態遷移する。これにより、押下を検出し押下状態へ遷移した後の追加操作(例えばフリック操作)で押下の圧力が下がった場合に、接触操作と判定する(接触状態を検出する)誤動作を防ぐことができる。また、各操作状態を選択し、その操作状態を維持(固定)するために、予め設定された時間までは検出した圧力の値を維持する方法であってもよい。
このように、押下状態における圧力の大きさを段階的に判定することで、簡単な操作で、より多様な処理を実行することができる。勿論、押下状態における圧力の大きさの判定は2段階に限られず、3段階以上の複数でもよい。
[動作]
次に、図13のフローチャートを参照して、情報処理装置1の動作について説明する。図13は、情報処理装置1の入力制御処理を説明するフローチャートである。
まず、ステップS1において、操作状態検出部41は、接触状態を検出したか否かを判定する。すなわち、タッチパネル32が操作物体の表示面に対する接触を検出したか否かを判定する。ステップS1において、接触状態を検出していないと判定された場合(ステップS1:No)、処理はステップS1に戻り、同様の処理が繰り返される。一方、ステップS1において、接触状態を検出したと判定された場合(ステップS1:Yes)、ステップS2において、位置情報取得部42は、操作物体により接触された表示面上の位置を表す位置情報を取得する。
続いて、ステップS3において、制御部21は、操作物体により選択された特定情報の指定指示を行い、当該特定情報に対して予め設定された選択情報を表示部31に表示する。選択情報は、例えば、操作物体により指定された画像(特定情報)の拡大画像である(例えば図7と図8と図11参照)。
次に、ステップS4において、操作状態検出部41は、押下状態を検出したか否かを判定する。具体的には、押下検出部43が、押下スイッチ部25により押下されたことを検出したか否かを判定する。そして、押下検出部43の判定結果に基づいて、操作状態検出部41は、押下状態を検出したか否かを判定する。ステップS4において、押下状態を検出していないと判定された場合(ステップS4:No)、処理はステップS5に進む。
そして、ステップS5において、操作状態検出部41は、接触状態が解除されたか否かを判定する。ステップS5において、接触状態が解除されていないと判定された場合(ステップS5:No)、処理はステップS2に戻り、それ以降の処理が繰り返される。
一方、ステップS5において、接触状態が解除されたと判定された場合(ステップS5:Yes)、ステップS6において、制御部21は、選択情報を削除する。すなわち、操作物体の操作状態が接触状態から、押下状態に変化することなく、接触状態が解除された場合(操作物体が表示面から離れた状態に変化した場合)、制御部21は、選択情報が表示される前の状態に戻すように、操作物体により指定された項目の選択情報を削除する。ステップS6の処理の後、処理はステップS1に戻り、それ以降の処理が繰り返される。
一方、ステップS4において、押下状態を検出したと判定された場合(ステップS4:Yes)、ステップS7において、制御部21は、特定情報の確定指示を行い、当該特定情報の関連情報を表示する(例えば図9と図12参照)。関連情報は、例えば、操作物体により指定された特定情報に関連する情報である。
続いて、ステップS8において、操作状態検出部41は、押下状態が解除されたか否かを判定する。ステップS8において、押下状態が解除されていないと判定された場合(ステップS8:No)、処理はステップS4に戻り、それ以降の処理が繰り返される。一方、ステップS8において、押下状態が解除されたと判定された場合(ステップS8:Yes)、ステップS9において、制御部21は、操作物体により指定された特定情報に予め対応付けられた処理を実行する。図9の例では、制御部21は、文字を入力する処理を実行する。ステップS9の処理の後、処理はステップS1に戻り、それ以降の処理が繰り返される。すなわち、操作物体の押下状態が解除された場合、制御部21は、操作物体により指定された特定情報に予め対応付けられた処理を実行する。
なお、上述したように、情報処理装置1は、押下スイッチ部25の代わりに圧力センサを用いて、押下状態を段階的に検出することができる。図14を参照して、押下状態を段階的に検出する場合の情報処理装置1の動作について説明する。なお、図14のステップS21乃至S23,S25乃至S28,S30のそれぞれは、図13のステップS1乃至S3,S5乃至S9のそれぞれに対応する処理であるので、簡単に説明する。
まず、ステップS21において、操作状態検出部41は、接触状態を検出したか否かを判定する。ステップS21において、接触状態を検出していないと判定された場合(ステップS21:No)、処理はステップS21に戻り、同様の処理が繰り返される。一方、ステップS21において、接触状態を検出したと判定された場合(ステップS21:Yes)、ステップS22において、位置情報取得部42は、操作物体により接触された表示面上の位置を表す位置情報を取得する。
続いて、ステップS23において、制御部21は、操作物体により選択された特定情報の指定指示を行い、当該特定情報に対して予め設定された選択情報を表示部31に表示する。次に、ステップS24において、操作状態検出部41は、第1押下状態を検出したか否かを判定する。具体的には、圧力センサが検出した圧力の値が予め設定された閾値Th以上であるか否かを判定する。そして、圧力センサの判定結果に基づいて、操作状態検出部41は、第1押下状態を検出したか否かを判定する。ステップS24において、第1押下状態を検出していないと判定された場合(ステップS24:No)、処理はステップS25に進む。
そして、ステップS25において、操作状態検出部41は、接触状態が解除されたか否かを判定する。ステップS25において、接触状態が解除されていないと判定された場合(ステップS25:No)、処理はステップS22に戻り、それ以降の処理が繰り返される。一方、ステップS25において、接触状態が解除されたと判定された場合(ステップS25:Yes)、ステップS26において、制御部21は、選択情報を削除する。ステップS26の処理の後、処理はステップS21に戻り、それ以降の処理が繰り返される。
一方、ステップS24において、第1押下状態を検出したと判定された場合(ステップS24:Yes)、ステップS27において、制御部21は、特定情報の確定指示を行い、当該特定情報の関連情報を表示する。続いて、ステップS28において、操作状態検出部41は、第2押下状態を検出したか否かを判定する。第2押下状態は、操作物体が第1押下状態よりさらに表示面を押し込んだ状態である。具体的には、圧力センサが検出した圧力の値が予め設定された閾値Th(閾値Th<閾値Th)以上であるか否かを判定する。そして、圧力センサの判定結果に基づいて、操作状態検出部41は、第2押下状態を検出したか否かを判定する。ステップS28において、第2押下状態を検出していないと判定された場合(ステップS28:No)、処理はステップS29に進む。
そして、ステップS29において、操作状態検出部41は、第1押下状態が解除されたか否かを判定する。ステップS29において、第1押下状態が解除されていないと判定された場合(ステップS29:No)、処理はステップS27に戻り、それ以降の処理が繰り返される。一方、ステップS29において、第1押下状態が解除されたと判定された場合(ステップS29:Yes)、ステップS30において、制御部21は、操作物体により指定された特定情報に予め対応付けられた処理を実行する。ステップS30の処理の後、処理はステップS21に戻り、それ以降の処理が繰り返される。
また、一方、ステップS28において、第2押下状態を検出したと判定された場合(ステップS24:Yes)、ステップS31において、制御部21は、取消情報を表示する。取消情報は、入力操作を取り消す(キャンセルする)ための情報である。図15を参照して、取消情報171について説明する。図15Aに示すように、取消情報171Aは、関連文字111(例えば図9参照)が表示された領域内の下側に表示された「キャンセル」の文字が記載された領域である。制御部21は、取消情報171Aを表示した場合に、関連文字111に表示されていた文字(例えば「く、け、こ」)を、取消情報171Aの表示と重ならない位置に移動して表示する。なお、制御部21は、圧力センサが検出した圧力の大きさに応じて、取消情報171を表示する大きさを変更することができる。例えば、圧力センサが検出した圧力の大きさが大きい程、取消情報171を大きく表示することができる。また、図15Bに示すように、制御部21は、関連情報が表示された後に、第2押下状態を検出した場合に、取消情報171Bだけを表示してもよい。
続いて、ステップS32において、操作状態検出部41は、第2押下状態が解除されたか否かを判定する。ステップS32において、第2押下状態が解除されていないと判定された場合(ステップS32:No)、処理はステップS31に戻り、それ以降の処理が繰り返される。一方、ステップS32において、第2押下状態が解除されたと判定された場合(ステップS32:Yes)、ステップS33において、制御部21は、関連情報を削除する。すなわち、第2押下状態が解除された場合、制御部21は、選択情報と関連情報とが表示される前の状態に戻すように、操作物体により指定された特定情報の関連情報を削除する。ステップS33の処理の後、処理はステップS21に戻り、それ以降の処理が繰り返される。
このように、表示面の同一の操作位置における複数の段階的な操作状態に応じて、様々な処理を実行することができるので、操作性を向上することができる。なお、上記した例では、押下状態が2段階である場合について説明したが、押下状態は、3段階以上の複数でもよい。例えば、第1押下状態が検出された場合に、「か、き、く、け、こ」の文字が記載された関連文字111を表示し、第2押下状態が検出された場合に、「が、ぎ、ぐ、げ、ご」の文字が記載された関連情報を表示し、第3押下状態が検出された場合に、取消情報171を表示してもよい。
<第2実施形態>
次に、本発明の第2実施形態を、図16乃至図20を参照して説明する。図16と図17は、情報処理装置の構成を示すブロック図であり、図18は、情報処理装置に対する操作の様子を示す図である。また、図20は、情報処理装置の動作を説明するための図である。
[構成]
図16に示すように、本実施形態における情報処理装置201は、制御部21と、記憶部22と、表示入力部223と、操作検出部225とを備えている。なお、図16の情報処理装置201のうち、図1の情報処理装置1と対応する要素には同じ符号が付されている。すなわち、情報処理装置201は、押下スイッチ部25とタッチパネル32と操作検出部26とを有しておらず、操作検出部225と後述するタッチパネル231とを有している点が情報処理装置1と異なり、他の構成は情報処理装置1と同様である。従って、同様の構成については、簡単に説明する。
情報処理装置201は、CPUなどの演算部に組み込まれたプログラムで制御された、制御部21と操作検出部225とを備えている。表示部31は、液晶ディスプレイや有機ELディスプレイ等により構成されている。タッチパネル231は、静電容量方式のタッチパネルであり、表示部31の表示面に形成される。タッチパネル231は、表示部31の表示面に対する指やペンなどの操作物体による近接と、接触と、近接または接触された位置とを検出する。なお、タッチパネル231は、静電容量方式に限られず、操作物体の表示面に対する近接と接触とが検出できる構成であればよい。またタッチパネル231以外の方式、撮像装置による操作物体の撮影および位置や距離の計測であったり、液晶ディスプレイや有機ELディスプレイなどの表示素子に隣接形成した赤外線・超音波のような近接センサや照度センサとの組み合わせで近接と接触とを検出できるものであってもよい。
ここで、図18を参照して、表示部31とタッチパネル231との構成について説明する。図18は、タッチパネル231が表示面に形成された表示部31を示す図である。図18に示すように、情報処理装置201は、下段に表示部31を有し、表示部31の表示面上にタッチパネル231を有している。なお、表示部31とタッチパネル231とが配置される順番は上記に限られない。
タッチパネル224は、タッチパネル224(表示面)の垂直方向(Z軸方向)に位置する指61を検出する。例えば図18に示すように、タッチパネル231は、操作物体がタッチパネル224上に位置することを検出可能な状態(例えば所定の範囲h内に指61(操作物体)が位置する)状態であるか否かを判定する。そして、後述する操作状態検出部41は、タッチパネル231により、操作物体が非接触かつタッチパネル224上に位置することが検出可能な状態であると判定された場合に、操作状態を近接状態として検出する。なお、操作状態検出部241は、操作物体の近接状態を段階的に検出することもできる。
次に、図17の操作検出部225は、表示部31の表示面に対して垂直な方向における操作物体の位置を検出する。図17を参照して、操作検出部225の機能的構成について説明する。図17は、操作検出部225の機能的構成を示すブロック図である。図17に示すように、操作検出部225は、操作状態検出部241と、位置情報取得部242との機能ブロックを備えている。
操作状態検出部241は、表示部31の表示面に対する操作物体の操作状態を検出する。操作状態検出部241は、表示面に対して操作物体が近接する近接状態(第1操作状態)(例えば図18)と、表示面に対して操作物体が接触する接触状態(第2操作状態)と、を操作状態として検出する。操作状態検出部241は、タッチパネル231により操作物体が表示面に接触したと判定された場合、接触状態を検出する。例えば、図18の指61が表示面にさらに近づくと図19の状態になる。図19に示すように、指61がタッチパネル231の面上に接触した場合、タッチパネル231は、表示面に対する操作物体による接触を検出する。そして、操作状態検出部241は、接触状態を検出する。
位置情報取得部242は、タッチパネル231により検出された位置に基づいて、操作物体により接触された表示面上の位置、または、近接する操作物体の表示面上の位置を表す位置情報を取得する。位置情報取得部242は、例えば、表示面上に接触した操作物体の領域の重心に対する座標を位置情報として取得する。
そして、制御部21は、操作状態検出部241により検出された操作状態と、位置情報取得部242により取得された位置情報とに基づいて、操作物体による入力操作に応じた処理を実行する。操作物体による入力操作に応じた処理は、例えば、図6乃至図12を参照して説明した処理と同様の処理である。
[動作]
次に、図20のフローチャートを参照して、情報処理装置201の動作について説明する。図20は、情報処理装置201の入力制御処理を説明するフローチャートである。
まず、ステップS41において、操作状態検出部241は、近接状態を検出したか否かを判定する。すなわち、操作物体が表示面に対して非接触かつタッチパネル231上に位置することが検出可能な状態であるか否かを判定する。ステップS41において、近接状態を検出していないと判定された場合(ステップS41:No)、処理はステップS41に戻り、同様の処理が繰り返される。一方、ステップS41において、接触状態を検出したと判定された場合(ステップS41:Yes)、ステップS42において、位置情報取得部242は、操作物体により近接された表示面上の位置を表す位置情報を取得する。
続いて、ステップS43において、制御部21は、操作物体により選択された特定情報の指定指示を行い、当該特定情報に対して予め設定された選択情報を表示部31に表示する。選択情報は、例えば、操作物体により指定された画像(特定情報)の拡大画像である(例えば図7と図8と図11参照)。
次に、ステップS44において、操作状態検出部241は、接触状態を検出したか否かを判定する。すなわち、タッチパネル231が操作物体の表示面に対する接触を検出したか否かを判定する。ステップS44において、接触状態を検出していないと判定された場合(ステップS44:No)、処理はステップS45に進む。
そして、ステップS45において、操作状態検出部241は、近接状態が解除されたか否かを判定する。ステップS45において、近接状態が解除されていないと判定された場合(ステップS45:No)、処理はステップS42に戻り、それ以降の処理が繰り返される。
一方、ステップS45において、近接状態が解除されたと判定された場合(ステップS45:Yes)、ステップS46において、制御部21は、選択情報を削除する。すなわち、操作物体の操作状態が近接状態から、接触状態に変化することなく、近接状態が解除された場合、制御部21は、選択情報が表示される前の状態に戻すように、操作物体により指定された特定情報の選択情報を削除する。ステップS46の処理の後、処理はステップS41に戻り、それ以降の処理が繰り返される。
一方、ステップS44において、接触状態を検出したと判定された場合(ステップS44:Yes)、ステップS47において、制御部21は、特定情報の確定指示を行い、当該特定情報の関連情報を表示する(例えば図9と図12参照)。関連情報は、例えば、操作物体により指定された特定情報に関連する情報である。
続いて、ステップS48において、操作状態検出部241は、接触状態が解除されたか否かを判定する。ステップS48において、接触状態が解除されていないと判定された場合(ステップS48:No)、処理はステップS44に戻り、それ以降の処理が繰り返される。一方、ステップS48において、接触状態が解除されたと判定された場合(ステップS48:Yes)、ステップS49において、制御部21は、操作物体により指定された特定情報に予め対応付けられた処理を実行する。すなわち、操作物体の操作状態が接触状態から、操作物体が検出されなくなった状態に変化した場合、制御部21は、操作物体により指定された項目に予め対応付けられた処理を実行する。ステップS49の処理の後、処理はステップS41に戻り、それ以降の処理が繰り返される。すなわち、操作物体の接触状態が解除された場合、制御部21は、操作物体により指定された特定情報に予め対応付けられた処理を実行する。
なお、本発明においては、上述した第1実施形態と第2実施形態とを組合せて、操作状態検出部が、近接状態と、接触状態と、押下状態との少なくともの3つの操作状態を検出してもよい。この場合、制御部が、各操作状態に応じた処理を実行する。
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報処理装置等の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
操作物体の操作を受け付ける表示入力部と、
前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
前記入力操作に応じて、予め設定された処理を実行する制御手段と、
を備え、
前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
情報処理装置。
これによれば、表示入力部の面の同一操作位置に対する異なる2つの操作状態を検出し、検出した操作状態に応じた処理を実行するので、ユーザの操作性を向上することができる。
(付記2)
前記制御手段は、
前記操作検出手段により前記第1操作状態を検出した後に前記第2操作状態を検出した場合に、指定指示を行った前記特定情報の確定指示を行い、
前記操作検出手段により前記第1操作状態を検出した後に、前記第2操作状態を検出することなく前記第1操作状態が解除された場合に、指定指示を行った前記特定情報の指定を解除する、
付記1記載の情報処理装置。
これによれば、ユーザが誤操作により、ユーザの意図した項目と異なる項目に接触した場合に、その項目の入力を受け付けないので、ユーザが表示面から指を離すことなく意図した情報に接触することができ、ユーザの操作性を向上することができる。
(付記3)
前記制御手段は、前記第1操作状態が検出された後に前記第2操作状態が検出された場合に、前記特定情報の表示位置の周囲に、当該特定情報に予め関連付けられた関連情報を表示する、
付記1又は2記載の情報処理装置。
これによれば、ユーザが表示面の同一操作位置における操作状態に基づいて、指定した項目の表示位置の周囲に関連情報を表示させるので、簡単な操作で、より多様な処理を実行することができる。
(付記4)
前記制御手段は、前記第2操作状態が検出された後に前記第2操作状態が解除された場合に、前記第2操作状態が解除される直前に選択された前記特定情報または前記関連情報に予め対応付けられた処理を実行する、
付記3記載の情報処理装置。
これによれば、第2操作状態が解除される直前に指定された項目に対応付けられた処理を実行するので、簡単な操作でユーザが所望する処理を確実に実行することができる。
(付記5)
前記制御手段は、前記操作検出手段により第1操作状態を検出した場合に、前記特定情報の表示位置の周囲に、当該特定情報に予め対応付けられた指定情報を表示する、
付記1乃至4のいずれか記載の情報処理装置。
これによれば、ユーザが指定した特定情報の表示位置の周囲に、指定された特定情報に対応付けられた選択情報(例えば指定された特定情報の拡大画像)を表示するので、ユーザが指定した項目を容易に確認することができる。
(付記6)
前記制御手段は、前記操作検出手段により前記第1操作状態を検出した後に、前記第2操作状態を検出することなく、前記第1操作状態が解除された場合に、前記指定情報の表示を削除する、
付記5記載の情報処理装置。
これによれば、第1操作状態が検出された後に、第2操作状態が検出されることなく、第1操作状態が解除された場合、選択情報の表示を削除するので、ユーザが誤操作をした場合にその操作を容易に取り消すことができ、操作性を向上することができる。
(付記7)
前記操作検出手段は、前記表示入力部の面に対して前記操作物体が接触した接触状態を前記第1操作状態として検出するとともに、前記接触状態から、前記操作物体が接触した面に対し所定の圧力をもって押圧した押圧状態を前記第2操作状態として検出する、
付記1乃至6のいずれか記載の情報処理装置。
これによれば、ユーザがタッチパネルにより接触検出可能な面に対して接触した場合でも、その面をさらに押し込まなければ、接触の操作を取り消すことができるので、ユーザが誤操作をした場合にその操作を容易に取り消すことができ、操作性を向上することができる。
(付記8)
前記操作検出手段は、前記表示入力部の面に対して前記操作物体が接触した接触状態を前記第1操作状態として検出するとともに、前記接触状態から、前記操作物体が接触した面をさらに押下した押下状態を前記第2操作状態として検出する、
付記1乃至6のいずれか記載の情報処理装置。
これによれば、ユーザがタッチパネルにより接触検出可能な面に対して接触した場合でも、その面をさらに押下しなければ、接触の操作を取り消すことができるので、ユーザが誤操作をした場合にその操作を容易に取り消すことができ、操作性を向上することができる。
(付記9)
前記操作検出手段は、前記表示入力部の面に対して前記操作物体が非接触で前記表示入力部の面上に位置することを検出可能な状態である近接状態を前記第1操作状態として検出するとともに、前記表示入力部の面に対して前記操作物体が接触した接触状態を前記第2操作状態として検出する、
付記1乃至6のいずれか記載の情報処理装置。
これによれば、操作物体がタッチパネル上に位置することを検出可能な状態でも、タッチパネルにより接触検出可能な面に接触しなければ、近接の操作を取り消すことができるので、ユーザが誤操作をした場合にその操作を容易に取り消すことができ、操作性を向上することができる。
(付記)
前記操作検出手段は、前記接触状態から、前記操作物体が接触した面に対し所定の圧力をもって押圧した押圧状態を第3操作状態としてさらに検出し、
前記制御手段は、前記操作検出手段により前記第3操作状態を検出した場合に、確定指示を行った前記特定情報の確定処理を取り消す、
付記9記載の情報処理装置。
これによれば、操作物体が接触した状態から、さらに表示入力部の面を押し込むことで操作物体による操作を取り消す(キャンセル)ので、ユーザが簡単な操作で入力操作を取り消すことができるとともに、ユーザによる誤操作を防止することができる。
(付記10)
操作物体の操作を受け付ける表示入力部を備える情報処理装置に、
前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付けるとともに、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
情報処理方法。
(付記11)
前記第1操作状態を検出した後に前記第2操作状態を検出した場合に、指定指示を行った前記特定情報の確定指示を行い、前記第1操作状態を検出した後に、前記第2操作状態を検出することなく前記第1操作状態が解除された場合に、指定指示を行った前記特定情報の指定を解除する、
付記10記載の情報処理方法。
(付記12)
操作物体の操作を受け付ける表示入力部を備える情報処理装置に、
前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
前記入力操作に応じて、予め設定された処理を実行する制御手段と、
を実現させるとともに、
前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
ことを実現させるためのプログラム。
(付記13)
前記制御手段は、
前記第1操作状態を検出した後に前記第2操作状態を検出した場合に、指定指示を行った前記特定情報の確定指示を行い、前記第1操作状態を検出した後に、前記第2操作状態を検出することなく前記第1操作状態が解除された場合に、指定指示を行った前記特定情報の指定を解除する、
付記12記載のプログラム。
(付記14)
操作物体の操作を受け付ける表示入力部と、
前記表示入力部の面に接触する操作物体の操作位置と操作圧力とを検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
前記入力操作に応じて、予め設定された処理を実行する制御手段と、
を備え、
前記操作検出手段は、受け付けた前記入力操作の前記操作圧力の大きさに基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の確定指示を行い、前記操作検出手段により前記第1操作状態よりも前記表示入力部の面をさらに押し込んだ前記第2操作状態を検出した場合に、確定指示を行った前記特定情報の確定処理を取り消す、
情報処理装置。
1 情報処理装置
21 制御部
23 表示入力部
25 押下スイッチ部
26 操作検出部
31 表示部
32 タッチパネル
201 情報処理装置
225 操作検出部
231 タッチパネル

Claims (13)

  1. 操作物体の操作を受け付ける表示入力部と、
    前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
    前記入力操作に応じて、予め設定された処理を実行する制御手段と、
    を備え、
    前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
    前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
    情報処理装置。
  2. 前記制御手段は、
    前記操作検出手段により前記第1操作状態を検出した後に前記第2操作状態を検出した場合に、指定指示を行った前記特定情報の確定指示を行い、
    前記操作検出手段により前記第1操作状態を検出した後に、前記第2操作状態を検出することなく前記第1操作状態が解除された場合に、指定指示を行った前記特定情報の指定を解除する、
    請求項1記載の情報処理装置。
  3. 前記制御手段は、前記第1操作状態が検出された後に前記第2操作状態が検出された場合に、前記特定情報の表示位置の周囲に、当該特定情報に予め関連付けられた関連情報を表示する、
    請求項1又は2記載の情報処理装置。
  4. 前記制御手段は、前記第2操作状態が検出された後に前記第2操作状態が解除された場合に、前記第2操作状態が解除される直前に選択された前記特定情報または前記関連情報に予め対応付けられた処理を実行する、
    請求項3記載の情報処理装置。
  5. 前記制御手段は、前記操作検出手段により第1操作状態を検出した場合に、前記特定情報の表示位置の周囲に、当該特定情報に予め対応付けられた指定情報を表示する、
    請求項1乃至4のいずれか記載の情報処理装置。
  6. 前記制御手段は、前記操作検出手段により前記第1操作状態を検出した後に、前記第2操作状態を検出することなく、前記第1操作状態が解除された場合に、前記指定情報の表示を削除する、
    請求項5記載の情報処理装置。
  7. 前記操作検出手段は、前記表示入力部の面に対して前記操作物体が接触した接触状態を前記第1操作状態として検出するとともに、前記接触状態から、前記操作物体が接触した面に対し所定の圧力をもって押圧した押圧状態を前記第2操作状態として検出する、
    請求項1乃至6のいずれか記載の情報処理装置。
  8. 前記操作検出手段は、前記表示入力部の面に対して前記操作物体が接触した接触状態を前記第1操作状態として検出するとともに、前記接触状態から、前記操作物体が接触した面をさらに押下した押下状態を前記第2操作状態として検出する、
    請求項1乃至6のいずれか記載の情報処理装置。
  9. 前記操作検出手段は、前記表示入力部の面に対して前記操作物体が非接触で前記表示入力部の面上に位置することを検出可能な状態である近接状態を前記第1操作状態として検出するとともに、前記表示入力部の面に対して前記操作物体が接触した接触状態を前記第2操作状態として検出する、
    請求項1乃至6のいずれか記載の情報処理装置。
  10. 操作物体の操作を受け付ける表示入力部を備える情報処理装置に、
    前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付けるとともに、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
    第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
    情報処理方法。
  11. 前記第1操作状態を検出した後に前記第2操作状態を検出した場合に、指定指示を行った前記特定情報の確定指示を行い、前記第1操作状態を検出した後に、前記第2操作状態を検出することなく前記第1操作状態が解除された場合に、指定指示を行った前記特定情報の指定を解除する、
    請求項10記載の情報処理方法。
  12. 操作物体の操作を受け付ける表示入力部を備える情報処理装置に、
    前記表示入力部の面に対する前記操作物体の操作位置を検出することにより前記操作物体の入力操作を受け付ける操作検出手段と、
    前記入力操作に応じて、予め設定された処理を実行する制御手段と、
    を実現させるとともに、
    前記操作検出手段は、受け付けた前記入力操作に基づいて、前記表示入力部の面の同一操作位置に対する第1操作状態と第2操作状態とのいずれかの操作状態を検出し、
    前記制御手段は、前記操作検出手段により前記第1操作状態を検出した場合に、前記入力操作により選択された特定情報の指定指示を行い、前記操作検出手段により前記第2操作状態を検出した場合に、前記特定情報の確定指示を行う、
    ことを実現させるためのプログラム。
  13. 前記制御手段は、
    前記第1操作状態を検出した後に前記第2操作状態を検出した場合に、指定指示を行った前記特定情報の確定指示を行い、前記第1操作状態を検出した後に、前記第2操作状態を検出することなく前記第1操作状態が解除された場合に、指定指示を行った前記特定情報の指定を解除する、
    請求項12記載のプログラム。
JP2012152401A 2012-07-06 2012-07-06 情報処理装置 Pending JP2014016707A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012152401A JP2014016707A (ja) 2012-07-06 2012-07-06 情報処理装置
EP13812978.8A EP2827229A4 (en) 2012-07-06 2013-05-15 INFORMATION PROCESSING DEVICE
PCT/JP2013/003086 WO2014006806A1 (ja) 2012-07-06 2013-05-15 情報処理装置
CN201380036149.9A CN104428737A (zh) 2012-07-06 2013-05-15 信息处理设备
US14/397,672 US20150130728A1 (en) 2012-07-06 2013-05-15 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012152401A JP2014016707A (ja) 2012-07-06 2012-07-06 情報処理装置

Publications (1)

Publication Number Publication Date
JP2014016707A true JP2014016707A (ja) 2014-01-30

Family

ID=49881584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012152401A Pending JP2014016707A (ja) 2012-07-06 2012-07-06 情報処理装置

Country Status (5)

Country Link
US (1) US20150130728A1 (ja)
EP (1) EP2827229A4 (ja)
JP (1) JP2014016707A (ja)
CN (1) CN104428737A (ja)
WO (1) WO2014006806A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167012A (ja) * 2014-02-12 2015-09-24 ソフトバンク株式会社 文字入力装置、文字入力プログラム、表示制御装置、表示制御方法、及び表示制御プログラム
JP2017513165A (ja) * 2014-03-21 2017-05-25 イマージョン コーポレーションImmersion Corporation 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6602129B2 (ja) * 2014-12-03 2019-11-06 マレリ株式会社 文字入力補助装置
JP6620480B2 (ja) 2015-09-15 2019-12-18 オムロン株式会社 文字入力方法および文字入力用のプログラムならびに情報処理装置
CN106897873A (zh) * 2015-12-21 2017-06-27 阿里巴巴集团控股有限公司 一种信息图像显示方法及装置
CN111738715B (zh) * 2015-12-21 2024-06-18 创新先进技术有限公司 一种支付码支付方法和装置
JP6809258B2 (ja) * 2017-02-02 2021-01-06 コニカミノルタ株式会社 画像処理装置、条件表示方法、およびコンピュータプログラム
JP7197971B2 (ja) * 2017-08-31 2022-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005912A (ja) * 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
JP2004086733A (ja) * 2002-08-28 2004-03-18 Hitachi Ltd タッチパネルを備えた表示装置
JP2005092441A (ja) * 2003-09-16 2005-04-07 Aizu:Kk 文字入力方法
JP2010055274A (ja) * 2008-08-27 2010-03-11 Sony Corp 再生装置、再生方法、およびプログラム
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
EP2309371A2 (en) * 2009-10-07 2011-04-13 Research in Motion Limited Touch-sensitive display and method of control
JP2011164798A (ja) * 2010-02-05 2011-08-25 Canon Inc 表示制御装置、表示制御方法、プログラム、及び記憶媒体
JP2012032891A (ja) * 2010-07-28 2012-02-16 Kyocera Corp 入力装置
JP2012053754A (ja) * 2010-09-02 2012-03-15 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP2012084137A (ja) * 2010-09-15 2012-04-26 Kyocera Corp 携帯電子機器、画面制御方法および画面制御プログラム
JP2012128825A (ja) * 2010-11-22 2012-07-05 Sharp Corp 電子機器、表示制御方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2679637B2 (ja) 1994-08-30 1997-11-19 日本電気株式会社 画像表示装置
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
JP5173870B2 (ja) * 2009-01-28 2013-04-03 京セラ株式会社 入力装置
US9372614B2 (en) * 2009-07-09 2016-06-21 Qualcomm Incorporated Automatic enlargement of viewing area with selectable objects

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005912A (ja) * 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
JP2004086733A (ja) * 2002-08-28 2004-03-18 Hitachi Ltd タッチパネルを備えた表示装置
JP2005092441A (ja) * 2003-09-16 2005-04-07 Aizu:Kk 文字入力方法
JP2010055274A (ja) * 2008-08-27 2010-03-11 Sony Corp 再生装置、再生方法、およびプログラム
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
EP2309371A2 (en) * 2009-10-07 2011-04-13 Research in Motion Limited Touch-sensitive display and method of control
JP2011164798A (ja) * 2010-02-05 2011-08-25 Canon Inc 表示制御装置、表示制御方法、プログラム、及び記憶媒体
JP2012032891A (ja) * 2010-07-28 2012-02-16 Kyocera Corp 入力装置
JP2012053754A (ja) * 2010-09-02 2012-03-15 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP2012084137A (ja) * 2010-09-15 2012-04-26 Kyocera Corp 携帯電子機器、画面制御方法および画面制御プログラム
JP2012128825A (ja) * 2010-11-22 2012-07-05 Sharp Corp 電子機器、表示制御方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167012A (ja) * 2014-02-12 2015-09-24 ソフトバンク株式会社 文字入力装置、文字入力プログラム、表示制御装置、表示制御方法、及び表示制御プログラム
JP2017513165A (ja) * 2014-03-21 2017-05-25 イマージョン コーポレーションImmersion Corporation 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法

Also Published As

Publication number Publication date
WO2014006806A1 (ja) 2014-01-09
EP2827229A1 (en) 2015-01-21
US20150130728A1 (en) 2015-05-14
EP2827229A4 (en) 2016-01-06
CN104428737A (zh) 2015-03-18

Similar Documents

Publication Publication Date Title
WO2014006806A1 (ja) 情報処理装置
JP5730667B2 (ja) デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス
JP4372188B2 (ja) 情報処理装置および表示制御方法
US20180121085A1 (en) Method and apparatus for providing character input interface
KR101947034B1 (ko) 휴대 기기의 입력 장치 및 방법
US8638315B2 (en) Virtual touch screen system
US8686946B2 (en) Dual-mode input device
US20130007653A1 (en) Electronic Device and Method with Dual Mode Rear TouchPad
US20110169760A1 (en) Device for control of electronic apparatus by manipulation of graphical objects on a multicontact touch screen
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
JP2010086064A (ja) 情報処理装置、文字入力方法及びプログラム
JP5197533B2 (ja) 情報処理装置および表示制御方法
TW201520882A (zh) 輸入設備及輸入管理系統
JP2014197164A (ja) 表示装置、表示方法、及び表示プログラム
Benko et al. Imprecision, inaccuracy, and frustration: The tale of touch input
US10303346B2 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
US20180173398A1 (en) Touch panel type information terminal device, information input processing method and program thereof
CN111142775A (zh) 一种手势交互方法和装置
JP2012146324A (ja) 情報処理装置
JP6467889B2 (ja) 携帯端末、及びその制御方法、プログラム
KR101631069B1 (ko) 멀티터치 트랙패드를 통한 심리스한 입력모드 전환을 지원하는 통합 전용 입력 플랫폼
KR20150062883A (ko) 터치 방식을 이용한 입력 제어 방법 및 시스템
KR102090443B1 (ko) 터치 제어 방법, 장치, 프로그램 및 컴퓨터 판독가능 기록매체
US9405460B2 (en) Touch mouse supporting key functions of keyboard device and related method used in touch mouse

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150608

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20151009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161108