JP6196101B2 - 情報処理装置、方法およびプログラム - Google Patents

情報処理装置、方法およびプログラム Download PDF

Info

Publication number
JP6196101B2
JP6196101B2 JP2013181534A JP2013181534A JP6196101B2 JP 6196101 B2 JP6196101 B2 JP 6196101B2 JP 2013181534 A JP2013181534 A JP 2013181534A JP 2013181534 A JP2013181534 A JP 2013181534A JP 6196101 B2 JP6196101 B2 JP 6196101B2
Authority
JP
Japan
Prior art keywords
handwriting
user
unit
touch panel
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013181534A
Other languages
English (en)
Other versions
JP2015049752A (ja
Inventor
豪 田崎
豪 田崎
山内 康晋
康晋 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013181534A priority Critical patent/JP6196101B2/ja
Priority to US14/463,510 priority patent/US9361859B2/en
Priority to CN201410436172.3A priority patent/CN104423883B/zh
Publication of JP2015049752A publication Critical patent/JP2015049752A/ja
Application granted granted Critical
Publication of JP6196101B2 publication Critical patent/JP6196101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、情報処理装置、方法およびプログラムに関する。
タッチ入力機能を持つ情報処理装置では、タッチパネルにボタンを表示し、このボタンの操作に応じて所定機能の実行を制御することが一般的に行われている。例えば、手書き入力インタフェースを利用したノートアプリケーションでは、手書き文字の表示色や線種を変更するためのボタンをタッチパネルに表示し、このボタンが操作されている間、手書き文字の表示色や線種を変更する。
しかし、このようなボタンは、通常、タッチパネルの予め定められた位置に表示される。このため、ユーザがタッチパネルの別の領域を注視して何らかの作業を行いながらボタンを操作しようとした場合、作業を中断して、目視によりボタンの位置を確認した上で操作する必要があり、作業効率の低下に繋がる。
また、ボタン操作の代わりに、マルチタッチ操作の組み合わせにより所定機能の実行を制御するものもある。しかし、この場合も、作業を中断して所定のマルチタッチ操作を行う必要があり、作業効率の低下を招く。
このため、より単純な動作により所定機能の実行を制御できる情報処理装置の実現が望まれている。
特開2013−8326号公報 米国特許出願公開第2012/0154295号明細書
本発明が解決しようとする課題は、ユーザの単純な動作により所定機能の実行を制御できる情報処理装置、方法およびプログラムを提供することである。
実施形態の情報処理装置は、表示部を含むタッチパネルを有する情報処理装置であって、検出部と、設定部と、筆跡受付部と、制御部と、を備える。検出部は、前記情報処理装置をユーザが把持したときに、前記ユーザの指の位置が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出する。設定部は、前記検出部により検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として設定する。制御部は、前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡の色または線種を、前記ユーザの指が前記制御領域に接触していない間に前記筆跡受付部を介して入力された筆跡の色または線種から変更して前記表示部に表示させる
実施形態の情報処理装置の使用状況の一例を示す図。 第1実施例の情報処理装置の機能的な構成例を示すブロック図。 検出部による把持位置の検出方法の一例を説明する図。 設定部による制御領域の設定方法の一例を説明する図。 第1実施例の情報処理装置の動作を説明するフローチャート。 第2実施例の情報処理装置の機能的な構成例を示すブロック図。 検索結果表示領域に表示される表示画面の一例を示す図。 検索結果表示領域に表示される表示画面の他の例を示す図。 検索結果表示領域に表示される表示画面のさらに他の例を示す図。 第2実施例の情報処理装置の動作を説明するフローチャート。 第3実施例の情報処理装置の機能的な構成例を示すブロック図。 検索結果表示領域に表示される表示画面の一例を示す図。 検索結果表示領域に表示される表示画面の他の例を示す図。 第4実施例の情報処理装置の機能的な構成例を示すブロック図。 第4実施例の情報処理装置の動作を説明するフローチャート。 変形例の情報処理装置の使用状況を示す図。 変形例の情報処理装置の使用状況を示す図。
実施形態の情報処理装置は、該情報処理装置を把持したユーザの指の位置から所定距離だけ離れた位置に制御領域を設定し、ユーザの指が制御領域に接触しているか否かに基づき、所定機能の実行を制御する。制御領域は、予め定められた位置に固定的に設定されるのではなく、情報処理装置を把持したユーザの指の位置である把持位置に応じて可変に設定される。つまり、把持位置が変化すれば制御領域の位置も変化し、現在の把持位置から所定距離だけ離れた位置に現在の制御領域が設定される。所定距離は、例えば、一般的なユーザが情報処理装置を把持したまま指(主に親指)のみを情報処理装置の中心部に向かって動かした場合の指の可動範囲に基づいて定められる。
実施形態の情報処理装置では、現在の把持位置から所定距離だけ離れた位置に現在の制御領域が設定される。このため、ユーザは、目視により制御領域の位置を確認することなく、情報処理装置を把持したまま指のみを動かすといった単純な動作で、制御領域に触れることができる。したがって、実施形態の情報処理装置によれば、ユーザの作業を中断させずに所定機能の実行を制御することができる。
図1は、実施形態の情報処理装置の使用状況の一例を示す図である。図1に示す情報処理装置100は、タッチパネル10を備える。図1(a)のように、例えばユーザが情報処理装置100を左手で把持すると、ユーザの左手の親指Tmの位置が把持位置として検出される。そして、この把持位置から情報処理装置100の中心部(タッチパネル10の中心部)に向かって所定距離だけ離れた位置に制御領域が設定される。その後、図1(b)に示すように、ユーザが親指Tmをタッチパネル10の中心部に向かって画面上でスライドさせるように動かすと、親指Tmが制御領域に接触する。
情報処理装置100は、ユーザの親指Tmが制御領域に接触しているか否かに基づき、所定機能の実行を制御する。例えば、情報処理装置100は、手書き入力された筆跡をタッチパネル10に表示するノートアプリケーションを実行している場合、ユーザの親指Tmが制御領域に接触している状態(図1(b))で入力された筆跡の色や線種を、ユーザの親指Tmが制御領域に接触していない状態(図1(a))で入力された筆跡の色や線種から変更して、タッチパネル10に表示する。
ユーザの指が制御領域に接触しているか否かに基づいて実行が制御される機能としては、様々なものが考えられる。以下では、制御対象となる機能の違いによる情報処理装置100のバリエーションのいくつかを、実施例として説明する。
(第1実施例)
第1実施例は、手書き入力インタフェースを利用したノートアプリケーションへの適用例である。ノートアプリケーションにおいては、ユーザが手書き入力した筆跡をタッチパネルに表示する際の色や線種などを変更することができる。第1実施例の情報処理装置(以下、情報処理装置100Aと表記する。)は、ユーザの指が制御領域に接触しているか否かにより、ユーザが手書き入力した筆跡の表示を制御する。具体的には、第1実施例の情報処理装置100Aは、ユーザの指が制御領域に接触している間に入力された筆跡の色や線種を、ユーザの指が制御領域に接触していない間に入力された筆跡の色や線種から変更して、タッチパネル10に表示する。
図2は、第1実施例の情報処理装置100Aの機能的な構成例を示すブロック図である。図2に示すように、第1実施例の情報処理装置100Aは、検出部101と、設定部102と、筆跡受付部103と、筆跡表示部104と、制御部105Aと、を備える。
検出部101は、情報処理装置100Aを把持したユーザの指の位置である把持位置を検出する。
図3は、検出部101による把持位置の検出方法の一例を説明する図である。図3に示すように、検出部101は、例えば、ユーザの指が接触している接触領域TRを時系列で取得する。図3において、接触領域TR1は時刻tで取得された接触領域TRを示し、接触領域TR2は時刻t+kで取得された接触領域TRを示し、接触領域TR3は時刻t+n(n>k)で取得された接触領域TRを示している。
なお、接触領域TRは、タッチパネル10上で接触が検知された領域であってもよいし、情報処理装置100Aのフレームに設けられた圧力センサや光センサなど、接触を検知可能なセンサによって検知された領域であってもよい。また、接触領域TRを取得するための専用のタッチパネルを設け、この専用のタッチパネル上で接触が検知された領域を接触領域TRとしてもよい。
共通のタッチパネル10を用いて筆跡入力の受け付けと接触領域TRの取得との双方を行う場合には、例えば、タッチパネル10に対する入力の時間的連続性と面積を計測し、入力位置が近いデータ集合の面積が相対的に小さく、単位時間当たりの入力位置の移動量が相対的に大きい場合、入力が筆跡であるとみなす。これにより、共通のタッチパネル10を利用しても、ユーザの指の接触と筆跡の入力とを区別することができる。また、タッチパネル10上で筆跡入力の受け付けを行う領域と接触領域TRの取得を行う領域を区別し、例えば、情報処理装置100Aのフレームから所定範囲内の領域を、接触領域TRの取得を行う領域としてもよい。
次に、検出部101は、時系列で取得した接触領域TRのそれぞれの重心位置Wを求め、重心位置Wの変動が所定範囲内である状態が所定時間継続した場合に、その接触領域TR内の予め定めた基準位置を把持位置HPとして検出する。図3において、重心位置W1は接触領域TR1の重心位置Wを示し、重心位置W3は接触領域TR3の重心位置Wを示している。
所定範囲は、情報処理装置100Aを把持するユーザの意図しない指の動きを考慮して、意図的に指を移動させたのではないと判断できる程度の大きさ(例えば10mm×10mm程度)に定められる。また、所定時間は、定常性を判断できる程度の時間(例えば30秒程度)に定められる。また、接触領域TR内の基準位置は、例えば、時系列で取得した接触領域TRをマージした領域のうち、タッチパネル10の中心部CPに最も近い位置、あるいは時系列で取得した接触領域TRをマージした領域の重心位置とすればよい。図3では、タッチパネル10の中心部CPに最も近い位置が把持位置HPとして検出された例を示している。
なお、検出部101による把持位置HPの検出方法は、上述した例に限られるものではない。例えば、音声や画面表示などによりユーザに対して情報処理装置100Aの把持を促す報知を行い、この報知の後に最初に取得された接触領域TR内の基準位置を、把持位置HPとして検出するようにしてもよい。
設定部102は、検出部101により検出された把持位置HPから所定距離だけ離れた位置に制御領域を設定する。
図4は、設定部102による制御領域の設定方法の一例を説明する図である。図4に示すように、設定部102は、例えば、検出部101により検出された把持位置HPから、タッチパネル10の中心部CPに向かって所定距離Lだけ離れた位置に、制御領域CRを設定する。制御領域CRの形状は任意であり、例えば図4に示すように長方形の制御領域CRとすることができる。所定距離Lは、上述したように一般的なユーザの親指の可動範囲に基づいて、例えば30mm程度に定められる。また、制御領域CRは、情報処理装置100Aのフレームに対して傾きを持たせて設定してもよい。この場合、制御領域CRの把持位置HPに最も近い位置が把持位置HPから所定距離Lだけ離れるように、制御領域CRを設定する。
なお、制御領域CRを設定するとは、少なくとも制御領域CRの境界を特定できるタッチパネル10上の座標を一時記憶(保持)することを意味する。設定された制御領域CRは、タッチパネル10上で明示的に表示する必要はないが、制御領域CRを目視でも認識できるようにタッチパネル10に表示してもよい。
筆跡受付部103は、手書き入力インタフェースを通じて、ユーザによる筆跡の入力を受け付ける。筆跡受付部103は、例えば、タッチパネル10にペンもしくは指が触れてから離れるまでの期間に入力された接触位置の軌跡を1つの筆跡として認識する。筆跡受付部103が入力を受け付けた筆跡は、筆跡データとして管理される。筆跡データは、筆跡を識別するための筆跡番号と、ペンや指がタッチパネル10に触れて移動した軌跡における複数の点の時系列座標とで構成される。筆跡番号は筆跡データの発生順にインクリメントされる。
筆跡表示部104は、例えばタッチパネル10を用いて構成され、制御部105Aによる制御のもとで、筆跡受付部103により入力が受け付けられた筆跡を表示する。
制御部105Aは、設定部102により設定された制御領域CRにユーザの指が触れているか否かに基づいて、筆跡表示部104による筆跡の表示を制御する。例えば、筆跡のデフォルトの表示色が黒である場合、制御部105Aは、ユーザの指が制御領域CRに接触している間に入力された筆跡が、黒以外の色、例えば赤色などで表示されるように、筆跡表示部104による筆跡の表示を制御する。また、制御部105Aは、ユーザの指が制御領域CRに接触している間に入力された筆跡が、デフォルトの線とは異なる線種、例えばデフォルトの線よりも太い太線で表示されるように、筆跡表示部104による筆跡の表示を制御するようにしてもよい。
制御領域CPにユーザの指が触れているか否かは、例えば、タッチパネル10の入力を監視し、タッチパネル10上の接触領域TRが制御領域CRと重複するか否かにより判定することができる。具体的には、接触領域TRの重心Wのタッチパネル10上の座標が、設定された制御領域CRの座標範囲に含まれていれば、ユーザの指が制御領域CRに触れていると判断する。
なお、制御部105Aは、制御領域CPに対する短時間の接触回数に応じて、制御内容を切り替えるようにしてもよい。例えば、筆跡が入力される前に接触領域CRに対する短時間の接触がなければ、接触領域CRにユーザの指が触れている間に入力された筆跡の表示色を赤色に変更する。筆跡が入力される前に短時間の接触が1回あれば、接触領域CRにユーザの指が触れている間に入力された筆跡の表示色を赤色に変更する。筆跡が入力される前に短時間の接触が2回あれば、接触領域CRにユーザの指が触れている間に入力された筆跡を太字で表示させるといったことが考えられる。また、このような制御内容の切替えは、例えば、別途設けた切り替えボタンの操作に応じて行うようにしてもよい。
図5は、第1実施例の情報処理装置100Aの動作を説明するフローチャートである。図5のフローチャートで示す一連の処理は、ノートアプリケーションの実行開始とともに開始され、ノートアプリケーションの終了とともに終了する。
ノートアプリケーションの実行が開始されると、まず、検出部101が、把持位置HPを検出する(ステップS101)。そして、設定部102が、検出部101により検出された把持位置HPから所定距離だけ離れた位置に、制御領域CRを設定する(ステップS102)。
その後、筆跡受付部103による筆跡入力の受け付けが開始されると、制御部105Aが、筆跡が入力されたか否かを判定し(ステップS103)、筆跡が入力されていなければ(ステップS103:No)、筆跡が入力されるまで待機する。そして、筆跡が入力されると(ステップS103:Yes)、制御部105Aが、ユーザの指が設定部102により設定された制御領域CRに触れているか否かを判定する(ステップS104)。
ここで、ユーザの指が制御領域CRに触れていれば(ステップS104:Yes)、制御部105Aが、入力された筆跡の表示色または線種を変更する(ステップS105)。一方、ユーザの指が制御領域CRに触れていなければ(ステップS104:No)、入力された筆跡の表示色または線種はデフォルトのままとなる。そして、筆跡表示部104が、ステップS105で変更された表示色または線種、あるいはデフォルトの表示色または線種で、入力された筆跡を表示する(ステップS106)。
その後、把持位置HPが変化したか否かが判定され(ステップS107)、把持位置HPが変化していなければ(ステップS107:No)、ステップS103に戻って次の筆跡の入力を待機する。一方、把持位置HPが変化した場合には(ステップS107:Yes)、ステップS102に戻って、設定部102が、新たな把持位置HPから所定距離だけ離れた位置に新たな制御領域CRを設定し、その後の処理を繰り返す。
以上説明したように、第1実施例の情報処理装置100Aによれば、把持位置HPから所定距離だけ離れた位置に、筆跡の表示色や線種を変更するための制御領域CRが設定される。したがって、ユーザは、筆跡の入力を中断することなく、情報処理装置100Aを把持したまま指のみを動かして制御領域CRに触れるといった単純な動作を行うことで、筆跡の表示色や線種を変更することができる。
(第2実施例)
第2実施例は、手書き入力インタフェースを利用した検索アプリケーションへの適用例である。検索アプリケーションにおいては、ユーザが手書き入力した筆跡を用いて、情報の検索を行うことができる。例えば、ユーザが過去に入力した筆跡が、その筆跡の背景として表示されていた背景情報(テキストや画像など)とともに記憶されている場合、ユーザが現在入力している筆跡に類似する過去の筆跡および背景情報を、検索結果として取得することができる。また、ユーザが入力している筆跡の背景情報に基づいて検索を行い、装置内外(装置内の記憶部や装置外のインターネット上のウェブサイトなど)から検索結果を取得することもできる。第2実施例の情報処理装置(以下、情報処理装置100Bと表記する。)は、ユーザの指が制御領域CRに接触している間に入力された筆跡を用いて、このような情報の検索を行う。
図6は、第2実施例の情報処理装置100Bの機能的な構成例を示すブロック図である。図6に示すように、第2実施例の情報処理装置100Bは、検出部101と、設定部102と、筆跡受付部103と、筆跡表示部104Bと、筆跡記憶部106と、制御部105Bと、検索結果表示部107と、を備える。検出部101、設定部102および筆跡受付部103は第1実施例と共通の構成要素であるため、これらの重複した説明は省略する。
筆跡表示部104Bは、例えば、タッチパネル10の一部の領域(例えば、タッチパネル10の表示領域全体のうち右半分の領域)を用いて構成され、筆跡受付部103により入力が受け付けられた筆跡を表示する。以下、筆跡表示部104Bとして用いられる表示領域を、特に筆跡表示領域という。
筆跡記憶部106は、筆跡受付部103が入力を受け付けた筆跡を、その筆跡の背景として筆跡表示領域に表示されていた背景情報と対応付けて記憶する。筆跡受付部103が入力を受け付けた筆跡は、上述したように、筆跡データとして管理され、筆跡記憶部106に格納される。この際、筆跡の背景として表示されていたテキストや画像などの背景情報が、筆跡データと対応付けられ、筆跡データとともに筆跡記憶部106に格納される。
筆跡データとともに筆跡記憶部106に格納される背景情報は、筆跡とともに筆跡表示領域に表示されていた画面の全体であってもよいし、一部であってもよい。例えば、筆跡とともに筆跡表示領域に表示されていた画面のうち、筆跡の外接矩形により切り取られる領域の情報を、背景情報として筆跡記憶部106に格納することができる。また、筆跡とともに筆跡表示領域に表示されていた画面のうち、筆跡の中心から予め定めた距離の範囲内にある情報を切り取って、背景情報として筆跡記憶部106に格納するようにしてもよい。また、筆跡とともに筆跡表示領域に表示されていた画面を、文字領域や画像領域などの領域単位で分割し、筆跡が通過した領域の情報を、背景情報として筆跡記憶部106に格納するようにしてもよい。
制御部105Bは、設定部102により設定された制御領域CRにユーザの指が触れているか否かに基づいて、情報検索機能110の実行を制御する。制御領域CRにユーザの指が触れているか否かを判定する方法は、第1実施例と同様である。情報検索機能110は、検索エンジンによって実行される機能であり、例えば「筆跡検索」、「テキスト検索」、および「画像検索」の各機能を有する。
「筆跡検索」は、筆跡受付部103により入力が受け付けられた筆跡を、筆跡記憶部106に記憶された過去の筆跡と照合し、筆跡受付部103により入力が受け付けられた筆跡に類似する過去の筆跡および背景情報を、検索結果として取得する機能である。この「筆跡検索」の機能により情報の検索を行う場合、制御部105Bは、筆跡記憶部106に記憶された過去の筆跡のうち、ユーザの指が制御領域CRに接触している間に入力された筆跡に類似する過去の筆跡およびこれと対応付けられた背景情報を、検索結果として取得する。
筆跡の類似性の判断は、例えば、筆跡の特徴量の比較により行われる。筆跡の特徴量は、例えば、文字認識等で利用される筆跡の方向に基づく特徴量を用いることができる。具体的には、筆跡の外接矩形をS×Sの局所領域に区分し、各局所領域で筆跡の方向を固定数Dで量子化して、局所領域ごとに筆跡の方向のヒストグラムを算出する。これにより、S×Sの局所領域それぞれについて、D次元のヒストグラムが得られる。このように得られたS×S×D次元の方向のヒストグラムを、筆跡の特徴量として用いることができる。
また、筆跡の特徴量は、上述した筆跡の方向に基づくものだけでなく、例えば、筆跡を画像として捉えた場合の周波数成分やエッジなど、筆跡の特徴を表しているものを単独で、あるいは組み合わせて利用することができる。なお、本実施例では、筆跡受付部103により入力が受け付けられた筆跡に類似する過去の筆跡および背景情報を検索結果として取得するが、筆跡受付部103により入力が受け付けられた筆跡を画像と捉え、この画像に類似する情報を装置内外から検索結果として取得するようにしてもよい。
「テキスト検索」は、筆跡受付部103により入力が受け付けられた筆跡の背景に含まれるテキストに基づいて情報の検索を行う機能である。例えば、筆跡の位置から所定範囲内の背景に含まれるテキストを形態素解析して単語を抽出し、抽出した単語をキーワードとして検索を行い、筆跡の背景に含まれるテキストに類似する情報(例えば検索キーワードとして用いた単語を含む文書データやウェブサイトの画面など)を装置内外から検索結果として取得する。この「テキスト検索」の機能により情報の検索を行う場合、制御部105Bは、ユーザの指が制御領域CRに接触している間に入力された筆跡の背景に含まれるテキストに基づいて情報の検索を行い、装置内外から検索結果を取得する。
「テキスト検索」の機能により検索結果として取得する情報は、例えば文書データやウェブサイトの画面などの全体であってもよいし、検索キーワードとして用いた単語が含まれる一部であってもよい。例えば、ウェブサイトの画面上において、検索キーワードとして用いた単語を中心に予め定めた範囲を切り取り、これを検索結果として取得することができる。また、ウェブサイトの画面がタグ付けされた構造化データにより描画される画面であれば、検索キーワードとして用いた単語を含むタグ間の領域の情報を、検索結果として取得するようにしてもよい。
「画像検索」は、筆跡受付部103により入力が受け付けられた筆跡の背景に含まれる画像に基づいて情報の検索を行う機能である。例えば、筆跡の位置から所定範囲内の背景に含まれる画像からエッジ特徴を抽出し、類似したエッジ特徴を持つ画像を装置内外から検索結果として取得する。なお、検索に用いる画像の特徴は、エッジ特徴以外に、例えば配色など、画像の特徴を表す特徴量であればどのようなものを用いても構わない。この「画像検索」の機能により情報の検索を行う場合、制御部105Bは、ユーザの指が制御領域CRに接触している間に入力された筆跡の背景に含まれる画像に基づいて情報の検索を行い、装置内外から検索結果を取得する。
「画像検索」の機能により検索結果として取得する情報は、検索に用いた画像に類似する画像のみであってもよいし、画像がウェブサイトの画面の一部である場合などにおいては、そのウェブサイトの画面全体であってもよい。また、筆跡受付部103により入力が受け付けられた筆跡を文字認識し、得られた単語をキーワードとして検索を行って、装置内外から画像を検索結果として取得するようにしてもよい。
制御部105Bの制御のもとで実行される情報検索機能110は、上述した「筆跡検索」、「テキスト検索」、および「画像検索」のうちのいずれか1つの機能であってもよいし、2つ以上の機能の組み合わせであってもよい。実行する情報検索機能110は、例えば、検索アプリケーションを起動する前のユーザの指定に基づいて選択すればよい。また、検索アプリケーションの起動後であっても、第1実施例で説明したように、例えば、制御領域CRに対する短時間の接触回数に応じて、機能の切り替えを行うようにしてもよい。また、例えば、別途設けた切り替えボタンの操作に応じて、機能の切り替えを行うようにしてもよい。
検索結果表示部107は、例えば、タッチパネル10の筆跡表示領域として用いない一部の領域(例えば、タッチパネル10の表示領域全体のうち左半分の領域)を用いて構成され、制御部105Bの情報検索機能110により検索結果として取得された情報を表示する。以下、検索結果表示部107として用いられる表示領域を、検索結果表示領域という。情報検索機能110により検索結果として複数の情報が取得された場合、検索結果表示部107は、これら複数の情報のうち、検索結果としての優先度が高い情報ほど検索結果表示領域の中心部に近い位置に配置して表示することが望ましい。また、検索結果表示部107は、検索結果として取得された複数の情報のうち、検索結果としての優先度が高い情報ほど大きく表示することが望ましい。
また、検索結果表示部107は、例えば、制御部105Bの情報検索機能110により複数の観点で検索が行われた場合は、検索結果として取得された情報を、観点ごとに、検索結果表示領域の中心部から異なる方向に延びる複数の観点軸に沿って配置する。複数の観点での検索とは、例えば、上述した「筆跡検索」、「テキスト検索」、および「画像検索」のうちの2つ以上の機能を組み合わせた検索や、類似度の評価基準が異なる複数の観点で行う複合検索などである。この場合も、各観点軸上に配置される観点ごとの情報は、検索結果としての優先度が高い情報ほど検索結果表示領域の中心部に近い位置に配置され、検索結果としての優先度が高い情報ほど大きく表示されることが望ましい。
図7は、検索結果表示領域DAに表示される表示画面の一例を示す図である。図7では、「筆跡検索」の機能により検索を行うことで得られた5つの検索結果SR11,SR12,SR13,SR14,SR15を表示した画面例を示している。これらの検索結果のうち、検索結果表示領域DAの中心部に配置されている検索結果SR11は、筆跡の類似度が最も高い検索結果である。また、検索結果SR11に隣接して配置されている検索結果SR12および検索結果SR13は、検索結果SR11の次に筆跡の類似度が高い検索結果である。また、検索結果SR12に隣接して配置されている検索結果SR14と検索結果SR13に隣接して配置されている検索結果SR15は、検索結果SR12や検索結果SR13の次に筆跡の類似度が高い検索結果である。
これらの検索結果SR11,SR12,SR13,SR14,SR15は、「筆跡検索」の機能により筆跡記憶部106から取得された情報をそのまま表示したものであってもよいし、筆跡記憶部106から取得された情報を加工して表示したものであってもよい。また、筆跡記憶部106における情報の格納場所へのリンクを、検索結果SR11,SR12,SR13,SR14,SR15として表示してもよい。この場合は、タッチ操作などにより任意のリンクが選択されたときに、筆跡記憶部106から該当する情報が取得されて検索結果表示領域DAに表示される。
図7に示すように、検索結果表示部107は、筆跡の類似度が高い検索結果ほど、つまり、検索結果としての優先度が高いものほど、検索結果表示領域DAの中心部に近い位置に配置して、大きなサイズで表示する。
図8は、検索結果表示領域DAに表示される表示画面の他の例を示す図である。図8では、「筆跡検索」と「テキスト検索」とを組み合わせた機能により検索を行うことで得られた6つの検索結果SR21,SR22,SR23,SR24,SR25,SR26を表示した画面例を示している。これらの検索結果のうち、検索結果SR21,SR22,SR23は「筆跡検索」の機能により筆跡記憶部106から取得された検索結果であり、筆跡の類似度は検索結果SR21が最も大きく、検索結果SR22が2番目に大きく、検索結果SR23が3番目に大きい。
また、検索結果SR24,SR25,SR26は「テキスト検索」の機能により例えば装置外のウェブサイトから取得された情報であり、検索結果としての優先度(テキストの類似度)は検索結果SR24が最も大きく、検索結果SR25が2番目に大きく、検索結果SR26が3番目に大きい。これらの検索結果SR24,SR25,SR26は、「テキスト検索」の機能により例えば装置外のウェブサイトから取得された情報をそのまま表示したものであってもよいし、取得された情報を加工して表示したものであってもよい。また、ウェブサイトなどへのリンクを、検索結果SR24,SR25,SR26として表示してもよい。この場合は、タッチ操作などにより任意のリンクが選択されたときに、該当するウェブサイトから情報が取得されて検索結果表示領域DAに表示される。
図8に示すように、検索結果表示部107は、「筆跡検索」の機能により得られた検索結果SR21,SR22,SR23を、検索結果表示領域DAの中心部から上方向に延びる観点軸である筆跡類似軸CA1に沿って配置する。また、検索結果表示部107は、「テキスト検索」の機能により得られた検索結果SR24,SR25,SR26を、検索結果表示領域DAの中心部から下方向に延びる観点軸であるテキスト類似軸CA2に沿って配置する。さらに、検索結果表示部107は、それぞれの観点軸上で、検索結果としての優先度が高いものほど、検索結果表示領域DAの中心部に近い位置に配置して、大きなサイズで表示する。
図9は、検索結果表示領域DAに表示される表示画面のさらに他の例を示す図である。図9では、「筆跡検索」と「テキスト検索」と「画像検索」とを組み合わせた機能により検索を行うことで得られた9つの検索結果SR31,SR32,SR33,SR34,SR35,SR36,SR37,SR38,SR39を表示した画面例を示している。これらの検索結果のうち、検索結果SR31,SR32,SR33は「筆跡検索」の機能により筆跡記憶部106から取得された検索結果であり、筆跡の類似度は検索結果SR31が最も大きく、検索結果SR32が2番目に大きく、検索結果SR33が3番目に大きい。
また、検索結果SR34,SR35,SR36は「テキスト検索」の機能により例えば装置外のウェブサイトから取得された情報であり、検索結果としての優先度(テキストの類似度)は検索結果SR34が最も大きく、検索結果SR35が2番目に大きく、検索結果SR36が3番目に大きい。
また、検索結果SR37,SR38,SR39は「画像検索」の機能により例えば装置内の画像記憶部から取得された情報であり、検索結果としての優先度(画像の類似度)は検索結果SR37が最も大きく、検索結果SR38が2番目に大きく、検索結果SR39が3番目に大きい。これらの検索結果SR37,SR38,SR39は、「画像検索」の機能により例えば装置内の画像記憶部から取得された情報をそのまま表示したものであってもよいし、取得された情報を加工して表示したものであってもよい。また、画像記憶部における情報の格納場所へのリンクを、検索結果SR37,SR38,SR39として表示してもよい。この場合は、タッチ操作などにより任意のリンクが選択されたときに、装置内の画像記憶部などから該当する情報が取得されて検索結果表示領域DAに表示される。
図9に示すように、検索結果表示部107は、「筆跡検索」の機能により得られた検索結果SR31,SR32,SR33を、検索結果表示領域DAの中心部から上方向に延びる観点軸である筆跡類似軸CA1に沿って配置する。また、検索結果表示部107は、「テキスト検索」の機能により得られた検索結果SR34,SR35,SR36を、検索結果表示領域DAの中心部から左下方向に延びる観点軸であるテキスト類似軸CA2に沿って配置する。また、検索結果表示部107は、「画像検索」の機能により得られた検索結果SR37,SR38,SR39を、検索結果表示領域DAの中心部から右下方向に延びる観点軸である画像類似軸CA3に沿って配置する。さらに、検索結果表示部107は、それぞれ観点軸上で、検索結果としての優先度が高いものほど、検索結果表示領域DAの中心部に近い位置に配置して、大きなサイズで表示する。
図10は、第2実施例の情報処理装置100Bの動作を説明するフローチャートである。図10のフローチャートで示す一連の処理は、検索アプリケーションの実行開始とともに開始され、検索アプリケーションの終了とともに終了する。
検索アプリケーションの実行が開始されると、まず、検出部101が、把持位置HPを検出する(ステップS201)。そして、設定部102が、検出部101により検出された把持位置HPから所定距離だけ離れた位置に、制御領域CRを設定する(ステップS202)。
その後、筆跡受付部103による筆跡入力の受け付けが開始されると、筆跡表示部104Bが、筆跡が入力されたか否かを判定し(ステップS203)、筆跡が入力されていなければ(ステップS203:No)、筆跡が入力されるまで待機する。そして、筆跡が入力されると(ステップS203:Yes)、筆跡表示部104Bが、入力された筆跡を筆跡表示領域に表示するとともに(ステップS204)、制御部105Bが、ユーザの指が設定部102により設定された制御領域CRに触れているか否かを判定する(ステップS205)。
ここで、ユーザの指が制御領域CRに触れていれば(ステップS205:Yes)、制御部105Bが、入力された筆跡に基づいて情報検索機能110による情報の検索を行い、検索結果を取得する(ステップS206)。そして、検索結果表示部107が、検索結果として取得された情報を、検索結果表示領域に表示する(ステップS207)。一方、ユーザの指が制御領域CRに触れていなければ(ステップS205:No)、ステップS206およびステップS207の処理は行わない。
その後、把持位置HPが変化したか否かが判定され(ステップS208)、把持位置HPが変化していなければ(ステップS208:No)、ステップS203に戻って次の筆跡の入力を待機する。一方、把持位置HPが変化した場合には(ステップS208:Yes)、ステップS202に戻って、設定部102が、新たな把持位置HPから所定距離だけ離れた位置に新たな制御領域CRを設定し、その後の処理を繰り返す。
以上説明したように、第2実施例の情報処理装置100Bによれば、把持位置HPから所定距離だけ離れた位置に、入力した筆跡を用いた情報の検索を指示するための制御領域CRが設定される。したがって、ユーザは、情報処理装置100Bを把持したまま指のみを動かして制御領域CRに触れるといった単純な動作を行うことで、入力した筆跡を用いた情報の検索を実行させて、所望の検索結果を得ることができる。
また、第2実施例の情報処理装置100Bによれば、入力された筆跡をもとに、過去の筆跡および背景情報や、入力された筆跡の背景に類似するテキスト、画像などの様々な情報を、効率よく取得することができる。
また、第2実施例の情報処理装置100Bによれば、検索結果として取得された情報を、検索結果としての優先度が高いほど検索結果表示領域の中心部に近い位置に配置して表示したり、検索結果としての優先度が高いほど大きく表示したりすることで、検索結果を効率よくユーザに提示することができる。
また、第2実施例の情報処理装置100Bによれば、複数の観点で検索が行われた場合に、検索結果として取得された情報を、観点ごとに、検索結果表示領域の中心部から異なる方向に延びる複数の観点軸に沿って配置して表示することで、検索結果をユーザに分かり易く提示することができる。
(第3実施例)
第3実施例は、第2実施例と同様の検索アプリケーションへの適用例であるが、主に音の検索を行う検索アプリケーションに適用した例である。例えば、ユーザが過去に入力した筆跡が、情報処理装置の周囲で発生している周囲音(音声や音楽など)とともに記憶されている場合、ユーザが現在入力している筆跡に類似する過去の筆跡および周囲音を、検索結果として取得したり、現在の周囲音に類似する過去の周囲音および筆跡を、検索結果として取得したりすることができる。また、筆跡入力時の周囲音が音楽である場合、この音楽に類似する音楽などを、装置内外(装置内の音楽記憶部や装置外のインターネット上のウェブサイトなど)から検索結果として取得することもできる。第3実施例の情報処理装置(以下、情報処理装置100Cと表記する。)は、ユーザの指が制御領域CRに接触している間に入力された筆跡や筆跡とともに取得された周囲音を用いて、このような音の検索を行う。
図11は、第3実施例の情報処理装置100Cの機能的な構成例を示すブロック図である。図11に示すように、第3実施例の情報処理装置100Cは、検出部101と、設定部102と、筆跡受付部103と、筆跡表示部104Bと、音取得部108と、筆跡記憶部106Cと、制御部105Cと、検索結果表示部107と、を備える。検出部101、設定部102および筆跡受付部103は第1実施例と共通の構成要素であり、筆跡表示部104Bおよび検索結果表示部107は第2実施例と共通の構成要素であるため、これらの重複した説明は省略する。
音取得部108は、例えばマイクロフォンを通じて、情報処理装置100Cの周囲で発生している周囲音を取得(録音)して保持する。音取得部108による周囲音の取得は、筆跡入力の有無にかかわらず、常に行われる。そして、音取得部108が保持する周囲音のうち、筆跡が入力された時点よりも一定時間前の時点から、筆跡の入力が終了した時点よりも一定時間後の時点までの間に取得された周囲音が、入力された筆跡と対応付けられて筆跡記憶部106Cに格納される。格納される周囲音の区間は、ユーザの筆跡入力中の区間、筆跡の入力音が連続していると判断できる場合は筆跡の入力音が連続する区間、筆跡の入力の周波数特性を持っており、類似した周波数特性を、持っている音がある区間、等からも選ぶことが可能である。なお、音取得部108が取得した周囲音のうち、筆跡記憶部106Cに格納されない周囲音は、破棄される。
筆跡記憶部106Cは、筆跡受付部103が入力を受け付けた筆跡を、その筆跡の入力とともに音取得部108で取得された周囲音と対応付けて記憶する。筆跡受付部103が入力を受け付けた筆跡は、上述したように、筆跡データとして管理され、筆跡記憶部106Cに格納される。この際、筆跡の入力前後の一定時間を含む筆跡入力期間に音取得部108により取得された周囲音のデータが、筆跡データと対応付けられ、筆跡データとともに筆跡記憶部106Cに格納される。
制御部105Cは、設定部102により設定された制御領域CRにユーザの指が触れているか否かに基づいて、情報検索機能110Cの実行を制御する。制御領域CRにユーザの指が触れているか否かを判定する方法は、第1実施例と同様である。情報検索機能110Cは、検索エンジンによって実行される機能であり、例えば「筆跡検索」、「周囲音検索」、および「音楽検索」の各機能を有する。
「筆跡検索」は、筆跡受付部103により入力が受け付けられた筆跡を、筆跡記憶部106Cに記憶された過去の筆跡と照合し、筆跡受付部103により入力が受け付けられた筆跡に類似する過去の筆跡および周囲音を、検索結果として取得する機能である。この「筆跡検索」の機能により情報の検索を行う場合、制御部105Cは、筆跡記憶部106Cに記憶された過去の筆跡のうち、ユーザの指が制御領域CRに接触している間に入力された筆跡に類似する過去の筆跡およびこれと対応付けられた周囲音を、検索結果として取得する。なお、筆跡の類似性の判断は、第2実施例と同様の手法で行えばよい。
「周囲音検索」は、音取得部108により取得された現在の周囲音を、筆跡記憶部106Cに記憶された過去の周囲音と照合し、音取得部108により取得された現在の周囲音に類似する過去の周囲音を、この周囲音と対応付けられた筆跡とともに、検索結果として取得する機能である。この「周囲音検索」の機能により情報の検索を行う場合、制御部105Cは、筆跡記憶部106Cに記憶された過去の周囲音のうち、ユーザの指が制御領域CRに接触している間に音取得部108により取得された周囲音に類似する過去の周囲音を、これと対応付けられた筆跡とともに、検索結果として取得する。
周囲音の類似性の判断は、例えば、周囲音を周波数解析することで抽出される周波数特性の比較により行われる。また、周波数特性だけでなく、音量などの他の特徴量の比較により周囲音の類似性を判断してもよい。また、周囲音が人の発話音声である場合、周囲音を音声認識することで得られる単語の一致度などを用いて、周囲音の類似性を判断してもよい。
「音楽検索」は、音取得部108により取得された現在の周囲音が音楽である場合に、その周囲音として取得された音楽に類似する音楽を検索する機能である。例えば、音取得部108により取得された周囲音の周波数特性から、当該周波数特性を持つ音楽を特定し、その音楽の楽曲名、作者、演奏者、ジャンルなどを検索キーワードとして検索を行うことで、周囲音として取得された音楽に類似する音楽を、装置内外(装置内の音楽記憶部や装置外のインターネット上のウェブサイトなど)から検索結果として取得することができる。この「音楽検索」の機能により情報の検索を行う場合、制御部105Cは、ユーザの指が制御領域CRに接触している間に音取得部108により取得された周囲音に類似する音楽を、装置内外から検索結果として取得する。
制御部105Cの制御のもとで実行される情報検索機能110Cは、上述した「筆跡検索」、「周囲音検索」、および「音楽検索」のうちのいずれか1つの機能であってもよいし、2つ以上の機能の組み合わせであってもよい。情報検索機能110Cの選択は、第2実施例と同様に、例えば、検索アプリケーションの起動前にユーザの指定に基づいて行うことができる。また、検索アプリケーションの起動後であっても、第1実施例で説明したように、例えば、制御領域CRに対する短時間の接触回数に応じて、機能の切り替えを行うようにしてもよい。また、例えば、別途設けた切り替えボタンの操作に応じて、機能の切り替えを行うようにしてもよい。
情報検索機能110Cにより取得された検索結果は、第2実施例と同様に、検索結果表示部107により検索結果表示領域DAに表示される。すなわち、検索結果表示部107は、情報検索機能110Cにより検索結果として複数の情報が取得された場合は、これら複数の情報のうち、検索結果としての優先度が高い情報ほど検索結果表示領域の中心部に近い位置に配置して表示する。また、検索結果表示部107は、検索結果として取得された複数の情報のうち、検索結果としての優先度が高い情報ほど大きく表示する。
また、情報検索機能110Cにより複数の観点で検索が行われた場合、検索結果表示部107は、第2実施例と同様に、検索結果として取得された情報を、観点ごとに、検索結果表示領域の中心部から異なる方向に延びる複数の観点軸に沿って配置する。複数の観点での検索とは、例えば、上述した「筆跡検索」、「周囲音検索」、および「音楽検索」のうちの2つ以上の機能を組み合わせた検索や、類似度の評価基準が異なる複数の観点で行う複合検索などである。この場合も、各観点軸上に配置される観点ごとの情報は、検索結果としての優先度が高い情報ほど検索結果表示領域の中心部に近い位置に配置され、検索結果としての優先度が高い情報ほど大きく表示される。
図12は、検索結果表示領域DAに表示される表示画面の一例を示す図である。図12では、「筆跡検索」と「周囲音検索」とを組み合わせた機能により検索を行うことで得られた6つの検索結果SR41,SR42,SR43,SR44,SR45,SR46を表示した画面例を示している。これらの検索結果のうち、検索結果SR41,SR42,SR43は「筆跡検索」の機能により筆跡記憶部106Cから取得された検索結果であり、筆跡の類似度は検索結果SR41が最も大きく、検索結果SR42が2番目に大きく、検索結果SR43が3番目に大きい。これらの検索結果SR41,SR42,SR43は、入力された筆跡に類似する過去の筆跡と、この過去の筆跡に対応付けられた周囲音が格納された筆跡記憶部106Cの格納場所へのリンクとを組み合わせた情報である。つまり、ユーザが過去の筆跡が表示された位置にタッチ操作などを行うことにより、その筆跡に対応付けられた過去の周囲音が筆跡記憶部106Cから取り出されて再生され、スピーカから出力される。
また、検索結果SR44,SR45,SR46は「周囲音検索」の機能により筆跡記憶部106Cから取得された検索結果であり、周囲音の類似度は検索結果SR44が最も大きく、検索結果SR45が2番目に大きく、検索結果SR46が3番目に大きい。これらの検索結果SR44,SR45,SR46は、現在の周囲音に類似する過去の周囲音が格納された筆跡記憶部106Cの格納場所へのリンクと、この過去の周囲音に対応付けられた過去の筆跡とを組み合わせた情報であり、検索結果SR41,SR42,SR43と同様に操作できる。
図12に示すように、検索結果表示部107は、「筆跡検索」の機能により得られた検索結果SR41,SR42,SR43を、検索結果表示領域DAの中心部から上方向に延びる観点軸である筆跡類似軸CA4に沿って配置する。また、検索結果表示部107は、「周囲音検索」の機能により得られた検索結果SR44,SR45,SR46を、検索結果表示領域DAの中心部から下方向に延びる観点軸である周囲音類似軸CA5に沿って配置する。さらに、検索結果表示部107は、それぞれの観点軸上で、検索結果としての優先度が高いものほど、検索結果表示領域DAの中心部に近い位置に配置して、大きなサイズで表示する。
図13は、検索結果表示領域DAに表示される表示画面の他の例を示す図である。図13では、「筆跡検索」と「音楽検索」とを組み合わせ、さらに「音楽検索」を歌手名とジャンルの2つの観点で検索を行うことで得られた9つの検索結果SR51,SR52,SR53,SR54,SR55,SR56,SR57,SR58,SR59を表示した画面例を示している。これらの検索結果のうち、検索結果SR51,SR52,SR53は「筆跡検索」の機能により筆跡記憶部106Cから取得された検索結果であり、筆跡の類似度は検索結果SR51が最も大きく、検索結果SR52が2番目に大きく、検索結果SR53が3番目に大きい。
また、検索結果SR54,SR55,SR56は、歌手名を観点とした「音楽検索」の機能により、例えば装置内の音楽記憶部や装置外のウェブサイトから取得された情報であり、検索結果としての優先度(歌手名の類似度、歌手名が一致する場合は曲名の類似度)は検索結果SR54が最も大きく、検索結果SR55が2番目に大きく、検索結果SR56が3番目に大きい。また、検索結果SR57,SR58,SR59は、ジャンルを観点とした「音楽検索」の機能により取得された情報であり、検索結果としての優先度(ジャンルの類似度)は検索結果SR57が最も大きく、検索結果SR58が2番目に大きく、検索結果SR59が3番目に大きい。
「音楽検索」の機能により取得される検索結果SR54,SR55,SR56,SR57,SR58,SR59は、例えば、音楽の曲目や歌手名などのメタデータと、音楽の格納場所へのリンクとを組み合わせた情報である。つまり、ユーザが所望の曲名や歌手名などが表示された位置にタッチ操作などを行うことにより、その音楽が装置内の音楽記憶部や装置外のウェブサイトから取り出されて再生され、スピーカから出力される。
図13に示すように、検索結果表示部107は、「筆跡検索」の機能により得られた検索結果SR51,SR52,SR53を、検索結果表示領域DAの中心部から上方向に延びる観点軸である筆跡類似軸CA4に沿って配置する。また、検索結果表示部107は、歌手名を観点とした「音楽検索」の機能により得られた検索結果SR54,SR55,SR56を、検索結果表示領域DAの中心部から左下方向に延びる観点軸である歌手名類似軸CA6に沿って配置する。また、検索結果表示部107は、ジャンルを観点とした「音楽検索」の機能により得られた検索結果SR57,SR58,SR59を、検索結果表示領域DAの中心部から右下方向に延びる観点軸であるジャンル類似軸CA7に沿って配置する。さらに、検索結果表示部107は、それぞれ観点軸上で、検索結果としての優先度が高いものほど、検索結果表示領域DAの中心部に近い位置に配置して、大きなサイズで表示する。
第3実施例の情報処理装置100Cの動作は、図10のフローチャートで示した第2実施例の情報処理装置100Bの動作と同様であるため、説明を省略する。
以上説明したように、第3実施例の情報処理装置100Cによれば、把持位置HPから所定距離だけ離れた位置に、入力した筆跡を用いた音の検索を指示するための制御領域CRが設定される。したがって、ユーザは、情報処理装置100Cを把持したまま指のみを動かして制御領域CRに触れるといった単純な動作を行うことで、入力した筆跡を用いた音の検索を実行させて、所望の検索結果を得ることができる。
また、第3実施例の情報処理装置100Cによれば、入力された筆跡や取得された周囲音をもとに、現在の筆跡に類似する過去の筆跡および周囲音、現在の周囲音に類似する過去の類似音および筆跡、現在の周囲音に類似する音楽などの様々な情報を、効率よく取得することができる。
なお、第3実施例の情報処理装置100Cは、第2実施例と組み合わせて実施することもできる。この場合、制御部105Cの情報検索機能110Cは、「筆跡検索」、「周囲音検索」および「音楽検索」の各機能に加えて、第2実施例の情報検索機能110Cの「筆跡検索」、「テキスト検索」および「画像検索」の各機能も有する。そして、制御部105Cは、これらの各機能のうちのいずれか1つ、または2つ以上の機能の組み合わせによる情報検索機能110Cの実行を制御し、検索結果を取得する。
(第4実施例)
第4実施例は、第1実施例と同様のノートアプリケーションへの適用例であるが、特に録音機能を備えたノートアプリケーションに適用した例である。録音機能を備えたノートアプリケーションでは、筆跡とともに取得された周囲音を、筆跡と対応付けて記憶しておくことができる。第4実施例の情報処理装置(以下、情報処理装置100Dと表記する。)は、ユーザの指が制御領域CRに接触している間に入力された筆跡を、該筆跡とともに取得された周囲音と対応付けて記憶させる。
図14は、第4実施例の情報処理装置100Dの機能的な構成例を示すブロック図である。図14に示すように、第4実施例の情報処理装置100Dは、検出部101と、設定部102と、筆跡受付部103と、筆跡表示部104Bと、音取得部108と、制御部105Dと、筆跡記憶部106Cと、を備える。検出部101、設定部102および筆跡受付部103は第1実施例と共通の構成要素であり、筆跡表示部104Bは第2実施例と共通の構成要素であり、音取得部108および筆跡記憶部106Cは第3実施例と共通の構成要素であるため、これらの重複した説明は省略する。
制御部105Dは、設定部102により設定された制御領域CRにユーザの指が触れているか否かに基づいて、筆跡および周囲音を筆跡記憶部106Cに格納する動作を制御する。すなわち、制御部105Dは、ユーザの指が制御領域CRに触れている間に筆跡受付部103により入力が受け付けられた筆跡を、音取得部108が取得した周囲音と対応付けて筆跡記憶部106Cに格納する。
具体的には、制御部105Dは、筆跡受付部103が入力を受け付けた筆跡の筆跡データと音取得部108が取得した周囲音のデータとを随時入力しながら、設定部102により設定された制御領域CRにユーザの指が触れているか否かを判定する。制御領域CRにユーザの指が触れているか否かを判定する方法は、第1実施例と同様である。そして、制御部105Dは、ユーザの指が制御領域CRに触れていると判断すると、その間に入力された筆跡を、筆跡が入力された時点よりも一定時間前の時点から、筆跡の入力が終了した時点よりも一定時間後の時点までの間に取得された周囲音と対応付けて、筆跡記憶部106Cに格納する。格納される周囲音の区間は、ユーザの筆跡入力中の区間、筆跡の入力音が連続していると判断できる場合は筆跡の入力音が連続する区間、筆跡の入力の周波数特性を持っており、類似した周波数特性を、持っている音がある区間、等からも選ぶことが可能である。なお、音取得部108が取得した周囲音のうち、筆跡記憶部106Cに格納されない周囲音は、破棄される。
図15は、第4実施例の情報処理装置100Dの動作を説明するフローチャートである。図15のフローチャートで示す一連の処理は、録音機能を備えたノートアプリケーションの実行開始とともに開始され、録音機能を備えたノートアプリケーションの終了とともに終了する。
録音機能を備えたノートアプリケーションの実行が開始されると、まず、検出部101が、把持位置HPを検出する(ステップS301)。そして、設定部102が、検出部101により検出された把持位置HPから所定距離だけ離れた位置に、制御領域CRを設定する(ステップS302)。
その後、筆跡受付部103による筆跡入力の受け付けが開始され、音取得部108による周囲音の取得が開始されると、筆跡表示部104Bが、筆跡が入力されたか否かを判定し(ステップS303)、筆跡が入力されていなければ(ステップS303:No)、筆跡が入力されるまで待機する。そして、筆跡が入力されると(ステップS303:Yes)、筆跡表示部104Bが、入力された筆跡を筆跡表示領域に表示するとともに(ステップS304)、制御部105Dが、ユーザの指が設定部102により設定された制御領域CRに触れているか否かを判定する(ステップS305)。
ここで、ユーザの指が制御領域CRに触れていれば(ステップS305:Yes)、制御部105Dは、入力された筆跡を、音取得部108により取得された周囲音と対応付けて、筆跡記憶部106Cに格納する(ステップS306)。一方、ユーザの指が制御領域CRに触れていなければ(ステップS305:No)、ステップS306の処理は行わない。
その後、把持位置HPが変化したか否かが判定され(ステップS307)、把持位置HPが変化していなければ(ステップS307:No)、ステップS303に戻って次の筆跡の入力を待機する。一方、把持位置HPが変化した場合には(ステップS307:Yes)、ステップS302に戻って、設定部102が、新たな把持位置HPから所定距離だけ離れた位置に新たな制御領域CRを設定し、その後の処理を繰り返す。
以上説明したように、第4実施例の情報処理装置100Dによれば、把持位置HPから所定距離だけ離れた位置に、入力した筆跡を周囲音とともに記憶させるための制御領域CRが設定される。したがって、ユーザは、筆跡の入力を中断することなく、情報処理装置100Dを把持したまま指のみを動かして制御領域CRに触れるといった単純な動作を行うことで、入力した筆跡を周囲音とともに記憶させることができる。
(変形例)
なお、以上説明した各実施例は、いずれも手書き入力インタフェースを備えた情報処理装置100への適用例である。しかし、本実施形態は、手書き入力インタフェースを備えたものに限らず、ユーザが把持しながら操作する様々な情報処理装置に適用することができる。
例えば図16に示すように、ユーザの手の動作に応じてテレビに制御信号を送信するジェスチャリモコン200に対して、本実施形態を適用することもできる。この場合、ユーザが例えば図16(a)に示すようにジェスチャリモコン200を把持すると、ユーザの親指Tmの位置が把持位置として検出され、この把持位置から所定距離だけ離れた位置に制御領域が設定される。その後、ユーザが親指Tmを動かさずにジェスチャリモコン200を上下させると、テレビの音量を上下させる制御信号がテレビに送られる。一方、図16(b)に示すようにユーザが親指Tmを動かして制御領域に触れると、ジェスチャリモコン200の上下動に対応する制御信号が切り替えられ、例えば、ジェスチャリモコン200の上下動に応じて、テレビの受信チャンネルを切り替える制御信号がテレビに送られる。
また、例えば図17に示すように、文字や数字を入力する入力装置300に対して、本実施形態を適用することもできる。この場合、ユーザが例えば図17(a)に示すように入力装置300を把持すると、ユーザの親指Tmの位置が把持位置として検出され、この把持位置から所定距離だけ離れた位置に制御領域が設定される。その後、ユーザが親指Tmを動かさず、制御領域に触れていない間は、日本語入力モードで入力が受け付けられる。一方、図17(b)に示すようにユーザが親指Tmを動かして制御領域に触れると、入力モードが日本語入力モードから数字入力モードに切り替えられて、ユーザが制御領域に触れている間、数字入力モードでの入力が受け付けられる。
以上、具体的な実施例および変形例を挙げながら詳細に説明したように、実施形態に係る情報処理装置によれば、ユーザの単純な動作により所定機能の実行を制御できる。
なお、本実施形態は、例えば、コンピュータシステムを基本ハードウェアとして備える情報処理において、コンピュータシステムのプロセッサにプログラムを実行させることにより実現することができる。このとき、プログラムは、情報処理装置にあらかじめインストールしてもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムを情報処理装置に適宜インストールするようにしてもよい。また、上記のプログラムをサーバーコンピュータ装置上で実行させ、ネットワークを介してその結果を情報処理装置で受け取るようにしてもよい。
実施形態に係る情報処理装置で実行されるプログラムは、情報処理装置の各機能的な構成要素(検出部101、設定部102、筆跡受付部103、筆跡表示部104、制御部105Aなど)を含むモジュール構成となっており、実際のハードウェアとしては、例えば、プロセッサが上記記憶媒体からプログラムを読み出して実行することにより、上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。
以上、本発明の実施形態を説明したが、ここで説明した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。ここで説明した新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。ここで説明した実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100,100A,100B,100C,100D 情報処理装置
101 検出部
102 設定部
103 筆跡受付部
104,104B 筆跡表示部
105A,105B,105C,105D 制御部
106,106C 筆跡記憶部
107 検索結果表示部
108 音取得部
110,110C 情報検索機能

Claims (12)

  1. 表示部を含むタッチパネルを有する情報処理装置であって、
    前記情報処理装置をユーザが把持したときに、前記ユーザの指が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出する検出部と、
    前記検出部により検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として設定する設定部と、
    前記タッチパネルを用いて前記ユーザが入力操作した筆跡の入力を受け付ける筆跡受付部と、
    前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡の色または線種を、前記ユーザの指が前記制御領域に接触していない間に前記筆跡受付部を介して入力された筆跡の色または線種から変更して前記表示部に表示させる制御部と、を備える情報処理装置。
  2. 表示部を含むタッチパネルを有する情報処理装置であって、
    前記情報処理装置をユーザが把持したときに、前記ユーザの指が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出する検出部と、
    前記検出部により検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として制御領域を設定する設定部と、
    前記タッチパネルを用いて前記ユーザが入力操作した筆跡の入力を受け付ける筆跡受付部と、
    前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡を用いて情報の検索を行う制御部と、
    前記筆跡受付部を介して入力された筆跡のデータと該筆跡の背景として前記表示部に表示された背景情報とを対応付けて記憶する筆跡記憶部と、を備
    前記制御部は、前記筆跡記憶部が記憶する過去の筆跡のうち、前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡に類似する筆跡のデータおよび該筆跡に対応付けられた前記背景情報を検索結果として取得する情報処理装置。
  3. 前記制御部は、さらに、前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡の前記背景情報に基づき情報の検索を行って検索結果を取得する、請求項に記載の情報処理装置。
  4. 表示部を含むタッチパネルを有する情報処理装置であって、
    前記情報処理装置をユーザが把持したときに、前記ユーザの指が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出する検出部と、
    前記検出部により検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として設定する設定部と、
    前記タッチパネルを用いて前記ユーザが入力操作した筆跡の入力を受け付ける筆跡受付部と、
    前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡を用いて情報の検索を行う制御部と、
    周囲音を取得する音取得部と、
    前記筆跡受付部を介して入力された筆跡のデータと該筆跡の入力時に前記音取得部により取得された周囲音と対応付けて記憶する筆跡記憶部と、を備え、
    前記制御部は、前記筆跡記憶部が記憶する過去の筆跡のうち、前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡に類似する筆跡のデータおよび該筆跡に対応付けられた前記周囲音を検索結果として取得する情報処理装置。
  5. 前記制御部は、さらに、前記ユーザの指が前記制御領域に接触している間に前記音取得部により取得された周囲音に基づき情報の検索を行って検索結果を取得する、請求項に記載の情報処理装置。
  6. 前記制御部は、前記筆跡記憶部が記憶する周囲音のうち、前記ユーザの指が前記制御領域に接触している間に前記音取得部により取得された周囲音に類似する周囲音および該周囲音に対応付けられた前記筆跡のデータを検索結果として取得する、請求項に記載の情報処理装置。
  7. 前記制御部は、前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡を用いて複数の観点で情報の検索を行い、
    前記検索結果として取得された情報を、複数の観点ごとに、前記タッチパネルの中心部から異なる方向に延びる複数の観点軸に沿って配置するとともに、優先度が高い情報ほど前記タッチパネルの中心部に近い位置に配置して表示する、請求項に記載の情報処理装置。
  8. 表示部を含むタッチパネルを有する情報処理装置であって、
    前記情報処理装置をユーザが把持したときに、前記ユーザの指が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出する検出部と、
    前記検出部により検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として設定する設定部と、
    前記タッチパネルを用いて前記ユーザが入力操作した筆跡の入力を受け付ける筆跡受付部と、
    周囲音を取得する音取得部と、
    筆跡記憶部と
    前記ユーザの指が前記制御領域に接触している間に前記筆跡受付部を介して入力された筆跡のデータと、該筆跡の入力時に前記音取得部により取得された周囲音と対応付けて前記筆跡記憶部に格納する制御部と、を備える情報処理装置。
  9. 前記所定範囲は、前記ユーザが意図的に指を移動させたのではないと判断できる範囲であり、
    前記所定時間は、定常性を判断できる時間である、請求項1乃至8のいずれか一項に記載の情報処理装置。
  10. 前記基準位置は、前記時系列で取得した前記接触領域をマージした領域のうち前記タッチパネルの中心部に最も近い位置、あるいは前記時系列で取得した前記接触領域をマージした領域の重心位置である請求項1乃至9のいずれか一項に記載の情報処理装置。
  11. 表示部を含むタッチパネルを有する情報処理装置において実行される方法であって、
    前記情報処理装置をユーザが把持したときに、前記ユーザの指が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出するステップと、
    検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として設定するステップと、
    前記ユーザによる筆跡の入力を受け付けるステップと、
    前記ユーザの指が前記制御領域に接触している間に前記ユーザによって入力された筆跡の色または線種を、前記ユーザの指が前記制御領域に接触していない間に入力された筆跡の色または線種から変更して前記表示部に表示させるステップと、を含む方法。
  12. 表示部を含むタッチパネルを有する情報処理装置に、
    前記情報処理装置をユーザが把持したときに、前記ユーザの指が前記タッチパネルに接触している接触領域を時系列で取得し、前記接触領域の重心位置の変動が所定範囲内である状態が所定時間継続した場合に、前記タッチパネルの前記接触領域内の予め定めた基準位置を把持位置として検出する機能と、
    検出された前記把持位置から前記タッチパネルの中心部に向かって所定距離だけ離れた位置を前記タッチパネルの制御領域として設定する機能と、
    前記ユーザによる筆跡の入力を受け付ける機能と、
    前記ユーザの指が前記制御領域に接触している間に前記ユーザによって入力された筆跡の色または線種を、前記ユーザの指が前記制御領域に接触していない間に入力された筆跡の色または線種から変更して前記表示部に表示させる機能と、を実現させるためのプログラム。
JP2013181534A 2013-09-02 2013-09-02 情報処理装置、方法およびプログラム Active JP6196101B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013181534A JP6196101B2 (ja) 2013-09-02 2013-09-02 情報処理装置、方法およびプログラム
US14/463,510 US9361859B2 (en) 2013-09-02 2014-08-19 Information processing device, method, and computer program product
CN201410436172.3A CN104423883B (zh) 2013-09-02 2014-08-29 信息处理装置、方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013181534A JP6196101B2 (ja) 2013-09-02 2013-09-02 情報処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015049752A JP2015049752A (ja) 2015-03-16
JP6196101B2 true JP6196101B2 (ja) 2017-09-13

Family

ID=52582504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013181534A Active JP6196101B2 (ja) 2013-09-02 2013-09-02 情報処理装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US9361859B2 (ja)
JP (1) JP6196101B2 (ja)
CN (1) CN104423883B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2541730B (en) * 2015-08-28 2020-05-13 Samsung Electronics Co Ltd Displaying graphical user interface elements on a touch screen
WO2017039125A1 (en) 2015-08-28 2017-03-09 Samsung Electronics Co., Ltd. Electronic device and operating method of the same
JP2017157079A (ja) * 2016-03-03 2017-09-07 富士通株式会社 情報処理装置、表示制御方法、及び表示制御プログラム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3127670B2 (ja) * 1993-06-21 2001-01-29 カシオ計算機株式会社 イメージ入力装置
JPH0713687A (ja) * 1993-06-25 1995-01-17 Casio Comput Co Ltd 手書き入力装置
US5546565A (en) 1993-06-21 1996-08-13 Casio Computer Co., Ltd. Input/output apparatus having a pen, and method of associating and processing handwritten image data and voice data
US5970455A (en) * 1997-03-20 1999-10-19 Xerox Corporation System for capturing and retrieving audio data and corresponding hand-written notes
JP2000010720A (ja) * 1998-06-24 2000-01-14 Sharp Corp 座標入力装置
JP2000222522A (ja) 1999-02-04 2000-08-11 Matsushita Electric Ind Co Ltd 認識処理装置
US7496513B2 (en) * 2005-06-28 2009-02-24 Microsoft Corporation Combined input processing for a computing device
JP4669381B2 (ja) * 2005-12-01 2011-04-13 株式会社日立製作所 地図情報システム、地図情報処理方法およびそのプログラム
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8726178B2 (en) 2006-11-10 2014-05-13 Ricoh Company, Ltd. Device, method, and computer program product for information retrieval
JP5223284B2 (ja) 2006-11-10 2013-06-26 株式会社リコー 情報検索装置、方法およびプログラム
JP5464786B2 (ja) * 2006-12-21 2014-04-09 キヤノン株式会社 情報処理装置、制御方法、及び制御プログラム
JP5372000B2 (ja) * 2007-10-11 2013-12-18 エヌ−トリグ リミテッド デジタイザのためのジェスチャ検出
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
JP2009217442A (ja) * 2008-03-10 2009-09-24 Konica Minolta Holdings Inc 情報入力表示装置
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN101403949A (zh) * 2008-11-11 2009-04-08 珠海金山软件股份有限公司 手写输入装置和手写输入方法
JP2010128666A (ja) 2008-11-26 2010-06-10 Sharp Corp 情報処理装置
KR101559178B1 (ko) * 2009-04-08 2015-10-12 엘지전자 주식회사 명령어 입력 방법 및 이를 적용한 이동 통신 단말기
US8669955B2 (en) * 2009-07-30 2014-03-11 Sharp Kabushiki Kaisha Portable display device, method of controlling portable display device, program, and recording medium
JP5487208B2 (ja) * 2009-08-27 2014-05-07 株式会社東芝 情報検索装置
JP5237980B2 (ja) * 2010-03-04 2013-07-17 レノボ・シンガポール・プライベート・リミテッド 座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラム
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
JP5611763B2 (ja) * 2010-10-27 2014-10-22 京セラ株式会社 携帯端末装置及び処理方法
JP5011430B2 (ja) * 2010-11-18 2012-08-29 株式会社東芝 表示処理装置、及び表示処理方法
JP2012118644A (ja) * 2010-11-30 2012-06-21 Canon Inc 画像情報処理装置
US20120154295A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Cooperative use of plural input mechanisms to convey gestures
EP2527968B1 (en) * 2011-05-24 2017-07-05 LG Electronics Inc. Mobile terminal
JP5769516B2 (ja) 2011-06-27 2015-08-26 キヤノン株式会社 画像処理装置及びその制御方法
CN102289322A (zh) * 2011-08-25 2011-12-21 盛乐信息技术(上海)有限公司 手写笔迹处理方法及***
CN102999198B (zh) * 2011-09-16 2016-03-30 宸鸿科技(厦门)有限公司 触摸面板边缘持握触摸的检测方法和装置
JP2013073330A (ja) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 携帯型電子機器、タッチ領域設定方法およびプログラム
US9195351B1 (en) * 2011-09-28 2015-11-24 Amazon Technologies, Inc. Capacitive stylus
JP2014032450A (ja) * 2012-08-01 2014-02-20 Sony Corp 表示制御装置、表示制御方法及びコンピュータプログラム
KR101997447B1 (ko) * 2012-12-10 2019-07-08 엘지전자 주식회사 이동단말기 및 그 제어 방법
US10025494B2 (en) * 2013-01-16 2018-07-17 Samsung Electronics Co., Ltd. Apparatus and method for an adaptive edge-to-edge display system for multi-touch devices

Also Published As

Publication number Publication date
US20150062036A1 (en) 2015-03-05
US9361859B2 (en) 2016-06-07
JP2015049752A (ja) 2015-03-16
CN104423883A (zh) 2015-03-18
CN104423883B (zh) 2018-04-06

Similar Documents

Publication Publication Date Title
US11361526B2 (en) Content-aware selection
CN106201177B (zh) 一种操作执行方法及移动终端
US20160247520A1 (en) Electronic apparatus, method, and program
US20160328372A1 (en) Information processing apparatus, information processing method, and program
US8713464B2 (en) System and method for text input with a multi-touch screen
US20140362002A1 (en) Display control device, display control method, and computer program product
JP2011102862A (ja) 音声認識結果管理装置および音声認識結果表示方法
JPWO2002031643A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
EP2897055A1 (en) Information processing device, information processing method, and program
US20150309690A1 (en) Method and system for searching information records
JP6196101B2 (ja) 情報処理装置、方法およびプログラム
US20120131460A1 (en) Playlist Creation
US20130238976A1 (en) Information processing apparatus, information processing method, and computer program
JP2015094978A (ja) 電子機器および方法
CN105589570B (zh) 一种处理输入错误的方法和装置
CN112230811A (zh) 输入方法、装置、设备及存储介质
JP2011197744A (ja) 情報処理装置、プログラム、記録媒体および情報処理システム
WO2017045277A1 (zh) 搜索方法、装置、设备及非易失性计算机存储介质
KR20150097250A (ko) 태그 정보를 이용한 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP7468360B2 (ja) 情報処理装置および情報処理方法
JP2007087146A (ja) 情報表示制御装置、電子辞書装置及びプログラム
KR101348763B1 (ko) 손동작에 의한 인터페이스 조작 장치 및 방법, 그리고 컴퓨터로 읽을 수 있는 기록매체
KR20180000974A (ko) 터치스크린 장치 및 그 지문 인식 방법
JP5345609B2 (ja) タッチパネル式端末、語削除方法及びプログラム
KR20150100332A (ko) 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170817

R151 Written notification of patent or utility model registration

Ref document number: 6196101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350