JP2009265897A - ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法 - Google Patents

ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法 Download PDF

Info

Publication number
JP2009265897A
JP2009265897A JP2008114088A JP2008114088A JP2009265897A JP 2009265897 A JP2009265897 A JP 2009265897A JP 2008114088 A JP2008114088 A JP 2008114088A JP 2008114088 A JP2008114088 A JP 2008114088A JP 2009265897 A JP2009265897 A JP 2009265897A
Authority
JP
Japan
Prior art keywords
main body
movement
operated
screen
operation mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008114088A
Other languages
English (en)
Inventor
Kazuyuki Yamamoto
一幸 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008114088A priority Critical patent/JP2009265897A/ja
Publication of JP2009265897A publication Critical patent/JP2009265897A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

【課題】数字および文字入力機能をもつハンドヘルド型の遠隔ポインティング装置で、操作時の利便性を向上させる。
【解決手段】装置は折り畳みが可能で、切り替え検出器26により本体が開いた(数字および文字入力が可能)状態が検出されたか否かをMPU19が判定する。本体が開いた状態が検出された場合、MPU19は、センサユニット17が出力した移動コマンドの送信を停止し、これにより画面上のポインタの動きが停止される。このように、本体が開いた状態のとき、移動コマンドの送信が停止されることにより、文字入力等の操作時の煩雑さがなくなり、操作性が向上する。
【選択図】図5

Description

本発明は、情報を処理するハンドヘルド型の情報処理装置に関する。また、本発明は、このハンドヘルド型情報処理装置が、空間操作型の入力装置である場合、その入力装置から送信された情報を受信して、GUI(Graphical User Interface)の操作を制御するための制御装置、その制御システム及び制御方法に関する。
PC(Personal Computer)で普及しているGUIのコントローラとして、主にマウスやタッチパッド等のポインティングデバイスが用いられている。GUIは、従来のPCのHI(Human Interface)にとどまらず、例えばテレビを画像媒体としてリビングルーム等で使用されるAV機器やゲーム機のインターフェースとして使用され始めている。このようなGUIのコントローラとして、ユーザが空間で操作することができるポインティングデバイスが多種提案されている(例えば、特許文献1参照)。
ところで、ユーザが、PC本体と通信するポインティングデバイスを使用しながら、キーボードを用いて、文字入力やその他の操作をすることが想定される。このような場合、例えばPCは、ソフトウェアによるキーボード、つまりGUIによるキーボードを画面に表示させ、ユーザに文字を選択させる、といった方法がある。しかし、ユーザが、ポインティングデバイスを用いて画面上で文字を選択することは、ユーザにとって操作が煩雑に感じられる。また、ユーザが、キーボードを用いる代わりに、ポインティングデバイスを用いていわゆる手書き入力することも考えられるが、これも操作が煩雑である。
上記問題を解決するために、例えばフランスのトムソン社から、数字及び文字入力機能を持つリモートコントローラが製品化されている(Gyration Media Center Remotes)。
特開2001−56743号公報
しかしながら、上記トムソン社の製品では、ユーザが文字を入力するときのボタンを押す力によって、リモートコントローラが動き、その動きに伴って、画面上のポインタも動いてしまう。これを防止するために、押されているときのみポインタが動くようにするためのボタンがそのリモートコントローラに設けられ、そのボタンをユーザが押したままの状態にすることで、そのリモートコントローラを操作してポインタを動かすことができる。しかし、ユーザがボタンを押しながらリモートコントローラを動してポインタを動かすといった操作は、ユーザにとって煩雑に感じられる。
以上のような事情に鑑み、本発明の目的は、ユーザが、所定の操作形態でハンドヘルド型情報処理装置を操作するときの操作性を向上させることができる、ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法を提供することにある。
上記目的を達成するため、本発明の一形態に係るハンドヘルド型情報処理装置は、本体と、出力手段と、検出手段と、制御手段とを具備する。
前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する。前記検出手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。
すなわち、第1及び第2の操作形態の切り替えの検出に応じて、UIを移動させるための移動コマンドが出力されるか、非相関処理が実行されるかが自動的に切り替えられる。したがって、ユーザにより本体の操作形態が変えられるときに、ユーザが、その操作性に不便さ、あるいは煩雑さを感じることはない。
操作形態の切り替えとは、ユーザが意図してその本体への入力操作の仕方を切り替えることである。
前記本体は、前記ユーザにより操作される操作キーと、前記操作キーを収納する収納機構とを有していてもよい。前記検出手段は、前記操作キーが前記収納機構により収納される形態を前記第1の操作形態として、前記操作キーが前記収納機構により収納されずに露出する形態を前記第2の操作形態として、前記切り替えを検出してもよい。
ポインティング操作時には収納機構により収納されていた操作キーが、第2の操作形態での操作時に露出し、この第2の操作形態では非相関処理が実行される。これにより、操作キーによる操作時には、本体の動きに応じたUIの動きが起こらないので、ユーザの操作感が向上する。また、ポインティング操作時に、操作キーが露出している場合は、操作キーの誤操作、例えばユーザが意図しないで操作キーを押してしまうことがあり得るが、本発明の形態では、そのことを防止することができる。
前記本体は、スイッチを有し、前記制御手段は、前記第2の操作形態で前記本体が操作され前記非相関処理を実行している途中に、前記ユーザにより前記スイッチによる入力操作があった場合、前記非相関処理を停止し、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させてもよい。
ユーザがスイッチを操作することで、前記第2の操作形態で操作キーが露出している場合であっても、ユーザはUIを移動させることが可能となる。
前記本体は、第1のボディと、第2のボディと、前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構とを有していてもよい。前記検出手段は、前記第1のボディ及び前記第2のボディが第1の相対位置にある状態を前記第1の操作形態として、前記第1のボディ及び前記第2のボディが第1の相対位置とは異なる第2の相対位置にある状態を前記第2の操作形態として、前記切り替えを検出してもよい。
前記本体は、タッチパネル画面を表示可能なタッチパネル型のディスプレイを有していてもよい。前記検出手段は、前記タッチパネル画面を介してユーザがタッチ操作が可能な形態を前記第2の操作形態とし、前記タッチ操作が解除された形態を前記第1の操作形態として、前記切り替えを検出してもよい。すなわち、タッチ操作が可能か否かに応じて、UIの移動のための処理と非相関処理とが切り替えられる。
前記本体は、前記ユーザにより、前記第1の操作形態では第1の姿勢で操作され、前記第2の操作形態では前記第1の姿勢とは異なる第2の姿勢で操作されてもよい。すなわち、第1の操作形態と第2の操作形態では、ユーザによる本体の持ち方が異なる。
前記出力手段は、前記本体の加速度を検出する加速度センサを有していてもよい。前記検出手段は、前記加速度センサにより検出された重力加速度の変化に応じて前記切り替えを検出してもよい。
前記出力手段は、第1の検出軸及び第2の検出軸を有するセンサを有し、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させる。また、前記出力手段は、前記第1の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを、前記移動コマンドとして出力してもよい。
前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させる。jまた、前記制御手段は、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させ、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させてもよい。
例えば、第1の操作形態から第2の操作形態への切り替えが検出され、その本体の姿勢が変わる場合、その姿勢変化に応じて第2の検出軸が、第1の方向に対応するように設定される。このように、第1及び第2の操作形態の切り替えに応じて自動的に検出軸が変わるので、いずれの操作形態であってもポインティング操作が可能となる。この場合、制御手段は、第2の操作形態で本体が操作される場合、第2の方向の本体の動きを第1の検出軸で検出させ、第1の検出軸で検出された本体の動きに応じた第2の移動コマンドを出力手段により出力させてもよい。
あるいは、次のように、第1及び第2の検出軸の両方向とは異なる第3の検出軸を含むセンサが用いられてもよい。前記センサは、第3の検出軸を有する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第2及び前記第3の検出軸で検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させてもよい。
前記本体は、第1のボディと、第2のボディと、前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構とを有していてもよい。すなわち、少なくとも2つのボディを有する本体に上記各発明を適用することができる。
前記接続機構は、前記第1のボディに対して前記第2のボディを開閉するための、前記第1の検出軸に沿うヒンジ軸を有していてもよい。
前記接続機構は、前記第1のボディに対して前記第2のボディを、前記第1の検出軸に沿う方向にスライドさせるスライド機構を有してていもよい。
前記接続機構は、前記第2の検出軸に沿う方向の回転軸を有した、前記第1のボディに対して前記第2のボディを前記回転軸で回転させる回転機構を有していてもよい。
本発明の他の形態に係るハンドヘルド型情報処理装置は、本体と、出力手段と、検出手段と、制御手段とを具備する。
前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、第1の検出軸及び前記第2の検出軸を有するセンサを含み、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させ、前記第1の方向に対応する画面上での軸に沿ってUIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを出力する。前記検出手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記第1及び前記第2の検出軸でそれぞれ検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させて、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させる。
本発明の一形態に係る制御装置は、ハンドヘルド型情報処理装置から出力された、移動コマンド及び形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置であって、受信手段と、判定手段と、生成手段と、実行手段とを具備する。
前記ハンドヘルド型情報処理装置は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、前記本体の動きに応じた前記移動コマンドを出力する出力手段と、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である前記形態情報を出力する形態情報出力手段とを備える。
受信手段は、前記移動コマンド及び前記形態情報を受信する。前記判定手段は、前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する。前記生成手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する。前記実行手段は、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。
「〜であって、」という前提部分は、本発明の内容を明確化するために記載されたものであり、本発明者及び本出願人が当該前提部分について公知の技術を意識しているわけではない。
本発明の一形態に係る制御システムは、本体と、出力手段と、検出手段と、制御手段とを有するハンドヘルド型情報処理装置と、受信手段と、生成手段とを有する制御装置とを具備する。
前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する。前記検出手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。前記受信手段は、前記移動コマンドを受信する。前記生成手段は、前記受信された移動コマンドに基づき、前記画面上で前記UIを移動させるために、前記画面上での前記UIの座標情報を生成する。
本発明の他の形態に係る制御システムは、本体と、出力手段と、形態情報出力手段とを有するハンドヘルド型情報処理装置と、受信手段と、判定手段と、生成手段と、実行手段とを有する制御装置とを具備する。
前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、前記本体の動きに応じた移動コマンドを出力する。前記形態情報出力手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する。前記受信手段は、前記移動コマンド及び前記形態情報を受信する。前記判定手段は、前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する。前記生成手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する。前記実行手段は、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。
本発明の一形態に係る制御方法は、ハンドヘルド型情報処理装置により、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する。ハンドヘルド型情報処理装置により、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えが検出される。前記第1の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上で前記UIを移動させるために前記移動コマンドが出力される。前記第2の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理が実行される。
本発明の他の形態に係る制御方法は、ハンドヘルド型情報処理装置から出力された、移動コマンド及び形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置の制御方法であって、前記移動コマンド及び前記形態情報を受信する。前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかが判定される。前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報が生成される。前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理が実行される。
「〜であって、」という前提部分は、本発明の内容を明確化するために記載されたものであり、本発明者及び本出願人が当該前提部分について公知の技術を意識しているわけではない。
以上の説明において、「〜手段」と記載された要素は、ハードウェアで実現されてもよいし、ソフトウェア及びハードウェアの両方で実現されてもよい。ソフトウェア及びハードウェアの両方で実現される場合、そのハードウェアは、ソフトウェアのプログラムを格納する記憶デバイスを少なくとも含む。ハードウェアは、典型的には、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、NIC(Network Interface Card)、WNIC(Wireless NIC)、モデム、光ディスク、磁気ディスク、及び、フラッシュメモリのうち少なくとも1つが選択的に用いられることにより構成される。
以上のように、本発明によれば、ユーザが、ボタンまたはその他の機構を用いた所定の操作形態でハンドヘルド型情報処理装置を操作するときの操作性を向上させることができる。
以下、本発明の実施の形態を図面を参照しながら説明する。
図1は、本発明の一実施の形態に係る制御システムを示す図である。制御システム100は、表示装置5、制御装置40及びハンドヘルド型情報処理装置1を含む。ハンドへルド型情報処理装置を、以下、単に入力デバイスという。
図2(A)は、入力デバイス1を示す平面図であり、図2(B)は、その側面図である。この入力デバイス1は、例えば折りたたみ式のデバイスであり、図3は、入力デバイス1が開いた状態を示す平面図である。
入力デバイス1は、ユーザが持つことができる程度の大きさとされている。入力デバイス1は、本体10と、本体10の外面に設けられた操作部14とを備えている。操作部14は、例えば決定ボタン11、決定ボタン11に隣接するボタン12、ホイールボタン13、また後述する複数の操作キーを有する。決定ボタン11は、例えばPCで用いられる入力デバイスとしてのマウスの左ボタンの機能を有し、ボタン11に隣接するボタン12は右ボタンの機能を有していてもよい。また、ホイールボタン13は、主に、マウスのホイールボタンの機能を有するボタンとして用いられる。
例えば、ボタン11を長押して入力デバイス1を移動させることにより「ドラッグアンドドロップ」、ボタン11のダブルクリックによりファイルを開く操作、ホイールボタン13により画面3のスクロール操作が行われるようにしてもよい。ボタン11、12、ホイールボタン13の配置、発行されるコマンドの内容等は、適宜変更可能である。
入力デバイス1は、第1のボディ31、第2のボディ32、ボディ31及び32を開閉させるためのヒンジ軸を持つヒンジ部33を備える。図3に示すように、第1のボディ31及び第2のボディ32のそれぞれの内面には、複数の操作キー34が配置され、本体10が開いた状態では、これらの操作キー34が露出する。本体10が閉じられた状態では、操作キー34が隠れる。すなわち、本体10は、操作キー34を収納する収納機構を備えている。
各操作キー34は、典型的には、一般的に用いられる文字入力用のキーボードの機能及び配列を有するものであるが、その機能及び配列に限られない。これらの操作キー34は、主に、ユーザが、文字、数字、その他の記号等を制御装置40に入力するときに用いられる。
図4は、入力デバイス1の内部の構成を模式的に示す図である。図5は、入力デバイス1の電気的な構成を示すブロック図である。
入力デバイス1は、センサユニット17、切り替え検出器26、制御ユニット30、図示しないバッテリーを備えている。
図6(A)及び図6(B)は、センサユニット17を示す斜視図である。
図6(A)に示すように、センサユニット17は、互いに異なる角度、例えば直交する2軸(X軸及びY軸)に沿った加速度を検出する加速度センサユニット16を有する。すなわち、加速度センサユニット16は、X軸方向の加速度センサ161、及び、Y軸方向の加速度センサ162の2つセンサを含む。
また、センサユニット17は、図6(B)に示すように、その直交する2軸の周りの角加速度を検出する角速度センサユニット15を有する。すなわち、角速度センサユニット15は、ヨー方向の角速度センサ151、及び、ピッチ方向の角速度センサ152の2つのセンサを含む。
これらの加速度センサユニット16及び角速度センサユニット15はパッケージングされ、回路基板25上の第1の面及びそれとは反対側の第2の面に搭載されている。このように、回路基板25の第1の面及び第2の面の両面に、加速度センサユニット16及び角速度センサユニット15がそれぞれ配置されることで、回路基板25の主面の面積を小さくすることができる。したがって、センサユニット17の小型化を実現することができる。これにより、センサユニット17が本体10に組み込まれやすくなる。特に、折りたたみタイプの入力デバイス1のように、各操作キー34が収納されるタイプのデバイスは、第1のボディ31及び第2のボディ32の厚さを薄く設計する必要がある。したがって、本実施の形態に係るセンサユニット17は有用である。
ヨー及びピッチの角速度センサ151、152としては、角速度に比例したコリオリ力を検出する振動型のジャイロセンサが用いられる。X軸及びY軸の加速度センサ161、162としては、ピエゾ抵抗型、圧電型、静電容量型等、どのようなタイプのセンサであってもよい。角速度センサ151または152としては、振動型ジャイロセンサに限られず、回転コマジャイロセンサ、レーザリングジャイロセンサ、あるいはガスレートジャイロセンサ等が用いられてもよい。
図2〜図4の説明では、便宜上、本体10の長手方向をZ’方向とし、第1のボディ31及び第2のボディ32が並ぶ方向(厚さ方向)をX’方向とする。また、本体10の幅方向をY’方向とする。この場合、上記センサユニット17は、回路基板25の、加速度センサユニット16及び角速度センサユニット15を搭載する面がX’−Y’平面に実質的に平行となるように、本体10に内蔵される。これにより、上記したように、両センサユニット16、15はX’軸及びY’軸の2軸に関する物理量を検出する。また、センサユニット17は、X’軸方向の加速度センサ161が検出する加速度の向きであるX’軸方向が、ヒンジ部33のヒンジ軸に沿うように配置される。
説明の便宜上、以降では、入力デバイス1とともに動く座標系、つまり、入力デバイス1に固定された座標系をX’軸、Y’軸、Z’軸で表す。また、静止した地球上の座標系、つまり慣性座標系をX軸、Y軸、Z軸で表す。また、入力デバイス1の動きに関し、X’軸の周りの回転の方向をピッチ方向、Y’軸の周りの回転の方向をヨー方向といい、Z’軸(ロール軸)方向の周りの回転の方向をロール方向という場合もある。
切り替え検出器26は、入力デバイス1の一の操作形態及び他の操作形態の切り替えを検出する。つまり、切り替え検出器26は、入力デバイス1の本体10が閉じた状態と開いた状態との切り替えを検出する。切り替え検出器26として、メカニカルセンサ、磁気センサ、光センサ、圧力センサ等、公知のものが用いられればよい。
制御ユニット30は、メイン基板18、メイン基板18上にマウントされたMPU19(あるいはCPU)、水晶発振器20、送信機21、メイン基板18上にプリントされたアンテナ22を含む。
MPU19は、必要な揮発性及び不揮発性メモリを内蔵している。MPU19には、センサユニット17による検出信号、操作部14、操作キー34による操作信号等が入力される。MPU19は、これらの入力信号に応じた所定の制御信号を生成するため、各種の演算処理等を行う。上記メモリは、MPU19とは別体で設けられていてもよい。MPU19に限られず、DSP、FPGA、ASIC等が用いられてもよい。
典型的には、センサユニット17はアナログ信号を出力するものである。この場合、MPU19は、A/D(Analog/Digital)コンバータを含む。しかし、センサユニット17がA/Dコンバータを含むユニットであってもよい。
送信機21は、MPU19で生成された制御信号(入力情報または所定のコマンド)を、例えばRF無線信号として、アンテナ22を介して制御装置40に送信する。
水晶発振器20は、クロックを生成し、これをMPU19に供給する。
制御装置40はコンピュータであり、MPU35(あるいはCPU)、RAM36、ROM37、表示制御部42、ビデオRAM41、アンテナ39及び受信機38等を含む。
受信機38は、入力デバイス1から送信された制御信号を、アンテナ39を介して受信する。MPU35は、その制御信号を解析し、各種の演算処理を行う。表示制御部42は、MPU35の制御に応じて、主に、表示装置5の画面3上に表示するための画面データを生成する。ビデオRAM41は、表示制御部42の作業領域となり、生成された画面データを一時的に格納する。
制御装置40は、入力デバイス1に専用の機器であってもよいが、PC等であってもよい。制御装置40は、PCに限られず、表示装置5と一体となったコンピュータであってもよいし、オーディオ/ビジュアル機器、プロジェクタ、ゲーム機器、またはカーナビゲーション機器等であってもよい。
表示装置5は、例えば液晶ディスプレイ、EL(Electro-Luminescence)ディスプレイ等が挙げられるが、これらに限られない。あるいは、表示装置5は、テレビジョン放送等を受信できるディスプレイと一体となった装置でもよい。
図7は、表示装置5に表示される画面3の例を示す図である。画面3上には、アイコン4やポインタ2等のUIが表示されている。アイコンとは、コンピュータ上のプログラムの機能、実行コマンド、またはファイルの内容等が画面3上で画像化されたものである。なお、画面3上の水平方向をX軸方向とし、垂直方向をY軸方向とする。以降の説明の理解を容易にするため、特に明示がない限り、入力デバイス1で操作される対象となるUIがポインタ2(いわゆるカーソル)であるとして説明する。
図8(A)、(B)は、ユーザが入力デバイス1を握った様子を示す図である。入力デバイス1は、上記ボタン11、12、13のほか、例えばテレビ等を操作するリモートコントローラに設けられるような、図示しない各種の操作ボタンや電源スイッチ等の操作部を備えていてもよい。このようにユーザが入力デバイス1を握った状態で、入力デバイス1を空中で移動させ、あるいは操作部14を操作することにより、その入力情報が制御装置40に出力され、制御装置40によりUIが制御される。
次に、入力デバイス1の動かし方及びこれによる画面3上のポインタ2の動きの典型的な例を説明する。
図8(A)、(B)に示すように、ユーザは、入力デバイス1のボタン11、12が配置されている側を鉛直上向きなるように握る。今、鉛直上向は、Y軸方向に相当する。この状態で、センサユニット17の回路基板25(図6参照)は、表示装置5の画面3に対して平行に近くなり、センサユニット17の検出軸である2軸が、画面3上の水平軸(X軸)及び垂直軸(Y軸)に対応するようになる。以下、このような図8(A)、(B)に示す入力デバイス1の姿勢を基本姿勢という。
図8(A)に示すように、基本姿勢の状態で、ユーザが手首や腕を左右方向、つまりヨー方向に振る。このとき、X’軸方向の加速度センサ161は、X’軸方向の加速度axを検出し、ヨー方向の角速度センサ151は、Y’軸の周りの角速度ωψを検出する。これらの検出値に基き、制御装置40は、ポインタ2がX軸方向に移動するようにそのポインタ2の表示を制御する。
一方、図8(B)に示すように、基本姿勢の状態で、ユーザが手首や腕を上下方向、つまりピッチ方向に振る。このとき、Y’軸方向の加速度センサ162は、Y’軸方向の加速度ayを検出し、ピッチ方向の角速度センサ152は、X’軸の周りの角速度ωθを検出する。これらの検出値に基き、制御装置40は、ポインタ2がY軸方向に移動するようにそのポインタ2の表示を制御する。
入力装置1のMPU19は、所定の第1のクロックごとに取得する加速度値及び角速度値に基づき、典型的には、その第1のクロックごとにX軸方向の速度値及びY軸方向の速度値を算出し、これらを出力する。MPU19は、速度値の計算の方法によっては、第1のクロックよりも遅い第2のクロックごとにX軸及びY軸方向のそれぞれ速度値を出力する場合もある。
制御装置40は、入力装置1の単位時間当りのヨー方向の変位を、画面3上のX軸上でのポインタ2の変位量に変換し、単位時間当りのピッチ方向の変位を、画面3上のY軸上でのポインタ2の変位量に変換することにより、ポインタ2を移動させる。典型的には、制御装置40のMPU19は、上記第1または第2のクロック数ごとに供給されてくる速度値について、(n−1)回目に供給された速度値に、n回目に供給された速度値を加算する。これにより、当該n回目に供給された速度値が、ポインタ2の変位量に相当し、ポインタ2の画面3上の座標情報が生成される。この場合、主として制御装置40のMPU19が、座標情報生成手段として機能する。
次に、以上のように構成された制御システム100の基本的な動作を説明する。図9は、その動作を示すフローチャートである。
入力デバイス1に電源が投入される。例えば、ユーザが入力デバイス1または制御装置40に設けられた電源スイッチ等を入れることにより、入力デバイス1に電源が投入される。電源が投入されると、角速度センサユニット15から2軸の角速度信号が出力される。MPU19は、この2軸の角速度信号による第1の角速度値ωψ及び第2の角速度値ωθを取得する(ステップ101)。
また、入力デバイス1に電源が投入されると、加速度センサユニット16から2軸の加速度信号が出力される。MPU19は、この2軸の加速度信号による第1の加速度値ax及び第2の加速度値ayを取得する(ステップ102)。この加速度値の信号は、電源が投入された時点での入力デバイス1の姿勢に対応する信号である。
なお、MPU19は、典型的にはステップ101及び102を所定のクロック周期ごとに同期して行う。
MPU19は、加速度値(ax、ay)及び角速度値(ωψ、ωθ)に基いて、所定の演算により速度値(第1の速度値Vx、第2の速度値Vy)を算出する(ステップ103)。第1の速度値VxはX軸に沿う方向の速度値であり、第2の速度値VyはY軸に沿う方向の速度値である。この速度値の算出方法については、後に詳述する。この点において、例えばMPU19及びセンサユニット17(あるいはこれらにさらに送信機21を加えたもの)は、ポインタ2を画面3上で移動させるための移動コマンドを出力する出力手段として機能する。
このように、本実施の形態では、加速度値(ax、ay)が単純に積分されて速度値(Vx、Vy)が算出されるのではなく、加速度値(ax、ay)及び角速度値(ωψ、ωθ)に基き、速度値が(Vx、Vy)される。これにより、後述するように、ユーザの直感に合致した入力デバイス1の操作感が得られ、また、画面3上のポインタ2の動きも入力デバイス1の動きに正確に合致する。しかしながら、必ずしも加速度値(ax、ay)及び角速度値(ωψ、ωθ)に基き速度値(Vx、Vy)が得られなくてもよく、例えば加速度値(ax、ay)が単純に積分されて速度値(Vx、Vy)が算出されてもよい。
MPU19は、求められた速度値(Vx、Vy)を含む情報を、移動コマンドとして送信機21及びアンテナ22を介して制御装置40に送信する(ステップ104)。
制御装置40のMPU35は、アンテナ39及び受信機38を介して、速度値(Vx、Vy)の情報を受信する(ステップ105)。入力デバイス1は、所定のクロックごとに、つまり単位時間ごとに速度値(Vx、Vy)を送信するので、制御装置40は、これを受信し、単位時間ごとのX軸及びY軸方向の変位量を取得することができる。
MPU35は、下の式(1)、(2)より、取得した単位時間当りのX軸及びY軸方向の変位量に応じた、ポインタ2の画面3上における座標値(X(t)、Y(t))(座標情報)を生成する(ステップ106)(生成手段)。この座標値の生成により、MPU35は、ポインタ2が画面3上で移動するように表示を制御する(ステップ107)。
X(t) =X(t-1)+Vx・・・(1)
Y(t) =Y(t-1)+Vy・・・(2)。
図9では、入力デバイス1が主要な演算を行って速度値(Vx、Vy)を算出していた。図10に示す実施の形態では、制御装置40が主要な演算を行う。
図10に示すように、ステップ201及び202は、ステップ101及び102と同様の処理である。入力デバイス1が、例えばセンサユニット17から出力された2軸の加速度値及び2軸の角速度値である検出値の情報を制御装置40に送信する(ステップ203)。制御装置40のMPU35は、この検出値の情報を受信し(ステップ204)、ステップ103、106及び107と同様の処理を実行する(ステップ205〜207)。
次に、ユーザが入力デバイス1の本体10の開閉するときの、入力デバイス1の動作を説明する。図11は、その動作を示すフローチャートである。
切り替え検出器26により本体10が開いた状態が検出されたか否かを、MPU19が判定する(ステップ301)。本体10が開いた状態が検出された場合、MPU19は、図9に示したステップ104の移動コマンドの送信(速度値(Vx、Vy)の送信)を停止する(ステップ302)。これにより、画面3上のポインタ2の動きが停止される。このように移動コマンドの送信が停止される場合、ステップ302では、ステップ102における速度値の算出も停止されてもよい。
本体10が開いた状態が切り替え検出器26により検出されない場合、つまり、本体10が閉じられた状態では、MPU19は、図9に示したステップ101〜104を実行する(ステップ303)。すなわち、移動コマンドが送信され、制御装置40は、図9に示したステップ105〜107を実行することで、ポインタ2が画面3上で移動する。
移動コマンドの送信が停止されると(ステップ302)、MPU19は、本体10が閉じられた状態が切り替え検出器26により検出されたか否かを判定する(ステップ304)。本体10が閉じられた場合、ステップ303に戻る。
本体10が閉じられた状態が切り替え検出器26により検出されない場合、つまり、本体10が開いた状態において、MPU19は、ユーザにより操作キー34を介して入力操作されたか否かを判定する(ステップ305)。
ユーザにより操作キー34を介して入力操作された場合、MPU19は、その操作キー34の入力操作に応じたコマンドを生成し(ステップ306)、必要に応じてこれを制御装置40に送信する。ここでは、例えばユーザは、文字、数字、その他の記号を、各操作キー34を介して入力デバイス1に入力する。制御装置40は、そのコマンドを受信し、そのコマンドに応じた、文字入力等の所定の処理を実行する。操作キー34による入力操作は、文字、数字、その他の記号の入力操作に限られず、制御装置40または入力デバイス1が備える様々なプログラムを実行するときの入力操作であってもよい。
ステップ305で操作キー34による入力操作がない場合は、ステップ304に戻る。
このように、本体10が開いたときに操作される操作形態と、本体10が閉じたときに操作される操作形態とでは、本体10の姿勢が異なり、また、ユーザはその本体10の持ち方が異なる。本実施の形態では、本体10が開いた状態のとき、移動コマンドの送信が停止されることにより、文字入力等の操作時の煩雑さがなくなり、操作性が向上する。また、ユーザがポインティング操作をする時には、本体10は折りたたまれて操作キー34が収納される。したがって、例えば、ポインティング操作時に操作キーが露出している場合は、操作キーの誤操作、例えばユーザが意図しないで操作キーを押してしまうことがあり得るが、本実施の形態では、そのことを防止することができる。
上記ステップ302では、MPU19は、移動コマンドの送信を停止する形態に限られない。MPU19は、画面3上でのポインタ2の状態を、本体10の動きに非相関な状態にするための非相関処理を実行すればよい。
非相関処理とは、移動コマンドの出力を停止するためのコマンドを出力する場合の他、次の各処理が挙げられる。
1)例えば、ポインタ2の画面上での移動量をゼロとするためのコマンドを出力する処理、
2)ポインタ2を非表示にするためのコマンドを出力する処理、
3)ポインタ2の画像を所定の画像に変更するためのコマンドを出力する処理、
4)ポインタ2の移動量が画面の大きさの範囲を十分に超えるほどのコマンドを出力する処理、
5)本体10の動きによらず、ポインタ2が、一定速度または決められた動きにより、例えば画面3の端部(または所定の座標位置)まで移動させる処理、
その他、様々な非相関処理が挙げられる。
図11に示した処理を主に制御装置40が実行してもよい。この場合、例えばステップ301で、本体10が開いた状態が検出された場合、入力デバイス1がその情報を、操作形態の情報である形態情報として制御装置40に送信する。制御装置40は、その形態情報を受信し、制御装置40のMPU35は、その形態情報に基づき、本体10が現在どのような操作形態にあるか、つまり本体10が開いているか閉じられているかのいずれかを判定する。そして、MPU35は、本体10の操作形態がいずれであるかに基づいて、移動コマンドに応じてポインタの座標情報を生成するか、非相関処理を実行するかのうち、いずれか一方を実行する。その場合の非相関処理としては、上述した2)〜5)のうちいずれか少なくとも1つである。また、ステップ304においても、入力デバイス1が同様に形態情報を制御装置40に送信すればよい。
図12は、本発明の他の実施の形態に係る入力デバイスの電気的な構成を示すブロック図である。これ以降の説明では、図2及び図3で示した入力デバイス1が含む、回路、部材、機能等について同様のものは説明を簡略化または省略し、異なる点を中心に説明する。
この入力デバイス101は、ユーザによりON/OFF操作される操作スイッチ27を備えている。操作スイッチ27は、例えば、ユーザが本体10を開いている状態において上記非相関処理が実行されている途中で、非相関処理を停止させ、ポインタ2の移動処理を復帰させるためのスイッチである。
入力デバイス101の外観は、図2及び図3で示した入力デバイス1と同様のものでよい。操作スイッチ27は、典型的には、上記実施の形態に係る入力デバイス1の本体10の内面に設けられているが、本体10の外面に設けられていてもよい。操作スイッチ27は、複数の操作キー34のうち1つにより、または、それらの2つ以上の組合せにより構成されていてもよいし、スライドスイッチやロータリスイッチ等のディップスイッチであってもよい。
図13は、入力デバイス101の動作を示すフローチャートである。
ステップ401〜404は、図11におけるステップ301〜304と同様の処理である。
ステップ405において、MPU19は、ユーザの操作により操作スイッチ27がONとされた否かを判定する(ステップ405)。操作スイッチ27がONとされていない場合、MPU19は、図11におけるステップ305及び306と同様の処理を実行する(ステップ406及び407)。
操作スイッチ27がONとされた場合、MPU19は、ステップ403と同様に図9におけるステップ101〜104の処理を実行する(ステップ408)。すなわち、MPU19は、本体10が開いた状態でも、ポインタ2を移動させるために移動コマンドを送信する。この場合、本体10が開いた状態で、ユーザは、センサユニット17の各検出軸と、ポインタ2の画面上での座標軸とが対応するように、本体10を握って操作すればよい。また、本体10が開いている状態において、ユーザにより操作キー34による入力操作があった場合(ステップ409のYES)、MPU19は、その入力操作に応じたコマンドを生成し(ステップ410)、必要に応じてこれを送信する。
そして、操作スイッチ27がOFFとされた場合(ステップ411のYES)、ステップ406に戻る。
このように本体10を開いている途中であっても、ユーザが操作スイッチ27をONとすることで、ポインティング操作が可能となり、利便性が向上する。
図13に示した処理を主に制御装置40が実行してもよい。この場合、例えばステップ402における上記非相関処理を制御装置40が実行すればよい。この場合、ステップ401、404において、入力デバイス101が形態情報を制御装置40に送信すればよい。また、ステップ405、411において、入力デバイス101の操作スイッチのON/OFFの情報を制御装置40に送信し、制御装置40は、これを受信して、その情報に基づき、ポインタ2の座標生成及び非相関処理のうちいずれか一方を実行すればよい。
図12及び図13で示した実施形態に係る入力デバイス101では、上記したように、ユーザが、センサユニット17の各検出軸とポインタ2の画面上での座標軸とが対応するように、本体10を握って操作する場合について説明した。しかし、次に説明するように、ソフトウェアにより検出軸がシフトされる実施形態もある。
図14は、他の実施の形態に係るセンサユニットを示す斜視図である。図15は、このセンサユニット117を備える入力デバイス201の電気的な構成を示すブロック図である。
図14に示したセンサユニット117と、上記センサユニット17と異なる点は、加速度センサユニット116が3軸の加速度センサを有する点、及び、角速度センサユニット115が3軸の角速度センサを有する点である。すなわち、加速度センサユニット116は、上記加速度センサユニット16にはない、Z’軸方向の加速度を検出する加速度センサを有している。また、角速度センサユニット115は、上記角速度センサユニット15にはない、Z’軸周りであるロール方向の角速度を検出する角速度センサを有している。なお図6(A)及び(B)と同様に、回路基板25の、加速度センサユニット116が搭載される面とは反対側の面に、角速度センサユニット115が搭載されている。
図15に示すように、入力デバイス201は、このセンサユニット117と、図12において説明した操作スイッチ27を備えている。このセンサユニット117を搭載した入力デバイス201の外観は、図2及び図3で示した入力デバイス1と同様のものでよい。
図17は、入力デバイス201の本体10を閉じた状態でポインティング操作される場合の、センサユニット117及び表示装置5の画面3の姿勢の関係を示す図である。この場合、Y軸方向が鉛直上向き方向とされ、画面3に対するセンサユニット117の関係は、図6(A)及び(B)で示した姿勢になる。
図18は、入力デバイス201の本体10が開いた状態でポインティング操作される場合の、センサユニット117及び表示装置5の画面3の姿勢の関係を示す図である。図17に示したセンサユニット117の姿勢におけるX’軸及びZ’軸が、図18に示したセンサユニット117の姿勢におけるZ’軸及びX’軸にそれぞれ対応するようになる。Y’軸は、図17及び図18で変わらない。すなわち、図18ではZ’軸及びY’軸が、画面3上でのX軸及びY軸(図6参照)に対応するようになる。
図16は、この入力デバイス201の、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。
ステップ501〜507は、図13に示したステップ401〜407と同様の処理である。
ステップ505において操作スイッチ27がONとされた場合、MPU19は、センサユニット117の検出軸をシフトさせる(ステップ508)。つまり、本体10が閉じられている操作形態では、加速度センサユニット116によるX軸方向の加速度の検出には、X’軸方向の加速度センサが用いられたが、本体10が開いた操作形態では、その検出には、Z’軸方向の加速度センサが用いられる。また、本体10が閉じられている操作形態では、角速度センサユニット115によるX軸周りピッチ方向の角速度の検出には、X’軸周りの角速度センサが用いられたが、本体10が開いた操作形態では、その検出にはZ’軸周りの角速度センサが用いられる。このように検出軸がシフトされることにより、ユーザは、図17(B)に示したように本体10を開いた状態で、本体10の姿勢をほとんど意識することなくポインティング操作をすることができる(ステップ509)。
ステップ509〜512は、図13に示したステップ409〜411と同様の処理である。ステップ509では、Z’軸及びY’軸を検出軸として、図9に示すステップ101〜104の処理が実行される。すなわち、Z’軸周りの角速度がピッチ方向の角速度とされ、Z’軸方向の加速度が画面3上での左右方向の加速度として処理される。
ステップ513において、MPU19は、図17(A)に示したように本体10が閉じられた状態が検出された場合(ステップ513のYES)、センサユニット117の検出軸を元に戻すようにシフトさせる(ステップ514)。その後、ステップ503に戻る。
図16に示した処理を主に制御装置40が実行してもよい。この場合、ステップ501、504、513において、入力デバイス201が形態情報を制御装置40に送信すればよい。また、ステップ505、512において、入力デバイス201の操作スイッチのON/OFFの情報を制御装置40に送信すればよい。
図18(A)は、本発明の他の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。図18(B)は、その入力デバイスの他の操作形態を示す平面図である。
入力デバイス251は、典型的には、TV、その他のAV(Audio Visual)機器のリモートコントローラに用いられる。入力デバイス251の電気的な構成は、例えば図5または図12に示したものでよい。
入力デバイス251は、操作部114を有する本体210を備える。本体210の第1のボディ231及び第2のボディ232は、ヒンジ部233(図18(A)参照)により開閉可能に接続されている。操作部114のうち、本体10の外面に設けられた操作部114は、決定ボタン111、その他各種のボタン112、113、119、120を含む。ボタン119は、音量調整ボタンであり、ボタン120はTVの放送波のチャンネル選択ボタンである。
図18(B)に示すように、操作部114のうち本体10の内面に設けられた操作部114は、複数の操作キー134を含む。操作キー134は、図18(A)に示したような、本体10の外面に設けられた各種のボタン111〜113、119、120に比べ、使用頻度が低い操作キーである。複数の操作キー134には、典型的には、録画再生機器を操作するための操作キーが含まれる。
第1のボディ231に内蔵されたセンサユニット17は、図2、図3、図6等に示したセンサユニット17と同じものでよい。センサユニット17は、図2及び図3で示した入力デバイス1と同様な配置で、本体210内に配置されている。すなわち、図8で説明したように、ユーザが入力デバイス251を基本姿勢で握ったときに、加速度センサユニット16のX’−Y’軸の検出面が、実質的に画面3に沿うように、センサユニット17が本体210内に配置されている。また、センサユニット17の、X’軸方向の加速度センサ161が検出する加速度の向きであるX’軸方向に、ヒンジ部233のヒンジ軸が沿うように、センサユニット17は本体210内に配置されている。
ユーザは、このように構成された入力デバイス251を用いて、TV(またはその他のAV機器)、PC等に、ポインティング操作及びその他各種の入力操作を行うことができる。入力デバイス251は、例えば図11または図13に示した処理を実行することができる。
図19(A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。図19(B)は、その入力デバイスの他の操作形態を示す平面図である。
入力デバイス301は、図18で示した入力デバイス251と同様、典型的には、TV、その他のAV(Audio Visual)機器、PCのリモートコントローラに用いられる。入力デバイス301の電気的な構成は、例えば図5、図12及び図15に示した構成のうちいずれか1つのものでよい。
本体310は、各種のボタン311〜313、316、315を含む操作部314を外面に有しており、また、内面に複数の操作キー334を有する。複数の操作キー334は、典型的には文字入力用のキーボードの配列及び機能を有するが、その配列及び機能に限られない。図19(B)に示すように、本体310は、スライド式で第1のボディ331及び第2のボディ332が開閉するように構成され、その開閉操作により、複数の操作キーが露出したり収納されたりする。
本体310には、上述のセンサユニット17または117が内蔵されている。また、X’軸方向の加速度センサ161が検出する加速度の向きであるX’軸方向に、第1のボディ331及び第2のボディ332が相対的にスライドするように、センサユニット17または117は本体310内に配置されている。
このように構成された入力デバイス301は、図11、図13及び図16で示したフローチャートのうちいずれか1つの処理を実行することができる。
図20(A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。図20(B)は、その入力デバイスの他の操作形態を示す平面図である。
入力デバイス401は、図18及び図19で示した入力デバイス251及び301と同様、典型的には、TV、その他のAV(Audio Visual)機器、PCのリモートコントローラに用いられる。
図21は、入力デバイス401の電気的な構成を示すブロック図である。入力デバイス401は、タッチパネル型のディスプレイ420を有する本体410を備える。ディスプレイ420は、ディスプレイ制御部423により制御される。また、本体410には、決定ボタン411、その他の各種のボタン413、415、416等を含む操作部414が設けられている。
ディスプレイ420は、典型的には、図20(B)に示すように、タッチパネル画面421として、文字入力用のキーボードの配列及び機能を有する操作キーを表示する。図20(B)に示す操作形態では、ユーザは、ディスプレイ420の長手方向を横向きにして操作する。
本体410には、上述のセンサユニット17が内蔵されている。ユーザが本体410を基本姿勢で握ったときに、X’及びY’軸方向の加速度の検出面が、実質的に画面3に沿うように、センサユニット17が本体410内に配置されている。
ディスプレイ420にタッチパネル画面421によるタッチ操作による入力操作が可能なタッチパネルモードを起動し、及び、そのタッチパネルモードを終了(解除)するためのトリガーとして、例えば以下の1)〜4)の手段が考えられる。
1)ユーザがディスプレイ420にタッチすることによりタッチパネルモードが起動する。また、タッチパネル画面421に表示される、終了するためのキーをユーザがタッチすることで、タッチパネルモードが終了する。あるいは、タッチパネルモードを終了するための、操作ボタンが本体410に設けられていてもよい。
2)操作部414のうちのいずれかに、タッチパネルモードのON/OFFを操作するためのボタンが設けられる。ユーザがそのスイッチをONとすると、タッチパネルモードが起動し、ユーザがそのスイッチをOFFとすると、タッチパネルモードが終了する。
3)ユーザが本体410を所定回数振ることにより、タッチパネルモードが起動し、または終了する。ユーザが本体410を振ると、加速度センサユニット16または116により、それに応じた加速度が検出されるので、MPU19はそのときタッチパネルモードを起動させ、または終了する。
4)図20(A)に示した本体410の姿勢から、図20(B)に示した本体410の姿勢になるように、ユーザが本体410を持ち変えたときに、タッチパネルモードが起動する。また、図20(B)に示した本体410の姿勢から、図20(A)に示した本体410の姿勢になるように、ユーザが本体410を持ち変えたときに、タッチパネルモードが終了する。これは、センサユニット17の、X’軸方向の加速度センサにより検出される重力方向がMPU19により監視されることで実現される。例えば、ポインティング操作ではなく、入力デバイス401が実質的に静止状態に近い状態で、図20(A)に示す操作形態でユーザが入力デバイス401を操作する場合、X’軸方向は、重力方向とは直交するので、X’軸方向の加速度は比較的小さい。これに対し、ポインティング操作ではなく、入力デバイス401が実質的に静止状態に近い状態で、図20(B)に示す操作形態でユーザが入力デバイス401を操作する場合、X’軸方向は重力方向と実質的に一致しする。したがって、入力デバイス401が実質的に静止状態に近い状態では、図20(B)に示す操作形態では、図20(B)に示す操作形態よりも、X’軸方向の加速度が大きくなる。これにより、操作形態の切り替えが検出可能となる。
上記1)〜4)の場合、少なくともMPU19、または、少なくともMPU19及びX’軸方向の加速度センサが、タッチパネルモードを起動及び終了のトリガーを検出する検出手段として機能する。
図22は、入力デバイス401の、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。
図22に示した処理と図11に示した処理とで主に異なる点は、ステップ601で、タッチパネルモードを起動させるか否かの判定が実行されること、及び、ステップ604で、タッチパネルモードを終了するか否かの判定が実行されることである。タッチパネル画面421によるユーザの入力操作があった場合(ステップ606のYES)、MPU19は、その入力操作に応じたコマンドを生成する(ステップ607)。
以上のようなタッチパネル型のディスプレイ420を備える入力デバイス401が、図152等で示した操作スイッチ27を備え、図13で示した処理と同様の処理を実行してもよい。あるいは、入力デバイス401が、図15等で示したセンサユニット117を備え、図16で示した処理と同様の処理を実行してもよい。
上述の4)で説明したように、X’軸方向の加速度の変化により、姿勢変化が検出され、この検出をトリガーとして操作形態が切り替えられる。このことは、上述した入力デバイス1(図2及び図3参照)、101、151、201、301(図19参照)にも適用可能である。
図22に示した処理を主に制御装置40が実行してもよい。この場合、ステップ601、604において、入力デバイス401が、現在タッチパネルモードの操作形態にあるか否かの形態情報を制御装置40に送信すればよい。
図23は、本発明のさらに別の実施の形態に係る入力デバイスを示す平面図である。
この入力デバイス451は、第1の面461及び第2の面462を有する本体460を備える。本体460の第1の面461には、決定ボタン471、その他のボタン472等が設けられている。本体460の第2の面462にも、各種のボタンまたは操作キー474が設けられている。また、本体460には、センサユニット17が内蔵されている。
センサユニット17は、図6に示したセンサユニット17と同様のものでよい。X’軸及びY’軸を含むX’−Y’検出面が、第1の面461及び第2の面462の両方に対して直交するように、センサユニット17は本体460内に配置されている。ユーザは、そのX’−Y’検出面が、画面3に実質的に沿うように、入力デバイス451の本体460を握ってポインティング操作する。
図24(A)は、一の操作形態でユーザにより入力デバイス451が操作される場合の、画面3に対するセンサユニット17の姿勢を示す図である。図24(B)は、他の操作形態でユーザにより入力デバイス451が操作される場合の、画面3に対するセンサユニット17の姿勢を示す図である。
24(B)は、図23に示した入力デバイス451の姿勢から、ユーザがZ軸を中心に本体460をほぼ90°回転させた状態を示している。本体460がこのように90°回転することで、ユーザは、例えば第2の面462を上に向けた状態で操作キー474を操作することができる。操作キー474等は、例えば文字、数字、その他の記号を入力するためのボタンであるが、これに限られない。
本体460の姿勢変化は、ユーザにより操作されるスイッチ、または、上記入力デバイス401における、4)で述べたようなY’軸での重力加速度の変化により検出されればよい。
このように、本体460が90°回転することで、X’軸及びY’軸の検出軸が互いに入れ替わる。つまり、図20(B)に示す姿勢では、X’軸方向が画面3上の上下方向(Y軸方向)に対応し、Y’軸方向が画面3上の左右方向(X軸方向)に対応するような移動コマンドが生成されればよい。
MPU19の処理としては、ユーザが上記スイッチを操作した場合、または、重力加速度の変化のうちいずれか一方により本体460の姿勢変化が検出された場合、MPU19は、移動コマンドの送信を停止し、センサユニット17の検出軸をシフトする。そして、例えば操作スイッチ27(図12及び図15等参照)がONとされた場合に、MPU19は、シフトされた後の検出軸を用いて本体460の加速度及び角速度を取得し、それらに基づき生成された移動コマンドを、制御装置40に送信すればよい。
以降では、図9のステップ103、図10のステップ205における速度値(Vx、Vy)の算出方法について説明する。図25は、その入力デバイス1(図10においては制御装置40)の動作を示すフローチャートである。図26は、この速度値の算出方法の基本的な考え方を説明するための図である。
図26では、入力デバイス1を例えば左右方向(ヨー方向)へ振って操作するユーザを上から見た図である。図26に示すように、ユーザが自然に入力デバイス1を操作する場合、手首の回転、肘の回転及び腕の付け根の回転のうち少なくとも1つによって操作する。したがって、入力デバイス1の動きと、この手首、肘及び腕の付け根の回転とを比較すると、以下に示す1.2.の関係があることが分かる。
1.入力デバイス1の加速度センサユニット16が配置された部分(以下、先端部)のY軸周りの角速度値ωψは、手首の回転による角速度、肘の回転による角速度、及び腕の付け根の回転による角速度の合成値である。
2.入力デバイス1の先端部のヨー方向の速度値Vxは、手首、肘、及び腕の付け根の角速度に、それぞれ、手首と先端部との距離、肘と先端部との距離、腕の付け根と先端部との距離を乗じた値の合成値である。
ここで、微小時間での入力デバイス1の回転運動について、入力デバイス1は、Y軸に平行であり、時間ごとに位置が変化する中心軸(第1の中心軸、または第2の中心軸)を中心に回転していると考えることができる。この時間ごとに位置が変化する中心軸と、入力デバイス1の先端部との距離を、Y軸周りの回転半径Rψ(t)(第1の回転半径、または第2の回転半径)とすると、入力デバイス1の先端部の速度値Vxと、角速度値ωψとの関係は、以下の式(3)で表される。すなわち、ヨー方向の速度値Vxは、Y軸周りの角速度値ωψに、中心軸と先端部との距離Rψ(t)を乗じた値となる。なお、本実施の形態では、センサユニット17の回路基板25上に、加速度センサユニット16及び角速度センサユニット15が一体的に配置されている。したがって、回転半径R(t)は中心軸からセンサユニット17までの距離となる。しかし、加速度センサユニット16と角速度センサユニット15とが、本体10内で離れて配置される場合には、上記したように、中心軸から加速度センサユニット16までの距離が回転半径R(t)となる。
Vx=Rψ(t)・ωψ・・・(3)。
式(3)に示すように、入力デバイス1の先端部の速度値と、角速度値との関係は、比例定数をR(t)とした比例関係、つまり、相関関係にある。
上記式(3)を変形して(4)式を得る。
ψ(t)=Vxψ・・・(4)。
式(4)の右辺は、速度のディメンジョンである。この式(4)の右辺に表されている速度値と角速度値とがそれぞれ微分され、加速度、あるいは加速度の時間変化率のディメンジョンとされても相関関係は失われない。同様に、速度値と角速度値とがそれぞれ積分され、変位のディメンジョンとされても相関関係は失われない。
したがって、式(4)の右辺に表されている速度及び角速度をそれぞれ変位、加速度、加速度の時間変化率のディメンジョンとして、以下の式(5)、(6)、(7)が得られる。
ψ(t)=x/ψ・・・(5)
ψ(t)=ax/Δωψ・・・(6)
ψ(t)=Δax/Δ(Δωψ)・・・(7)。
上記式(4)、(5)、(6)、(7)のうち、例えば式(6)に注目すると、加速度値axと、角速度値Δωψが既知であれば、回転半径Rψ(t)が求められることが分かる。上述のように、第1の加速度センサ161は、ヨー方向の加速度値axを検出し、第1の角速度センサ151は、Y軸の周りの角速度値ωψを検出する。したがって、Y軸周りの角速度値ωψが微分され、Y軸周りの角加速度値Δωψが算出されれば、Y軸周りの回転半径Rψ(t)が求められる。
Y軸周りの回転半径Rψ(t)が既知であれば、この回転半径Rψ(t)に、第1の角速度センサ151によって検出されたY軸の周りの角速度値ωψを乗じることで、入力デバイス1のX軸方向の速度値Vxが求められる(式(3)参照)。すなわち、ユーザの回転の操作量そのものがX軸方向の線速度値に変換され、ユーザの直感に合致した速度値となる。したがって、ポインタ2の動きが入力デバイス1の動きに対して自然な動きとなるため、ユーザによる入力デバイスの操作性が向上する。
この速度値の算出方法については、ユーザが入力デバイス1を上下方向(ピッチ方向)へ振って操作する場合にも適用することができる。
図25では、式(6)が用いられる例について説明する。図25を参照して、入力デバイス1のMPU19は、ステップ101で取得した角速度値(ωψ、ωθ)を微分演算することで、角加速度値(Δωψ、Δωθ)を算出する(ステップ701)。
MPU19は、ステップ102で取得した加速度値(ax、ay)と、角加速度値(Δωψ、Δωθ)とを用いて、式(6)、(8)により、それぞれY軸周り及びX軸周りの回転半径(Rψ(t)、Rθ(t))を算出する(ステップ702)。
ψ(t)=ax/Δωψ・・・(6)
θ(t)=ay/Δωθ・・・(8)。
回転半径が算出されれば、式(3)、(9)により、速度値(Vx、Vy)が算出される(ステップ703)。
Vx=Rψ(t)・ωψ・・・(3)
Vy=Rθ(t)・ωθ・・・(9)
このように、ユーザによる入力デバイス1の回転の操作量そのものがX軸及びY軸方向の線速度値に変換され、ユーザの直感に合致した速度値となる。
また、加速度センサユニット16で検出された加速度値(ax、ay)が、そのまま用いられることにより、計算量が少なくなり、入力デバイス1の消費電力を減らすことができる。
MPU19は、加速度センサユニット16から所定のクロックごとに(ax、ay)を取得し、例えば、それに同期するように速度値(Vx、Vy)を算出すればよい。あるいは、MPU19は、複数の加速度値(ax、ay)のサンプルごとに、速度値(Vx、Vy)を1回算出してもよい。
次に、図25と同様に、回転半径を利用して速度値(Vx、Vy)を算出する他の実施形態について説明する。図27は、その入力デバイス1の動作を示すフローチャートである。図27では、上記式(7)が用いられる例について説明する。
図27を参照して、入力デバイス1のMPU19は、取得した加速度値(ax、ay)の微分演算を行う。これにより、加速度の時間変化率(Δax、Δay)が算出される(ステップ801)。同様に、MPU19は、取得した角加速度値(ωψ、ωθ)の2階の微分演算を行うことで、角加速度の時間変化率(Δ(Δωψ))、Δ(Δωθ))を算出する(ステップ802)。
角速度の時間変化率が算出されると、MPU19は、Y軸周りの角加速度の時間変化率の絶対値|Δ(Δωθ)|が、閾値th1を超えるか否かを判定する(ステップ803)。上記|Δ(Δωθ)|が閾値th1を超える場合には、MPU19は、X軸方向の加速度の時間変化率Δaxを、Y軸周りの角速度の時間変化率Δ(Δωθ)で除することで、Y軸周りの回転半径Rψ(t)を算出する(ステップ804)。すなわち、X軸方向の加速度の時間変化率Δaxと、Y軸周りの角速度の時間変化率Δ(Δωθ)との比を回転半径Rψ(t)として算出する(式(7))。|Δ(Δωθ)|の閾値th1は適宜設定可能である。
この回転半径Rψ(t)の信号は、例えばローパスフィルタに通される(ステップ805)。ローパスフィルタで高周波数域のノイズが除去された回転半径Rψ(t)の情報はメモリに記憶される(ステップ806)。このメモリには、回転半径Rψ(t)の信号が所定のクロックごとに更新して記憶される。
入力デバイス1のMPU19は、この回転半径Rψ(t)に、Y軸周りの角速度値ωθを乗じることで、X軸方向の速度値Vxを算出する(ステップ808)。
一方で、MPU19は、上記|Δ(Δωθ)|が、閾値th1以下である場合には、メモリに記憶された回転半径Rψ(t)を読み出す(ステップ807)。この読み出された回転半径Rψ(t)に、Y軸周りの角速度値ωθを乗じることで、X軸方向の速度値Vxを算出する(ステップ808)。
上記ステップ801〜808の処理が行われる理由として、以下の2つの理由がある。
1つは、上記式(7)の回転半径Rψ(t)を求めて、ユーザの直感に合致した線速度を求めるためである。
2つ目は、この速度値(Vx、Vy)が算出される過程において、重力の影響を除去するためである。入力デバイス1が基本姿勢から、ロール方向またはピッチ方向に傾いた場合、重力の影響によって、入力デバイス1の実際の動きとは違った検出信号を出力してしまう。例えば入力デバイス1がピッチ方向に傾いた場合、加速度センサ162からそれぞれ重力加速度の成分値が出力される。したがって、この重力加速度の各成分値の影響を除去しない場合には、ポインタ2の動きがユーザの感覚にそぐわない動きとなってしまう。
図28は、加速度センサユニット16への重力の影響を説明するための図である。図28は、入力デバイス1をZ方向で見た図である。
図28(A)では、入力デバイス1が基本姿勢とされ、静止しているとする。このとき、第1の加速度センサ161の出力は実質的に0であり、第2の加速度センサ162の出力は、重力加速度G分の出力とされている。しかし、例えば図28(B)に示すように、入力デバイス1がロール方向に傾いた状態では、第1、第2の加速度センサ161、162は、重力加速度Gのそれぞれの傾き成分の加速度値を検出する。
この場合、特に、入力デバイス1が実際にX軸方向には動いていないにも関わらず、第1の加速度センサ161はX軸方向の加速度を検出することになる。この図28(B)に示す状態は、図28(C)のように入力デバイス1が基本姿勢にあるときに、加速度センサユニット16が破線の矢印で示すような慣性力Ix、Iyを受けた状態と等価であり、加速度センサユニット16にとって区別が付かない。その結果、加速度センサユニット16は、矢印で示すような左に斜め下方向の加速度が入力デバイス1に加わったと判断し、入力デバイス1の実際の動きとは違った検出信号を出力する。しかも、重力加速度Gは常に加速度センサユニット16に作用するため、加速度から速度を求めるための加速度の積分値は増大し、ポインタ2を斜め下方に変位させる量は加速度的に増大してしまう。図28(A)から図28(B)に状態が移行した場合、本来、画面3上のポインタ2が動かないようにすることが、ユーザの直感に合った操作と言える。
図29は、入力デバイス1がピッチ方向に振られたときにおける重力加速度の影響を説明するための図であり、入力デバイス1をX方向で見た図である。
例えば、図29(A)に示すような入力デバイス1の基本姿勢の状態から、図29(B)に示すような、入力デバイス1がピッチ方向で回転して傾いたとき、入力デバイス1が基本姿勢にあるときの第2の加速度センサ162が検出する重力加速度Gが減少する。図29(C)に示すように、入力デバイス1は、上のピッチ方向の慣性力Iと区別が付かない。
そこで、ユーザの操作による入力デバイス1の移動慣性成分(動きのみ)に着目した加速度値の時間変化率に比べ、その入力デバイス1の動きにより発生する重力加速度の成分値の時間変化率の方が小さいことを利用する。その重力加速度の成分値の時間変化率は、ユーザの操作による移動慣性成分値の時間変化率の1/10のオーダーである。加速度センサユニット16から出力される値は、その両者が合成された値である、すなわち、加速度センサユニット16から出力される信号は、ユーザの操作による移動慣性成分値の時間変化率に、重力加速度の成分値である低周波成分値が重畳された信号となる。
したがって、ステップ801では、加速度値が微分演算されることで、加速度の時間変化率が求められ、これにより、重力加速度の成分値の時間変化率が除去される。これにより、入力デバイス1の傾きによる重力加速度の分力の変化が生じる場合であっても、適切に回転半径を求めることができ、この回転半径から適切な速度値を算出することができる。
なお、上記低周波成分値には、重力加速度の成分値のほか、例えば加速度センサユニット16の温度ドリフト、あるいは、DCオフセット値が含まれる場合もある。
また、本実施の形態では、式(7)が用いられるので、ステップ802では、角速度値ωθが2階微分され、高周波数域のノイズがその角速度の演算値に乗ってしまう。この|Δ(Δωθ)|が大きい場合問題ないが、小さい場合S/Nが悪化する。S/Nの悪化した|Δ(Δωθ)|が、ステップ808でのRψ(t)の算出に用いられると、Rψ(t)や速度値Vxの精度が劣化する。
そこで、ステップ803では、ステップ802で算出されたY軸周りの角速度の時間変化率Δ(Δωθ)が利用される。Δ(Δωθ)が閾値th1以下の場合、以前にメモリに記憶されたノイズの少ない回転半径Rψ(t)が読み出され(ステップ807)、読み出された回転半径Rψ(t)がステップ808における速度値Vxの算出に用いられる。
ステップ809〜814では、以上のステップ803〜808までの処理と同様に、MPU19は、Y軸方向の速度値Vyを算出する。つまり、MPU19は、X軸周りの角速度の時間変化率の絶対値|Δ(Δωθ)|が、閾値th1を超えるか否かを判定し(ステップ809)、閾値th1を超える場合には、この角速度の時間変化率を用いてX軸周りの回転半径Rθ(t)を算出する(ステップ810)。
回転半径Rθ(t)の信号は、ローパスフィルタに通され(ステップ811)、メモリに記憶される(ステップ812)。閾値th1以下である場合には、メモリに記憶された回転半径Rθ(t)が読み出され(ステップ813)、この回転半径Rθ(t)に基いてピッチ方向の速度値Vyが算出される(ステップ814)。
なお、本実施の形態では、ヨー方向及びピッチ方向の両方向について閾値を同じ値th1としたが、両方向で異なる閾値が用いられてもよい。
ステップ803において、Δ(Δωθ)に代えて、角加速度値(Δωθ)が閾値に基き判定されてもよい。ステップ809についても同様に、Δ(Δωψ)に代えて、角加速度値(Δωψ)が閾値に基き判定されてもよい。図27に示したフローチャートでは、回転半径R(t)を算出するために式(7)が用いられたが、式(6)が用いられる場合、角加速度値(Δωψ、Δωθ)が算出されるので、角加速度値(Δωψ、Δωθ)が閾値に基き判定されてもよい。
本発明に係る実施の形態は、以上説明した実施の形態に限定されず、他の種々の実施形態が考えられる。
上記各実施の形態に係る入力デバイスは、無線で入力情報を制御装置に送信する形態を示したが、有線により入力情報が送信されてもよい。
上記各実施の形態では、入力デバイスの動きに応じて画面上で動くUIを、ポインタとして説明した。しかし、そのUIはポインタに限られず、キャラクタ画像、またはその他の画像であってもよい。
上記操作スイッチ27の代わりに、入力デバイス101、201、または制御装置40が、操作スイッチ27の機能と同様の機能を有する、GUIを用いたプログラムを備えてもよい。その場合、例えばユーザがそのGUIを利用してスイッチON/OFF操作すればよい。
センサユニット17の、角速度センサユニット15及び加速度センサユニット16の検出軸は、上述のX’軸及びY’軸のように必ずしも互いに直交していなくてもよい。その場合、三角関数を用いた計算によって、互いに直交する軸方向に投影されたそれぞれの加速度が得られる。また同様に、三角関数を用いた計算によって、互いに直交する軸の周りのそれぞれの角速度を得ることができる。
入力デバイス1、251、301の代わりに、第1のボディ及び第2のボディが、Y’軸方向を回転軸として相対的に回転する本体を備えた入力デバイスが用いられてもよい。この場合、典型的には、第1のボディ及び第2のボディのそれぞれの端部同士が、その回転軸を有する接続機構により接続される。このような実施形態では、第1及び第2のボディの相対的な回転角度が第1の回転角度にあるときの本体の操作形態が第1の操作形態に相当する。第1及び第2のボディが、第1の回転角度とは異なる第2の回転角度にあるときの本体の操作形態が第2の操作形態に相当する。
入力デバイス1(または、その他各実施の形態で示した入力デバイス101、201、251、301、401。以下、入力デバイス1等という。)が、例えば加速度センサユニット16または116を備え、角速度センサユニット15または115を備えない形態も考えられる。この場合、ステップ103で速度値(Vx、Vy)は、加速度センサユニット16により検出される加速度値(ax、ay)を積分演算することで求められる。ただし、この場合、Y及びX軸周りの角速度(ωψ、ωθ)は求めることができない。加速度センサユニット16の代わりに、イメージセンサにより加速度が算出されてもよい。
図25において、速度値(Vx、Vy)の算出方法が示された。これらの方法に限られず、MPU19は、角速度センサユニット15により検出される角速度値に応じた速度値(Vx、Vy)を算出してもよい。例えば、角速度値に応じた速度値とは、所定の演算式(角速度値と速度値との関数)により算出される速度値、または、ルックアップテーブルを用いてメモリから読み出される速度値である。この場合、加速度センサユニット16により得られる加速度値(ax、ay)は使われなくてもよい。
上記角速度センサユニット15の代わりとして、角度センサあるいは角加速度センサが用いられてもよい。角度センサとしては、地磁気センサまたはイメージセンサ等が挙げられる。例えば3軸地磁気センサが用いられる場合、角度値の変化量が検出されるので、その場合、角度値が微分演算されることで角速度値が得られる。角加速度センサは、複数の加速度センサの組み合わせにより構成され、角加速度センサにより得られる角加速度値が積分演算されることで、角速度値が得られる。これらのような実施形態の意味において、主にMPU19または35は、角度に関連する値としての角度関連値を出力する算出手段として機能する。
例えば、上記のように回転半径R(t)を算出する場合において、Y’軸及びX’軸周りの角加速度を検出する上記角加速度センサ、または角度を検出するセンサが用いられてもよい。この場合、角加速度センサにより検出された角加速度値が積分演算されることで角速度値(ωψ、ωθ)が求められる。あるいは、角度センサにより検出された角度値が微分演算されることで角速度値(ωψ、ωθ)が求められる。
本発明の一実施の形態に係る制御システムを示す図である。 (A)は、入力デバイスを示す平面図であり、(B)は、その側面図である。 入力デバイスが開いた状態を示す平面図である。 入力デバイスの内部の構成を模式的に示す図である。 入力デバイスの電気的な構成を示すブロック図である。 センサユニットを示す斜視図である。 表示装置に表示される画面の例を示す図である。 ユーザが入力デバイスを握った様子を示す図である。 制御システムの動作を示すフローチャートである。 制御装置が主要な演算を行う場合の、制御しシステムの動作を示すフローチャートである。 ユーザが入力デバイスの本体の開閉するときの、入力デバイスの動作を示すフローチャートである。 本発明の他の実施の形態に係る入力デバイスの電気的な構成を示すブロック図である。 図12に示した入力デバイスの動作を示すフローチャートである。 他の実施の形態に係るセンサユニットを示す斜視図である。 図14に示したセンサユニットを備える入力デバイスの電気的な構成を示すブロック図である。 図15に示した入力デバイスの、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。 センサユニットの検出軸がシフトする形態を説明するための図である。 (A)は、本発明の他の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。(B)は、その入力デバイスの他の操作形態を示す平面図である。 (A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。(B)は、その入力デバイスの他の操作形態を示す平面図である。 (A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。(B)は、その入力デバイスの他の操作形態を示す平面図である。 図20に示した入力デバイスの電気的な構成を示すブロック図である。 図20に示した入力デバイスの、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。 本発明のさらに別の実施の形態に係る入力デバイスを示す平面図である。 (A)は、一の操作形態でユーザにより図23に示した入力デバイスが操作される場合の、画面に対するセンサユニットの姿勢を示す図である。(B)は、他の操作形態でユーザによりその入力デバイスが操作される場合の、画面に対するセンサユニットの姿勢を示す図である。 速度値の算出方法の一実施の形態についての入力装置の動作を示すフローチャートである。 速度値の算出方法の基本的な考え方を説明するための図である。 回転半径を利用して速度値を算出する他の実施形態についての入力デバイスの動作を示すフローチャートである。 加速度センサユニットへの重力の影響を説明するための図である。 入力デバイスがピッチ方向に振られたときにおける重力加速度の影響を説明するための図であり、入力デバイスをX方向で見た図である。
符号の説明
1、101、201、251、301、401、451…入力デバイス(ハンドヘルド型情報処理装置)
2…ポインタ
3…画面
10、210、310、410、460…本体
14、114、314、414…操作部
17、117…センサユニット
19…MPU
26…切り替え検出器
27…操作スイッチ
30…制御ユニット
31、231、331…第1のボディ
32、232、332…第2のボディ
33、233…ヒンジ部
34、134、334、474…操作キー
40…制御装置
100…制御システム
420…ディスプレイ
421…タッチパネル画面

Claims (20)

  1. 第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
    前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する出力手段と、
    前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する検出手段と、
    前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する制御手段と
    を具備するハンドヘルド型情報処理装置。
  2. 請求項1に記載のハンドヘルド型情報処理装置であって、
    前記本体は、
    前記ユーザにより操作される操作キーと、
    前記操作キーを収納する収納機構とを有し、
    前記検出手段は、前記操作キーが前記収納機構により収納される形態を前記第1の操作形態として、前記操作キーが前記収納機構により収納されずに露出する形態を前記第2の操作形態として、前記切り替えを検出する
    ハンドヘルド型情報処理装置。
  3. 請求項2に記載のハンドヘルド型情報処理装置であって、
    前記本体は、スイッチを有し、
    前記制御手段は、前記第2の操作形態で前記本体が操作され前記非相関処理を実行している途中に、前記ユーザにより前記スイッチによる入力操作があった場合、前記非相関処理を停止し、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させる
    ハンドヘルド型情報処理装置。
  4. 請求項1に記載のハンドヘルド型情報処理装置であって、
    前記本体は、
    第1のボディと、
    第2のボディと、
    前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構とを有し、
    前記検出手段は、前記第1のボディ及び前記第2のボディが第1の相対位置にある状態を前記第1の操作形態として、前記第1のボディ及び前記第2のボディが第1の相対位置とは異なる第2の相対位置にある状態を前記第2の操作形態として、前記切り替えを検出するハンドヘルド型情報処理装置。
  5. 請求項1に記載のハンドヘルド型情報処理装置であって、
    前記本体は、タッチパネル画面を表示可能なタッチパネル型のディスプレイを有し、
    前記検出手段は、前記タッチパネル画面を介してユーザがタッチ操作が可能な形態を前記第2の操作形態とし、前記タッチ操作が解除された形態を前記第1の操作形態として、前記切り替えを検出する
  6. 請求項1に記載のハンドヘルド型情報処理装置であって、
    前記本体は、前記ユーザにより、前記第1の操作形態では第1の姿勢で操作され、前記第2の操作形態では前記第1の姿勢とは異なる第2の姿勢で操作される
    ハンドヘルド型情報処理装置。
  7. 請求項6に記載のハンドヘルド型情報処理装置であって、
    前記出力手段は、前記本体の加速度を検出する加速度センサを有し、
    前記検出手段は、前記加速度センサにより検出された重力加速度の変化に応じて前記切り替えを検出する
    ハンドヘルド型情報処理装置。
  8. 請求項3に記載のハンドヘルド型情報処理装置であって、
    前記出力手段は、第1の検出軸及び第2の検出軸を有するセンサを有し、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させ、前記第1の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを、前記移動コマンドとして出力する
    ハンドヘルド型情報処理装置。
  9. 請求項8に記載のハンドヘルド型情報処理装置であって、
    前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させ、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させる
    ハンドヘルド型情報処理装置。
  10. 請求項8に記載のハンドヘルド型情報処理装置であって、
    前記センサは、第3の検出軸を有し、
    前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第2及び前記第3の検出軸で検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させる
    ハンドヘルド型情報処理装置。
  11. 請求項8に記載のハンドヘルド型情報処理装置であって、
    前記本体は、
    第1のボディと、
    第2のボディと、
    前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構と
    を有するハンドヘルド型情報処理装置。
  12. 請求項11に記載のハンドヘルド型情報処理装置であって、
    前記接続機構は、前記第1のボディに対して前記第2のボディを開閉するための、前記第1の検出軸に沿うヒンジ軸を有する
    ハンドヘルド型情報処理装置。
  13. 請求項11に記載のハンドヘルド型情報処理装置であって、
    前記接続機構は、前記第1のボディに対して前記第2のボディを、前記第1の検出軸に沿う方向にスライドさせるスライド機構を有する
    ハンドヘルド型情報処理装置。
  14. 請求項11に記載のハンドヘルド型情報処理装置であって、
    前記接続機構は、前記第2の検出軸に沿う方向の回転軸を有した、前記第1のボディに対して前記第2のボディを前記回転軸で回転させる回転機構を有する
    ハンドヘルド型情報処理装置。
  15. 第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
    第1の検出軸及び前記第2の検出軸を有するセンサを含み、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させ、前記第1の方向に対応する画面上での軸に沿ってUIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを出力する出力手段と、
    前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する検出手段と、
    前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記第1及び前記第2の検出軸でそれぞれ検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させて、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させる制御手段と
    を具備するハンドヘルド型情報処理装置。
  16. 第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、前記本体の動きに応じた移動コマンドを出力する出力手段と、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する形態情報出力手段とを備えるハンドヘルド型情報処理装置から出力された、前記移動コマンド及び前記形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置であって、
    前記移動コマンド及び前記形態情報を受信する受信手段と、
    前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する判定手段と、
    前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する生成手段と、
    前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する実行手段と
    を具備する制御装置。
  17. 第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
    前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する出力手段と、
    前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する検出手段と、
    前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する制御手段とを有するハンドヘルド型情報処理装置と、
    前記移動コマンドを受信する受信手段と、
    前記受信された移動コマンドに基づき、前記画面上で前記UIを移動させるために、前記画面上での前記UIの座標情報を生成する生成手段とを有する制御装置と
    を具備する制御システム。
  18. 第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
    前記本体の動きに応じた移動コマンドを出力する出力手段と、
    前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する形態情報出力手段とを有するハンドヘルド型情報処理装置と、
    前記移動コマンド及び前記形態情報を受信する受信手段と、
    前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する判定手段と、
    前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する生成手段と、
    前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する実行手段とを有する制御装置と
    を具備する制御システム。
  19. ハンドヘルド型情報処理装置により、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力し、
    ハンドヘルド型情報処理装置により、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、
    前記第1の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上で前記UIを移動させるために前記移動コマンドを出力し、
    前記第2の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する
    制御方法。
  20. 第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、前記本体の動きに応じた移動コマンドを出力する出力手段と、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する形態情報出力手段とを備えるハンドヘルド型情報処理装置から出力された、前記移動コマンド及び前記形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置の制御方法であって、
    前記移動コマンド及び前記形態情報を受信し、
    前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定し、
    前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成し、
    前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する
    制御方法。
JP2008114088A 2008-04-24 2008-04-24 ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法 Pending JP2009265897A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008114088A JP2009265897A (ja) 2008-04-24 2008-04-24 ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008114088A JP2009265897A (ja) 2008-04-24 2008-04-24 ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法

Publications (1)

Publication Number Publication Date
JP2009265897A true JP2009265897A (ja) 2009-11-12

Family

ID=41391688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008114088A Pending JP2009265897A (ja) 2008-04-24 2008-04-24 ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法

Country Status (1)

Country Link
JP (1) JP2009265897A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255121A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム方法
JP2012138808A (ja) * 2010-12-27 2012-07-19 Toshiba Corp リモコン装置
JP2013036735A (ja) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp 空気調和機
JP2013036736A (ja) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp 空気調和機の遠隔制御装置
JP2013143775A (ja) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd ディスプレイ装置、入力装置及びこの制御方法
JP2014503873A (ja) * 2010-11-15 2014-02-13 モベア スマートエアマウス
WO2014188549A1 (ja) * 2013-05-22 2014-11-27 株式会社東芝 機器制御方法、機器制御装置、プログラムおよび電子機器
JP2015509629A (ja) * 2012-02-23 2015-03-30 コーニンクレッカ フィリップス エヌ ヴェ リモートコントロールデバイス

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326887A (ja) * 1993-05-14 1994-11-25 Sony Corp コントロールシステム
JP2000148351A (ja) * 1998-09-09 2000-05-26 Matsushita Electric Ind Co Ltd ユ―ザ動作の種類に応じて操作指示をする操作指示出力装置及びコンピュ―タ読み取り可能な記録媒体
JP2001224084A (ja) * 2000-02-08 2001-08-17 Funai Electric Co Ltd リモコン装置
JP2004096548A (ja) * 2002-09-02 2004-03-25 Hitachi Ltd マウスリモコンとこれを用いた映像情報システム
JP2005136457A (ja) * 2003-10-28 2005-05-26 Sanyo Electric Co Ltd 携帯電話機、再生方法及びプログラム
WO2006098053A1 (ja) * 2005-03-15 2006-09-21 Sharp Kabushiki Kaisha 携帯端末装置、携帯端末装置の画像情報照合方法、画像情報照合プログラムおよび記録媒体
JP2006287581A (ja) * 2005-03-31 2006-10-19 Sharp Corp リモコンシステム
JP2006311224A (ja) * 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機
JP2007067511A (ja) * 2005-08-29 2007-03-15 Sony Ericsson Mobilecommunications Japan Inc 携帯情報端末及びリモートコントロール方法
JP2007081785A (ja) * 2005-09-14 2007-03-29 Casio Hitachi Mobile Communications Co Ltd 携帯端末装置及びプログラム
JP2007094558A (ja) * 2005-09-27 2007-04-12 Denso Corp 遠隔操作装置
JP2007200228A (ja) * 2006-01-30 2007-08-09 Wacom Co Ltd 位置入力装置、リモコン装置、および、遠隔操作システム
JP2008047047A (ja) * 2006-08-21 2008-02-28 Canon Inc 入力装置及び方法、並びにプログラム及び記憶媒体
JP2008176641A (ja) * 2007-01-19 2008-07-31 Nec Corp 携帯端末用コマンド入力装置および携帯端末用コマンド入力方法
JP2008187407A (ja) * 2007-01-29 2008-08-14 Aplix Corp 携帯端末

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326887A (ja) * 1993-05-14 1994-11-25 Sony Corp コントロールシステム
JP2000148351A (ja) * 1998-09-09 2000-05-26 Matsushita Electric Ind Co Ltd ユ―ザ動作の種類に応じて操作指示をする操作指示出力装置及びコンピュ―タ読み取り可能な記録媒体
JP2001224084A (ja) * 2000-02-08 2001-08-17 Funai Electric Co Ltd リモコン装置
JP2004096548A (ja) * 2002-09-02 2004-03-25 Hitachi Ltd マウスリモコンとこれを用いた映像情報システム
JP2005136457A (ja) * 2003-10-28 2005-05-26 Sanyo Electric Co Ltd 携帯電話機、再生方法及びプログラム
WO2006098053A1 (ja) * 2005-03-15 2006-09-21 Sharp Kabushiki Kaisha 携帯端末装置、携帯端末装置の画像情報照合方法、画像情報照合プログラムおよび記録媒体
JP2006287581A (ja) * 2005-03-31 2006-10-19 Sharp Corp リモコンシステム
JP2006311224A (ja) * 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機
JP2007067511A (ja) * 2005-08-29 2007-03-15 Sony Ericsson Mobilecommunications Japan Inc 携帯情報端末及びリモートコントロール方法
JP2007081785A (ja) * 2005-09-14 2007-03-29 Casio Hitachi Mobile Communications Co Ltd 携帯端末装置及びプログラム
JP2007094558A (ja) * 2005-09-27 2007-04-12 Denso Corp 遠隔操作装置
JP2007200228A (ja) * 2006-01-30 2007-08-09 Wacom Co Ltd 位置入力装置、リモコン装置、および、遠隔操作システム
JP2008047047A (ja) * 2006-08-21 2008-02-28 Canon Inc 入力装置及び方法、並びにプログラム及び記憶媒体
JP2008176641A (ja) * 2007-01-19 2008-07-31 Nec Corp 携帯端末用コマンド入力装置および携帯端末用コマンド入力方法
JP2008187407A (ja) * 2007-01-29 2008-08-14 Aplix Corp 携帯端末

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255121A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム方法
JP2014503873A (ja) * 2010-11-15 2014-02-13 モベア スマートエアマウス
JP2012138808A (ja) * 2010-12-27 2012-07-19 Toshiba Corp リモコン装置
JP2013143775A (ja) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd ディスプレイ装置、入力装置及びこの制御方法
JP2015509629A (ja) * 2012-02-23 2015-03-30 コーニンクレッカ フィリップス エヌ ヴェ リモートコントロールデバイス
US9715823B2 (en) 2012-02-23 2017-07-25 Koninklijke Philips N.V. Remote control device
JP2013036735A (ja) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp 空気調和機
JP2013036736A (ja) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp 空気調和機の遠隔制御装置
WO2014188549A1 (ja) * 2013-05-22 2014-11-27 株式会社東芝 機器制御方法、機器制御装置、プログラムおよび電子機器
JP5659303B1 (ja) * 2013-05-22 2015-01-28 株式会社東芝 機器制御方法、機器制御装置、プログラムおよび電子機器

Similar Documents

Publication Publication Date Title
JP5440167B2 (ja) 入力装置、制御装置、制御方法及びハンドヘルド装置
JP5201146B2 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
JP4702475B2 (ja) 入力装置、ハンドヘルド装置及び制御方法
US8531399B2 (en) Control apparatus, input apparatus, control system, control method, and handheld apparatus
JP5293603B2 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
EP2353065B1 (en) Controlling and accessing content using motion processing on mobile devices
JP2009265897A (ja) ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法
JP4325707B2 (ja) 入力装置、制御装置、制御システム及び制御方法
JP5440176B2 (ja) 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法
US9152246B2 (en) Input apparatus, control apparatus, control system, electronic apparatus, and control method
JP5315857B2 (ja) 入力装置、制御システム及び制御方法
US8395583B2 (en) Input apparatus, control apparatus, control system, control method, and handheld apparatus
JPWO2008149991A1 (ja) 情報処理装置、入力装置、情報処理システム、情報処理方法及びプログラム
JP2010152493A (ja) 入力装置、制御装置及び入力装置の制御方法
US8614671B2 (en) Input apparatus, control apparatus, control system, and control method
JPWO2009072471A1 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
JP2009140107A (ja) 入力装置及び制御システム
JP5412812B2 (ja) 入力装置、制御装置、制御システム、及びハンドヘルド装置
JP2010157106A (ja) 入力装置、制御装置、ハンドヘルド装置、制御システム及び制御方法
JPWO2009048113A1 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
JP2010157157A (ja) 入力装置、制御装置、ハンドヘルド装置、制御システム及び制御方法
JP2011108270A (ja) 入力装置、ハンドヘルド装置及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626