JP2011128846A - 操作入力装置および方法、プログラム、並びに電子機器 - Google Patents

操作入力装置および方法、プログラム、並びに電子機器 Download PDF

Info

Publication number
JP2011128846A
JP2011128846A JP2009286218A JP2009286218A JP2011128846A JP 2011128846 A JP2011128846 A JP 2011128846A JP 2009286218 A JP2009286218 A JP 2009286218A JP 2009286218 A JP2009286218 A JP 2009286218A JP 2011128846 A JP2011128846 A JP 2011128846A
Authority
JP
Japan
Prior art keywords
distance
angular velocity
input device
operation input
detection means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009286218A
Other languages
English (en)
Inventor
Kazuyuki Yamamoto
一幸 山本
Takuro Noda
卓郎 野田
Ikuo Yamano
郁男 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009286218A priority Critical patent/JP2011128846A/ja
Priority to US12/909,251 priority patent/US8674936B2/en
Priority to CN201010550019.5A priority patent/CN102103421B/zh
Publication of JP2011128846A publication Critical patent/JP2011128846A/ja
Priority to US14/218,562 priority patent/US8970488B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作性の良好な入力を実現することができるようにする。
【解決手段】操作入力装置1のイメージセンサ21は、対象物31との距離が距離L91だけ離れている。このとき操作入力装置1を対象物31と平行に移動させるとともに、角度αだけ回動させると、イメージセンサ21を利用して得られる移動距離はL93となる。距離L93は、操作入力装置1の実際の移動距離L92より距離L94だけ短くなる。そこで角速度センサ13から得られる角速度と距離L91に基づいて、距離L94を演算し、検出された移動距離L93を補正する。本発明は、例えば、テレビジョン受像機のリモートコントローラに適用することができる。
【選択図】図9

Description

本発明は、操作入力装置および方法、プログラム、並びに電子機器に関し、特に、操作性の良好な入力を実現することができるようにした操作入力装置および方法、プログラム、並びに電子機器に関する。
パーソナルコンピュータにおいては、GUI(Graphical User Interface)のコントローラとして、主にマウスやタッチパッドなどのポインティングデバイスが用いられている。
近年、テレビジョン受像機においても、付加機能の追加やネットワーク化による操作の複雑化に対応するため、パーソナルコンピュータと同様のGUIとフリーカーソル型の操作入力装置が求められている。
しかし、マウスやタッチパッドなどの入力装置は、習熟に相応の時間がかかり、年少者や高齢者が適応するのは困難である。
上記問題を解決するための操作性に優れた入力装置として、近接・接触両状態で使用できるペンを模した入力装置が提案されている。
その代表的なものとして電磁誘導を用いたペンタブレットが実用化されている(例えば、非特許文献1)。
"Wacom|タブレットホームページ"、インターネット<URL:http://tablet.wacom.co.jp/index.html>
しかしながら、非特許文献1の手法では、専用のタブレット上でなければ操作ができない。
そのほかにも、紙上に特殊パタンを印刷し、これをイメージセンサで撮像することで座標を得る方法や、外部に設置された超音波発生器、磁気発生器、または赤外線発生器によってペンの位置を同定する方法も提案、商品化され始めている。しかし、特殊な用紙上でなければ操作ができなかったり、外部の発生器の近傍でしか操作できないという拘束条件があり、これが操作性を悪化させている。
本発明は、このような状況に鑑みてなされたものであり、操作性の良好な入力を実現することができるようにしたものである。
本発明の一側面は、角速度を検出する角速度検出手段と、対象物との相対速度を非接触にて検出する相対速度検出手段と、前記対象物との距離を検出する距離検出手段と、前記角速度、前記相対速度および前記距離に基づいて動き量を演算する演算手段とを備える操作入力装置および操作入力方法、操作入力装置としてコンピュータを機能させるためのプログラム、または電子機器である。
前記相対速度検出手段は、前記対象物に投光する光を発生する発光手段と、前記発光手段からの光が照射された前記対象物を撮像する撮像手段とを備え、前記距離検出手段は、前記撮像手段により撮像された画像に基づいて距離を検出することができる。
前記対象物との接触を検出する接触検出手段をさらに備えることができる。
前記接触検出手段は、2段階の接触を検出することができる。
前記対象物との接触時に発生する振動の前記角速度検出手段への伝達を抑制する緩衝材をさらに備えることができる。
前記対象物との前記距離が基準範囲以上である場合、画面操作を停止し、前記対象物との前記距離が前記基準範囲以下である場合、画面操作を実行し、前記対象物と接触している場合、特殊操作を実行することができる。
前記対象物との距離が基準範囲以上である場合、第1の画面操作を実行し、前記対象物との距離が前記基準範囲内である場合、第2の画面操作を実行することができる。
前記対象物との距離が前記基準範囲内の第1の範囲以上である場合、第1の物理量に基づいた画面操作を実行し、前記対象物との距離が前記基準範囲内の第1の範囲以下である場合、第2の物理量に基づいた画面操作を実行することができる。
前記対象物と接触している場合、摺動時の振動の周波数を検出する周波数検出手段と、前記周波数検出手段により検出された前記周波数に基づいて補正値を取得する取得手段とをさらに備え、前記演算手段は、前記補正値および前記角速度に基づいて、前記摺動時の速度を演算することができる。
前記周波数検出手段は、摺動時の振動の周波数を音から検出することができる。なお摺動時の振動の周波数は、構成要素を介して伝播される振動から検出することもできる。
前記周波数検出手段は前記角速度検出手段であり、前記角速度検出手段は、摺動時の振動の周波数をさらに検出することができる。
前記対象物と接触している場合、前記角速度に基づいてジェスチャを検出するジェスチャ検出手段をさらに備えることができる。またジェスチャ検出手段は、撮像手段により撮像された画像に基づいてジェスチャを検出することもできる。
本発明の一側面においては、角速度が検出され、対象物との相対速度が非接触にて検出され、対象物との距離が検出され、角速度、相対速度および距離に基づいて動き量が演算される。
本発明の側面によれば、操作性の良好な入力が実現可能となる。
本発明が適用される操作入力装置の一実施形態としての構成例を示す図である。 操作入力装置の詳細を示す図である。 イメージセンサの詳細を示す図である。 操作入力装置のメイン基板の構成例を示すブロック図である。 操作入力装置の速度演算処理を説明するフローチャートである。 操作入力装置の操作の概要を示す図である。 撮像する画像の例を示す図である。 操作入力装置のコマンド送信処理を説明するフローチャートである。 操作入力装置の操作の概要を示す図である。 操作入力装置の距離検出処理を説明するフローチャートである。 距離検出処理の原理を示す図である。 撮像する画像の例を示す図である。 操作入力装置の操作の概要を示す図である。 操作入力装置の操作面を示す図である。 角速度センサの出力を示す図である。 角速度センサの校正処理を説明するフローチャートである。 操作入力装置の摺動速度演算処理を説明するフローチャートである。 角速度センサの出力を示す図である。
[操作入力装置の構成]
図1は、本発明が適用される操作入力装置1の一実施形態としての構成例を示す図である。操作入力装置1は、例えばテレビジョン受像機に対して所定の指令を入力するときユーザにより操作される。すなわち、操作入力装置1は、テレビジョン受像機のリモートコントローラとして機能する。図1Aは、操作入力装置1の全体の構成を示す。図1Bは、操作入力装置1の先端部分の構成の詳細を示す。
図1に示されるように、ペン型の操作入力装置1は、メイン基板11、センサ基板12、角速度センサ13、電源スイッチ14、ボタン15、マイクロホン16、緩衝材17、電池18、発光部19、レンズ20、イメージセンサ21、接触部22、タクトスイッチ23、およびバネ24から構成されている。
メイン基板11には、図4を参照して後述するマイクロコンピュータ71等が載置されている。
センサ基板12には、角速度センサ13、マイクロホン16、およびイメージセンサ21等が載置されている。
角速度検出手段としての角速度センサ13は、操作入力装置1が操作されたときの角速度を検出する。角速度センサ13は、例えば、ジャイロセンサなどにより構成される。
なお、角速度センサ13に代えて加速度センサを用い、その出力を微分することで角速度を得るようにすることもできる。具体的には、加速度センサは、XYZ軸の3軸方向の加速度を測定する。そして各軸で測定される加速度から重力ベクトル方向に対する傾き角度を算出し、算出された傾き角度を時間微分することで角速度を得ることができる。
電源スイッチ14は、メイン基板11に接続されており、電源をオンまたはオフするとき、ユーザにより操作される。
ボタン15は、メイン基板11に接続されている。ボタン15は、ユーザが所定の入力を行うとき操作される。
マイクロホン16は、センサ基板12に接続されている。マイクロホン16は、操作入力装置1の摺動時の振動音を収集する。
緩衝材17は、角速度センサ13を支持する筐体1Aと、接触部22を支持する筐体1Bとの間に挟み込まれている。緩衝材17は、接触部22が対象物に接触したとき発生する振動が筐体1Bから筐体1Aに、従って角速度センサ13に伝達されるのを抑制する。
電池18は、メイン基板11に接続されている。電源スイッチ14がオン状態になると各部に必要な電力を供給する。
発光手段としての発光部19は、レンズ20を介して対象物に平行光を照射する。発光部19は、例えば、LED(Light Emitting Diode)や半導体レーザなどにより構成される。
相対速度検出手段および撮像手段としてのイメージセンサ21は、光を照射された対象物を含む画像を撮像する。イメージセンサ21は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどにより構成される。
接触検出手段としての接触部22は、一端が筐体1Bに支持されているバネ24の他端に支持されており、バネ24により外部に突出する方向に付勢されている。接触部22は、対象物に接触すると、バネ24の付勢力に抗して後方に移動し、後方に配置されているタクトスイッチ23をオンさせる。接触部22は、対象物から離れるとバネ24の付勢力により元の位置に戻り、タクトスイッチ23をオフさせる。
なお本実施の形態では、タクトスイッチ23によりオン/オフの2値を検出するか、または、オンの段階を2段とし、3値を検出する。あるいは、圧力センサなどを用いて圧力に基づいた処理を実行するようにしてもよい。
図2は、操作入力装置1の先端部分を拡大した図である。接触部22は、対象物31に接触している。このときイメージセンサ21は、対象物31と距離Lだけ離れている。すなわち、操作入力装置1と対象物31が接触している場合、イメージセンサ21と対象物31との距離Lは0より大きい値となる。
図3は、イメージセンサ21の詳細を示す図である。
イメージセンサ21の前方には、被写界深度が深いレンズ(図示せず)を配置することができる。ただしこの実施の形態においては、このレンズの代替として、ピンホール51が形成されているピンホール板52が配置されている。これにより、被写界深度の範囲内において、距離に依存せずに焦点をあわせることができる。
図4は、図1の操作入力装置1のうち、メイン基板11の構成例を示すブロック図である。
図3の例では、メイン基板11には、マイクロコンピュータ71、送信器72、アンテナ73、および記憶装置74が載置されている。マイクロコンピュータ71は、制御部91、取得部92、画像処理部93、検出部94、演算部95、コマンド生成部96、送信部97、および判定部98の機能ブロックを有している。なお、マイクロコンピュータ71の各ブロックは、必要に応じて相互に信号(データ)を授受することが可能とされている。
マイクロコンピュータ71の制御部91は、角速度センサ13およびイメージセンサ21の制御などの処理を行う。取得部92は、角速度センサ13、イメージセンサ21、記憶装置74、検出部94、および演算部95から各種情報を取得する。画像処理部93は、画像から検出部94および演算部95で必要なデータを抽出する処理を行う。距離検出手段としての検出部94は、操作入力装置1と対象物との間の距離を検出する。また検出部94は、取得部92が取得した情報に基づいて各種情報を記憶装置74から検出する。演算手段としての演算部95は、操作入力装置1の動き量を演算する。コマンド生成部96は、操作入力装置1と対象物との間の距離に基づいて、コマンドを生成する。送信部97は、各種情報を受信装置(図示せず)に送信する。判定部98は、各種情報が条件を満たしているかを判定する。
送信器72は、送信部97の制御に従って、アンテナ73を介してテレビジョン受像機などの受信装置(図示せず)に各種情報を送信する。各種情報は、例えば、操作入力装置1の動き量や、コマンドなどの情報である。
記憶装置74には、各種センサ情報に対応する情報があらかじめ定義され、記憶されている。記憶装置74は、メイン基板11内に備えてもよいし、図示せぬ受信装置に備えてもよい。
[速度演算処理]
次に図5乃至図7を参照して、操作入力装置1の速度演算処理について説明する。この処理は、後述する図8のステップS23で行われる処理であるが、便宜上、先に説明する。
図5は、操作入力装置1の速度演算処理を説明するフローチャートである。この実施形態では、イメージセンサ21により撮像された画像に基づいて操作入力装置1が移動した方向および移動した量が検出され、操作入力装置1の速度が演算される。
ユーザは、例えば図示せぬテレビジョン受像機に表示されているカーソルを移動させる場合、操作入力装置1を対象物31上で平行移動させる。対象物31は、机、テーブル、ソファー、ユーザの手、ズボン(座した状態のユーザの太もも)等とすることができる。
図6は、操作入力装置1と対象物31が接触している場合の操作入力装置1の動きを示す。図示は省略されているが、図6においては、接触部22が対象物31と接触している。また図6では、接触部22の図示は省略されている。このことは、後述する図9,図11,図13においても同様である。
図6では、操作入力装置1の単位時間あたりの移動距離(すなわち速度)を距離L61で示している。また図6では、イメージセンサ21から得られる単位時間あたりの移動距離を距離L62で示している。
操作入力装置1と対象物31が接触している場合、イメージセンサ21と対象物31との距離は充分短いので、距離L62は、距離L61とほぼ等しくなる。
なお、距離L61および距離L62は、単位時間あたりの移動距離としたが、イメージセンサ21によるサンプリング時間あたりの移動距離などとしてもよい。
サンプリング時間あたりの移動距離とした場合、操作入力装置1の速度(すなわち、対象物31に対する相対速度)は、距離L61または距離L62をサンプリング時間で除算することで求められる。
図5のステップS1において、取得部92は、イメージセンサ21から画像を取得する。この画像は、発光部19がレンズ20を介して光が照射された対象物31の画像である。
ステップS2において、画像処理部93は、画像を2値化する。画像は2値化の処理により、光が照射されている範囲は例えば「1」となり、光が照射されていない範囲は例えば「0」となる。
ステップS3において、画像処理部93は、光が照射された範囲の画像を切り出す。
ステップS4において、画像処理部93は、切り出した画像と単位時間だけ1つ前に切り出した画像とを比較する。切り出された画像は、例えば、図7に示されるようになる。
図7は、イメージセンサ21が撮像したフレームの画像の例を示す図である。図7Aは単位時間だけ1つ前に切り出されたフレームの画像を示し、図7Bは現時点で切り出されたフレームの画像を示す。図7A,7Bでは、照射された光の範囲に対応する輝点131−1,131−2、および対象物31の模様132−1−1乃至132−1−6,132−2−1乃至132−2−6が示されている。光が照射されるので、使用環境が暗くても、対象物31の模様132の画像を得ることができる。また、発光部19が放出する光の波長のみを通過する波長選択フィルタをイメージセンサ21の前に配置することで、使用環境が明るい場合でも、外乱光の影響を軽減させることができる。
模様132−2−1乃至132−2−6は、模様132−1−1乃至132−1−6に対応する。
なお、以下、対象物31の模様132−1−1乃至132−1−6,132−2−1乃至132−2−6を個々に区別する必要がない場合、これらをまとめて対象物31の模様132と称する。対象物31の模様132は、例えば、テーブルの模様、洋服の柄、生地の模様などである。
画像処理部93は、図7Bの輝点131−2の画像を全方向に移動させ、図7Aの輝点131−1との相関係数が最大となる位置を求める。
図7Aでは、模様132−1−1乃至132−1−3の全部が輝点131−1内にあり、模様132−1−4乃至132−1−6の一部が輝点131−1内に含まれる。図7Bでは、模様132−2−1乃至132−2−4の一部が輝点131−2内に含まれ、模様132−2−5,132−2−6の全部が輝点131−2内にある。
したがって図7Bの輝点131−2は、図7Aの輝点131−1の位置から模様132−2−5,132−2−6の方向に移動したことがわかる。すなわち操作入力装置1は、図7Aの位置から左上の方向に移動したことがわかる。
図5のステップS5において、演算部95は、相関係数が最大となる移動方向と移動距離を演算する。図7Bの輝点131−2は、図7Aの左上方向への相関係数が最大となり、その方向への移動距離が演算される。移動距離は、イメージセンサ21のフレーム内における輝点131−1と輝点131−2との位置の距離から求められる。
ステップS6において演算部95は、速度を演算する。具体的には、ステップS5で演算された距離を単位時間で除算することで速度が求められる。
[コマンド送信処理]
次に操作入力装置1のコマンドを送信する処理について説明する。
図8は、操作入力装置1のコマンド送信処理を説明するフローチャートである。
ユーザは、例えばテレビジョン受像機に表示されているカーソルを移動させるとき、
図9に示されるように、操作入力装置1を対象物31に対して近接させた状態で、対象物31と平行に所定の方向に移動させる。
ステップS21において、検出部94は、イメージセンサ21と対象物31との間の距離を検出する。
[距離検出処理]
ここで、図10のフローチャートを参照して、操作入力装置1の距離検出処理について詳しく説明する。
図10は、操作入力装置1の検出処理を説明するフローチャートである。図10の例では、発光部19が発光した光が照射された対象物31をイメージセンサ21で撮像し、画像処理を実行してイメージセンサ21と対象物31との間の距離が検出される。
図11は、イメージセンサ21と対象物31との距離を検出する原理を示す図である。図11は、イメージセンサ21から対象物31が、対象物31−1乃至31−3としてそれぞれ示される位置までの距離を検出する図を示している。
発光部19は、レンズ20を介して平行光である照射光171を一定の角度で照射する。
照射光171は、対象物31−1乃至31−3のそれぞれで反射して反射光172−1乃至172−3として、イメージセンサ21に入射する。
例えば対象物31−1に照射光171を照射した場合、イメージセンサ21上の反射光172−1の入射位置は、発光部19に近い位置となる。
これに対して対象物31−1より遠い対象物31−2による反射光172−2の入射位置は、反射光172−1の入射位置より発光部19から遠い位置となる。対象物31−2よりさらに遠い対象物31−3による反射光172−3の入射位置は、反射光172−2の入射位置より発光部19から遠い位置となる。従って、反射光172の入射位置から、対象物31のイメージセンサ21からの距離を検出することができる。
図10に戻り、操作入力装置1のステップS41乃至S43の処理は、図5の操作入力装置1のステップS1乃至S3の処理と同様である。従って、これらの処理の詳細な説明は繰り返しになるので適宜省略する。
すなわち、ステップS41において、取得部92は、イメージセンサ21から画像を取得する。ステップS42において、画像処理部93は、画像を2値化する。ステップS43において、画像処理部93は、光が照射された範囲の画像を切り出す。
ステップS44において、画像処理部93は、切り出した画像から画像の図心を求める。照射された光および図心は、例えば、図12に示されるようになる。
図12は、イメージセンサ21が撮像した画像を示す図である。図12では、対象物31の模様は示されず、反射された光の範囲である輝点131−11,131−12だけが示されている。画像処理部93は、輝点131−11,131−12から図心133−11,133−12を求める。
なお、以下、図心133−11および133−12を個々に区別する必要がない場合、これらをまとめて図心133と称する。
図10のステップS45において、検出部94は、イメージセンサ21と対象物31との距離を検出する。イメージセンサ21と対象物31との距離L11は、実験またはシミュレーションに基づいて図心133の位置座標ごとに予め計測され、記憶装置74に記憶されている。
従って、距離L11は、検出された図心133の位置座標と予め定義されている図心の位置座標を比較することで検出される。
図12Aの例では、画像の上側を図11の発光部19側であるとすると、輝点131−11は画像の上側にある。したがって、イメージセンサ21と対象物31との距離が近いことがわかる。
図12Bの輝点131−12は画像の下側にある。したがって、イメージセンサ21と対象物31との距離が図12Aよりも遠いことがわかる。
なお、本実施の形態では、輝点131の図心133の位置を求めることで操作入力装置1と対象物31との距離を検出するようにしたが、照射光171として発散光を用い、輝点131の直径または面積を求めることで距離を検出してもよい。
発散光の径は発光部19からの距離が遠い程大きくなる。そこで、輝点131の直径が短いときは、操作入力装置1と対象物31との間の距離が近く、輝点131の直径が長いときは、操作入力装置1と対象物との間の距離が遠いと検出することができる。
なお、距離の検出には、この他、ピント調整によって検出したり、赤外線センサや超音波センサなどを用いてもよい。
図8に戻り、以上のようにして、ステップS21で距離が検出された後、ステップS22において、判定部98は距離が基準値以上であるかを判定する。ステップS21で検出された距離が予め設定されている基準値より小さいとき、処理はステップS23に進む。
ステップS23において、演算部95は、イメージセンサ21を用いて速度演算処理を実行する。この速度演算処理は、図5を参照して説明した通りである。
ステップS24において、取得部92は、角速度センサ13により検出された角速度を取得する。
ステップS25において、演算部95は、次式(1)にしたがって速度を補正する。
V=Vi+ω×L ・・・(1)
式(1)において、Vは操作入力装置1の補正された速度を、LはステップS21で検出された距離L11を、ViはステップS23(図5のステップS6)で演算された速度を、ωはステップS24で取得された角速度を、それぞれ示している。式(1)をX軸方向、Y軸方向に独立に演算して求めることにより、近接時の操作入力装置1の速度を求めることができる。これにより、対象物31の面が、平面である場合だけでなく、凸面、凹面、それらの複合であっても正確に速度を検出することができる。
速度は単位時間当りの移動距離であるから、速度に時間を乗算して(すなわち、時間で積分して)距離が求められる。
すなわち図9に示されるように、操作入力装置1と対象物31とは、距離L91だけ離れている。操作入力装置1は、対象物31から距離L91だけ離れた位置で対象物31と平行に距離L92だけ平行移動されたとする。操作入力装置1の軸1C1が軸1C2として示される位置まで平行移動した場合の距離はL92となる。しかし、軸1C2として示される位置から軸1C3として示される位置まで操作入力装置1が操作中に回動されると、図5を参照して説明した演算により求められる速度に時間を乗算して得られる距離はL93となる。距離L92は、距離L91と等しくならない。
すなわち、操作入力装置1が平行移動された場合、イメージセンサ21は位置P1の対象物31を撮像する。しかし、操作入力装置1が角度αだけ回動されると、撮像されるのは位置P2の対象物31となる。距離L93は、位置P1と位置P2の距離L94だけ、距離L92より短い。
そこで、式(1)においては、距離L92に対応する速度Viが、距離L94に対応する速度ωLで補正される。
なお、操作入力装置1が対象物31に接触している場合、式(1)の距離Lが充分小さいので、検出された速度Viが操作入力装置1の速度と考えることができる。
ステップS26において、コマンド生成部96は、例えば補正された速度に対応するコマンドを生成する。これにより、例えば補正された速度に対応する速度と距離だけカーソルを、検出された方向に移動させるコマンドが生成される。
ステップS27で送信部97は、送信器72からアンテナ73を介してテレビジョン受像機にコマンドを送信する。テレビジョン受像機は、このコマンドに応じて表示されているカーソルを移動させる。
なお、方向、速度、距離といった情報をそのままテレビジョン受像機に送信し、テレビジョン受像機側でこれらの情報に基づくコマンドを生成し、認識するようにしてもよい。
ステップS22で検出された距離が予め設定されている基準値以上であると判定された場合、ステップS26でカーソルの移動を停止するコマンドが生成され、ステップS27でそれが送信される。換言すると、この場合には、カーソルを移動する操作が実質的に禁止される。
なお、接触部22が対象物31に接触している場合には、それに対応するコマンドが送信されるか、接触していることを表わす情報が、方向、速度、距離等の情報と共に送信される。
操作入力装置1の速度を上記のように求めることにより、接触時から所定範囲(距離Lを検出できる範囲またはイメージセンサ21により撮像できる範囲)までの操作速度と出力される速度信号の整合性を持たせることができ、接触から近接の範囲で操作性のよい操作入力装置1を提供することが可能となる。その結果、ポインティングだけではなく、例えば机上や曲面で構成される対象面、例えば膝のうえでの文字入力も容易に行うことが可能となる。
[操作コマンド]
図13は、イメージセンサ21と対象物31との距離に応じた操作コマンドの違いを示す図である。
イメージセンサ21と対象物31との距離が基準値としての距離L0以上の距離L141である場合、操作入力装置1の操作コマンドは、「カーソル操作停止」の画面操作となる。
イメージセンサ21と対象物31との距離が基準値としての距離L0より小さい距離L142である場合、ただし、接触部22が対象物31に接触していない場合、操作入力装置1の操作コマンドは、「カーソル操作」の画面操作となる。すなわち、操作に対応してカーソルが移動される。
イメージセンサ21と対象物31との距離が、接触部22が対象物31に接触する距離である場合、すなわちタクトスイッチ23により1段目のオンが検出されている場合、操作入力装置1の操作コマンドは、「カーソル操作」に加えて、「ドラッグ操作」、「線画操作」などの特殊操作とすることができる。また、接触部22が、タクトスイッチ23の2段目をオンさせる位置まで押圧された場合、「決定操作」のコマンドを実行させることができる。
なお、ユーザがボタン15を押圧した場合、「カーソル操作停止」のコマンドを実行させることができる。また、イメージセンサ21と対象物31が距離L142である場合に、ユーザがボタン15を押圧した場合、「ドラッグ操作」または「線画操作」のコマンドを実行させることもできる。
また、接触部22が対象物31に接触している状態(すなわち、タクトスイッチ23の1段目がオンされている状態)において、ユーザがボタン15を押圧した場合、または接触部22がタクトスイッチ23の2段目をオンさせる位置まで押圧され続けている場合、「ドラッグ操作」および「線画操作」の画面操作のコマンドを実行させることもできる。
さらに、イメージセンサ21と対象物31が距離L141である場合、「スクロール」の画面操作のコマンドを実行させ、イメージセンサ21と対象物31が距離L142以内である場合、「カーソル操作」の画面操作のコマンドを実行させることもできる。
さらにまた、イメージセンサ21と対象物31が、基準値としての距離L0より大きい距離L141である場合、角速度センサ13から取得された物理量としての角速度に基づく画面操作のコマンドを実行させ、イメージセンサ21と対象物31が、基準値としての距離L0より小さい距離L142以内である場合、図8のステップS25で取得された他の物理量としての速度に基づく画面操作のコマンドを実行させることもできる。
その他、接触部22に圧力センサを用い、接触部22が対象物31に接触している場合、ユーザが対象物31を押圧する強さに応じて、線の太さを変えて「線画操作」の画面操作のコマンドを実行させることもできる。
[ノイズ防止]
次に、図14と図15を参照して、操作入力装置1が対象物31と接触している場合のノイズによる影響を抑制する構成について説明する。
図14は、操作入力装置1が粗い表面の対象物31と接触している場合を示す図である。粗い表面の対象物31とは、例えば、ユーザが履いているジーンズや梨地加工されたテーブルなどである。
このような粗い表面で操作入力装置1を摺動させると、角速度センサ13は、例えば図15Aに示すように、ノイズを多く含む波形を示す。
図15Aは、ユーザが操作入力装置1を粗い表面の対象物31の上で使用して、円を描いた場合の角速度センサ13の出力波形を示す図である。
図15Aでは、横軸が時間(ms)、縦軸が角速度センサ13の出力(DIGIT)をそれぞれ表している。図15Aには、角速度センサ13のX軸方向の出力波形211−1とY軸方向の出力波形212−1が示されている。
図15Aに示されるように、X軸方向の出力波形211−1およびY軸方向の出力波形212−1は、多くのノイズを含む。そのためフィルタなどを使用しても、ノイズ成分を充分除去することはできない。
そのため本実施形態においては、図14に示されるように、緩衝材17が接触部22を支持する筐体1Bと角速度センサ13を支持する筐体1Aとの間に挟み込まれている。
緩衝材17は、例えば、ソルボセイン(商標)などのウレタン系粘弾性材の合成樹脂、ゴム、その他の粘弾性材により構成される。接触部22に発生する振動が、筐体1B、筐体1Aを介して角度センサ13に伝達されるのが、緩衝材17により抑制される。
図15Bは、接触部22と角速度センサ13との間に緩衝材17を挟み込んだ操作入力装置1を、ユーザが粗い表面の対象物31の上で使用して、円を描いた場合の角速度センサ13の出力波形を示す図である。
ただし図15Bは、ユーザが図15Aで描いた円とは異なる円を描いた場合の角速度センサ13の出力波形を示す。
図15Bの角速度センサ13のX軸方向の出力波形211−2およびY軸方向の出力波形212−2は、図15Aの出力波形211−1、出力波形212−1に較べると、高い周波数成分であるノイズが押圧されていることが判る。
したがって、緩衝材17を接触部22と角速度センサ13との間に挟み込むことで接触部22の振動が緩和され、角速度センサ13の出力波形のノイズを低減することができる。すなわち操作入力装置1は、粗い表面の対象物31に接触している場合でも操作を反映させることができる。
[角速度センサ13の校正]
次に、図16を参照して、イメージセンサ21を用いた角速度センサ13の校正処理を説明する。
図16は、角速度センサ13の構成処理を説明するフローチャートである。
ステップS61において、取得部92は、図5の速度演算処理で求めた速度を取得する。
ステップS62において、判定部98は、取得された速度が所定の閾値以下であるかを判定する。
取得された速度が所定の閾値以下であると判定された場合、ステップS63において、制御部91は、角速度センサ13のDC(Direct Current)オフセットの校正を実行する。
DCオフセットの校正とは、角速度センサ13のDC出力を、所定の基準出力、すなわち、角速度=0のときの出力に設定することである。
ステップS62で、取得された速度が所定の閾値以下であると判定された場合、ステップS63の処理をスキップして処理は終了する。
以上で角速度センサ13の校正処理を終了する。
[摺動速度演算処理]
次に、図17を参照して、図5とは別の操作入力装置1の速度を演算する処理について説明する。図17は、操作入力装置1の摺動速度演算処理を説明するフローチャートである。
この実施の形態では、操作入力装置1が対象物31に接触して、摺動される場合に、イメージセンサ21に代えて、角速度センサ13を用いて速度が推定される。
ステップS81において、取得部92は、角速度センサ13が検出した角速度を取得する。
ステップS82において、取得部92は、ステップS81で取得された角速度から、操作入力装置1の摺動時に発生する振動のピーク周波数を取得する。なお振動のピーク周波数は、摺動時の音をマイクロホン16で集音した信号から取得してもよい。摺動時の振動の周波数は、構成要素を介して伝播される振動から検出することができる。
操作入力装置1の振動の周波数は、操作入力装置1の速度に比例する。すなわち、操作入力装置1の振動の周波数が大きい場合、操作入力装置1の移動速度は速いことになる。
ステップS83において、取得部92は、ピーク周波数に応じた補正値を取得する。補正値は、ピーク周波数に応じて定義され、記憶装置74に予め記憶されている。
ステップS84において、演算部95は、ステップS81の処理で取得された角速度に、ステップS83の処理で取得された補正値を乗じることで操作入力装置1の摺動速度を演算する。
すなわち、この実施の形態では、操作入力装置1の操作量の代表として角速度センサ13により検出された角速度が用いられる。ただし角速度だけでは、摺動操作時の併進成分が検知されず、ユーザの操作量と操作出力に不整合が発生する。そこで上述したような補正処理が行われる。
なお、角速度に代えて加速度を検出し、それを微分して、それから摺動速度を推定することもできる。
以上で操作入力装置1の摺動速度演算処理を終了する。
これにより操作入力装置1は、イメージセンサ21を利用せずに接触時の摺動速度を演算することができる。
[ジェスチャ検出]
次に、図18を参照して、操作入力装置1のジェスチャ検出について説明する。ジェスチャは、角速度センサ13の出力波形に基づいて検出される。
ジェスチャとは、例えば、対象物31に接触した状態での操作入力装置1によるフリック、往復操作、円を描く操作などである。
図18Aは、操作入力装置1が対象物31と接触している状態で、ユーザが往復操作および円を描く操作を実行した場合の角速度センサ13の出力波形を示す図である。
図18Aには、2軸の角速度センサ13のX軸方向の出力波形211−11およびY軸方向の出力波形212−11が示されている。
X軸方向の出力波形211−11は、操作入力装置1を右方向に動かした場合に正の値となり、左方向に動かした場合に負の値となる。またY軸方向の出力波形212−11は、操作入力装置1をユーザの手前方向に動かした場合に正の値となり、ユーザの奥方向に動かした場合に負の値となる。
図18Aは、右方向への操作の波形231、左方向への操作の波形232、手前方向への操作の波形233、奥方向への操作の波形234、時計回りに円を描く操作の波形235、および反時計回りに円を描く操作の波形236が示されている。
往復操作の波形231乃至234は、それぞれの方向へ2回操作した場合の波形が示される。円を描く操作の波形235,236は、それぞれの方向へ3回操作した場合の波形が示されている。
右方向への操作の波形231では、X軸方向の出力波形211−11が正の方向へ大きく変化している。左方向への操作の波形232では、X軸方向の出力波形211−11が負の方向へ大きく変化している。
手前方向への操作の波形233では、Y軸方向の出力波形212−11が負の方向へ大きく変化している。奥方向への操作の波形234では、Y軸方向の出力波形212−11が正の方向へ大きく変化している。
このように往復操作のジェスチャは、それぞれに対応するジェスチャ検出手段としての角速度センサ13の出力波形の変化により検出することができる。
時計回りに円を描く操作の波形235では、X軸方向の出力波形211−11が先に変化し、位相差90度でY軸方向の出力波形212−11が変化する。また、反時計回りに円を描く操作の波形236では、Y軸方向の出力波形212−3が先に変化し、位相差90度でX軸方向の出力波形211−3が変化する。
このように円を描く操作のジェスチャは、X軸方向の出力波形211−11とY軸方向の出力波形212−11のうち、どちらが先に変化したかに基づいて回転方向を検出することができる。
図18Bは、ユーザがさまざまな対象物の上で小さい円を描く操作を実行した場合の角速度センサ13の出力を示す図である。
図18Bには、角速度センサ13のX軸方向の出力波形211−12およびY軸方向の出力波形212−12が示されている。
図18Bは、手のひらを対象面とした場合の出力波形251、対称面に接触しない場合(空中)の出力波形252、机上を対象面とした場合の出力波形253、ジーンズを対象面とした場合の出力波形254、パーソナルコンピュータ筐体を対象面とした場合の出力波形255、およびパーソナルコンピュータの液晶ディスプレイを対象面とした場合の出力波形256を示している。
図18Bに示されるように、それぞれの波形251乃至256は、同様の波形を示す。このことは、円を描く操作のジェスチャは、対象物に依存せずに検出することができることを意味する。
図18Cは、ユーザがフリック操作を実行した場合の角速度センサ13の出力波形を示す図である。図18Cには、角速度センサ13のY軸方向の出力波形212−13が示されている。
図18Cは、机上を対象面とした場合の出力波形271と対称面に接触しない場合(空中)の出力波形272が示されている。机上を対象面とした場合の出力波形271および対称面に接触しない場合の出力波形272のそれぞれは、6回のフリックが示されており、左側から順にフリックする時間が長くなっている。
机上を対象面とした場合の出力波形271および対称面に接触しない場合の出力波形272のそれぞれは、同様の波形を示す。
机上でフリックを実行する場合、接触部22は、フリック時に押圧される。フリック時に接触部22が押圧された個所は、フリック箇所291−1乃至291−6で示されている。
フリック箇所291−N(Nは1から6までの自然数)でのフリック時間は、上述のようにNが大きくなるほど長くなる。
このようにフリックのジェスチャは、対象物に依存せずに検出することができ、フリックする時間の違いを検出することができる。
なおジェスチャは、イメージセンサ21の出力に基づいて検出することもできる。
なお、操作入力装置1は、電子機器とすることもできる。
本発明の実施の形態は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 操作入力装置, 11 メイン基板, 12 センサ基板, 13 角速度センサ, 17 緩衝材, 19 発光部, 20 レンズ, 21 イメージセンサ, 22 接触部, 23 タクトスイッチ, 51 ピンホール, 52 ピンホール板, 91 制御部, 92 取得部, 93 画像処理部, 94 検出部, 95 演算部, 96 コマンド生成部

Claims (15)

  1. 角速度を検出する角速度検出手段と、
    対象物との相対速度を非接触にて検出する相対速度検出手段と、
    前記対象物との距離を検出する距離検出手段と、
    前記角速度、前記相対速度および前記距離に基づいて動き量を演算する演算手段と
    を備える操作入力装置。
  2. 前記相対速度検出手段は、
    前記対象物に投光する光を発生する発光手段と、
    前記発光手段からの光が照射された前記対象物を撮像する撮像手段と
    を備え、
    前記距離検出手段は、前記撮像手段により撮像された画像に基づいて距離を検出する
    請求項1に記載の操作入力装置。
  3. 前記対象物との接触を検出する接触検出手段を
    さらに備える請求項2に記載の操作入力装置。
  4. 前記接触検出手段は、2段階の接触を検出する
    請求項3に記載の操作入力装置。
  5. 前記対象物との接触時に発生する振動の前記角速度検出手段への伝達を抑制する緩衝材を
    さらに備える請求項4に記載の操作入力装置。
  6. 前記対象物との前記距離が基準範囲以上である場合、画面操作を停止し、
    前記対象物との前記距離が前記基準範囲以下である場合、画面操作を実行し、
    前記対象物と接触している場合、特殊操作を実行する
    請求項5に記載の操作入力装置。
  7. 前記対象物との距離が基準範囲以上である場合、第1の画面操作を実行し、
    前記対象物との距離が前記基準範囲内である場合、第2の画面操作を実行する
    請求項5に記載の操作入力装置。
  8. 前記対象物との距離が前記基準範囲内の第1の範囲以上である場合、第1の物理量に基づいた画面操作を実行し、
    前記対象物との距離が前記基準範囲内の第1の範囲以下である場合、第2の物理量に基づいた画面操作を実行する
    請求項5に記載の操作入力装置。
  9. 前記対象物と接触している場合、摺動時の振動の周波数を検出する周波数検出手段と、
    前記周波数検出手段により検出された前記周波数に基づいて補正値を取得する取得手段と
    をさらに備え、
    前記演算手段は、前記補正値および前記角速度に基づいて、前記摺動時の速度を演算する
    請求項1に記載の操作入力装置。
  10. 前記周波数検出手段は、摺動時の振動の周波数を音から検出する
    請求項9に記載の操作入力装置。
  11. 前記周波数検出手段は前記角速度検出手段であり、前記角速度検出手段は、摺動時の振動の周波数をさらに検出する
    請求項9に記載の操作入力装置。
  12. 前記対象物と接触している場合、前記角速度に基づいてジェスチャを検出するジェスチャ検出手段をさらに備える
    請求項1に記載の操作入力装置。
  13. 角速度検出手段と、
    相対速度検出手段と、
    距離検出手段と、
    演算手段と
    を備える操作入力装置の操作入力方法であって、
    前記角速度検出手段は、角速度を検出し、
    前記相対速度検出手段は、対象物との相対速度を非接触にて検出し、
    前記距離検出手段は、前記対象物との距離を検出し、
    前記演算手段は、前記角速度、前記相対速度および前記距離に基づいて動き量を演算する
    操作入力方法。
  14. コンピュータを、
    角速度検出手段と、
    相対速度検出手段と、
    距離検出手段と、
    演算手段と
    して機能させるプログラムであって、
    前記角速度検出手段は、角速度を検出し、
    前記相対速度検出手段は、対象物との相対速度を非接触にて検出し、
    前記距離検出手段は、前記対象物との距離を検出し、
    前記演算手段は、前記角速度、前記相対速度および前記距離に基づいて動き量を演算する
    プログラム。
  15. 角速度検出手段と、
    相対速度検出手段と、
    距離検出手段と、
    演算手段と
    を備え、
    前記角速度検出手段は、角速度を検出し、
    前記相対速度検出手段は、対象物との相対速度を非接触にて検出し、
    前記検出手段は、前記対象物との距離を検出し、
    前記演算手段は、前記角速度、前記相対速度および前記距離に基づいて動き量を演算する
    電子機器。
JP2009286218A 2009-12-17 2009-12-17 操作入力装置および方法、プログラム、並びに電子機器 Withdrawn JP2011128846A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009286218A JP2011128846A (ja) 2009-12-17 2009-12-17 操作入力装置および方法、プログラム、並びに電子機器
US12/909,251 US8674936B2 (en) 2009-12-17 2010-10-21 Operation input device and method, program, and electronic apparatus
CN201010550019.5A CN102103421B (zh) 2009-12-17 2010-11-18 操作输入装置和方法、程序和电子设备
US14/218,562 US8970488B2 (en) 2009-12-17 2014-03-18 Operation input device and method, program, and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009286218A JP2011128846A (ja) 2009-12-17 2009-12-17 操作入力装置および方法、プログラム、並びに電子機器

Publications (1)

Publication Number Publication Date
JP2011128846A true JP2011128846A (ja) 2011-06-30

Family

ID=44150312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009286218A Withdrawn JP2011128846A (ja) 2009-12-17 2009-12-17 操作入力装置および方法、プログラム、並びに電子機器

Country Status (3)

Country Link
US (2) US8674936B2 (ja)
JP (1) JP2011128846A (ja)
CN (1) CN102103421B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9736561B2 (en) * 2011-04-20 2017-08-15 Empire Technology Development Llc Smartpen configured for hands free audio recording
TW201303655A (zh) * 2011-07-13 2013-01-16 Asustek Comp Inc 無線傳輸觸控筆與觸控顯示系統
US9367146B2 (en) 2011-11-14 2016-06-14 Logiteh Europe S.A. Input device with multiple touch-sensitive zones
CN103050780B (zh) * 2012-12-28 2014-09-24 四川九洲电器集团有限责任公司 一种定向天线校轴方法
CN104346040B (zh) 2014-10-23 2018-08-07 京东方科技集团股份有限公司 一种信息快速查找方法、显示控制***及输入设备
CN110703929B (zh) * 2019-09-27 2021-07-16 联想(北京)有限公司 一种输入设备及其输入方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190273A (ja) * 1996-01-10 1997-07-22 Canon Inc 座標入力装置
JP2002523830A (ja) * 1998-08-18 2002-07-30 デジタル インク インコーポレーテッド 絶対的および相対的な位置決めのための検出センサを有する手書き用デバイス
KR100532929B1 (ko) * 2002-10-10 2005-12-02 와우테크 주식회사 광학 펜 마우스
JP4142460B2 (ja) * 2003-01-31 2008-09-03 オリンパス株式会社 運動検出装置
US7554545B2 (en) * 2003-11-04 2009-06-30 Ssd Company Limited Drawing apparatus operable to display a motion path of an operation article
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP2007535773A (ja) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 自由空間ポインティングデバイスおよびポインティング方法
US7284866B2 (en) * 2005-01-05 2007-10-23 Nokia Corporation Stabilized image projecting device
CN1841288A (zh) * 2005-04-01 2006-10-04 天瀚科技股份有限公司 光学笔的导光结构
CN101206549A (zh) * 2006-12-20 2008-06-25 敦南科技股份有限公司 可感测旋转与倾斜变化信息的运动侦测装置及方法
KR100891100B1 (ko) * 2007-07-27 2009-03-31 삼성전자주식회사 펜형 광마우스의 이동 궤적 추정 장치 및 방법
JP5349785B2 (ja) * 2007-10-26 2013-11-20 株式会社バンダイナムコゲームス 操作用具
JP2009116769A (ja) * 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
CN101308413B (zh) * 2008-06-02 2010-08-18 吉林大学 一种多功能笔式鼠标
JP5163291B2 (ja) * 2008-06-02 2013-03-13 ソニー株式会社 入力装置、制御装置、制御システム及び制御方法

Also Published As

Publication number Publication date
US8674936B2 (en) 2014-03-18
US8970488B2 (en) 2015-03-03
CN102103421B (zh) 2014-05-07
US20140198042A1 (en) 2014-07-17
CN102103421A (zh) 2011-06-22
US20110148763A1 (en) 2011-06-23

Similar Documents

Publication Publication Date Title
US11137841B2 (en) Devices and methods for determining relative motion
US8970488B2 (en) Operation input device and method, program, and electronic apparatus
EP2492785A2 (en) Creative design systems and methods
JP2012069114A (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
JP2012073830A (ja) インターフェース装置
US20210389818A1 (en) System and method for human interaction with virtual objects
CN101866243A (zh) 三维空间触控操作的方法及其手势
CN106662923B (zh) 信息处理装置、信息处理方法和程序
TW201415291A (zh) 基於物件追蹤的手勢辨識方法及系統
CN102467298A (zh) 一种虚拟手机键盘的实现方式
CN104571521B (zh) 手写记录装置和手写记录方法
KR102118610B1 (ko) 센서들을 이용하는 근접 동작 인식 장치 및 그 장치를 이용한 방법
JP2010244480A (ja) ジェスチャ認識に基づく制御装置及び制御方法
JP2016519819A (ja) 電子機器および/またはコンピュータ機器と非接触式に相互作用する装置と、当該装置を備えた機器
JP5965540B2 (ja) 仮想キーボード上のキー入力を認識する方法及びその装置
TWI486815B (zh) 顯示設備及其控制系統和方法
US20170220141A1 (en) Determining a position of an input object
KR101860138B1 (ko) 오브젝트 생성 및 오브젝트의 변환이 가능한 동작 인식 센서를 이용한 3차원 입력 장치
US10120455B2 (en) Control device and control method
KR20100115396A (ko) 삼각측량법을 이용한 무선 손가락 마우스
KR101460028B1 (ko) 비접촉 조작 장치를 구비한 키보드
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
TWI464626B (zh) 移動感測裝置以及移動感測方法
JP6220653B2 (ja) 光学式位置検出装置およびそれを用いた電子機器
KR101671831B1 (ko) 동작 인식 센서를 이용한 3차원 입력 장치

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305