JP7401427B2 - 位置指示デバイス及び空間位置指示システム - Google Patents

位置指示デバイス及び空間位置指示システム Download PDF

Info

Publication number
JP7401427B2
JP7401427B2 JP2020521071A JP2020521071A JP7401427B2 JP 7401427 B2 JP7401427 B2 JP 7401427B2 JP 2020521071 A JP2020521071 A JP 2020521071A JP 2020521071 A JP2020521071 A JP 2020521071A JP 7401427 B2 JP7401427 B2 JP 7401427B2
Authority
JP
Japan
Prior art keywords
pen tip
force
virtual reality
reality space
force sensation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020521071A
Other languages
English (en)
Other versions
JPWO2019225170A1 (ja
Inventor
雄一 井手
浩 玉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Publication of JPWO2019225170A1 publication Critical patent/JPWO2019225170A1/ja
Priority to JP2023194216A priority Critical patent/JP2024012599A/ja
Application granted granted Critical
Publication of JP7401427B2 publication Critical patent/JP7401427B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は位置指示デバイス及び空間位置指示システムに関し、特に、ハプティクスに対応する位置指示デバイス及び空間位置指示システムに関する。
仮想現実(VR:Virtual Reality、AR:Augmented Reality、MR:Mixed Realityを含む)空間内において、仮想平面に字を書いたり絵を描いたりするための技術が登場している。例えば、非特許文献1に記載の「Tilt Brush」は、専用コントローラを用いて、仮想現実空間の空中に絵を描くことを実現している。また、特許文献1には、仮想のマーカ、絵筆、塗料スプレー缶を使用して、仮想表面又は実際の表面に芸術作品又はグラフィティ作品を制作するゲームが開示されている。
また、仮想現実に関して、ハプティクスという技術が注目されている。ハプティクスは、振動を仮想現実のユーザに与えるもので、例えば特許文献1には、マーカ型、絵筆型、塗料スプレー缶型の各コントローラにアクチュエータを設け、このアクチュエータに振動を与える技術が開示されている。また、非特許文献2には、ロボットアームに機械的に接続されたスタイラスの位置と方向に基づいて仮想カテーテル等の手術器具と3Dモデル間の干渉判定を行い、各部位に相当する感触(粘性、剛性、摩擦などといった力覚特性)を生成する技術が開示されている。
米国特許第8884870号明細書
「VRお絵かきアプリ『Tilt Brush』とは?使い方・購入方法も紹介」、[online]、MoguraVR、[平成30年2月28日検索]、インターネット<URL:http://www.moguravr.com/vr-tilt-brush/> 「ImmersiveTouch外科手術トレーニングシミュレータ」、[online]、日本バイナリー株式会社、[平成30年2月28日検索]、インターネット<URL:http://www.nihonbinary.co.jp/Products/Medical/MedicalTraining/SurgicalSimulation/ImmersiveTouch.html>
ところで、タブレット(タブレットコンピュータ、デジタイザを含む)との間で信号の送受信を行うことにより、タブレットに対する入力を行えるように構成されたペン型のスタイラス(以下、「電子ペン」という)が知られている。従来、仮想現実空間内ではこの種の電子ペンを使用することができなかったが、近年、仮想現実空間内でも電子ペンを使用したいという要望が高まっている。
したがって、本発明の目的の一つは、仮想現実空間内における電子ペンの使用を実現できる位置指示デバイスを提供することにある。
また、電子ペンを仮想現実空間内で使用する場合には、現実のタブレットだけでなく、仮想のタブレットにも入力可能とすることが好ましいが、この場合、仮想現実空間内で物体の表面に電子ペンのペン先が当たった場合に、電子ペンに力覚を発生させることが望まれる。しかしながら、電子ペンの位置を検出するための位置センサはある程度の大きさを有しており、少なくとも現時点では、ペン先に設置できるような小型の位置センサは存在しない。その結果、検出した位置が物体の表面に当たった場合に力覚を発生させたとしても、その時点でペン先が物体の表面にあるとは限らないので、ユーザに違和感を感じさせてしまう。
したがって、本発明の目的の他の一つは、ユーザが仮想現実空間内で電子ペンを使用する場合に、ユーザに違和感を感じさせることなく力覚を発生させることのできる空間位置指示システムを提供することにある。
本発明の一側面による位置指示デバイスは、ペン先を有する電子ペンを搭載可能に構成される筐体と、力覚を発生する力覚発生部と、前記筐体に搭載される前記電子ペンの仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における物体との間の距離が所定値以下である場合に力覚を発生させるように前記力覚発生部を制御するコントローラと、を有する位置指示デバイスである。
本発明の他の一側面による位置指示デバイスは、位置指示部と、力覚を発生する力覚発生部と、仮想現実空間内における前記位置指示部の位置と前記仮想現実空間内における物体との間の距離が所定値以下である場合に力覚を発生させるように前記力覚発生部を制御するコントローラと、を有する位置指示デバイスである。
本発明による空間位置指示システムは、現実空間における位置指示デバイスの位置指示部の位置を取得するステップと、前記現実空間における前記位置指示部の位置に基づき、仮想現実空間内における前記位置指示部の位置を取得するステップと、前記仮想現実空間内における前記位置指示部の位置と前記仮想現実空間内における物体との間の距離が所定値以下であるか否かを判定する判定ステップと、前記判定ステップの判定結果に応じて、力覚発生部を有する前記位置指示デバイスに前記力覚発生部を制御するための制御信号を送信する送信ステップと、を実行するコンピュータを含む空間位置指示システムである。
本発明の一側面による位置指示デバイスによれば、空間位置指示デバイスに電子ペンを搭載することができるので、仮想現実空間内における電子ペンの使用が可能になる。
本発明の他の一側面による位置指示デバイスによれば、電子ペン自体が空間位置指示デバイスとして動作するので、仮想現実空間内における電子ペンの使用が可能になる。
本発明の位置指示デバイス及び空間位置指示システムによれば、位置情報により示される位置指示デバイス(又は電子ペン)の位置ではなく、ペン先の位置に基づいて位置指示デバイス(又は電子ペン)の力覚発生部に力覚を発生させることができるので、仮想現実空間内で電子ペンを使用するユーザに違和感を感じさせることなく、力覚を発生させることが可能になる。
本発明の第1の実施の形態による空間位置指示システム1の構成を示す図である。 (a)は、電子ペン5の外観を示す斜視図であり、図2(b)は、電子ペン5の機能ブロックを示す略ブロック図である。 図2(b)に示した力覚発生部56の構成の第1の例を示す図である。 図2(b)に示した力覚発生部56の構成の第2の例を示す図である。 図2(b)に示した力覚発生部56の構成の第3の例を示す図である。 図2(b)に示した力覚発生部56の構成の第4の例を示す図である。 図2(b)に示した力覚発生部56の構成の第5の例を示す図である。 図2(b)に示した力覚発生部56の構成の第6の例を示す図である。 図2(b)に示した力覚発生部56の構成の第7の例を示す図である。 磁性流体の固さの変化を利用して筐体5aを移動させるように力覚発生部56を構成した場合に、コンピュータ2が生成する制御信号の一例を示す図である。 コンピュータ2の制御部2aが行う処理を示す処理フロー図である。 図11のステップS2,S6で実行される仮想現実空間内ペン先位置取得処理の詳細を示す図である。 図11において実行される処理の説明図である。 本発明の第2の実施の形態による空間位置指示システム1で用いられる空間位置指示デバイス6を示す図である。 図2に示した処理部50が行う処理を示す処理フロー図である。
以下、添付図面を参照しながら、本発明の実施の形態について詳細に説明する。
図1は、本発明の第1の実施の形態による空間位置指示システム1の構成を示す図である。同図に示すように、本実施の形態による空間位置指示システム1は、コンピュータ2と、仮想現実ディスプレイ3と、タブレット4と、電子ペン5と、ライトニングハウス7a,7bと、位置センサ8a~8cとを含んで構成される。位置センサ8a~8cはそれぞれ、タブレット4、仮想現実ディスプレイ3、及び電子ペン5に設けられる。
図1に示した各装置は、原則として部屋の中に配置される。空間位置指示システム1においては、この部屋のほぼ全体が仮想現実空間として利用され得る。
コンピュータ2は、制御部2aとメモリ2bとを含む。以下で説明するコンピュータ2が行う各処理は、制御部2aがメモリ2b内に記憶されるプログラムを読み出して実行することにより実現することができる。
コンピュータ2は、仮想現実ディスプレイ3、ライトニングハウス7a,7b、タブレット4のそれぞれと、有線又は無線により接続される。有線による場合、例えばUSB(Universal Serial Bus)などを用いることが好適である。無線による場合、例えばWi-Fi(登録商標)などの無線LAN、又は、ブルートゥース(登録商標)などの近距離無線通信を用いることが好適である。なお、タブレット4や仮想現実ディスプレイ3がコンピュータとしての機能を内蔵する場合には、そのコンピュータによりコンピュータ2を構成することとしてもよい。
コンピュータ2は、仮想現実ディスプレイ3上に仮想現実空間を表示する機能を有して構成される。この仮想現実空間は、VR(Virtual Reality)空間であってもよいし、AR(Augmented Reality)空間であってもよいし、MR(Mixed Reality)空間であってもよい。VR空間を表示する場合、仮想現実ディスプレイ3を装着したユーザは、仮想現実を認識し、現実世界と切り離される。一方、AR空間又はMR空間を表示する場合、仮想現実ディスプレイ3を装着したユーザは、仮想現実と現実世界とが混合した空間を認識することになる。
コンピュータ2は、ライトニングハウス7a,7bの位置を基準として設定された仮想現実空間内において様々な3Dオブジェクト(物体)をレンダリングするレンダリング装置として機能するとともに、レンダリングの結果により、仮想現実ディスプレイ3の表示を更新するよう構成される。これにより、仮想現実ディスプレイ3上に表示される仮想現実空間内には、様々な3Dオブジェクトが現れることになる。コンピュータ2によるレンダリングは、メモリ2b内に記憶される3Dオブジェクト情報に基づいて実行される。3Dオブジェクト情報は、コンピュータ2により設定された仮想現実空間を示す仮想現実空間における3Dオブジェクトの形状、位置、及び向きを示す情報であり、レンダリング対象の3Dオブジェクトごとにメモリ2b内に記憶される。
コンピュータ2によりレンダリングされる3Dオブジェクトには、図1に示したタブレット4、電子ペン5のように現実にも存在する3Dオブジェクト(以下、「第1の3Dオブジェクト」と称する)と、仮想タブレット(図示せず)のような現実には存在しない3Dオブジェクト(以下、「第2の3Dオブジェクト」と称する)とが含まれる。これらの3Dオブジェクトをレンダリングするにあたり、コンピュータ2はまず、現実空間における位置センサ8bの位置及び向きを検出し、検出結果に基づいて、ユーザの視点を示す視点情報を取得する。
第1の3Dオブジェクトをレンダリングする場合、コンピュータ2はさらに、対応する物体に取り付けられている位置センサ(例えば、位置センサ8a,8c)の現実空間における位置及び向きを検出し、検出結果をメモリ2bに格納する。そして、格納した位置及び向きと、上述した視点情報と、第1の3Dオブジェクトについて記憶している形状とに基づき、第1の3Dオブジェクトを仮想現実空間内にレンダリングする。また、コンピュータ2は、電子ペン5に関して特に、位置センサ8cの位置を検出することによって仮想現実空間内でユーザが行った操作を検出し、その結果に基づいて第2の3Dオブジェクトを新規に作成し(すなわち、メモリ2bに3Dオブジェクト情報を新規に格納し)、又は、既に保持している第2の3Dオブジェクトを移動ないし更新する(すなわち、メモリ2bに格納済みの3Dオブジェクト情報を更新する)処理を行う。この点については、後ほど別途詳しく説明する。
一方、第2の3Dオブジェクトをレンダリングする場合、コンピュータ2は、メモリ2bに格納されている3Dオブジェクト情報と、上述した視点情報とに基づき、第2の3Dオブジェクトを仮想現実空間内にレンダリングするよう構成される。
コンピュータ2はさらに、仮想現実空間内における電子ペン5のペン先の位置(仮想現実空間内位置)と、仮想現実空間内に表示中の3Dオブジェクトの仮想現実空間内における位置とに基づいて、電子ペン5の力覚発生部56(後述)に力覚を発生させるか否かを判定し、発生させると判定した場合に、力覚発生部56を起動するための制御信号を電子ペン5に対して送信する処理を行う。具体的な例では、仮想現実空間内において電子ペン5のペン先が仮想タブレットのタッチ面に接触した場合に、力覚発生部56を起動するための制御信号を電子ペン5に対して送信するよう構成される。この点については、後ほど再度詳しく説明する。
仮想現実ディスプレイ3は、人間の頭部に装着して用いるVRディスプレイ(ヘッドマウントディスプレイ)である。一般に市販される仮想現実ディスプレイには、「透過型」又は「非透過型」、「メガネ型」又は「帽子型」など各種のものがあるが、仮想現実ディスプレイ3としては、そのいずれを用いることも可能である。
仮想現実ディスプレイ3は、位置センサ8a及び電子ペン5(位置センサ8cを含む)のそれぞれと有線又は無線により接続される。位置センサ8a,8cは、この接続を通じて、後述する受光レベル情報を仮想現実ディスプレイ3に通知するよう構成される。仮想現実ディスプレイ3は、位置センサ8a,8cのそれぞれから通知された受光レベル情報を、自身に内蔵している位置センサ8bの受光レベル情報とともにコンピュータ2に通知する。コンピュータ2は、こうして通知された受光レベル情報に基づき、現実空間内における位置センサ8a~8cそれぞれの位置及び向きを検出する。
タブレット4は、タブレット面4aを有する装置である。タブレット面4aは平らな表面であることが好ましく、電子ペン5のペン先を滑らせるのに適した材料によって構成され得る。一例では、タブレット4はいわゆるデジタイザであり、タッチ面内における電子ペン5の指示位置を検出するタッチセンサと、検出した指示位置をコンピュータ2に通知する通信機能とを有して構成される。この場合のタブレット面4aは、デジタイザのタッチ面によって構成される。他の一例では、タブレット4はいわゆるタブレットコンピュータであり、ディスプレイと、このディスプレイの表示面内における電子ペン5の指示位置を検出するタッチセンサと、検出した指示位置をコンピュータ2に通知する通信機能とを有して構成される。この場合のタブレット面4aは、ディスプレイの表示面によって構成される。
位置センサ8aは、タブレット4の表面に固定設置される。したがって、コンピュータ2によって検出される位置センサ8aの位置及び向きは、仮想現実空間座標系におけるタブレット面4aの位置及び向きを示している。
電子ペン5は、ペン型の形状を有するスタイラスであり、タブレット4への入力装置としての機能(以下、「タブレット入力機能」と称する)と、コンピュータ2への入力装置としての機能(以下、「仮想現実空間入力機能」と称する)とを有して構成される。タブレット入力機能には、タブレット4のタッチ面内の位置を指示する機能が含まれる。一方、仮想現実空間入力機能には、仮想現実空間内の位置を指示する機能が含まれる。各機能の詳細については、別途後述する。
ライトニングハウス7a,7bは、位置センサ8a~8cの位置を検出するための位置検出システムを構成する基地局装置であり、それぞれ、コンピュータ2による制御に従って方向を変えながらレーザー信号を射出可能に構成される。位置センサ8a~8cは、それぞれ複数の受光センサによって構成されており、ライトニングハウス7a,7bのそれぞれが照射したレーザー信号を各受光センサによって受光し、それぞれの受光レベルを含む受光レベル情報を取得するよう構成される。こうして取得された受光レベル情報は、上述したように、仮想現実ディスプレイ3を介してコンピュータ2に供給される。
図2(a)は、電子ペン5の外観を示す斜視図であり、図2(b)は、電子ペン5の機能ブロックを示す略ブロック図である。図2(a)に示すように、電子ペン5は、略筒型の筐体5aと、筐体5aの先端に設けられたペン先5bとを有して構成される。なお、実際の電子ペン5の表面には、後述する力覚発生部56を実現するための各種部材が取り付けられる場合があるが、図2(a)では描画を省略している。また、図示していないが、電子ペン5の側面又は端部に各種のスイッチを設けることとしてもよい。
タブレット入力機能による入力を行う場合、ユーザは、片方の手によって筐体5aを把持し、ペン先5bをタブレット4のタッチ面に当接させる。そして、当接状態を保ちながらタッチ面上でペン先5bを移動させることによって、電子ペン5による入力操作を行う。一方、仮想現実空間入力機能による入力を行う場合、ユーザは、片方の手によって筐体5aを把持し、空中で電子ペン5を移動させることによって、電子ペン5による入力操作を行う。
仮想現実空間入力機能による入力には、上述した仮想タブレットへの入力が含まれる。この場合、仮想現実ディスプレイ3を装着したユーザの目には仮想タブレットが見えているが、現実には、その場所にタブレットは存在しない。したがって、仮想タブレットのタッチ面にペン先5bを当接させることはできないが、それでは仮想タブレットへの入力操作が困難になる。そこで空間位置指示システム1では、ペン先5bが仮想タブレットのタッチ面の位置にある場合に力覚を発生させることで、あたかも仮想タブレットのタッチ面にペン先5bが当接しているかのような感覚をユーザに与える処理を行う。この点については、後ほど別途詳しく説明する。
図2(b)を参照すると、電子ペン5は機能的に、処理部50、通信部51,53、筆圧検出部52、位置検出部54、スイッチ部55、及び力覚発生部56を有して構成される。
処理部50は、電子ペン5内の他の各部と接続され、これらを制御するとともに、後述する各種の処理を行うプロセッサにより構成される。なお、本実施の形態では電子ペン5内に処理部50を配置しているが、これに限定されず、電子ペン5の外部に処理部50を配置してもよい。
通信部51及び筆圧検出部52は、タブレット入力機能を実現する機能部である。
通信部51は、処理部50の制御に従い、タブレット4のタッチセンサとの間で信号の送受信を行う機能を有する。この信号の送受信には、電子ペン5からタブレット4に対して一方的に信号を送信する場合と、電子ペン5とタブレット4の間で双方向に信号の送受信を行う場合とが含まれる。また、信号送受信の具体的な方式としては、例えば電磁誘導方式又はアクティブ静電方式が用いられ得る。
筆圧検出部52は、ペン先5bに加えられた圧力(筆圧)を検出する機能部であり、具体的な例では、筆圧によって容量値が変化する容量センサ(図示せず)によって構成される。以下、通信部51がアクティブ静電方式によって信号を送受信する場合を例に取り、タブレット入力機能について具体的に説明する。
アクティブ静電方式に対応するタッチセンサは、タッチ面内に配置されるセンサ電極(図示せず)から、所定の時間間隔でビーコン信号を送出するよう構成される。ビーコン信号には、タッチセンサから電子ペン5を制御するためのコマンドが含まれる。コマンドによる制御の内容には、例えば、筆圧検出部52によって検出された筆圧を示す筆圧データを送信させること、電子ペン5に設けられる各種スイッチ(図示せず)の押下状態を送信させること、電子ペン5のメモリ(図示せず)に予め格納されている固有IDを送信させることなどが含まれる。
通信部51は、電子ペン5のペン先に設けられたペン先電極(図示せず)を介して上記ビーコン信号を検出し、検出したビーコン信号を処理部50に供給する。処理部50は、供給されたビーコン信号に応じて、無変調の搬送波であるバースト信号と、コマンドに応じたデータによって搬送波を変調することにより得られるデータ信号とを含むペン信号を生成し、通信部51に供給する。通信部51は、上記ペン先電極を介して、供給されたペン信号をタッチセンサに送信する。
タッチセンサは、上記センサ電極によってバースト信号の検出を試み、検出結果に基づいて、タッチ面内における電子ペン5の位置を検出する。また、上記センサ電極によってデータ信号を検出して復調することにより、コマンドに応じて電子ペン5が送信したデータを受信する。
タブレット4は、取得した電子ペン5の位置及び電子ペン5が送信したデータを、逐次、コンピュータ2に向けて送信するよう構成される。コンピュータ2は、タブレット4から受信したデータに含まれる筆圧データにより示される筆圧が所定値(例えば、0)より大きい値となっている場合に、電子ペン5がタブレット4のタッチ面に接触していると判定する。そしてコンピュータ2は、電子ペン5がタブレット4のタッチ面に接触していると判定している間、継続的に、順次受信される一連の位置に基づいてインクデータ(複数の位置を所定の補間曲線により補間してなる曲線データ)を生成し、図1に示したメモリ2bに格納する処理を実行する。これにより、タブレット入力機能が実現される。なお、タブレット4がディスプレイを有する場合には、コンピュータ2は、メモリ2bに格納したインクデータを逐次レンダリングし、その結果をタブレット4のディスプレイに表示することとしてもよい。
通信部53、位置検出部54、スイッチ部55、及び力覚発生部56は、仮想現実空間入力機能を実現する機能部である。
通信部53は、処理部50の制御に従い、仮想現実ディスプレイ3を介してコンピュータ2との間で信号の送受信を行う機能を有する。この信号の送受信は、上述したように、有線又は無線によって実現される。
位置検出部54は、図1に示した位置センサ8cによって構成される機能部であり、ライトニングハウス7a,7bが送信しているレーザー信号(現実空間内の位置を検出するための位置検出用信号)を検出し、検出したレーザー信号に応じた受光レベル情報(位置情報)を生成する機能を有する。位置検出部54によって生成された受光レベル情報は、通信部53により、コンピュータ2に向けて送信される。
スイッチ部55は、電子ペン5の筐体5aの表面に設けられるスイッチであり、ユーザによって押下可能に構成される。スイッチ部55の押下状態を示すスイッチ情報も、通信部53により、コンピュータ2に向けて送信される。
力覚発生部56は、外部から供給される制御信号に応じて力覚を発生する機能を有する。この制御信号は、通信部53を通じて、コンピュータ2から供給される。力覚発生部56については、後ほど別途、より詳しく説明する。
コンピュータ2は、受信した受光レベル情報に基づき、逐次、位置センサ8cの位置及び向きを検出するとともに、受信したスイッチ情報に基づき、スイッチ部55が押下されているか否かの判定を行う。そして、スイッチ部55が押下されていると判定している間、継続的に、順次検出される一連の位置に基づいて3Dのインクデータを生成し、図1に示したメモリ2bに格納する処理を実行する。こうして生成された3Dのインクデータは上述した第2の3Dオブジェクトに相当し、上述したレンダリングの対象となる。これにより、仮想現実空間入力機能が実現される。
ここで、仮想現実空間内に上述した仮想タブレットを表示している場合には、コンピュータ2は、この仮想タブレットのタッチ面と電子ペン5のペン先5bとが仮想現実空間内で接触している場合に限り、3Dのインクデータを生成する。こうすることで、ユーザは、現実のタブレット4への入力と同様に仮想タブレットへの入力を行うことが可能になる。なお、この場合における3Dのインクデータの生成は、スイッチ部55の押下状態にかかわらず実行されることとしてもよい。
以上が空間位置指示システム1の全体概要である。次に、電子ペン5に設けられる力覚発生部56の構成について詳しく説明するが、力覚発生部56は様々な構成を取り得るので、以下では7つの例を挙げ、順に説明することとする。
図3~図9はそれぞれ、力覚発生部56の構成の第1~第7の例を示す図である。図3~図5それぞれの(a)(b)、図6、及び図7は電子ペン5の断面図であり、図8(a)は電子ペン5の斜視図である。図8(b)は、図8(a)に示した部分Dの分解斜視図である。図9は、電子ペン5の使用状態を示す斜視図である。
第1の例による力覚発生部56は、図3に示すように、ペン先5bの前方に配置された平板状の当接部56aと、筐体5aを覆うように配置された筒状部材である摺動部56bと、当接部56a及び摺動部56bのそれぞれに固定されたブリッジ部56cとを含んで構成される。
摺動部56bは、図3(a)に示す位置から図3(b)に示す位置まで、図示した範囲Aにわたり筐体5aに対して筐体5aの長手方向に摺動可能に構成される。ただし、ユーザが電子ペン5を把持した状態では、摺動部56bはユーザの手に対して固定されるので、この摺動によって実際に移動するのは筐体5aの方である。摺動部56bが図3(a)に示す位置にある場合、ペン先5bは当接部56aと接していない。一方、摺動部56bが図3(b)に示す位置にある場合、ペン先5bは当接部56aと当接する。
処理部50は、コンピュータ2から受信される制御信号に応じて、筐体5aを図3(a)に示す位置から図3(b)に示す位置に移動させる。これにより、ペン先5bが当接部56aに衝突する。したがって、仮想現実空間内において電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことに応じて制御信号を送信するようにコンピュータ2を構成することにより、ユーザは、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
ここで、力覚発生部56は、磁性流体を含んで構成されることが好ましい。磁性流体は、印加するパルス電流の周波数により固さを制御可能な材料である。磁性流体に与えるパルス電流の周波数を変化させ、相対的に固い状態と相対的に柔らかい状態との間を連続的に遷移させると、磁性流体に接触している人間には振動が発生したように感じられる。また、磁性流体の固さを変化させることによって、各種の物体を移動させることもできる。
図10は、磁性流体の固さの変化を利用して筐体5aを移動させるように力覚発生部56を構成した場合に、コンピュータ2が生成する制御信号の一例を示す図である。同図に示すように、この場合の制御信号は、バースト期間BUとブランク期間BLとを一定のデューティー比で繰り返すパルス電流信号によって構成される。この制御信号によれば、磁性流体は、全区間に占めるバースト期間BUの割合が大きくなるほど固くなる。そこでコンピュータ2は、制御信号のデューティー比を制御することによって磁性流体の固さを制御し、その結果として筐体5aを移動させる。こうして、磁性流体により力覚を発生させることが実現される。
第2の例による力覚発生部56は、図4に示すように、ペン先5bの前方に配置された平板状の当接部56aと、筐体5aに固定されたブリッジ部56cと、当接部56aとブリッジ部56cの間に設けられたヒンジ部56dとを含んで構成される。
当接部56aは、ヒンジ部56dと接続された一端を中心として、図4(a)に示す位置から図4(b)に示す位置まで、図示した範囲Bにわたり回動可能に構成される。当接部56aが図4(a)に示す位置にある場合、ペン先5bは当接部56aと接していない。一方、当接部56aが図4(b)に示す位置にある場合、ペン先5bは当接部56aと当接する。本例においても、当接部56aの移動は磁性流体を利用して実現することが好ましい。
処理部50は、コンピュータ2から受信される制御信号に応じて、当接部56aを図4(a)に示す位置から図4(b)に示す位置に移動させる。これによりペン先5bが当接部56aに衝突するので、第1の例と同様、ユーザは、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
第3の例による力覚発生部56は、図5に示すように、ペン先5bの前方に配置された平板状の当接部56aと、筐体5aに固定されたブリッジ部56cと、当接部56aと一体に形成されたスライド部56eとを含んで構成される。
スライド部56eは、図5に示すように、例えばブリッジ部56cの端部を収容するほぞを有しており、ブリッジ部56cがこのほぞの中を摺動することにより、図5(a)に示す位置から図5(b)に示す位置まで、図示した範囲Cにわたり電子ペン5の長手方向に移動可能に構成される。スライド部56eが図5(a)に示す位置にある場合、ペン先5bは当接部56aと接していない。一方、スライド部56eが図5(b)に示す位置にある場合、ペン先5bは当接部56aと当接する。本例においても、スライド部56eの移動は磁性流体を利用して実現することが好ましい。
処理部50は、コンピュータ2から受信される制御信号に応じて、スライド部56eを図5(a)に示す位置から図5(b)に示す位置に移動させる。これによりペン先5bが当接部56aに衝突するので、第1及び第2の例と同様、ユーザは、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
第4の例による力覚発生部56は、図6に示すように、筐体5aの表面に露出するように配置された固さ変化部56fを含んで構成される。固さ変化部56fは、上述した磁性流体を含むビニールなどで構成される。
処理部50は、コンピュータ2から受信された制御信号を固さ変化部56fに与えることにより、固さ変化部56fの固さを変化させる。これにより固さ変化部56fの固さが振動しているかのように感じられることから、ユーザは、第1乃至第3の例と同様、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
第5の例による力覚発生部56は、図7に示すように、筐体5aに固定された基体部56gと、基体部56gの中に配置された振動部56hと、一端が振動部56hに押し当てられ、他端が筐体5aの内壁に押し当てられた状態で配置された高剛性部材であるアクチュエータ56iと、を有して構成される。
処理部50は、コンピュータ2から受信された制御信号を振動部56hに与えることにより、振動部56hを振動させる。すると、その振動がアクチュエータ56iを通じて筐体5aに伝達されるので、筐体5aも振動する。これによりユーザは、第1乃至第4の例と同様、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
第6の例による力覚発生部56は、図8(a)に示すように、筐体5aに設けられた溝部5cと、筐体5aの内部に配置された振動部56jとを含んで構成される。振動部56jの一部は、溝部5cを通じて外部に露出している。また、振動部56jは、上述した磁性流体を含んで構成される。
図8(b)には、溝部5c及び振動部56jの具体的な構造を示している。同図に示すように、振動部56jは、筐体5a内に配置された筒状部材である基体部56jaと、基体部56jaの側面から突出するように設けられた3つの突出部56jbとを有して構成される。3つの突出部56jbは、基体部56jaと一体に形成されるもので、基体部56jaの円周方向に等間隔で配置される。溝部5cは、これら3つの突出部56jbのそれぞれに対応して設けられる。
処理部50は、コンピュータ2から受信された制御信号を振動部56jに与えることにより、振動部56jを振動させる。ユーザは、溝部5cを通じて露出している3つの突出部56jbを通じてこの振動を直接感じ取ることができるので、第1乃至第5の例と同様、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
第7の例による力覚発生部56は、図9に示すように、電子ペン5の本体とは別体として設けられ、具体的には、ペン先5bの前方に配置された平板状の当接部56aと、ユーザの腕に固定されるブリッジ部56kとを含んで構成される。ブリッジ部56kの一端近傍には開口部56kaが設けられており、ブリッジ部56kは、この開口部56kaにユーザが自身の腕を挿入することによって、ユーザの腕に固定される。
当接部56aは、ブリッジ部56kの他端近傍を、図示した範囲Eにわたって移動可能に構成される。当接部56aの具体的な移動範囲は、当接部56aが電子ペン5にもっとも近づいたときにペン先5bと接触するように決定される。なお、ユーザによって手の大きさが異なることを考慮すると、当接部56aの移動範囲は、予め行うキャリブーション処理によりユーザごとに調節することが好ましい。本例においても、当接部56aの移動は磁性流体を利用して実現することが好ましい。
処理部50は、コンピュータ2から受信された制御信号を力覚発生部56に与えることにより、当接部56aをペン先5bに衝突させる。これによりユーザは、第1乃至第6の例と同様、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
以上、電子ペン5に設けられる力覚発生部56の構成について、7つの例を挙げて説明した。次に、コンピュータ2による力覚発生部56の制御信号の生成について、詳しく説明する。
図11は、コンピュータ2の制御部2a(図1を参照)が行う処理を示す処理フロー図である。図12は、図11のステップS2,S6で実行される仮想現実空間内ペン先位置取得処理の詳細を示す図である。図13は、図11において実行される処理の説明図である。以下、これらの図を参照しながら、コンピュータ2による力覚発生部56の制御信号の生成について詳細に説明する。
初めに図11を参照すると、コンピュータ2は、まず前提として、仮想現実空間内に物体を表示する(ステップS1)。この物体は、上述した第2の3Dオブジェクト(例えば、仮想タブレット)である。図13(a)は、こうして表示される物体の表面Sを3次元座標空間上に示したものである。
続いてコンピュータ2は、仮想現実空間内における電子ペン5のペン先5bの位置VPを取得する処理を行う(ステップS2)。具体的に説明すると、図12に示すように、コンピュータ2はまず、受光レベル情報を取得する(ステップS20)。この受光レベル情報は電子ペン5の位置検出部54(図2を参照)によって生成されるものであり、コンピュータ2は、電子ペン5からの受信によって受光レベル情報を取得する。
受光レベル情報を取得したコンピュータ2は、取得した受光レベル情報に基づき、現実空間における電子ペン5の位置を示す現実空間内位置P(第1の現実空間内位置)を取得(算出)する(ステップS21)。こうして取得される位置Pは図1に示した位置センサ8cの位置であって、ペン先5bの位置ではない。そこでコンピュータ2は、予めメモリ2b内に記憶している電子ペン5の形状に基づいて位置センサ8cの位置をペン先5bの位置に変換することにより、現実空間における電子ペン5のペン先5bの位置を示す現実空間内位置P(第2の現実空間内位置)を取得(算出)する処理を行う(ステップS22)。
続いてコンピュータ2は、取得した位置Pに基づき、仮想現実空間内における電子ペン5のペン先5bの位置を示す仮想現実空間内位置VPを取得(算出)する(ステップS23)。仮想現実空間内ペン先位置取得処理は、ここまでの処理で終了する。
図11に戻り、位置VPを取得したコンピュータ2は、位置VPと仮想現実空間内における物体(ステップS1で表示したもの)の表面Sの位置とに基づいて、電子ペン5のペン先5bが表面Sに衝突したか否かを判定する(第2の判定ステップ。ステップS3,S4)。具体的には、点である位置VPが表面Sを構成する領域の中に含まれる場合に衝突したと判定し、それ以外の場合に衝突していないと判定すればよい。
ステップS4の判定において衝突したと判定した場合(ステップS4の肯定判定)、コンピュータ2は、力覚を発生させるための制御信号を生成し、電子ペン5に対して送信する(第2の力覚発生ステップ。ステップS5)。この制御信号は、例えば、図10に示したパルス電流信号である。電子ペン5の処理部50がこの制御信号に応じて力覚発生部56に力覚を発生させることにより、ユーザは、表面S(例えば、仮想タブレットのタッチ面)への衝突体験を得ることが可能になる。
続いてコンピュータ2は、再度仮想現実空間内位置VPを取得する処理を行い(ステップS6)、表面Sと位置VPの間の距離が所定値L以下であるか否かを判定する(第1の判定ステップ。ステップS7,S8)。この処理は、位置VPを通る表面Sの法線が表面Sと交わる点と、位置Vpとの間の距離が所定値L以下であるか否かを判定することによって行えばよい。
ステップS8で所定値L以下であると判定した場合(ステップS8の肯定判定)、コンピュータ2は、再度力覚を発生させるための制御信号を生成し、電子ペン5に対して送信する(第1の力覚発生ステップ。ステップS9)。これによりユーザは、手元がぶれて電子ペン5のペン先5bが表面Sから離れたとしても、あまり離れていない場合には、引き続き表面Sに接触している感覚を得ることができる。現実に存在していない表面Sに意図的にペン先5bを接触させ続けることは難しいので、仮想現実空間内においてはこの処理が非常に有効である。
ステップS9を終了したコンピュータ2は、ステップS6に戻って処理を続ける。これにより、表面Sと位置VPとの間の距離が所定値L以下である間(すなわち、ステップS8の判定結果が肯定的である間)、表面Sとの接触をユーザに感じさせ続けることが可能になる。
なお、図11に破線で示したように、コンピュータ2は、ステップS9の実施とともに、位置VPが表面S上の位置となるよう物体の位置を移動させる処理を実施することとしてもよい(ステップS10)。こうすることで、力覚だけでなく視覚的にも接触状態を維持することが可能になる。
ステップS4の判定において衝突していないと判定した場合(ステップS4の否定判定)、及び、ステップS8で所定値L以下でないと判定した場合(ステップS8の否定判定)、コンピュータ2は、ステップS2に戻って処理を続ける。この場合、力覚発生部56による力覚の発生が生じないので、位置VPと表面Sとの間の距離が離れているにも関わらず、力覚が発生しまうことが防止される。したがって、仮想現実空間内で電子ペン5を使用するユーザに違和感を感じさせることなく、力覚発生部56に力覚を発生させることが可能になる。
なお、図11の例においては、電子ペン5のペン先5bが表面Sに一旦衝突した後、力覚の発生を中止する条件(すなわち、ステップS2に戻る条件)として、表面Sと位置VPの間の距離が所定値L以下でなくなったことを使用したが、その他の事象を力覚の発生を中止する条件として用いることとしてもよい。例えば、表面Sに衝突してからの電子ペン5の移動距離が所定値を上回った場合、電子ペン5の移動速度が所定値を上回った場合、電子ペン5の加速度が所定値を上回った場合、ユーザが電子ペン5を用いて所定のジェスチャを行った場合、図示しないマイクによりユーザが所定の音声入力を行ったことが検出された場合、図示しない圧力センサ(例えば、ユーザによる電子ペン5の把持力を測定するために電子ペン5の側面に設けられる圧力センサ)によりユーザが所定の圧力を加えたことが検出された場合などに、力覚の発生を中止することとしてもよい。
以上説明したように、本実施の形態による電子ペン5によれば、電子ペン5自体が位置検出部54を有しており、したがって電子ペン5が空間位置指示デバイスとして動作するので、仮想現実空間内における電子ペン5の使用が可能になる。
また、本実施の形態による空間位置指示システム1によれば、受光レベル情報により示される電子ペン5の位置ではなく、ペン先5bの位置に基づいて力覚発生部56に力覚を発生させることができるので、仮想現実空間内で電子ペン5を使用するユーザに違和感を感じさせることなく、力覚を発生させることが可能になる。
図14は、本発明の第2の実施の形態による空間位置指示システム1で用いられる空間位置指示デバイス6を示す図である。図14(a)は空間位置指示デバイス6の使用状態を示す斜視図を、図14(b)は空間位置指示デバイス6の機能ブロックを示す略ブロック図を、それぞれ表している。図14(a)に示すように、空間位置指示デバイス6は、電子ペン5を差し込んで使用可能に構成される。本実施の形態は、図2(b)を参照して説明した電子ペン5の機能のうち仮想現実空間入力機能が空間位置指示デバイス6側に設けられる点で、第1の実施の形態と相違する。本実施の形態による電子ペン5は、仮想現実空間入力機能を有しない一般的な電子ペンである。以下、第1の実施の形態と同一の構成については同一の符号を付し、第1の実施の形態との相違点に着目して詳しく説明する。
初めに図14(b)を参照すると、空間位置指示デバイス6は機能的に、処理部50、通信部53、位置検出部54、スイッチ部55、及び力覚発生部56を有して構成される。これらの基本的な機能は、図2(b)を参照して説明したものと同様である。ただし、スイッチ部55は、電子ペン5ではなく空間位置指示デバイス6の表面に設けられる。
次に図14(a)を参照すると、空間位置指示デバイス6は、筐体6aと、持ち手部6bと、図1にも示した位置センサ8cと、位置センサ8cを筐体6aに固定するためのブリッジ部6dと、方向指示器6eと、平板状の当接部56aと、筐体6aの間に固定されたブリッジ部56mと、を含んで構成される。このうち当接部56a及びブリッジ部56mは、空間位置指示デバイス6の力覚発生部56を構成する。
筐体6aは、空間位置指示デバイス6の本体を構成する部材であり、電子ペン5を搭載可能に構成される。より具体的に言えば、筐体6aは、電子ペン5を差し込むための差し込み口を有している。また、持ち手部6bは、ユーザが空間位置指示デバイス6を持つための部材である。図14に示すように、ユーザは、筐体6aの差し込み口に電子ペン5を差し込み、持ち手部6bを片手でつかんだ状態で、空間位置指示デバイス6を使用する。方向指示器6eは、ユーザの使用感を向上させるための部材であり、ユーザが右手で持ち手部6bをつかんだ場合に、右手親指を置けるように構成される。
当接部56aは、ブリッジ部56mを介して、ペン先5bの前方に配置される。当接部56aは、ブリッジ部56mの一端近傍を、図示した範囲Fにわたって移動可能に構成される。当接部56aの移動は、上述した磁性流体を利用して実現することが好ましい。当接部56aの具体的な位置は、当接部56aが電子ペン5にもっとも近づいたときにペン先5bと接触するように決定される。処理部50がコンピュータ2から受信される制御信号に応じて当接部56aを図面右方向に移動させると、ペン先5bが当接部56aに衝突する。これにより、第1の実施の形態と同様、ユーザは、電子ペン5のペン先5bが仮想タブレットのタッチ面に接触したことを現実の衝撃として感じることが可能になる。
本実施の形態においてコンピュータ2が行う処理も、基本的には第1の実施の形態で説明したとおりである。ただし、図11に示したステップS3において、第1の実施の形態では、予めメモリ2b内に記憶している電子ペン5の形状に基づき、位置センサ8cの位置をペン先5bの位置に変換する処理を行うとしたが、本実施の形態によるコンピュータ2は、電子ペン5を差し込んだ状態の空間位置指示デバイス6の形状を予めメモリ2b内に記憶しておき、それに基づいて、位置センサ8cの位置をペン先5bの位置に変換する処理を行うよう構成される。これにより、位置センサ8cの位置ではなく、ペン先5bの位置に基づいて力覚発生部56に力覚を発生させることが可能になる。
以上説明したように、本実施の形態による電子ペン5によれば、空間位置指示デバイス6に電子ペン5を搭載することができる。したがって、仮想現実空間内における電子ペン5の使用が可能になる。
また、本実施の形態による空間位置指示システム1によれば、受光レベル情報により示される位置センサ8cの位置ではなく、ペン先5bの位置に基づいて力覚発生部56に力覚を発生させることができるので、仮想現実空間内で空間位置指示デバイス6及び電子ペン5を使用するユーザに違和感を感じさせることなく、力覚を発生させることが可能になる。
以上、本発明の好ましい実施の形態について説明したが、本発明はこうした実施の形態に何等限定されるものではなく、本発明が、その要旨を逸脱しない範囲において、種々なる態様で実施され得ることは勿論である。
例えば、上記各実施の形態では、コンピュータ2は、仮想現実空間内において電子ペン5のペン先が仮想タブレットのタッチ面に接触した場合に、力覚発生部56に力覚を発生させることとしたが、仮想タブレット以外の第2の3Dオブジェクトの表面に電子ペン5のペン先が接触した場合に、力覚発生部56に力覚を発生させることとしてもよい。また、接触ではなく、仮想現実空間入力機能による入力が開始された場合(すなわち、コンピュータ2による3Dオブジェクトの生成が開始された場合。また、仮想タブレットへの入力を行っている場合には、3Dのインクデータの生成が開始された場合)に、力覚発生部56に力覚を発生させることとしてもよい。
また、上記第2の実施の形態では、力覚発生部56が当接部56aを含んで構成される例を説明したが、図6~図8に示した例と同様の仕組みを筐体6又は持ち手部6bに設けることによって力覚発生部56を構成することとしてもよい。
また、上記各実施の形態では、力覚発生部56を起動するための制御信号をコンピュータ2内で生成する例を説明したが、電子ペン5又は空間位置指示デバイス6の中でこの制御信号を生成することとしてもよい。以下、このように電子ペン5を構成する場合に図2に示した処理部50が行う処理について、図面を参照しながら説明する。なお、空間位置指示デバイス6の中で制御信号を生成する場合についても、図2ではなく図14に示した処理部50が処理を行う他は、同様である。
図15は、図2に示した処理部50が行う処理を示す処理フロー図である。同図に示すように、処理部50は、まず前提として、仮想現実空間内に表示されている物体の情報を取得する(ステップS30)。この物体は、上述した第2の3Dオブジェクト(例えば、仮想タブレット)であり、処理部50は、コンピュータ2からの受信によって物体の情報を取得する。
続いて処理部50は、仮想現実空間内における電子ペン5のペン先5bの位置VPを取得する処理を行う(ステップS31)。この処理の詳細は図12を参照した説明したものと同様であるので、詳しい説明は省略する。なお、処理部50は、図2に示した位置検出部54から受光レベル情報を取得する。
位置VPを取得した処理部50は、位置VPと仮想現実空間内における物体(ステップS1で情報を取得したもの)の表面Sの位置とに基づいて、電子ペン5のペン先5bが表面Sに衝突したか否かを判定する(ステップS32,S33)。この処理は、図11のステップS3,S4と同様の処理である。
ステップS33の判定において衝突したと判定した場合(ステップS33の肯定判定)、処理部50は、力覚を発生させるための制御信号を生成し、図2に示した力覚発生部56に供給する(ステップS34)。これによりユーザは、表面S(例えば、仮想タブレットのタッチ面)への衝突体験を得ることが可能になる。
続いて処理部50は、再度仮想現実空間内位置VPを取得する処理を行い(ステップS35)、表面Sと位置VPの間の距離が所定値L以下であるか否かを判定する(ステップS36,S37)。この処理は、図11のステップS7,S8と同様の処理である。
ステップS37で所定値L以下であると判定した場合(ステップS37の肯定判定)、処理部50は、再度力覚を発生させるための制御信号を生成し、図2に示した力覚発生部56に供給する(ステップS38)。これによりユーザは、手元がぶれて電子ペン5のペン先5bが表面Sから離れたとしても、あまり離れていない場合には、引き続き表面Sに接触している感覚を得ることができる。
ステップS38を終了した処理部50は、ステップS35に戻って処理を続ける。これにより、表面Sと位置VPとの間の距離が所定値L以下である間(すなわち、ステップS8の判定結果が肯定的である間)、表面Sとの接触をユーザに感じさせ続けることが可能になる。
ステップS33の判定において衝突していないと判定した場合(ステップS33の否定判定)、及び、ステップS37で所定値L以下でないと判定した場合(ステップS37の否定判定)、処理部50は、ステップS31に戻って処理を続ける。この場合、力覚発生部56による力覚の発生が生じないので、位置VPと表面Sとの間の距離が離れているにも関わらず、力覚が発生しまうことが防止される。したがって、仮想現実空間内で電子ペン5を使用するユーザに違和感を感じさせることなく、力覚発生部56に力覚を発生させることが可能になる。
なお、処理部50は、仮想現実空間内位置VPを取得した場合に、取得した仮想現実空間内位置VPをコンピュータ2に対して送信することとしてもよい。こうすれば、コンピュータ2は、電子ペン5の中で力覚発生部56の制御信号を生成する場合であっても、図11に示したステップS9を実施することができる。したがって、力覚だけでなく視覚的にも接触状態を維持することが可能になる。
また、図11の説明の中で、力覚の発生を中止する条件として、表面Sと位置VPの間の距離が所定値L以下でなくなったこと以外の各種事象を用いることができる点を説明したが、この点は図15の例においても同様に適用可能である。
1 空間位置指示システム
2 コンピュータ
2a 制御部
2b メモリ
3 仮想現実ディスプレイ
4 タブレット
4a タブレット面
5 電子ペン
5a 筐体
5b ペン先
5c 溝部
6 空間位置指示デバイス
6a 筐体
6b 持ち手部
6d,56c,56k,56m ブリッジ部
6e 方向指示器
7a,7b ライトニングハウス
8a~8c 位置センサ
50 処理部
51,53 通信部
52 筆圧検出部
54 位置検出部
55 スイッチ部
56 力覚発生部
56a 当接部
56b 摺動部
56d ヒンジ部
56e スライド部
56f 固さ変化部
56h,56j 振動部
56g,56ja 基体部
56i アクチュエータ
56jb 突出部
56ka 開口部
BL ブランク期間
BU バースト期間
現実空間における電子ペン5の位置
現実空間における電子ペン5のペン先5bの位置
VP 仮想現実空間内における電子ペン5のペン先5bの位置
S 仮想現実空間内に表示した物体の表面

Claims (18)

  1. ペン先を有する電子ペンを搭載可能に構成される筐体と、
    前記ペン先に力を与えることによって力覚を発生する力覚発生部と、
    前記筐体に搭載される前記電子ペンの仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における物体との間の距離が所定値以下である場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御するコントローラと、
    を有する位置指示デバイス。
  2. 前記コントローラは、前記仮想現実空間内における前記ペン先の位置が前記仮想現実空間内における前記物体の表面内に位置する場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御する、
    請求項1に記載の位置指示デバイス。
  3. 前記コントローラは、前記仮想現実空間内における前記ペン先の位置が前記仮想現実空間内における前記物体の表面内に位置する場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御した後、前記仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における前記物体との間の距離が所定値以下である場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御する
    請求項2に記載の位置指示デバイス。
  4. 前記コントローラは、所定の事象が発生した場合に、前記力覚発生部に力覚を発生させることを中止する、
    請求項3に記載の位置指示デバイス。
  5. 前記所定の事象は、現実空間内における当該位置指示デバイスの位置の情報を示す位置情報に基づいて算出された前記ペン先の位置と前記仮想現実空間内における前記物体との間の距離が所定値以下ではない事象である
    請求項4に記載の位置指示デバイス。
  6. 前記力覚発生部は磁性流体を含み、
    前記コントローラは、前記磁性流体の固さを制御する制御信号に応じて力覚を発生させるように前記力覚発生部を制御する
    請求項1乃至5のいずれか一項に記載の位置指示デバイス。
  7. 前記力覚発生部は前記ペン先と当接する当接部を含み、
    前記コントローラは、前記制御信号に応じて前記ペン先を前記当接部に衝突させる、
    請求項6に記載の位置指示デバイス。
  8. 前記力覚発生部は振動部を含み、
    前記コントローラは、前記振動部を制御する制御信号に応じて前記振動部を振動させる、
    請求項1乃至5のいずれか一項に記載の位置指示デバイス。
  9. ペン先と、
    前記ペン先に力を与えることによって力覚を発生する力覚発生部と、
    仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における物体との間の距離が所定値以下である場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御するコントローラと、
    を有する位置指示デバイス。
  10. 前記コントローラは、前記仮想現実空間内における前記ペン先の位置が前記仮想現実空間内における前記物体の表面内に位置する場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御する、
    請求項9に記載の位置指示デバイス。
  11. 前記コントローラは、前記仮想現実空間内における前記ペン先の位置が前記仮想現実空間内における前記物体の表面内に位置する場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御した後、前記仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における前記物体との間の距離が所定値以下である場合に、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御する
    請求項10に記載の位置指示デバイス。
  12. 前記コントローラは、所定の事象が発生した場合に、前記力覚発生部に力覚を発生させることを中止する、
    請求項11に記載の位置指示デバイス。
  13. 前記所定の事象は、現実空間内における当該位置指示デバイスの位置の情報を示す位置情報に基づいて算出された前記ペン先の位置と前記仮想現実空間内における前記物体との間の距離が所定値以下ではない事象である
    請求項12に記載の位置指示デバイス。
  14. 前記力覚発生部は磁性流体を含み、
    前記コントローラは、前記磁性流体の固さを制御する制御信号に応じて力覚を発生させるように前記力覚発生部を制御する
    請求項9乃至12のいずれか一項に記載の位置指示デバイス。
  15. 前記力覚発生部は前記ペン先と当接する当接部を含み、
    前記コントローラは、前記制御信号に応じて前記ペン先を前記当接部に衝突させる、
    請求項14に記載の位置指示デバイス。
  16. 現実空間における位置指示デバイスのペン先の位置を取得するステップと、
    前記現実空間における前記ペン先の位置に基づき、仮想現実空間内における前記ペン先の位置を取得するステップと、
    前記仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における物体との間の距離が所定値以下であるか否かを判定する判定ステップと、
    前記判定ステップの判定結果に応じて、前記ペン先に力を与えることによって力覚を発生する力覚発生部を有する前記位置指示デバイスに対し、前記ペン先に力を与えることによって力覚を発生させるように前記力覚発生部を制御するための制御信号を送信する送信ステップと、
    を実行するコンピュータを含む空間位置指示システム。
  17. 前記判定ステップは、さらに、前記仮想現実空間内における前記ペン先の位置と前記仮想現実空間内における物体との間の距離に基づいて、前記ペン先が前記物体に衝突したか否かを判定し、
    前記送信ステップは、さらに、前記ペン先が前記物体に衝突したか否かの判定結果に応じて、前記位置指示デバイスに前記力覚発生部を制御するための制御信号を送信する
    請求項16に記載の空間位置指示システム。
  18. 前記力覚発生部は磁性流体を含み、
    前記制御信号は、前記磁性流体の固さを制御する信号である、
    請求項16に記載の空間位置指示システム。
JP2020521071A 2018-05-21 2019-04-04 位置指示デバイス及び空間位置指示システム Active JP7401427B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023194216A JP2024012599A (ja) 2018-05-21 2023-11-15 位置指示デバイス及びコンピュータ

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018096936 2018-05-21
JP2018096936 2018-05-21
PCT/JP2019/015043 WO2019225170A1 (ja) 2018-05-21 2019-04-04 位置指示デバイス及び空間位置指示システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023194216A Division JP2024012599A (ja) 2018-05-21 2023-11-15 位置指示デバイス及びコンピュータ

Publications (2)

Publication Number Publication Date
JPWO2019225170A1 JPWO2019225170A1 (ja) 2021-06-24
JP7401427B2 true JP7401427B2 (ja) 2023-12-19

Family

ID=68616765

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020521071A Active JP7401427B2 (ja) 2018-05-21 2019-04-04 位置指示デバイス及び空間位置指示システム
JP2023194216A Pending JP2024012599A (ja) 2018-05-21 2023-11-15 位置指示デバイス及びコンピュータ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023194216A Pending JP2024012599A (ja) 2018-05-21 2023-11-15 位置指示デバイス及びコンピュータ

Country Status (4)

Country Link
US (2) US11604520B2 (ja)
JP (2) JP7401427B2 (ja)
CN (1) CN112041789B (ja)
WO (1) WO2019225170A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181118A1 (ja) * 2018-03-23 2019-09-26 株式会社ワコム 3次元位置指示器及び3次元位置検出システム
CN112433628B (zh) * 2021-01-28 2021-06-08 深圳市瑞立视多媒体科技有限公司 双光球交互笔的刚***姿确定方法、装置和计算机设备
CN116848494A (zh) 2021-03-22 2023-10-03 株式会社和冠 控制器及追踪***
KR20230138548A (ko) * 2021-04-23 2023-10-05 가부시키가이샤 와코무 컨트롤러 및 컴퓨터
WO2023286191A1 (ja) * 2021-07-14 2023-01-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および駆動データ生成方法
WO2023157653A1 (ja) * 2022-02-18 2023-08-24 ソニーグループ株式会社 情報処理装置及び情報処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225335A (ja) 2009-03-20 2010-10-07 Victor Co Of Japan Ltd 入力装置および入力方法
WO2016181469A1 (ja) 2015-05-11 2016-11-17 富士通株式会社 シミュレーションシステム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US5694013A (en) * 1996-09-06 1997-12-02 Ford Global Technologies, Inc. Force feedback haptic interface for a three-dimensional CAD surface
US6281651B1 (en) * 1997-11-03 2001-08-28 Immersion Corporation Haptic pointing devices
WO2010071827A2 (en) 2008-12-19 2010-06-24 Immersion Corporation Interactive painting game and associated controller
JP2010287221A (ja) * 2009-05-11 2010-12-24 Univ Of Tokyo 力覚提示装置
JP2012022639A (ja) * 2010-07-16 2012-02-02 Ntt Docomo Inc 表示装置、映像表示システムおよび映像表示方法
JP5664301B2 (ja) * 2011-02-08 2015-02-04 大日本印刷株式会社 コンピュータ装置、電子ペン入力システム、及びプログラム
US9563266B2 (en) * 2012-09-27 2017-02-07 Immersivetouch, Inc. Haptic augmented and virtual reality system for simulation of surgical procedures
US10108266B2 (en) * 2012-09-27 2018-10-23 The Board Of Trustees Of The University Of Illinois Haptic augmented and virtual reality system for simulation of surgical procedures
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US10296086B2 (en) * 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
JP6651297B2 (ja) * 2015-03-27 2020-02-19 ユニバーシティ・オブ・タンペレUniversity of Tampere ハプティック・スタイラス
KR20170055135A (ko) * 2015-11-11 2017-05-19 엘지전자 주식회사 가상현실 단말기 및 그 제어방법
CN106371604B (zh) * 2016-09-18 2020-03-20 Tcl集团股份有限公司 交互控制手套、虚拟现实***及其应用方法
CN112074802A (zh) * 2018-05-18 2020-12-11 株式会社和冠 位置指示装置及信息处理装置
US11009955B2 (en) * 2018-07-30 2021-05-18 Apple Inc. Stylus with shear force feedback
US20200310561A1 (en) * 2019-03-29 2020-10-01 Logitech Europe S.A. Input device for use in 2d and 3d environments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225335A (ja) 2009-03-20 2010-10-07 Victor Co Of Japan Ltd 入力装置および入力方法
WO2016181469A1 (ja) 2015-05-11 2016-11-17 富士通株式会社 シミュレーションシステム

Also Published As

Publication number Publication date
CN112041789B (zh) 2024-05-31
JPWO2019225170A1 (ja) 2021-06-24
US20210072847A1 (en) 2021-03-11
WO2019225170A1 (ja) 2019-11-28
CN112041789A (zh) 2020-12-04
JP2024012599A (ja) 2024-01-30
US11604520B2 (en) 2023-03-14
US20230185389A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
JP7401427B2 (ja) 位置指示デバイス及び空間位置指示システム
US10564730B2 (en) Non-collocated haptic cues in immersive environments
US10509468B2 (en) Providing fingertip tactile feedback from virtual objects
JP4044114B2 (ja) 把持式コンピュータインタラクティブデバイス
KR100812624B1 (ko) 입체영상 기반 가상현실장치
KR101548156B1 (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
JP2010287221A (ja) 力覚提示装置
CN104714687A (zh) 用于触觉显示参数的光学传输的***和方法
JPWO2017043610A1 (ja) 情報処理装置、方法およびコンピュータプログラム
US20050116940A1 (en) Wireless force feedback input device
CN103077633A (zh) 一种立体虚拟培训***和方法
JP2009276996A (ja) 情報処理装置、情報処理方法
US20190155387A1 (en) Haptic Accessory Apparatus
EP3470960A1 (en) Haptic effects with multiple peripheral devices
KR20200110502A (ko) 햅틱 컨트롤러 및 이를 이용한 햅틱 피드백 제공 시스템 및 방법
US20200249814A1 (en) Stimulus transmission device
JP2003337962A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
Regenbrecht et al. Virtual reality aided assembly with directional vibro-tactile feedback
JP5513974B2 (ja) 仮想力覚提示装置及び仮想力覚提示プログラム
JP7442778B2 (ja) 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法
JP4063131B2 (ja) 画像処理装置及び触覚・力覚提示方法
KR102337816B1 (ko) 입력장치 및 이를 이용한 데이터 입력방법
WO2023100268A1 (ja) 切削訓練補助システム
WO2021193421A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2024090298A1 (ja) 情報処理装置、情報処理方法、及び、入力デバイス

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230822

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231207

R150 Certificate of patent or registration of utility model

Ref document number: 7401427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150