JP2014052975A - 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム - Google Patents

触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム Download PDF

Info

Publication number
JP2014052975A
JP2014052975A JP2012198778A JP2012198778A JP2014052975A JP 2014052975 A JP2014052975 A JP 2014052975A JP 2012198778 A JP2012198778 A JP 2012198778A JP 2012198778 A JP2012198778 A JP 2012198778A JP 2014052975 A JP2014052975 A JP 2014052975A
Authority
JP
Japan
Prior art keywords
tactile
force
top plate
touch
force sense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012198778A
Other languages
English (en)
Inventor
Anzu Kawazoe
杏 川添
Kazuo Ikeshiro
和夫 池城
Hiroki Imamura
弘樹 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Soka University
Original Assignee
Soka University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Soka University filed Critical Soka University
Priority to JP2012198778A priority Critical patent/JP2014052975A/ja
Publication of JP2014052975A publication Critical patent/JP2014052975A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】たとえば、「なぞる動作」や「撫で動作」、あるいは、「すべすべした、または、ざらざら」、「ふわふわ」などの触感、弾力感を提示可能な触覚・力覚提示デバイスを提供する。
【解決手段】人の触知覚動作の押し込み、つかみ、叩き、撫でる動作は、指の接触面に対して垂直方向の相対運動が大きくなり、触知覚動作を体験するには法線力の提示が必要となるため、触覚・力覚提示デバイス30として、天板38による接平面の傾きを用いる。触覚・力覚提示システムは、表示装置50に表示されている、ウェブ・カメラ20で撮影した操作者10の指先と統括コンピュータ40によるARによるCG物体が触れたとき、触れた指先に対して、天板38が物体の接平面の傾きを提示して、物体からの衝撃、すなわち、法線方向の反力を返す。
【選択図】図1

Description

本発明は、力帰還器具(ハプティック・デバイス(Haptics Device) )と、それを用いた触覚・力覚提示システムに関する。
特に、本発明は、平面近似による繊細な、および/または、微妙な、触覚・力覚を提示することが可能な触覚・力覚提示デバイスと、それを用いた触覚・力覚提示システムに関する。
人に仮想物体の存在や衝撃を提示する力帰還装置(ハプティック・デバイス)は知られている(たとえば、特許文献1(特開2005−190465号公報))。
また、たとえば、医療の分野、アミューズメントの分野などにおいて、遠隔地相互間での操作や会議の場において、仮想現実(VR:Virtual Reality)や、仮想現実のバリエーションとしての拡張現実(AR:Argumented Reality)に基づくコンピュータグラフィック(CG)を恰も同一の空間で共有し、そのCGの物体に触れて、触覚による感覚が伝達することにより、ユーザ(操作者)にとって直観的で、かつ、3次元的に物体を操作することが可能となることが知られている(たとえば、特許文献2:特開平11−219100号公報)。
このような技術を用いると、恰も、同一空間で複数の人間が共同で作業をしている感覚で操作したり、議論をすることができる。
また、視覚と聴覚の呈示と、力覚・触覚の呈示を統合して呈示してアクチュエータと、ディスプレイを配置して、簡潔で臨場感の高い装置が知られている(たとえば、特許文献3、特開2004−54694号公報)。
さらに、このような技術の他の例として、地面を支点としてモータやワイヤによって手と接触点であるペンやボールが駆動し、力や触覚を提示できる、設置型の力触覚ディスプレイ」が知られている(たとえば、PHANToM、SPIDAR−G)。
図1はそのような力覚・触覚デバイスの第1例として、東京工業大学で開発した、SPIDERと命名されている装置の1例を図解している。
この装置は、たとえば、表示器に仮想物体をCGを表示し、ユーザがグリップを操作したとき、複数のワイヤと複数のモータによりユーザが操作するグリップの位置と姿勢を検出し、コンピュータに伝達する。仮想空間上の接触も衝突の情報は、SPIDERにより力覚に変換される。
図2はそのような力覚・触覚デバイスの第2例として、PHANToMと呼ばれる装置を図解している。
この装置は、たとえば、手術のシミュレーションを行う場合などにおいて、表示器に表示されたCGを見ながら、ペン型のロボートアームをユーザが握って操作した場合、装置からロボートアームにCG物体に触れた際の物体から手に対する力が伝えられる。
このように、図1、図2において、力覚・触覚デバイスは机の上に配置されており、操作者は表示器に表示されたCGを見ながら、所望の操作を行う。
SPIDER、PHANToMなどの力触覚デバイスからは、CGの物体に触れた際の物体から手に対する力で伝達される。
このように、力覚・触覚デバイスは、基本的には、CG物体に触れた際にその物体からの弾力を伝達する。
特開2005−190465号公報 特開平11−219100号公報 特開2004−54694号公報
しかしながら、従来の力覚・触覚デバイスでは、さらに微妙な触覚、たとえば、「なぞり動作」や「撫で動作」などの提示ができない。
また、従来の力覚・触覚デバイスでは、「すべすべした,または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を提示することができない。
以上から、微妙な触覚、繊細な触感、弾力感も提供することが望まれている。
すなわち、ARに基づくCG物体をあたかも同一の空間で共有し、「なぞり動作」や「撫で動作」などの微妙な触覚、あるいは、「すべすべした、または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を感じながら、CG物体を実際に触れるような感覚および触覚をより現実的に表現することにより、CG物体の形状をより直観的に表現して提示することができ、その結果、操作者が直観的に実際に物体に触れているような触覚を提示(呈示)することが望まれている。
本発明によれば、天板と、前記天板を支持し、CG画像化されたCG物体の表面の法線力の提示を可能とするため前記天板を前記CG物体の表面の接平面に傾斜可能とする、少なくとも直交方向に回転可能な第1および第2の回転機構を有する、天板駆動機構と、前記第1および第2の回転機構を回転駆動させる、回転機構アクチュエータと、前記アクチュエータを駆動制御する制御手段とを有する、触覚・力覚提示デバイスが提供される。
触覚・力覚提示デバイスを用いた触覚・力覚提示システムにおいて、表示装置に表示されている、撮像手段で撮影した操作者の指先と信号処理手段によるARによるCG物体が触れたとき、触れた指先に対して、天板が物体の接平面の傾きを提示して、物体からの衝撃、すなわち、法線方向の反力を返す。
その理由は、人の触知覚動作の押し込み、つかみ、叩き、撫でる動作は、指の接触面に対して垂直方向の相対運動が大きくなるため、触知覚動作を体験するには法線力の提示が必要となるため、本発明においては、天板による接平面の傾きを用いた。
上記天板を使用すると、操作者は、CG物体を実際に掴んだり、押し返したりする感覚が手元で生じるため、より直観的になり、表示装置に表示されているCG物体を操作することが容易になる。
また、上記天板を用いると、感覚が伝わりやすくなるため、表示装置に表示されているCG物体の細かい作業にも適する。
好ましくは、前記天板駆動機構は、基台に立設している支持部と、前記第1の回転機構によって前記支持部に対して回転自在に連結された第1の節と、前記第2の回転機構によって前記第1の節に対して回転自在に連結された第2の節とを有し、前記天板が前記第2の節に固定されている。
また好ましくは、前記基台には、各々が当該基台を二次元方向に移動可能にする、少なくとも1つの2方向移動可能な車輪が設けられており、前記車輪を駆動する車輪アクチュエータを有する。
前記天板の表面が、平坦な面を有する、または、ふわふわしている、または、ざらざらした、ちくちくしたという触感を与えるように形成されている。
また本発明によれば、上記触覚・力覚提示デバイスと、当該触覚・力覚提示デバイスを撮像する撮像手段と、当該撮像手段の撮像結果を入力し、ARによるCG画像を生成して表示装置に表示するとともに、前記天板駆動機構における、CG画像化されたCG物体の表面の法線力の提示を可能とするため前記天板を前記CG物体の表面の接平面に傾斜可能とする、少なくとも直交方向に回転可能な第1および第2の回転機構を回転駆動させる、回転機構アクチュエータを制御する制御信号を生成して、前記制御手段に出力する信号処理手段と、を有する触覚・力覚提示システムが提供される。
好ましくは、前記信号処理手段は、前記基台に前記2方向移動可能な車輪が設けられているとき、前記車輪を駆動する制御信号を生成して、前記制御手段に出力し、前記制御手段は、前記車輪アクチュエータを駆動制御する。
本発明によれば、微妙な触覚、たとえば、たとえば、「なぞり動作」や「撫で動作」などの提示することができる。
また、本発明によれば、天板の表面を、「すべすべした、または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を提示する状態にすることができる。
すなわち、本発明によれば、ARに基づくCG物体をあたかも同一の空間で共有し、「なぞり動作」や「撫で動作」などの微妙な触覚、あるいは、「すべすべした、または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を感じながら、CG物体を実際に触れるような感覚および触覚をより現実的に表現することにより、CG物体の形状をより直観的に表現して提示することができ、その結果、操作者が直観的に実際に物体に触れているような触覚を提示(呈示)することができる。
図1は従来の力覚・触覚デバイスの第1例として、SPIDERの1例を図解した図である。 図2は従来の力触覚デバイスの第2例として、PHANToMを図解した図である。 図3は本発明の第1実施の形態の力覚・触覚システムの概略構成を示す図である。 図4は図3に図解した触覚・力覚提示システムに用いる触覚・力覚提示デバイスの斜視図である。 図5は、図3に図解した触覚・力覚提示システムにおいて、例示的なCGとして表示器に表示した例を示す図である。 図6は、触覚・力覚提示デバイスの天板を操作したとき、横から見た図である。 図7は、図6に図解した天板を操作したときの触覚・力覚提示デバイスの天板駆動機構の動きを横から見た図である。 図8は図4に図解した触覚・力覚提示デバイスの2軸を回転させたときの斜視図である。 図9は触覚・力覚提示デバイスの駆動機構の2軸を動作させる制御系統を示す図である。 図10は、用途に応じた表面の天板を使用することを示す図である。 図11はカラーグローブを使用した場合を示す図である。
以下、本発明の触覚・力覚提示デバイスとそれを用いた実施の形態について述べる。
第1実施の形態
図3〜図8を参照して本発明の触覚・力覚提示器具(デバイス)およびそれを用いた触覚・力覚提示装置(システム)の第1実施の形態について述べる。
図3は本発明の第1実施の形態の力覚・触覚システムの概略構成を示す図である。
図4は図3に図解した触覚・力覚提示システムに用いる触覚・力覚提示デバイスの斜視図である。
図5は図3に図解した触覚・力覚提示システムにおいて、例示的なCGとして表示装置に表示した例を示す図である。
図6は触覚・力覚提示デバイスの天板を操作したとき、横から見た図である。
図7は、図6に図解した天板を操作したときの触覚・力覚提示デバイスの機構の動きを横から見た図である。
図8は図4に図解した触覚・力覚提示デバイスの駆動機構の2軸を同時に回転させたときの斜視図である。
図9は触覚・力覚提示デバイスの駆動機構の2軸を動作させる、サーボコントローラ60を含む制御系統を示す図である。
触覚・力覚提示システムの構成
図3において、触覚・力覚提示システム1は、ウェブ・カメラ20と、触覚・力覚提示デバイス30と、統括コンピュータ40と、表示装置50と、サーボコントローラ60とを有する。
本明細書において、図4を参照して詳述する触覚・力覚提示デバイス30を含む全体を、触覚・力覚提示システムと呼ぶ。
ウェブ・カメラ20は、本発明の撮像手段に対応する。触覚・力覚提示デバイス30は、本発明の触覚・力覚提示器具に対応する。統括コンピュータ40は、本発明の信号処理手段に対応する。表示装置50は本発明の表示手段に対応する。サーボコントローラ60は本発明の制御手段に対応する。
ウェブ・カメラ
ウェブ・カメラ20は、触覚・力覚提示システム全体を撮像可能に配設されている。
特に、ウェブ・カメラ20は、図4に例示した触覚・力覚提示デバイスの全体、および、基台31に配設された第1〜第4の位置基準マーカ33−1〜33−4を撮像可能に配設されている。
触覚・力覚提示デバイスの構成
図4に図解した、触覚・力覚提示デバイス30は、たとえば、平坦な机の上に、二次元状に移動可能に置かれており、操作者(ユーザ)10が操作する。
触覚・力覚提示デバイス30は、基台31と、第1〜第4のオムニバス車輪32−1〜32−4と、第1〜第4の基準位置マーカ33−1〜33−4と、天板駆動機構34と、第1、第2回転軸36−1、36−2と、天板38とを有する。
なお、第1〜第4のオムニバス車輪32−1〜32−4は、本発明に必須の構成要件ではない。
天板
触覚・力覚提示デバイス30には、操作者10が触れる、平坦な天板38が設けられている。
天板38は、天板駆動機構34に支持されて、自在に傾斜できる。
以下、天板38および天板駆動機構34を用いた理由を述べる。
図5に例示したように、表示装置50に表示されている、ウェブ・カメラ20で撮影した操作者10の指先と統括コンピュータ40によるARによるCG画像として表示されている物体(CG物体)が触れたとき、触れた指先に対して、天板38がCG物体の表面の接平面の傾きを提示して、CG物体からの衝撃、すなわち、CG物体の表面の法線方向の反力を返す。その理由は、人の触知覚動作の押し込み、つかみ、叩き、撫でる動作は、指の接触面に対して垂直方向の相対運動が大きくなるため、触知覚動作を体験するには法線力の提示が必要となるため、天板38による接平面の傾きを用いた。
なお、接平面とは、Sをなめらかな曲面とし、PをS上の点とする。このとき、Pを通るS上の曲線を任意にとり、Pにおけるこの曲線の接線をつくれば、これらはすべて同一平面上にある。この平面を点Pにおける曲面Sの接平面と呼ぶ。
上記天板38を使用すると、操作者10は、CG物体を実際に掴んだり、押し返したりする感覚が手元で生じるため、より直観的になり、表示装置50に表示されているCG物体を操作することが容易になる。
また、天板38を用いると、感覚が伝わりやすくなるため、表示装置50に表示されているCG物体の細かい作業にも適する。
基準位置マーカ
第1〜第4の基準位置マーカ33−1〜33−4は、基台31の位置を検出するためのマークであり、基台31の4隅に配設されている。
ウェブ・カメラ
ウェブ・カメラ20は、基台31の第1〜第4の位置基準マーカ33−1〜33−4を含み、触覚・力覚提示デバイス30全体を撮像する。
ウェブ・カメラ20によって撮像され、撮像結果がウェブ・カメラ20から統括コンピュータ40に出力され、統括コンピュータ40は、撮像結果から基台31の4隅の位置を検出する。
またウェブ・カメラ20で撮像した結果は、図5に例示したように、統括コンピュータ40を介して表示装置50にCGとして表示される。
表示装置50は、たとえば、液晶表示装置である。
天板の駆動機構
天板38は、たとえば、図6に図解したように、自在に傾斜可能に天板駆動機構34に支持されている。
天板駆動機構34は、基台31から立設されており、図7に図解したように、第1の柱34−1、第2の柱34−2、第3の柱34−3で構成されている。
第1の柱34−1が本発明の基台に立設している支持部に対応し、第2の柱34−2が本発明の第1の回転機構によって支持部に対して回転自在に連結された第1の節に対応し、第3の柱34−3が本発明の第2の回転機構によって第1の節に対して回転自在に連結された第2の節に対応している。
天板38が第2の節(第3の柱34−3)に固定されている。
第1、第2回転軸36−1、36−2が、天板駆動機構34の垂直軸に沿って、直交する向きに回転可能となっている。
第1の柱34−1と第2の柱34−2との間が第1の回転軸36−1によって回転可能に連結されている。同様に、第2の柱34−2と第3の柱34−3とが第2の回転軸36−2によって回転可能に連結されている。
第1、第2回転軸36−1、36−2は、図9に図解した、サーボコントローラ60、サーボモータ70−1、70−2によって、駆動される。
図6および図7に図解した例は、第2の回転軸36−2の回転動作により、第3の柱34−3が回転され、その結果、天板38が右側に傾斜した例を示している。
他方、図8は、第1、第2の回転軸36−1、36−2を同時に駆動した場合を示している。第1、第2の回転軸36−1、36−2を同時にかつ適宜駆動することにより、天板38を所望の傾きに傾けることができる。
以上の構成により、天板38が、図5に例示したように、表示装置50に表示されている、ウェブ・カメラ20で撮影した操作者10の指先と統括コンピュータ40によるARによるCG物体が触れたとき、触れた指先に対して、図9に示したサーボコントローラ60およびサーボモータによって駆動される、天板38が物体の接平面の傾きを提示して、物体からの衝撃、すなわち、法線方向の反力を返す。
このように、天板38を使用すると、操作者10は、CG物体を実際に掴んだり、押し返したりする感覚が手元で生じるため、より直観的になり、表示装置50に表示されているCG物体を操作することが容易になる。また、天板38を用いると、感覚が伝わりやすくなるため、表示装置50に表示されているCG物体の細かい作業にも適する。
上述した力覚・触覚の提示方法は、統括コンピュータ40が、ウェブ・カメラ20の撮像結果を参照して、天板38の傾きの提示内容を決定し、さらに、第1、第2回転軸36−1、36−2の駆動量を決定して、サーボコントローラ60に指示する。
サーボコントローラ60は、統括コンピュータ40からの指令に応じて、第1のサーボモータ70−1、および/または、第2のサーボモータ70−2を駆動制御することにより、上述した天板38の駆動による力覚・触覚の提示を実現する。
統括コンピュータ40は、さらに、サーボコントローラ60を介して、第1〜第4のオムニバス車輪32−1〜32−4を駆動することにより、上述した天板38への力覚・触覚の提示に加えて、二次元平面方向への力覚・触覚の提示を加えることができる。
基台の移動、オムニバス車輪
好ましくは、第1〜第4のオムニバス車輪32−1〜32−4が、各々基台31の各側辺の中心部に配設されている。
第1〜第4のオムニバス車輪32−1〜32−4は、基台31を机の上を平面(2次元)上、自由な方向に移動にする車輪である。
たとえば、第1のオムニバス車輪32−1を例示してその動作を述べる。図4において、オムニバス車輪32−1〜32−4全体が第1の回転方向Rに回転すると、基台31はY方向に移動する。なお、第1のオムニバス車輪32−1には、第1の回転方向Rに沿って、第1の回転方向Rと直交する方向rに回転する第2の車輪(図示せず)が複数配設されており、これら第2の車輪を回転させると、すなわち、第1の回転方向と直交する第2の回転方向rに回転させると、基台31はX方向に移動する。
オムニバス車輪32−1を第1の回転方向Rに回転させ、同時に、第2の車輪を第2の回転方向rに回転すると、基台31は、両者のベクトル和に沿った方向と速度で移動する。
このように、第1〜第4のオムニバス車輪32−1〜32−4を適宜動作させると、基台31は二次元平面を自在に移動可能となる。
上述した操作を可能とするため、各オムニバス車輪32−1〜32−4は、たとえば、図9に例示したように、第1の回転方向に回転させるための第1のモータMと、第2の回転方向rに回転させるための複数の第2のモータm1〜mnとによって駆動される。
各オムニバス車輪32の第1のモータMと、複数の第2のモータm1〜mnとは、サーボコントローラ60によって駆動制御される。
サーボコントローラ60は、統括コンピュータ40の指示のもとで、各オムニバス車輪32についての第1のモータMと複数の第2のモータm1〜mnとを制御する。
このように、第1〜第4のオムニバス車輪32−1〜32−4の駆動制御も、第1、第2回転軸36−1、36−2の駆動制御と同様、統括コンピュータ40が、ウェブ・カメラ20の撮像結果を参照して、天板38の傾きの提示内容に加えて、基台31の移動(方向、量)を決定し、さらに、各オムニバス車輪の第1のモータ、複数の第2のモータの各々の駆動量を決定して、サーボコントローラ60に指示する。サーボコントローラ60は、統括コンピュータ40からの指令に応じて、サーボモータ71−0、71−1〜71−nを駆動制御することにより実現する。
第1〜第4のオムニバス車輪32−1〜32−4を動作させると、天板38が平面方向にも移動できて、操作者10の指でなぞられるなどの効果を付加することができる。
第2の実施の形態
図10は、用途に応じた表面の天板を使用することを示す図である。
第1実施の形態において、天板38は表面が平坦なものを使用した場合について述べた。
天板38は、用途および目的に応じて、操作者10がその表面にふれたとき、たとえば、図10(a)に図解した表面が毛皮、ベルベットのように「ふわふわ」した、図10(b)に図解した表面がサンドペーパーのように「ざらざら」した、図10(c)に図解した表面に指を刺すような「チクチク」した、触感を与える形状のものを用いることができる。
このような表面の天板38を用いると、CG物体を操作者10がなぞる動作をしたとき、CG物体を、撫でた、あるいは、なぞったときのような、ざらざら、ふわふわ、チクチクなどの触感を再現することができる。したがって、操作者10はより正確な触感を知覚することができる。
第3実施の形態
図11はカラーグローブを使用した場合を示す図である。
本実施の形態においては、カラーグローブを用いて操作者10の指の位置を取得する。また、2本の手と5本の指によって操作を2つの触覚・力覚提示デバイスに応用することが可能となる。
応用例
本発明の実施の形態の触覚・力覚提示デバイスおよびその触覚・力覚提示デバイスを用いた触覚・力覚提示システムは種々の分野に適用することができる。
第1応用例
たとえば、美術館も博物館において、実際には手を触れてはいけない展示品が多数展示されている。そのような場合に、本発明に基づく触覚・力覚提示デバイスおよびそれを用いた触覚・力覚提示システムを適用すると、表示装置50に表示されたARによって表示された展示品のCG物体を触り、あたかも、実際の展示品に触れているような体験をすることができる。
第2応用例
遠隔地における会議において、本発明の触覚・力覚提示デバイスと触覚・力覚提示システムを用いて、ARによって表示されたCG物体を操作したとき、その物体の触感が天板38を介して伝わってくることにより、より直観的にそのCG物体を操作することができる。
第3応用例
粘土や紙、ボンドを使用する美術の学習や趣味でも、本発明の触覚・力覚提示デバイスおよび遺体1を適用して、ARを用いたCG物体を操作して、感覚が伝わりながら操作することにより、操作者10が実際に物体に触れているような感触でCGより美術品を創作することができる。
なお、この場合、創作が失敗しても、現実の空間(実在する世界)には失敗した作品が残らないので、廃棄処分を考慮する必要はない。
このように、本発明の触覚・力覚提示デバイスと、それを用いた触覚・力覚提示システムを応用例は、その他種々存在する。
1・・・触覚・力覚提示システム
10・・・操作者、20・・・ウェブ・カメラ、30・・・触覚・力覚提示デバイス、40・・・統括コンピュータ、50・・・表示装置、60・・・サーボコントローラ
31・・・基台、32−1〜32−4・・・第1〜第4のオムニバス車輪、33−1〜33−4・・・第1〜第4の位置基準マーカ、34・・・天板駆動機構、38・・・天板。

Claims (9)

  1. 天板と、
    基台に配設されて、前記天板を支持し、CG画像化されたCG物体の表面の法線力の提示を可能とするため前記天板を前記CG物体の表面の接平面に傾斜可能とする、少なくとも直交方向に回転可能な第1および第2の回転機構を有する、天板駆動機構と、
    前記第1および第2の回転機構を回転駆動させる、回転機構アクチュエータと、
    前記アクチュエータを駆動制御する制御手段と、
    を有する、
    触覚・力覚提示デバイス。
  2. 前記天板駆動機構は、
    前記基台に立設されている支持部と、
    前記第1の回転機構によって前記支持部に対して回転自在に連結された第1の節と、
    前記第2の回転機構によって前記第1の節に対して回転自在に連結された第2の節と
    を有し、
    前記天板が前記第2の節に固定されている、
    請求項1に記載の触覚・力覚提示デバイス。
  3. 前記基台には、各々が当該基台を二次元方向に移動可能にする、少なくとも1つの2方向移動可能な車輪が設けられており、
    前記車輪を駆動する車輪アクチュエータを有する、
    請求項1または2に記載の触覚・力覚提示デバイス。
  4. 前記天板の表面が、平坦な面を有する、
    請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。
  5. 前記天板の表面が、ふわふわする触覚を与えるように形成されている、
    請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。
  6. 前記天板の表面が、ざらざらする触覚を与えるように形成されている、
    請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。
  7. 前記天板の表面が、ちくちくする触覚を与えるように形成されている、
    請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。
  8. 請求項1〜7のいずれかに記載の触覚・力覚提示デバイスと、
    当該触覚・力覚提示デバイスを撮像する撮像手段と、
    当該撮像手段の撮像結果を入力し、ARによるCG画像を生成して表示装置に表示するとともに、前記天板駆動機構における、CG画像化されたCG物体の表面の法線力の提示を可能とするため前記天板を前記CG物体の表面の接平面に傾斜可能とする、少なくとも直交方向に回転可能な第1および第2の回転機構を回転駆動させる、回転機構アクチュエータを制御する制御信号を生成して、前記制御手段に出力する信号処理手段と、
    を有する触覚・力覚提示システム。
  9. 前記信号処理手段は、前記基台に前記2方向移動可能な車輪が設けられているとき、前記車輪を駆動する制御信号を生成して、前記制御手段に出力し、
    前記制御手段は、前記車輪アクチュエータを駆動制御する、
    請求項8に記載の触覚・力覚提示システム。
JP2012198778A 2012-09-10 2012-09-10 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム Pending JP2014052975A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012198778A JP2014052975A (ja) 2012-09-10 2012-09-10 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012198778A JP2014052975A (ja) 2012-09-10 2012-09-10 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム

Publications (1)

Publication Number Publication Date
JP2014052975A true JP2014052975A (ja) 2014-03-20

Family

ID=50611371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012198778A Pending JP2014052975A (ja) 2012-09-10 2012-09-10 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム

Country Status (1)

Country Link
JP (1) JP2014052975A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190069887A (ko) * 2017-12-12 2019-06-20 주식회사 제이케이덴스 햅틱 인터페이스를 이용한 치과 치료 시뮬레이션 장치
CN111599237A (zh) * 2020-04-09 2020-08-28 安徽佐标智能科技有限公司 基于ar的智能交通编程仿真***
JP2020194465A (ja) * 2019-05-30 2020-12-03 学校法人立命館 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1133937A (ja) * 1997-07-18 1999-02-09 Yaskawa Electric Corp 力触覚ディスプレイ方法
JP2000267784A (ja) * 1999-03-16 2000-09-29 Fuji Xerox Co Ltd 触覚呈示装置
JP2011115936A (ja) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International 触覚提示付ロボット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1133937A (ja) * 1997-07-18 1999-02-09 Yaskawa Electric Corp 力触覚ディスプレイ方法
JP2000267784A (ja) * 1999-03-16 2000-09-29 Fuji Xerox Co Ltd 触覚呈示装置
JP2011115936A (ja) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International 触覚提示付ロボット

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016016139; 赤澤和伸 他: '"高分子ゲルアクチュエータを用いた触感ディスプレイによる手触りの柔らかさの呈示"' 日本バーチャルリアリティ学会第8回大会論文集 , 20030930, pp.221-224 *
JPN6016016141; 横小路泰義: '"力覚提示と複合現実感"' 電子情報通信学会技術研究報告 Vol.97,No.324, 19971016, pp.49-50 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190069887A (ko) * 2017-12-12 2019-06-20 주식회사 제이케이덴스 햅틱 인터페이스를 이용한 치과 치료 시뮬레이션 장치
KR102060865B1 (ko) * 2017-12-12 2020-02-11 주식회사 제이케이덴스 햅틱 인터페이스를 이용한 치과 치료 시뮬레이션 장치
JP2020194465A (ja) * 2019-05-30 2020-12-03 学校法人立命館 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法
JP7442778B2 (ja) 2019-05-30 2024-03-05 学校法人立命館 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法
CN111599237A (zh) * 2020-04-09 2020-08-28 安徽佐标智能科技有限公司 基于ar的智能交通编程仿真***

Similar Documents

Publication Publication Date Title
US11723734B2 (en) User-interface control using master controller
Sreelakshmi et al. Haptic technology: A comprehensive review on its applications and future prospects
US8378968B2 (en) Method, apparatus, and article for force feedback based on tension control and tracking through cables
US20210030491A1 (en) Interaction between user-interface and master controller
US6597347B1 (en) Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
Bowman et al. 3d user interfaces: New directions and perspectives
USRE40891E1 (en) Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US20200310561A1 (en) Input device for use in 2d and 3d environments
US8350843B2 (en) Virtual hand: a new 3-D haptic interface and system for virtual environments
O’malley et al. Haptic interfaces
Meli et al. Wearable haptics and hand tracking via an rgb-d camera for immersive tactile experiences
Kataoka et al. A new interactive haptic device for getting physical contact feeling of virtual objects
Noma et al. A palmtop display for dextrous manipulation with haptic sensation
JP2014052975A (ja) 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム
Zhu et al. Tapetouch: A handheld shape-changing device for haptic display of soft objects
Nisar et al. Effects of different hand-grounding locations on haptic performance with a wearable kinesthetic haptic device
Achibet et al. DesktopGlove: A multi-finger force feedback interface separating degrees of freedom between hands
Jyothi et al. Haptic technology-a sense of touch
Hou et al. Enhancing touch screen games through a cable-driven force feedback device
JP2011215692A (ja) 3次元3自由度回転パラメータ処理装置
Mendes Manipulation of 3d objects in immersive virtual environments
JPH0981026A (ja) ヒューマンインタフェースにおける感覚呈示装置
Ota et al. Hap’n’Roll: A Scroll-inspired Device for Delivering Diverse Haptic Feedback with a Single Actuator
Zhou et al. A comparative study for touchless telerobotic surgery
Adelsberger et al. A Novel Piezo-Based Technology for Haptic Feedback for XR

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161115