JP2014052975A - 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム - Google Patents
触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム Download PDFInfo
- Publication number
- JP2014052975A JP2014052975A JP2012198778A JP2012198778A JP2014052975A JP 2014052975 A JP2014052975 A JP 2014052975A JP 2012198778 A JP2012198778 A JP 2012198778A JP 2012198778 A JP2012198778 A JP 2012198778A JP 2014052975 A JP2014052975 A JP 2014052975A
- Authority
- JP
- Japan
- Prior art keywords
- tactile
- force
- top plate
- touch
- force sense
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】人の触知覚動作の押し込み、つかみ、叩き、撫でる動作は、指の接触面に対して垂直方向の相対運動が大きくなり、触知覚動作を体験するには法線力の提示が必要となるため、触覚・力覚提示デバイス30として、天板38による接平面の傾きを用いる。触覚・力覚提示システムは、表示装置50に表示されている、ウェブ・カメラ20で撮影した操作者10の指先と統括コンピュータ40によるARによるCG物体が触れたとき、触れた指先に対して、天板38が物体の接平面の傾きを提示して、物体からの衝撃、すなわち、法線方向の反力を返す。
【選択図】図1
Description
特に、本発明は、平面近似による繊細な、および/または、微妙な、触覚・力覚を提示することが可能な触覚・力覚提示デバイスと、それを用いた触覚・力覚提示システムに関する。
また、たとえば、医療の分野、アミューズメントの分野などにおいて、遠隔地相互間での操作や会議の場において、仮想現実(VR:Virtual Reality)や、仮想現実のバリエーションとしての拡張現実(AR:Argumented Reality)に基づくコンピュータグラフィック(CG)を恰も同一の空間で共有し、そのCGの物体に触れて、触覚による感覚が伝達することにより、ユーザ(操作者)にとって直観的で、かつ、3次元的に物体を操作することが可能となることが知られている(たとえば、特許文献2:特開平11−219100号公報)。
このような技術を用いると、恰も、同一空間で複数の人間が共同で作業をしている感覚で操作したり、議論をすることができる。
この装置は、たとえば、表示器に仮想物体をCGを表示し、ユーザがグリップを操作したとき、複数のワイヤと複数のモータによりユーザが操作するグリップの位置と姿勢を検出し、コンピュータに伝達する。仮想空間上の接触も衝突の情報は、SPIDERにより力覚に変換される。
この装置は、たとえば、手術のシミュレーションを行う場合などにおいて、表示器に表示されたCGを見ながら、ペン型のロボートアームをユーザが握って操作した場合、装置からロボートアームにCG物体に触れた際の物体から手に対する力が伝えられる。
SPIDER、PHANToMなどの力触覚デバイスからは、CGの物体に触れた際の物体から手に対する力で伝達される。
このように、力覚・触覚デバイスは、基本的には、CG物体に触れた際にその物体からの弾力を伝達する。
また、従来の力覚・触覚デバイスでは、「すべすべした,または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を提示することができない。
すなわち、ARに基づくCG物体をあたかも同一の空間で共有し、「なぞり動作」や「撫で動作」などの微妙な触覚、あるいは、「すべすべした、または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を感じながら、CG物体を実際に触れるような感覚および触覚をより現実的に表現することにより、CG物体の形状をより直観的に表現して提示することができ、その結果、操作者が直観的に実際に物体に触れているような触覚を提示(呈示)することが望まれている。
その理由は、人の触知覚動作の押し込み、つかみ、叩き、撫でる動作は、指の接触面に対して垂直方向の相対運動が大きくなるため、触知覚動作を体験するには法線力の提示が必要となるため、本発明においては、天板による接平面の傾きを用いた。
また、上記天板を用いると、感覚が伝わりやすくなるため、表示装置に表示されているCG物体の細かい作業にも適する。
また、本発明によれば、天板の表面を、「すべすべした、または、ざらざらした」などの肌触り、「ふわふわした」などの繊細な触感、弾力感を提示する状態にすることができる。
第1実施の形態
図3〜図8を参照して本発明の触覚・力覚提示器具(デバイス)およびそれを用いた触覚・力覚提示装置(システム)の第1実施の形態について述べる。
図3は本発明の第1実施の形態の力覚・触覚システムの概略構成を示す図である。
図4は図3に図解した触覚・力覚提示システムに用いる触覚・力覚提示デバイスの斜視図である。
図5は図3に図解した触覚・力覚提示システムにおいて、例示的なCGとして表示装置に表示した例を示す図である。
図6は触覚・力覚提示デバイスの天板を操作したとき、横から見た図である。
図7は、図6に図解した天板を操作したときの触覚・力覚提示デバイスの機構の動きを横から見た図である。
図8は図4に図解した触覚・力覚提示デバイスの駆動機構の2軸を同時に回転させたときの斜視図である。
図9は触覚・力覚提示デバイスの駆動機構の2軸を動作させる、サーボコントローラ60を含む制御系統を示す図である。
図3において、触覚・力覚提示システム1は、ウェブ・カメラ20と、触覚・力覚提示デバイス30と、統括コンピュータ40と、表示装置50と、サーボコントローラ60とを有する。
本明細書において、図4を参照して詳述する触覚・力覚提示デバイス30を含む全体を、触覚・力覚提示システムと呼ぶ。
ウェブ・カメラ20は、本発明の撮像手段に対応する。触覚・力覚提示デバイス30は、本発明の触覚・力覚提示器具に対応する。統括コンピュータ40は、本発明の信号処理手段に対応する。表示装置50は本発明の表示手段に対応する。サーボコントローラ60は本発明の制御手段に対応する。
ウェブ・カメラ20は、触覚・力覚提示システム全体を撮像可能に配設されている。
特に、ウェブ・カメラ20は、図4に例示した触覚・力覚提示デバイスの全体、および、基台31に配設された第1〜第4の位置基準マーカ33−1〜33−4を撮像可能に配設されている。
図4に図解した、触覚・力覚提示デバイス30は、たとえば、平坦な机の上に、二次元状に移動可能に置かれており、操作者(ユーザ)10が操作する。
触覚・力覚提示デバイス30は、基台31と、第1〜第4のオムニバス車輪32−1〜32−4と、第1〜第4の基準位置マーカ33−1〜33−4と、天板駆動機構34と、第1、第2回転軸36−1、36−2と、天板38とを有する。
触覚・力覚提示デバイス30には、操作者10が触れる、平坦な天板38が設けられている。
天板38は、天板駆動機構34に支持されて、自在に傾斜できる。
図5に例示したように、表示装置50に表示されている、ウェブ・カメラ20で撮影した操作者10の指先と統括コンピュータ40によるARによるCG画像として表示されている物体(CG物体)が触れたとき、触れた指先に対して、天板38がCG物体の表面の接平面の傾きを提示して、CG物体からの衝撃、すなわち、CG物体の表面の法線方向の反力を返す。その理由は、人の触知覚動作の押し込み、つかみ、叩き、撫でる動作は、指の接触面に対して垂直方向の相対運動が大きくなるため、触知覚動作を体験するには法線力の提示が必要となるため、天板38による接平面の傾きを用いた。
なお、接平面とは、Sをなめらかな曲面とし、PをS上の点とする。このとき、Pを通るS上の曲線を任意にとり、Pにおけるこの曲線の接線をつくれば、これらはすべて同一平面上にある。この平面を点Pにおける曲面Sの接平面と呼ぶ。
また、天板38を用いると、感覚が伝わりやすくなるため、表示装置50に表示されているCG物体の細かい作業にも適する。
第1〜第4の基準位置マーカ33−1〜33−4は、基台31の位置を検出するためのマークであり、基台31の4隅に配設されている。
ウェブ・カメラ20は、基台31の第1〜第4の位置基準マーカ33−1〜33−4を含み、触覚・力覚提示デバイス30全体を撮像する。
ウェブ・カメラ20によって撮像され、撮像結果がウェブ・カメラ20から統括コンピュータ40に出力され、統括コンピュータ40は、撮像結果から基台31の4隅の位置を検出する。
またウェブ・カメラ20で撮像した結果は、図5に例示したように、統括コンピュータ40を介して表示装置50にCGとして表示される。
表示装置50は、たとえば、液晶表示装置である。
天板38は、たとえば、図6に図解したように、自在に傾斜可能に天板駆動機構34に支持されている。
天板駆動機構34は、基台31から立設されており、図7に図解したように、第1の柱34−1、第2の柱34−2、第3の柱34−3で構成されている。
第1の柱34−1が本発明の基台に立設している支持部に対応し、第2の柱34−2が本発明の第1の回転機構によって支持部に対して回転自在に連結された第1の節に対応し、第3の柱34−3が本発明の第2の回転機構によって第1の節に対して回転自在に連結された第2の節に対応している。
天板38が第2の節(第3の柱34−3)に固定されている。
第1の柱34−1と第2の柱34−2との間が第1の回転軸36−1によって回転可能に連結されている。同様に、第2の柱34−2と第3の柱34−3とが第2の回転軸36−2によって回転可能に連結されている。
第1、第2回転軸36−1、36−2は、図9に図解した、サーボコントローラ60、サーボモータ70−1、70−2によって、駆動される。
他方、図8は、第1、第2の回転軸36−1、36−2を同時に駆動した場合を示している。第1、第2の回転軸36−1、36−2を同時にかつ適宜駆動することにより、天板38を所望の傾きに傾けることができる。
サーボコントローラ60は、統括コンピュータ40からの指令に応じて、第1のサーボモータ70−1、および/または、第2のサーボモータ70−2を駆動制御することにより、上述した天板38の駆動による力覚・触覚の提示を実現する。
好ましくは、第1〜第4のオムニバス車輪32−1〜32−4が、各々基台31の各側辺の中心部に配設されている。
第1〜第4のオムニバス車輪32−1〜32−4は、基台31を机の上を平面(2次元)上、自由な方向に移動にする車輪である。
たとえば、第1のオムニバス車輪32−1を例示してその動作を述べる。図4において、オムニバス車輪32−1〜32−4全体が第1の回転方向Rに回転すると、基台31はY方向に移動する。なお、第1のオムニバス車輪32−1には、第1の回転方向Rに沿って、第1の回転方向Rと直交する方向rに回転する第2の車輪(図示せず)が複数配設されており、これら第2の車輪を回転させると、すなわち、第1の回転方向と直交する第2の回転方向rに回転させると、基台31はX方向に移動する。
オムニバス車輪32−1を第1の回転方向Rに回転させ、同時に、第2の車輪を第2の回転方向rに回転すると、基台31は、両者のベクトル和に沿った方向と速度で移動する。
各オムニバス車輪32の第1のモータMと、複数の第2のモータm1〜mnとは、サーボコントローラ60によって駆動制御される。
サーボコントローラ60は、統括コンピュータ40の指示のもとで、各オムニバス車輪32についての第1のモータMと複数の第2のモータm1〜mnとを制御する。
図10は、用途に応じた表面の天板を使用することを示す図である。
第1実施の形態において、天板38は表面が平坦なものを使用した場合について述べた。
天板38は、用途および目的に応じて、操作者10がその表面にふれたとき、たとえば、図10(a)に図解した表面が毛皮、ベルベットのように「ふわふわ」した、図10(b)に図解した表面がサンドペーパーのように「ざらざら」した、図10(c)に図解した表面に指を刺すような「チクチク」した、触感を与える形状のものを用いることができる。
このような表面の天板38を用いると、CG物体を操作者10がなぞる動作をしたとき、CG物体を、撫でた、あるいは、なぞったときのような、ざらざら、ふわふわ、チクチクなどの触感を再現することができる。したがって、操作者10はより正確な触感を知覚することができる。
図11はカラーグローブを使用した場合を示す図である。
本実施の形態においては、カラーグローブを用いて操作者10の指の位置を取得する。また、2本の手と5本の指によって操作を2つの触覚・力覚提示デバイスに応用することが可能となる。
本発明の実施の形態の触覚・力覚提示デバイスおよびその触覚・力覚提示デバイスを用いた触覚・力覚提示システムは種々の分野に適用することができる。
たとえば、美術館も博物館において、実際には手を触れてはいけない展示品が多数展示されている。そのような場合に、本発明に基づく触覚・力覚提示デバイスおよびそれを用いた触覚・力覚提示システムを適用すると、表示装置50に表示されたARによって表示された展示品のCG物体を触り、あたかも、実際の展示品に触れているような体験をすることができる。
遠隔地における会議において、本発明の触覚・力覚提示デバイスと触覚・力覚提示システムを用いて、ARによって表示されたCG物体を操作したとき、その物体の触感が天板38を介して伝わってくることにより、より直観的にそのCG物体を操作することができる。
粘土や紙、ボンドを使用する美術の学習や趣味でも、本発明の触覚・力覚提示デバイスおよび遺体1を適用して、ARを用いたCG物体を操作して、感覚が伝わりながら操作することにより、操作者10が実際に物体に触れているような感触でCGより美術品を創作することができる。
なお、この場合、創作が失敗しても、現実の空間(実在する世界)には失敗した作品が残らないので、廃棄処分を考慮する必要はない。
10・・・操作者、20・・・ウェブ・カメラ、30・・・触覚・力覚提示デバイス、40・・・統括コンピュータ、50・・・表示装置、60・・・サーボコントローラ
31・・・基台、32−1〜32−4・・・第1〜第4のオムニバス車輪、33−1〜33−4・・・第1〜第4の位置基準マーカ、34・・・天板駆動機構、38・・・天板。
Claims (9)
- 天板と、
基台に配設されて、前記天板を支持し、CG画像化されたCG物体の表面の法線力の提示を可能とするため前記天板を前記CG物体の表面の接平面に傾斜可能とする、少なくとも直交方向に回転可能な第1および第2の回転機構を有する、天板駆動機構と、
前記第1および第2の回転機構を回転駆動させる、回転機構アクチュエータと、
前記アクチュエータを駆動制御する制御手段と、
を有する、
触覚・力覚提示デバイス。 - 前記天板駆動機構は、
前記基台に立設されている支持部と、
前記第1の回転機構によって前記支持部に対して回転自在に連結された第1の節と、
前記第2の回転機構によって前記第1の節に対して回転自在に連結された第2の節と
を有し、
前記天板が前記第2の節に固定されている、
請求項1に記載の触覚・力覚提示デバイス。 - 前記基台には、各々が当該基台を二次元方向に移動可能にする、少なくとも1つの2方向移動可能な車輪が設けられており、
前記車輪を駆動する車輪アクチュエータを有する、
請求項1または2に記載の触覚・力覚提示デバイス。 - 前記天板の表面が、平坦な面を有する、
請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。 - 前記天板の表面が、ふわふわする触覚を与えるように形成されている、
請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。 - 前記天板の表面が、ざらざらする触覚を与えるように形成されている、
請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。 - 前記天板の表面が、ちくちくする触覚を与えるように形成されている、
請求項1〜3のいずれかに記載の触覚・力覚提示デバイス。 - 請求項1〜7のいずれかに記載の触覚・力覚提示デバイスと、
当該触覚・力覚提示デバイスを撮像する撮像手段と、
当該撮像手段の撮像結果を入力し、ARによるCG画像を生成して表示装置に表示するとともに、前記天板駆動機構における、CG画像化されたCG物体の表面の法線力の提示を可能とするため前記天板を前記CG物体の表面の接平面に傾斜可能とする、少なくとも直交方向に回転可能な第1および第2の回転機構を回転駆動させる、回転機構アクチュエータを制御する制御信号を生成して、前記制御手段に出力する信号処理手段と、
を有する触覚・力覚提示システム。 - 前記信号処理手段は、前記基台に前記2方向移動可能な車輪が設けられているとき、前記車輪を駆動する制御信号を生成して、前記制御手段に出力し、
前記制御手段は、前記車輪アクチュエータを駆動制御する、
請求項8に記載の触覚・力覚提示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012198778A JP2014052975A (ja) | 2012-09-10 | 2012-09-10 | 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012198778A JP2014052975A (ja) | 2012-09-10 | 2012-09-10 | 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014052975A true JP2014052975A (ja) | 2014-03-20 |
Family
ID=50611371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012198778A Pending JP2014052975A (ja) | 2012-09-10 | 2012-09-10 | 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014052975A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190069887A (ko) * | 2017-12-12 | 2019-06-20 | 주식회사 제이케이덴스 | 햅틱 인터페이스를 이용한 치과 치료 시뮬레이션 장치 |
CN111599237A (zh) * | 2020-04-09 | 2020-08-28 | 安徽佐标智能科技有限公司 | 基于ar的智能交通编程仿真*** |
JP2020194465A (ja) * | 2019-05-30 | 2020-12-03 | 学校法人立命館 | 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1133937A (ja) * | 1997-07-18 | 1999-02-09 | Yaskawa Electric Corp | 力触覚ディスプレイ方法 |
JP2000267784A (ja) * | 1999-03-16 | 2000-09-29 | Fuji Xerox Co Ltd | 触覚呈示装置 |
JP2011115936A (ja) * | 2009-11-04 | 2011-06-16 | Advanced Telecommunication Research Institute International | 触覚提示付ロボット |
-
2012
- 2012-09-10 JP JP2012198778A patent/JP2014052975A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1133937A (ja) * | 1997-07-18 | 1999-02-09 | Yaskawa Electric Corp | 力触覚ディスプレイ方法 |
JP2000267784A (ja) * | 1999-03-16 | 2000-09-29 | Fuji Xerox Co Ltd | 触覚呈示装置 |
JP2011115936A (ja) * | 2009-11-04 | 2011-06-16 | Advanced Telecommunication Research Institute International | 触覚提示付ロボット |
Non-Patent Citations (2)
Title |
---|
JPN6016016139; 赤澤和伸 他: '"高分子ゲルアクチュエータを用いた触感ディスプレイによる手触りの柔らかさの呈示"' 日本バーチャルリアリティ学会第8回大会論文集 , 20030930, pp.221-224 * |
JPN6016016141; 横小路泰義: '"力覚提示と複合現実感"' 電子情報通信学会技術研究報告 Vol.97,No.324, 19971016, pp.49-50 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190069887A (ko) * | 2017-12-12 | 2019-06-20 | 주식회사 제이케이덴스 | 햅틱 인터페이스를 이용한 치과 치료 시뮬레이션 장치 |
KR102060865B1 (ko) * | 2017-12-12 | 2020-02-11 | 주식회사 제이케이덴스 | 햅틱 인터페이스를 이용한 치과 치료 시뮬레이션 장치 |
JP2020194465A (ja) * | 2019-05-30 | 2020-12-03 | 学校法人立命館 | 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法 |
JP7442778B2 (ja) | 2019-05-30 | 2024-03-05 | 学校法人立命館 | 触覚提示システム、触覚提示装置、コントローラ、及び仮想世界における触覚を実世界においてユーザに提示する方法 |
CN111599237A (zh) * | 2020-04-09 | 2020-08-28 | 安徽佐标智能科技有限公司 | 基于ar的智能交通编程仿真*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11723734B2 (en) | User-interface control using master controller | |
Sreelakshmi et al. | Haptic technology: A comprehensive review on its applications and future prospects | |
US8378968B2 (en) | Method, apparatus, and article for force feedback based on tension control and tracking through cables | |
US20210030491A1 (en) | Interaction between user-interface and master controller | |
US6597347B1 (en) | Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom | |
Bowman et al. | 3d user interfaces: New directions and perspectives | |
USRE40891E1 (en) | Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom | |
US20200310561A1 (en) | Input device for use in 2d and 3d environments | |
US8350843B2 (en) | Virtual hand: a new 3-D haptic interface and system for virtual environments | |
O’malley et al. | Haptic interfaces | |
Meli et al. | Wearable haptics and hand tracking via an rgb-d camera for immersive tactile experiences | |
Kataoka et al. | A new interactive haptic device for getting physical contact feeling of virtual objects | |
Noma et al. | A palmtop display for dextrous manipulation with haptic sensation | |
JP2014052975A (ja) | 触覚・力覚提示デバイスとそれを用いた触覚・力覚提示システム | |
Zhu et al. | Tapetouch: A handheld shape-changing device for haptic display of soft objects | |
Nisar et al. | Effects of different hand-grounding locations on haptic performance with a wearable kinesthetic haptic device | |
Achibet et al. | DesktopGlove: A multi-finger force feedback interface separating degrees of freedom between hands | |
Jyothi et al. | Haptic technology-a sense of touch | |
Hou et al. | Enhancing touch screen games through a cable-driven force feedback device | |
JP2011215692A (ja) | 3次元3自由度回転パラメータ処理装置 | |
Mendes | Manipulation of 3d objects in immersive virtual environments | |
JPH0981026A (ja) | ヒューマンインタフェースにおける感覚呈示装置 | |
Ota et al. | Hap’n’Roll: A Scroll-inspired Device for Delivering Diverse Haptic Feedback with a Single Actuator | |
Zhou et al. | A comparative study for touchless telerobotic surgery | |
Adelsberger et al. | A Novel Piezo-Based Technology for Haptic Feedback for XR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160510 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161115 |