JP2004213351A - Inner force sense presentation device and system - Google Patents

Inner force sense presentation device and system Download PDF

Info

Publication number
JP2004213351A
JP2004213351A JP2002382474A JP2002382474A JP2004213351A JP 2004213351 A JP2004213351 A JP 2004213351A JP 2002382474 A JP2002382474 A JP 2002382474A JP 2002382474 A JP2002382474 A JP 2002382474A JP 2004213351 A JP2004213351 A JP 2004213351A
Authority
JP
Japan
Prior art keywords
unit
finger
virtual space
force
force sense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002382474A
Other languages
Japanese (ja)
Inventor
Shigemi Sato
茂美 佐藤
Akira Kubota
晃 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002382474A priority Critical patent/JP2004213351A/en
Publication of JP2004213351A publication Critical patent/JP2004213351A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an inner force presentation device and system that keep the user from discomfort by presenting strong and weak forces to the user when starting to use the device. <P>SOLUTION: The inner force sense presentation device includes a plurality of motors 201 which produce an inner force sense to be imparted to the user's finger according to a virtual spatial image; an arm 200 including a plurality of links 203, a plurality of joint parts 205, and an inner force sense presenting part 206 to present the inner force sense to the finger; a measurement means which causes the user's finger to be pushed back by the inner force sense to hold the finger in position so as to measure, at a predetermined time, a force applied from the finger to the inner force sense presenting part 206; a determining means for determining whether or not the force applied is not less than a first threshold; and an inner force sense changing means which changes the magnitude of the inner force sense to a second threshold smaller than the first threshold when the force applied is determined to be not less than the first threshold. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、力覚提示装置及び力覚提示システムに関し、より詳細には、仮想空間(バーチャルリアリティ)システムにおいて利用される力覚提示装置及び力覚提示システムに関する。
【0002】
【従来の技術】
従来の力覚提示装置は、モータなどのアクチュエータとクラッチを用いたもの(例えば、特許文献1参照)、エアや液体などの流体を利用したもの(例えば、特許文献2参照)、あるいは、ワイヤとそれを巻き取る電動機を利用したもの(例えば、特許文献3参照)などがあり、それらは、操作者(ユーザ)と対象物との相互作用を弾性及び粘性を用いて表現している。
【0003】
上記特許文献に記載されている従来の力覚提示装置においても、ユーザは、手にワイヤなどを取り付けられた装着用の手袋などを装着するため、手や指を曲げるときに力覚発生部や力覚提示部の質量(慣性)や摩擦抵抗などによる負荷を感じてしまう。
そのため、特許文献1には、そのような負荷を感じてしまうのを回避するために、力覚提示部と力覚発生部の間にクラッチを設け、このクラッチのオン/オフによってこれらの連結/非連結を切り替え可能にした力覚提示部を開示している。
【0004】
【特許文献1】
特開2000−246674号公報
【特許文献2】
特開2000−99240号公報
【特許文献3】
特開平6−324622号公報
【0005】
【発明が解決しようとする課題】
しかしながら、従来の力覚提示装置では、力覚提示装置が提示する作用力以外の力(負荷)を完全には取り除くことができず、ユーザは、従来の力覚提示装置から提示された力覚を十分に感じることができず、違和感を持ってしまうという問題があった。
【0006】
また、上記特許文献1のように、力覚提示部と力覚発生部との間にクラッチを用いた場合には、クラッチによって両者が連結されるときに衝撃が発生する可能性が高く、やはりユーザは違和感を持ってしまうという問題がある。また、このような衝撃を発生させないように、連結動作をゆっくり行うことも考えられるが、そうした場合には時間遅れが生じてしまい、この力覚提示時の時間遅れによってユーザは違和感を持ってしまうという問題もある。
本発明の目的は、力覚提示装置の使用開始時にユーザに強弱2つの作用力(力覚)を提示することにより、ユーザが上述のような違和感を得ない力覚提示装置及び力覚提示システムを提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明の一態様において、本発明の力覚提示装置は、
仮想空間画像に応じて、ユーザの指に与える力覚を発生する力覚発生手段と、前記指に装着され、前記力覚発生手段によって発生された力覚を前記指に提示する力覚提示手段と、
前記力覚発生手段によって発生された力覚によって前記指を押しかえして前記指を所定の位置に保持することにより、前記指から前記力覚提示手段に加えられた作用力を所定の時期に計測する計測手段と、
前記計測手段によって計測された作用力が第1の閾値以上であるか否かを判定する判定手段と、
前記判定手段によって前記作用力が第1の閾値以上であると判定された場合には、前記力覚発生手段によって発生された力覚の大きさを該第1の閾値よりも小さい第2の閾値に変更する力覚変更手段と、
を備えることを特徴とする。
【0008】
本発明の力覚提示装置によれば、ユーザが指又は指先で力覚発生手段を押しているときに、力覚発生手段は、ユーザの指又は指先の位置を所定の位置に保持するように、該指を押しかえし、所定の時期(タイミング)で計測手段が作用力(力覚)を計測し、判定手段は、その計測値が第1の閾値以上であると判定すると、力覚変更手段は、その第1の閾値よりも小さい第2の閾値の作用力(力覚)に変更する。これにより、本発明の力覚提示装置は、それを利用するユーザの指先などの力覚が提示される部位に大小の力のコントラストを与える。
したがって、本発明の力覚提示装置によって、従来の力覚提示装置ではユーザに違和感を与えていた力覚提示部の重さや各ジョイント部などの摩擦抵抗等の負荷を、人間の感覚の曖昧さを上手く利用して、感覚的に取り除くことができる。
【0009】
ここで、好ましくは、前記所定の時期は、前記ユーザが前記力覚提示装置を最初に装着した状態において前記ユーザの指が仮想空間中の対象物に干渉したときであるが、これに限定されず、本発明の力覚提示装置を使用しているときであればいつでも可能である。
また、好ましくは、前記力覚提示手段は、複数のリンクと該リンク間を連結する複数の節とから構成されるアーム部と、前記指に装着する力覚提示部と、前記アーム部と前記力覚提示部とを連結する連結部とから構成される。この場合、前記連結部は、ジンバル構造であってもよい。
【0010】
さらに、好ましくは、前記力覚発生手段は、複数のアクチュエータから構成される。ここで、好ましくは、前記アクチュエータは、前記複数の節にそれぞれ配置されるモータである。
また、前記計測手段は、前記複数のモータのそれぞれの出力から前記作用力を計測するように構成される。
なお、好ましくは、前記第2の閾値は、前記力覚発生手段によって発生される前記力覚が0に相当する値であるが、これに限定されず、ユーザに適当な力覚のコントラストを提示できるような値であればよい。
【0011】
また、本発明の力覚提示装置は、前記力覚提示手段の所定の一方向への移動を規制する移動規制手段と、
前記移動規制手段の作動/不作動を切り替えるクラッチ機構とを更に備えてもよい。
また、上記に加えて、又はその代わりに、本発明の力覚提示装置は、前記力覚提示手段が装着された前記指の仮想空間における位置を検出する位置検出手段を更に備えてもよい。
【0012】
あるいは、本発明の力覚提示装置は、前記力覚提示手段が装着された前記指の仮想空間における位置を検出する位置検出手段を更に備え、
前記位置検出手段は、前記複数のモータの出力軸に連結された複数のエンコーダによって、前記複数のモータのそれぞれの回転角度を検出するように構成されてもよい。
そして、本発明の力覚提示装置は、信号の送信又は受信を行う通信手段を更に備えてもよく、この場合、好ましくは、前記通信手段によって受信した信号に基づいて、前記力覚発生手段が駆動するよう構成されている。
【0013】
あるいは、本発明の力覚提示装置は、信号の送信又は受信を行う通信手段を更に備え、
前記通信手段によって受信した信号に基づいて、前記力覚発生手段が駆動するとともに、前記位置検出手段によって検出された前記指の仮想空間における位置情報を送信するよう構成されていてもよい。
【0014】
また、本発明の力覚提示装置は、前記力覚提示手段の所定の一方向への移動を規制する移動規制手段と、
前記移動規制手段の作動/不作動を切り替えるクラッチ機構とを更に備えてもよい。
なお、前記力覚は、仮想空間画像における対象物からの反力に対応したものである。
【0015】
また、上記課題を解決するために、本発明の別の態様において、本発明の力覚提示システムは、上述のいずれかに記載の力覚提示装置と、
仮想空間画像を生成する画像生成手段を含む情報処理装置と、
前記画像処理装置によって生成された仮想空間画像を表示する表示手段を含む表示装置と、
を備えることを特徴とする。
【0016】
ここで、好ましくは、前記情報処理装置は、
前記位置検出手段によって検出された前記指の仮想空間における位置情報を受信する受信手段と、
前記受信手段によって受信した前記指の仮想空間における位置及び予め設定されている仮想空間内の対象物の位置に基づいて、前記指が該対象物と干渉しているか否かを判定する干渉判定手段と、
前記判定手段により前記指と前記対象物とが干渉していると判定された場合、前記対象物の所定のデータに基づいて、前記指に提示する作用力を演算する演算手段と、
前記演算手段によって演算された作用力が前記予め設定された所定の閾値を超えているか否かを判別する判別手段と、
前記演算手段の演算結果及び前記判別手段の判別結果を駆動信号及び作動信号として前記力覚提示装置に送信する送信手段と、
を備える。
また、この場合、前記情報処理装置は、少なくとも前記対象物の位置情報及び前記所定のデータを記憶する記憶手段を更に備えてもよい。
【0017】
さらに、好ましくは、前記画像生成手段は、前記位置検出手段によって検出された前記指の仮想空間における位置情報に基づいて、所定の時間間隔で前記仮想空間画像を更新して生成する。
この場合、前記表示手段は、前記指の移動にともなって更新された前記仮想空間画像を連続的に表示するように構成されてもよい。
また、前記表示装置は、顔面に装着して使用するものであってもよい。
【0018】
【発明の実施の形態】
以下、本発明の力覚提示装置及び力覚提示システムを添付図面に示す好適実施形態に基づいて詳細に説明する。なお、この実施の形態は例示として挙げるものであり、これにより本発明を限定的に解釈すべきではない。
図1は、本発明の力覚提示装置の第1実施形態及びその力覚提示装置を有する力覚提示システムの構成例を示す概念図、図2は、図1に示すリアルグローブ(力覚提示装置)の回路構成例を示すブロック図である。図3は、図1に示すリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【0019】
図1に示すように、力覚提示システム1は、ユーザ(使用者)の手(指)に装着され、装着された手や各指に対して触覚(触った感覚、例えば、質感、形状、強さ等の接触強度の分布)や力覚(触ったときに加わる力の感覚)を与える一対のリアルグローブ(データグローブ)20、20と、仮想空間画像(仮想空間映像)を表示する仮想空間表示装置(表示装置)5と、各リアルグローブ20及び仮想空間表示装置5の駆動制御等の種々の処理を行う情報処理装置8と、仮想空間画像を作成し、仮想空間画像を用いた各種のサービスを提供する基地局9とを備えている。
【0020】
各リアルグローブ20、仮想空間表示装置5、情報処理装置8及び基地局9は、それぞれ、無線(例えば、無線LAN(Local Area Network)、赤外線データ通信(IrDA:Infrared Data Association)、Bluetoothなど)で信号の送信及び受信(無線通信)を行うことができる無線通信機能(通信手段)を有しており、情報処理装置8と、各リアルグローブ20、仮想空間表示装置5及び基地局9との間で、それぞれ、通信を行うことができるようになっている。
【0021】
この力覚提示システム1は、基地局9、仮想空間表示装置5及び各リアルグローブ20から供給された情報に基づいて情報処理装置8によって作成(生成)された仮想空間画像を仮想空間表示装置5に表示し、リアルグローブ20を装着した手や指を動作させることによってその手や指が仮想空間に表示された物体に仮想的に接触した場合等に、その様子を仮想空間表示装置5に表示するとともに、リアルグローブ20を装着した手や各指に接触したときの触覚や力覚を与えるための各処理を行う。
【0022】
情報処理装置8は、例えば、携帯電話端末、無線通信機能を有するパーソナルコンピュータ、PDA(Personal Digital Assistants)と呼ばれる携帯型情報機器などの、無線通信機能(通信手段)及び制御機能を備えた各種の装置により構成される。
また、基地局9は、例えば、インターネットに接続されている各種サーバコンピュータ、携帯電話端末と無線通信を行う携帯電話基地局などの、仮想空間画像に関する情報を提供する各種の装置により構成される。
【0023】
なお、本実施形態では、各リアルグローブ20、仮想空間表示装置5、情報処理装置8及び基地局9が無線通信機能を有する構成としているが、例えば、その一部又はすべてが有線通信を行う構成とされていてもよい。
また、情報処理装置8が、基地局9の機能の一部又はすべてを有していてもよい。後述する図24の力覚提示処理(力覚提示方法)及び図25のコントラスト提示処理(コントラスト提示方法)では、便宜的に情報処理装置8に基地局9のすべての機能が含まれるものとして説明する。
【0024】
また、リアルグローブ20が、仮想空間表示装置5、情報処理装置8及び基地局9の機能の一部又はすべてを有していてもよい。
ここで、力覚提示装置2は、本実施形態では、一対のリアルグローブ20、20、すなわち、ユーザの左手に装着される左手用のリアルグローブ20と、ユーザの右手に装着される右手用のリアルグローブ20とで構成されている。以下の説明では、代表的に一方のリアルグローブ20を説明する。
【0025】
なお、本発明では、力覚提示装置2は、一方のリアルグローブ20で構成されていてもよい。
また、本発明では、力覚提示装置2は、リアルグローブ20の他に、仮想空間表示装置5、情報処理装置8及び基地局9のうちの、いずれか1つ又は2つ、あるいは、すべてを有していてもよい。この場合、力覚提示装置2は、それらの有する機能の一部を有していてもよく、また、すべてを有していてもよい。
【0026】
図2に示すように、リアルグローブ20は、仮想空間に現れている(仮想空間画像上の)物体(対象物)に接触した指の感覚(例えば、質感、形状、強さ等の接触強度の分布)を発生させるための触覚発生部(触覚発生手段)21と、仮想空間に現れている物体に接触したときに手や指にかかる力の強さの感覚を発生させるための力覚発生部(力覚発生手段)22と、リアルグローブ20の各部の位置(リアルグローブ20を装着した手、手首、腕、指等の各部の位置)を検出する位置姿勢検出部23と、リアルグローブ20の各部を制御する制御部24と、情報処理装置8に送信するための信号の増幅等の信号処理を行う信号処理部25と、情報処理装置8との間で無線通信を行うための信号送受信部26とを有している。
【0027】
また、図3に示すように、リアルグローブ20の全体形状は、略長手袋状(手袋状)をなしている。すなわち、リアルグローブ20は、その装着者(ユーザ)の指から腕の肘近傍まで(指から腕にかけて)装着する手袋状の装着手段として、腕を覆う筒状部20aを備えた比較的長い手袋2aを有している。
ユーザは、この手袋2aにより、リアルグローブ20の装着及び取り外しを容易かつ確実に行うことができる。
【0028】
また、手袋2aはユーザの手から腕にかけて装着されるので、仮想空間における動作(操作)を容易かつ確実に行うことができる。
この手袋2aには、指先に対応する部分の遊びを抑制又は防止する遊び吸収部27と、リアルグローブ20を手首に固定する手首固定部28と、該リアルグローブ20を腕に固定する腕固定部2dと、腕に対応する部分のねじれを吸収するねじれ吸収部29とが、それぞれ設けられている。
【0029】
遊び吸収部27は、手袋2aの手首付近に対応する部分に設けられている。この遊び吸収部27は、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、遊び吸収部27の復元力(弾性力)により、手袋2aは、肘方向(基端側)に引っ張られ、その状態で保持される。これにより、指先に遊びができてしまうのを防止又は抑制することができる。また、指の長さ等の手の寸法の異なる複数のユーザが使用する場合においても、遊び吸収部27により、それぞれ各ユーザにおいて、指先に遊びができてしまうのを防止又は抑制することができる。
【0030】
手首固定部28は、手袋2aの前記遊び吸収部27の肘側(基端側)に、遊び吸収部27に連続して設けられている。この手首固定部28は、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、手首固定部28の復元力(弾性力)により、手袋2aは、手首に固定される。これにより、使用中にリアルグローブ20がずれてしまうのを防止することができる。
また、この手首固定部28や前記遊び吸収部27により、後述する触覚発生部21のアクチュエータワイヤ212の束212aは、各アクチュエータワイヤ212がそれぞれその長手方向に移動し得るように所定の位置に保持される。
【0031】
腕固定部2dは、手袋2aの筒状部20aの肘側(基端側)の端部に設けられている。この腕固定部2dは、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、腕固定部2dの復元力(弾性力)により、手袋2aは、腕に固定される。これにより、使用中にリアルグローブ20がずれてしまうのを防止することができる。
【0032】
ねじれ吸収部29は、手袋2aの筒状部20aの途中、すなわち、前記手首固定部28と腕固定部2dとの間に設けられている。
このねじれ吸収部29は、筒状部20aの一部に3つの開口292を形成して得られる3本の帯状部291で構成されている。各帯状部291は、それぞれ、例えば、伸縮性のある材料で構成された布等の伸縮性のある部材で形成される。
【0033】
ユーザがリアルグローブ20を装着し、例えば、手首をねじる動作をすると、各帯状部291が伸縮、変形し、これにより、筒状部20aのねじれが吸収される。
このように、ねじれ吸収部29により、リアルグローブ20のねじれを防止することができ、このため、ユーザは、手や腕を容易かつ円滑に動かすことができる。
【0034】
なお、ねじれ吸収部29の帯状部291の数は、2本以下でもよく、また、4本以上でもよい。
また、手袋2aの各指の背側の各関節に対応する部分には、それぞれ、開口21aが形成されている。
これらの開口21aにより、ユーザは、各指の各関節をそれぞれ容易かつ円滑に動かすことができる。
【0035】
また、このリアルグローブ20には、手袋2aの腕に対応する部分であって、前記ねじれ吸収部29よりも肘方向に位置する部分、すなわち、手袋2aの筒状部20aの肘側(基端側)の端部に、制御部24、電力供給部30、動力発生部211などが設けられている。
これら制御部24、電力供給部30及び動力発生部211の配置を前記のようにすることにより、リアルグローブ20の指先側(先端側)の重量を軽く(慣性を小さく)することができ、これにより、ユーザは、動作(操作)を容易に行うことができる。
【0036】
触覚発生部21の主要部は、ユーザがリアルグローブ20を装着したときに、ユーザの各指の第1関節(末節骨と中節骨との間の関節)から先の指先部分を覆う位置にそれぞれ設けられている。なお、各触覚発生部21の構成及び作用は、ほぼ同様であるので、以下、代表的に、そのうちの1つについて説明する。
図4は、触覚発生部21の構成例を示す縦断面図である。なお、図が煩雑になるのを避けるため、図中、一部、部材の厚みを省略して図示する。
触覚発生部21は、図4(A)に示すように、モータ(駆動源)211aを備える動力発生部(移動手段)211と、長手方向に移動可能に設置されたアクチュエータワイヤ(可撓性を有する線状体)212と、アクチュエータワイヤ212の一端を保持するワイヤ保持部(付勢手段)213と、触覚を発生させるために指腹を押圧する触覚提示ピン(押圧部)214と、触覚提示ピン214を支持するとともに触覚提示ピン214の移動方向を規制する触覚提示ピン支持部(移動方向規制手段)215とで構成される複数の単位触覚発生部(アクチュエータ)210を有している。各単位触覚発生部210は、互いに独立している。
なお、前記動力発生部211と、アクチュエータワイヤ212と、触覚提示ピン支持部215とで、触覚提示ピン214を駆動する駆動機構が構成される。
【0037】
動力発生部211は、例えば、制御部24からの制御信号に応じて内部に備えるモータ211aを回転駆動し、そのモータ211aの回転駆動によってアクチュエータワイヤ212を巻き取る処理(アクチュエータワイヤ212をアクチュエータワイヤ212の長手方向に移動させる処理)を行う。制御部24は、情報処理装置8からの指示に従って、モータ211aの回転駆動が所定のトルクで所定時間なされるように動力発生部211を制御する。動力発生部211は、情報処理装置8からの指示に従ってモータ211aに回転動力を与えることで、アクチュエータワイヤ212を所定の長さ巻き取る処理を行う。
【0038】
ワイヤ保持部213は、図4(A)に示すように、この実施形態では指の第1関節の近傍でアクチュエータワイヤ212の一端(終端)を保持する。このワイヤ保持部213は、例えばゴムやバネなどの弾性を有する部材(弾性体)により構成される。
従って、動力発生部211のモータ211aの駆動によりアクチュエータワイヤ212が巻き取られ、そのアクチュエータワイヤ212が図4(A)中の時計回りに移動すると、それに伴ってワイヤ保持部213が伸張し、アクチュエータワイヤ212は、ワイヤ保持部213の復元力(弾性力)により、図4(A)中の反時計回りの方向(触覚提示ピン214を突出させるときのアクチュエータワイヤ212の移動方向と逆方向)に付勢される。そして、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、ワイヤ保持部213が復元力(弾性力)によって収縮し、これにより、巻き取られていたアクチュエータワイヤ212が引き出され、図4(A)中の反時計回りに移動する。
なお、動力発生部211は、アクチュエータワイヤ212の他端(始端)側に位置している。
【0039】
触覚提示ピン214は、ユーザの指腹に接触感覚(接触の有無や強さ等)を与えるために用いられ、指腹に接触する部分である微小な接触板(接触部)214aと、接触板214aを支持する支持部214bとで構成される。支持部214bは、その一端がアクチュエータワイヤ212の途中に固定され、その他端に接触板214aが設けられている。
【0040】
この実施形態では、図4(A)に示すように、リアルグローブ20の手袋2aは、指先を装着する(覆う)装着部が2重構造(例えば布などの部材を2枚重ね合わせて、重ね合わせた2枚の部材の間に何らかの部材が収納し得るような構造)になっており、指先を覆っている部分の内部(2重構造の内部)に、前記アクチュエータワイヤ212の一部、ワイヤ保持部213及び支持部214bと、触覚提示ピン214のアクチュエータワイヤ212の移動方向への移動を規制する触覚提示ピン支持部215とが設けられている。そして、指が収納される手袋2a内に、支持部214bの一端側が突出し、接触板214aが位置している。
この実施形態では、その接触板214aは、リアルグローブ20を装着した手の指先に常に接触した状態となっている。なお、これに限らず、接触板214aが指先から離間した状態(接触板214aと指先とが非接触の状態)をとり得るように構成されていてもよい。
【0041】
図4(A)では、説明を簡単にするため、1つの単位触覚発生部210(1つの触覚提示ピン214)が代表して示されているが、前述したように、実際には、触覚発生部21は、複数の単位触覚発生部210を有しており、その複数の触覚提示ピン214は、ユーザがリアルグローブ20を装着したときのユーザの指先の指腹に対応する位置に、例えば、指腹に沿って、かつ指腹に対し行列状(マトリックス状)に配置されている。
【0042】
各触覚提示ピン214の前後には、それぞれ、その触覚提示ピン214の支持部214bのアクチュエータワイヤ212の移動方向への移動を制限する触覚提示ピン支持部215が設けられている。
なお、前記各触覚提示ピン214は、規則的に配置されていてもよく、また、不規則に配置されていてもよい。
【0043】
次に、触覚発生部21による触覚発生動作について説明する。
ユーザがリアルグローブ20を装着し、手や指を動かすことによって仮想空間に現れている物体(仮想物体)、すなわち対象物に、その指先(指腹)が仮想的に接触すると、情報処理装置8は、後述する演算処理部81によって、対象物の物性データ及び物理特性などに基づいて、実際に接触があったとした場合の押圧力を計算し、その計算結果に基づいて動力発生部211のPWMデータ(例えば、モータ211aを回転させるための励磁パターンを示すデータ)に変換する。
【0044】
この場合、前記仮想空間(3次元空間)において、予め、互いに直交するX軸、Y軸及びZ軸、すなわちX−Y−Z座標(3次元座標)が想定されており、前記物体の座標(位置情報)と、前記ユーザの指先の座標(位置情報)との一致を検出し、その一致が検出されると、物体の前記座標に相当する部位とユーザの指先の前記座標に相当する部位とが接触したと判別する。ユーザの指先の座標は、後述する位置姿勢検出部23から信号送受信部26を介して情報処理装置8に送信される信号(情報)に基づいて導出される。
【0045】
次いで、情報処理装置8は、導出したPWMデータと、実際に接触があったとした場合の接触位置に押圧力を与える接触板214aを動作させる動力発生部211を特定(指定)するためのデータとを、リアルグローブ20に送信する。リアルグローブ20は、受信したPWMデータに応じて、指定された動力発生部211を駆動し、アクチュエータワイヤ212を巻き取る。
アクチュエータワイヤ212が巻き取られると、指腹に配されているアクチュエータワイヤ212が指腹に沿って指の先端方向に向けて移動し、図4(B)に示すように、アクチュエータワイヤ212に取付固定されている触覚提示ピン214も、指腹に沿って指の先端方向に向けて移動する。
【0046】
この際、図4(C)に示すように、触覚提示ピン214は、触覚提示ピン支持部215によって指の先端方向への移動が制限されるとともに、触覚提示ピン支持部215にガイドされて、図4(C)中上側へ移動する(指腹に向って突出する)。すなわち、触覚提示ピン214の接触板214aが指腹の表面に対しほぼ垂直上方に移動する。触覚提示ピン214の支持部214bは、待機時には(初期状態では)、図4(B)に示すように、垂直方向から指の先端方向に傾斜しており、前記接触板214aがほぼ垂直上方に移動しようとする力が働くことで、その接触板214aが指腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の指腹に押圧力を与える。
この動作が、複数の単位触覚発生部210のうちの指定された単位触覚発生部210でなされ、これにより、ユーザの手の指腹に触覚が提示される(与えられる)。よって、ユーザは、仮想空間画像における指腹の物体(対象物)への接触に相当する感覚を、指腹に得ることができる。
【0047】
前記指定された単位触覚発生部210において、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、ワイヤ保持部213が復元力(弾性力)によって収縮し、これにより、巻き取られていたアクチュエータワイヤ212が引き出される。
【0048】
アクチュエータワイヤ212が引き出されると、指腹に配されているアクチュエータワイヤ212が指腹に沿って指の基端方向(図4(C)中右側)に向けて移動し、アクチュエータワイヤ212に取付固定されている触覚提示ピン214も、指腹に沿って指の基端方向に向けて移動し、触覚提示ピン214は、図4(B)に示す初期状態に戻る。これにより、触覚提示ピン214からユーザの手の指腹に与えられていた押圧力が実質的に消滅する。
【0049】
このような触覚発生部21によれば、指腹に対してほぼ平行に(指腹に沿って)アクチュエータワイヤ212を配置し、そのアクチュエータワイヤ212を巻き取ることによって指腹に対してほぼ垂直な力を与えるようになっているので、触覚を与えるための機構を薄くすることができ、これにより、リアルグローブ20の指腹側の厚みを極力抑えることができる。
また、アクチュエータワイヤ212の弛みを防止することができ、触覚提示ピン214からユーザの指腹に、より正確かつ確実に目標の大ききの押圧力を与えることができる。
【0050】
図5及び図6は、それぞれ、力覚発生部22の構成例を示す外観図である。なお、図5は、フレームカバーが取り外された状態を示す。
図5に示すように、力覚発生部22は、リアルグローブ20を装着したときのユーザの各指の背側に設けられている。なお、力覚発生部22の構成及び作用は、ほぼ同様であるので、以下、代表的に、そのうちの1つについて説明する。
力覚発生部22は、回動可能に連結された複数(本実施形態では6つ)のフレーム221を備えたリンク機構と、各フレーム221を回動させる複数(本実施形態では7つ)のリンクモータ(駆動源)222と、手袋2aに設けられた複数(本実施形態では4つ)のフレームホルダ2bとを有している。
【0051】
前記フレームホルダ2bは、ユーザがリアルグローブ20を装着したとき、ユーザの指の第1関節より先端側に位置する装着部と、第1関節と第2関節(中節骨と基節骨との間の関節)との間に位置する装着部と、第2関節と第3関節との間に位置する装着部と、第3関節(基節骨と中手骨との間の関節)より基端側に位置する装着部とに、それぞれ、設けられている。
【0052】
リンク機構は、前記フレームホルダ2bによって、手袋2aの、リアルグローブ20を装着したときのユーザの指の背側に取り付けられている。
すなわち、リンク機構の先端側(図5中右側)の端部のフレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第1関節より先端側の部位にその端部が位置するように配置され、このフレーム221の先端部は、フレームホルダ2bに対し、回動可能に設置されている。
【0053】
また、リンク機構の基端側(図5中左側)の端部のフレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第3関節より基端側の部位にその端部が位置するように配置され、このフレーム221の基端部は、フレームホルダ2bに対し、回動可能に設置されている。
また、リンク機構の残りの各フレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第1関節と第2関節との間の部位と、第2関節と第3関節との間の部位とに、フレーム連結部が1つおきに位置するように配置され、この1つおきのフレーム連結部において、フレームホルダ2bに対し、回動可能に設置されている。
【0054】
各リンクモータ222の駆動力(回転力)は、それぞれ、図示しない動力伝達部を介して、対応するフレーム221に伝達される。すなわち、リンクモータ222が所定方向に回転駆動すると、対応するフレーム221は、所定方向に回動し、これにより、フレーム221の角度が変更(調整)される。
なお、図5には、前述したアクチュエータワイヤ212の束212aが示されている。
【0055】
力覚発生部22の各フレーム221や各リンクモータ222は、それぞれ、図6に示すように、例えば布製のフレームカバー2cの中に収納されている。
また、図6に示すように、フレームカバー2cの内側には、手や指の所定の部位の位置及び姿勢を検出する複数(本実施形態では4つ)の位置姿勢検出部(位置検出手段)23が設置されている。各位置姿勢検出部23は、それぞれ、位置及び姿勢を検出する部位(検出位置)の近傍、すなわち、指の関節の近傍に対応する部位に、前記検出位置に対して一定の位置関係を保持し得るように設けられている。
【0056】
すなわち、各位置姿勢検出部23は、それぞれ、本実施形態では、フレームホルダ2bが設けられている位置に固定されている各リンクモータ222に取付固定されている。従って、各位置姿勢検出部23が設けられている部位と、ユーザの手のひら側の所定の部位(検出位置)との位置関係は、一定に保たれる。よって、位置姿勢検出部23が自己の位置や姿勢を検出することによって、ユーザの手の平側の所定の部位の位置や姿勢を容易かつ正確に導出することができる。
また、各位置姿勢検出部23は、それぞれ、手の甲側に配置されているので、リアルグローブ20の指腹側の厚みを極力抑えることができる。
【0057】
また、図3に示すように、位置姿勢検出部23は、ユーザがリアルグローブ20を装着したとき、リアルグローブ20の腕の基端側の部位に相当する位置にも設置されている。
これら位置姿勢検出部23により、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を確実に把握することができる。
【0058】
なお、上述のような位置姿勢検出部23の代わりに、図示していないが、各指のリンク機構に配置される各リンクモータ222にエンコーダを接続し、リンクモータ222と動力伝達部の間には、ワンウェイクラッチ及びこのワンウェイクラッチを作動/不作動制御するクラッチ機構が挿入されていてもよい。
この場合、リンクモータ222の回転角度とジョイント部(節)の回転角度が一致しているので、リンク機構の各ジョイント部の角度が検出でき、各リンクモータ222のジョイント回転角度に基づいて、手の甲からの相対的な指の位置を特定することができる。
【0059】
次に、力覚発生部22による力覚発生動作について説明する。
ユーザがリアルグローブ20を装着し、手や指を動かすことによって仮想空間に現されている物体(仮想物体)、すなわち対象物に、その手や指が仮想的に接触すると、情報処理装置8は、後述する演算処理部81によって、対象物の物性データ及び物理特性などに基づいて、実際に接触があった場合の前記物体から指(指の各関節)への反力を計算し、その計算結果に基づいて各リンクモータ222のPWMデータ(例えば、リンクモータ222を回転させるための励磁パターンを示すデータ)に変換する。
ここで、前記物体とユーザの手や指との接触の判別は、前記触覚発生部21の場合と同様である。
【0060】
情報処理装置8は、導出した各PWMデータと、駆動させる各リンクモータ222を示すデータとをリアルグローブ20に送信する。リアルグローブ20は、受信したデータに応じて、指定された各リンクモータ222を所定方向に回転駆動し、対応する各フレーム221を所定方向に回動させ、各フレーム221の角度を調整、すなわち、リンク機構の両端部のフレーム221の角度及び各フレーム連結部の角度をそれぞれ調整する。
【0061】
このフレーム221の角度調整により、所定のフレームホルダ2bにそれぞれ所定の大きさの力が加わり、これにより、前記仮想空間に現されている物体からの反力に対応する力がユーザの指の各関節に与えられる。すなわち、指の各関節に対して力覚が提示される(与えられる)。
ここで、この力覚発生部22は、指の複数の部位に装着する複数の装着部間の間隔を調節する機能を有している(調節手段を兼ねている)。
【0062】
例えば、図5に示すように、所定のフレーム221を回動させ、フレーム221の角度を調整することにより、各フレームホルダ2b間の間隔を長くしたり、又は、短くしたりすることができる。
また、ワンウェイクラッチ及びクラッチ機構が取り付けられている場合において、情報処理装置8で算出された反力が所定の閾値よりも大きいときには、クラッチ機構のコイルが通電され、ワンウェイクラッチが所定の方向への回転をロックするようにクラッチ機構がオンする。これにより、ユーザは、その位置よりもロックされた所定の方向へ指を移動することができず、大きな反力(ここでは、ユーザが対象物を押したときの力そのもの)を得ることができる。すなわち、ワンウェイクラッチ及びクラッチ機構によって、力覚発生部22は、大きな反力を表現することができる。
【0063】
図7は、位置姿勢検出部23の構成例を示すブロック図である。位置姿勢検出部23には、本実施形態では、直交コイル式(直交コイル型)の位置センサ(位置検出手段)が用いられる。すなわち、位置姿勢検出部23は、図7に示すように、中心軸が互いに直交するX方向検出コイル(第1のコイル)231と、Y方向検出コイル(第2のコイル)232と、Z方向検出コイル(第3のコイル)233とで構成される。なお、X方向(X軸方向)と、Y方向(Y軸方向)と、Z方向(Z軸方向)とは、互いに直交している。
一方、情報処理装置8には、磁界を発生する後述する磁界発生部88が設けられている。この磁界発生部88には、例えば、前記位置姿勢検出部23とほぼ同じ構成のもの、すなわち、直交コイル式(直交コイル型)の磁界発生器(X方向コイル、Y方向コイル、Z方向コイル)が用いられる。
【0064】
この磁界発生部88で発生した磁界は、位置姿勢検出部23で検出される。この場合、磁界発生部88のX方向コイル、Y方向コイル及びZ方向コイルから、順次、磁界を発生し、それぞれを、位置姿勢検出部23のX方向検出コイル231、Y方向検出コイル232及びZ方向検出コイル233の3つのコイルで検出する。
位置姿勢検出部23によってXYZ各方向について検出された各信号(検出データ)は、それぞれ、信号処理部25の増幅部251において増幅され、A/D変換部252においてデジタル信号に変換された後、図2に示す信号送受信部26に出力され、この信号送受信部26を介して情報処理装置8に送信される。
【0065】
情報処理装置8では、リアルグローブ20から送信された信号を受信し、その信号(情報)に基づいて、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢、すなわち、前記各部の座標を導出し、その情報を所定の各処理において利用する。
このように、位置姿勢検出部23を設けることにより、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を正確かつ確実に求めることができる。
【0066】
仮想空間表示装置5には、この実施形態では、顔面に装着して使用する形態のもの、すなわち、HMD(ヘッドマウントディスプレイ)と呼ばれる眼鏡状の装置が用いられる。図8は、仮想空間表示装置5の外観構成例を示す斜視図、図9は、仮想空間表示装置5の回路構成例を示すブロック図である。
仮想空間表示装置5は、装着者(ユーザ)に対して仮想空間画像を表示する画像表示部51a、51bと、装着者の視線を検出する視線検出部52a、52bと、周囲を撮像し、その周囲の画像(映像)を取り込む凹凸入力部53a、53bと、装置全体の制御を行う制御部54と、情報処理装置8と信号を送受信する信号送受信部55と、位置姿勢検出部56と、装着部57と、信号処理部58とを備えている。以下、左右対称の構成要素については、いずれかのみを代表して説明する。
【0067】
図10は、仮想空間表示装置5の凹凸入力部53aの構成例を示す図(ブロック図、模式図)である。この図10に示すように、凹凸入力部53aは、レンズ531と、CCD(撮像素子)532と、CCD制御部533と、CCD出力増幅部534とを有している。
レンズ531に入射した光(光束)は、そのレンズ531により、CCD532の受光面(撮像面)上に導かれて結像し、その被写体像(周囲の像)は、CCD532により撮像される。このCCD532の駆動は、CCD制御部533により制御される。
【0068】
CCD532から出力された信号は、CCD出力増幅部534で増幅され、その後、凹凸入力部53aから出力され、図9に示す信号処理部58に入力される。そして、信号処理部58において所定の信号処理がなされ、信号送受信部55を介して情報処理装置8に送信される。
なお、凹凸入力部53bの構成及び作用は、前記凹凸入力部53aと同様であるので、その説明は、省略するが、この凹凸入力部53bと、前記凹凸入力部53aとでは、略同じ領域が撮像される。
【0069】
図11は、仮想空間表示装置5の画像表示部51aの構成例を示す図(ブロック図、模式図)である。この図11に示すように、画像表示部51aは、レンズ511と、レンズ511を移動させるレンズ移動機構512と、ステッピングモータ513と、モータ制御部514と、図示しないカラーフィルタを備えた液晶表示パネル515と、液晶駆動部516と、バックライト517と、バックライト制御部518と、トランジスタ519とを有している。
【0070】
画像表示部51aにおいて仮想空間画像を表示する際は、バックライト制御部518の制御により、トランジスタ519がオンし、バックライト517が駆動し、バックライト517から液晶表示パネル515へ光が照射される。
そして、液晶駆動部516は、制御部54から入力される表示信号(画像データ)に基づいて、液晶表示パネル515の駆動を制御し、これにより、液晶表示パネル515に仮想空間画像が表示される。
【0071】
装着者(ユーザ)は、レンズ511及び後述する視線検出部52aのハーフミラー521を介し、この液晶表示パネル515に表示された仮想空間画像を視認することができる。
ステッピングモータ513の駆動は、モータ制御部514により制御され、そのステッピングモータ513が所定方向に回転すると、レンズ移動機構512により、レンズ511は、液晶表示パネル515に接近する方向、すなわち、装着者の目から離間する方向へ移動する。
一方、ステッピングモータ513が前記と逆方向に回転すると、レンズ移動機構512により、レンズ511は、液晶表示パネル515から離間する方向、すなわち、装着者の目に接近する方向へ移動する。
【0072】
仮想空間表示装置5では、このレンズ511の位置の変更により、前記仮想空間画像の遠近を変更することができる。
このレンズ511の位置の調整、すなわち、前記仮想空間画像の遠近の調整は、後述する視線検出部52a、52bで検出される装着者の視線の情報に基づいてなされる。
なお、画像表示部51bの構成及び作用は、前記画像表示部51aと同様であるので、その説明は、省略する。
【0073】
視線検出部52a、52bは、装着者の視線がどの方向にあるか(仮想空間画像のどこに焦点を合わせようとしているか)を検出する機能と、セキュリティ情報として利用するための装着者の眼の虹彩パターンを読み取る機能とを有している。
図12は、仮想空間表示装置5の視線検出部52aの構成例を示す図(ブロック図、模式図)である。この図12に示すように、視線検出部52aは、ハーフミラー521と、可視光を除去し、赤外光を透過させるフィルタ522と、レンズ523と、CCD(撮像素子)524と、CCD制御部525と、CCD出力増幅部526と、赤外光を発するLED(発光ダイオード)527と、LED制御部528と、トランジスタ529とを有している。
【0074】
LED527の駆動は、LED制御部528により制御され、そのLED制御部528の制御によりトランジスタ529がオンすると、LED527が駆動し、LED527から赤外光が発せられる。
LED527から発せられた赤外光は、フィルタ522を透過し、ハーフミラー521でその一部が反射して、装着者の目に照射される。
【0075】
そして、装着者の目からの反射光(光束)は、ハーフミラー521でその一部が反射して、フィルタ522を透過し、レンズ523により、CCD524の受光面(撮像面)上に導かれて結像し、その被写体像(装着者の目の像)は、CCD524により撮像される。このCCD524の駆動は、CCD制御部525により制御される。
【0076】
CCD524から出力された信号は、CCD出力増幅部526で増幅され、その後、視線検出部52aから出力され、図9に示す信号処理部58に入力される。そして、信号処理部58において所定の信号処理がなされ、信号送受信部55を介して情報処理装置8に送信される。
情報処理装置8では、仮想空間表示装置5からの信号を受信し、その信号(情報)に基づいて、装着者の視線がどの方向にあるか(仮想空間画像のどこに焦点を合わせようとしているか)を検出するとともに、装着者の眼の虹彩パターンを読み取り、解析し、セキュリティ情報として利用する。
一方、レンズ523側からフィルタ522へ入射する可視光は、フィルタ522で除去され、その可視光が装着者の目に照射されてしまうのを阻止することができる。これにより、液晶表示パネル515に表示された仮想空間画像の視認性の低下を防止することができる。
【0077】
なお、視線検出部52bの構成及び作用は、前記視線検出部52aと同様であるので、その説明は、省略する。
この仮想空間表示装置5は、2台の画像取込装置、すなわち、前記凹凸入力部53a、53bによって周囲の画像を撮像して取り込み、信号送受信部55を介して情報処理装置8に対して撮像した画像データ(映像データ)を送信する。
【0078】
情報処理装置8は、凹凸入力部53a、53bにおいて撮像された画像、すなわち撮像された画像データから視角差を導出し、その視角差等から得られる周囲の凹凸に基づいて、仮想空間画像、すなわち仮想空間の画像データを作成する。そして、情報処理装置8は、作成した仮想空間の画像(映像)と、例えば、仮想壁紙や仮想パーソナルコンピュータや仮想本などの所定の仮想物体を周囲の凹凸に合わせて仮想空間に配置するための画像とを合成した合成画像(合成映像)を示す画像データ(映像データ)を仮想空間表示装置5に送信する。
【0079】
仮想空間表示装置5は、情報処理装置8からの画像データに基づいて、その画像を画像表示部51a、51bを用いて表示する。
また、仮想空間表示装置5は、装着されているリアルグローブ20、すなわち、ユーザの手や腕が画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、その手や腕に対応する画像も、画像表示部51a、51bに表示する。
【0080】
この場合、前述したように、リアルグローブ20に設けられている複数の位置姿勢検出部23の検出データが情報処理装置8に送信されることによって、リアルグローブ20の位置及び姿勢、すなわち、ユーザの各指、手、手首、腕等の位置及び姿勢は、情報処理装置8において認識される。すなわち、情報処理装置8は、逐一、リアルグローブ20からの前記検出データに基づいて、ユーザの各指、手、手首、腕等の位置及び姿勢を特定し、それらが画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、それらを示す仮想空間画像を作成し、その画像を基礎の画像に合成して、合成画像(合成画像の画像データ)を得、その画像データを仮想空間表示装置5に送信する。
【0081】
従って、ユーザの手や腕が画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、その手や腕に対応する画像が、画像表示部51a、51bに表示される。
そして、仮想空間表示装置5では、リアルグローブ20を装着したユーザの手や指の実際の動作に連動して、画像表示部51a、51bに表示されている仮想空間画像においてそのユーザの手や指が動くように描写される。
【0082】
位置姿勢検出部56は、仮想空間表示装置5の位置及び姿勢、すなわち、装着者の顔面(頭部)の位置及び姿勢を検出するためのセンサである。この位置姿勢検出部56には、本実施形態では、直交コイル式の位置センサ、すなわち、前記位置姿勢検出部23と同様のものが用いられる。
位置姿勢検出部56からの信号(検出データ)は、信号処理部58に入力され、所定の信号処理がなされ、信号送受信部55を介して逐一情報処理装置8に送信される。情報処理装置8は、この検出データに基づいて、逐一仮想空間画像を更新する。
従って、例えば仮想空間表示装置5を装着したユーザが首を動かした場合には、画像表示部51a、51bに表示される仮想空間画像は、ユーザが向いている方向に合致した画像となるように変化する。
【0083】
三次元加速度センサ59は、仮想空間表示装置5の略直交する三方向への加速度を検出するものである。三次元加速度センサ59は、HMDに内蔵可能なものであって、ある程度の精度を有するものであれば、圧電型でも、サーボ型でも、ひずみゲージ型などのいずれでもよい。しかしながら、本発明では、CMOSを用いた半導体加速度センサのように、より高精度な加速度センサが適する。
この三次元加速度センサ59で検出された信号(加速度データ)は、信号処理部58に出力され、増幅などの所定の信号処理がなされた後、信号送受信部55を介して情報処理装置8に送信される。
【0084】
図13は、図1に示す情報処理装置8の回路構成例を示すブロック図である。この図13において、情報処理装置8は、演算処理部(演算手段)81と、衝突判定部(衝突判定手段)82と、画像生成部(画像生成手段)83と、制御部(制御手段)84と、記憶部(記憶手段)85と、信号処理部86と、信号送受信部(通信手段)87と、磁界発生部88とを備えている。
【0085】
演算処理部81は、上述のリアルグローブ20の指や手が仮想空間内の対象物に接触した場合には(後述する衝突判定部82により判定される)、後述する記憶部85に格納されている物性データ及び状態量などに基づいて、その対象物がどのようなものであるかを判断して、その対象物から指(指の各関節)への反力を演算し、その演算結果からリアルグローブ20の各リンクモータ222のPWMデータに変換し、その変換データを信号処理部86及び信号送受信部87を介してリアルグローブ20に送信する。
【0086】
また、演算処理部81は、リアルグローブ20にワンウェイクラッチ及びクラッチ機構が適用されている場合、上記で演算した反力が所定の閾値よりも大きいか否かを判定し(判定手段)、その判定結果に基づいて、クラッチ機構へ動作信号を送信するか、各リンクモータ222へPWMデータの信号を送信するかを決定する。
【0087】
衝突判定部82は、リアルグローブ20の各指が仮想空間内の仮想の対象物と衝突したか否かを判定するものである。衝突判定部82によって判定された判定結果は、制御部84に出力される。
画像生成部83は、制御部84の指示により、予め基地局9から受信した仮想空間画像、あるいは仮想空間表示装置5の凹凸入力部53a、53bによって撮像され、その撮像画像から変換された仮想空間画像に、ユーザの腕や指などの映像を重ね合わせて、合成された仮想空間画像を生成し、その仮想空間画像のデータを信号処理部86に出力する。また、画像生成部83は、仮想空間中に表示されるリアルグローブ20又は仮想空間表示装置5の移動にともない、所定の時間間隔で仮想空間画像を更新して生成し、それを信号処理部86に出力する。
【0088】
制御部84は、図示しないCPUなどから構成され、衝突判定部82の判定結果に基づいて、演算処理部81に上述の反力を演算させる。また、制御部84は、上述の演算処理部81、衝突判定部82、及び画像生成部83の動作を制御し、その演算結果、衝突判定結果、及び生成画像データなどを記憶部85の所定の格納領域に保存するとともに、信号処理部86及び信号送受信部87を介して、対応する装置にそれらのデータを送信する。
【0089】
記憶部85は、プログラムやデータ等が予め記憶されている、図示しないコンピュータに読み取り可能な記憶媒体を有しており、この記憶媒体は、例えば、RAM(Random Access Memory:揮発性、不揮発性のいずれをも含む)、FD(Floppy Disk(Floppyは登録商標))、HD(Hard Disk)、CD−ROM(Compact Disc Read−Only Memory)等のような、磁気的、光学的記録媒体、もしくは半導体メモリで構成されている。この記憶媒体は、記憶部85に固定的に設けたもの、もしくは着脱自在に装着するものであり、この記憶媒体には、上記仮想空間表示装置5、情報処理装置8、及び力覚提示装置2に対応する各種アプリケーションプログラム、表示画像変更処理プログラム、表示画像合成処理プログラム、及び各処理プログラムで処理されたデータ、文書データ等が記憶される。
【0090】
また、この記憶媒体に記憶するプログラム、データ等は、その一部もしくは全部をサーバやクライアント(本実施の形態では、基地局9など)等の他の機器からネットワーク回線(例えば、インターネット、電話回線など)等の伝送媒体を介して信号送受信部87から受信して記憶する構成にしてもよく、さらに、記憶媒体はネットワーク上に構築された基地局9のサーバの記憶媒体であってもよい。さらに、前記プログラムをネットワーク回線等の伝送媒体を介してサーバやクライアントから伝送して情報処理装置8にインストールするように構成してもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
信号処理部86は、仮想空間表示装置5や力覚提示装置2に送信する画像データや制御信号などの増幅等の信号処理を行う。信号送受信部87は、信号処理部86において処理された各種信号やデータを仮想空間表示装置5や力覚提示装置2などの外部機器との通信を行うための制御を行う。
【0091】
磁界発生部88は、詳細は図示されていないが、例えば、図7の位置姿勢検出部23に対応する直交コイル式(直交コイル型)の磁界発生器(X方向コイル、Y方向コイル、Z方向コイル)である。この磁界発生部88は、制御部84からの指示により、X、Y、Z方向コイルの順で磁界を発生し、リアルグローブ20の位置姿勢検出部23の各方向の検出コイル231、232及び233に発生した磁界を検出させるとともに、仮想空間表示装置5の位置姿勢検出部56にも磁界を検出させる。
【0092】
なお、この磁界発生部88は、図示のように情報処理装置8に格納されてもよいが、磁界発生装置として情報処理装置8とは別構成としてもよい。特に、情報処理装置8として携帯電話機やPDAを用いるときは、その内部に磁界発生部を後から設けることができないので、別構成とすることが有用である。このように別に磁界発生装置(又は磁界発生部)を設けたとしても、その制御は、情報処理装置8からの制御信号によってなされ得る。
【0093】
次に、第1実施形態における力覚提示システム1の動作(作用)について説明する。ここでは、ユーザが、力覚提示システム1を利用して、仮想空間に現れている仮想パーソナルコンピュータの操作を行う場合を例に説明する。
ユーザは、各部の電源を入れ、リアルグローブ20を両手にそれぞれ装着し、眼鏡状の仮想空間表示装置5をかける(顔面に装着する)。すると、仮想空間表示装置5の画像表示部51a、51bに、仮想パーソナルコンピュータを含む仮想空間画像が表示される。
【0094】
また、ユーザの腕が画像表示部51a、51bで表示されている仮想空間画像内に入るようにすれば、情報処理装置8の画像生成部83において作成されたその手や腕の画像が仮想空間画像に仮想物体として表示される。そして、ユーザが手や指を動かした場合には、その実際の手や指の動きに連動して、仮想空間画像において、表示されている手や指が動く。
【0095】
情報処理装置8は、衝突判定部82によって、仮想空間画像における対象物、すなわち本実施形態では、例えば、仮想パーソナルコンピュータの一部(例えばキーボード)と、ユーザの指の一部が同一座標となったことを検出すると、演算処理部81の演算結果に基づいて、リアルグローブ20に対して、触覚及び力覚を発生させるための指示を行う。具体的には、情報処理装置8は、演算処理部81が演算した反力の演算結果から得た、駆動させる動力発生部211及びその駆動に用いるPWMデータや、駆動させるリンクモータ222及びその駆動に用いるPWMデータなどを、信号送受信部87を介してリアルグローブ20に送信する。
【0096】
リアルグローブ20は、情報処理装置8からの指示に従って、指定された各動力発生部211を、それぞれ、指定されたトルクで指定された時間だけPWM制御により駆動する。これにより、仮想パーソナルコンピュータの一部と同一座標となった部分に配置されている各触覚提示ピン214の接触板214aが突出し、仮想パーソナルコンピュータの一部と同一座標となったユーザの各指先に対して触覚が与えられる。すなわち、各指先に、接触感覚、質感、形状、強さ等の感覚が与えられる。
【0097】
同時に、リアルグローブ20は、情報処理装置8からの指示に従って、指定された各リンクモータ222を、それぞれ、指定されたトルクで指定された時間だけPWM制御により駆動する。これにより、実在するパーソナルコンピュータの例えばキーボードに触れているときに各指の各関節に与えられる力覚、すなわち、前記各指の各関節に与えられる押圧力(反力)に相当する力がユーザの各指の各関節に対して与えられる。
また、ユーザが、さらに仮想パーソナルコンピュータのキーを押し込む方向に指を動かすと、指の座標変化に合わせて、画像表示部51a、51bに、キーを押し込む様子を示す仮想空間画像が表示される。
【0098】
この場合、情報処理装置8は、押下されたキーに基づく表示状態の変化を仮想空間画像で再現するための仮想空間画像の画像データを画像生成部83において生成し、信号送受信部87を介してそれを仮想空間表示装置5に送信する処理を行い、仮想空間表示装置5は、前記情報処理装置8から受信した仮想空間画像の画像データに基づいて、仮想パーソナルコンピュータのディスプレイにキーの押下が反映された表示がなされる画像を表示する。
以上説明したように、この力覚提示装置2及び力覚提示システム1によれば、リアルグローブ20の装着及び取り外しを容易かつ確実に行うことができるとともに、ユーザの手及び各指の所定の部位の仮想空間における位置及び姿勢を正確かつ確実に求めることができる。
【0099】
また、この力覚提示装置2及び力覚提示システム1によれば、仮想空間画像に応じて、ユーザの各指に対して力覚及び触覚をそれぞれ正確かつ確実に提示することができる。
これにより、ユーザは、快適に、そして、容易かつ確実に、仮想空間における動作(操作)を行うことができる。
【0100】
また、触覚発生部21において、アクチュエータワイヤ212の弛みを防止することができ、各触覚提示ピン214からそれぞれユーザの各指腹に、より正確かつ確実に目標の大ききの押圧力を与えることができる。
これにより、ユーザは、仮想空間画像における各指腹の物体(対象物)への接触に相当する感覚を、より正確かつ確実に各指腹で感じることができる。
【0101】
さらに、触覚発生部21では、各指腹に対してほぼ平行に(指腹に沿って)アクチュエータワイヤ212が配置され、そのアクチュエータワイヤ212を巻き取ることによって各指腹に対してほぼ垂直な力を与えるようになっているので、触覚を与えるための機構を薄くすることができ、これにより、リアルグローブ20の指腹側の厚みを極力抑えることができる。
【0102】
また、力覚発生部22はリンク機構を有しているので、指を伸ばしている状態、指を曲げている状態のいずれにおいても対応することができ、これにより、より確実に、各指に対して力覚を与えることができる。
また、リアルグローブ20は、手袋2aを有しているので、そのリアルグローブ20の装着及び取り外しを容易かつ確実に行うことができ、また、仮想空間における動作(操作)を容易かつ確実に行うことができる。
【0103】
なお、上述した実施形態では、使用例として仮想空間画像に表示されているパーソナルコンピュータを仮想的に操作する場合について説明したが、本発明では、これに限らず、例えば、仮想本などの他の物品を取扱うために使用することもできる。仮想本を取扱う場合には、例えば、仮想本の縁をさわったりページをめくったりするときに、実際の本の縁をさわったりページをめくったりするときに指に加わる触感や力感を感じることができる。
また、本発明では、仮想空間画像が表示されなくてもよい。すなわち、仮想空間画像に対応した所定のデータがあり、そのデータに基づいて、指に対して触覚や力覚を提示するよう構成されていてもよい。
【0104】
次に、本発明の力覚提示装置及び画像処理装置の第2実施形態について説明する。図14は、第2実施形態における力覚提示装置の触覚発生部の構成例を示す縦断面図である。
以下、第2実施形態の力覚提示装置2について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
図14(A)に示すように、第2実施形態の力覚提示装置2では、その触覚発生部21の各単位触覚発生部(アクチュエータ)210は、それぞれ、モータ(駆動源)211aを備える動力発生部(移動手段)211と、長手方向に移動可能に設置されたアクチュエータワイヤ(可撓性を有する線状体)212と、触覚を発生させるために指腹を押圧する触覚提示部216とを有している。
触覚提示部216は、ユーザの指腹に接触感覚(接触の有無や強さ等)を与えるために用いられ、例えば、板バネのような弾性を有する部材(弾性体)で形成される。この場合、触覚提示部216は、適度な剛性を有するのが好ましく、例えば、各種金属で構成された弾性体で形成することができる。
【0105】
この触覚提示部216は、第1の板片(押圧部)216aと、第2の板片(スライド部)216bとで構成されている。第1の板片216aと第2の板片216bとは、一端側において接合されており、第1の板片216aの他端側には、指腹に接触する部分である微小な接触部216cが設けられている。この接触部216cは、例えば、第1の板片216aの端部を第2の板片216b側に向けて屈曲させることによって形成することができる。
また、触覚提示部216の前記一端側、すなわち、図14(A)中左側の端部は、図14(A)中下側に凸となるように湾曲している。
【0106】
第1の板片216aと第2の板片216bとの間には、第1の板片216aの移動方向を規制する円柱状のガイド部(移動方向規制手段)217が設置されている。
また、触覚提示部216の図14(A)中下側には、押え板218が設置されており、触覚提示部216は、この押え板218に沿って移動(スライド)し得るようになっている。この場合、触覚提示部216は、その図14(A)中左側の端部が湾曲しているので、円滑かつ確実に移動することができる。
【0107】
前記ガイド部217は、押え板218に固定され、押え板218は、手袋2aに固定されている。すなわち、ガイド部217及び押え板218は、共に、手袋2aに対して固定的に設置されている。
また、触覚提示部216の第2の板片216bの図14(A)中右側における端部には、アクチュエータワイヤ212の一端が固定されている。
【0108】
動力発生部211のモータ211aの駆動によりアクチュエータワイヤ212が巻き取られると、そのアクチュエータワイヤ212は、指腹に沿って図14(A)中右側(指の基端方向)に移動し、これとともにアクチュエータワイヤ212に取付固定されている触覚提示部216も指腹に沿って図14(A)中右側に移動する。
【0109】
この際、図14(B)に示すように、触覚提示部216の第1の板片216aは、ガイド部217によって図14(B)中右側への移動が制限されるとともに、ガイド部217にガイドされて、図14(B)中上側へ移動する(指腹に向って突出する)。すなわち、触覚提示部216が弾性変形し、その第1の板片216aの姿勢が図14(B)に示す姿勢に変更されることで、接触部216cは、指腹の表面に対しほぼ垂直上方に移動する(押し上げられる)。
一方、アクチュエータワイヤ212は、触覚提示部216の復元力(弾性力)により、図14(B)中左側(第1の板片216aを突出させるときのアクチュエータワイヤ212の移動方向と逆方向)に付勢される。すなわち、この触覚提示部216(第1の板片216a)は、付勢手段を兼ねる。
【0110】
前記接触部216cがほぼ垂直上方に移動しようとする力が働くことで、その接触部216cが指腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の指腹に押圧力を与える。
この動作が、複数の単位触覚発生部210のうちの指定された単位触覚発生部210でなされ、これにより、ユーザの手の指腹に触覚が提示される(与えられる)。よって、ユーザは、仮想空間画像における指腹の物体(対象物)への接触に相当する感覚を、指腹に得ることができる。
【0111】
前記指定された単位触覚発生部210において、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、触覚提示部216の復元力(弾性力)と、ユーザの指からの圧力によって、触覚提示部216は、図14(A)に示す初期状態に戻る。
これにより、触覚提示部216からユーザの手の指腹に与えられていた押圧力が実質的に消滅する。この力覚提示装置2によれば、前述した第1実施形態と同様の効果が得られる。
【0112】
次に、本発明の力覚提示装置及び力覚提示システムの第3実施形態について説明する。
図15は、第3実施形態の力覚提示装置のリアルグローブの外観構成例を示す外観図(一部図示を省略)である。なお、図を明瞭にするために、図15中では、図3に示す触覚発生部21、動力発生部211、力覚発生部22、位置姿勢検出部23、制御部24及び電力供給部30等は、図示されていない。
【0113】
以下、第3実施形態の力覚提示装置2について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
図15に示すように、第3実施形態の力覚提示装置2では、リアルグローブ20の手袋2aの筒状部20aの肘側(基端側)の端部に、空気(エアー)の注入による空気圧(圧力)により腕に固定する形態(エアー注入方式)の腕固定部2dが設けられている。
この腕固定部2dは、空気が注入される袋状の腕固定部本体21dと、その腕固定部本体21dに設けられたエアー注入部22dとで構成されている。腕固定部本体21dの外観形状は、筒状をなしている。
【0114】
エアー注入部22dの中空部は、腕固定部本体21dの内部に連通しており、エアー注入部22dの先端部には、蓋体23dが設けられている。
蓋体23dをエアー注入部22dの先端部に装着すると、腕固定部本体21d内の気密性が保持され、蓋体23dを取り外すと、腕固定部本体21dに対し、エアー注入部22dを介して、空気の注入及び排出を行うことができる。
このような腕固定部2dは、各ユーザに応じて、例えば、ゴム型等の型を用いて、ユーザの腕の形状に合うように成形される。
【0115】
ユーザは、リアルグローブ20を装着する際は、まず、その手袋2aを装着し、次に、腕固定部2dの腕固定部本体21d内に、空気を注入する。
この空気注入では、例えば、エアー注入部22dの先端部から蓋体23dを取り外し、そのエアー注入部22dから腕固定部本体21d内に空気を吹き込む。そして、所定量の空気を注入し終えると、エアー注入部22dの先端部に蓋体23dを装着する。
【0116】
このようにして、リアルグローブ20は、腕固定部2dの空気圧によりユーザの腕に固定されるとともに、手首固定部28の復元力(弾性力)によりユーザの手首に固定される。
また、ユーザは、リアルグローブ20を取り外す際は、まず、腕固定部2dの腕固定部本体21d内から空気を排出し、次に、リアルグローブ20を手から取り外す。
【0117】
この力覚提示装置2によれば、前述した第1実施形態と同様の効果が得られるとともに、この力覚提示装置2では、腕固定部2dがエアー注入方式のものであるので、リアルグローブ20の装着及び取り外しを容易かつ迅速に行うことができる。
なお、本発明では、触覚発生部21の単位触覚発生部210を、前述した第2実施形態のように構成してもよい。
【0118】
次に、本発明の力覚提示装置及び力覚提示システムの第4実施形態について説明する。
図16は、第4実施形態の力覚提示装置の位置姿勢検出部の構成例を示すブロック図、図17は、第4実施形態の力覚提示装置の位置姿勢検出部の構成例を示す外観図(一部図示を省略)、図18は、図17に示す位置姿勢検出部のZ方向検出センサの構成例を示す外観図である。なお、図17及び図18中において、それぞれ、互いに直交するX軸、Y軸及びZ軸を想定する。
【0119】
以下、第4実施形態における力覚提示装置2について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
第4実施形態における力覚提示装置2では、位置姿勢検出部(位置検出手段)23として、例えば、コリオリ力を利用して互いに直交するX軸、Y軸及びZ軸の回りの角速度をそれぞれ検出するジャイロセンサ(ジャイロスコープ)を用いる。
【0120】
そして、この力覚提示装置2では、凹凸入力部(撮像手段)53a、53bにより周囲を撮像し、その撮像された周囲の画像に指に対応する部分が含まれている場合には、凹凸入力部53a、53bからの画像データ(映像データ)に基づいて指の位置を求め、前記撮像された周囲の画像に指に対応する部分が含まれていない場合には、前記各位置姿勢検出部23により指の位置を検出し、各位置姿勢検出部23からの情報に基づいて指の位置を求める。
【0121】
図17に示すように、位置姿勢検出部23は、ケーシング60と、ケーシング60内に設けられ、X軸の回りの角速度を検出するX方向検出センサ(第1の検出センサ)61、Y軸の回りの角速度を検出するY方向検出センサ(第2の検出センサ)62及びZ軸の回りの角速度を検出するZ方向検出センサ(第3の検出センサ)63とを有している。
また、図18に示すように、Z方向検出センサ63は、エリンバー(基台)64と、エリンバー64に設置された振動用の圧電素子(振動用圧電素子)65及び検出用の圧電素子(検出用圧電素子)66とで構成されている。このZ方向検出センサ63は、2本のワイヤ67、68により支持されている。
【0122】
エリンバー64の形状は、Z軸方向に長い略直方体をなしており、その略直交する2つの面の一方に前記振動用圧電素子65が設置され、他方に検出用圧電素子66が設置されている。この場合、Y軸に対して垂直な面に、振動用圧電素子65が配置され、X軸に対して垂直な面に、検出用圧電素子66が配置されているが、その配置を逆にしてもよい。
【0123】
このZ方向検出センサ63の振動用圧電素子65に図16に示す交流電源69から交流電圧が印加されると、その振動用圧電素子65は、X軸方向に振動(屈曲振動)し、これによりエリンバー64もX軸方向に振動する。このとき、Z軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)が検出用圧電素子66から検出される。
【0124】
なお、X方向検出センサ61及びY方向検出センサ62の構成は、前記Z方向検出センサ63と同様であるので、その説明は省略する。それらの作用は、X軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)がX方向検出センサ61の検出用圧電素子66から検出され、Y軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)がY方向検出センサ62の検出用圧電素子66から検出される。
【0125】
図16に示すように、位置姿勢検出部23のX方向検出センサ61によって検出されたX軸の回りの角速度に対応した信号(検出データ)と、Y方向検出センサ62によって検出されたY軸の回りの角速度に対応した信号(検出データ)と、Z方向検出センサ63によって検出されたZ軸の回りの角速度に対応した信号(検出データ)とは、それぞれ、信号処理部25の増幅部251において増幅され、A/D変換部252においてデジタル信号に変換された後、図2に示す信号送受信部26に出力され、この信号送受信部26を介して情報処理装置8に送信される。
情報処理装置8では、リアルグローブ20からの信号を受信し、その信号(情報)に基づいて、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢、すなわち、前記各部の座標を導出し、その情報を所定の各処理において利用するために記憶部85の所定の格納領域に保存する。
【0126】
次に、本発明の力覚提示装置及び力覚提示システムの第5実施形態について説明する。
図19は、本発明の第5実施形態における力覚提示装置を概略的に示す斜視図であり、図20は、図19に示す力覚提示装置の1つの指に対応するアーム部の拡大図であり、図21は、図20に示すアーム部のジョイント部の断面図であり、図22は、図20に示すアーム部の指を挿入する力覚提示部の拡大図である。
【0127】
以下、第5実施形態における力覚提示装置2について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
第5実施形態における力覚提示装置2では、力覚発生部22として、特に、ユーザの指先に力覚を提示する複数のモータ201を用い、位置姿勢検出部(位置検出手段)23として、後述する複数のリンク203、複数のエンコーダ208、及び連結部204を用いる。
図19に示すように、第5実施形態の力覚提示装置2は、ユーザの各指先に適用する複数のアーム部200(図19では、2本のアーム部200しか示さないが、本実施形態では、ユーザの5本の指すべてに適用される。)と、ユーザの手の甲側に適用するアーム部200とを備える。
【0128】
なお、図19では、各アーム部200は、その一端がユーザの指先又は手の甲に装着され、他端がそれぞれ中空に浮いているように示されているが、本実施形態では、すべてのアーム部200は、上記他端側で1つにまとまり、その部分に制御部24、信号処理部25及び信号送受信部26が配置されている。しかしながら、本発明は、この構成に限らず、例えば、各アーム部200の他端側にそれぞれ制御部24、信号処理部25及び信号送受信部26を備えていてもよい。
各アーム部200の構造
(構成)はほぼ等しいので、ここでは、図20に示す指先に適用されるアーム部200、図21に示すそのアーム部200のジョイント部205、及び、図22に示す力覚提示部206及び連結部204を用いて、その構成を詳細に説明する。
【0129】
図20において、アーム部200は、3本のリンク203と、リンク203とリンク203とを連結する3つのジョイント(節)205と、各ジョイント部205に設けられる3つのモータ201と、各モータ201に対応してジョイント部205に設けられるクラッチ202と、ユーザの指先に装着する力覚提示部206と、力覚提示部206とリンク203とのジョイントをなす連結部204とを備える。
【0130】
なお、本実施形態では、3本のリンク203を備えるアーム部200について説明するが、本発明の力覚提示装置2は、これに限定されず、アーム部200にはリンク203がいくつ用いられてもよい。このリンク203の数は、本実施形態の力覚提示装置2を装着したユーザの指先の自由度、位置姿勢検出部23の検出能力(検出時間などの処理能力)などを考慮して、適当な数に決定するのが好ましい。
【0131】
ここで、図21を用いてジョイント部205の構造を説明する。図21に示すように、2つのリンク203を連結するジョイント部205には、モータ201と、モータ軸201aに連結されるエンコーダ208と、モータ201の所定の方向への回転を抑制(規制)するワンウェイクラッチ(移動規制手段)207と、このワンウェイクラッチ207を介してモータ軸201aに連結されるクラッチ(クラッチ機構)202とが配置される。なお、図21に示すように、1つのリンク203はモータ軸201aに連結し、もう1つのリンク203は、クラッチ202に連結されている。
【0132】
モータ201は、図20に示す方向A及びBのいずれにも回転可能であり、モータ201の回転角度を変えることにより、モータ201が配置されるジョイント部205に連結される2つのリンク203の角度を調整することができる。すなわち、2つのリンク203の一方は、モータ201の出力軸であるモータ軸201aに取り付けられており、モータ201の回転角度とジョイント部205の回転角度が一致するように構成されている。
【0133】
また、上述の情報処理装置8の衝突判定部82により、ユーザの指先が仮想空間画像内の対象物に触れた(衝突した)と判定された場合には、力覚提示装置2は、記憶部85に保存されているその対象物の物性データ及び状態量に基づいて演算された作用力(反力)を信号送受信部26を介して受信する。そして、モータ201は、その作用力データに基づいて、ユーザの指先に反力(力覚)を提示するように、通電されて駆動(回転)する。なお、このモータ201は、通電されていないときは回転するモータ軸201aが自由に回転可能なモータである。
【0134】
エンコーダ208は、上述のように、モータ201のモータ軸201aに連結されており、位置姿勢検出部23を構成する。エンコーダ208は、モータ201の回転角度、すなわち、2つのリンク203の相対的な回転角度を検出することができる。検出された2つのリンク203間の角度情報(信号)は、信号処理部25において所定の信号処理をされた後、信号送受信部26を介して情報処理装置8に送信される(図2参照)。
【0135】
クラッチ202のスリーブは、ワンウェイクラッチ207を介してモータ201のモータ軸201aに連結されている。このクラッチ202は、クラッチ202内部のコイルに通電することにより、モータ201の駆動を固定(回転不能に)するが、ワンウェイクラッチ207を介しているため、一方向への回転は自由なままである。
なお、図20において、ワンウェイクラッチ207が作動している場合、各ジョイント部205では、A方向には自由に回転可能であり、B方向には回転不可能である。以下、A方向を順方向、B方向をロック方向という。
【0136】
ワンウェイクラッチ207は、その内部に図示しない内輪と外輪を含み、その外輪は、クラッチ202のスリーブに固定あるいは回転止めされている。これにより、ワンウェイクラッチ207が順方向に回転する場合には、その内輪が回転し、逆に、ワンウェイクラッチ207がロック方向に回転する場合には、その内輪及び外輪、並びにクラッチ202のロータが一緒に回転する。
【0137】
なお、仮想空間において、対象物などに触れずにユーザがアーム部200を装着した指を移動する場合には、モータ201及びクラッチ202への通電がオフされ、ユーザはその指先を自由に移動することができる。
ここで、すべてのモータ201によって力覚発生手段が構成され、各リンク203、ジョイント部205、連結部204、及び力覚提示部206によって力覚提示部が構成される。また、エンコーダ208及び連結部204によって位置検出手段が構成される。
【0138】
図22に示すように、力覚提示部206は、図20に示すように、ユーザの指先が挿入できるように中空の筒状をしている。モータ201を駆動した場合やクラッチ202をオンしてワンウェイクラッチ207を作動した場合には、力覚提示部206は、それらで発生した作用力(力覚)をユーザの指先に提示するものである。
また、図23は、本発明の一実施形態における力覚提示部206の断面図であるが、力覚提示部206は、この図23に示すように、その内表面であってユーザの指腹が当たる部分にピン駆動による触覚提示部209を備えていてもよい。これにより、上記第1実施形態と同様の効果を得ることができる。
【0139】
図22では、図20に示した連結部204のカバーをはずしたものを示す。この連結部204は、ジンバル構造となっており、図22に示す矢印の方向に回転可能である。
また、連結部204は、図示しないポテンショメータ等の回転角度検出手段を備えており、力覚提示部206の姿勢を検出することができる。なお、連結部204として、ボールジョイントなどを用いることも可能であるが、その場合には、力覚提示部206の姿勢を検出する手段を別途設ける必要がある。
このように、本実施形態の力覚提示装置2は、情報処理装置8の指示に従って、モータ201をオン/オフし、あるいはクラッチ202を介してワンウェイクラッチ207を作動/不作動することにより、ユーザの指先に力覚を提示することができる。
【0140】
次に、第5実施形態における力覚提示装置2の動作(作用)について説明する。図24は、本発明の力覚提示処理(力覚提示方法)を示すフローチャートである。このフローチャートからも分かるように、本発明の力覚提示方法は、主に、力覚提示システム1における力覚提示装置2と情報処理装置8とのデータ送受信によって行われる。そのため、このフローチャートでは、仮想空間表示装置5の動作を省略しているが、必要に応じて説明を加える。
【0141】
使用に先立って、ユーザは、各部(各装置)の電源を入れ、力覚提示装置2を両手にそれぞれ装着し、眼鏡状の仮想空間表示装置5をかける(顔面に装着する)。すると、仮想空間表示装置5の画像表示部51a、51bに、予め情報処理装置8の記憶部85に画像データとして格納されている仮想空間画像、あるいは仮想空間表示装置5の撮像手段によって撮像された画像データから生成された仮想空間画像が表示される。
【0142】
そして、力覚提示システム1では、各装置の初期設定が行われる。この初期設定では、力覚提示装置2の各モータ201の回転角度、すなわち、アーム部200の各ジョイント部205の角度がエンコーダ208及び連結部204によって検出され、それらの検出された角度データは、信号送受信部26を介して情報処理装置8に送信される。
情報処理装置8では、演算処理部81は、上記角度データに基づいて、力覚提示装置2を装着したユーザの各指先及び手の甲の仮想空間における位置及び姿勢を演算し、その演算結果、すなわち、仮想空間における各ポイントの座標を制御部84及び信号処理部86に出力する。
【0143】
制御部84は、これらの座標から仮想空間内にユーザの手の画像を画像生成部83に生成させる。画像生成部83は、このユーザの手の画像データを現在仮想空間表示装置5に表示している仮想空間画像データと合成し、合成した画像データを信号処理部86及び信号送受信部87を介して仮想空間表示装置5に送信する。
【0144】
仮想空間表示装置5は、受信した仮想空間画像データを画像表示部51a、51bに表示する。以上によって、初期設定が終了する。
この初期設定が終了すると、力覚提示システム1は使用可能状態となる。以下、図24のフローチャートに基づいて、本実施形態の力覚提示装置2及び力覚提示システム1の動作を説明する。
【0145】
まず、力覚提示装置2では、位置姿勢検出部23は、各アーム部200の各ジョイント部205の角度を検出する。すなわち、位置姿勢検出部23は、各ジョイント部205に配置されるエンコーダ208を用いて対応する各モータ201の回転角度を検出し、連結部204の回転角度検出手段を用いて、力覚提示部206の姿勢を検出する。
そして、これらの検出データは、位置姿勢検出部23から信号処理部25に出力され、信号送受信部26を介して情報処理装置8に送信される(ステップS101)。
【0146】
信号送受信部87を介して力覚提示装置2から送信された検出データを受信すると、情報処理装置8は、制御部84を介してそれらのデータを演算処理部81に入力する。そして、演算処理部81は、これらの検出データに基づいて、ユーザの各指及び手の仮想空間内における位置及び姿勢を演算する(ステップS102)。
【0147】
すなわち、演算処理部81は、記憶部85に予め格納されているアーム部200のアーム長、すなわち、各リンク203のそれぞれのリンク長と、このアーム部200を支持している支持部(図示せず)の座標データと、上記検出データ、すなわち、各ジョイント部205のそれぞれ検出された回転角度とを用いて、順運動学的にユーザの指先の位置を演算する。演算結果は、ユーザの各指先及び手の甲の仮想空間における座標(位置情報)として表される。
その演算結果は、制御部84を介して画像生成部83に入力される。画像生成部83は、この演算結果に基づいて、仮想空間におけるユーザの手の画像を作成し、その手の画像を重ね合わせて仮想空間画像を更新する(ステップS103)。
【0148】
そして、その更新して生成された画像データは、信号処理部86及び信号送受信部87を介して仮想空間表示装置5に送信される。仮想空間表示装置5は、受信した画像データに基づいて、画像表示部51a、51bに更新した仮想空間画像を表示する。これにより、ユーザは、仮想空間表示装置5の画像表示部51a、51bによって、仮想空間画像内に表示されたユーザの手を見ることができる。
ここで、演算処理部81の演算結果が仮想空間内でユーザの指が移動していないことを示している場合、すなわち、上記検出データが前回の検出データ(ここでは、初期設定時のデータ)と同一である場合、画像生成部83は、仮想空間画像を更新することなく、ステップS104に移行してもよい。
【0149】
ステップS104において、情報処理装置8の衝突判定部(干渉判定手段)82は、演算処理部81によって得られたユーザの指先の位置情報及び記憶部85に予め記憶されている仮想空間画像内の対象物の位置情報に基づいて、ユーザの指先と仮想空間中の対象物が干渉したか否か(衝突したか否か)を判定する。そして、それらが干渉していないと判定された場合には(ステップS104においてNO)、各モータ201及び各クラッチ202の出力をオフ、すなわち、これらへの通電を止めて(ステップS105)、ステップS101に戻り同様の処理を繰り返す。なお、現時点ではモータ201又はクラッチ202への通電は行われていないので、そのままステップS101に戻り同様の処理を繰り返す。
【0150】
また、ステップS104においてユーザの指先と対象物が干渉したと判定された場合には(ステップS104においてYES)、制御部84は、その対象物の物性データ及び状態量データを記憶部85の所定の保存先から読み出し、これらのデータを演算処理部81に出力する。演算処理部81は、当該データに基づいて、対象物のユーザの指への作用力を演算する(ステップS106)。
【0151】
ステップS107において、制御部84(ここでは、判別手段)は、演算処理部81によって演算された作用力が予め設定され、記憶部85の所定の保存領域に記憶されている所定の閾値よりも大きいか否かを判別する。そして、この作用力が所定の閾値よりも大きいと判別された場合には、制御部84は、クラッチ202の動作信号(作動信号)を信号処理部86及び信号送受信部87を介して力覚提示装置2に送信する(ステップS109)。
一方、上記作用力が所定の閾値よりも小さいと判別された場合には、演算処理部81は、力覚提示装置2の各モータ201への作用力の分配比率を演算し(ステップS109)、その演算結果を適正なモータ動作信号として信号処理部86及び信号送受信部87を介して力覚提示装置2に送信する(ステップS110)。
【0152】
モータ201の動作信号又はクラッチ202の動作信号を受信した力覚提示装置2は、制御部24を介してその動作信号を力覚発生部22に入力する。そして、力覚発生部22は、その動作信号に基づいて、モータ201又はクラッチ202を通電し、モータ201の動作信号の場合には、各モータ201を駆動して作用力(力覚)を発生し、クラッチ202の動作信号の場合には、クラッチ202を駆動してワンウェイクラッチ207を作動して(ステップS111)、この力覚提示処理を終了する。
これにより、ユーザは、力覚提示部206を介してモータ201で発生した力覚を提示され、あるいは、ワンウェイクラッチ207の作動によりユーザの指先の所定の方向への移動を規制される。
【0153】
なお、この図24のフローチャートに示す力覚提示処理におけるステップS101の各ジョイント部205の検出ステップは、情報処理装置8の演算処理部81の演算処理能力に基づいて、所定の時間間隔で、例えば、1〜2秒毎に実行される。この検出ステップの検出頻度は、大きければ大きいほど、すなわち、時間間隔が短ければ短いほど、仮想空間領域におけるユーザへの力覚提示が自然に近くなるので、その検出頻度は、上記演算処理部81の演算処理能力に応じて適宜決定されるべきである。
【0154】
また、図25は、本発明のコントラスト提示処理(コントラスト提示方法)を示すフローチャートである。このコントラスト提示処理は、好ましくは、ユーザが本発明の力覚提示装置2を装着したとき、すなわち、本発明の力覚提示装置2の使用開始時に行われる。なお、このコントラスト提示処理は、ユーザの指に作用する力覚のキャリブレーション、すなわち、力覚提示装置2のキャリブレーションに相当する処理である。
【0155】
なお、上記力覚提示処理のフローチャート(図24)と同様に、このフローチャートでも、仮想空間表示装置5の動作を省略しているが、必要に応じて適宜説明を加える。また、説明が前後するが、上述の初期設定が終了し、本発明のコントラスト提示処理を実行した後、通常の使用時には、上記力覚提示処理が常時実行されている。
【0156】
まず、ユーザに力覚のコントラストを提示するために、情報処理装置8の画像生成部83において、記憶部85に予め格納されている画像データに基づいて、仮想空間画像中に所定の対象物の画像が生成される(ステップS201)。そして、この生成された画像は、信号処理部86及び信号送受信部87を介して仮想空間表示装置5に送信される。仮想空間表示装置5では、その画像データは、画像表示部51a、51bに表示される。
【0157】
仮想空間画像が仮想空間表示装置5に表示された状態において、力覚提示装置2では、位置姿勢検出部23は、各アーム部200の各ジョイント部205の角度を検出する。すなわち、位置姿勢検出部23は、各ジョイント部205に配置されるエンコーダ208を用いて対応する各モータ201の回転角度を検出し、連結部204の回転角度検出手段を用いて、力覚提示部206の姿勢を検出する。
そして、これらの検出データは、位置姿勢検出部23から信号処理部25に出力され、信号送受信部26を介して情報処理装置8に送信される(ステップS202)。
【0158】
信号送受信部87を介して力覚提示装置2から送信された検出データを受信すると、情報処理装置8は、制御部84を介してそれらのデータを演算処理部81に入力する。そして、演算処理部81は、これらの検出データに基づいて、ユーザの各指及び手の仮想空間内における位置及び姿勢を演算する(ステップS203)。
【0159】
すなわち、演算処理部81は、記憶部85に予め格納されているアーム部200のアーム長、すなわち、各リンク203のそれぞれのリンク長と、このアーム部200を支持している支持部(図示せず)の座標データと、上記検出データ、すなわち、各ジョイント部205のそれぞれ検出された回転角度とを用いて、順運動学的にユーザの指先の位置を演算する。演算結果は、ユーザの各指先及び手の甲の仮想空間における座標(位置情報)として表される。
【0160】
その演算結果は、制御部84を介して画像生成部83に入力される。画像生成部83は、この演算結果に基づいて、仮想空間におけるユーザの手の画像を作成し、その手の画像を重ね合わせて仮想空間画像を更新する(ステップS204)。なお、このコントラスト提示処理では、開始時に、例えば、上記で表示された所定の対象物を適当な力の強さで押すように、仮想空間表示装置5に適当なメッセージを表示するのが好ましい。
【0161】
そして、その更新して生成された画像データは、信号処理部86及び信号送受信部87を介して仮想空間表示装置5に送信される。仮想空間表示装置5は、受信した画像データに基づいて、画像表示部51a、51bに更新した仮想空間画像を表示する。これにより、ユーザは、仮想空間表示装置5の画像表示部51a、51bによって、仮想空間画像内に表示されたユーザの手を見ることができる。
【0162】
ステップS205において、情報処理装置8の衝突判定部82は、演算処理部81によって得られたユーザの指先の位置情報及び記憶部85に予め記憶されている仮想空間画像内の当該所定の対象物の位置情報に基づいて、ユーザの指先と仮想空間中の対象物が干渉したか否か(衝突したか否か)を判定する。そして、それらが干渉していないと判定された場合には(ステップS205においてNO)、各モータ201の出力をオフ、すなわち、通電を止めて(ステップS206)、ステップS202に戻り同様の処理を繰り返す。なお、上記のようにユーザに対して対象物と干渉するように表示などをしている場合には、ユーザはこの対象物を触ろうと仮想空間中で手及び指を移動するので、このような処理が行われることは稀であろう。
【0163】
また、ステップS205においてユーザの指先と対象物が干渉したと判定された場合には(ステップS205においてYES)、制御部84は、その対象物の物性データ及び状態量データを記憶部85の所定の保存先から読み出し、これらのデータを演算処理部81に出力する。演算処理部81は、当該データに基づいて、対象物のユーザの指への最初の作用力を演算する(ステップS207)。このコントラスト提示処理では、ユーザ側が主体となって所定の対象物を押す動作をしているので、仮想空間中における所定の対象物の表示位置にユーザの指先を保持(固定)するために、その作用力と反対方向への反力(相互作用)を力覚発生部22である各モータ201が駆動して発生している。そのため、演算処理部81は、ここでは、各モータ201を駆動するための入力信号(制御信号)を用いて(あるいは、別のセンサ(図示せず)によりモータの出力をモニタして)、ユーザが対象物を押している作用力を演算することとなる。
【0164】
そして、制御部84は、ユーザの指先の位置が所定の位置から動かないように、力覚提示装置2の力覚発生部22である各モータ201をユーザの押す作用力に追従して駆動制御する(ステップS208、S209)。なお、この場合でも、ユーザの作用力は、演算処理部81の演算結果に基づいて、各モータ201に分配される。
【0165】
ステップS210において、情報処理装置8の制御部84は、ユーザが対象物を押す作用力が第1の閾値を超えているか否かを判定する。第1の閾値を超えていないと判定された場合には、ステップS207に戻り、同様の処理(作用力を演算し、各モータ201に分配する処理)を繰り返す。
ステップS210において上記ユーザの作用力が第1の閾値を超えていると判定された場合には、制御部84は、記憶部85に予め保存されている第2の閾値に対応する、各モータ201の動作信号(制御信号)を、信号処理部86及び信号送受信部87を介して力覚提示装置2に送信する(ステップS211)。
この各モータ201の動作信号を受信した力覚提示装置2は、この信号に基づいて、各モータ201の出力を変更し(ステップS212)、このコントラスト提示処理を終了する。
【0166】
なお、第1及び第2の閾値は、情報処理装置8(すなわち、力覚提示システム1)に予め設定されていてもよく、あるいは、力覚提示システム1(力覚提示装置2)を利用するユーザによって適宜変更可能なように構成されていてもよい。第1の閾値としては、ユーザが十分に所定の対象物を押していると感じる程度の大きさであるとともに、力覚提示装置2にとって過負荷とならないような大きさであることが好ましく、例えば、5kg重(50N(ニュートン))程度である。
【0167】
また、第2の閾値は、第1の閾値に対応して、ユーザ、すなわち、人間がコントラストを十分に感じられるように、小さい値である方がよく、好ましくは、各モータ201によって発生する作用力が概ね0に相当する値、すなわち、モータ201への通電を止めたときの作用力(負荷)の値(このとき、ユーザの指先は自由な移動が可能である)である。
このように、第1の閾値と第2の閾値が十分にずれて(離れて)いることにより、ユーザへのコントラストはよりよく提示される。
【0168】
以上のように、本発明における力覚提示装置2及び力覚提示システム1は、特に、ユーザの力覚提示装置2の使用開始時において、大きな作用力(第1の閾値の作用力)と小さな作用力(第2の閾値の作用力)とを瞬間的にユーザの指先に与えることによって、作用力のコントラストをユーザに提示するものである。
したがって、本発明の力覚提示装置2及び力覚提示システム1によって、従来の力覚提示装置ではユーザに違和感を与えていた力覚提示部の重さや各ジョイント部などの摩擦抵抗等の負荷を、人間の感覚の曖昧さを上手く利用して、感覚的に取り除くことができる。
【0169】
なお、本発明の力覚提示システム1は、情報処理装置8の画像生成部83によって仮想空間画像を生成し、その仮想空間画像を仮想空間表示装置5に表示するように構成されているが、本発明は仮想空間において適用する場合に限らず、例えば、仮想空間画像を表示せずに、力覚提示装置2と情報処理装置8のみによって構成されてもよい。また、本発明の力覚提示システム1は、上記各装置を一体的に1つの装置として構成してもよい。
【0170】
また、本発明では、前記各実施形態の任意の2以上の構成(特徴)を適宜組み合わせてもよい。すなわち、本発明では、第5実施形態の力覚提示装置2のみならず、他の実施形態における力覚提示装置2(リアルグローブ20)を用いてコントラスト提示方法(コントラスト提示処理)を実施するように構成してもよい。
以上、本発明の力覚提示装置及び力覚提示システムの構成を、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。
【図面の簡単な説明】
【図1】本発明の力覚提示装置及びその力覚提示装置を有する力覚提示システムの第1実施形態の構成例を示す概念図である。
【図2】図1に示すリアルグローブの回路構成例を示すブロック図である。
【図3】図1に示すリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【図4】図1に示すリアルグローブの触覚発生部の構成例を示す縦断面図である。
【図5】図1に示すリアルグローブの力覚発生部の構成例を示す外観図である。
【図6】図1に示すリアルグローブの力覚発生部の構成例を示す外観図である。
【図7】図1に示すリアルグローブの位置姿勢検出部の構成例を示すブロック図である。
【図8】図1に示す仮想空間表示装置の外観構成例を示す斜視図である。
【図9】図1に示す仮想空間表示装置の回路構成例を示すブロック図である。
【図10】図1に示す仮想空間表示装置の凹凸入力部の構成例を示す図(ブロック図、模式図)である。
【図11】図1に示す仮想空間表示装置の画像表示部の構成例を示す図(ブロック図、模式図)である。
【図12】図1に示す仮想空間表示装置の視線検出部の構成例を示す図(ブロック図、模式図)である。
【図13】図1に示す情報処理装置の回路構成例を示すブロック図である。
【図14】第2実施形態における力覚提示装置の触覚発生部の構成例を示す縦断面図である。
【図15】第3実施形態における力覚提示装置のリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【図16】第4実施形態における力覚提示装置の位置姿勢検出部の構成例を示すブロック図である。
【図17】第4実施形態における力覚提示装置の位置姿勢検出部の構成例を示す外観図(一部図示を省略)である。
【図18】図17に示す位置姿勢検出部のZ方向検出センサの構成例を示す外観図である。
【図19】第5実施形態における力覚提示装置を概略的に示す斜視図である。
【図20】図19に示す力覚提示装置の1つの指に対応するアーム部の拡大図である。
【図21】図20に示すアーム部のジョイント部の断面図である。
【図22】図20に示すアーム部の指を挿入する力覚提示部の拡大図である。
【図23】本発明の一実施形態における図20に示す力覚提示部の断面図である。
【図24】本発明の力覚提示処理を示すフローチャートである。
【図25】本発明のコントラスト提示処理を示すフローチャートである。
【符号の説明】
1……力覚提示システム、2……力覚提示装置、2a……手袋、2b……フレームホルダ、2c……フレームカバー、2d……腕固定部、20……リアルグローブ、20a……筒状部、200……アーム部、201……モータ、201a……モータ軸、202……クラッチ、203……リンク、204……連結部、205……ジョイント部、206……力覚提示部、207……ワンウェイクラッチ、208……エンコーダ、209……ピン駆動による触覚提示部、21……触覚発生部、21a……開口、21d……腕固定部本体、210……単位触覚発生部、211……動力発生部、211a……モータ、212……アクチュエータワイヤ、212a……束、213……ワイヤ保持部、214……触覚提示ピン、214a……接触板、214b……支持部、215……触覚提示ピン支持部、216……触覚提示部、216a……第1の板片、216b……第2の板片、216c……接触部、217……ガイド部、218……押え板、22……力覚発生部、22d……エアー注入部、221……フレーム、222……リンクモータ、23……位置姿勢検出部、23d……蓋体、231……X方向検出コイル、232……Y方向検出コイル、233……Z方向検出コイル、24……制御部、25……信号処理部、251……増幅部、252……A/D変換部、26……信号送受信部、27……遊び吸収部、28……手首固定部、29……ねじれ吸収部、291……帯状部、292……開口、30……電力供給部、5……仮想空間表示装置、51a、51b……画像表示部、511……レンズ、512……レンズ移動機構、513……ステッピングモータ、514……モータ制御部、515……液晶表示パネル、516……液晶駆動部、517……バックライト、518……バックライト制御部、519……トランジスタ、52a、52b……視線検出部、521……ハーフミラー、522……フィルタ、523……レンズ、524……CCD、525……CCD制御部、526……CCD出力増幅部、527……LED、528……LED制御部、529……トランジスタ、53a、53b……凹凸入力部、531……レンズ、532……CCD、533……CCD制御部、534……CCD出力増幅部、54……制御部、55……信号送受信部、56……位置姿勢検出部、57……装着部、58……信号処理部、59……三次元加速度センサ、60……ケーシング、61……X方向検出センサ、62……Y方向検出センサ、63……Z方向検出センサ、64……エリンバー、65……振動用圧電素子、66……検出用圧電素子、67、68……ワイヤ、69……交流電源、8……情報処理装置、81……演算処理部、82……衝突判定部、83……画像生成部、84……制御部、85……記憶部、86……信号処理部、87……信号送受信部、88……磁界発生部、9……基地局
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a haptic device and a haptic system, and more particularly, to a haptic device and a haptic system used in a virtual space (virtual reality) system.
[0002]
[Prior art]
A conventional force sense presentation device uses an actuator such as a motor and a clutch (for example, see Patent Literature 1), a device that uses a fluid such as air or liquid (for example, see Patent Literature 2), or a wire. There are motors that use an electric motor that winds them up (for example, see Patent Document 3), and they express the interaction between an operator (user) and an object using elasticity and viscosity.
[0003]
Also in the conventional force sense presentation device described in the above-mentioned patent document, the user wears a glove or the like for attachment with a wire or the like attached to the hand, so that when bending the hand or finger, the force sense generation unit or The user feels a load due to the mass (inertia) of the force sense presentation unit or frictional resistance.
Therefore, in Patent Document 1, in order to avoid feeling such a load, a clutch is provided between the force sense presentation unit and the force sense generation unit, and the connection / connection of these clutches is performed by turning on / off the clutch. Disclosed is a force sense presentation unit that can switch between non-connections.
[0004]
[Patent Document 1]
JP-A-2000-246677
[Patent Document 2]
JP-A-2000-99240
[Patent Document 3]
JP-A-6-324622
[0005]
[Problems to be solved by the invention]
However, the conventional haptic device cannot completely remove a force (load) other than the acting force presented by the haptic device, and the user cannot use the haptic device presented by the conventional haptic device. There was a problem that the user could not feel enough and felt uncomfortable.
[0006]
In addition, when a clutch is used between the force sense presentation unit and the force sense generation unit as in Patent Literature 1, there is a high possibility that an impact is generated when the clutch and the force sense unit are connected to each other. There is a problem that the user has a sense of discomfort. In addition, it is conceivable that the connecting operation is performed slowly so as not to generate such an impact. However, in such a case, a time delay occurs, and the user has a sense of incongruity due to the time delay when the force sense is presented. There is also a problem.
An object of the present invention is to provide a force sense presentation device and a force sense presentation system that present a user with two strong and weak force (force sense) at the start of use of the force sense presentation device, thereby preventing the user from feeling uncomfortable as described above. Is to provide.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problems, in one embodiment of the present invention, a haptic device according to the present invention includes:
Force sense generating means for generating a force sense given to a user's finger according to a virtual space image, and force sense presenting means mounted on the finger and presenting a force sense generated by the force sense generating means to the finger When,
By pressing the finger by the force sense generated by the force sense generating means and holding the finger at a predetermined position, the acting force applied to the force sense presenting means from the finger at a predetermined time is measured. Measuring means to
Determining means for determining whether or not the acting force measured by the measuring means is equal to or greater than a first threshold;
If the determining means determines that the acting force is equal to or greater than a first threshold, the magnitude of the force sense generated by the force sense generating means is reduced to a second threshold value smaller than the first threshold value. Force change means for changing to
It is characterized by having.
[0008]
According to the force sense presentation device of the present invention, when the user is pressing the force sense generating means with a finger or a fingertip, the force sense generating means holds the position of the user's finger or fingertip at a predetermined position, The finger is pressed back, and the measuring unit measures the acting force (force sense) at a predetermined time (timing). When the determining unit determines that the measured value is equal to or greater than the first threshold value, the force sense changing unit determines , The force (force sense) of the second threshold smaller than the first threshold. Thereby, the force sense presentation device of the present invention gives a large and small force contrast to a site where force sense is presented, such as a fingertip of a user who uses the force sense presentation device.
Therefore, with the force sense presentation device of the present invention, the load such as the weight of the force sense presentation portion or the frictional resistance of each joint portion, which has given the user a sense of incongruity in the conventional force sense presentation device, is reduced by the ambiguity of the human sense. Can be used sensibly to remove it sensuously.
[0009]
Here, preferably, the predetermined time is when the user's finger interferes with an object in a virtual space in a state where the user first wears the force sense presentation device, but is not limited thereto. Instead, it is possible at any time when the haptic device of the present invention is used.
Preferably, the haptic presentation unit includes an arm unit including a plurality of links and a plurality of nodes connecting the links, a haptic presentation unit attached to the finger, and the arm unit. And a connection unit that connects the haptic presentation unit. In this case, the connecting portion may have a gimbal structure.
[0010]
Further, preferably, the force sensation generating means includes a plurality of actuators. Here, preferably, the actuator is a motor arranged in each of the plurality of nodes.
The measuring means is configured to measure the acting force from the output of each of the plurality of motors.
Preferably, the second threshold value is a value corresponding to 0 for the haptic force generated by the haptic generating means, but is not limited thereto, and presents an appropriate haptic contrast to the user. Any value that can be used may be used.
[0011]
Further, the force sense presentation device of the present invention, a movement regulating means for regulating the movement of the force sense presentation means in a predetermined one direction,
The apparatus may further include a clutch mechanism for switching operation / non-operation of the movement restricting unit.
Further, in addition to or instead of the above, the haptic device of the present invention may further include a position detecting unit that detects a position in a virtual space of the finger on which the haptic unit is mounted.
[0012]
Alternatively, the haptic device according to the present invention further includes a position detecting unit that detects a position in the virtual space of the finger on which the haptic unit is mounted,
The position detecting means may be configured to detect a rotation angle of each of the plurality of motors by a plurality of encoders connected to output shafts of the plurality of motors.
And the haptic device of the present invention may further include a communication unit for transmitting or receiving a signal, and in this case, preferably, the haptic generation unit is based on a signal received by the communication unit. It is configured to be driven.
[0013]
Alternatively, the haptic device of the present invention further includes communication means for transmitting or receiving a signal,
The force sense generating means may be driven based on a signal received by the communication means, and the position information of the finger in the virtual space detected by the position detecting means may be transmitted.
[0014]
Further, the force sense presentation device of the present invention, a movement regulating means for regulating the movement of the force sense presentation means in a predetermined one direction,
The apparatus may further include a clutch mechanism for switching operation / non-operation of the movement restricting unit.
The force sensation corresponds to the reaction force from the target in the virtual space image.
[0015]
Further, in order to solve the above problem, in another aspect of the present invention, a haptic device according to any one of the above,
An information processing apparatus including an image generation unit that generates a virtual space image;
A display device including display means for displaying a virtual space image generated by the image processing device;
It is characterized by having.
[0016]
Here, preferably, the information processing apparatus comprises:
Receiving means for receiving position information of the finger in the virtual space detected by the position detecting means,
Interference determining means for determining whether or not the finger is interfering with the object based on the position of the finger in the virtual space received by the receiving means and the position of the object in the virtual space set in advance; When,
When the determination unit determines that the finger and the object are interfering with each other, based on predetermined data of the object, a calculation unit that calculates an action force to be presented to the finger,
Determining means for determining whether or not the acting force calculated by the calculating means exceeds the predetermined threshold value;
Transmission means for transmitting the calculation result of the calculation means and the determination result of the determination means as a drive signal and an activation signal to the force sense presentation device,
Is provided.
In this case, the information processing apparatus may further include a storage unit that stores at least the position information of the object and the predetermined data.
[0017]
Further preferably, the image generation means updates and generates the virtual space image at predetermined time intervals based on position information of the finger in the virtual space detected by the position detection means.
In this case, the display unit may be configured to continuously display the virtual space image updated with the movement of the finger.
Further, the display device may be used by being worn on a face.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a haptic device and a haptic device according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings. This embodiment is given as an example, and the present invention should not be construed as being limited thereto.
FIG. 1 is a conceptual diagram showing a configuration example of a first embodiment of a haptic device according to the present invention and a haptic system including the haptic device. FIG. 2 is a real glove (force haptic device) shown in FIG. FIG. 3 is a block diagram illustrating a circuit configuration example of (device). FIG. 3 is an external view (partially omitted) of an external configuration example of the real glove shown in FIG.
[0019]
As shown in FIG. 1, the haptic sense presentation system 1 is attached to a hand (finger) of a user (user), and a tactile sensation (a sensation of touch, for example, texture, shape, A pair of real gloves (data gloves) 20 and 20 for giving a distribution of contact strength such as strength) and a sense of force (a sense of force applied when touched), and a virtual space for displaying a virtual space image (virtual space image) A display device (display device) 5; an information processing device 8 for performing various processes such as drive control of each real globe 20 and the virtual space display device 5; And a base station 9 for providing a service.
[0020]
The real globe 20, the virtual space display device 5, the information processing device 8, and the base station 9 are respectively wireless (for example, wireless LAN (Local Area Network), infrared data communication (IrDA: Infrared Data Association), Bluetooth, etc.). It has a wireless communication function (communication means) capable of transmitting and receiving signals (wireless communication) between the information processing device 8 and each real globe 20, the virtual space display device 5, and the base station 9. Thus, communication can be performed respectively.
[0021]
The force sense presentation system 1 generates a virtual space image created (generated) by the information processing device 8 based on information supplied from the base station 9, the virtual space display device 5 and each real globe 20. When the hand or the finger wearing the real glove 20 is moved and the hand or the finger virtually touches the object displayed in the virtual space, the state is displayed on the virtual space display device 5. At the same time, it performs various processes for giving a tactile sensation and a force sensation when it comes into contact with the hand or each finger wearing the real glove 20.
[0022]
The information processing device 8 includes various types of devices having a wireless communication function (communication means) and a control function, such as a mobile phone terminal, a personal computer having a wireless communication function, and a portable information device called a PDA (Personal Digital Assistants). It is composed of a device.
The base station 9 includes various devices that provide information on a virtual space image, such as various server computers connected to the Internet and a mobile phone base station that performs wireless communication with a mobile phone terminal.
[0023]
In the present embodiment, each real globe 20, the virtual space display device 5, the information processing device 8, and the base station 9 are configured to have a wireless communication function. For example, a configuration in which some or all of them perform wired communication It may be.
Further, the information processing device 8 may have some or all of the functions of the base station 9. In the later described haptic presentation process (force presentation method) of FIG. 24 and the contrast presentation process (contrast presentation method) of FIG. I do.
[0024]
Further, the real globe 20 may have some or all of the functions of the virtual space display device 5, the information processing device 8, and the base station 9.
Here, in the present embodiment, the force sense presentation device 2 is a pair of real gloves 20, 20, that is, a real glove 20 for the left hand worn on the left hand of the user and a real glove 20 for the right hand worn on the right hand of the user. It is composed of a real glove 20. In the following description, one real glove 20 will be described as a representative.
[0025]
In the present invention, the force sense presentation device 2 may be configured by one real glove 20.
In addition, in the present invention, the force sense presentation device 2 includes, in addition to the real globe 20, any one or two or all of the virtual space display device 5, the information processing device 8, and the base station 9. You may have. In this case, the haptic device 2 may have some or all of the functions thereof.
[0026]
As shown in FIG. 2, the real glove 20 has a contact strength (for example, texture, shape, strength, etc.) of a finger touching an object (object) appearing in a virtual space (on a virtual space image). And a haptic generator for generating a sense of the strength of the force applied to the hand or finger when touching an object appearing in the virtual space. (Force sense generating means) 22; a position / posture detecting unit 23 for detecting the position of each part of the real glove 20 (the position of each part such as a hand, a wrist, an arm, and a finger wearing the real glove 20); A control unit 24 that controls each unit, a signal processing unit 25 that performs signal processing such as amplification of a signal to be transmitted to the information processing device 8, and a signal transmitting and receiving unit that performs wireless communication with the information processing device 8 26.
[0027]
Further, as shown in FIG. 3, the entire shape of the real glove 20 has a substantially long glove shape (glove shape). In other words, the real glove 20 is a relatively long glove having a tubular portion 20a that covers the arm as a glove-like wearing means to be worn from the finger of the wearer (user) to the vicinity of the elbow of the arm (from the finger to the arm). 2a.
The user can easily and surely attach and detach the real glove 20 with the glove 2a.
[0028]
Further, since the glove 2a is worn from the hand to the arm of the user, the operation (operation) in the virtual space can be easily and reliably performed.
The glove 2a has a play absorbing portion 27 for suppressing or preventing play of a portion corresponding to a fingertip, a wrist fixing portion 28 for fixing the real glove 20 to a wrist, and an arm fixing portion for fixing the real glove 20 to an arm. 2d and a torsion absorbing portion 29 for absorbing the torsion of the portion corresponding to the arm are provided respectively.
[0029]
The play absorbing portion 27 is provided at a portion corresponding to the vicinity of the wrist of the glove 2a. The play absorbing portion 27 is formed of an elastic body such as various rubbers, for example.
When the user wears the real glove 20, the glove 2a is pulled in the elbow direction (base end side) by the restoring force (elastic force) of the play absorbing portion 27, and is held in that state. Thereby, it is possible to prevent or suppress the play at the fingertip. Further, even in the case where a plurality of users having different hand dimensions such as finger lengths and the like are used, the play absorbing unit 27 can prevent or suppress each user from playing at their fingertips. .
[0030]
The wrist fixing portion 28 is provided on the elbow side (proximal end side) of the play absorbing portion 27 of the glove 2a so as to be continuous with the play absorbing portion 27. The wrist fixing part 28 is formed of an elastic body such as various rubbers, for example.
When the user wears the real glove 20, the glove 2a is fixed to the wrist by the restoring force (elastic force) of the wrist fixing portion 28. Accordingly, it is possible to prevent the real glove 20 from shifting during use.
Further, the bundle 212a of the actuator wires 212 of the tactile sensation generating portion 21 described later is held at a predetermined position by the wrist fixing portion 28 and the play absorbing portion 27 so that each actuator wire 212 can move in its longitudinal direction. Is done.
[0031]
The arm fixing portion 2d is provided at an end on the elbow side (base end side) of the tubular portion 20a of the glove 2a. The arm fixing portion 2d is formed of an elastic body such as various rubbers, for example.
When the user wears the real glove 20, the glove 2a is fixed to the arm by the restoring force (elastic force) of the arm fixing portion 2d. Accordingly, it is possible to prevent the real glove 20 from shifting during use.
[0032]
The torsion absorbing portion 29 is provided in the middle of the tubular portion 20a of the glove 2a, that is, between the wrist fixing portion 28 and the arm fixing portion 2d.
The torsion absorbing portion 29 is composed of three band portions 291 obtained by forming three openings 292 in a part of the cylindrical portion 20a. Each of the belt-shaped portions 291 is formed of, for example, an elastic member such as a cloth made of an elastic material.
[0033]
When the user wears the real glove 20 and performs, for example, an operation of twisting the wrist, each belt-shaped portion 291 expands and contracts, thereby absorbing the twist of the cylindrical portion 20a.
As described above, the torsion of the real glove 20 can be prevented by the torsion absorbing portion 29, and therefore, the user can easily and smoothly move his / her hand or arm.
[0034]
In addition, the number of the band-shaped portions 291 of the torsion absorbing portion 29 may be two or less, or may be four or more.
Further, openings 21a are formed in portions of the glove 2a corresponding to the respective joints on the back side of the respective fingers.
These openings 21a allow the user to easily and smoothly move each joint of each finger.
[0035]
The real glove 20 has a portion corresponding to the arm of the glove 2a, which is located in the elbow direction from the torsion absorbing portion 29, that is, an elbow side (base end) of the tubular portion 20a of the glove 2a. The control unit 24, the power supply unit 30, the power generation unit 211, and the like are provided at the end of the (side).
By arranging the control unit 24, the power supply unit 30, and the power generation unit 211 as described above, the weight of the real glove 20 on the fingertip side (tip side) can be reduced (the inertia is reduced). Thereby, the user can easily perform the operation (operation).
[0036]
When the user wears the real glove 20, the main part of the tactile sensation unit 21 is located at a position covering the fingertip portion of the user's finger from the first joint (joint between the distal phalanx and the middle phalanx). Each is provided. Since the configuration and operation of each tactile sensation unit 21 are almost the same, only one of them will be described below representatively.
FIG. 4 is a vertical cross-sectional view illustrating a configuration example of the tactile sense generating section 21. In addition, in order to avoid complicating the drawing, some of the members are omitted from the drawing.
As shown in FIG. 4A, the tactile sensation unit 21 includes a power generation unit (moving unit) 211 having a motor (drive source) 211a and an actuator wire (flexibility) that is movably installed in the longitudinal direction. , A wire holding portion (biasing means) 213 that holds one end of the actuator wire 212, a tactile presentation pin (pressing portion) 214 that presses a finger pad to generate a tactile sense, and a tactile presentation. It has a plurality of unit tactile sensation generating units (actuators) 210 each of which includes a tactile presentation pin supporting unit (moving direction regulating means) 215 that supports the pin 214 and regulates the moving direction of the tactile presentation pin 214. Each unit tactile generator 210 is independent of each other.
The power generation unit 211, the actuator wire 212, and the tactile sense pin support unit 215 constitute a drive mechanism for driving the tactile sense pin 214.
[0037]
The power generation unit 211, for example, rotationally drives a motor 211a provided therein in response to a control signal from the control unit 24, and winds up the actuator wire 212 by rotating the motor 211a (the actuator wire 212 is replaced with the actuator wire 212). (The process of moving in the longitudinal direction). The control unit 24 controls the power generation unit 211 so that the rotation of the motor 211a is performed with a predetermined torque for a predetermined time according to an instruction from the information processing device 8. The power generation unit 211 performs a process of winding the actuator wire 212 by a predetermined length by applying rotational power to the motor 211a in accordance with an instruction from the information processing device 8.
[0038]
As shown in FIG. 4A, in this embodiment, the wire holding unit 213 holds one end (end) of the actuator wire 212 near the first joint of the finger. The wire holding portion 213 is made of an elastic member (elastic body) such as rubber or a spring.
Accordingly, the actuator wire 212 is wound up by the driving of the motor 211a of the power generation unit 211, and when the actuator wire 212 moves clockwise in FIG. 4A, the wire holding unit 213 is extended and the actuator wire 212 is extended. Due to the restoring force (elastic force) of the wire holding portion 213, the wire 212 moves in the counterclockwise direction in FIG. 4A (the direction opposite to the moving direction of the actuator wire 212 when the tactile sense pin 214 is projected). Be energized. Then, when the driving of the motor 211a of the power generation unit 211 is stopped and the winding state of the actuator wire 212 is released, the wire holding unit 213 contracts due to a restoring force (elastic force), thereby being wound. The actuator wire 212 pulled out is moved counterclockwise in FIG. 4A.
The power generation unit 211 is located on the other end (start end) side of the actuator wire 212.
[0039]
The tactile sense pin 214 is used to give a touch sensation (presence or absence of contact, strength, and the like) to the user's finger pad, and includes a minute contact plate (contact portion) 214a that is a part that contacts the finger pad and a contact plate. And a supporting portion 214b for supporting the supporting portion 214a. One end of the support portion 214b is fixed in the middle of the actuator wire 212, and a contact plate 214a is provided at the other end.
[0040]
In this embodiment, as shown in FIG. 4 (A), the glove 2a of the real glove 20 has a double structure in which a mounting portion for mounting (covering) a fingertip has a double structure (for example, two members such as cloths are stacked on each other). A structure in which any member can be housed between the combined two members), and a part of the actuator wire 212 and a wire inside the portion covering the fingertip (inside the double structure) A holding unit 213 and a support unit 214b, and a tactile presentation pin support unit 215 that regulates movement of the tactile presentation pin 214 in the movement direction of the actuator wire 212 are provided. One end of the support portion 214b protrudes into the glove 2a in which the finger is stored, and the contact plate 214a is located.
In this embodiment, the contact plate 214a is always in contact with the fingertip of the hand wearing the real glove 20. The present invention is not limited to this, and the contact plate 214a may be configured to be separated from the fingertip (a state in which the contact plate 214a is not in contact with the fingertip).
[0041]
In FIG. 4A, for simplicity of explanation, one unit tactile sense generating section 210 (one tactile sense presentation pin 214) is shown as a representative, but as described above, actually, tactile sense generating section 210 is actually provided. The unit 21 has a plurality of unit tactile sense generation units 210, and the plurality of tactile sense presentation pins 214 are located at positions corresponding to the finger pad of the fingertip of the user when the user wears the real glove 20, for example, They are arranged along the finger pad and in a matrix (matrix) with respect to the finger pad.
[0042]
Before and after each tactile presentation pin 214, there is provided a tactile presentation pin support portion 215 for restricting movement of the support portion 214b of the tactile presentation pin 214 in the moving direction of the actuator wire 212.
The tactile sense pins 214 may be arranged regularly or irregularly.
[0043]
Next, a tactile sense generating operation by the tactile sense generating section 21 will be described.
When the user wears the real glove 20 and moves his / her hand or finger, the fingertip (finger pad) virtually touches an object (virtual object) appearing in the virtual space, that is, the target object. Calculates the pressing force in the case where there is an actual contact based on the physical property data and physical characteristics of the target object by the arithmetic processing unit 81 described later, and based on the calculation result, the PWM of the power generation unit 211 is calculated. The data is converted into data (for example, data indicating an excitation pattern for rotating the motor 211a).
[0044]
In this case, in the virtual space (three-dimensional space), an X axis, a Y axis, and a Z axis orthogonal to each other, that is, XYZ coordinates (three-dimensional coordinates) are assumed in advance, and the coordinates of the object (three-dimensional coordinates) are assumed. Position information) and the coordinates (position information) of the user's fingertip are detected. When the coincidence is detected, a part corresponding to the coordinates of the object and a part corresponding to the coordinates of the user's fingertip are determined. Is determined to have touched. The coordinates of the user's fingertip are derived based on a signal (information) transmitted from the position and orientation detection unit 23 described later to the information processing device 8 via the signal transmission / reception unit 26.
[0045]
Next, the information processing apparatus 8 determines the derived PWM data and data for specifying (designating) the power generation unit 211 that operates the contact plate 214a that applies a pressing force to the contact position in the case where the contact is actually made. Is transmitted to the real glove 20. The real glove 20 drives the designated power generation unit 211 according to the received PWM data, and winds up the actuator wire 212.
When the actuator wire 212 is wound, the actuator wire 212 arranged on the finger pad moves toward the tip of the finger along the finger pad, and is attached to the actuator wire 212 as shown in FIG. The fixed tactile sense presentation pin 214 also moves along the finger pad toward the tip of the finger.
[0046]
At this time, as shown in FIG. 4C, the tactile presentation pin 214 restricts the movement of the finger in the tip direction by the tactile presentation pin support 215, and is guided by the tactile presentation pin support 215. 4C moves upward in the middle (projects toward the finger pad). That is, the contact plate 214a of the tactile sense pin 214 moves substantially vertically upward with respect to the surface of the finger pad. In a standby state (in an initial state), the support portion 214b of the tactile sense pin 214 is inclined from the vertical direction toward the tip of the finger as shown in FIG. 4B, and the contact plate 214a is almost vertically upward. When a force to move is applied, the contact plate 214a presses the finger pad in a substantially vertical direction, thereby applying a pressing force to the finger pad of the user's hand.
This operation is performed by the designated unit tactile generator 210 among the plurality of unit tactile generators 210, whereby the tactile sensation is presented (given) to the finger pad of the user's hand. Therefore, the user can obtain a feeling corresponding to the contact of the finger pad with the object (object) in the virtual space image at the finger pad.
[0047]
When the drive of the motor 211a of the power generation unit 211 is stopped in the designated unit tactile generation unit 210 and the winding state of the actuator wire 212 is released, the wire holding unit 213 contracts due to a restoring force (elastic force). Thus, the wound actuator wire 212 is pulled out.
[0048]
When the actuator wire 212 is pulled out, the actuator wire 212 disposed on the finger pad moves along the finger pad toward the base end of the finger (to the right in FIG. 4C), and is fixed to the actuator wire 212. The tactile presentation pin 214 also moves toward the base end of the finger along the finger pad, and the tactile presentation pin 214 returns to the initial state shown in FIG. As a result, the pressing force applied to the finger pad of the user from the tactile sense presentation pin 214 substantially disappears.
[0049]
According to such a tactile sensation generating unit 21, the actuator wire 212 is arranged substantially parallel to (along the finger pad), and the actuator wire 212 is wound up to thereby be substantially perpendicular to the finger pad. Since the force is applied, the mechanism for giving the tactile sensation can be made thinner, whereby the thickness of the real glove 20 on the finger pad side can be suppressed as much as possible.
Further, the slack of the actuator wire 212 can be prevented, and a target large pressing force can be more accurately and reliably applied from the tactile sense presentation pin 214 to the user's finger pad.
[0050]
FIGS. 5 and 6 are external views each showing a configuration example of the force sensation generating unit 22. FIG. 5 shows a state in which the frame cover has been removed.
As shown in FIG. 5, the force sense generator 22 is provided on the back side of each finger of the user when the real glove 20 is worn. The configuration and operation of the force sensation generating section 22 are almost the same, and one of them will be described below as a representative.
The force sensation generating unit 22 includes a link mechanism including a plurality of (six in the present embodiment) frames 221 that are rotatably connected, and a plurality (seven in the present embodiment) of rotating each frame 221. It has a link motor (drive source) 222 and a plurality (four in the present embodiment) of frame holders 2b provided on the glove 2a.
[0051]
When the user wears the real glove 20, the frame holder 2 b includes a mounting portion positioned on the distal end side of the first joint of the user's finger, a first joint and a second joint (the middle joint and the proximal phalanx). Between the second joint and the third joint, and the third joint (the joint between the base phalanx and the metacarpal). And a mounting portion located on the end side.
[0052]
The link mechanism is attached to the back of the user's finger when the real glove 20 is worn on the glove 2a by the frame holder 2b.
That is, when the user wears the real glove 20, the frame 221 at the distal end (right side in FIG. 5) of the link mechanism is positioned at a position distal to the first joint of the user's finger. The tip of the frame 221 is rotatably mounted with respect to the frame holder 2b.
[0053]
The frame 221 at the proximal end (the left side in FIG. 5) of the link mechanism has an end portion at a position proximal to the third joint of the user's finger when the user wears the real glove 20. Is located so that the base end of the frame 221 is rotatably mounted with respect to the frame holder 2b.
Further, when the user wears the real glove 20, the remaining frames 221 of the link mechanism are connected to a portion between the first joint and the second joint of the user's finger and the second joint and the third joint. The frame connecting portions are disposed so as to be located at every other position between the portions, and the alternate frame connecting portions are rotatably installed with respect to the frame holder 2b.
[0054]
The driving force (rotational force) of each link motor 222 is transmitted to the corresponding frame 221 via a power transmission unit (not shown). That is, when the link motor 222 is rotationally driven in a predetermined direction, the corresponding frame 221 is rotated in a predetermined direction, whereby the angle of the frame 221 is changed (adjusted).
FIG. 5 shows the bundle 212a of the actuator wires 212 described above.
[0055]
As shown in FIG. 6, each frame 221 and each link motor 222 of the force sensation generating unit 22 are housed in a frame cover 2c made of, for example, cloth.
As shown in FIG. 6, inside the frame cover 2c, a plurality of (four in the present embodiment) position / posture detecting units (position detecting means) for detecting the positions and postures of predetermined parts of hands and fingers are provided. 23 are installed. Each position / posture detection unit 23 holds a fixed positional relationship with respect to the detection position in the vicinity of the position (detection position) for detecting the position and posture, that is, in the region corresponding to the vicinity of the finger joint. It is provided to obtain.
[0056]
That is, in the present embodiment, each position / posture detection unit 23 is attached and fixed to each link motor 222 fixed at the position where the frame holder 2b is provided. Therefore, the positional relationship between the part where each position and orientation detection unit 23 is provided and the predetermined part (detection position) on the palm side of the user is kept constant. Therefore, the position and orientation detection unit 23 detects the position and orientation of the user, whereby the position and orientation of the predetermined part on the palm side of the user can be easily and accurately derived.
Further, since each position and orientation detection unit 23 is disposed on the back of the hand, the thickness of the real glove 20 on the finger pad side can be minimized.
[0057]
As shown in FIG. 3, the position / posture detection unit 23 is also installed at a position corresponding to the base end portion of the arm of the real glove 20 when the user wears the real glove 20.
The position and orientation detection unit 23 can reliably grasp the position and orientation of each unit such as a finger, a hand, a wrist, an arm, etc., wearing the real glove 20.
[0058]
Although not shown, an encoder is connected to each link motor 222 disposed in the link mechanism of each finger, and an encoder is connected between the link motor 222 and the power transmission unit. May include a one-way clutch and a clutch mechanism for controlling the operation / non-operation of the one-way clutch.
In this case, since the rotation angle of the link motor 222 matches the rotation angle of the joint (node), the angle of each joint of the link mechanism can be detected, and based on the joint rotation angle of each link motor 222, the back of the hand can be detected. Can be specified relative to the finger position.
[0059]
Next, a force generation operation performed by the force generation unit 22 will be described.
When the user wears the real glove 20 and moves his / her finger or finger, the hand or finger virtually touches an object (virtual object) appearing in the virtual space, that is, an object, the information processing device 8 A calculation processing unit 81, which will be described later, calculates a reaction force from the object to a finger (each finger joint) when there is actual contact based on the physical property data and physical characteristics of the target object, and calculates the calculation. Based on the result, the data is converted into PWM data of each link motor 222 (for example, data indicating an excitation pattern for rotating the link motor 222).
Here, the determination of the contact between the object and the user's hand or finger is the same as in the case of the tactile sensation generating unit 21.
[0060]
The information processing device 8 transmits the derived PWM data and the data indicating the link motors 222 to be driven to the real globe 20. The real globe 20 drives each of the designated link motors 222 in a predetermined direction in accordance with the received data, rotates each of the corresponding frames 221 in a predetermined direction, and adjusts the angle of each of the frames 221. The angles of the frames 221 at both ends of the link mechanism and the angles of the respective frame connecting portions are adjusted.
[0061]
Due to the angle adjustment of the frame 221, a predetermined magnitude of force is applied to the predetermined frame holder 2b, whereby a force corresponding to a reaction force from an object appearing in the virtual space is applied to each of the user's fingers. Given to joints. That is, a force sense is presented (given) to each joint of the finger.
Here, the force sensation generating section 22 has a function of adjusting an interval between a plurality of mounting sections to be mounted on a plurality of parts of a finger (also serving as an adjusting unit).
[0062]
For example, as shown in FIG. 5, by rotating a predetermined frame 221 and adjusting the angle of the frame 221, the interval between the frame holders 2b can be lengthened or shortened.
When the one-way clutch and the clutch mechanism are attached and the reaction force calculated by the information processing device 8 is larger than a predetermined threshold, the coil of the clutch mechanism is energized, and the one-way clutch moves in the predetermined direction. The clutch mechanism is turned on to lock the rotation. Thus, the user cannot move his or her finger in a locked direction from that position, and can obtain a large reaction force (here, the force itself when the user presses the object). . That is, the one-way clutch and the clutch mechanism allow the force sensation generating section 22 to express a large reaction force.
[0063]
FIG. 7 is a block diagram illustrating a configuration example of the position and orientation detection unit 23. In the present embodiment, a position sensor (position detecting means) of a quadrature coil type (quadrature coil type) is used for the position / posture detection unit 23. That is, as shown in FIG. 7, the position and orientation detection unit 23 includes an X-direction detection coil (first coil) 231 whose center axes are orthogonal to each other, a Y-direction detection coil (second coil) 232, and a Z-direction detection coil. And a detection coil (third coil) 233. The X direction (X axis direction), the Y direction (Y axis direction), and the Z direction (Z axis direction) are orthogonal to each other.
On the other hand, the information processing device 8 is provided with a magnetic field generation unit 88 described below that generates a magnetic field. The magnetic field generating unit 88 has, for example, a configuration substantially the same as that of the position and orientation detecting unit 23, that is, a quadrature coil type (quadrature coil type) magnetic field generator (X-direction coil, Y-direction coil, Z-direction coil) Is used.
[0064]
The magnetic field generated by the magnetic field generator 88 is detected by the position and orientation detector 23. In this case, a magnetic field is sequentially generated from the X-direction coil, the Y-direction coil, and the Z-direction coil of the magnetic field generation unit 88, and the X-direction detection coil 231, the Y-direction detection coil 232, and the Z-direction coil of the position / posture detection unit 23 are respectively generated. Detection is performed by three coils of the direction detection coil 233.
Each signal (detection data) detected in each of the X, Y, and Z directions by the position and orientation detection unit 23 is amplified by the amplification unit 251 of the signal processing unit 25, and is converted into a digital signal by the A / D conversion unit 252. The signal is output to the signal transmission / reception unit 26 shown in FIG. 2 and transmitted to the information processing device 8 via the signal transmission / reception unit 26.
[0065]
The information processing device 8 receives the signal transmitted from the real glove 20, and based on the signal (information), the position and posture of each part such as a finger, a hand, a wrist, an arm or the like wearing the real glove 20, that is, , And derives the coordinates of each section, and uses the information in each predetermined process.
As described above, by providing the position / posture detection unit 23, the position and posture of each part such as a finger, a hand, a wrist, and an arm wearing the real glove 20 can be accurately and reliably obtained.
[0066]
As the virtual space display device 5, in this embodiment, a device which is worn on the face and used, that is, a spectacle-shaped device called an HMD (Head Mount Display) is used. FIG. 8 is a perspective view illustrating an example of an external configuration of the virtual space display device 5, and FIG. 9 is a block diagram illustrating an example of a circuit configuration of the virtual space display device 5.
The virtual space display device 5 captures images of the surroundings, and image display units 51a and 51b that display a virtual space image to the wearer (user), visual line detection units 52a and 52b that detect the visual line of the wearer, and the like. Unevenness input units 53a and 53b for capturing surrounding images (video), a control unit 54 for controlling the entire apparatus, a signal transmitting and receiving unit 55 for transmitting and receiving signals to and from the information processing apparatus 8, a position and orientation detection unit 56, And a signal processing unit 58. Hereinafter, only the symmetrical components will be described as representatives.
[0067]
FIG. 10 is a diagram (block diagram, schematic diagram) illustrating a configuration example of the unevenness input unit 53a of the virtual space display device 5. As shown in FIG. 10, the unevenness input unit 53a includes a lens 531, a CCD (image pickup device) 532, a CCD control unit 533, and a CCD output amplification unit 534.
The light (light flux) incident on the lens 531 is guided by the lens 531 onto the light receiving surface (imaging surface) of the CCD 532 to form an image. The subject image (surrounding image) is captured by the CCD 532. The driving of the CCD 532 is controlled by the CCD control unit 533.
[0068]
The signal output from the CCD 532 is amplified by the CCD output amplifying unit 534, and then output from the concave / convex input unit 53a and input to the signal processing unit 58 shown in FIG. Then, predetermined signal processing is performed in the signal processing unit 58 and transmitted to the information processing device 8 via the signal transmission / reception unit 55.
Note that the configuration and operation of the concave / convex input unit 53b are the same as those of the concave / convex input unit 53a, and a description thereof will not be repeated. The image is taken.
[0069]
FIG. 11 is a diagram (block diagram, schematic diagram) illustrating a configuration example of the image display unit 51 a of the virtual space display device 5. As shown in FIG. 11, the image display unit 51a includes a lens 511, a lens moving mechanism 512 for moving the lens 511, a stepping motor 513, a motor control unit 514, and a liquid crystal display panel including a color filter (not shown). 515, a liquid crystal driver 516, a backlight 517, a backlight controller 518, and a transistor 519.
[0070]
When a virtual space image is displayed on the image display unit 51a, the transistor 519 is turned on, the backlight 517 is driven by the control of the backlight control unit 518, and light is emitted from the backlight 517 to the liquid crystal display panel 515. .
Then, the liquid crystal driving unit 516 controls the driving of the liquid crystal display panel 515 based on the display signal (image data) input from the control unit 54, whereby a virtual space image is displayed on the liquid crystal display panel 515. .
[0071]
The wearer (user) can visually recognize the virtual space image displayed on the liquid crystal display panel 515 via the lens 511 and the half mirror 521 of the visual line detection unit 52a described later.
The driving of the stepping motor 513 is controlled by a motor control unit 514. When the stepping motor 513 rotates in a predetermined direction, the lens moving mechanism 512 causes the lens 511 to approach the liquid crystal display panel 515, that is, the direction of the wearer. Move away from your eyes.
On the other hand, when the stepping motor 513 rotates in a direction opposite to the above, the lens 511 is moved by the lens moving mechanism 512 in a direction away from the liquid crystal display panel 515, that is, in a direction closer to the eyes of the wearer.
[0072]
In the virtual space display device 5, by changing the position of the lens 511, the perspective of the virtual space image can be changed.
The adjustment of the position of the lens 511, that is, the adjustment of the perspective of the virtual space image is performed based on the information on the line of sight of the wearer detected by the line-of-sight detection units 52a and 52b described later.
Note that the configuration and operation of the image display unit 51b are the same as those of the image display unit 51a, and a description thereof will be omitted.
[0073]
The line-of-sight detection units 52a and 52b detect the direction of the line of sight of the wearer (where the virtual space image is to be focused) and the iris of the eye of the wearer for use as security information. And a function of reading a pattern.
FIG. 12 is a diagram (block diagram, schematic diagram) illustrating a configuration example of the visual line detection unit 52a of the virtual space display device 5. As shown in FIG. 12, the line-of-sight detection unit 52a includes a half mirror 521, a filter 522 for removing visible light and transmitting infrared light, a lens 523, a CCD (imaging device) 524, and a CCD control unit. 525, a CCD output amplifier 526, an LED (light emitting diode) 527 that emits infrared light, an LED controller 528, and a transistor 529.
[0074]
The driving of the LED 527 is controlled by the LED control unit 528. When the transistor 529 is turned on under the control of the LED control unit 528, the LED 527 is driven and the LED 527 emits infrared light.
The infrared light emitted from the LED 527 is transmitted through the filter 522, partially reflected by the half mirror 521, and irradiated to the wearer's eyes.
[0075]
Then, part of the reflected light (light flux) from the eyes of the wearer is reflected by the half mirror 521, passes through the filter 522, and is guided by the lens 523 onto the light receiving surface (imaging surface) of the CCD 524. An image of the subject is formed, and the subject image (the image of the eye of the wearer) is captured by the CCD 524. The driving of the CCD 524 is controlled by the CCD control unit 525.
[0076]
The signal output from the CCD 524 is amplified by the CCD output amplifying unit 526, and then output from the visual line detection unit 52a and input to the signal processing unit 58 shown in FIG. Then, predetermined signal processing is performed in the signal processing unit 58 and transmitted to the information processing device 8 via the signal transmission / reception unit 55.
The information processing device 8 receives a signal from the virtual space display device 5 and, based on the signal (information), determines the direction of the line of sight of the wearer (where the virtual space image is to be focused). Is detected, and the iris pattern of the wearer's eye is read, analyzed, and used as security information.
On the other hand, visible light incident on the filter 522 from the lens 523 side is removed by the filter 522, and the visible light can be prevented from being irradiated to the eyes of the wearer. This can prevent the visibility of the virtual space image displayed on the liquid crystal display panel 515 from being reduced.
[0077]
The configuration and operation of the line-of-sight detection unit 52b are the same as those of the line-of-sight detection unit 52a, and a description thereof will be omitted.
The virtual space display device 5 captures and captures surrounding images by two image capturing devices, that is, the unevenness input units 53a and 53b, and captures images of the information processing device 8 via the signal transmitting and receiving unit 55. The transmitted image data (video data) is transmitted.
[0078]
The information processing device 8 derives a viewing angle difference from images captured by the unevenness input units 53a and 53b, that is, captured image data, and based on surrounding unevenness obtained from the viewing angle difference or the like, a virtual space image, Create image data of a virtual space. Then, the information processing device 8 arranges the created image (video) of the virtual space and a predetermined virtual object such as a virtual wallpaper, a virtual personal computer, and a virtual book in the virtual space according to the unevenness of the surroundings. Image data (video data) indicating a composite image (composite video) obtained by combining the image and the image is transmitted to the virtual space display device 5.
[0079]
The virtual space display device 5 displays the image based on the image data from the information processing device 8 using the image display units 51a and 51b.
In addition, when the virtual glove display device 5 is mounted on the real glove 20, that is, the user's hand or arm is within the area of the image displayed by the image display units 51a and 51b, Images corresponding to the arms and arms are also displayed on the image display units 51a and 51b.
[0080]
In this case, as described above, the detection data of the plurality of position / posture detection units 23 provided on the real glove 20 are transmitted to the information processing device 8, so that the position and posture of the real glove 20, that is, the user's The position and posture of each finger, hand, wrist, arm, and the like are recognized by the information processing device 8. That is, the information processing device 8 specifies the positions and postures of the user's fingers, hands, wrists, arms, and the like based on the detection data from the real gloves 20 each time, and these are specified by the image display units 51a and 51b. If they are within the area of the displayed image, a virtual space image showing them is created, the image is synthesized with the base image, and a synthesized image (image data of the synthesized image) is obtained. The image data is transmitted to the virtual space display device 5.
[0081]
Therefore, when the user's hand or arm is within the area of the image displayed by the image display units 51a and 51b, the image corresponding to the hand or arm is displayed on the image display units 51a and 51b. You.
Then, in the virtual space display device 5, the user's hand or finger is displayed in the virtual space images displayed on the image display units 51 a and 51 b in conjunction with the actual movement of the user's hand or finger wearing the real glove 20. Is depicted as moving.
[0082]
The position and orientation detection unit 56 is a sensor for detecting the position and orientation of the virtual space display device 5, that is, the position and orientation of the face (head) of the wearer. In this embodiment, a position sensor of a quadrature coil type, that is, the same as the position / posture detection unit 23 is used as the position / posture detection unit 56 in the present embodiment.
A signal (detection data) from the position and orientation detection unit 56 is input to the signal processing unit 58, subjected to predetermined signal processing, and transmitted to the information processing device 8 via the signal transmission and reception unit 55 one by one. The information processing device 8 updates the virtual space image one by one based on the detected data.
Therefore, for example, when the user wearing the virtual space display device 5 moves his / her neck, the virtual space images displayed on the image display units 51a and 51b are images that match the direction in which the user is facing. Change.
[0083]
The three-dimensional acceleration sensor 59 detects accelerations of the virtual space display device 5 in three substantially orthogonal directions. The three-dimensional acceleration sensor 59 may be a piezoelectric type, a servo type, a strain gauge type, or the like as long as it can be built in the HMD and has a certain degree of accuracy. However, in the present invention, a more accurate acceleration sensor such as a semiconductor acceleration sensor using CMOS is suitable.
The signal (acceleration data) detected by the three-dimensional acceleration sensor 59 is output to the signal processing unit 58, subjected to predetermined signal processing such as amplification, and transmitted to the information processing device 8 via the signal transmitting / receiving unit 55. Is done.
[0084]
FIG. 13 is a block diagram illustrating a circuit configuration example of the information processing device 8 illustrated in FIG. In FIG. 13, the information processing device 8 includes an arithmetic processing unit (arithmetic unit) 81, a collision determining unit (collision determining unit) 82, an image generating unit (image generating unit) 83, and a control unit (control unit) 84. , A storage unit (storage unit) 85, a signal processing unit 86, a signal transmission / reception unit (communication unit) 87, and a magnetic field generation unit 88.
[0085]
When the finger or hand of the real glove 20 contacts the target in the virtual space (determined by the collision determination unit 82 described later), the arithmetic processing unit 81 is stored in the storage unit 85 described below. Based on the physical property data and the state quantities, determine what the object is, calculate the reaction force from the object to the finger (each finger joint), and calculate the reaction force from the calculation result. The data is converted into PWM data of each link motor 222 of the real globe 20, and the converted data is transmitted to the real globe 20 via the signal processing unit 86 and the signal transmitting / receiving unit 87.
[0086]
When a one-way clutch and a clutch mechanism are applied to the real glove 20, the arithmetic processing unit 81 determines whether the calculated reaction force is greater than a predetermined threshold (determination means) (determination means). Based on the result, it is determined whether to transmit an operation signal to the clutch mechanism or to transmit a PWM data signal to each link motor 222.
[0087]
The collision determination unit 82 determines whether each finger of the real glove 20 has collided with a virtual object in the virtual space. The determination result determined by the collision determination unit 82 is output to the control unit 84.
The image generating unit 83 captures a virtual space image previously received from the base station 9 or a virtual space converted from the captured image by the unevenness input units 53a and 53b of the virtual space display device 5 in accordance with an instruction from the control unit 84. A video such as a user's arm or finger is superimposed on the image to generate a synthesized virtual space image, and the data of the virtual space image is output to the signal processing unit 86. In addition, the image generation unit 83 updates and generates a virtual space image at predetermined time intervals in accordance with the movement of the real globe 20 or the virtual space display device 5 displayed in the virtual space, and generates it by the signal processing unit 86. Output to
[0088]
The control unit 84 includes a CPU (not shown) or the like, and causes the arithmetic processing unit 81 to calculate the above-described reaction force based on the determination result of the collision determination unit 82. Further, the control unit 84 controls the operations of the above-described arithmetic processing unit 81, the collision determination unit 82, and the image generation unit 83, and stores the calculation result, the collision determination result, the generated image data, and the like in the storage unit 85 in a predetermined manner. The data is stored in the storage area, and the data is transmitted to the corresponding device via the signal processing unit 86 and the signal transmitting / receiving unit 87.
[0089]
The storage unit 85 has a computer-readable storage medium (not shown) in which programs, data, and the like are stored in advance. The storage medium is, for example, a random access memory (RAM). A magnetic or optical recording medium such as FD (Floppy Disk (Floppy is a registered trademark)), HD (Hard Disk), CD-ROM (Compact Disc Read-Only Memory), or a semiconductor. It consists of memory. The storage medium is fixedly provided in the storage unit 85 or is detachably mounted. The storage medium includes the virtual space display device 5, the information processing device 8, and the haptic device 2 , A display image change processing program, a display image synthesis processing program, data processed by each processing program, document data, and the like.
[0090]
Also, some or all of the programs, data, and the like stored in the storage medium are transmitted from other devices such as a server or a client (the base station 9 in the present embodiment) to a network line (for example, the Internet or a telephone line). , Etc., may be received from the signal transmission / reception unit 87 via a transmission medium, such as a storage medium, and the storage medium may be a storage medium of a server of the base station 9 built on a network. Further, the program may be transmitted from a server or a client via a transmission medium such as a network line and installed in the information processing device 8. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system.
The signal processing unit 86 performs signal processing such as amplification of image data and control signals transmitted to the virtual space display device 5 and the haptic device 2. The signal transmission / reception unit 87 performs control for communicating various signals and data processed by the signal processing unit 86 with external devices such as the virtual space display device 5 and the force sense presentation device 2.
[0091]
Although not shown in detail, the magnetic field generation unit 88 is, for example, a quadrature coil type (quadrature coil type) magnetic field generator (X-direction coil, Y-direction coil, Z-direction) corresponding to the position and orientation detection unit 23 in FIG. Coil). The magnetic field generation unit 88 generates a magnetic field in the order of the X, Y, and Z direction coils in accordance with an instruction from the control unit 84, and detects the detection coils 231, 232, and 233 in each direction of the position and orientation detection unit 23 of the real glove 20. At the same time, and the position and orientation detection unit 56 of the virtual space display device 5 also detects the magnetic field.
[0092]
The magnetic field generating unit 88 may be stored in the information processing device 8 as illustrated, but may be configured separately from the information processing device 8 as a magnetic field generating device. In particular, when a mobile phone or a PDA is used as the information processing device 8, since a magnetic field generating unit cannot be provided inside the mobile phone or the PDA, it is useful to use another configuration. Even if a magnetic field generator (or a magnetic field generator) is separately provided, the control can be performed by a control signal from the information processing device 8.
[0093]
Next, an operation (action) of the haptic system 1 according to the first embodiment will be described. Here, a case where the user operates the virtual personal computer appearing in the virtual space using the force sense presentation system 1 will be described as an example.
The user turns on the power of each part, wears the real glove 20 on both hands, and wears the glasses-like virtual space display device 5 (wears on the face). Then, a virtual space image including the virtual personal computer is displayed on the image display units 51a and 51b of the virtual space display device 5.
[0094]
Further, if the user's arm is set in the virtual space image displayed on the image display units 51a and 51b, the image of the hand or the arm created by the image generation unit 83 of the information processing device 8 is displayed in the virtual space. It is displayed on the image as a virtual object. Then, when the user moves the hand or finger, the displayed hand or finger moves in the virtual space image in conjunction with the actual movement of the hand or finger.
[0095]
In the information processing device 8, the collision determination unit 82 determines that the object in the virtual space image, that is, in this embodiment, for example, a part of a virtual personal computer (for example, a keyboard) and a part of a user's finger have the same coordinates. When it is detected that the tactile sensation and the force sensation are generated, the real glove 20 is instructed based on the calculation result of the calculation processing unit 81. Specifically, the information processing device 8 includes a power generation unit 211 to be driven, PWM data used for driving the power generation unit 211, a link motor 222 to be driven, and a drive motor for driving the power generation unit 211, obtained from the calculation result of the reaction force calculated by the calculation processing unit 81. Is transmitted to the real glove 20 via the signal transmission / reception unit 87.
[0096]
The real glove 20 drives each of the specified power generating units 211 by PWM control according to an instruction from the information processing device 8 for a specified time with a specified torque. As a result, the contact plate 214a of each tactile presentation pin 214 disposed at the portion having the same coordinates as a part of the virtual personal computer projects, and the fingertip of the user having the same coordinates as the part of the virtual personal computer is protruded. Tactile sensation is given. That is, a touch sensation, texture, shape, strength, and the like are given to each fingertip.
[0097]
At the same time, the real globe 20 drives each of the specified link motors 222 by PWM control according to an instruction from the information processing device 8 for a specified time with a specified torque. Accordingly, when a user touches, for example, a keyboard of a real personal computer, a force sense applied to each joint of each finger, that is, a force corresponding to a pressing force (reaction force) applied to each joint of each finger is generated by the user. Is given to each joint of each finger.
When the user further moves the finger in the direction in which the key of the virtual personal computer is pressed, a virtual space image showing how the key is pressed is displayed on the image display units 51a and 51b in accordance with the change in the coordinates of the finger.
[0098]
In this case, the information processing device 8 generates image data of the virtual space image for reproducing the change in the display state based on the pressed key in the virtual space image in the image generation unit 83, and outputs the image data via the signal transmission / reception unit 87. The virtual space display device 5 performs a process of transmitting it to the virtual space display device 5. The virtual space display device 5 reflects the key press on the display of the virtual personal computer based on the image data of the virtual space image received from the information processing device 8. The displayed image is displayed.
As described above, according to the haptic device 2 and the haptic system 1, the mounting and dismounting of the real glove 20 can be performed easily and reliably, and a predetermined portion of the user's hand and each finger is provided. Can be accurately and reliably obtained in the virtual space.
[0099]
Further, according to the haptic device 2 and the haptic system 1, the haptic and tactile sensations can be accurately and reliably presented to the respective fingers of the user according to the virtual space image.
Accordingly, the user can comfortably, easily, and reliably perform an operation (operation) in the virtual space.
[0100]
Further, in the tactile sense generating section 21, the slack of the actuator wire 212 can be prevented, and the target large pressing force can be more accurately and reliably applied from each tactile sense presentation pin 214 to each finger pad of the user. it can.
This allows the user to more accurately and reliably sense the sensation corresponding to the contact of each finger pad with the object (object) in the virtual space image.
[0101]
Further, in the tactile sensation generating section 21, an actuator wire 212 is disposed substantially parallel to (along the finger pad) with respect to each finger pad, and by winding up the actuator wire 212, a force substantially perpendicular to each finger pad is applied. Therefore, the mechanism for giving the tactile sensation can be made thinner, whereby the thickness of the real glove 20 on the finger pad side can be suppressed as much as possible.
[0102]
In addition, since the force sensation generating unit 22 has a link mechanism, it can cope with both a state in which the finger is extended and a state in which the finger is bent. A sense of force can be given to it.
Also, since the real glove 20 has the glove 2a, the real glove 20 can be easily and reliably attached and detached, and the operation (operation) in the virtual space can be easily and reliably performed. Can be.
[0103]
In the above-described embodiment, a case has been described in which a personal computer displayed in a virtual space image is virtually operated as a usage example. However, the present invention is not limited to this. It can also be used to handle goods. When dealing with a virtual book, for example, when touching the edge of a virtual book or turning a page, feel the tactile sensation or power applied to a finger when touching the edge of an actual book or turning a page Can be.
Further, in the present invention, the virtual space image need not be displayed. In other words, there may be predetermined data corresponding to the virtual space image, and a tactile sense or a force sense may be presented to the finger based on the data.
[0104]
Next, a second embodiment of the haptic device and the image processing device according to the present invention will be described. FIG. 14 is a longitudinal sectional view illustrating a configuration example of a tactile sensation generating unit of the haptic device according to the second embodiment.
Hereinafter, the haptic device 2 of the second embodiment will be described focusing on the differences from the first embodiment described above, and the description of the same items will be omitted.
As shown in FIG. 14A, in the haptic device 2 of the second embodiment, each unit haptic generator (actuator) 210 of the haptic generator 21 has a motor (drive source) 211 a provided with a power source. A generating unit (moving means) 211, an actuator wire (flexible linear body) 212 installed movably in the longitudinal direction, and a tactile presentation unit 216 that presses a finger pad to generate a tactile sensation Have.
The tactile presentation unit 216 is used to give a touch sensation (the presence or absence of contact, strength, and the like) to the user's finger pad, and is formed of, for example, an elastic member (elastic body) such as a leaf spring. In this case, the tactile presentation section 216 preferably has an appropriate rigidity, and can be formed of, for example, an elastic body made of various metals.
[0105]
The tactile sense presentation section 216 is composed of a first plate piece (pressing section) 216a and a second plate piece (slide section) 216b. The first plate piece 216a and the second plate piece 216b are joined at one end, and the other end of the first plate piece 216a has a minute contact portion 216c that is a part that contacts the finger pad. Is provided. The contact portion 216c can be formed, for example, by bending the end of the first plate 216a toward the second plate 216b.
Further, the one end side of the tactile sense presentation unit 216, that is, the left end in FIG. 14A is curved so as to protrude downward in FIG. 14A.
[0106]
Between the first plate piece 216a and the second plate piece 216b, a cylindrical guide portion (moving direction restricting means) 217 for restricting the moving direction of the first plate piece 216a is provided.
Further, a holding plate 218 is provided below the tactile presentation unit 216 in FIG. 14A, and the tactile presentation unit 216 can move (slide) along the holding plate 218. I have. In this case, the tactile sense presentation section 216 can move smoothly and reliably because its left end in FIG. 14A is curved.
[0107]
The guide portion 217 is fixed to a holding plate 218, and the holding plate 218 is fixed to the glove 2a. That is, the guide portion 217 and the holding plate 218 are both fixedly installed on the glove 2a.
One end of an actuator wire 212 is fixed to an end of the second plate piece 216b of the tactile sense presentation section 216 on the right side in FIG. 14A.
[0108]
When the actuator wire 212 is wound by the driving of the motor 211a of the power generation unit 211, the actuator wire 212 moves rightward in FIG. 14A (toward the base end of the finger) along the finger pad, The tactile presentation section 216 attached and fixed to the actuator wire 212 also moves to the right in FIG. 14A along the finger pad.
[0109]
At this time, as shown in FIG. 14B, the movement of the first plate piece 216 a of the tactile sense presentation section 216 to the right side in FIG. It is guided and moves upward in FIG. 14B (projects toward the finger pad). That is, the tactile presentation section 216 is elastically deformed, and the posture of the first plate piece 216a is changed to the posture shown in FIG. 14B, so that the contact portion 216c is almost vertically upward with respect to the surface of the finger pad. Move to (push up).
On the other hand, the restoring force (elastic force) of the tactile sense presentation unit 216 causes the actuator wire 212 to move leftward in FIG. 14B (in the direction opposite to the direction in which the actuator wire 212 moves when the first plate 216a is projected). Be energized. That is, the tactile sense presentation section 216 (first plate piece 216a) also functions as an urging unit.
[0110]
When a force is applied to the contact portion 216c to move substantially vertically upward, the contact portion 216c presses the finger pad in a substantially vertical direction, thereby applying a pressing force to the finger pad of the user's hand.
This operation is performed by the designated unit tactile generator 210 among the plurality of unit tactile generators 210, whereby the tactile sensation is presented (given) to the finger pad of the user's hand. Therefore, the user can obtain a feeling corresponding to the contact of the finger pad with the object (object) in the virtual space image at the finger pad.
[0111]
In the designated unit tactile sensation generating unit 210, when the driving of the motor 211a of the power generating unit 211 is stopped and the winding state of the actuator wire 212 is released, the restoring force (elastic force) of the tactile sensation providing unit 216; Due to the pressure from the user's finger, the tactile sense presentation unit 216 returns to the initial state shown in FIG.
As a result, the pressing force applied to the finger pad of the user's hand from the tactile sense presentation unit 216 substantially disappears. According to the force sense presentation device 2, the same effect as in the first embodiment described above can be obtained.
[0112]
Next, a third embodiment of a haptic device and a haptic system according to the present invention will be described.
FIG. 15 is an external view (partially omitted) of an external configuration example of a real glove of the haptic device according to the third embodiment. In order to make the figure clear, in FIG. 15, the tactile sensation generating unit 21, the power generation unit 211, the haptic generation unit 22, the position and orientation detection unit 23, the control unit 24, and the power supply unit 30 shown in FIG. Is not shown.
[0113]
Hereinafter, the haptic device 2 of the third embodiment will be described focusing on the differences from the first embodiment described above, and the description of the same items will be omitted.
As shown in FIG. 15, in the haptic device 2 of the third embodiment, air is injected into the elbow-side (base end) end of the tubular portion 20 a of the glove 2 a of the real glove 20. An arm fixing portion 2d of a form (air injection method) that is fixed to the arm by air pressure (pressure) is provided.
The arm fixing part 2d is composed of a bag-shaped arm fixing part main body 21d into which air is injected, and an air injection part 22d provided on the arm fixing part main body 21d. The outer shape of the arm fixing portion main body 21d is cylindrical.
[0114]
The hollow part of the air injection part 22d communicates with the inside of the arm fixing part main body 21d, and a lid 23d is provided at the tip of the air injection part 22d.
When the lid 23d is attached to the tip of the air injection part 22d, the airtightness in the arm fixing part main body 21d is maintained, and when the lid 23d is removed, the arm fixing part main body 21d is connected to the arm fixing part main body 21d via the air injection part 22d. , Can inject and exhaust air.
Such an arm fixing portion 2d is formed according to each user, for example, using a mold such as a rubber mold so as to conform to the shape of the arm of the user.
[0115]
When wearing the real glove 20, the user first wears the glove 2a, and then injects air into the arm fixing portion main body 21d of the arm fixing portion 2d.
In this air injection, for example, the lid 23d is removed from the tip of the air injection part 22d, and air is blown into the arm fixing part main body 21d from the air injection part 22d. When the predetermined amount of air has been injected, the lid 23d is attached to the tip of the air injection section 22d.
[0116]
In this way, the real glove 20 is fixed to the user's arm by the air pressure of the arm fixing part 2d, and is fixed to the user's wrist by the restoring force (elastic force) of the wrist fixing part 28.
When removing the real glove 20, the user first discharges air from the inside of the arm fixing portion main body 21d of the arm fixing portion 2d, and then removes the real glove 20 from the hand.
[0117]
According to the force sense presentation device 2, the same effects as in the first embodiment described above can be obtained, and in the force sense presentation device 2, since the arm fixing portion 2d is of an air injection type, the real glove 20 Can be easily and quickly mounted and removed.
In the present invention, the unit tactile sensation generating section 210 of the tactile sensation generating section 21 may be configured as in the above-described second embodiment.
[0118]
Next, a fourth embodiment of the haptic device and the haptic system according to the present invention will be described.
FIG. 16 is a block diagram illustrating a configuration example of a position and orientation detection unit of the force sense presentation device according to the fourth embodiment. FIG. 17 is an external view illustrating a configuration example of the position and orientation detection unit of the force sense presentation device according to the fourth embodiment. FIG. 18 (partially omitted) and FIG. 18 are external views showing a configuration example of a Z-direction detection sensor of the position and orientation detection unit shown in FIG. 17 and 18, an X axis, a Y axis, and a Z axis that are orthogonal to each other are assumed.
[0119]
Hereinafter, the haptic device 2 according to the fourth embodiment will be described focusing on differences from the first embodiment described above, and description of the same items will be omitted.
In the haptic device 2 according to the fourth embodiment, the position / posture detection unit (position detection means) 23 detects angular velocities around the X axis, the Y axis, and the Z axis, which are orthogonal to each other, using Coriolis force, for example. A gyro sensor (gyroscope) is used.
[0120]
Then, in the force sense presentation device 2, the surroundings are imaged by the unevenness input units (imaging means) 53a and 53b, and when the imaged surrounding image includes a portion corresponding to the finger, the unevenness inputting unit 53a, 53b. The position of the finger is obtained based on the image data (video data) from the units 53a and 53b. If the captured surrounding image does not include a part corresponding to the finger, the position / posture detection unit 23 To detect the position of the finger, and the position of the finger is obtained based on the information from each position / posture detection unit 23.
[0121]
As shown in FIG. 17, the position and orientation detection unit 23 includes a casing 60, an X-direction detection sensor (first detection sensor) 61 provided in the casing 60, and detecting an angular velocity around the X-axis, and a Y-axis detection sensor. It has a Y-direction detection sensor (second detection sensor) 62 for detecting the angular velocity around and a Z-direction detection sensor (third detection sensor) 63 for detecting the angular velocity around the Z-axis.
As shown in FIG. 18, the Z-direction detection sensor 63 includes an elinvar (base) 64, a vibration piezoelectric element (vibration piezoelectric element) 65 and a detection piezoelectric element (detection Piezoelectric element) 66. The Z-direction detection sensor 63 is supported by two wires 67 and 68.
[0122]
The shape of the elinvar 64 is a substantially rectangular parallelepiped that is long in the Z-axis direction, and the piezoelectric element for vibration 65 is provided on one of two substantially orthogonal surfaces thereof, and the piezoelectric element for detection 66 is provided on the other. . In this case, the vibration piezoelectric element 65 is arranged on a plane perpendicular to the Y axis, and the detection piezoelectric element 66 is arranged on a plane perpendicular to the X axis. Is also good.
[0123]
When an AC voltage is applied from an AC power supply 69 shown in FIG. 16 to the vibration piezoelectric element 65 of the Z-direction detection sensor 63, the vibration piezoelectric element 65 vibrates in the X-axis direction (bending vibration). The elin bar 64 also vibrates in the X-axis direction. At this time, when rotation (angular velocity) occurs around the Z axis, a voltage (signal) having a level corresponding to the angular velocity is detected from the detecting piezoelectric element 66.
[0124]
The configuration of the X-direction detection sensor 61 and the Y-direction detection sensor 62 is the same as that of the Z-direction detection sensor 63, and the description thereof is omitted. When the rotation (angular velocity) occurs around the X-axis, a voltage (signal) having a level corresponding to the angular velocity is detected from the detecting piezoelectric element 66 of the X-direction detection sensor 61, and the action thereof occurs around the Y-axis. When the rotation (angular velocity) occurs, a voltage (signal) having a level corresponding to the angular velocity is detected from the detecting piezoelectric element 66 of the Y-direction detecting sensor 62.
[0125]
As shown in FIG. 16, a signal (detection data) corresponding to the angular velocity around the X axis detected by the X direction detection sensor 61 of the position and orientation detection unit 23 and the signal of the Y axis detected by the Y direction detection sensor 62 The signal (detection data) corresponding to the angular velocity around and the signal (detection data) corresponding to the angular velocity around the Z-axis detected by the Z-direction detection sensor 63 are respectively output by the amplification unit 251 of the signal processing unit 25. After being amplified and converted into a digital signal by the A / D conversion unit 252, the signal is output to the signal transmission / reception unit 26 shown in FIG. 2 and transmitted to the information processing device 8 via the signal transmission / reception unit 26.
The information processing device 8 receives a signal from the real glove 20 and, based on the signal (information), positions and postures of respective parts such as fingers, hands, wrists, and arms wearing the real glove 20, namely, The coordinates of each unit are derived, and the information is stored in a predetermined storage area of the storage unit 85 for use in each predetermined process.
[0126]
Next, a fifth embodiment of the haptic device and the haptic system according to the present invention will be described.
FIG. 19 is a perspective view schematically showing a haptic device according to the fifth embodiment of the present invention, and FIG. 20 is an enlarged view of an arm portion corresponding to one finger of the haptic device shown in FIG. FIG. 21 is a cross-sectional view of the joint of the arm shown in FIG. 20, and FIG. 22 is an enlarged view of the force sense presentation unit for inserting a finger of the arm shown in FIG.
[0127]
Hereinafter, the haptic device 2 according to the fifth embodiment will be described focusing on differences from the first embodiment described above, and description of the same items will be omitted.
In the force sense presentation device 2 according to the fifth embodiment, a plurality of motors 201 that present force sense to the user's fingertips are used as the force sense generation unit 22, and the position and orientation detection unit (position detection unit) 23 is described later. , A plurality of links 203, a plurality of encoders 208, and a connecting unit 204 are used.
As shown in FIG. 19, the haptic device 2 according to the fifth embodiment includes a plurality of arms 200 applied to each fingertip of a user (in FIG. 19, only two arms 200 are shown. In this case, the present invention is applied to all five fingers of the user.), And an arm portion 200 applied to the back side of the user's hand.
[0128]
In FIG. 19, one end of each arm 200 is attached to the user's fingertip or back of the hand, and the other end is shown as floating in the air. The control unit 24, the signal processing unit 25, and the signal transmission / reception unit 26 are arranged in a single unit 200 at the other end. However, the present invention is not limited to this configuration. For example, the control unit 24, the signal processing unit 25, and the signal transmitting / receiving unit 26 may be provided on the other end side of each arm unit 200, respectively.
Structure of each arm unit 200
Since the (configuration) is almost the same, here, the arm unit 200 applied to the fingertip shown in FIG. 20, the joint unit 205 of the arm unit 200 shown in FIG. 21, and the force sense presentation unit 206 shown in FIG. The configuration will be described in detail using the unit 204.
[0129]
In FIG. 20, the arm unit 200 includes three links 203, three joints (nodes) 205 connecting the links 203, three motors 201 provided in each joint 205, and each motor 201. , A clutch 202 provided in a joint unit 205, a force sense presentation unit 206 to be attached to a user's fingertip, and a connection unit 204 forming a joint between the force sense presentation unit 206 and the link 203.
[0130]
In the present embodiment, the arm unit 200 including three links 203 will be described. However, the haptic device 2 of the present invention is not limited to this. Is also good. The number of the links 203 is appropriately determined in consideration of the degree of freedom of the fingertip of the user wearing the haptic device 2 of the present embodiment, the detection capability of the position and orientation detection unit 23 (processing capability such as detection time), and the like. It is preferable to determine the number.
[0131]
Here, the structure of the joint portion 205 will be described with reference to FIG. As shown in FIG. 21, a joint portion 205 connecting two links 203 has a motor 201, an encoder 208 connected to a motor shaft 201a, and suppresses (restricts) rotation of the motor 201 in a predetermined direction. A one-way clutch (movement restricting means) 207 and a clutch (clutch mechanism) 202 connected to the motor shaft 201a via the one-way clutch 207 are arranged. As shown in FIG. 21, one link 203 is connected to the motor shaft 201a, and the other link 203 is connected to the clutch 202.
[0132]
The motor 201 is rotatable in any of the directions A and B shown in FIG. 20. By changing the rotation angle of the motor 201, the angle of the two links 203 connected to the joint 205 where the motor 201 is arranged is changed. Can be adjusted. That is, one of the two links 203 is attached to the motor shaft 201a, which is the output shaft of the motor 201, and is configured such that the rotation angle of the motor 201 matches the rotation angle of the joint 205.
[0133]
When the collision determination unit 82 of the information processing device 8 determines that the fingertip of the user has touched (collides) with the target in the virtual space image, the haptic device 2 stores the storage unit. The operation force (reaction force) calculated based on the physical property data and the state quantity of the object stored in the device 85 is received via the signal transmission / reception unit 26. Then, based on the acting force data, the motor 201 is energized and driven (rotated) so as to present a reaction force (force sense) to the user's fingertip. The motor 201 is a motor in which a motor shaft 201a that rotates when no power is supplied can freely rotate.
[0134]
As described above, the encoder 208 is connected to the motor shaft 201a of the motor 201, and forms the position and orientation detection unit 23. The encoder 208 can detect the rotation angle of the motor 201, that is, the relative rotation angle of the two links 203. The detected angle information (signal) between the two links 203 is subjected to predetermined signal processing in the signal processing unit 25, and then transmitted to the information processing device 8 via the signal transmission / reception unit 26 (see FIG. 2). .
[0135]
The sleeve of the clutch 202 is connected to a motor shaft 201a of the motor 201 via a one-way clutch 207. The clutch 202 fixes the drive of the motor 201 (makes it impossible to rotate) by energizing a coil inside the clutch 202, but because of the one-way clutch 207, rotation in one direction remains free. .
In FIG. 20, when the one-way clutch 207 is operated, each joint 205 can freely rotate in the direction A and cannot rotate in the direction B. Hereinafter, the direction A is referred to as a forward direction, and the direction B is referred to as a lock direction.
[0136]
The one-way clutch 207 includes an inner ring and an outer ring (not shown) therein, and the outer ring is fixed or stopped by a sleeve of the clutch 202. Thus, when the one-way clutch 207 rotates in the forward direction, its inner ring rotates, and conversely, when the one-way clutch 207 rotates in the locking direction, its inner ring and outer ring and the rotor of the clutch 202 come together. To rotate.
[0137]
When the user moves the finger on which the arm unit 200 is mounted without touching an object or the like in the virtual space, the power supply to the motor 201 and the clutch 202 is turned off, and the user freely moves the fingertip. be able to.
Here, force sense generating means is constituted by all the motors 201, and each link 203, joint section 205, connecting section 204, and force sense presenting section 206 constitute a force sense presenting section. The encoder 208 and the connecting unit 204 constitute a position detecting unit.
[0138]
As shown in FIG. 22, the force sense presentation unit 206 has a hollow cylindrical shape so that a user's fingertip can be inserted, as shown in FIG. When the motor 201 is driven or the one-way clutch 207 is operated by turning on the clutch 202, the force sense presentation unit 206 presents the acting force (force sense) generated by the force sense to the user's fingertip. .
FIG. 23 is a cross-sectional view of the haptic presentation unit 206 according to an embodiment of the present invention. As shown in FIG. May be provided with a tactile presentation unit 209 driven by a pin. Thereby, the same effect as in the first embodiment can be obtained.
[0139]
FIG. 22 shows the connection part 204 shown in FIG. 20 with the cover removed. The connecting portion 204 has a gimbal structure and is rotatable in the direction of the arrow shown in FIG.
The connection unit 204 includes a rotation angle detection unit such as a potentiometer (not shown), and can detect the posture of the force sense presentation unit 206. Note that a ball joint or the like may be used as the connection unit 204, but in that case, a unit for detecting the posture of the force sense presentation unit 206 needs to be separately provided.
As described above, the force sense presentation device 2 of the present embodiment turns on / off the motor 201 or activates / deactivates the one-way clutch 207 via the clutch 202 in accordance with the instruction of the information processing device 8, thereby enabling the user Force can be presented to the fingertip of the user.
[0140]
Next, an operation (action) of the haptic device 2 according to the fifth embodiment will be described. FIG. 24 is a flowchart illustrating the haptic process (the haptic method) of the present invention. As can be seen from this flowchart, the force sense presentation method of the present invention is mainly performed by data transmission and reception between the force sense presentation device 2 and the information processing device 8 in the force sense presentation system 1. Therefore, in this flowchart, the operation of the virtual space display device 5 is omitted, but a description will be added as necessary.
[0141]
Prior to use, the user turns on the power of each unit (each device), wears the force sense presentation device 2 on both hands, and wears the glasses-like virtual space display device 5 (wears on the face). Then, in the image display units 51 a and 51 b of the virtual space display device 5, a virtual space image previously stored as image data in the storage unit 85 of the information processing device 8 or an image captured by the imaging unit of the virtual space display device 5. A virtual space image generated from the image data is displayed.
[0142]
Then, in the force sense presentation system 1, initial settings of each device are performed. In this initial setting, the rotation angle of each motor 201 of the haptic device 2, that is, the angle of each joint 205 of the arm 200 is detected by the encoder 208 and the connecting unit 204, and the detected angle data is The information is transmitted to the information processing device 8 via the signal transmitting / receiving unit 26.
In the information processing device 8, the arithmetic processing unit 81 calculates the positions and postures of the fingertips and the back of the hand of the user wearing the force sense presentation device 2 in the virtual space based on the angle data, and the calculation result, that is, The coordinates of each point in the virtual space are output to the control unit 84 and the signal processing unit 86.
[0143]
The controller 84 causes the image generator 83 to generate an image of the user's hand in the virtual space from these coordinates. The image generation unit 83 combines the image data of the user's hand with the virtual space image data currently displayed on the virtual space display device 5, and combines the combined image data via the signal processing unit 86 and the signal transmission / reception unit 87. The data is transmitted to the virtual space display device 5.
[0144]
The virtual space display device 5 displays the received virtual space image data on the image display units 51a and 51b. Thus, the initial setting is completed.
When this initial setting is completed, the force sense presentation system 1 is in a usable state. Hereinafter, the operations of the haptic device 2 and the haptic system 1 of the present embodiment will be described based on the flowchart of FIG.
[0145]
First, in the force sense presentation device 2, the position and orientation detection unit 23 detects the angle of each joint 205 of each arm 200. That is, the position / posture detection unit 23 detects the corresponding rotation angle of each motor 201 using the encoder 208 arranged in each joint unit 205, and uses the rotation angle detection unit of the coupling unit 204 to detect the force sense presentation unit. The posture of 206 is detected.
Then, these detection data are output from the position and orientation detection unit 23 to the signal processing unit 25, and transmitted to the information processing device 8 via the signal transmission and reception unit 26 (Step S101).
[0146]
Upon receiving the detection data transmitted from the force sense presentation device 2 via the signal transmission / reception unit 87, the information processing device 8 inputs the data to the arithmetic processing unit 81 via the control unit 84. Then, the arithmetic processing unit 81 calculates the position and posture of each finger and hand of the user in the virtual space based on the detected data (step S102).
[0147]
That is, the arithmetic processing unit 81 determines the arm length of the arm unit 200 stored in the storage unit 85 in advance, that is, the link length of each link 203, and the supporting unit (not shown) supporting the arm unit 200. The position of the fingertip of the user is calculated forward kinematically by using the coordinate data of (i) and the detected data, that is, the detected rotation angles of the respective joints 205. The calculation result is represented as coordinates (position information) of each fingertip of the user and the back of the hand in the virtual space.
The calculation result is input to the image generation unit 83 via the control unit 84. The image generation unit 83 creates an image of the user's hand in the virtual space based on the calculation result, and updates the virtual space image by superimposing the image of the hand (step S103).
[0148]
Then, the updated and generated image data is transmitted to the virtual space display device 5 via the signal processing unit 86 and the signal transmitting / receiving unit 87. The virtual space display device 5 displays the updated virtual space image on the image display units 51a and 51b based on the received image data. Thereby, the user can see the user's hand displayed in the virtual space image by the image display units 51a and 51b of the virtual space display device 5.
Here, when the calculation result of the calculation processing unit 81 indicates that the user's finger has not moved in the virtual space, that is, the detection data is the previous detection data (here, the data at the time of initial setting). If it is the same as above, the image generation unit 83 may proceed to step S104 without updating the virtual space image.
[0149]
In step S104, the collision determination unit (interference determination unit) 82 of the information processing device 8 determines the position information of the user's fingertip obtained by the arithmetic processing unit 81 and the target in the virtual space image stored in the storage unit 85 in advance. Based on the position information of the object, it is determined whether or not the fingertip of the user has interfered with the target in the virtual space (whether or not the collision has occurred). When it is determined that they do not interfere with each other (NO in step S104), the output of each motor 201 and each clutch 202 is turned off, that is, the power supply to these is stopped (step S105), and step S101 is performed. And the same processing is repeated. At this time, since the motor 201 or the clutch 202 is not energized, the process returns to step S101 and repeats the same process.
[0150]
When it is determined in step S104 that the user's fingertip has interfered with the target (YES in step S104), the control unit 84 stores the physical property data and the state amount data of the target in a predetermined manner in the storage unit 85. The data is read from the storage destination and these data are output to the arithmetic processing unit 81. The arithmetic processing unit 81 calculates the acting force of the target object on the user's finger based on the data (step S106).
[0151]
In step S107, the control unit 84 (here, the determination unit) sets the acting force calculated by the calculation processing unit 81 in advance and is larger than a predetermined threshold value stored in a predetermined storage area of the storage unit 85. It is determined whether or not. When it is determined that the acting force is larger than the predetermined threshold, the control unit 84 transmits an operation signal (operation signal) of the clutch 202 to the force sense via the signal processing unit 86 and the signal transmitting / receiving unit 87. The data is transmitted to the device 2 (step S109).
On the other hand, when it is determined that the acting force is smaller than the predetermined threshold, the arithmetic processing unit 81 computes a distribution ratio of the acting force to each motor 201 of the force sense presentation device 2 (step S109). The calculation result is transmitted to the force sense presentation device 2 via the signal processing unit 86 and the signal transmission / reception unit 87 as an appropriate motor operation signal (step S110).
[0152]
The haptic device 2 that has received the operation signal of the motor 201 or the operation signal of the clutch 202 inputs the operation signal to the haptic generator 22 via the control unit 24. Then, based on the operation signal, the force sensation generating unit 22 energizes the motor 201 or the clutch 202, and in the case of the operation signal of the motor 201, drives each motor 201 to generate an acting force (force sensation). However, in the case of the operation signal of the clutch 202, the clutch 202 is driven to operate the one-way clutch 207 (step S111), and this force sense presentation processing ends.
Thereby, the user is presented with a force sense generated by the motor 201 via the force sense presentation unit 206, or the movement of the user's fingertip in a predetermined direction is restricted by the operation of the one-way clutch 207.
[0153]
Note that the detection step of each joint unit 205 in step S101 in the force sense presentation processing shown in the flowchart of FIG. 24 is performed at predetermined time intervals based on the arithmetic processing capability of the arithmetic processing unit 81 of the information processing device 8, for example, , Every 1-2 seconds. The greater the detection frequency of this detection step, that is, the shorter the time interval, the more naturally the force sense presentation to the user in the virtual space area becomes. Should be determined as appropriate according to the arithmetic processing capability of.
[0154]
FIG. 25 is a flowchart showing the contrast presentation processing (contrast presentation method) of the present invention. This contrast presentation processing is preferably performed when the user wears the haptic device 2 of the present invention, that is, when the user starts using the haptic device 2 of the present invention. Note that this contrast presentation process is a process corresponding to calibration of a force sense acting on a user's finger, that is, calibration of the force sense presentation device 2.
[0155]
Note that, similarly to the flow chart of the force sense presentation processing (FIG. 24), in this flow chart, the operation of the virtual space display device 5 is omitted, but a description will be added as needed. In addition, although the description will be made before and after, after the above-described initial setting is completed and the contrast presenting process of the present invention is executed, the normal force use presentation process is always executed after normal use.
[0156]
First, in order to present the haptic contrast to the user, the image generation unit 83 of the information processing device 8 performs the processing of the predetermined object in the virtual space image based on the image data stored in the storage unit 85 in advance. An image is generated (Step S201). Then, the generated image is transmitted to the virtual space display device 5 via the signal processing unit 86 and the signal transmitting / receiving unit 87. In the virtual space display device 5, the image data is displayed on the image display units 51a and 51b.
[0157]
In the state in which the virtual space image is displayed on the virtual space display device 5, in the force sense presentation device 2, the position and orientation detection unit 23 detects the angle of each joint 205 of each arm 200. That is, the position / posture detection unit 23 detects the corresponding rotation angle of each motor 201 using the encoder 208 arranged in each joint unit 205, and uses the rotation angle detection unit of the coupling unit 204 to detect the force sense presentation unit. The posture of 206 is detected.
Then, these detection data are output from the position and orientation detection unit 23 to the signal processing unit 25, and transmitted to the information processing device 8 via the signal transmission and reception unit 26 (Step S202).
[0158]
Upon receiving the detection data transmitted from the force sense presentation device 2 via the signal transmission / reception unit 87, the information processing device 8 inputs the data to the arithmetic processing unit 81 via the control unit 84. Then, the arithmetic processing unit 81 calculates the position and orientation of each finger and hand of the user in the virtual space based on the detected data (step S203).
[0159]
That is, the arithmetic processing unit 81 determines the arm length of the arm unit 200 stored in the storage unit 85 in advance, that is, the link length of each link 203, and the supporting unit (not shown) supporting the arm unit 200. The position of the fingertip of the user is calculated forward kinematically by using the coordinate data of (i) and the detected data, that is, the detected rotation angles of the respective joints 205. The calculation result is represented as coordinates (position information) of each fingertip of the user and the back of the hand in the virtual space.
[0160]
The calculation result is input to the image generation unit 83 via the control unit 84. The image generation unit 83 creates an image of the user's hand in the virtual space based on the calculation result, and updates the virtual space image by superimposing the image of the hand (step S204). In the contrast presentation processing, it is preferable to display an appropriate message on the virtual space display device 5 at the start, for example, so as to press the predetermined object displayed above with an appropriate force.
[0161]
Then, the updated and generated image data is transmitted to the virtual space display device 5 via the signal processing unit 86 and the signal transmitting / receiving unit 87. The virtual space display device 5 displays the updated virtual space image on the image display units 51a and 51b based on the received image data. Thereby, the user can see the user's hand displayed in the virtual space image by the image display units 51a and 51b of the virtual space display device 5.
[0162]
In step S205, the collision determination unit 82 of the information processing device 8 determines the position information of the user's fingertip obtained by the arithmetic processing unit 81 and the position of the predetermined target in the virtual space image stored in the storage unit 85 in advance. Based on the position information, it is determined whether or not the user's fingertip has interfered with the target in the virtual space (whether or not the collision has occurred). When it is determined that they do not interfere with each other (NO in step S205), the output of each motor 201 is turned off, that is, the energization is stopped (step S206), and the process returns to step S202 to repeat the same processing. . In the case where the display is performed so as to interfere with the target object as described above, the user moves his / her hand and finger in the virtual space to touch the target object. Processing will be rare.
[0163]
If it is determined in step S205 that the user's fingertip has interfered with the object (YES in step S205), the control unit 84 stores the physical property data and the state amount data of the object in a predetermined manner in the storage unit 85. The data is read from the storage destination and these data are output to the arithmetic processing unit 81. The calculation processing unit 81 calculates the first acting force of the target object on the user's finger based on the data (step S207). In this contrast presentation processing, since the user mainly performs an operation of pressing a predetermined object, the user's fingertip is held (fixed) at the display position of the predetermined object in the virtual space. A reaction force (interaction) in a direction opposite to the acting force is generated by driving each motor 201 as the force sense generating unit 22. Therefore, the arithmetic processing unit 81 uses the input signal (control signal) for driving each motor 201 here (or monitors the output of the motor by another sensor (not shown)), and Calculates the force acting on the object.
[0164]
Then, the control unit 84 controls the drive of each motor 201, which is the force sense generation unit 22 of the force sense presentation device 2, by following the action force of the user so that the position of the user's fingertip does not move from the predetermined position. (Steps S208 and S209). In this case as well, the user's acting force is distributed to each motor 201 based on the calculation result of the calculation processing unit 81.
[0165]
In step S210, the control unit 84 of the information processing device 8 determines whether or not the acting force of the user pressing the object exceeds the first threshold. If it is determined that the difference does not exceed the first threshold, the process returns to step S207, and the same processing (processing for calculating the acting force and distributing it to each motor 201) is repeated.
If it is determined in step S210 that the action force of the user exceeds the first threshold, the control unit 84 determines whether each motor 201 corresponds to the second threshold stored in the storage unit 85 in advance. Is transmitted to the haptic device 2 via the signal processor 86 and the signal transmitter / receiver 87 (step S211).
The force sense presentation device 2 that has received the operation signal of each motor 201 changes the output of each motor 201 based on the signal (step S212), and ends the contrast presentation processing.
[0166]
Note that the first and second thresholds may be preset in the information processing device 8 (that is, the haptic presentation system 1), or use the haptic presentation system 1 (the haptic presentation device 2). You may comprise so that it can be changed suitably by a user. The first threshold value is preferably large enough for the user to feel that the user has pressed the predetermined object sufficiently, and preferably large enough not to overload the haptic device 2. It weighs about 5 kg (50 N (Newton)).
[0167]
Further, the second threshold value should preferably be a small value corresponding to the first threshold value so that the user, that is, a human, can sufficiently feel the contrast. The value of the force is approximately equal to 0, that is, the value of the acting force (load) when the power supply to the motor 201 is stopped (at this time, the user's fingertip can move freely).
As described above, when the first threshold value and the second threshold value are sufficiently shifted (separated), the contrast to the user is better presented.
[0168]
As described above, the haptic device 2 and the haptic system 1 according to the present invention have a large acting force (an acting force of the first threshold value) and a small acting force especially at the start of use of the haptic device 2 by the user. The action force (the action force of the second threshold value) is instantaneously applied to the user's fingertip, so that the contrast of the action force is presented to the user.
Therefore, by the force sense presentation device 2 and the force sense presentation system 1 of the present invention, the load such as the weight of the force sense presentation portion and the frictional resistance of each joint portion, etc., which gives the user a sense of incongruity in the conventional force sense presentation device. By using the ambiguity of the human sense, it can be sensuously removed.
[0169]
The haptic sense presentation system 1 of the present invention is configured to generate a virtual space image by the image generation unit 83 of the information processing device 8 and display the virtual space image on the virtual space display device 5. The present invention is not limited to the case where the present invention is applied in a virtual space. For example, the present invention may be configured with only the haptic device 2 and the information processing device 8 without displaying a virtual space image. Further, in the force sense presentation system 1 of the present invention, each of the above devices may be integrally configured as one device.
[0170]
Further, in the present invention, any two or more configurations (features) of the above embodiments may be appropriately combined. That is, in the present invention, not only the haptic device 2 of the fifth embodiment but also the haptic device 2 (real globe 20) of another embodiment is used to execute a contrast presentation method (contrast presentation process). May be configured.
As described above, the configuration of the haptic device and the haptic system of the present invention has been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit has the same function. It can be replaced with any configuration that has.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram illustrating a configuration example of a first embodiment of a haptic device and a haptic system including the haptic device according to the present invention.
FIG. 2 is a block diagram illustrating a circuit configuration example of the real globe illustrated in FIG. 1;
FIG. 3 is an external view (partially omitted) showing an external configuration example of the real glove shown in FIG. 1;
FIG. 4 is a longitudinal sectional view showing a configuration example of a tactile sense generating section of the real glove shown in FIG.
FIG. 5 is an external view showing a configuration example of a force sense generating unit of the real glove shown in FIG. 1;
FIG. 6 is an external view showing a configuration example of a force sense generating unit of the real glove shown in FIG. 1;
FIG. 7 is a block diagram illustrating a configuration example of a real glove position / posture detection unit illustrated in FIG. 1;
8 is a perspective view showing an example of an external configuration of the virtual space display device shown in FIG.
FIG. 9 is a block diagram illustrating a circuit configuration example of the virtual space display device illustrated in FIG. 1;
10 is a diagram (block diagram, schematic diagram) illustrating a configuration example of a concave / convex input unit of the virtual space display device illustrated in FIG.
11 is a diagram (block diagram, schematic diagram) showing a configuration example of an image display unit of the virtual space display device shown in FIG.
12 is a diagram (block diagram, schematic diagram) illustrating a configuration example of a line-of-sight detection unit of the virtual space display device illustrated in FIG.
13 is a block diagram illustrating a circuit configuration example of the information processing apparatus illustrated in FIG.
FIG. 14 is a vertical cross-sectional view illustrating a configuration example of a tactile sensation generating section of the haptic device according to the second embodiment.
FIG. 15 is an external view (partially omitted) illustrating an external configuration example of a real glove of the haptic device according to the third embodiment.
FIG. 16 is a block diagram illustrating a configuration example of a position and orientation detection unit of a force sense presentation device according to a fourth embodiment.
FIG. 17 is an external view (partially omitted) illustrating a configuration example of a position and orientation detection unit of a force sense presentation device according to a fourth embodiment.
18 is an external view showing a configuration example of a Z-direction detection sensor of the position and orientation detection unit shown in FIG.
FIG. 19 is a perspective view schematically showing a haptic device according to a fifth embodiment.
FIG. 20 is an enlarged view of an arm portion corresponding to one finger of the force sense presentation device shown in FIG. 19;
FIG. 21 is a sectional view of a joint of the arm shown in FIG. 20;
FIG. 22 is an enlarged view of a force sense presentation unit into which a finger of the arm unit shown in FIG. 20 is inserted.
FIG. 23 is a cross-sectional view of the force sense presentation section shown in FIG. 20 in one embodiment of the present invention.
FIG. 24 is a flowchart showing a force sense presentation process of the present invention.
FIG. 25 is a flowchart showing a contrast presentation process of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Force sense presentation system, 2 ... Force sense presentation device, 2a ... Gloves, 2b ... Frame holder, 2c ... Frame cover, 2d ... Arm fixing part, 20 ... Real glove, 20a ... Tube Shape part, 200 arm part, 201 motor, 201a motor shaft, 202 clutch, 203 link, 204 link part, 205 joint part, 206 force sense presentation part, 207: one-way clutch; 208: encoder; 209: tactile presentation unit driven by pin; 21: tactile generation unit; 21a: opening; 21d: arm fixing unit main body; 210: unit tactile generation unit; ... Power generating unit, 211a, motor, 212, actuator wire, 212a, bundle, 213, wire holding unit, 214, tactile presentation pin, 214a, contact plate, 214 ... Support part, 215... Tactile presentation pin support part, 216... Tactile presentation part, 216 a... First plate piece, 216 b. .., 218... Holding plate, 22... Force sense generating part, 22 d... Air injecting part, 221... Frame, 222,... Link motor, 23. X direction detection coil, 232... Y direction detection coil, 233... Z direction detection coil, 24... Control section, 25... Signal processing section, 251... Amplification section, 252. ... Signal transmitting / receiving section, 27 play absorbing section, 28 wrist fixing section, 29 twist absorbing section, 291 band-shaped section, 292 opening, 30 power supply section, 5 virtual space Display device, 51a, 51b ... image display unit, 511 ... , 512, a lens moving mechanism, 513, a stepping motor, 514, a motor control unit, 515, a liquid crystal display panel, 516, a liquid crystal drive unit, 517, a backlight, 518, a backlight control unit, 519: transistor, 52a, 52b ... line-of-sight detector, 521 ... half mirror, 522 ... filter, 523 ... lens, 524 ... CCD, 525 ... CCD controller, 526 ... CCD output amplifier, 527 LED 528 LED control section 529 Transistor 53a, 53b Irregularity input section 531 Lens 532 CCD 533 CCD control section 534 CCD output amplification section .. 54, a control unit, 55, a signal transmitting / receiving unit, 56, a position and orientation detecting unit, 57, a mounting unit, 58, a signal processing unit, 59, tertiary. Original acceleration sensor, 60 casing, 61 X-direction detection sensor, 62 Y-direction detection sensor, 63 Z-direction detection sensor, 64 Elinvar, 65 piezoelectric element for vibration, 66 detection Piezoelectric elements for use, 67, 68 Wire, 69 AC power supply 8, Information processing device 81 Operation processing unit 82 Collision determination unit 83 Image generation unit 84 Control unit ... 85 storage unit 86 signal processing unit 87 signal transmission / reception unit 88 magnetic field generation unit 9 base station

Claims (15)

仮想空間画像に応じて、ユーザの指に与える力覚を発生する力覚発生手段と、
前記指に装着され、前記力覚発生手段によって発生された力覚を前記指に提示する力覚提示手段と、
前記力覚発生手段によって発生された力覚によって前記指を押しかえして前記指を所定の位置に保持することにより、前記指から前記力覚提示手段に加えられた作用力を所定の時期に計測する計測手段と、
前記計測手段によって計測された作用力が第1の閾値以上であるか否かを判定する判定手段と、
前記判定手段によって前記作用力が第1の閾値以上であると判定された場合には、前記力覚発生手段によって発生された力覚の大きさを該第1の閾値よりも小さい第2の閾値に変更する力覚変更手段と、
を備えることを特徴とする力覚提示装置。
Force sense generating means for generating a force sense given to the user's finger according to the virtual space image;
A force sense presentation unit attached to the finger and presenting the force sense generated by the force sense generation unit to the finger,
By pressing the finger by the force sense generated by the force sense generating means and holding the finger at a predetermined position, the acting force applied to the force sense presenting means from the finger at a predetermined time is measured. Measuring means to
Determining means for determining whether or not the acting force measured by the measuring means is equal to or greater than a first threshold;
If the determining means determines that the acting force is equal to or greater than a first threshold, the magnitude of the force sense generated by the force sense generating means is reduced to a second threshold value smaller than the first threshold value. Force change means for changing to
A force sense presentation device comprising:
前記所定の時期は、前記ユーザが前記力覚提示装置を最初に装着した状態において前記ユーザの指が仮想空間中の対象物に干渉したときである請求項1に記載の力覚提示装置。The haptic device according to claim 1, wherein the predetermined time is a time when the user's finger interferes with an object in a virtual space in a state where the user first wears the haptic device. 前記力覚提示手段は、複数のリンクと該リンク間を連結する複数の節とから構成されるアーム部と、前記指に装着する力覚提示部と、前記アーム部と前記力覚提示部とを連結する連結部とから構成される請求項1又は2に記載の力覚提示装置。The haptic presentation unit includes an arm unit including a plurality of links and a plurality of nodes connecting the links, a haptic presentation unit attached to the finger, the arm unit and the haptic presentation unit. The force sense presentation device according to claim 1, further comprising: a connection unit configured to connect the force sensor. 前記力覚発生手段は、複数のアクチュエータから構成され、該アクチュエータは、前記複数の節にそれぞれ配置されるモータである請求項3に記載の力覚提示装置。The force sense presentation device according to claim 3, wherein the force sense generation means includes a plurality of actuators, and the actuators are motors respectively arranged in the plurality of nodes. 前記計測手段は、前記複数のモータのそれぞれの出力から前記作用力を計測する請求項4に記載の力覚提示装置。The force sense presentation device according to claim 4, wherein the measuring unit measures the acting force from outputs of the plurality of motors. 前記第2の閾値は、前記力覚発生手段によって発生される前記力覚が0に相当する値である請求項1乃至5のいずれかに記載の力覚提示装置。The haptic device according to any one of claims 1 to 5, wherein the second threshold value is a value corresponding to 0 for the haptic force generated by the haptic generating means. 前記力覚提示手段が装着された前記指の仮想空間における位置を検出する位置検出手段を更に備える請求項1乃至3、及び6のいずれかに記載の力覚提示装置。The haptic device according to claim 1, further comprising a position detecting unit configured to detect a position in the virtual space of the finger on which the haptic device is mounted. 前記力覚提示手段が装着された前記指の仮想空間における位置を検出する位置検出手段を更に備え、
前記位置検出手段は、前記複数のモータの出力軸に連結された複数のエンコーダによって、前記複数のモータのそれぞれの回転角度を検出する請求項4又は5に記載の力覚提示装置。
Position detecting means for detecting a position in the virtual space of the finger on which the force sense presenting means is mounted, further comprising:
The force sense presentation device according to claim 4, wherein the position detection unit detects a rotation angle of each of the plurality of motors using a plurality of encoders connected to output shafts of the plurality of motors.
信号の送信又は受信を行う通信手段を更に備え、
前記通信手段によって受信した信号に基づいて、前記力覚発生手段が駆動するよう構成されている請求項1乃至6のいずれかに記載の力覚提示装置。
Further comprising communication means for transmitting or receiving a signal,
The haptic device according to claim 1, wherein the haptic device is configured to be driven based on a signal received by the communication device.
信号の送信又は受信を行う通信手段を更に備え、
前記通信手段によって受信した信号に基づいて、前記力覚発生手段が駆動するとともに、前記位置検出手段によって検出された前記指の仮想空間における位置情報を送信するよう構成される請求項7又は8に記載の力覚提示装置。
Further comprising communication means for transmitting or receiving a signal,
9. The method according to claim 7, wherein the force sensation generating unit is driven based on a signal received by the communication unit, and the position information in the virtual space of the finger detected by the position detecting unit is transmitted. The haptic device according to the above.
前記力覚提示手段の所定の一方向への移動を規制する移動規制手段と、
前記移動規制手段の作動/不作動を切り替えるクラッチ機構とを更に備える請求項1乃至10のいずれかに記載の力覚提示装置。
Movement restriction means for restricting movement of the force sense presentation means in a predetermined one direction,
The force sense presentation device according to any one of claims 1 to 10, further comprising: a clutch mechanism for switching operation / non-operation of the movement restricting unit.
請求項1乃至9、及び11のいずれかに記載の力覚提示装置と、
仮想空間画像を生成する画像生成手段を含む情報処理装置と、
前記画像処理装置によって生成された仮想空間画像を表示する表示手段を含む表示装置と、
を備えることを特徴とする力覚提示システム。
A haptic device according to any one of claims 1 to 9, and 11,
An information processing apparatus including an image generation unit that generates a virtual space image;
A display device including display means for displaying a virtual space image generated by the image processing device;
A force sense presentation system comprising:
請求項10に記載の力覚提示装置と、
仮想空間画像を生成する画像生成手段を含む情報処理装置と、
前記画像処理装置によって生成された仮想空間画像を表示する表示手段を含む表示装置と、
を備えることを特徴とする力覚提示システム。
A haptic device according to claim 10,
An information processing apparatus including an image generation unit that generates a virtual space image;
A display device including display means for displaying a virtual space image generated by the image processing device;
A force sense presentation system comprising:
前記情報処理装置は、
前記位置検出手段によって検出された前記指の仮想空間における位置情報を受信する受信手段と、
前記受信手段によって受信した前記指の仮想空間における位置及び予め設定されている仮想空間内の対象物の位置に基づいて、前記指が該対象物と干渉しているか否かを判定する干渉判定手段と、
前記干渉判定手段によって前記指と前記対象物とが干渉していると判定された場合には、前記対象物の所定のデータに基づいて、前記指に提示する作用力を演算する演算手段と、
前記演算手段によって演算された作用力が前記予め設定された所定の閾値を超えているか否かを判別する判別手段と、
前記演算手段の演算結果及び前記判別手段の判別結果を駆動信号及び作動信号として前記力覚提示装置に送信する送信手段と、
を備える請求項13に記載の力覚提示システム。
The information processing device,
Receiving means for receiving position information of the finger in the virtual space detected by the position detecting means,
Interference determining means for determining whether or not the finger is interfering with the object based on the position of the finger in the virtual space received by the receiving means and the position of the object in the virtual space set in advance; When,
When it is determined that the finger and the object are interfering with each other by the interference determining unit, based on predetermined data of the object, a calculating unit that calculates an acting force to be presented to the finger,
Determining means for determining whether or not the acting force calculated by the calculating means exceeds the predetermined threshold value;
Transmission means for transmitting the calculation result of the calculation means and the determination result of the determination means as a drive signal and an activation signal to the force sense presentation device,
The haptic presentation system according to claim 13, further comprising:
前記情報処理装置は、少なくとも前記対象物の位置情報及び前記所定のデータ、並びに、前記第1及び第2の閾値を記憶する記憶手段を更に備える請求項14に記載の力覚提示システム。The haptic sense presentation system according to claim 14, wherein the information processing device further includes a storage unit that stores at least position information of the target object and the predetermined data, and the first and second threshold values.
JP2002382474A 2002-12-27 2002-12-27 Inner force sense presentation device and system Pending JP2004213351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002382474A JP2004213351A (en) 2002-12-27 2002-12-27 Inner force sense presentation device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002382474A JP2004213351A (en) 2002-12-27 2002-12-27 Inner force sense presentation device and system

Publications (1)

Publication Number Publication Date
JP2004213351A true JP2004213351A (en) 2004-07-29

Family

ID=32818021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002382474A Pending JP2004213351A (en) 2002-12-27 2002-12-27 Inner force sense presentation device and system

Country Status (1)

Country Link
JP (1) JP2004213351A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (en) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology Mid-air video interaction device and its program
CN107919164A (en) * 2016-10-05 2018-04-17 松下知识产权经营株式会社 Auxiliary device, householder method and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (en) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology Mid-air video interaction device and its program
US20100110384A1 (en) * 2007-03-30 2010-05-06 Nat'l Institute Of Information & Communications Technology Floating image interaction device and its program
JP5212991B2 (en) * 2007-03-30 2013-06-19 独立行政法人情報通信研究機構 Aerial video interaction device and program thereof
US8985774B2 (en) 2007-03-30 2015-03-24 National Institute Of Information And Communication Technology Floating image interaction device and its program
CN107919164A (en) * 2016-10-05 2018-04-17 松下知识产权经营株式会社 Auxiliary device, householder method and program
CN107919164B (en) * 2016-10-05 2023-09-08 松下知识产权经营株式会社 Auxiliary device, auxiliary method, and recording medium

Similar Documents

Publication Publication Date Title
JP2004213350A (en) Inner force sense presenting device and image correcting method
US6862006B2 (en) Image processing apparatus and image processing method, and image processing program and recording medium of the same
JP4085691B2 (en) Image processing device
KR101541082B1 (en) System and method for rehabilitation exercise of the hands
EP1523725B1 (en) Hand-held computer interactive device
US20070149282A1 (en) Interactive gaming method and apparatus with emotion perception ability
JP4023214B2 (en) Tactile / force sense presentation device and tactile / force sense presentation system
JP2012501020A (en) Adjustable virtual reality system
JP2007049684A (en) Mounting mechanism and head mounting type image display device
WO2014034550A1 (en) Tactile force sense presentation device, information terminal, tactile force sense presentation method, and computer-readable recording medium
JP4048999B2 (en) Image processing apparatus and image processing method
JPWO2019225170A1 (en) Positioning device and spatial positioning system
JP2019198939A (en) Tactile sensor
JP2003316493A (en) Tactile sense presentation device
KR102162922B1 (en) Virtual reality-based hand rehabilitation system with haptic feedback
Regenbrecht et al. Virtual reality aided assembly with directional vibro-tactile feedback
JP2003308141A (en) Inner force sense presenting device
JP2004213351A (en) Inner force sense presentation device and system
JP2004213349A (en) Inner force sense presentation device and system
JP4063131B2 (en) Image processing apparatus and tactile / force-sensing method
JP4039111B2 (en) Tactile / force sense presentation device and tactile / force sense presentation system
JPH07281818A (en) Three-dimensional virtual instruction input system
JP2012194626A (en) Display device
JP2004094307A (en) Tactile force presenting device
JPH08297536A (en) Head mount type display unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070424