JP7345387B2 - 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム - Google Patents

触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム Download PDF

Info

Publication number
JP7345387B2
JP7345387B2 JP2019235858A JP2019235858A JP7345387B2 JP 7345387 B2 JP7345387 B2 JP 7345387B2 JP 2019235858 A JP2019235858 A JP 2019235858A JP 2019235858 A JP2019235858 A JP 2019235858A JP 7345387 B2 JP7345387 B2 JP 7345387B2
Authority
JP
Japan
Prior art keywords
tactile
tactile sensation
type
display
local terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019235858A
Other languages
English (en)
Other versions
JP2021105778A (ja
Inventor
優輝 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019235858A priority Critical patent/JP7345387B2/ja
Publication of JP2021105778A publication Critical patent/JP2021105778A/ja
Application granted granted Critical
Publication of JP7345387B2 publication Critical patent/JP7345387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラムに係り、特に、ユーザがタッチしたタッチパネルディスプレイの位置に表示されている任意の物体の触感を当該ユーザに提示する触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラムに関する。
特許文献1には、主にオンラインショッピングへの利用を想定し、商品の各種情報を提供するウェブページをHTML文書の形式で生成するサーバ装置と、タッチパネルからのタッチ入力に基づいてアクチュエータを駆動することで物体の触感を提示する触感提示装置が開示されている。
特許文献1では、サーバ装置が生成するウェブページに「触感体感」と記載されたアイコンが表示されており、ユーザはスマートフォンのような消費者端末からアイコンをクリックすることで、サーバ装置から触感提示装置の制御パラメータをダウンロードできる。消費者端末と触感提示装置とは有線あるいは無線で接続され、ダウンロードした制御パラメータを触感提示装置に適用し、触感提示装置のタッチパネルに指先で触れることでユーザは所望の商品の触感を体感できる。
特開2019-128738号公報
しかしながら、特許文献1の装置は、オンラインショッピングにおいて触感体感をユーザに提供するという用途に最適化されているため、任意の場面において、任意の物体の触感体感をユーザに提供する装置を構成する際、以下の点が技術的課題となる。
第1に、特許文献1の装置では、物体に紐づく触感パラメータを事前に準備する必要があるため、触感を体感させる対象物体の点数の増大に伴い、触感パラメータのセッティング回数が増大し、時間的コストが生じる。
第2に、特許文献1の装置では、一つの商品ページに対して一つの触感パラメータを設定していることにより、同一場面において複数の物体の触感を同時に再現できない。例えば、キッチンの場面ではコップやフライパンといった様々な物体が存在する。そのような場面において、コップの触感やフライパンの触感を同時にユーザに体感させることができない。
本発明の目的は、上記の技術課題を解決し、ディスプレイに表示されている物体について、ユーザが要求した任意の物体の触感を当該ユーザに提示できる触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラムを提供することにある。
上記の目的を達成するために、本発明は、以下の構成を具備した点に特徴がある。
(1) 本発明の触感提示システムは、物体の映像を取得する手段と、物体の種別ごとに触感パラメータを保持する触感記憶手段と、ディスプレイに表示される物体の種別および位置を識別する手段と、物体の種別および位置の識別結果ならびに触感記憶手段に基づいて、ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、ディスプレイに対するタッチ操作に基づいて触感要求位置を検知する手段と、触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段と、取得した触感パラメータに基づいて、前記触感要求位置に表示された物体の触感を提示する手段とを具備した。
(2) 本発明のローカル端末は、物体の映像を取得する手段と、映像の情報を外部のサーバ装置へ送信し、ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を当該サーバ装置から取得する手段と、ディスプレイに対するタッチ操作に基づいて触感要求位置を検知する手段と、触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段とを具備し、取得した触感パラメータに基づいて物体の触感を提示するようにした。
(3) 本発明のローカル端末は、物体の映像を取得する手段と、ディスプレイに表示される各物体の種別および位置を識別する手段と、識別結果を外部のサーバ装置へ送信し、ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を当該サーバ装置から取得する手段と、物体を表示するディスプレイに対するタッチ操作に基づいて触感要求位置を検知する手段と、触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段とを具備し、取得した触感パラメータに基づいて物体の触感を提示するようにした。
(4) 本発明の触感提示システムおよびローカル端末は、映像が動画の各フレーム画像であると、今回のフレーム画像に基づいて生成した触感情報を、前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を具備した。
(5) 今回フレームの全てのピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正する手段を具備した。
(6) 本発明の触感提示システムおよびローカル端末は、フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正する手段を適用しないようにした。
(7) 本発明の触感提示システムおよびローカル端末は、タッチ操作に基づいてディスプレイへの触り方を検知する手段を更に具備し、触感パラメータおよび触り方に基づいて物体の触感を提示するようにした。
(8) 本発明のサーバ装置は、物体の種別ごとに触感パラメータを保持する触感記憶手段と、ローカル端末からそのディスプレイに表示される映像の情報を取得して、ディスプレイに表示される各物体の種別および位置を識別する手段と、各物体の種別および位置の識別結果に基づいて触感記憶手段を参照し、ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段とを具備し、前記触感情報をローカル端末へ応答するようにした。
(9) 本発明のサーバ装置は、物体の種別ごとに触感パラメータを保持する触感記憶手段と、ローカル端末からそのディスプレイに表示される各物体の種別および位置の識別結果を取得し、前記触感記憶手段に基づいてディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段とを具備し、前記触感情報をローカル端末へ応答するようにした。
(1) 本発明によれば、タッチパネルディスプレイに表示される物体の種別および位置が識別され、ユーザが触感を体感したい物体の表示位置にタッチすると、当該タッチ位置に表示されている物品の識別結果に基づいてその触感パラメータが取得されて触感が再現されるので、ユーザはタッチパネルディスプレイに表示される任意の物体の触感を体感できるようになる。
その結果、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を体験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。
(2) 映像が動画の各フレーム画像であると、今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正することができるので、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。
(3) 今回フレームの各ピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正するので、種別の推定結果を時間的、空間的に抽象化できる。したがって、種別の推定において一時的あるいは部分的な誤認識が生じたとしても、触感提示への影響を軽減できるようになる。
(4) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないようにしたので、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。
(5) タッチ操作に基づいてディスプレイへの触り方を検知する手段を更に具備し、触感パラメータおよび触り方に基づいて物体の触感を提示するようにしたので、触り方に応じて変化する触感も正確に提示できるようになる。
(6) 本発明のサーバ装置によれば、触感提示に係る処理の一部をローカル端末に代わって実施できるので、処理能力の低いローカル端末にも触感提示機能を付与することが可能になる。
本発明の第1実施形態に係る触感提示システムの機能ブロック図である。 触感情報の例を示した図である。 本発明を適用した触感提示方法のフローチャートである。 触感提示システムをローカル端末及びサーバ装置で構成した第2実施形態の機能ブロック図である。 図4に示した触感提示システムのシーケンスフローである。 触感提示システムをローカル端末及びサーバ装置で構成した第3実施形態の機能ブロック図である。 図6に示した触感提示システムのシーケンスフローである。 触感提示システムをローカル端末で構成した第4実施形態の機能ブロック図である。 マップ修正部を備えた第5実施形態に係る触感提示システムの機能ブロック図である。 マップ修正部の機能を説明した図である。 マップ修正部をローカル端末に備えた第6実施形態に係る触感提示システムの機能ブロック図である。 今回フレームの触感要求位置の種別を修正する方法を模式的に示した図である。 カメラの切替わりや物体の入替わりを検知する方法を模式的に示した図である。 マップ修正部をサーバ装置に備えた第7実施形態に係る触感提示システムの機能ブロック図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係る触感提示システム10の機能ブロック図である。本発明の触感提示システム10は、複数の物体を表示するディスプレイ上でユーザが指定した物体の触感を当該ユーザに提示して体感させる。なお、以下の実施形態は本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。
映像取得部100は、被写体として物体を含む静止画像または動画映像(以下、映像またはフレーム画像で代表する)をネットワーク経由またはローカルに取得し、タッチパネルディスプレイ102に表示する。物体識別部101は、種別識別部101aおよび位置識別部101bを含み、タッチパネルディスプレイ102に表示される物体の種別および位置座標をそれぞれ識別する。位置座標は、平面的な2D位置座標であっても良いし、奥行き情報(z軸方向)を加えた立体的な3D位置座標であっても良い。
前記種別識別部101aとしては、矩形領域として二次元の位置座標を推定するYOLO、あるいは自由形状の領域として二次元の位置座標を推定するDeepLabなどのアルゴリズムを使用できる。奥行き情報を推定するアルゴリズムとしてはPlaneNetなどを使用できる。また、TOF (Time of Flight) センサ等により物体の奥行き情報を取得している場合はその値を用いてもよい。
触感データベース(DB)103には、物体の種別ごとに、後に詳述する触感発生装置108のアクチュエータを制御して物体の触感をユーザに提示させるための触感パラメータが保持されている。触感パラメータには、物体ごとに固有の「ヤング率」、「表面粗さ」あるいは「熱伝導率」といった物質特性に対応するパラメータ、および/または「硬さ感」、「粗さ感」あるいは「ひんやり感」といった触感の知覚強度に対応するパラメータが含まれる。触感発生装置108が振動素子や電熱素子等のアクチュエータを含む場合、触感のクオリティを高めるために振動素子の振動波形や電熱素子の駆動電流などの制御信号を触感パラメータに加えても良い。
触感情報生成部104は、物体識別部101から取得した各物体の種別に対応した触感パラメータを前記触感データベース103から取得し、図2に一例を示したように、タッチパネルディスプレイ102における各物体の位置座標を定義する認識物体マップd1と各物体の種別と触感パラメータとを対応付ける触感データサブセットd2とから構成される触感情報Dを生成する。
触感要求検知部105は、位置検知部105aおよび触り方検知部105bを含む。位置検知部105aは、物体を表示しているタッチパネルディスプレイ102のタッチパネル部102aに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知する。触り方検知部105bは、前記タッチ操作に基づいて、タッチ速度やタッチ圧の時系列変化を"触り方Q"として検知する。
触感パラメータ取得部106は、前記触感情報Dから触感要求位置Pに基づいて当該ユーザが触感を要求した物体の触感パラメータを取得する。触感提示信号生成部107は、前記触感要求位置P,触り方Qおよび触感パラメータを、予め学習した所定のモデル式に適用して触感提示信号を生成する。
例えば、垂直方向への押し込み力に応じて振動アクチュエータの出力を制限したり、あるいは水平方向へのなぞり操作による触り方を検知した場合に、なぞり操作の位置および移動速度をバネ-ダンパ系で表現される運動方程式に導入し、対象物体の振動や横滑りをシミュレーションすることで、アクチュエータを駆動する触感提示信号を生成できる。 触感発生装置108は、ユーザの振動覚、力覚あるいは温度覚等の少なくとも1つに作用して物体の触感を疑似的に発生させる少なくとも一つのアクチュエータを含み、前記触感提示信号に基づいて各アクチュエータを制御することで各触感を合成し、触感提示部108aを介してユーザに物体の触感を体感させる。
このような触感発生装置108としては、例えば、ペン型デバイス、グローブ型デバイスまたはフィンガーキャップ型デバイスを用いることができる。あるいは、触感発生装置108を光透過型のフィルム状またはパネル状に構成し、タッチパネルディスプレイ102の表示面に重ねて設けても良い。
触感の合成方法は、作用する触感や使用するアクチュエータによって様々であるが、ここでは振動覚、力覚、温度覚のそれぞれに対して、タッチパネルに表示された物体の触感特徴を表現する触感合成手法の一例を説明する。
振動覚に作用するアクチュエータとして、偏心モータあるいはハプティック(登録商標)リアクタのように触感提示用に最適化された振動素子を用いれば、ユーザのタッチ操作に応じた触感を提示することができる。例えば、タッチパネルディスプレイ102に表示された物体を撫でる動作中に振動を提示すれば、当該物体の表面凹凸に起因する振動や粗さ感を表現できる。また、タッチパネルディスプレイ102に表示された物体にタッチあるいは押し込んだ瞬間に固有減衰振動を提示すれば当該物体の硬さ感を表現できる。
力覚に作用するアクチュエータとしてモータを用いるのであれば、モータの駆動力を用いてタッチパネルディスプレイ自体を動かし、あるいはユーザの手指に取り付けた治具を動かすことで触感を提示することができる。このとき、物体の奥行き情報に基づいて、タッチパネルディスプレイ102に表示された物体への押し込み動作を検知し、検知結果に基づいてモータの駆動力あるいは回転量を制御することで当該物体の弾性や柔らかさを表現できる。
温度覚に作用するアクチュエータとしてペルチェ素子を用いることができる。この場合、物体のひんやり感や熱伝導率のパラメータに応じて素子の駆動電流を制御することで触感を合成できる。
図3は、前記触感提示システムの動作を示したフローチャートであり、ステップS1では、物体を被写体とする映像が前記映像取得部100によりネットワーク経由または内蔵メモリ等からフレーム単位で取得される。
ステップS2では、前記映像がディスプレイ102に表示され、これと並行または前後して、ステップS3では前記識別部101がフレーム画像から抽出した各物体の種別を種別識別部101aが識別し、ステップS4では、位置識別部101bが各物体のディスプレイ102上での位置座標を識別し、ステップS5では、前記触感情報生成部104が物体の種別および位置の識別結果ならびに触感データベース103に基づいて触感情報Dを生成する。
ステップS6では、前記触感要求検知部105により、ユーザがディスプレイ102にタッチ操作したか否かが判断される。タッチ操作が検知されると、触感要求検知部105がその位置を触感要求位置Pと認識し、さらに触り方Qを検知してステップS7へ進む。ステップS7では前記触感情報Dを参照し、認識物体マップd1上での触感要求位置Pと対応付けられた触感パラメータが触感データサブセットd2から取得される。
ステップS8では、前記触感要求位置P、触り方Qおよび触感パラメータがモデル式に適用されて触感提示信号が生成される。ステップS9では、前記触感提示信号が触感発生装置108へ出力され、その触感提示部108aによって前記物体の触感がユーザに提示される。したがって、ユーザはディスプレイに表示される任意の物体の触感を触感提示部108aにおいて体感できるようになる。
本実施形態によれば、ユーザはタッチパネルディスプレイに表示される任意の物体の触感を体感できるので、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を体験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。
図4は、本発明の第2実施形態に係る触感提示システムの構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態では、触感提示システム10の各機能が、スマートフォンに代表されるローカル端末1とネットワーク上のサーバ装置2とに分散配置され、各機能が連携動作することで触感提示が実現される点に特徴がある。
ローカル端末1において、触感情報取得部104aは、映像取得部100が取得した映像の情報をサーバ装置2へ送信し、前記物体識別マップd1および触感データセットd2から構成される触感情報Dを当該サーバ装置2から取得する。触感発生装置108は、USB、無線LANあるいはBluetooth(登録商標)等の適宜の無線/有線インタフェースを介してローカル端末1に外付けされている。
図5は、本実施形態の動作を示したシーケンスフローであり、時刻t1では、ローカル端末1の映像取得部100が物体のフレーム画像を取得する。時刻t2では、触感情報取得部104aがフレーム画像の情報を含む触感情報要求をネットワーク経由でサーバ装置2へ送信する。時刻t3では、前記フレーム画像がタッチパネルディスプレイ102に表示される。
サーバ装置2は、前記触感情報要求を受信すると、時刻t4において、識別部101がフレーム画像から物体を抽出し、更に各物体の種別および位置座標を識別する。時刻t5では、サーバ装置2から触感DB103へ、前記物体の種別を記述したパラメータ要求が送信される。触感DB103は、時刻t6において前記物体種別に対応した触感パラメータをサーバ装置2へ応答する。
サーバ装置2は、時刻t7において、取得した各物体の触感パラメータおよび位置座標に基づいて、前記図2を参照して説明した触感情報Dを生成し、時刻t8において当該触感情報Dをローカル端末1へ応答する。
これと並行して、時刻t9では、ローカル端末1の触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知し、さらにタッチ速度やタッチ圧の時系列変化を触り方Qとして検知する。
ローカル端末1では、時刻t10において、触感パラメータ取得部106が前記触感情報Dから触感要求位置Pに基づいて前記ユーザが要求した物体の触感パラメータを取得する。時刻t11では、前記触感提示信号生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感提示信号を生成する。
時刻t12では、前記触感提示信号を含む駆動要求が触感発生装置108へ提供される。触感発生装置108は、時刻t13において、受信した触感提示信号に基づいてアクチュエータを駆動することで触感提示部108aの振動や温度等を制御し、物体の触感を再現する。
本実施形態によれば、触感提示に要する複数の機能をローカル端末1およびサーバ装置2に分散できるので、処理能力の低いローカル端末にも触感提示機能を付与できるようになる。
図6は、本発明の第3実施形態の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は第2実施形態と比較して、識別部101がローカル端末1に実装された点に特徴がある。
図7は、第3実施形態の動作を示したシーケンスフローであり、時刻t21では、ローカル端末1の映像取得部100がフレーム画像を取得し、時刻t22においてタッチパネルディスプレイ102に表示する。時刻t23では、識別部101が前記フレーム画像から物体を抽出し、各物体の種別およびディスプレイ102上での位置座標を識別する。
時刻t24では前記物体の種別が記述された触感情報要求がローカル端末1からサーバ装置2へ送信される。時刻t25では、前記触感情報要求に記述されている物体種別を含むパラメータ要求がサーバ装置2から触感DB103へ送信される。時刻t26では、前記パラメータ要求に対して前記物体種別に対応した触感パラメータが触感DB3からサーバ装置2へ応答される。時刻t27では、サーバ装置2の触感情報生成部104により、取得した触感パラメータおよび物体の位置座標に基づいて、前記物体識別マップd1および触感データセットd2から構成される触感情報Dが生成される。
これと並行して、時刻t29では、ローカル端末1の前記触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて触感要求位置Pおよび触り方Qを検知する。時刻t30では、前記触感パラメータ取得部106が、前記触感情報Dから触感要求位置Pに基づいて触感パラメータを取得する。
時刻t31では、前記触感提示信号生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感提示信号を生成する。時刻t32では、前記触感提示信号を含む駆動要求が触感発生装置108へ提供される。触感発生装置108は、時刻t33において、受信した触感提示信号に基づいてアクチュエータを駆動することで触感提示部108aの振動や温度等を制御し、物体の触感を再現する。
本実施形態によれば、第2実施形態との比較で、触感提示に係るローカル端末1の処理負荷は増えるが、ローカル端末1とサーバ装置2との間のトラヒック量を低減できるようになる。
図8は、本発明の第4実施形態の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているのでその説明は省略する。本実施形態は、触感提示システム10の全ての機能をローカル端末1に実装した点に特徴がある。ただし、触感発生装置108は適宜のインタフェースを介してローカル端末1に外付けされるようにしても良い。
図9は、本発明の第5実施形態に係る触感提示システム10の他の構成を示した機能ブロック図であり、触感情報生成部104が生成した認識物体マップd1を修正するマップ修正部109を具備した点に特徴がある。
触感情報生成部104は、映像が動画であれば識別部101による識別結果に基づいてフレーム単位で認識物体マップd1を生成する。このとき識別部101aの識別精度、画像中の光陰、映像ノイズ等の影響により、図10に示したように、フレーム間で一時的かつ部分的に物体の種別が誤認識され、認識物体マップd1の一部に誤りが生じることがある。このような誤認識は、特に自由形状に基づいて物体の種別を推定する識別アルゴリズムにおいて顕著に発生する。
誤認識された領域が触感要求位置Pとして指定されると、誤った触感パラメータに基づいて誤った触感が提示され、さらに次フレームで正しい触感パラメータに基づいて正しい触感が提示されると、短時間での触感変化がノイズの要因となり、提示触感のクオリティが著しく低下する。
マップ修正部109は、物体の種別が誤認識されて認識物体マップd1の一部に誤りが生じることに起因した提示触感のクオリティ低下を防止するために、今回フレームの認識物体マップd1を過去の複数フレーム分の認識物体マップd1に基づいて修正する。これにより、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。
図11は、前記マップ修正部109の機能を備えた本発明の第6実施形態の構成を示した機能ブロック図であり、ローカル端末102にマップ修正部109aが実装された点に特徴がある。
マップ修正部109aは、今回フレームの認識物体マップd1に加えて、過去nフレーム分(本実施形態では、過去4フレーム分)の認識物体マップd1を保持し、図12に示したように、触感要求位置Pが検知されると、当該触感要求位置Pの座標を中心に、例えば5ピクセル四方、併せて125ピクセル分の識別結果を各認識物体マップd1から抽出する。そして、触感要求位置Pの座標を起点に過去フレームのピクセルごとに時間的あるいはピクセル間距離に基づくタグIDの重み付き線形和を計算する。ここで、タグIDは各物体の識別結果に固有の識別子である。
本実施形態では、今回フレームの認識物体マップd1における触感要求位置Pの位置座標を(xt, yt)とし、fフレーム前の認識物体マップd1における各ピクセルの位置座標(x, y)に対応したタグIDをvxyfとし、過去kフレームに遡って、(2N+1)ピクセル×(2M+1)ピクセルの矩形領域を対象にタグIDを抽出して線形和を求める。タグID (T)についての線形和E (T)は次式(1)で表すことができる。ただし、wxyfは今回フレームにおける触感要求位置P(xt, yt)からfフレーム前の認識物体マップj1における各ピクセル座標(x, y)までの線形和重みであり、f=0は現在のフレームを表す。
Figure 0007345387000001
そして、各タグIDについて求められた線形和のうち、最も値が大きい線形和、およびそれに対応するタグIDを選出し、その線形和が一定の閾値より大きければ、触感要求位置Pの位置座標(xt, yt)を、選出されたタグIDの領域と判断する。これに対して、線形和が閾値より小さければ、その位置座標(xt, yt)を背景領域と判断する。
本実施形態によれば、推定結果を時間的、空間的に抽象化するため、触感情報生成部104において一時的あるいは部分的な誤認識が生じたとしても、触感提示への影響を軽減できる。
ただし、映像中にカメラ視点の切り替えや、映像中の物体の入れ替わりが発生した場合、マップ修正部109が過去のフレームに遡って重み付き線形和を算出すると、正しい推定結果が得られない可能性がある。
ここで、図13に示したように、認識物体マップj1において物体の識別結果(タグID)を画素データとしてヒストグラムを作成すると、このヒストグラムは、そのフレーム画像においてどの物体がどの程度の領域を占めているかを示す。そのため、「人」,「犬」,「車」が映っていたフレーム画像が、「人」のみが映ったフレーム画像に切り替わると、図示の通りヒストグラムが大きく変化する。
そこで、本実施形態ではタグIDについてのヒストグラムの値を過去数フレーム分保持して起き、今回フレームのヒストグラムと過去の各フレーム画像のヒストグラムとを比較することでカメラの切り替わりや物体の入れ替わりを検出する。
例えば、タグIDごとに過去フレームと今回フレームとの間の変動率を算出し、さらにタグID間の変動率の平均値を算出する。算出した平均値が閾値を超えていた場合は、カメラの切り替えや物体の入れ替えが起こったと判断できる。
ただし、ヒストグラムの対象領域をフレーム全体にしていた場合はフレームの部分的な変動に対応できない。このため、実際には1つのフレーム画像を部分区画に区切り、区画ごとにヒストグラムを算出することで各区画におけるカメラの切り替わりや物体の入れ替わりを検出することが望ましい。
上記手法により、ある領域においてカメラの切り替わりや物体の入れ替わりを検出したとき、ユーザがその領域の部分にタッチしていた場合には、検出以前のフレームを線形和の重みを再度設定しなおして、タッチ位置における物体の種別を再度判断する。これにより、カメラの切り替わりや物体の入れ替わりが起こるような映像においても、物体の誤認識の影響を軽減した触感提示が可能になる。
本実施形態によれば、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。また、本実施形態によれば、感触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正するので計算量を減じることができる。したがって、一般的に計算能力の低いローカル端末1への実装を実現できる。
図14は、前記マップ修正部109を含む本発明の第7実施形態の構成を示した機能ブロック図であり、前記マップ修正部109の機能をサーバ装置2において実現するマップ修正部109bが実装された点に特徴がある。
第6実施形態では、触感要求位置Pが検知されると、当該触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正したが、サーバ装置2にとって触感要求位置Pは未知である。そこで、第7実施形態ではマップ修正部109bが今回フレームに関して生成した認識物体マップの全てのピクセルに関して、予め上記と同様の手順を繰り返すことで認識物体マップd1を修正する。
本実施形態によれば、一般的に処理負荷の高い認識物体マップd1の修正処理をサーバ装置に負担させることができるので、ローカル端末1の処理負荷を軽減できるようになる。
1…ローカル端末,2…サーバ装置,10…触感提示システム,100…映像取得部,101…物体識別部,101a…種別識別部,101b…位置識別部,102…タッチパネルディスプレイ,103…触感データベース(DB),104…触感情報生成部,105…触感要求検知部,106…触感パラメータ取得部,107…触感提示信号生成部,108…触感発生装置,108a…触感提示部,109,109a,109b…マップ修正部

Claims (16)

  1. ディスプレイに表示される物体の触感を提示する触感提示システムにおいて、
    物体の映像を取得する手段と、
    物体の種別ごとに触感パラメータを保持する触感記憶手段と、
    ディスプレイに表示される物体の種別および位置を識別する手段と、
    前記物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成する手段と、
    物体を表示するディスプレイに対するタッチ操作に基づいて触感要求位置を検知する手段と、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手段と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段と、
    取得した触感パラメータに基づいて、前記触感要求位置に表示された物体の触感を提示する手段とを具備したことを特徴とする触感提示システム。
  2. 前記タッチ操作に基づいて前記ディスプレイへの触り方を検知する手段を更に具備し、
    前記物体の触感を提示する手段は、前記取得した触感パラメータおよび触り方に基づいて物体の触感を提示することを特徴とする請求項1に記載の触感提示システム。
  3. ディスプレイに表示される物体の触感を提示する触感提示システムのローカル端末において、
    物体の映像を取得する手段と、
    前記映像の情報を外部のサーバ装置へ送信し、前記ディスプレイ上の各位置と当該各位置に表示されている物体の種別及びその触感パラメータとを対応付ける触感情報を当該サーバ装置から取得する手段と、
    前記ディスプレイに対するタッチ操作に基づいて触感要求位置を検知する手段と、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手段と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段とを具備し、
    取得した触感パラメータに基づいて、前記触感要求位置に表示された物体の触感を提示することを特徴とする触感提示システムのローカル端末。
  4. ディスプレイに表示される物体の触感を提示する触感提示システムのローカル端末において、
    物体の映像を取得する手段と、
    ディスプレイに表示される各物体の種別および位置を識別する手段と、
    前記識別結果を外部のサーバ装置へ送信し、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を当該サーバ装置から取得する手段と、
    前記ディスプレイに対するタッチ操作に基づいて触感要求位置を検知する手段と、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手段と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段とを具備し、
    取得した触感パラメータに基づいて、前記触感要求位置に表示された物体の触感を提示することを特徴とする触感提示システムのローカル端末。
  5. フレームごとに種別ヒストグラムを作成し、
    種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正する手段を適用しないことを特徴とする請求項3または4に記載の触感提示システムのローカル端末。
  6. 前記タッチ操作に基づいて前記ディスプレイへの触り方を検知する手段を更に具備し、
    前記物体の触感を提示する手段は、前記取得した触感パラメータおよび触り方に基づいて物体の触感を提示することを特徴とする請求項3ないし5のいずれかに記載の触感提示システムのローカル端末。
  7. ローカル端末に物体の触感を提示させる触感提示システムのサーバ装置において、
    物体の種別ごとに触感パラメータを保持する触感記憶手段と、
    ローカル端末からそのディスプレイに表示される映像の情報を取得して、前記ディスプレイに表示される各物体の種別および位置を識別する手段と、
    前記各物体の種別および位置の識別結果に基づいて前記触感記憶手段を参照し、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成する手段と、
    今回フレームの各位置の種別を、当該今回フレームの各位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手段とを具備し、
    前記触感情報を前記ローカル端末へ応答することを特徴とする触感提示システムのサーバ装置。
  8. ローカル端末に物体の触感を提示させる触感提示システムのサーバ装置において、
    物体の種別ごとに触感パラメータを保持する触感記憶手段と、
    ローカル端末からそのディスプレイに表示される各物体の種別および位置の識別結果を取得し、前記触感記憶手段に基づいて前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成する手段と、
    今回フレームの各位置の種別を、当該今回フレームの各位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手段とを具備し、
    前記触感情報を前記ローカル端末へ応答することを特徴とする触感提示システムのサーバ装置。
  9. フレームごとに種別ヒストグラムを作成し、
    種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正する手段を適用しないことを特徴とする請求項7または8に記載の触感提示システムのサーバ装置。
  10. コンピュータが、ディスプレイに表示される物体の触感を提示する触感提示方法において、
    物体の映像をディスプレイに表示し、
    ディスプレイに表示される物体の種別および位置を識別し、
    前記種別および位置の識別結果に基づいて、物体の種別ごとに触感パラメータを保持する触感記憶手段を参照し、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成し、
    前記ディスプレイに対するユーザのタッチ操作に基づいて触感要求位置を検知し、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正し、
    前記触感要求位置に基づいて前記触感情報から触感パラメータを取得し、
    取得した触感パラメータに基づいて、前記触感要求位置に表示された物体の触感を生じさせることを特徴とする触感提示方法。
  11. ローカル端末にそのディスプレイに表示される物体の触感を提示させる触感提示プログラムおいて、
    物体の映像を取得する手順と、
    前記映像の情報を外部のサーバ装置へ送信する手順と、
    前記サーバ装置から前記ディスプレイ上の各位置と当該各位置に表示されている物体の種別及びその触感パラメータとを対応付ける触感情報を取得する手順と、
    前記ディスプレイに対するユーザのタッチ操作に基づいて触感要求位置を検知する手順と、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手順と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手順と、
    取得した触感パラメータに基づいて物体の触感を生じさせる手順と、
    をローカル端末に実行させる触感提示プログラム。
  12. ローカル端末にそのディスプレイに表示される物体の触感を提示させる触感提示プログラムおいて、
    物体の映像を取得する手順と、
    前記ディスプレイ上での物体の種別および位置を識別する手順と、
    前記識別の結果を外部のサーバ装置へ送信する手順と、
    前記サーバ装置から前記ディスプレイ上での各物体の位置と前記種別及びその触感パラメータとを対応付ける触感情報を取得する手順と、
    前記ディスプレイに対するユーザのタッチ操作に基づいて触感要求位置を検知する手順と、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手順と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手順と、
    取得した触感パラメータに基づいて物体の触感を生じさせる手順と、
    をローカル端末に実行させる触感提示プログラム。
  13. ローカル端末にそのディスプレイに表示される物体の触感を提示させる触感提示プログラムおいて、
    物体の映像を取得する手順と、
    前記ディスプレイ上での物体の種別および位置を識別する手順と、
    前記種別および位置の識別結果に基づいて、物体の種別ごとに触感パラメータを保持する触感記憶手段を参照し、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成する手順と、
    前記ディスプレイに対するユーザのタッチ操作に基づいて触感要求位置を検知する手順と、
    今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手順と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手順と、
    取得した触感パラメータに基づいて物体の触感を生じさせる手順と、
    をローカル端末に実行させる触感提示プログラム。
  14. 前記タッチ操作に基づいて前記ディスプレイへの触り方を検知する手順を更に含み、
    前記取得した触感パラメータおよび触り方に基づいて物体の触感を提示することを特徴とする請求項11ないし13のいずれかに記載の触感提示プログラム。
  15. ローカル端末に物体の触感を提示させるサーバ装置の触感提示プログラムにおいて、
    ローカル端末からそのディスプレイに表示される映像の情報を取得する手順と、
    前記取得した映像の情報に基づいて、前記ディスプレイ上での各物体の種別および位置を識別する手順と、
    前記各物体の種別および位置の識別結果に基づいて、物体の種別ごとに触感パラメータを保持する触感記憶手段を参照し、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成する手順と、
    今回フレームの各位置の種別を、当該今回フレームの各位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手順と、
    前記触感情報をローカル端末へ応答する手順と、
    をサーバ装置に実行させる触感提示プログラム。
  16. ローカル端末に物体の触感を提示させるサーバ装置の触感提示プログラムにおいて、
    ローカル端末からそのディスプレイに表示される各物体の種別および位置の識別結果を取得する手順と、
    前記識別結果に基づいて、物体の種別ごとに触感パラメータを保持する触感記憶手段を参照し、前記ディスプレイ上の各位置と前記種別及びその触感パラメータとを対応付ける触感情報を生成する手順と、
    今回フレームの各位置の種別を、当該今回フレームの各位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正する手順と、
    前記触感情報を前記ローカル端末へ応答する手順と、
    をサーバ装置に実行させる触感提示プログラム。
JP2019235858A 2019-12-26 2019-12-26 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム Active JP7345387B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019235858A JP7345387B2 (ja) 2019-12-26 2019-12-26 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235858A JP7345387B2 (ja) 2019-12-26 2019-12-26 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム

Publications (2)

Publication Number Publication Date
JP2021105778A JP2021105778A (ja) 2021-07-26
JP7345387B2 true JP7345387B2 (ja) 2023-09-15

Family

ID=76918809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235858A Active JP7345387B2 (ja) 2019-12-26 2019-12-26 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム

Country Status (1)

Country Link
JP (1) JP7345387B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010105012A1 (en) 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for a texture engine
JP2012226480A (ja) 2011-04-18 2012-11-15 Kyocera Corp 通信端末、サーバ、触覚フィードバック生成方法および通信システム
JP2018073424A (ja) 2016-10-31 2018-05-10 イマージョン コーポレーションImmersion Corporation 検出されたビデオイベントに基づく動的触覚生成
WO2018212809A1 (en) 2017-05-19 2018-11-22 Google Llc Efficient image analysis using environment sensor data
JP2019121368A (ja) 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 直観的な触覚設計

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3099435B2 (ja) * 1991-06-25 2000-10-16 日本電気株式会社 画像領域判定装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010105012A1 (en) 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for a texture engine
JP2012520137A (ja) 2009-03-12 2012-09-06 イマージョン コーポレイション テクスチャエンジン用のシステム及び方法
JP2012226480A (ja) 2011-04-18 2012-11-15 Kyocera Corp 通信端末、サーバ、触覚フィードバック生成方法および通信システム
JP2018073424A (ja) 2016-10-31 2018-05-10 イマージョン コーポレーションImmersion Corporation 検出されたビデオイベントに基づく動的触覚生成
WO2018212809A1 (en) 2017-05-19 2018-11-22 Google Llc Efficient image analysis using environment sensor data
JP2019121368A (ja) 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 直観的な触覚設計

Also Published As

Publication number Publication date
JP2021105778A (ja) 2021-07-26

Similar Documents

Publication Publication Date Title
JP5147933B2 (ja) 人−機械インターフェース装置システム及び方法
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
CN103858074B (zh) 经由3d显示器与装置交互的***和方法
US20160048230A1 (en) Image processing apparatus and method, and program
KR101507242B1 (ko) 영상 분석을 통하여 모션 햅틱 효과를 제공하는 장치 및 방법
JP2022537810A (ja) クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識
CN110070556A (zh) 使用深度传感器的结构建模
US11157084B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
US11682138B2 (en) Localization and mapping using images from multiple devices
KR102142876B1 (ko) 클라우드 기반의 가상현실 서비스를 위한 버퍼 관리 방법 및 장치
JP2016105279A (ja) 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品
US20210407125A1 (en) Object recognition neural network for amodal center prediction
JP6724582B2 (ja) 画像生成装置、画像生成プログラム及び画像生成方法
CN115515487A (zh) 基于使用多视图图像的3d人体姿势估计的基于视觉的康复训练***
Rasool et al. Real-time haptic interaction with RGBD video streams
US20200211275A1 (en) Information processing device, information processing method, and recording medium
JP7345387B2 (ja) 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム
JPWO2018235744A1 (ja) 情報処理装置、制御方法、及びプログラム
CN109407824A (zh) 人体模型的同步运动方法与装置
CA2690826A1 (en) Automatic 3d modeling system and method
CN114167997B (zh) 一种模型显示方法、装置、设备和存储介质
JP7235689B2 (ja) 触感提示方法、システムおよびプログラム
JP7252916B2 (ja) 触感提示方法、システムおよびプログラム
KR20230095197A (ko) 3차원 공간에서 생성한 인지적 매쉬 정보와 가상 객체들간의 상호작용 방법 및 그 장치
JP5620449B2 (ja) 人−機械インターフェース装置システム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230905

R150 Certificate of patent or registration of utility model

Ref document number: 7345387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150