JP2015185167A - 感覚データを触覚効果に変換するシステム及び方法 - Google Patents

感覚データを触覚効果に変換するシステム及び方法 Download PDF

Info

Publication number
JP2015185167A
JP2015185167A JP2015055955A JP2015055955A JP2015185167A JP 2015185167 A JP2015185167 A JP 2015185167A JP 2015055955 A JP2015055955 A JP 2015055955A JP 2015055955 A JP2015055955 A JP 2015055955A JP 2015185167 A JP2015185167 A JP 2015185167A
Authority
JP
Japan
Prior art keywords
sensor
haptic
event
signal
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015055955A
Other languages
English (en)
Other versions
JP6585358B2 (ja
Inventor
サボウヌ,ジャマール
Saboune Jamal
マヌエル クルス−ヘルナンデス,ファン
Manuel Cruz-Hernandez Juan
マヌエル クルス−ヘルナンデス,ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015185167A publication Critical patent/JP2015185167A/ja
Application granted granted Critical
Publication of JP6585358B2 publication Critical patent/JP6585358B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/18Timing circuits for raster scan displays
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • H04N21/44224Monitoring of user activity on external systems, e.g. Internet browsing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Remote Sensing (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Ecology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】触覚信号を受信し、触覚信号に基づいて触覚効果を生成するシステムを提供する。【解決手段】センサ102と、センサ102からの信号を受信し、センサ102に対応するイベント及びアクティビティの種類を決定し、センサ102からの信号及びセンサ102に対応するイベント及びアクティビティの種類に基づいて触覚信号を生成するように構成されたプロセッサ110と、触覚信号に基づいて触覚効果を生成するように構成された触覚出力装置118とを備える。【選択図】図1

Description

(関連出願の相互参照)
本出願は、2014年3月21日に出願された米国仮特許出願第61/968,799号からの優先権の利益を請求するものであり、この出願の全内容が引用により本明細書に組み入れられる。
本発明は感覚データを触覚効果に変換するシステム及び方法に関し、これらのシステム及び方法は例えばスポーツメディア及びユーザが生成するコンテンツメディアにおいて使用される。
ビデオクリップ内の適切な時間に人の注意を引く触覚効果を追加すれば、ユーザの鑑賞体験を向上させ、その体験をより没入度の高いものにすることができる。これは触覚効果を手動で作成し、タイムラインに追加することで実現できる。しかしながら、触覚効果を手動で作成することは、慣れないユーザにとっては時間のかかることであり、ユーザが当該効果を作成するために十分な時間を費やす意思がある場合であっても、経験豊かな触覚効果の作成者が持つ芸術的な技巧を持たないため、体験を台無しにする好ましくない効果となってしまう。
メディアコンテンツ内での動作に関わるデータを一又は複数のセンサで取込み、当該コンテンツの作品のための触覚効果を自動的に得ることができるシステム及び方法が求められている。
本発明の一態様によれば、センサと、前記センサによって出力された信号を受信し、前記センサの位置及び記述子を決定し、動画のシーン選択を決定し、前記選択されたシーン、前記センサによって出力された前記信号、及び前記センサの位置及び記述子に基づいて触覚信号を生成するように構成されたプロセッサと、前記触覚信号を受信し、前記触覚信号に基づいて触覚効果を生成するように構成された触覚出力装置と、を備えるシステムが提供される。
一実施形態において、前記プロセッサがさらに、求める触覚効果を決定し、前記選択されたシーン、前記センサによって出力された前記信号、前記センサの位置及び記述子、及び前記求める触覚効果に基づいて前記触覚信号を生成するように構成される。
一実施形態において、前記センサが、加速度計、ジャイロスコープ、慣性計測装置、及び接触センサからなる群から選択される。
一実施形態において、前記システムは、前記システムのユーザが前記センサの位置及び/又は記述子を指示することを可能にするように構成されたユーザ入力装置を備える。
一実施形態において、前記システムは、前記システムのユーザが前記シーンを選択することを可能にするように構成されたユーザ入力装置を備える。
一実施形態において、前記システムは、前記システムのユーザが前記求める触覚効果を選択することを可能にするように構成されたユーザ入力装置を備える。
一実施形態において、前記プロセッサが前記選択されたシーンの動画と前記触覚信号とを同期させるように構成される。
一実施形態において、前記システムは、前記触覚出力装置によって生成された前記触覚効果と同期された前記選択されたシーンの前記動画を表示するように構成されたディスプレイを備える。
一実施形態において、前記システムは、複数のセンサを備え、前記プロセッサが前記複数のセンサから出力された信号を受信し、前記複数のセンサの位置及び記述子を決定し、前記選択されたシーン、前記複数のセンサによって出力された前記信号、及び前記複数のセンサの位置及び記述子に基づいて前記触覚信号を生成するように構成される。
本発明の一態様によれば、センサからセンサデータを受信する工程と、前記センサの位置及び記述子を決定する工程と、動画のシーン選択を決定する工程と、前記選択されたシーン、前記センサデータ、及び前記センサの位置及び記述子に基づいて触覚信号を生成する工程と、を備える方法が提供される。
一実施形態において、前記方法は、前記動画の前記選択されたシーンと前記触覚信号とを同期させる工程を備える。
一実施形態において、前記方法は、複数のセンサからセンサデータを受信する工程と、前記複数のセンサの位置及び記述子を決定する工程と、前記選択されたシーン、前記センサデータ、及び前記複数のセンサの位置及び記述子に基づいて前記触覚信号を生成する工程と、を備える。
本発明の一態様によれば、センサと、前記センサからの信号を受信し、前記センサに対応するイベント及びアクティビティの種類を決定し、前記センサからの前記信号及び前記センサに対応するイベント及びアクティビティの種類に基づいて触覚信号を生成するように構成されたプロセッサと、前記触覚信号に基づいて触覚効果を生成するように構成された触覚出力装置と、を備えるシステムが提供される。
一実施形態において、前記センサが、加速度計、ジャイロスコープ、慣性計測装置、及び接触センサからなる群から選択される。
一実施形態において、前記イベントの種類が、衝突イベント、揺動イベント、加速度イベント、回転イベント、着地イベント、及び感触接触イベントからなる群から選択される。
一実施形態において、前記アクティビティがバイク乗車、モトクロス、スノーボード滑走、及びスキーからなる群から選択される。
一実施形態において、前記プロセッサが前記イベントの動画と前記触覚信号とを同期させるようにさらに構成される。
一実施形態において、前記システムは、前記触覚出力装置によって生成された前記触覚効果と同期された前記イベントの前記動画を表示するように構成されたディスプレイをさらに備える。
一実施形態において、前記システムは、前記触覚出力装置によって出力される前記触覚効果を選択するために、前記プロセッサに入力を提供するように構成されたユーザ入力装置をさらに備え、前記触覚効果は、衝突効果、揺動効果、感触効果、空中時間効果、加速度エンベロープ、及び回転エンベロープからなる群から選択される。
本発明の一態様によれば、センサによって出力されたセンサデータを受信する工程と、前記センサデータに対応するイベント及びアクティビティの種類を選択する工程と、前記センサデータ、前記イベント及びアクティビティの種類に基づいて触覚信号を生成する工程と、を備える方法が提供される。
一実施形態において、前記センサによって出力されたセンサデータを受信する工程は、複数のセンサによって出力されたセンサデータを受信する工程を含む。
一実施形態において、前記方法は、前記イベントの動画と前記触覚信号とを同期させる工程を備える。
本発明の上記及び上記以外の目的、特徴、及び性質、並びに、関連する構成要素の動作方法及び機能、そして製造における各部分の組み合わせと経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。添付図面は例示及び説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書及び特許請求の範囲における用法によれば、単数形の「a」、「an」及び「the」には複数のものへの言及が含まれる。ただし、文脈によって別に解すべきことが明白な場合はこの限りでない。
以下の図面の構成要素は、本開示の一般的な原理を強調するように描写されており、必ずしも寸法通りには記載されていない。一貫性及び明瞭性を確保するために、対応する構成要素を指し示す参照番号は、必要に応じ、複数の図面にわたって繰り返し用いられる。
本発明の実施形態にかかるシステムの模式図である。
本発明の実施形態にかかる図1のシステムの一部分の模式図である。
本発明の実施形態にかかる図1のシステムの一部分の模式図である。
図1は、本発明の一実施形態に係るシステム100を示す。図示するように、システム100は、対象物の動きを感知し、感知した動きをセンサデータに変換するように構成された一又は複数のセンサ102と、画像の取り込みと記録を行うように構成された動画記録装置104と、音声の取込みと記録を行うように構成された音声記録装置106とを含む。一実施形態において、センサ102、動画記録装置104及び音声記録装置106は、同一の電子装置の一部であってもよい。一実施形態において、動画記録装置104及び音声記録装置106は、同一の電子装置の一部であり、センサ102は、動画記録装置104及び音声記録装置106を備える電子デバイスとは別個に設けられてもよい。一実施形態において、センサ102、動画記録装置104及び音声記録装置106は、別個に設けられてもよいし、スタンドアローンデバイス、又は、別個のスタンドアローンデバイスの一部分であってもよい。
プロセッサ110は、以下に詳細に説明するように、センサ102、動画記録装置104及び音声記録装置106によって出力される信号及びデータを処理するように構成される。システム100はまた、プロセッサ110の一部を構成していてもよい入力変換器112、出力変換器114、及び、プロセッサ110の一部を構成していてもよいデコーダ116を備える。入力変換器112、出力変換器114及びデコーダ116の態様については、以下に詳細に説明する。
図1に示すように、システム100はまた、システムのユーザに対して触覚効果を出力するように構成された触覚出力装置118、例えば、動画記録装置104が撮像した画像のような画像を表示するように構成されたディスプレイ120、及び、音声記録装置106によって録音された音声のような音声を出力するように構成されたスピーカ122を備える。触覚出力装置118、ディスプレイ120及びスピーカ122は、以下に更に詳細に説明するように、電子再生装置130の一部であってもよい。一実施形態において、触覚出力装置118、ディスプレイ120及びスピーカ122は、例えば、互いに無線により接続されるように構成された別個の装置であってもよい。一実施形態において、触覚出力装置118は、ウェアラブルデバイスの一部であってもよく、ディスプレイ120は、テレビの一部であってもよく、スピーカ122は、ディスプレイ120とは別個に設けられた無線スピーカであってもよい。
触覚出力装置118が含み得るアクチュエータは、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」)アクチュエータなどの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」)、または圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」を含むアクチュエータ、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または触覚(例えば、振動触知)フィードバックなどの物理的フィードバックを提供する他の種類のアクチュエータ、である。触覚出力装置118は、非機械的又は非振動装置、例えば、静電摩擦(「ESF」)や超音波表面摩擦(「USF」)を用いる装置、超音波触覚トランスデューサを用いて音響放射圧力を生じさせる装置、触覚基板及び可撓性もしくは変形可能な表面を用いる装置、又はエアジェットを用いた空気の吹きかけなどの発射型の触覚出力を提供する装置などを含んでもよい。
電子メモリ124は、センサ102が検出したデータを格納するのに使用されてもよく、電子メモリ126は、動画記録装置104によって記録されたデータを格納するのに使用されてもよく、電子メモリ128は、音声記録装置106によって記録されたデータを格納するのに使用されてもよい。メモリ124、126、128は、内部に固定された1つ又は複数の記憶ユニット、リムーバブル記憶ユニット及び/又はリモート・アクセスが可能な記憶ユニットを含む。これら様々な記憶ユニットは、揮発性メモリと不揮発性メモリとのいかなる組合せをも含み得る。記憶ユニットは、情報、データ、命令、ソフトウェアコード等の任意の組み合わせを格納するように構成されてもよい。センサ102、動画記録装置104、及び音声記録装置106が同一の電子装置の一部であってもよい実施形態では、メモリ124、126、128は、同じ位置に設けられてもよい。動画記録装置104及び音声記録装置106が同一の電子装置の一部であってもよい実施形態では、メモリ126、128は、同じ位置に設けられてもよい。
一実施形態において、ユーザは、動画記録装置104及び/又は音声記録装置106を使用して、現場又はイベントの動画及び/又は音声を記録してもよい。一実施形態において、動画記録装置104及び/又は音声記録装置106は、ビデオカメラ、スマートフォン等の同一の記録装置の一部であってもよい。記録された動画及び音声は、上記で説明したような電子メモリ126に格納されてもよい。一実施形態において、センサ102は、動画に記録されている対象物などの対象物に配置されてもよい。
上記したように、センサ102によって生成されるデータは、電子メモリ124に格納されてもよい。加えて、センサ102によって生成されるデータは、図1に示すような電子メモリ124に格納される前に、入力変換器112によって変換されてもよい。センサデータの変換は、任意に行われる段階と考えられ、変換が必要であるか否かは、使用されるセンサの性質による。センサ102の実施形態の詳細については後述する。
動画、すなわちメディアファイルを再生するように構成されたメディアプレーヤの一部を構成してもよいデコーダ116は、センサ102によって生成されたデータを電子メモリ124から読み出し、電子メモリ126に格納されている記録済みの音声データ及び動画データと、当該読み出したデータとを時間的に関連付ける。メディア再生の間に、デコーダ116は、センサのデータを出力変換器114を通過させてもよく、出力変換器114は、センサデータを触覚出力信号又は触覚感覚のコマンドへと変換するように構成される。触覚出力信号又は触覚感覚のコマンドは、これに限定されないが、例えば、振動、表面摩擦変調、皮膚をつまむ、皮膚を強く押す、といったものを含む。デコーダ116は、センサデータから変換された触覚出力信号と、動画データ及び音声データとを同期させて、再生の際に、触覚効果が、動画及び音声と同期されるようにする。一実施形態において、再生の間に動画データ、音声データ及び触覚効果における時間が一致していることを確かにすることで、完了する。
システム100はまた、プロセッサ110と信号通信を行いユーザがシステムにデータを入力することを可能にするように構成されたユーザ入力装置140を含んでもよい。例えば、ユーザはセンサ102及び触覚効果に関連するパラメータを選択することによってデータを入力してもよい。これについては後述する。ユーザ入力装置140は、メニュー又は他の種類の一覧形式でパラメータを表示するように構成されたディスプレイを含んでもよい。一実施形態において、ユーザ入力装置140は、再生装置130の一部分であってもよい。一実施形態において、ユーザ入力装置140は、動画記録装置1040の一部分であってもよい。図示した実施形態は、限定することを意図していない。
プロセッサ110は、汎用又は特殊用途プロセッサ、あるいはシステム100の動作及び機能を管理又は制御するマイクロ・コントローラである。例えば、プロセッサ110は、触覚効果を提供するために、触覚出力装置118への出力信号を制御する特定用途向け集積回路(application−specific integrated circuit:「ASIC」)として、特に設計されてもよい。プロセッサ110は、どのような触覚効果が生成され、当該触覚効果がどのような順序で生成され、および/またはどの程度の大きさ、頻度、持続時間、および/またはその他のパラメータを触覚効果が有するかを、所定の係数に基づいて決定する。また、プロセッサ110は、特定の触覚効果を提供するために触覚出力装置118を駆動するのに使用され得るストリーミング・コマンドを提供するように構成されてもよい。ある実施形態では、プロセッサ110は複数のプロセッサを含み、当該プロセッサの各々がシステム100の内部で特定の機能を果たすように構成されている。プロセッサ110は、触覚効果プロファイル、触覚出力装置118がどのように駆動されるべきか示した命令、及び/又は、触覚効果を生成するためのその他の情報を含んでもよい一の又は複数の記憶装置を備えるメモリを有してもよい。図1に示したシステム100全体が、一つの電子装置の一部である一実施形態では、メモリ124、126は、プロセッサ110の一部であってもよい。
触覚出力装置118を含む電子再生装置130を通じてメディアを体験する人が、再生されるイベントをより完全に体験できるようにするべく、触覚出力信号が、プロセッサ110、例えば、プロセッサ110ののデコーダ116から触覚出力装置118へと送信されてもよい。電子再生装置130は、電子携帯端末のような任意の装置であってよく、例えば、携帯電話、ゲーム機器、パーソナルデジタルアシスタント(PDA)、ポータブル電子メール装置、ポータブルインターネットアクセス装置、計算器、タブレット等であってもよい。電子再生装置130は、これに限定されないが、ディスプレイ120を備える携帯用デバイスを含んでもよい。ディスプレイ120は、メディアを再生する高画質ディスプレイであってもよい。電子再生装置130は更に、触覚感覚又は触覚効果を生成することができる携帯可能な物体、ユーザの身体に取り付けることができる物体、ユーザに寄り掛からせることができる物体、又は、ユーザに触知的感覚送信することができる物体を備えてもよい。
一実施形態において、プロセッサ110及び触覚出力装置118は、電子携帯用デバイスの一部であってもよく、電話又はタブレットの一部であってもよい。電子携帯用デバイスは、動画データを、例えばテレビである別個のディスプレイ120に出力するように構成されてもよい。
一実施形態において、システム100は、センサ102のためのジャイロスコープ、コンパス及び3軸加速度計センサを有する携帯電話、並びに、動画記録装置104のための内蔵カメラを備えてもよい。この例では、データ記録センサ102、動画記録装置104、音声記録装置106、デコーダ116及び出力変換器114を含むプロセッサ110、触覚出力装置118、ディスプレイ120、スピーカ122、入力変換器112、及び、電子メモリ124、126、128を含む、図1に示される全ての構成要素は、自己完結型であってもよい。また、システム100全体が、人又は対象のアクティビティを実行する機器の一部に取り付けられてもよい。
一実施形態において、一人称視点ビデオカメラをヘルメット又は対象のアクティビティを実行する機器の一部に取り付けてもよい。ビデオカメラは、複数のデータセンサ102が組み込まれてもよく、例えば、必要に応じて、加速度計、グローバルポジショニングシステム(「GPS」)、ジャイロスコープ、入力変換器112、電子メモリ124、動画記録装置104、音声記録装置106及び電子メモリ126が組み込まれてもよい。システム100の残りの部分、例えば、デコーダ116及び出力変換器114を含むプロセッサ110、触覚出力装置118、ディスプレイ120及びスピーカ122は、例えば、上記で説明した電子再生装置130のような別個の再生装置に配置されてもよい。
一実施形態において、加速度計、GPS等の一の又は複数のデータセンサを含み得るセンサ102(複数の場合もありうる)が、人又は対象のアクティビティを実行する機器の何れかに取り付けられてもよい。センサ102は、センサボックス、又は、センサ102を保護するように構成されたその他の筐体に収容されてもよい。センサボックスは、例えば、内蔵の入力変換器112及び電子メモリ124のようなデータ記憶手段を備えてもよい、又は、アクティビティの間にデータを記録するべく第2の装置(例えば、携帯装置)とのデータ接続を利用してもよい。
一実施形態において、センサ102は動画の対象である人に装着されてもよく、動画記録装置104及び必要に応じて音声記録装置106は他の人に操作されてもよい。例えば、動画の対象である人は、バイクのライダー、スノーボーダー、またはスキーヤーでもよく、少なくとも1つのセンサ102がその人の衣服又は装備、例えばスノーボーダーのブーツ、ヘルメット、又はスノーボードに取り付けられてもよい。センサ102は、スノーボードによって体験されるg力加速度を提供するように構成された加速度計と、スノーボードの方位を提供するように構成されたジャイロスコープセンサと、及びスノーボーダーのブーツによってスノーボードに加えられる負荷を提供するように構成された接触圧センサとを含んでもよい。一実施形態において、音声記録装置106は例えばスノーボーダーのヘルメットなどの衣服又は装備に取り付けられ、雪上を通過するスノーボードの音を取り込んでもよい。
一実施形態において、加速度データ、ジャイロスコープデータ、及び接触圧データののストリームが動画データ及び音声データと共に記憶される記録セッションが開始されてもよい。動画記録装置104及び/又は音声記録装置106は、例えばスノーボーダーのヘルメットに取り付けられてもよい。一実施形態において、動画記録装置104及び/又は音声記録装置106は、スノーボードの滑走が行われるスキー場のハーフパイプの様々な場所に設置された多数のビデオカメラでもよい。一実施形態において、上記のように、動画記録装置104はスノーボードの滑走が行われるスキー場のハーフパイプの様々な場所に設置された多数のビデオカメラでもよく、音声記録装置106はスノーボーダーの衣服又は装備に取り付けられてもよい。センサ102、動画記録装置104、及び音声記録装置106の配置のその他の組合せを用いてもよく、また記録される活動によってこの組合せを変えることで、最適な触覚/音声/視覚体験が、電子再生装置130のユーザによって再生中に認識されるようにしてもよい。これらのデータストリームの全ての同期は、図1のシステム100のプロセッサ110内に配置されていてもよい記録ソフトウェアによって管理されてもよい。
一実施形態において、一つのファイルコンテナに動画及び音声以外のデータも格納可能とする、例えば、MPEG−4のようなフレキシブルなコンテナフォーマットを使用してもよい。このような一実施形態では、記録中にセンサデータをMPEG−4ファイル内に配置するために、エンコーダの特定のセットが必要になる場合もある。一実施形態において、非音声・画像(A/V)センサデータを別個のファイルに格納するべく、専用のソフトウェアを作ってもよいが、再生時に適切な同期を可能とするべくセンサデータに特別なマーカが必要となる。このような実施形態では、設計された記録フォーマットの制約に適合させるようにセンサデータを整形する以外に、入力変換を行う必要はほとんどない。正確なフォーマットは、実装者によって決定されてもよい。スノーボーダーがアクティビティを完了させると、記録が停止されてもよい。この場合、MPEG−4ファイルが閉じられて、全てのセンサデータがMPEG−4ファイルに配置されてもよい。
一実施形態において、再生装置は、図1の電子再生装置130であってもよく、ディスプレイ120、スピーカ122、及び、触覚効果を提供する触覚出力装置118のような振動装置を有する携帯電話又はタブレットの形態であってもよい。一実施形態において、再生装置は、ディスプレイ120及びスピーカ122を有するテレビと、触覚効果を提供する触覚出力装置118を有するゲームパッドのようなゲーム周辺機器と接続されるゲーム機であってもよい。
アクティビティが実行された後に又は実行されるのと同時に、一の又は複数の視聴者が、アクティビティを体験するのに興味を示したとする。アクティビティを再生するべく、視聴者は、パフォーマのアクティビティを体験するという目的で、視聴者の再生装置で適切な再生ソフトウェアを起動することができる。一実施形態において、再生ソフトウェアは、デコーダ116によって実行されるセンサデコード方式を組み込んだ再生ソフトウェアアプリケーション、及び、再生装置における触覚出力装置118に適した触覚出力信号へとセンサデータを変換するべく出力変換器114によって実行されてもよい出力変換ソフトウェアを含んでもよい。一実施形態において、再生ソフトウェアアプリケーションは、センサデコード方式を組み込んでもよい。再生ソフトウェアは、再生装置内に存在する又は予めインストールされる出力変換ソフトウェアを利用してもよく、当該出力変換ソフトウェアは、再生装置における触覚出力装置118に適した触覚出力信号へとセンサデータを変換してもよい。すなわち、出力変換器114及び/又はデコーダ116は、再生装置に位置してもよい。
一実施形態において、再生ソフトウェアアプリケーションは、メディア再生を実行するべく、センサでコード方式を組み込んだ再生装置のオペレーティングシステムソフトウェアを利用してもよい。オペレーティングシステムは、再生装置内に存在する又は予めインストールされる出力変換ソフトウェアを利用してもよく、当該出力変換ソフトウェアは、再生装置における触覚出力装置118に適した触覚出力信号へとセンサデータを変換してもよい。そして、視聴者は、パフォーマンスの表示と関連付けられた触覚感覚を体験する。触覚感覚は、出力変換ソフトウェアによって生成される。
一実施形態において、出力変換ソフトウェアはセンサデータの一部を含み、他のセンサデータは無視されてもよい。例えば、ジャイロスコープデータが含まれ、接触圧センサデータが無視されてもよい。加速度データの大きさは、X−Y−Z加速度成分のベクトルの大きさを計算することによって求めることができる。この加速度の大きさの信号はその後バンドパスフィルタにかけられ、20Hzから200Hzの範囲にある加速度の大きさの信号のみが出力され、他の周波数成分が取り除かれてもよい。フィルタで処理された加速度信号は、その後ソフトニー圧縮アルゴリズムで処理され、+6gと−6gの間の出力の大きさを切り取り、すべてのマイナス信号をゼロ化/無視し、結果として生じる圧縮された単側波出力信号を用いて、触覚出力装置によって提供される振動の大きさが0%から100%の振動の間で制御される。このように、視聴者はパフォーマのスノーボードによって感知された加速度の変化の表現を感じることができる。
一実施形態において、加速度データ、ジャイロスコープデータ、及び接触圧センサデータは、以下のように組み合わされて触覚出力信号となる。接触圧が低い場合、スノーボーダーはジャンプしていると考えられ、よってすべての触覚出力はゼロになる。接触圧が大きい場合、接触圧は加速度の大きさによって乗算されてもよい。この出力はその後方位信号(ジャイロスコープ信号から得られた方位ヘディングの初回派生物)の変化によって乗算され、「アクティビティ強度」信号が得られる。この信号にはその後フィルタ処理と圧縮処理が行われ、パフォーマがスノーボードで滑走中に体験する感覚の範囲の合理的な表現が得られる。この信号は再生装置の触覚出力装置118に与えられる。
一実施形態において、接触圧が低い場合、スノーボーダーはジャンプしていると考えられ、よってすべての触覚出力はゼロになる。接触圧が大きい場合、加速度の大きさを例えば100Hzから200Hzの範囲でバンドパスフィルターで処理し、その出力範囲をハードニー圧縮装置を用いて高密度に圧縮してもよい。この信号は再生装置の触覚出力装置118に与えられる。触覚出力装置118を持っている、あるいは他の方法でこれと接触している視聴者は、その後、出力変換器114によって生成され触覚出力装置118によって出力された感覚を感じ取ってもよい。
本発明の実施形態によれば、複数のセンサ102を上述のシステム100の一部として用いてもよい。センサ102は、例えば加速度計、ジャイロスコープ、慣性計測装置(IMU)、接触センサなどの、記録されるイベントの対象に取り付けられるスタンドアロンのセンサであってもよい。例えばセンサ102は、ヘルメット、ベルト、靴、ブーツなど、対象となるアスリート又はユーザの身体又は衣服に取り付けられるか、又はバイク、スノーボード、スキーなどのスポーツ用品に取り付けられてもよい。センサ102は、走行中又は移動中にユーザが身に着ける他のウェアラブルな装備、例えば、スマートフォン、アクションカメラ、スマートウォッチなどに埋め込まれてもよい。
図2は本発明の一実施形態の模式図である。第1のセンサ210は、例えばバイクのライダーのヘルメットに取り付けられ、第2のセンサ220は、例えばバイクの前輪を支持する前フォークに取り付けられ、第3のセンサ230は、例えばバイクのメインフレームに取り付けられ、第4のセンサ240は、例えばバイクの後輪を支持する後フォークに取り付けられてもよい。センサ210、220、230、240によって取り込まれたデータは、装置又はセンサに記憶又は記録され、あるいはリアルタイムでリモートのデータベース250に(例えば無線で)ストリームされる。このデータベース250は上述のプロセッサ110の一部であってもよい。環境内に固定された異なる音声記録装置106によって取り込まれた音声トラックも、触覚を生成するために使用可能な感覚データと見なすことができる。生成された触覚トラック260は、動画とともに埋め込まれるか、又はリモートのサーバに記憶されて動画の再生時にストリームされてもよい。また、触覚出力装置118によって生成される触覚効果は、ストリームされたデータを用いてリアルタイムで生成されてもよい。
一実施形態において、ユーザは異なるセンサ102を自身の衣服及び装備に固定し、最適なデータを取り込めるようにしてもよい。センサの配置構成は本発明の実施形態に係るガイドラインに従ってもよく、又は他の実施形態においては、ユーザの好みに合うように行ってもよい(より経験の豊かなユーザの場合)。ガイドラインはどのセンサがどの状況に最も適しているかに基づいている。例えば、スノーボーダーが雪の感触を取り込んでそれを自身の映画に付け加えた効果として表現したい場合、スノーボーダーはガイドラインに従って自身のスノーボードに加速度計を固定することになる。
音声トラックと動画トラックを含むすべてのメディアトラックとすべてのデータチャネルとを同期するためには、ユーザは特定のサイン動作、例えば3回連続のジャンプを、すべてのセンサ及び動画及び音声記録装置が読み取ったデータ内でそのサイン動作が認識できるように、行わなければならない。内部クロックを有するセンタについては、すべてのセンサの内部クロックを同じタイミングに同期することによってもデータの同期が可能である。センサデータ及びメディアコンテンツが取り込まれた後、触覚トラック生成プロシージャが、以下に述べる本発明の実施形態に従って開始されてもよい。
一実施形態において、ユーザはユーザ入力装置140を用いて、アクティビティの種類をバイク乗車、モトクロス、スノーボード滑走、スキーなどに特定し、その後、センサの位置を足首、バイクのフォークなどに特定し、センサの種類をIMU、加速度計、音声などに特定し、またサンプリングレートを200Hzなどに特定してもよい。一実施形態において、センサの位置及び種類は、システムのセンサ構成の一般的なガイドラインを用いて定められ、ユーザ入力装置140を介してユーザに提示された既定値のメニュー又はリストから、ユーザによって選択されてもよい。一実施形態において、センサの種類とサンプリングレートは、センサがシステム100に接続されたときに自動的にシステム100によって特定されてもよく、これは重要な記述子のすべてを含む、センサに埋め込まれた特定のヘッダを読み取ることで行ってもよい(すなわち、「スマートセンサ」)。システム100は、その後各センサに番号のラベルを付与し、取り込まれたデータにも自動的にラベルを付与する。システム100は、ユーザ入力装置140を介して、センサの配置のオーバーレイ及びセンサの異なる軸チャネルのイラストレーションを用いた、装備又は衣服の視覚的なプロトタイプを表示してもよい。
ユーザ入力装置140を介してユーザが選択した特定のシーンでは、ユーザはユーザ入力装置140を介して特定の種類の触覚効果を選択してもよい。そのためには、ユーザはそのシーンに最適なデータを提供できると自身が考えるセンサの位置を特定し、そのシーンの開始と終了のタイミングを特定してもよい。選択されたセンサ記述子(種類及び位置)を有することによって、システム100は、データから自動的に生成できる実現可能な異なる触覚効果(例えば、感触、衝突、信号エンベロープなど)を提示してもよい。システム100はまた、既定のパターンを与えられた場合、1つの特定の効果を提示してもよい。一部の特定の効果については、ユーザはセンサから特定のデータチャネル(例えば、3次元加速度計の場合には、特定の軸の加速度)を選択する必要があるが、これについては後述する。
例えば、「バイクに乗る」アクティビティにおいて、センサテーブルに加速度計として記述されている「フォーク」をユーザがセンサとして選択した場合、システムは「衝突効果」、「エンベロープ効果」、及び「感触効果」をユーザ入力装置140を介して提示してもよい。ユーザが「衝突効果」を選択した場合、システム100は、触覚トラック260を得る際にどの軸の加速度データ(例えば、X軸)を用いるかをユーザに問い合わせる。「感触効果」が求められる場合、システム100は、ユーザに追加の入力を求めなくても使用可能な3つの加速度チャネルを使用することができる。アクティビティ、センサの位置及び種類、及び実現可能な効果の間の対応関係は、システム100のプロセッサ110において専門知識を用いて事前にプログラムされてもよい。一実施形態において、あるシーンにおいて用いるセンサの選択は、そのシーンに関連するすべてのデータを分析し、最大のアクティビティ/エントロピーを提示するチャネルを選択することによって、自動的に行われてもよい。
そのシーン用に選択された効果の種類によっては、システム100は、より人の注意を引く触覚効果を生成するために、単一のセンサから得られるよりも多くの情報を用いることが必要になる場合もある。例えば、回転効果を生成するためのジャイロスコープデータを処理する際、システム100はジャイロスコープと同じ位置から取り込まれた加速度データが利用可能であればこれを用いてもよい。生成された効果は反映されるが、その後対象物又はアスリートの回転が空中で行われる場合、より強度の低い効果となる。
任意のセンサの情報を用いて触覚化されるすべてのシーンのリストが完成すると、システム100はデータベース250から関連する感覚データを取得し、効果の種類ごとに特定のアルゴリズムを適用して、シーンごとの触覚効果信号を生成する。このアルゴリズムについては後述する。異なるシーンの触覚効果を生成した後、システム100は類似の種類の効果を1つのトラック内で連結し、その後そのトラックをその最大値に分割することによって、そのトラックを正規化する。
異なる効果のトラックは、その後集合されて最終触覚トラック260を形成する。各々の効果トラックは所与の重みを付与して集合され、ユーザによって各効果に与えられた重要度を反映するようにしてもよい。例えば、ユーザが衝突効果を促進し、感触効果を抑制しようとする場合、ユーザは衝突効果に対応する第1のトラックに0.8の重みを付与し、感触効果に対応する第2のトラックに0.5の重みを付与してもよい。
一実施形態において、システム100は、クリップの継続時間の全体にわたって、センサの種類及び位置に基づき、各センサ及びチャネルごとに実現可能な触覚トラックのすべてを生成してもよい。例えば、加速度計の場合、システムは「感触効果」用のトラック、「エンベロープ効果」用の別のトラック、及び「衝突効果」用の軸こどのトラックを生成してもよい。
一実施形態において、ユーザは、ProToolsなどの動画編集ソフトウェアフレームワークにおいて、生成された複数の異なる触覚効果を提示されてもよく、また各トラックを編集し又は切り取ってクリップ用の最終的な触覚効果を生成する選択肢を有してもよい。ユーザは、音声編集におけるように、異なるトラックを混合する前にそれらを調節及び調整してもよい。一実施形態において、何らかのタイミングで各トラックの情報/エントロピーの量を与えられた場合に、システム100は生成された触覚効果を分析し、各トラックを動画の一部に割り当てもよい。
バイク乗車、モトクロス、スノーボード滑走、スキーなどの特定のアクティビティについて関連する触覚効果を生成するために、センサの種類ごと及び求める触覚効果の種類ごとに異なるアルゴリズムを開発することが望ましく、これによってユーザは、各シーン/クリップ用により人の注意を引く触覚効果の種類を選択する柔軟性を得ることができる。効果はシーン/クリップ内の特定のイベント(当たる、はじくなど)に対応付けられてもよい。センサ信号内のイベントの識別は、アクティビティの種類によって異なってもよい。例えば、バイクが地面に当たると、スノーボードが氷に当たった場合に生成されるサインイベントとは異なるサインイベントが3次元加速度信号内に生成されてもよい。
図3は本発明の実施形態によって提供される複数のアルゴリズムを示しており、これらのアルゴリズムは以下に述べるとおり異なる状況に適応するために用いられる。このアルゴリズムは、上述のシステム100のプロセッサ110のようなプロセッサ内の、一又は複数のモジュールでプログラムされてもよい。本明細書で記述されるアルゴリズムは、上述の方法によって複数のセンサが用いられる状況において用いられてもよい。以下の実施形態は異なる場合の異なるアルゴリズムの例として提供されるものであり、いかなる点においても限定的なものとして見なされるべきではない。
例えばバイクのような対象物に配置された加速度計(複数の場合もある)310によって感知された3次元加速度については、異なる種類のイベント及び効果が区別され、触覚化されてもよい。例えば、対象物に生じた衝突イベント、加速度エンベロープ、揺動イベント、及び/又は感触効果は、加速度計310によってデータ信号出力内で識別され、対応するアルゴリズムがデータ信号に適用されて触覚信号出力が生成され、このイベントに対応する触覚出力装置118に送られてもよい。
例えば、バイクが巧みな操作の後に強い力で地面と接触するとき、又はスノーボーダーがジャンプの後に強い力で地面と接触するとき、「衝突」イベントが発生する。バイク(又はモトクロス)の場合、このようなイベントは、バイクに取り付けられた加速度計によって感知される垂直加速度信号の顕著な頂点(スパイク波形)によって特徴づけられる。他の2つの軸のいずれかにおける突然の加速度変化によって衝突が生じる場合もある。スノーボード(又はスキー)滑走の場合、垂直及び中外側(ML)の加速度信号、及び前後(AP)軸上の低加速度信号の両方におけるスパイク波形によって衝突イベントは識別されてもよい。2つの衝突イベントアルゴリズム312を用いてこれを考慮にいれてもよい。
第1のアルゴリズムは、いわゆる「単純衝突」アルゴリズムであり、バイクアクティビティ、モトクロスアクティビティ、又は単一軸の加速度から衝突を識別できるその他のアクティビティに用いられるようになっており、この場合、信号の絶対値は既定の閾値、例えば5gよりも大きくなる。第1のアルゴリズムは単一の軸加速度信号を使用するものであり、ユーザは触覚化したい軸を指定する。既定値はアクティビティの種類及び対象物の衣服/装備上の加速度計の位置に合わせて設定され、起こり得る信号減衰を統合するようになっている。
第2のアルゴリズムは、いわゆる「3軸衝突」アルゴリズムであり、衝突を識別するために3軸加速度信号を用いる。第2のアルゴリズムは3軸のうち2軸の合成加速度値を推定することによって開始される。この推定された合成加速度値がアクティビティごとに定められる既定の閾値よりも高く、第3の軸加速度がその既定の閾値よりも低い場合には、衝突が見出される。第2のアルゴリズムは、スキーやスノーボード滑走のようなアクティビティにより適している。
衝突イベントが検知されると、第1及び第2の衝突効果アルゴリズム312は、そのイベントと同じタイミングで触覚効果360内に、短い(例えば60ミリ秒)が完全な大きさの効果を挿入する。
加速度エンベロープアルゴリズム314を用いて、例えばバイクに生じるエンジン音や小規模な衝突などの異なる種類のイベントを触覚化してもよい。この加速度エンベロープアルゴリズム314は、センサ310からの単一の軸加速度信号又は3軸信号を組み合わせた合成の信号を用い、二乗平均の平方根(rms)、平均値、又は連続するウィンドウの最大値を用いて加速度を計算することにより、上記の信号から触覚効果を得る。このアルゴリズムについては、ユーザは上述のユーザ入力装置140を介して3軸のうちのどの軸を考慮するかを指定してもよい。信号が既定の閾値(アクティビティごとのノイズ閾値)よりも大きく、上述の「衝突」閾値よりも小さい場合にのみ、エンベロープは計算される。
揺動イベントは、例えばスキーやスノーボード滑走のアクティビティにおいて、スキーヤー又はスノーボーダーが中外側の軸上で高速でドリフトする場合に発生する。揺動イベントは中外側の軸上の加速度が特定の閾値よりも高い場合に識別される。揺動効果アルゴリズム316は、センサ310からの信号出力においてイベントを検知し、このイベントを通して(例えば、1秒間)上述のように加速度エンベロープを計算し、また、このエンベロープを用いて対応する触覚効果を生成する。
感触効果アルゴリズム318は、表面目標に可能な限り近い位置で取り込まれた3軸に沿う加速度を用いて感触効果を表現するために用いられる。例えば、雪の感触触覚効果は、スノーボード又はスキーそのものの加速度を用いることでよりよいものが得られる。バイクの場合は、バイクのフォークから得られる加速度(未減衰の加速度信号)を用いて地面の感触を得ることが通常はより適している。3軸の加速度信号を高速フーリエ変換(「FFT」)を用いて時間ドメインから周波数ドメインに変換し、そのドメインにおけるベクトルとして加えることで単一の信号を形成してもよい。この合成信号は、当該技術において知られるように、その後再度の変換によって時間ドメインに戻されてもよい。したがって、この変換処理の詳細について本明細書では説明しない。加速度のエンベロープについて上記したように、感触効果はこの合成信号のエンベロープを計算することによって生成される。
3次元ジャイロスコープ320の形態であるセンサについては、回転エンベロープアルゴリズム322を用いて、例えばバイクのハンドルバーの回転、スノーボードの360度の宙返り、スノーボードの突然の回転/停止など、異なる種類のイベントを触覚化してもよい。回転エンベロープアルゴリズム322は単一軸回転速度信号を用い、二乗平均の平方根(rms)、平均値、又は連続するウィンドウの最大値を用いて信号エンベローブを計算することにより、上記の単一軸回転速度信号から触覚効果を得る。このアルゴリズムについては、ユーザは3軸のうちのどの軸を考慮するかを指定してもよい。信号が既定の閾値(アクティビティごとのノイズ閾値)よりも大きい場合にのみ、エンベロープは計算される。ハンドル又はハンドルバーの回転の場合、閾値が低いとイベント以外の低速の回転を除去することができ、一方閾値が高いと「興味深いイベント」と相関する突然の高速の動きのみを触覚化することを意味する。
アスリートの靴の下又は中、スノーボードの下、又はバイクの座席の上に接触センサを埋め込むことにより、(パルクール、スノーボード滑走、モトクロスなどで)例えばアスリートが空中にジャンプしたとき及び再び着地したりときなどのイベントを検知することができる。着地イベントは接触センサの出力信号におけるスパイク波形によって特徴付けられるが、その後、例えば50ミリ秒程度の短くかつ強い効果を加えることによって触覚化してもよい。アスリートの空中時間を検知することによって、他のセンサから得たその他の効果の強さの調整に影響する場合もある。例えば、回転エンベロープはアスリートが空中にいるときには強度が低下する。
上述の発明の実施形態は、ユーザが自ら取り込んだメディア作品のための触覚効果を自動的に得るのに役立つ方法論を提供する。上述の例はスポーツメディア全般に焦点を当てており、この場合、一又は複数のセンサがメディア作品中の動作に関するデータを取込みが、本発明の実施形態はこれに限定されない。上述のシステムはセンサデータのすべてをユーザの介入が全く又はほとんどなく処理することを考慮しており、メディアコンテンツを増大させて視聴体験を向上させる関連する触覚トラックを提供する。
本発明の上述の実施形態は、異なるセンサを用いる最適な方法及びあるタイミングでこれら異なるセンサの組合せから触覚効果を生成する方法も提供する。異なるセンサの使用によって人の注意を引く触覚効果を生成するよりよい機会が得られるものの、ユーザは使用可能なデータの量に圧倒されるように感じ、同時にこれらのデータの使い方や、触覚を得るためにいつどのセンサ及びどのアルゴリズムを適用すべきかについて混乱するかもしれない。本発明の実施形態は、アスリート又は装備が異なるセンサを装備して取り込まれたデータと触覚変換アルゴリズムとのリンクを提供する場合の、センサから触覚までのワークフローを提供し、よってユーザによって生成されたコンテンツのための触覚を複数のセンサのデータから生成する手順を最適化する。本発明の実施形態は、ユーザがガイドライン及び提案を必要に応じて用いてこの手順を実行するようにガイドし、時として触覚効果の生成を最適化するために、異なるセンサから得られる情報を融合する。
本発明の実施形態は、手間をかけずにセンサデータを用いて異なる触覚効果を生成することに適したアルゴリズムを提供する。これによってユーザのタスクは容易になる。本発明の実施形態は、触覚効果を推論するために、動作を記述するデータをユーザが用いることを可能にし、これによってユーザは生成された触覚トラックが実際の動作に関連付けられていることを確認できる。上述の異なるアルゴリズムによって、ユーザは異なる種類の効果を容易を生成し、自らが好む効果を選択することができる。
本明細書に記載された実施形態は、実施可能な実装例および実施例であるが、本発明を特定の実施形態に制限することを必ずしも意図するものではない。むしろ、これらの実施形態には、当該技術分野における当業者に理解できるような変更を加えることができる。このような変更が加えられた態様も本発明の要旨及び範囲に含まれ、そして以下の請求項によって保護されるべきものである。

Claims (22)

  1. センサと、
    前記センサによって出力された信号を受信し、
    前記センサの位置及び記述子を決定し、
    動画のシーン選択を決定し、
    前記選択されたシーン、前記センサによって出力された前記信号、及び前記センサの位置及び記述子に基づいて触覚信号を生成する
    ように構成されたプロセッサと、
    前記触覚信号を受信し、前記触覚信号に基づいて触覚効果を生成するように構成された触覚出力装置と、
    を備えるシステム。
  2. 前記プロセッサがさらに、求める触覚効果を決定し、前記選択されたシーン、前記センサによって出力された前記信号、前記センサの位置及び記述子、及び前記求める触覚効果に基づいて前記触覚信号を生成するように構成された、請求項1に記載のシステム。
  3. 前記センサが、加速度計、ジャイロスコープ、慣性計測装置、及び接触センサからなる群から選択される、請求項1に記載のシステム。
  4. 前記システムのユーザが前記センサの位置及び/又は記述子を指示することを可能にするように構成されたユーザ入力装置をさらに備える、請求項1に記載のシステム。
  5. 前記システムのユーザが前記シーンを選択することを可能にするように構成されたユーザ入力装置をさらに備える、請求項1に記載のシステム。
  6. 前記システムのユーザが前記求める触覚効果を選択することを可能にするように構成されたユーザ入力装置をさらに備える、請求項1に記載のシステム。
  7. 前記プロセッサが前記選択されたシーンの動画と前記触覚信号とを同期させるようにさらに構成された、請求項1に記載のシステム。
  8. 前記触覚出力装置によって生成された前記触覚効果と同期された前記選択されたシーンの前記動画を表示するように構成されたディスプレイをさらに備える、請求項7に記載のシステム。
  9. 複数のセンサをさらに備え、
    前記プロセッサが
    前記複数のセンサから出力された信号を受信し、
    前記複数のセンサの位置及び記述子を決定し、
    前記選択されたシーン、前記複数のセンサによって出力された前記信号、及び前記複数のセンサの位置及び記述子に基づいて前記触覚信号を生成する
    ように構成された、請求項1に記載のシステム。
  10. センサからセンサデータを受信する工程と、
    前記センサの位置及び記述子を決定する工程と、
    動画のシーン選択を決定する工程と、
    前記選択されたシーン、前記センサデータ、及び前記センサの位置及び記述子に基づいて触覚信号を生成する工程と、
    を備える方法。
  11. 前記動画の前記選択されたシーンと前記触覚信号とを同期させる工程をさらに備える、請求項9に記載の方法。
  12. 複数のセンサからセンサデータを受信する工程と、
    前記複数のセンサの位置及び記述子を決定する工程と、
    前記選択されたシーン、前記センサデータ、及び前記複数のセンサの位置及び記述子に基づいて前記触覚信号を生成する工程と、
    をさらに備える、請求項9に記載の方法。
  13. センサと、
    前記センサからの信号を受信し、前記センサに対応するイベント及びアクティビティの種類を決定し、前記センサからの前記信号及び前記センサに対応するイベント及びアクティビティの種類に基づいて触覚信号を生成するように構成されたプロセッサと、
    前記触覚信号に基づいて触覚効果を生成するように構成された触覚出力装置と、
    を備えるシステム。
  14. 前記センサが、加速度計、ジャイロスコープ、慣性計測装置、及び接触センサからなる群から選択される、請求項13に記載のシステム。
  15. 前記イベントの種類が、衝突イベント、揺動イベント、加速度イベント、回転イベント、着地イベント、及び感触接触イベントからなる群から選択される、請求項13に記載のシステム。
  16. 前記アクティビティがバイク乗車、モトクロス、スノーボード滑走、及びスキーからなる群から選択される、請求項13に記載のシステム。
  17. 前記プロセッサが前記イベントの動画と前記触覚信号とを同期させるようにさらに構成された、請求項13に記載のシステム。
  18. 前記触覚出力装置によって生成された前記触覚効果と同期された前記イベントの前記動画を表示するように構成されたディスプレイをさらに備える、請求項17に記載のシステム。
  19. 前記触覚出力装置によって出力される前記触覚効果を選択するために、前記プロセッサに入力を提供するように構成されたユーザ入力装置をさらに備え、前記触覚効果が衝突効果、揺動効果、感触効果、空中時間効果、加速度エンベロープ、及び回転エンベロープからなる群から選択される、請求項13に記載のシステム。
  20. センサによって出力されたセンサデータを受信する工程と、
    前記センサデータに対応するイベント及びアクティビティの種類を選択する工程と、
    前記センサデータ、前記イベント及びアクティビティの種類に基づいて触覚信号を生成する工程と、
    を備える方法。
  21. 前記センサによって出力されたセンサデータを受信する工程は、複数のセンサによって出力されたセンサデータを受信する工程を含む、請求項20に記載の方法。
  22. 前記イベントの動画と前記触覚信号とを同期させる工程をさらに備える、請求項20に記載の方法。
JP2015055955A 2014-03-21 2015-03-19 感覚データを触覚効果に変換するシステム及び方法 Active JP6585358B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461968799P 2014-03-21 2014-03-21
US61/968,799 2014-03-21

Publications (2)

Publication Number Publication Date
JP2015185167A true JP2015185167A (ja) 2015-10-22
JP6585358B2 JP6585358B2 (ja) 2019-10-02

Family

ID=52807577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015055955A Active JP6585358B2 (ja) 2014-03-21 2015-03-19 感覚データを触覚効果に変換するシステム及び方法

Country Status (5)

Country Link
US (2) US10048755B2 (ja)
EP (1) EP2922299B1 (ja)
JP (1) JP6585358B2 (ja)
KR (1) KR20150110356A (ja)
CN (1) CN104932678B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102056843B1 (ko) 2019-06-07 2019-12-17 주식회사 텐스퀘어 체험기반 실감미디어 연출을 위한 시스템

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170030510A (ko) 2014-07-07 2017-03-17 임머숀 코퍼레이션 제2 스크린 햅틱
KR102512840B1 (ko) * 2015-10-15 2023-03-22 삼성전자주식회사 실행 화면 레코딩 방법 및 그 방법을 처리하는 전자 장치
CN109475079B (zh) 2016-07-22 2023-03-14 哈曼国际工业有限公司 触觉驾驶引导***
US10102723B2 (en) * 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events
CN106534142B (zh) * 2016-11-22 2018-04-20 包磊 多媒体数据的实时传输方法及装置
CN106454365B (zh) * 2016-11-22 2018-07-10 包磊 多媒体数据的编码、解码方法及编码、解码装置
CN106527730B (zh) * 2016-11-22 2018-05-11 包磊 体感控制数据的生成、输出控制方法及装置
US10147460B2 (en) * 2016-12-28 2018-12-04 Immersion Corporation Haptic effect generation for space-dependent content
US20180232051A1 (en) * 2017-02-16 2018-08-16 Immersion Corporation Automatic localized haptics generation system
US10013081B1 (en) * 2017-04-04 2018-07-03 Google Llc Electronic circuit and method to account for strain gauge variation
US10635255B2 (en) 2017-04-18 2020-04-28 Google Llc Electronic device response to force-sensitive interface
KR101993410B1 (ko) * 2017-11-16 2019-06-26 전자부품연구원 진동 피드백을 이용한 로봇 제어 시스템 및 장치
US10955922B2 (en) * 2017-11-29 2021-03-23 International Business Machines Corporation Simulating tactile information for haptic technology
US10649532B2 (en) * 2018-06-15 2020-05-12 Immersion Corporation Systems and methods for multi-rate control of haptic effects with sensor fusion
US20200150765A1 (en) * 2018-11-14 2020-05-14 Immersion Corporation Systems and methods for generating haptic effects based on visual characteristics
CN109871120A (zh) * 2018-12-31 2019-06-11 瑞声科技(新加坡)有限公司 触觉反馈方法
US11946744B2 (en) 2019-07-26 2024-04-02 Hewlett-Packard Development Company, L.P. Synchronization of a gyroscope in a virtual-reality environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089894A (ja) * 1998-09-09 2000-03-31 Sony Corp データ変換装置、データ変換方法及びデータ変換機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体
US20090128306A1 (en) * 2007-11-21 2009-05-21 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
JP2013004104A (ja) * 2011-06-20 2013-01-07 Immersion Corp ハプティックテーマフレームワーク
JP2013188426A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理システムおよびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US20050062841A1 (en) 2003-09-18 2005-03-24 Rivera-Cintron Carlos A. System and method for multi-media record, distribution and playback using wireless communication
US8700791B2 (en) 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
CN104063056B (zh) 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的***和方法
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US9019087B2 (en) 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US8004501B2 (en) * 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
WO2010008232A2 (ko) * 2008-07-16 2010-01-21 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
CN102227694A (zh) 2008-10-10 2011-10-26 因特网服务有限责任公司 供触觉编码的媒体使用的触觉输出装置
EP2457181A4 (en) 2009-07-24 2013-01-23 Digimarc Corp IMPROVED AUDIO / VIDEO PROCESSES AND SYSTEMS
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
KR101852549B1 (ko) * 2011-11-18 2018-04-27 센톤스 아이엔씨. 국소형 햅틱 피드백
US20130222565A1 (en) * 2012-02-28 2013-08-29 The Johns Hopkins University System and Method for Sensor Fusion of Single Range Camera Data and Inertial Measurement for Motion Capture
US8945328B2 (en) * 2012-09-11 2015-02-03 L.I.F.E. Corporation S.A. Methods of making garments having stretchable and conductive ink
US8842969B2 (en) * 2012-09-28 2014-09-23 Intel Corporation Haptic playback of video
US9261960B2 (en) 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
KR102064795B1 (ko) * 2013-02-27 2020-01-10 한국전자통신연구원 자세 훈련 시스템 및 자세 훈련 시스템의 동작방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089894A (ja) * 1998-09-09 2000-03-31 Sony Corp データ変換装置、データ変換方法及びデータ変換機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体
US20090128306A1 (en) * 2007-11-21 2009-05-21 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
JP2013004104A (ja) * 2011-06-20 2013-01-07 Immersion Corp ハプティックテーマフレームワーク
JP2013188426A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理システムおよびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102056843B1 (ko) 2019-06-07 2019-12-17 주식회사 텐스퀘어 체험기반 실감미디어 연출을 위한 시스템

Also Published As

Publication number Publication date
EP2922299B1 (en) 2019-08-07
KR20150110356A (ko) 2015-10-02
CN104932678B (zh) 2019-06-21
JP6585358B2 (ja) 2019-10-02
US20180314335A1 (en) 2018-11-01
EP2922299A1 (en) 2015-09-23
CN104932678A (zh) 2015-09-23
US10048755B2 (en) 2018-08-14
US10444843B2 (en) 2019-10-15
US20150268726A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP6585358B2 (ja) 感覚データを触覚効果に変換するシステム及び方法
JP6664137B2 (ja) 触感記録および再生
JP6664069B2 (ja) 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
US10083578B2 (en) Crowd-based haptics
US9667907B2 (en) System and method for haptic integration and generation in multimedia devices
JP6664071B2 (ja) マルチメディアデータで使用する触覚データを記録するシステムおよび方法
EP3104258A1 (en) Broadcast haptics architectures
CN105915849A (zh) 一种虚拟现实体育赛事播放方法及***
US20210223867A1 (en) Signal generation device, signal generation method, program, reproduction device
Danieau Contribution to the study of haptic feedback for improving the audiovisual experience

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190905

R150 Certificate of patent or registration of utility model

Ref document number: 6585358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250