JP6884854B2 - 音声提供装置、音声提供方法及びプログラム - Google Patents

音声提供装置、音声提供方法及びプログラム Download PDF

Info

Publication number
JP6884854B2
JP6884854B2 JP2019512404A JP2019512404A JP6884854B2 JP 6884854 B2 JP6884854 B2 JP 6884854B2 JP 2019512404 A JP2019512404 A JP 2019512404A JP 2019512404 A JP2019512404 A JP 2019512404A JP 6884854 B2 JP6884854 B2 JP 6884854B2
Authority
JP
Japan
Prior art keywords
user
voice
virtual speaker
providing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019512404A
Other languages
English (en)
Other versions
JPWO2018190099A1 (ja
Inventor
実穂 京谷
実穂 京谷
光希 有田
光希 有田
生郎 大島
生郎 大島
弘樹 内田
弘樹 内田
浩晃 杉村
浩晃 杉村
多田 幸生
幸生 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Yamaha Corp
Original Assignee
Fujitsu Ltd
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Yamaha Corp filed Critical Fujitsu Ltd
Publication of JPWO2018190099A1 publication Critical patent/JPWO2018190099A1/ja
Application granted granted Critical
Publication of JP6884854B2 publication Critical patent/JP6884854B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J19/00Puppet, marionette, or shadow shows or theatres
    • A63J19/006Puppets or marionettes therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、ユーザに音声を提供するための技術に関する。
ユーザの位置に応じた情報をそのユーザに提供する技術が知られている。例えば特許文献1には、施設や商店の広告を配信する際に、その施設や商店とユーザが所持する移動端末との距離に応じて、配信する情報を切り替えることが開示されている。
日本国特開2001−238266号公報
本発明は、従来のような単なる情報提供ではなく、例えばアミューズメント施設のキャラクタなどの仮想的な話者とユーザとの音声によるコミュニケーションを実現することを目的とする。
上記課題を解決するため、本発明は、ユーザの位置を取得する取得手段と、前記取得手段によって取得された位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供手段とを備えることを特徴とする音声提供装置を提供する。
前記提供手段は、前記音声とともに、前記取得手段によって取得された位置と前記仮想的な話者の位置との関係に応じて前記音声の放音処理を行うための音場を提供するための処理を行うようにしてもよい。
前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置とが所定の範囲内にある場合に、前記音声を提供するための処理を行うようにしてもよい。
前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置とが所定の距離の範囲内にあり、且つ、前記ユーザが向いている方向に前記仮想的な話者の位置が存在する場合に、前記音声を提供するための処理を行うようにしてもよい。
前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置との間の距離に応じて、前記音声の内容を変化させるようにしてもよい。
前記提供手段は、前記仮想的な話者が前記ユーザの属性、行動、生体情報又は感情に応じた内容で当該ユーザと対話するための音声を提供するための処理を行うようにしてもよい。
仮想的な話者の位置を更新する更新手段を備えるようにしてもよい。
前記更新手段は、各地域の混雑状況に応じて、前記仮想的な話者の位置を更新するようにしてもよい。
前記更新手段は、各地域において提供されうるサービスの状況に応じて、前記仮想的な話者の位置を更新するようにしてもよい。
前記更新手段は、前記仮想的な話者と対話を行っている前記ユーザの移動状況に応じて、当該仮想的な話者の位置を更新するようにしてもよい。
また、本発明は、ユーザの位置を取得する取得ステップと、取得された前記位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供ステップとを備えることを特徴とする音声提供方法を提供する。
前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置とが所定の範囲内にある場合に、前記音声を提供するための処理を行うようにしてもよい。
前記提供ステップに置いて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置とが所定の距離の範囲内にあり、且つ、前記ユーザが向いている方向に前記仮想的な話者の位置が存在する場合に、前記音声を提供するための処理を行うようにしてもよい。
前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置との間の距離に応じて、前記音声の内容を変化させるようにしてもよい。
また、本発明は、コンピュータを、ユーザの位置を取得する取得手段と、前記取得手段によって取得された位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供手段として機能させるためのプログラムを提供する。
本発明によれば、仮想的な話者とユーザとの音声によるコミュニケーションを実現することができる。
本発明の一実施形態に係る音声提供システムの全体構成を示す図である。 音声提供システムにおける音声再生装置のハードウェア構成を示すブロック図である。 音声提供システムにおける音声提供装置のハードウェア構成を示すブロック図である。 音声提供装置に記憶されている位置DBの一例を示す図である。 音声提供システムにおける各装置の機能構成を示すブロック図である。 音声提供装置の動作を示すフローチャートである。 ユーザと仮想話者との位置関係の一例を示す模式図である。
図1は、本発明の一実施形態である音声提供システムの全体構成を示す図である。この音声提供システムは、例えば遊園地、遊戯施設、アミューズメント施設、公共施設、商業施設又はイベント会場施設などの施設内エリアに設けられている。この音声提供システムにおいて、ユーザと対話してコミュニケーションを行う仮想的な話者が上記施設内エリア内の任意の位置に定義される。ここでいう仮想的な話者(以下、仮想話者という)とは、例えば音声提供システムがアミューズメント施設に設けられる場合には、そのアミューズメント施設を象徴するマスコットやキャラクタなどの、人間と対話することが可能な話者として想定された架空の存在である。ユーザから所定の範囲内に仮想話者が存在する場合、その仮想話者の音声がそのユーザに提供される。これにより、ユーザはあたかも自身の近くに仮想話者が居るかのように感じ、さらに、自らも発話することでその仮想話者との対話を行うことが可能となる。
図1に示すように、音声提供システムは、音声を提供する音声提供装置100と、提供された音声を再生する音声再生装置200とを備える。ネットワーク900は、所定の通信規格に従ってデータ通信を行うための有線又は無線の通信ネットワークである。音声提供装置100及び音声再生装置200は、ネットワーク900を介して通信可能に接続されており、このネットワーク900経由でデータを遣り取りする。なお、図1には、音声提供装置100及び音声再生装置200を1つずつ示しているが、これらはそれぞれ複数であってもよい。
音声再生装置200は、例えばユーザに装着又は携帯された状態で使用されるウェアラブル端末である。音声再生装置200の形状は任意であるが、例えばユーザの頭部に装着されるメガネ型、帽子型、ヘッドバンド型、ヘッドホン型、耳あて型又はカチューシャ型であってもよいし、ユーザの耳に装着されるイヤホン型、ピアス型又はイヤリング型であってもよいし、ユーザの首にぶら下げられるネックレス型であってもよいし、ユーザの手首や腕に装着される時計型、リストバンド型又はアームバンド型であってもよいし、ユーザの衣類等に装着されるブローチ型又はワッペン型などであってもよいし、ユーザによって携帯されるタブレット型やスマートフォン型であってもよい。
図2は、音声再生装置200のハードウェア構成を示すブロック図である。音声再生装置200は、例えばCPU(Central Processing Unit)などの演算処理装置とROM(Read Only Memory)及びRAM(Random Access Memory)などの記憶装置とを備えた制御部21と、例えばアンテナや通信回路を含みネットワーク900を介して無線通信を行う通信部22と、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリなどの記憶部23と、スピーカを含み音声データを再生して音声出力を行う再生部24と、例えば方位センサやジャイロセンサなどを含み音声再生装置200が向いている方向(ここでは音声再生装置200の向きをユーザが向いている方向とみなす)を検出する方向検出部25と、例えばGPS(Global Positioning System)によって測位を行う測位部26と、例えばキーやタッチセンサなどの操作子が設けられた操作部及び例えば液晶パネルや液晶駆動回路などの表示部を含むUI(User Interface)部27と、マイクにより音を収音する収音部28と、を備えている。
記憶部23は、制御部21が用いるデータ群やプログラム群を記憶しているが、例えば仮想話者の音声を示す音声データを複数記憶している。制御部21は、音声提供装置100から通信部22を介して指定された音声データを記憶部23から読み出し、読み出した音声データを再生部24によって再生する。また、制御部21は、収音部28によって収音されたユーザの音声を示す音声データを通信部22経由で音声提供装置100に送信する。音声提供装置100はこのユーザの音声データに応じた仮想話者の音声データを音声再生装置200に対して指定する。音声再生装置200においては、指定された音声データが再生される。これにより、ユーザと仮想話者との双方向の対話が実現される。なお、ユーザと仮想話者とのコミュニケーションは、双方向の対話に限定されるわけではなく、例えば仮想話者からユーザに対する一方向の対話であってもよい。
図3は、音声提供装置100のハードウェア構成を示すブロック図である。音声提供装置100は例えばサーバマシンなどのコンピュータであり、制御部11と、通信部12と、記憶部13とを備えている。制御部11は、CPU等の演算装置と、ROM及びRAMなどの記憶装置とを備えている。CPUは、RAMをワークエリアとして用いてROMや記憶部13に記憶されたプログラムを実行することによって、音声提供装置100の各部の動作を制御する。通信部12はネットワーク900に接続されており、ネットワーク900を介して通信を行う。記憶部13は、例えばハードディスク等の記憶装置であり、制御部11が用いるデータ群やプログラム群を記憶している。
記憶部13は、例えば仮想話者の音声データに関する情報(例えば音声再生装置200に記憶されている音声データを識別する音声ID))や音声対話アルゴリズムを含む音声データベース(以下、データベースをDBと称する)と、ユーザ及び仮想話者の位置を管理する位置DBとを記憶している。
音声対話アルゴリズムは、ユーザの音声を認識してその認識結果に対して音声で応答するためのアルゴリズムであればどのようなものであってもよいが、例えば音声認識アルゴリズムについては隠れマルコフモデルを用いたものなどが知られている。
図4は位置DBの一例を示す図である。位置DBにおいては、ユーザ及び仮想話者のそれぞれの識別情報であるユーザID及び仮想話者IDと、ユーザ及び仮想話者のそれぞれの位置を示す位置情報とが関連付けられている。ユーザの位置情報は音声再生装置200から音声提供装置100に通知されるようになっており、この通知に応じて、位置DB内のユーザの位置が更新される。仮想話者の位置情報は、固定された位置であってもよいし、時間経過に応じて変動する位置であってもよい。変動する場合には、所定の位置変動アルゴリズムに従って、位置DB内の仮想話者の位置が更新される。この位置変動アルゴリズムは、どのようなものであってもよいが、例えば音声提供システムが設置されたエリア内の任意の位置をランダムに選択するようなアルゴリズムであってもよいし、音声提供システムが設置されたエリア内において決められた所定の経路上の位置を所定の距離ずつ移動させていくようなアルゴリズムであってもよい。位置変動アルゴリズムは仮想話者ごとに異なっていてもよいし、1の仮想話者の位置変動アルゴリズムが日時等の条件に応じて切り替わってもよい。
図5は、音声再生装置200及び音声提供装置100の機能構成を示す図である。音声再生装置200の検出部201は、ユーザの位置とそのユーザが向いている方向とを検出する。音声再生装置200の収音部202は、音声を収音して音声データを生成する。音声再生装置200の通知部203は、検出部201によって検出されたユーザの位置及びそのユーザが向いている方向と、収音部202によって生成された音声データを音声提供装置100に通知する。
音声提供装置100の取得部101は、音声再生装置200の通知部203から通知された、ユーザの位置及びそのユーザが向いている方向と、音声データとを取得する。音声提供装置100の記憶部102は、前述した音声DB及び位置DBを記憶している。更新部103は、記憶部102の記憶内容(特に位置DBの内容)を更新する。音声提供装置100の提供部104は、ユーザの位置と仮想話者の位置との少なくとも一方が所定の関係となる場合に、仮想話者がユーザに応じた内容でそのユーザと対話するための音声をユーザに提供するための処理を行う。本実施例では、提供部104は、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が閾値以下の範囲に仮想話者の位置が含まれる場合には、その仮想話者の音声データ群のうち適切なものを、ユーザの音声データに基づいて特定し、特定した音声データを音声再生装置200に対して指定することで、ユーザに音声を提供する。このとき、提供部104は、ユーザと仮想話者との距離に応じた音量での音声再生を音声再生装置200に対して指定する。
音声再生装置200の再生部204は、音声提供装置100から指定された音声データを指定された音量で再生して音声を出力する。ユーザは音声再生装置200から再生される音声を聞く。
上述した音声再生装置200の検出部201は図2に示した方向検出部25及び測位部26によって実現され、収音部202は収音部28によって実現され、通知部203は図2に示した通信部22によって実現され、再生部204は図2に示した再生部24によって実現される。音声提供装置100の取得部101は図3に示した通信部12によって実現され、記憶部102は図3に示した記憶部13によって実現され、更新部103は図3に示した制御部11によって実現され、提供部104は図3に示した制御部11及び通信部12によって実現される。
[動作]
次に、図6を参照して本実施形態の動作を説明する。まずユーザは音声再生装置200を操作して、音声提供サービスを開始するための操作を行う。音声再生装置200においてこの操作が受け付けられると、収音部202は音声を収音して音声データを生成する(ステップS11)。ここで、ユーザが発話した場合にはユーザの音声が収音されるし、ユーザが特に発話しなければ例えばバックグラウンドミュージック等の環境音が収音される。
次に、音声再生装置200の検出部201は、ユーザの位置とそのユーザが向いている方向とを検出する(ステップS12)。前述したように、ここでいうユーザの位置は音声再生装置200の位置であり、ユーザが向いている方向は音声再生装置200が向いている方向である。音声再生装置200の通知部203は、ユーザの位置、ユーザが向いている方向及び収音した音声データを、ユーザIDとともに音声提供装置100に通知する(ステップS13)。このユーザIDは記憶部23に予め記憶されたものであってもよいし、ユーザがこの音声提供サービスを開始するときに音声再生装置200に入力したものであってもよい。
音声提供装置100の取得部101は、音声再生装置200の通知部203から通知された、ユーザの位置、ユーザが向いている方向、ユーザID及び音声データを取得する。提供部104は、位置DBを参照し、ユーザとの位置関係が所定の位置関係となるような範囲に含まれる仮想話者を抽出する(ステップS14)。より具体的には、提供部104は、取得したユーザIDのユーザが向いている方向を中心として例えば両側に45度の範囲内で且つそのユーザからの距離が閾値以下となるような範囲に仮想話者の位置が含まれるか否かを判断する。
ここで、図7は、ユーザと仮想話者との位置関係の一例を示す模式図である。図7においては、位置DBの内容に基づいて、ユーザU1,U2及び仮想話者G1〜G5の位置が2次元平面に表現されている。方向D1,D2はそれぞれ、ユーザU1,U2が向いている方向を示している。ユーザU1,U2は音声提供システムが設けられたエリア内を自由に移動する。従って、ユーザU1,U2の位置及び向きは不規則に変化する。一方、仮想話者G1〜G5の位置は、前述したように、時間経過に関わらず固定されている位置であってもよいし、位置変動アルゴリズムに基づいて時間経過に従って変動する位置であってもよい。従って、或るタイミングにおいては、ユーザU1,U2と仮想話者G1〜G5とが偶然近くになることがあるし、別のタイミングにおいては、ユーザU1,U2と仮想話者G1〜G5とが離れていることもある。
例えばユーザU1が方向D1を向いているとき、その方向D1を示す半直線を基準とした所定の範囲(図においては方向D1を示す半直線を中心として両側に45度の範囲内)には、仮想話者G1の位置が含まれている。よって、この場合は、提供部104は、ユーザとの位置関係が所定の位置関係となる範囲に仮想話者U1の位置が含まれると判断する。一方、例えばユーザU2が方向D2を向いているとき、その方向D2を示す半直線を基準とした所定の範囲に、いずれの仮想話者の位置も含まれない。よって、この場合は、提供部104は、ユーザとの位置関係が所定の位置関係となる範囲に仮想話者が含まれないと判断する。
図6の説明に戻り、提供部104は、ステップS13にて取得されたユーザの音声データに基づいて、音声対話アルゴリズムに従い、ユーザの音声に応答する仮想話者の音声データを特定する(ステップS15)。例えば、取得された音声データがユーザの「こんにちは。誰か居る?」という発話内容であれば、「うん、居るよ。こんにちは」というように、ユーザの問いに答えるような仮想話者の音声データが特定される。また、取得された音声データがバックグラウンドミュージックなどの環境音であれば、「こんにちは。何かお手伝いしようか?」というように、仮想話者側からユーザに対して能動的に発話するような音声データが特定される。
さらに、提供部104は、ユーザの位置及び仮想話者の位置の間の距離を算出し、音声データの音量パラメータをその距離に応じた値に設定する。例えば、提供部104は、ユーザ及び仮想話者間の距離が大きいと音量を小さくし、ユーザ及び仮想話者の間の距離が小さいと音量を大きくする、というような音量パラメータ設定を行う。
提供部104は、ステップS15にて特定した音声データの音声ID及び音量パラメータをネットワーク900経由で音声再生装置200に送信する。これにより、音声再生装置200において再生すべき音声が指定される(ステップS16)。
音声再生装置200の再生部204は、提供部104から指定された音声IDの音声データを記憶部23から読み出し、提供部104から指定された音量パラメータに応じた音量で音声再生を行う(ステップS17)。
以降、上記のステップS11〜S17の処理が繰り返されることで、ユーザと仮想話者との間で双方向の対話がなされる。これにより、ユーザは自身の近くにまるで仮想話者が居るかのように感じることができ、さらにはその音量の大小によってユーザ自身と仮想話者までの距離を感覚的に知ることができる。
以上説明した実施形態によれば、ユーザの位置及び方向と音声とを関連付けた新たな情報提供サービス、即ち仮想的な話者とユーザとの音声によるコミュニケーションを実現することが可能となる。また、音声を提供する側(例えばアミューズメント施設の運営者)にとっては、ユーザに提供する音声によってそのユーザを施設に呼び込むという集客効果を期待することができる。
[変形例]
上述した実施形態は次のような変形が可能である。また、以下の変形例を互いに組み合わせて実施してもよい。
[変形例1]
ユーザを基準として仮想話者の位置を音発生源とする音場を再現してもよい。具体的には、音声再生装置200が複数のスピーカを実装し、それぞれのスピーカからの放音タイミングを時間的に遅延させることで、仮想話者の音声がどの方向から聞こえてくるかという音像定位が可能な音場を実現できるようにする。音声提供装置100の提供部104は、ユーザと仮想話者との位置関係に応じた音像定位を実現するための音場パラメータ(具体的には各スピーカからの放音タイミングの遅延時間)を音声再生装置100に提供する。つまり、提供部104は、仮想話者の音声とともに、ユーザの位置と仮想話者の位置との関係に応じて上記音声の放音処理を行うための音場を提供するための処理を行う。このようにすれば、ユーザは仮想話者がどちらの方向に居るかということを感じることができる。
[変形例2]
実施形態においては、個々のユーザに装着される或いはユーザによって携帯される音声再生装置200から放音してユーザに音声を提供していたが、ユーザに音声を放音する装置はこのようなものに限らず、例えばこの音声提供システムが設けられたエリアに設置されたスピーカ等の音声再生装置によってユーザに対して音声を放音してもよい。具体的には、上述したようなスピーカを含む音声再生装置と、個々のユーザに装着或いは携帯されて検出部201の機能を備えた通信端末とを別々の装置として構成し、この音声再生装置及び通信端末においてお互いに無線でデータ通信を行う機能を実装する。通信端末は自身の位置と方向(つまりユーザの位置及びユーザが向いている方向)を検出し、その位置及び方向を、自身が通信可能な音声再生装置(つまりユーザの近くにある音声再生装置)に通知する。音声再生装置は通信端末から通知されたユーザの位置及び方向を音声提供装置100に送信する。音声提供装置100はユーザの位置及び方向と所定の関係となる仮想話者を特定し、その仮想話者がユーザと対話するための音声データを上記音声再生装置に対して指定する。音声再生装置は、指定された音声データを再生する。
[変形例3]
実施形態において、音声提供装置100の提供部104は、ユーザと仮想話者とが所定の距離の範囲内にあり、ユーザが向いている方向(例えばユーザが向いている方向を中心として両側にそれぞれ45度の範囲)に仮想話者が存在する場合に音声を提供していた。ただし、音声を提供する条件として、ユーザが向いている方向は必ずしも必須ではない。つまり、提供部104は、ユーザの位置と仮想話者の位置との間の距離が所定の関係となる場合に音声を提供するための処理を行えばよい。
[変形例4]
実施形態においては、提供部104は、仮想話者がユーザに応じた内容でそのユーザと対話するための音声を提供するための処理を行っていたが、ここでいう「ユーザに応じた内容」とは、ユーザの発話内容に応じた、という意味である。この「ユーザに応じた内容」は、次に述べるように、ユーザの属性、行動、生体情報又は感情という意味を含んでもよい。
ユーザの属性とは、例えばユーザの年齢、性別、趣味、好みなどである。この場合、音声提供装置100の記憶部102は各ユーザを識別する識別情報であるユーザIDと、そのユーザの属性群とを関連付けて記憶している。ユーザの属性群はそのユーザによって事前に登録又は申告されたものである。提供部104は、このユーザの属性に応じた内容の音声データを仮想話者の音声データとして特定する。例えばユーザの趣味がスポーツであれば、ユーザと仮想話者の対話の話題としてスポーツに関するものを用いる。
また、ユーザの行動とは、ユーザの動きや移動履歴などである。この場合、音声再生装置200にはユーザの行動を検出するセンサとして、マイク、加速度センサ、ジャイロセンサ、測位部などが実装されている。提供部104は、音声再生装置200から通知されるユーザの移動履歴や動きに応じて仮想話者の音声を特定する。
ユーザの移動履歴としては、仮想話者の音声を特定する直前の位置やその位置変化の履歴を利用してもよいし、過去の位置やその位置変化(例えば仮想話者の音声を特定する1時間前や前回の施設来園時など)を利用してもよい。例えば前回の施設来園時の位置を利用する場合、前回の施設来場時の移動履歴として、例えばジェットコースターの乗車場所に近づいた後に、ジェットコースターに乗車せずにその乗車場所から遠ざかった状態を意味する履歴が記録されており、そして、今回の施設来場中の移動履歴では、そのジェットコースターに乗車したことが検出された場合には、提供部104は、「前は乗れなかったのに乗れるようになったね!」というような仮想話者の音声をユーザに提供する。また、行動として、例えばユーザが頭を振る動作を検出したら、提供部104は、「何か困っているの?」のような仮想話者の音声をユーザに提供する。
また、ユーザの動きとは、ユーザの身体の動きであればどのようなものでもよく、例えばユーザの表情、しぐさ、ジェスチャ或いは動作パターンなどである。例えば図6のステップS13においてユーザの動きを示す動きデータが取得され、ステップS15において、提供部104は、その動きデータに基づいて、ユーザに対する仮想話者の音声データを特定する。
ユーザの生体情報とは、例えばユーザの体温、脈拍、発汗、脳波などである。この場合、音声再生装置200にはユーザの生体情報を検出するセンサが実装されている。提供部104は音声再生装置200から通知されるユーザの生体情報に応じて仮想話者の音声を特定する。また、提供部104は音声再生装置200から通知されるユーザの生体情報や行動に基づいてユーザの感情を推定し、その感情に応じて仮想話者の音声を特定するようにしてもよい。
[変形例5]
実施形態において、更新部103が用いる仮想話者の位置変動アルゴリズムとして、音声提供システムが設置されたエリア内の任意の位置をランダムに選択するようなアルゴリズムや、音声提供システムが設置されたエリア内の所定の経路上の位置を所定の距離ずつ移動させていくようなアルゴリズムを例示したが、これ以外に次のようなものも考えられる。
例えば、更新部103は、例えば所定の基準で区画された各地域に所在する施設来場者の人数に基づいて特定される、各地域の混雑状況に応じて、仮想話者の位置を更新する。アミューズメント施設の場合、人気のアトラクションやプログラム等のサービス状況によって、各地域の混雑状況が大きく異なる。そこで、提供部104は、施設内の各地域の混雑度を検出し、混雑度が閾値よりも少ない地域において仮想話者の出現確率が大きくなるような位置変動アルゴリズムを採用する。このようにすれば、仮想話者とコミュニケーションしたいというユーザの意識を利用して、ユーザを混雑の少ない地域に誘導することが可能となる。
ここで、例えば施設内を撮像するカメラ等によって施設来場者の混雑状況を検出する場合には、音声再生装置200を所持している施設来場者及び音声再生装置200を所持していない施設来場者の混雑状況を特定することができる。また、例えば各々の音声再生装置200の測位部26が測位した結果に基づいて施設来場者の混雑状況を検出する場合には、音声再生装置200を所持している施設来場者の混雑状況を特定することができる。混雑状況の検出対象となる施設来場者は、上記のどちらでもよい。
また、更新部103は、複数のユーザに提供されうるアトラクションやプログラム等のサービスの予定(サービスが提供される位置及び時間)を記憶しておき、サービスが提供されうる地域及び時間において仮想話者の出現確率が大きくなるような位置変動アルゴリズムを採用する。このようにすれば、仮想話者とコミュニケーションしたいというユーザの意識を利用して、ユーザをサービスの提供地域に誘導することが可能となる。
また、施設内の地域別の混雑度を検出する手段がない場合であっても、更新部103は、複数のユーザに提供されうるアトラクションやプログラム等のサービスの予定を記憶しておき、そのスケジュールから予想される地域別の混雑度が閾値よりも少ない地域において仮想話者の出現確率が大きくするような位置変動アルゴリズムを採用してもよい。このようにしても、仮想話者とコミュニケーションしたいというユーザの意識を利用して、ユーザを混雑の少ない地域に誘導することが可能となる。
また、更新部103は、仮想話者と対話を行っているユーザの移動に応じて、その仮想話者の位置を更新する。つまり、いったん仮想話者との対話を開始したユーザの移動に追随して、仮想話者がそのユーザと同じ位置変動をするようなアルゴリズムである。このようにすれば、ユーザは仮想話者が一緒に歩きながら対話してくれているように感じることができる。
[変形例6]
提供部104は、仮想話者の音声データを特定するときに、1の仮想話者の音声を特定するのではなく、ユーザの位置と所定の関係となる複数の仮想話者の音声データを特定し、これらを全てユーザに提供するための処理を行ってもよい。この場合、提供部104は、例えば、仮想話者ごとに音声データの声色を変えるとか、ユーザの位置と仮想話者の位置との間の距離に応じてそれぞれの音声の音量を制御してもよい。
[変形例7]
本発明におけるユーザと仮想話者とのコミュニケーションとは、双方向の対話によるものに限らず、一方向の対話によるものであってもよい。
[変形例8]
実施形態において、提供部104は、仮想話者の位置及びユーザの位置の間の距離に基づいて音声データの音量を制御していたが、音量を制御する方法はこれに限らない。例えば提供部104は、ユーザの位置を基準としたユーザの向いている方向と仮想話者の位置との一致度(例えばユーザの位置を始点としてユーザの向いている方向を示す半直線と仮想話者の位置との近さ)に応じた音量の音声をユーザに提供する。
さらに、音声データの音量のみならず、音声データの音色やエフェクトなど、要するに仮想話者及びユーザの位置関係に基づいて、音声データにおける音響的なパラメータを変化させる音響処理を施すというものでもよい。例えば提供部104は、仮想話者及びユーザ間の距離に応じてイコライザで低音域を低減させる(例えば距離が遠いと低い音の成分のみ小さくするなど)とか、仮想話者及びユーザ間の距離に応じてディレイやリバーブといったエフェクトの強度を異ならせる(例えば距離が遠いとリバーブの強度を高くするなど)ようにしてもよい。
また、仮想話者の位置として、水平方向の位置以外に、高さ方向の位置を用いてもよい。この場合、提供部104は、仮想話者の高さ方向の位置を反映させた音響処理を音声データに施すようにしてもよい。提供部104は、例えば仮想話者の位置がユーザの位置よりも高い場合、頭部伝達関数(HRTF:Head−Related Transfer Function)を用いた処理によって、ユーザの上方から仮想話者の声が聞こえるかのようなエフェクトを施してもよい。
[変形例9]
実施形態において、提供部104は、仮想話者の位置及びユーザの位置の間の距離に基づいて音声データの音量を制御していたが、音声データの内容を変化させても良い。例えば、提供部104は、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が第1閾値以上の範囲に仮想話者の位置が含まれる場合には「おーい、こっち」という音声データを提供し、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が第2閾値より大きく第1閾値より小さい範囲に仮想話者の位置が含まれる場合には「こっちだよ」という音声データを提供し、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が第2閾値以下の範囲に仮想話者の位置が含まれる場合には「こんにちは」という音声データを提供する。ここで、第2閾値は第1閾値よりも小さい。
なお、提供部104は、仮想話者の位置及びユーザの位置の間の距離に基づいて、音声データの音量と内容の両方を変化させても良い。
[変形例10]
実施形態において、ユーザの向いている方向を検出する方向検出部25は方位センサやジャイロセンサなどを含んでいたが、ビーコン発信機を用いてユーザの向いている方向を検出しても良い。具体的には、方向検出部25が、予め設置されたビーコン発信機からの信号を受信する受信部を有してもよい。
例えば、予め複数のビーコン発信機を互いに異なる位置に設置し、方向検出部25は、受信部により複数のビーコン発信機からのビーコン信号を受信して三角測量などの手法によりユーザの向いている方向を検出する。
あるいは、1個のビーコン発信機を予め設置し、ユーザを所定の範囲に誘導するようにしてもよい。この場合、ビーコン信号によりビーコン発信機の方向を検出し、ビーコン発信機の方向に基づきユーザの向いている方向を検出する。ユーザを所定の範囲に誘導する方法としては、例えば、地面にマーキングを施したり、実物あるいは仮想の壁を設けたりする。ユーザを誘導する方法はこれらに限られず、ユーザを所定の範囲に誘導し、ユーザの位置を所定の範囲に制限できれば良い。また、ビーコン発信機や受信部は、ユーザが所定の範囲に入ったときにのみ動作するようにしても良い。
[変形例11]
ユーザに提供される音声は音声再生装置200の記憶部23に予め記憶されているものに限らず、音声提供装置100の記憶部13に記憶されていてもよい。この場合、音声提供装置100から例えば図6のステップS16の実行タイミングで、都度、音声再生装置200に音声データを提供してもよい。 また、提供部104は、音声に加えて、ユーザの位置に関する音声以外のデータ(例えばユーザの位置に関する施設内情報を記述したテキストデータやその位置に関連する画像を表す画像データ)を音声再生装置200に提供してもよい。
[変形例12]
上記実施形態の説明に用いた図5のブロック図は機能単位のブロックを示している。これらの各機能ブロックは、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現部は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。従って、本発明に係る音声提供装置又は音声再生装置は、実施形態で説明したようにそれぞれの機能の全てを一体に備えた装置によっても実現可能であるし、それぞれの装置の機能を、さらに複数の装置に分散して実装したシステムであってもよい。また、上記実施形態で説明した処理の手順は、矛盾の無い限り、順序を入れ替えてもよい。実施形態で説明した方法については、例示的な順序で各ステップの要素を提示しており、提示した特定の順序に限定されない。
本発明は、音声提供装置又は音声再生装置が行う情報処理方法といった形態でも実施が可能である。また、本発明は、音声提供装置又は音声再生装置としてコンピュータを機能させるためのプログラムといった形態でも実施が可能である。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等の通信網を介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。
本出願は、2017年4月10日に出願された日本特許出願(特願2017−077348)に基づくものであり、ここに参照として取り込まれる。
100・・・音声提供装置
11・・・制御部
12・・・通信部
13・・・記憶部
101・・・取得部
102・・・記憶部
103・・・更新部
104・・・提供部
200・・・音声再生装置
21・・・制御部
22・・・通信部
23・・・記憶部
24・・・再生部
25・・・方向検出部
26・・・測位部
27・・・UI部
28・・・収音部
201・・・検出部
202・・・収音部
203・・・通知部
204・・・再生部
900・・・ネットワーク

Claims (13)

  1. ユーザの位置を取得する取得手段と、
    前記取得手段によって取得された位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供手段と、
    前記仮想的な話者の位置を更新する更新手段と、を備え、
    前記更新手段は、各地域の混雑状況に応じて、前記仮想的な話者の位置を更新する
    ことを特徴とする音声提供装置。
  2. 前記提供手段は、前記音声とともに、前記取得手段によって取得された位置と前記仮想的な話者の位置との関係に応じて前記音声の放音処理を行うための音場を提供するための処理を行う
    ことを特徴とする請求項1記載の音声提供装置。
  3. 前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置とが所定の範囲内にある場合に、前記音声を提供するための処理を行う
    ことを特徴とする請求項1記載の音声提供装置。
  4. 前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置とが所定の距離の範囲内にあり、且つ、前記ユーザが向いている方向に前記仮想的な話者の位置が存在する場合に、前記音声を提供するための処理を行う
    ことを特徴とする請求項3記載の音声提供装置。
  5. 前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置との間の距離に応じて、前記音声の内容を変化させる
    ことを特徴とする請求項3又は4記載の音声提供装置。
  6. 前記提供手段は、前記仮想的な話者が前記ユーザの属性、行動、生体情報又は感情に応じた内容で当該ユーザと対話するための音声を提供するための処理を行う
    ことを特徴とする請求項1〜5のいずれか1項に記載の音声提供装置。
  7. 前記更新手段は、各地域において提供されうるサービスの状況に応じて、前記仮想的な話者の位置を更新する
    ことを特徴とする請求項に記載の音声提供装置。
  8. 前記更新手段は、前記仮想的な話者と対話を行っている前記ユーザの移動状況に応じて、当該仮想的な話者の位置を更新する
    ことを特徴とする請求項に記載の音声提供装置。
  9. ユーザの位置を取得する取得ステップと、
    取得された前記位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供ステップと、
    前記仮想的な話者の位置を更新する更新ステップと、を備え、
    前記更新ステップは、各地域の混雑状況に応じて、前記仮想的な話者の位置を更新する
    ことを特徴とする音声提供方法。
  10. 前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置とが所定の範囲内にある場合に、前記音声を提供するための処理を行う
    ことを特徴とする請求項記載の音声提供方法。
  11. 前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置とが所定の距離の範囲内にあり、且つ、前記ユーザが向いている方向に前記仮想的な話者の位置が存在する場合に、前記音声を提供するための処理を行う
    ことを特徴とする請求項10記載の音声提供方法。
  12. 前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置との間の距離に応じて、前記音声の内容を変化させる
    ことを特徴とする請求項10又は11記載の音声提供方法。
  13. コンピュータを、
    ユーザの位置を取得する取得手段と、
    前記取得手段によって取得された位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供手段と、
    前記仮想的な話者の位置を更新する更新手段として機能させるためのプログラムであって、
    前記更新手段は、各地域の混雑状況に応じて、前記仮想的な話者の位置を更新することを特徴とするプログラム
JP2019512404A 2017-04-10 2018-03-22 音声提供装置、音声提供方法及びプログラム Active JP6884854B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017077348 2017-04-10
JP2017077348 2017-04-10
PCT/JP2018/011554 WO2018190099A1 (ja) 2017-04-10 2018-03-22 音声提供装置、音声提供方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018190099A1 JPWO2018190099A1 (ja) 2020-02-27
JP6884854B2 true JP6884854B2 (ja) 2021-06-09

Family

ID=63792905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512404A Active JP6884854B2 (ja) 2017-04-10 2018-03-22 音声提供装置、音声提供方法及びプログラム

Country Status (5)

Country Link
US (1) US10820132B2 (ja)
EP (1) EP3611941A4 (ja)
JP (1) JP6884854B2 (ja)
CN (1) CN110495190B (ja)
WO (1) WO2018190099A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112261337B (zh) * 2020-09-29 2023-03-31 上海连尚网络科技有限公司 一种在多人语音中播放语音信息的方法与设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136600A (ja) * 1999-11-05 2001-05-18 Sony Corp ディスプレイ装置
JP3697568B2 (ja) 2000-02-24 2005-09-21 株式会社日立製作所 情報配信システム
JP2003234689A (ja) * 2002-02-07 2003-08-22 Casio Comput Co Ltd サービスシステム、携帯端末、及び携帯端末処理プログラム
AU2003230067A1 (en) * 2002-05-14 2003-11-11 Koninklijke Philips Electronics N.V. Dialog control for an electric apparatus
JP2005148724A (ja) * 2003-10-21 2005-06-09 Zenrin Datacom Co Ltd 音声認識を用いた情報入力を伴う情報処理装置
JP4204541B2 (ja) * 2004-12-24 2009-01-07 株式会社東芝 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
US8279168B2 (en) * 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
JP2007193166A (ja) * 2006-01-20 2007-08-02 Kenwood Corp 対話装置、対話方法及びプログラム
JP4725375B2 (ja) * 2006-03-14 2011-07-13 株式会社ケンウッド ナビゲーション装置、プログラム及び方法
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
WO2010108033A1 (en) * 2009-03-18 2010-09-23 Inxile Entertainment, Inc. Gaming voice reaction system
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
JP5821307B2 (ja) * 2011-06-13 2015-11-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2013101248A (ja) * 2011-11-09 2013-05-23 Sony Corp 音声制御装置、音声制御方法、およびプログラム
US9230368B2 (en) * 2013-05-23 2016-01-05 Microsoft Technology Licensing, Llc Hologram anchoring and dynamic positioning
JP6174951B2 (ja) * 2013-09-03 2017-08-02 株式会社 ミックウェア 端末装置、情報処理方法、およびプログラム
JP6263098B2 (ja) * 2014-07-15 2018-01-17 Kddi株式会社 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
CN107534824B (zh) * 2015-05-18 2019-10-18 索尼公司 信息处理设备、信息处理方法和程序
JP6689589B2 (ja) 2015-10-20 2020-04-28 オリンパス株式会社 内視鏡
WO2018043112A1 (ja) * 2016-08-29 2018-03-08 ソニー株式会社 情報提示装置、および情報提示方法

Also Published As

Publication number Publication date
EP3611941A4 (en) 2020-12-30
WO2018190099A1 (ja) 2018-10-18
US20200037098A1 (en) 2020-01-30
EP3611941A1 (en) 2020-02-19
JPWO2018190099A1 (ja) 2020-02-27
US10820132B2 (en) 2020-10-27
CN110495190B (zh) 2021-08-17
CN110495190A (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
US11172316B2 (en) Wearable electronic device displays a 3D zone from where binaural sound emanates
US11659348B2 (en) Localizing binaural sound to objects
US11496842B2 (en) Selective amplification of speaker of interest
CN108141696A (zh) 用于空间音频调节的***和方法
JP7167910B2 (ja) 情報処理装置、情報処理方法、およびプログラム
TW201820315A (zh) 改良型音訊耳機裝置及其聲音播放方法、電腦程式
CN110945489A (zh) 信息处理***、信息处理装置、信息处理方法和记录介质
CN108600496A (zh) 电子设备及其控制方法
JP6404709B2 (ja) 音出力装置および音出力装置における音の再生方法
JP6884854B2 (ja) 音声提供装置、音声提供方法及びプログラム
CN111630472A (zh) 信息处理装置、信息处理方法和程序
WO2018092486A1 (ja) 情報処理装置、方法及びプログラム
CN104956690A (zh) 一种为在用耳适配声音信号的***
TW202347096A (zh) 用於受損使用者或具備殘疾的使用者之智慧眼鏡介面
JPWO2020158440A1 (ja) 情報処理装置、情報処理方法、及びプログラムを記載した記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191010

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R150 Certificate of patent or registration of utility model

Ref document number: 6884854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350