JP6756777B2 - 情報処理装置および音発生方法 - Google Patents

情報処理装置および音発生方法 Download PDF

Info

Publication number
JP6756777B2
JP6756777B2 JP2018103966A JP2018103966A JP6756777B2 JP 6756777 B2 JP6756777 B2 JP 6756777B2 JP 2018103966 A JP2018103966 A JP 2018103966A JP 2018103966 A JP2018103966 A JP 2018103966A JP 6756777 B2 JP6756777 B2 JP 6756777B2
Authority
JP
Japan
Prior art keywords
sound
game
localization
image
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018103966A
Other languages
English (en)
Other versions
JP2019208185A (ja
Inventor
昌毅 高瀬
昌毅 高瀬
直樹 常盤
直樹 常盤
朗 宮下
朗 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2018103966A priority Critical patent/JP6756777B2/ja
Priority to PCT/JP2019/020528 priority patent/WO2019230567A1/ja
Priority to US17/058,314 priority patent/US11337025B2/en
Publication of JP2019208185A publication Critical patent/JP2019208185A/ja
Application granted granted Critical
Publication of JP6756777B2 publication Critical patent/JP6756777B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Stereophonic System (AREA)

Description

本発明は、空間内に音像を定位する技術に関する。
特許文献1は、音声情報を空間的に配置する音像定位技術を用いて、現実空間に仮想キャラクタが本当に存在しているようユーザに知覚させ、仮想キャラクタの音声により所定の場所への誘導情報を提示することで、当該誘導に従うモチベーションをユーザに励起させる技術を開示する。
特開2017−103598号公報
ユーザを取り囲むようにスピーカを配置したサラウンド音響空間は、音場の広がりや、音響の立体感および臨場感をユーザに提供する。5.1チャンネル、7.1チャンネルの音響システムが普及しているが、近年では3次元音響空間の立体感を向上するために、スピーカを天井などに設置して上方から音を出す音響システムも開発されている。また従来より、少ない数のスピーカを用いて仮想的なマルチチャンネル音響空間を実現するバーチャルサラウンド技術が存在し、バーチャルサラウンド技術では、仮想音源を音像定位することで、サラウンド音響を擬似的に再現する。
たとえば映画などの動画再生では、映画中の音をサラウンド音響空間内に定位して音響の立体感および臨場感を高める工夫が行われている。ゲーム分野においても同様に、ゲーム中の仮想オブジェクトから発生する音をサラウンド音響空間内に定位する処理が行われる。一方で、ゲームプレイ中のユーザに対してシステムから出力される通知音などは、複数のスピーカから均等なボリュームで出力されているに過ぎず、改善の余地がある。
本発明の目的は、音像定位技術を効果的に利用した技術を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、複数のスピーカに接続する情報処理装置であって、コンテンツの音の音像を定位する第1定位処理部と、定位処理された前記コンテンツの音データをスピーカに供給する第1音出力部と、前記コンテンツの音の音像が定位されている第1定位位置とは異なる第2定位位置に、前記コンテンツの音とは異なる音の音像を定位する第2定位処理部と、定位処理された前記コンテンツの音とは異なる音のデータをスピーカに供給する第2音出力部とを備える。
コンテンツは、たとえばゲームであって、コンテンツ音は、ゲーム中に発生するゲーム音であってよい。コンテンツ音とは異なる音は、コンテンツとは異なるシステムソフトウェアやアプリケーションで発生する音である。コンテンツ音がゲーム音であるとき、コンテンツ音と異なる音は、当該ゲームと異なるアプリケーションで発生する音や、システムソフトウェアで発生する音であってよい。なおコンテンツ音は、ゲーム以外のアプリケーション、たとえば動画再生アプリケーションにより再生される音であってもよい。音の発生主体は擬人化されて、ユーザに視覚的に提示されてもよく、擬人化されていなくてもよい。
本発明の別の態様は、音発生方法である。この方法は、コンテンツの音の音像を定位するステップと、定位処理された前記コンテンツの音データをスピーカに供給するステップと、前記コンテンツの音の音像が定位されている第1定位位置とは異なる第2定位位置に、前記コンテンツの音とは異なる音の音像を定位するステップと、定位処理された前記コンテンツの音とは異なる音のデータをスピーカに供給するステップとを備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
ユーザのサラウンド音響空間の一例を示す図である。 情報処理装置のハードウェア構成を示す図である。 実施例1における情報処理装置の機能ブロックを示す図である。 ゲーム画像の一例を示す図である。 ゲーム音の音像の定位位置を示す図である。 エージェント実行部の構成の一例を示す図である。 エージェント音の音像の定位位置を示す図である。 エージェント音の音像定位処理のフローチャートを示す図である。 実施例2における情報処理装置の機能ブロックを示す図である。 ゲーム画像の一例を示す図である。
図1は、ゲームをプレイするユーザのサラウンド音響空間の一例を示す。情報処理システム1は、ユーザ端末装置である情報処理装置10と、マルチチャンネル音響空間を実現する複数のスピーカ3a〜3j(以下、特に区別しない場合には、単に「スピーカ3」と呼ぶ)と、テレビなどの表示装置4と、表示装置4の前方空間を撮影するカメラ7とを備える。カメラ7はステレオカメラであってよい。情報処理装置10は、複数のスピーカ3、表示装置4およびカメラ7に接続する。
実施例において情報処理装置10はゲームプログラムを実行するゲーム装置であり、ユーザが操作するゲームコントローラ(図示せず)と無線または有線で接続し、ゲームコントローラから供給される操作情報をゲームの処理に反映する。情報処理装置10は、ゲーム画像を表示装置4に供給し、ゲーム音を複数のスピーカ3に供給する。実施例で情報処理装置10はゲームプログラムを実行する機能を有するが、変形例では、情報処理装置10はゲームプログラムの実行機能を有さず、ゲームコントローラに入力された操作情報をクラウドサーバに送信し、クラウドサーバからゲーム画音を供給される端末装置であってもよい。
ユーザは、ゲーム画像を表示する表示装置4の正面に座って、ゲームをプレイする。情報処理装置10は、カメラ7が撮影したユーザの画像を取得して、室内におけるユーザの位置を特定する。ユーザの前方正面にはセンタースピーカ3a、前方左右には、表示装置4を挟んでフロントスピーカ3b、3c、および超低音域を担当するスピーカであるサブウーハー3k、3lが配置される。ユーザの左右には、サラウンドスピーカ3d、3eが配置される。ユーザの後方背面にはサラウンドバックスピーカ3f、後方左右には、サラウンドバックスピーカ3g、3hが配置される。また天井には、ハイトスピーカ3i、3jが配置される。
実施例のサラウンド音響空間は、ハイトスピーカ3i、3jを他のスピーカよりも高い位置に設置することで、高精度な3次元音像定位を実現可能としている。図1に示すサラウンド音響空間はユーザのゲームプレイ環境の一例であるが、情報処理装置10がゲーム音などの音像を部屋空間内の所望の位置に定位するためには、室内のスピーカ3の位置および向きを把握している必要がある。
なお実施例では、ユーザを取り囲むように複数のスピーカ3を配置したサラウンド音響空間を前提とするが、従来より、少ない数のスピーカ、典型的には2つのスピーカを用いて仮想的なマルチチャンネル音響空間を実現するバーチャルサラウンド技術が存在する。バーチャルサラウンド音響空間を実現する場合、情報処理装置10は、音像の方向等に応じた頭部伝達関数(Head-Related Transfer Function; HRTF)を用いて、仮想音源を音像定位する。
図2は、情報処理装置10のハードウェア構成を示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置(図示せず)またはROM媒体44に記録されたゲームプログラムを実行する機能をもつ。
サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアであってよい。
USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は、外部の補助記憶装置およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえばゲームコントローラ6と無線通信する。有線通信モジュール40は、外部機器と有線通信し、アクセスポイントを介して、インターネットなどの外部ネットワークに接続する。
図3は、実施例1における情報処理装置10の機能ブロックを示す。実施例1では、情報処理装置10が、ユーザによる発話に対して応答し、またユーザにお奨めの情報を提供するエージェント機能を実行する。エージェントは、視覚的に擬人化されたキャラクタの形態を有し、ユーザとコミュニケーションをとる際に、表示装置4にキャラクタが表示されてもよいが、視覚的な擬人化はされずに、音声のみによってユーザとコミュニケーションをとってもよい。
情報処理装置10は、ゲーム処理部100、エージェント処理部200、画像処理部90および混合部92を備える。ゲーム処理部100は、ゲーム実行部102、ゲーム画像出力部104、ゲーム音定位処理部106およびゲーム音出力部108を有し、エージェント処理部200は、エージェント実行部202、エージェント音定位処理部204およびエージェント音出力部206を有する。
図3において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、システムソフトウェアや、メモリにロードされたゲームプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
ゲーム実行部102はゲームプログラム(以下、単に「ゲーム」とも呼ぶこともある)を実行して、ゲームの画像データおよび音声データを生成する。ゲーム実行部102として示す機能は、システムソフトウェア、ゲームプログラム、レンダリング処理などを実行するGPUなどのハードウェアにより実現される。なおゲームはアプリケーションの一例であり、ゲーム実行部102は、ゲーム以外のアプリケーションを実行してもよい。
ゲーム実行部102は、ユーザがゲームコントローラ6に入力した操作情報をもとに、仮想空間においてゲームキャラクタを動かす演算処理を行う。ゲーム実行部102は、仮想空間における演算処理結果にもとづいて、仮想空間内の視点位置(仮想カメラ)からのゲーム画像データを生成する。またゲーム実行部102は、仮想空間内のゲーム音声データを生成する。
たとえばファーストパーソンシューター(FPS)ゲームでは、ゲーム実行部102は、ユーザが操作するゲームキャラクタの本人(第1者)視点からの画像データを生成して、ゲーム画像出力部104に供給する。ゲーム画像出力部104は、ゲーム画像データを表示装置4の表示領域の全体に表示させる。
図4は、表示装置4に表示されるゲーム画像の一例を示す。ゲーム画像出力部104は、ゲーム画像データを画像処理部90に供給し、画像処理部90は、ゲーム画像データから表示用データを生成して、ゲーム画像を表示装置4の表示領域全体に表示する。
ゲーム実行部102は、ゲーム空間における音発生源で発生するゲーム音データを生成し、ゲーム音定位処理部106に供給する。このときゲーム実行部102は、ゲーム音定位処理部106がゲームキャラクタに対する音発生源の相対的な方向および距離を示す情報を算出するための音源位置情報も、ゲーム音定位処理部106に供給する。たとえば音源位置情報は、ゲーム空間のワールド座標系におけるゲームキャラクタの位置情報および方向(向き)と、音発生源の位置情報を含んでよい。ゲーム音定位処理部106は、音源位置情報から、ゲームキャラクタに対する音発生源の相対的な方向および距離を算出し、ゲーム音の音像を定位する3次元空間内の位置を定める。
ゲーム空間において、ゲームキャラクタの正面方向に対して角度αだけ左方向であって且つ距離Lの地点で、爆発音が発生したケースを想定する。ゲーム実行部102は、ゲーム空間のワールド座標系におけるゲームキャラクタの位置情報および方向(向き)と、音発生源の位置情報を含む音源位置情報を生成し、ゲーム音定位処理部106に供給する。なおゲーム実行部102は、音源位置がゲームキャラクタの左前方αの角度であって且つ距離Lであることを示す音源位置情報を生成して、ゲーム音定位処理部106に供給してもよい。ゲーム音定位処理部106は、ゲームキャラクタと音発生源との相対的な方向および距離の関係を、3次元空間におけるユーザを基点とした方向および距離の関係に変換して、ゲーム音の音像の定位位置P1を決定する。
図5は、ゲーム音の音像の定位位置P1を示す。ゲーム音定位処理部106は、3次元空間におけるユーザの頭部位置HPおよびユーザの顔の向きを特定する。ゲーム音定位処理部106は、カメラ7が撮影した画像からユーザの頭部位置HPおよび顔の向きを特定してよい。この例ではユーザが、表示装置4に対向する方向(正面方向)を向いて、ゲームをプレイしており、ゲーム音定位処理部106は、ユーザの頭部位置HPおよび正面方向を基準として、ゲーム音の音像の定位位置P1を定める。ここでは、頭部位置HPを基点とした正面方向と、頭部位置HPと定位位置P1を結ぶ直線のなす角度がαに設定され、頭部位置HPと定位位置P1の実空間内の距離が、ゲーム空間内の距離Lにもとづいて設定される。このようにゲーム音定位処理部106は、ゲーム空間内の音源位置を、3次元空間内の音像の定位位置P1に変換する。
ゲーム音定位処理部106は、ゲーム実行部102から供給されたゲーム音データに対して、決定した定位位置P1に音像を定位するための音像定位処理を実施する。音像定位処理は、サラウンド技術を用いて、定位位置P1から音が発せられたとユーザに知覚させる処理である。ゲーム音定位処理部106は、複数のスピーカ3におけるゲーム音出力を調整する音像定位処理を実施し、定位処理したゲーム音データを生成する。なおバーチャルサラウンド技術により定位位置P1に音像を定位させる場合、ゲーム音定位処理部106は、音像の方向等に応じた頭部伝達関数を用いて、音像定位処理を実施し、定位処理したゲーム音データを生成する。ゲーム音出力部108は、定位処理されたゲーム音データを、混合部92を介して各スピーカ3に供給する。これによりユーザは、定位位置P1から、爆発音の発生を聞くことができる。
エージェント実行部202は、ユーザとコミュニケーションをとるエージェントプログラムを実行して、エージェントの音声をスピーカ3から出力させる。エージェント実行部202は、ユーザからの発話内容を理解して音声応答する機能をもつ。
図6は、エージェント実行部202の構成の一例を示す。エージェント実行部202は、音声認識部210、自然言語理解部212、対応処理生成部214、応答作成部216および音変換部218を備える。
音声認識部210は、マイク(図示せず)から入力されるユーザの発話を音声認識して、テキストに変換する。自然言語理解部212は、テキストからユーザの意図を理解し、対応処理生成部214は、ユーザの意図に応じた内部コマンドを生成する。応答作成部216は、ユーザに対する応答メッセージをテキストで作成し、音変換部218は、作成されたメッセージを、エージェントの音声に変換して、エージェント音定位処理部204に出力する。
たとえばユーザが「明日の天気は?」と発話した場合、自然言語理解部212は、音声認識部210によりテキスト化された文章から、明日の天気を知りたい、とするユーザの要求を理解し、対応処理生成部214が、明日の天気を問い合わせるコマンドを外部サーバに送信する。応答作成部216は、外部サーバから明日が晴れであることを示す情報を受け取り、「明日は晴れのようです」とする応答メッセージのテキストを作成する。音変換部218は、エージェントの声で、「明日は晴れのようです」を再生するエージェント音データを生成し、エージェント音定位処理部204に出力する。
エージェント音定位処理部204は、エージェント音の音像を定位する3次元空間内の位置を定める。具体的にエージェント音定位処理部204は、ゲーム音の音像が定位されている定位位置P1とは異なる定位位置P2に、エージェント音の音像を定位する。エージェント音定位処理部204は、ゲーム音の音像が定位される可能性のない3次元空間内の位置を、エージェント音の音像の定位位置P2として決定してよい。たとえばゲームにゲーム空間内で音を発生する可能性のある領域と、音を発生しない領域とを示すパラメータが設定されている場合、エージェント音定位処理部204は、ゲームから当該パラメータを取得して、ゲーム音を発生しない領域を特定してもよい。たとえばゲームキャラクタの頭上の空間に、他のオブジェクトが存在することがない場合、ゲームには、ゲームキャラクタの頭上の空間をゲーム音を発生しない領域とするパラメータが設定されている。エージェント音定位処理部204は、当該パラメータを取得することで、ユーザの頭上の空間にゲーム音の音像が定位される可能性のないことを判定し、ユーザの頭上に、エージェント音の音像の定位位置P2を設定してもよい。
エージェント音定位処理部204は、エージェント実行部202から供給されたエージェント音データに対して、決定した定位位置P2に音像を定位するための音像定位処理を実施する。エージェント音定位処理部204は、複数のスピーカ3におけるエージェント音出力を調整する音像定位処理を実施し、定位処理したエージェント音データを生成する。なおバーチャルサラウンド技術により定位位置P2に音像を定位させる場合、エージェント音定位処理部204は、音像の方向等に応じた頭部伝達関数を用いて、音像定位処理を実施し、定位処理したエージェント音データを生成する。ゲーム音定位処理部106とエージェント音定位処理部204とは、別個の定位処理部として設けられてもよいが、1つの定位処理部が共用されて、ゲーム音とエージェント音の双方を処理してもよい。エージェント音出力部206は、定位処理されたエージェント音データを、混合部92を介して各スピーカ3に供給する。これによりユーザは、定位位置P2から、エージェント音を聞くことができ、仮想的なエージェントの存在を認識できる。
ユーザは、定位位置P1で発生したゲーム音を聞いているときに、定位位置P1とは異なる定位位置P2で発生したエージェント音を聞くことで、両者を明瞭に聞き分けることができる。なおユーザの頭部位置HPから定位位置P1に向かう方向と、頭部位置HPから定位位置P2に向かう方向とは、ずれていることが好ましい。頭部位置HP、定位位置P1、定位位置P2を直線上に配置しないことにより、ユーザは、ゲーム音とエージェント音とを明瞭に聞き分けることが可能となる。
図7は、エージェント音の音像の定位位置P2を示す。実施例でエージェント音定位処理部204は、ゲーム音定位処理部106から、ゲーム音の音像の定位位置P1を特定する定位情報を取得し、エージェント音の定位位置P2を、ゲーム音の定位位置P1とは異なる位置に設定する。
定位情報は、3次元空間におけるユーザとゲーム音の音像との相対位置を示す情報であってもよく、3次元空間におけるゲーム音の定位位置P1の座標値を示す情報であってもよい。エージェント音定位処理部204は、ユーザの頭部位置HPから定位位置P1に向かう方向と、ユーザの頭部位置HPから定位位置P2に向かう方向とのなす角度βが所定角度γ以上となるように、定位位置P2を決定することが好ましい。所定角度γは、音源の方向を区別できる角度であればよく、たとえば90度であってよい。
定位位置P2がユーザの頭上の高い位置に設定されると、エージェントにより上空から見られているような感覚をユーザに提供できる。また定位位置P2がユーザの肩口に設定されると、エージェントが常に肩口で寄り添っているような感覚をユーザに提供できる。また定位位置P2が表示装置4の手前の所定位置に設定されると、エージェントが常に向かい合って存在しているような感覚を、ユーザに提供できる。またゲームキャラクタの頭上にドローンのような飛行体であるエージェントを登場させ、定位位置P2をユーザの頭上の低い位置に設定することで、エージェントが常に頭上を旋回しているような感覚をユーザに提供できる。エージェント音定位処理部204は、定位位置P1の方向と重ならない限りは、定位位置P2を固定的に所定位置に設定し、定位位置P1の方向と重なった場合に、定位位置P1の方向とずらすように定位位置P2を変更してもよい。
なおエージェントをゲーム中の移動体として登場させる場合、エージェントは、常にゲームキャラクタの頭上を旋回するだけでなく、ゲームの進行状況に応じてユーザの周囲を自由に移動してよく、ゲーム中のキャラクタのように行動してよい。ゲーム実行部102は音発生源の位置情報を把握しているため、音発生源の位置とは重ならない位置にエージェントを配置し、定位位置P2を定位位置P1と異ならせてよい。
実施例1ではエージェント音定位処理部204が、ゲーム音定位処理部106から定位位置P1を特定する定位情報を取得したが、他のルートから取得してもよい。音像の定位は、各スピーカ3の出力の音量および時間差を制御することで実現されるため、エージェント音定位処理部204は、各スピーカ3の出力の音量および時間差を監視することで、ゲーム音の音像の定位位置P1を解析して取得してもよい。
たとえば左右の2つのスピーカ3でバーチャルサラウンドによる仮想的なマルチチャンネル音響空間を実現する場合、エージェント音定位処理部204は、左右のスピーカ3の音量比から、ユーザに対する定位位置P1の角度を計算する。これによりエージェント音定位処理部204は定位位置P1を把握でき、ユーザの頭部位置HPから定位位置P1に向かう方向と、ユーザの頭部位置HPから定位位置P2に向かう方向とのなす角度βが所定角度γ以上となるように、定位位置P2を決定できる。
なお人間の耳には、低音だと低い位置、高音だと高い位置から音が聞こえる特性があるため、エージェント音定位処理部204は、ゲーム音が聞こえる高さとは異なる高さからエージェント音が聞こえるように、エージェント音の音像を定位してもよい。たとえばゲーム音に高音周波数が多く含まれている場合、エージェント音定位処理部204は、エージェント音を低音周波数で生成して、定位位置P2を低い位置に設定し、逆にゲーム音に低音周波数が多く含まれている場合、エージェント音定位処理部204は、エージェント音を高音周波数で生成して、定位位置P2を高い位置に設定してよい。
エージェント音定位処理部204は、ゲーム音の定位位置P1の移動に伴って、エージェント音の定位位置P2を移動してよい。なおエージェント音定位処理部204は、定位位置P2の移動を所定の範囲内に制限することで、ユーザにエージェントからの音声であることを認識させるようにしてよい。
なお実施例1では、エージェントが1体であることを前提としているが、複数のエージェントが存在していてもよい。複数のエージェントが存在する場合においても、エージェント音定位処理部204は、各エージェント音の音像の定位位置を、ユーザを基点として異なる方向に存在するように設定することが好ましい。
図8は、エージェント音の音像定位処理を示すフローチャートである。ゲーム実行部102は、ゲーム空間における音発生源で発生するゲーム音データを生成し、音源位置情報とともに、ゲーム音定位処理部106に供給する。ゲーム音定位処理部106は、ゲーム音データおよび音源位置情報を取得し(S10)、音源位置情報から、ゲームキャラクタに対する音発生源の相対的な方向および距離を算出して、ゲーム音の音像を定位する3次元空間内の定位位置P1を定める(S12)。
ゲーム音定位処理部106は、ゲーム実行部102から供給されたゲーム音データに対して、決定した定位位置P1に音像を定位するための音像定位処理を実施する(S14)。ゲーム音定位処理部106は、複数のスピーカ3におけるゲーム音出力を調整する音像定位処理を実施し、定位処理したゲーム音データを生成する。なおバーチャルサラウンド技術により定位位置P1に音像を定位させる場合、ゲーム音定位処理部106は、音像の方向等に応じた頭部伝達関数を用いて、音像定位処理を実施し、定位処理したゲーム音データを生成する。
エージェント音定位処理部204は、ゲーム音定位処理部106から、ゲーム音の音像の定位位置P1を特定する定位情報を取得する(S16)。定位情報は、3次元空間におけるユーザとゲーム音の音像との相対位置を示す情報であってもよく、3次元空間におけるゲーム音の定位位置P1の座標値を示す情報であってもよい。エージェント音定位処理部204は、定位位置P1と異なる位置に、エージェント音の定位位置P2を決定する(S18)。エージェント音定位処理部204は、エージェント実行部202から供給されたエージェント音データに対して、決定した定位位置P2に音像を定位するための音像定位処理を実施する(S20)。
図9は、実施例2における情報処理装置10の機能ブロックを示す。実施例2では、情報処理装置10が、情報処理装置10におけるシステムソフトウェア、または外部サーバで生成された通知情報をユーザに提供する通知処理機能を実行する。
情報処理装置10は、ゲーム処理部100、通知処理部300、画像処理部90および混合部92を備える。ゲーム処理部100は、ゲーム実行部102、ゲーム画像出力部104、ゲーム音定位処理部106およびゲーム音出力部108を有し、通知処理部300は、通知情報取得部302、通知音定位処理部304、通知音出力部306および通知画像出力部308を有する。実施例2のゲーム処理部100は、図3に示した実施例1のゲーム処理部100と同じ構成および機能を有する。
図9において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、システムソフトウェアや、メモリにロードされたゲームプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
通知情報取得部302は、情報処理装置10におけるシステムソフトウェアで生成された内部通知情報および/または外部のサーバにより生成された外部通知情報を取得する。たとえばユーザのフレンドAがゲーム装置にログインすると、外部サーバは、ユーザに対して、「フレンドAがオンラインになりました。」とする通知情報を送信する。ユーザのゲームプレイ中、通知情報取得部302は、このような通知情報を取得すると、通知音データおよび通知画像データを生成して、それぞれ通知音定位処理部304および通知画像出力部308に供給する。通知画像出力部308は、通知画像データを、表示装置4の表示領域の一部に表示させる。通知画像出力部308は、通知画像データとあわせて、通知画像の表示場所を特定する情報(表示位置情報)を、画像処理部90に供給する。
図10は、表示装置4に表示されるゲーム画像の一例を示す。画像処理部90は、ゲーム画像出力部104からゲーム画像データを供給され、通知画像出力部308から通知画像データを供給される。画像処理部90は、ゲーム画像データから表示用データを生成し、また通知画像データから、表示位置情報で指定される位置に重畳表示するデータを生成し、表示装置4の表示領域に表示する。重畳画像の表示位置は、ゲーム進行の邪魔にならないように、画面の端部近傍に設定されることが多い。図10には、ゲーム画像の左上隅に重畳表示された通知画像310が示されている。
通知画像310は、左上隅に表示されることでゲーム進行を邪魔しないが、一方で、視界に入らずに、ユーザが通知メッセージを見落とす可能性がある。そこで、通知音定位処理部304は、通知画像出力部308から表示位置情報を取得し、表示装置4の表示領域の一部の位置、つまり通知画像310が表示される位置またはその近傍に、通知音の音像の定位位置P3を設定する。このとき通知音定位処理部304は、通知画像310の表示位置が、ゲーム音の音像の定位位置P1とは異なることを条件として、当該表示位置を通知音の定位位置P3として定めてもよい。
通知音定位処理部304は、通知情報取得部302から供給された通知音データに対して、決定した定位位置P3に音像を定位するための音像定位処理を実施する。通知音定位処理部304は、音像定位処理を実施し、定位処理した通知音データを生成する。ゲーム音定位処理部106と通知音定位処理部304とは、別個の定位処理部として設けられてもよいが、1つの定位処理部が共用されて、ゲーム音と通知音の双方を処理してもよい。通知音出力部306は、定位処理された通知音データを、混合部92を介して各スピーカ3に供給する。これによりユーザは、定位位置P3から、通知音を聞くことができ、通知音が発生した方向を見ることで、通知画像310の表示に気付くことができる。
なお実施例では、表示装置4がテレビである場合について説明したが、表示装置4は、ヘッドマウントディスプレイ(HMD)の表示装置であってもよい。従来のHMDでは、通知画像310が画面隅に表示されるとユーザが見落とす可能性があるため、ユーザに気付かせることを目的として、ゲーム画像の中央に通知画像310を表示している。しかしながら、この表示位置はゲームへの没入間を阻害する要因となる。
HMDはユーザの頭部に装着され、情報処理装置10は、HMDに設けられた姿勢センサの検出値に応じて、ゲーム空間における仮想カメラの視線方向を定め、ゲーム画像をHMDに供給する。このようにHMDを用いたゲームプレイでは、ユーザが視線を変更するだけで、ゲーム空間のゲーム画像を変更できる。そこでユーザがHMDを頭部に装着した状態で、図10に示すように、通知画像310を画面左隅に表示し、画面左上方向から通知音を発生させることで、通知画像310がゲーム画像の邪魔をすることなく、またユーザは左上方向を向くことで、通知画像310をいち早く確認できる。
なお通知画像出力部308は、通知画像の表示場所をゲーム画像の左上隅とする表示位置情報を、画像処理部90に供給することを説明したが、表示位置情報は、ゲーム音の音像の定位位置P1に応じた表示場所を特定してもよい。通知画像出力部308は、ゲーム音定位処理部106から、ゲーム音の音像の定位位置P1を特定する定位情報を取得し、通知画像の表示場所を、ゲーム音の定位位置P1とは異なる位置に設定してもよい。通知画像310の表示位置とゲーム音の定位位置P1とをずらすことで、通知音定位処理部304が、通知音の定位位置P3を通知画像の表示位置とする場合、定位位置P1と定位位置P3とが異なる位置に設定されるようになる。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例では、コンテンツにより発生するコンテンツ音の一例として、ゲーム実行部102が実行するゲームの音を示したが、コンテンツ音は、たとえば動画再生アプリケーションにより再生される動画で発生する音であってもよい。また実施例では、ゲーム実行部102がFPSゲームを実行したが、他の種類のゲームを実行してもよい。
エージェント音定位処理部204および通知音定位処理部304は、ユーザに提供する音が遠くから次第に近付いてくると知覚されるように、定位位置P2、P3を動的に設定してもよい。エージェント音定位処理部204は、定位位置P2を動的に設定することでエージェントの人格や性格を表現してもよい。たとえば定位位置P2が忙しなく動くことで、せっかちなエージェントの人格や性格が表現されてよい。通知音定位処理部304は、たとえば通知メッセージの重要度に応じて、定位位置P3を動的に設定してもよい。
1・・・情報処理システム、3・・・スピーカ、4・・・表示装置、10・・・情報処理装置、90・・・画像処理部、92・・・混合部、100・・・ゲーム処理部、102・・・ゲーム実行部、104・・・ゲーム画像出力部、106・・・ゲーム音定位処理部、108・・・ゲーム音出力部、200・・・エージェント処理部、202・・・エージェント実行部、204・・・エージェント音定位処理部、206・・・エージェント音出力部、210・・・音声認識部、212・・・自然言語理解部、214・・・対応処理生成部、216・・・応答作成部、218・・・音変換部、300・・・通知処理部、302・・・通知情報取得部、304・・・通知音定位処理部、306・・・通知音出力部、308・・・通知画像出力部。

Claims (4)

  1. 表示装置および複数のスピーカに接続する情報処理装置であって、
    コンテンツの音の音像を定位する第1定位処理部と、
    定位処理された前記コンテンツの音データをスピーカに供給する第1音出力部と、
    前記コンテンツの音の音像が定位されている第1定位位置とは異なる第2定位位置に、前記コンテンツの音とは異なる音の音像を定位する第2定位処理部と、
    定位処理された前記コンテンツの音とは異なる音のデータをスピーカに供給する第2音出力部と、
    通知画像を、第1定位位置とは異なる表示装置における表示領域の位置に表示させる通知画像出力部と、を備え
    前記第2定位処理部は、前記表示装置において通知画像が表示される位置またはその近傍に、第2定位位置を設定する、ことを特徴とする情報処理装置。
  2. 前記第2定位処理部および前記通知画像出力部は、第1定位位置を取得する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. コンテンツの音の音像を定位するステップと、
    定位処理された前記コンテンツの音データをスピーカに供給するステップと、
    前記コンテンツの音の音像が定位されている第1定位位置とは異なる第2定位位置に、前記コンテンツの音とは異なる音の音像を定位するステップと、
    定位処理された前記コンテンツの音とは異なる音のデータをスピーカに供給するステップと、
    通知画像を、第1定位位置とは異なる表示装置における表示領域の位置に表示するステップと、を備える音発生方法であって、
    前記コンテンツの音とは異なる音の音像を定位するステップは、表示装置において通知画像が表示される位置またはその近傍に、第2定位位置を設定する、ことを特徴とする音発生方法。
  4. コンピュータに、
    コンテンツの音の音像を定位する機能と、
    定位処理された前記コンテンツの音データをスピーカに供給する機能と、
    前記コンテンツの音の音像が定位されている第1定位位置とは異なる第2定位位置に、前記コンテンツの音とは異なる音の音像を定位する機能と、
    定位処理された前記コンテンツの音とは異なる音のデータをスピーカに供給する機能と、
    通知画像を、第1定位位置とは異なる表示装置における表示領域の位置に表示する機能と、を実現させるためのプログラムであって、
    前記コンテンツの音とは異なる音の音像を定位する機能は、表示装置において通知画像が表示される位置またはその近傍に、第2定位位置を設定する機能を含む、プログラム。
JP2018103966A 2018-05-30 2018-05-30 情報処理装置および音発生方法 Active JP6756777B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018103966A JP6756777B2 (ja) 2018-05-30 2018-05-30 情報処理装置および音発生方法
PCT/JP2019/020528 WO2019230567A1 (ja) 2018-05-30 2019-05-23 情報処理装置および音発生方法
US17/058,314 US11337025B2 (en) 2018-05-30 2019-05-23 Information processing apparatus and sound generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103966A JP6756777B2 (ja) 2018-05-30 2018-05-30 情報処理装置および音発生方法

Publications (2)

Publication Number Publication Date
JP2019208185A JP2019208185A (ja) 2019-12-05
JP6756777B2 true JP6756777B2 (ja) 2020-09-16

Family

ID=68698913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103966A Active JP6756777B2 (ja) 2018-05-30 2018-05-30 情報処理装置および音発生方法

Country Status (3)

Country Link
US (1) US11337025B2 (ja)
JP (1) JP6756777B2 (ja)
WO (1) WO2019230567A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4017605A1 (en) * 2020-03-13 2022-06-29 Google LLC Natural language dialog system for video game interaction
CN112312298A (zh) * 2020-11-19 2021-02-02 北京小米松果电子有限公司 音频播放方法及装置、电子设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4694763B2 (ja) 2002-12-20 2011-06-08 パイオニア株式会社 ヘッドホン装置
JP4221035B2 (ja) * 2007-03-30 2009-02-12 株式会社コナミデジタルエンタテインメント ゲーム音出力装置、音像定位制御方法、および、プログラム
JP5499633B2 (ja) * 2009-10-28 2014-05-21 ソニー株式会社 再生装置、ヘッドホン及び再生方法
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2015127900A (ja) * 2013-12-27 2015-07-09 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、サーバシステムおよび情報処理システム
JP6377935B2 (ja) * 2014-03-31 2018-08-22 株式会社東芝 音響制御装置、電子機器及び音響制御方法
JP2017103598A (ja) 2015-12-01 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6461850B2 (ja) * 2016-03-31 2019-01-30 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
WO2018079850A1 (ja) * 2016-10-31 2018-05-03 ヤマハ株式会社 信号処理装置、信号処理方法およびプログラム

Also Published As

Publication number Publication date
WO2019230567A1 (ja) 2019-12-05
US11337025B2 (en) 2022-05-17
JP2019208185A (ja) 2019-12-05
US20210211827A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
US11240622B2 (en) Mixed reality system with spatialized audio
CN110121695B (zh) 虚拟现实领域中的装置及相关联的方法
JP7479352B2 (ja) オーディオ装置及びオーディオ処理の方法
US11109177B2 (en) Methods and systems for simulating acoustics of an extended reality world
WO2021143574A1 (zh) 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质
US10516959B1 (en) Methods and systems for extended reality audio processing and rendering for near-field and far-field audio reproduction
US11070933B1 (en) Real-time acoustic simulation of edge diffraction
JP6756777B2 (ja) 情報処理装置および音発生方法
CN109791436B (zh) 用于提供虚拟场景的装置及方法
KR20220136251A (ko) 디바이스 위치에 기초하여 오디오 필터를 결정하는 오디오 시스템 및 방법
US20220036075A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
CN206517592U (zh) 一种交互式3d音频***
WO2024000645A1 (zh) 一种振动马达的控制方法、装置、存储介质和电子设备
JP2022173870A (ja) 鑑賞システム、鑑賞装置及びプログラム
CN117750270A (zh) 音频的空间共混
JP2000259311A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200721

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200721

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200731

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200827

R150 Certificate of patent or registration of utility model

Ref document number: 6756777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150