JP7439131B2 - 空間オーディオをキャプチャする装置および関連する方法 - Google Patents

空間オーディオをキャプチャする装置および関連する方法 Download PDF

Info

Publication number
JP7439131B2
JP7439131B2 JP2021569318A JP2021569318A JP7439131B2 JP 7439131 B2 JP7439131 B2 JP 7439131B2 JP 2021569318 A JP2021569318 A JP 2021569318A JP 2021569318 A JP2021569318 A JP 2021569318A JP 7439131 B2 JP7439131 B2 JP 7439131B2
Authority
JP
Japan
Prior art keywords
field
audio
sound source
view
sound sources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021569318A
Other languages
English (en)
Other versions
JP2022533755A (ja
Inventor
アンティ ヨハネス エロネン
アルト ユハニ レーティニエミ
ミーカ タパニ ヴィレルモ
ミッコ-ヴィル イラリ ライティネン
Original Assignee
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2022533755A publication Critical patent/JP2022533755A/ja
Application granted granted Critical
Publication of JP7439131B2 publication Critical patent/JP7439131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/8025Conical-scan beam systems using signals indicative of the deviation of the direction of reception from the scan axis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/803Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics
    • G01S3/8034Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics wherein the signals are derived simultaneously
    • G01S3/8038Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics wherein the signals are derived simultaneously derived from different combinations of signals from separate transducers comparing sum with difference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/23Direction finding using a sum-delay beam-former
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、空間オーディオ(spatial audio)のキャプチャの分野に関する。具体的には、本開示は、空間オーディオの1つまたは複数のオーディオキャプチャ特性の変更のための手段となるユーザインターフェースの提示、それに関連する装置、方法およびコンピュータプログラムに関する。
空間オーディオのキャプチャが有用な場合があり、そのキャプチャの制御は困難であることがある。
すでに公開されている文献または本明細書のいかなる背景の記載または説明も、必ずしもその文献または背景が本技術分野の現況の一部であるかまたは周知の知識であるとの承認とみなされるべきではない。本開示の1つまたは複数の態様/実施例は、背景にある課題の1つまたは複数に対処する場合もあればしない場合もある。
第1の例示の態様では、キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取り、
前記キャプチャデバイスのカメラによってキャプチャされ、視野(field of view)を有するビデオ画像(video imagery)であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取り、
前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲(spatial extent)を示す視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付け、
前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供し、
前記ビデオ画像のうちの領域または前記視野外グラフィック(out-of-view graphic)のうちの部分を選択するユーザ入力を受け取り、
前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供する
ように構成された手段を含む装置が提供される。
1つまたは複数の実施例では、前記手段は、
前記視野外グラフィックのうちの、前記1つまたは複数の音源に向かう方向に対応する部分と、
前記ビデオ画像のうちの、前記1つまたは複数の音源に向かう方向に対応する領域と、
のうちの1つまたは複数(例えば両方)におけるマーカの表示を提供するように構成される。
1つまたは複数の実施例では、少なくとも1つのオーディオキャプチャ特性の前記制御は、前記手段が、ビーム形成技術を使用して選択された前記1つの音源のキャプチャまたは記録を行わせるシグナリングを提供するように構成されていることを含む。
1つまたは複数の実施例では、少なくとも1つのオーディオキャプチャ特性の前記制御は、前記手段が、
前記空間オーディオデータのうちの他のオーディオに適用される音量利得に対して相対的により大きな音量利得を有する選択された前記1つの音源をキャプチャまたは記録することと、
前記空間オーディオデータのうちの他のオーディオに適用される質に対して相対的により高い質を有する選択された前記1つの音源をキャプチャまたは記録することと、
選択された前記1つの音源の前記オーディオを前記空間オーディオデータのうちの他のオーディオとは分離したオーディオストリームとしてキャプチャまたは記録することと、のうちの少なくとも1つを行うように構成されていることを含む。
1つまたは複数の実施例では、前記手段は、前記方向情報を使用して、所定の閾値を上回る音量を有するオーディオがどの方向から受け取られているかを判定することによって、前記1つまたは複数の音源を判定するように構成される。
1つまたは複数の実施例では、前記視野の外部の前記空間の空間範囲を示す前記視野外グラフィックは、
線の一端から他端までの線に沿った位置が、前記視野の少なくとも第1の境界に対応する方向から前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応する方向までの、前記音源の前記オーディオをそこから受け取られている方向を表す線と、
楕円(ellipse)の扇形区分(sector)であって、前記視野の少なくとも第1の境界に対応する方向から前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応する方向までの、前記扇形区分内の位置が前記音源の前記オーディオがそこから受け取られている方向を表す扇形区分と、のうちの少なくとも1つを含む。
1つまたは複数の実施例では、前記視野の外部の前記空間の空間範囲を示す前記視野外グラフィックは、前記キャプチャデバイスの周囲の面を表し、前記視野外グラフィックに対して相対的な提示されるマーカの位置が、前記音源の前記オーディオがそこから受け取られているアジマス方向を表し、前記視野外グラフィックよりある距離だけ上方または下方に図示されている前記提示されたマーカの位置が、前記面の上方または下方の前記音源の前記オーディオがそこから受け取られている高度方向に対応する。
1つまたは複数の実施例では、前記視野の外部の前記空間の空間範囲を示す前記視野外グラフィックは線を含み、前記線の一端から他端までの前記線に沿った位置が、前記視野の少なくとも第1の境界に対応するアジマス方向から前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応するアジマス方向までの、前記音源の前記オーディオがそこから受け取られているアジマス方向を表し、前記線より上方または下方の距離が前記音源の前記オーディオがそこから受け取られている高度に対応する。
1つまたは複数の実施例では、前記手段は、前記ビデオ画像の前記領域または前記視野外グラフィックの前記部分を選択する、タッチセンシティブ入力デバイス上の場所におけるタップを含む前記ユーザ入力に基づいて、選択された前記領域または部分に対応する前記空間の前記領域に焦点を合わせるビーム形成技術の適用により少なくとも1つのオーディオキャプチャ特性を変更することによって、少なくとも1つの前記オーディオキャプチャ特性の制御を提供するように構成される。
1つまたは複数の実施例では、前記手段は、前記ビデオ画像の前記領域または前記視野外グラフィックの前記部分を選択する、タッチセンシティブ入力デバイス上の場所におけるピンチジェスチャを含む前記ユーザ入力に基づいて、前記ピンチジェスチャの大きさに関連する程度を有するビーム形成技術の適用により少なくとも1つのオーディオキャプチャ特性を変更することによって、少なくとも1つの前記オーディオキャプチャ特性の制御を提供するように構成される。
1つまたは複数の実施例では、前記手段は、関連付けられた音源がない前記ビデオ画像の領域または前記視野外グラフィックの部分を選択する受け取った前記ユーザ入力に基づいて、前記ビデオ画像の選択された前記領域または前記視野外グラフィックの部分に対応する方向に音源がないことを示す第2のマーカの表示を提供するように構成される。
1つまたは複数の実施例では、前記ビーム形成技術は、選択された前記音源の前記オーディオが強調される、遅延和ビームフォーマ技術(delay-sum beamformer technique)またはパラメトリック空間オーディオ処理技術のうちの少なくとも一方を含む。
1つまたは複数の実施例では、前記手段は、制御された前記オーディオキャプチャ特性を有する選択された前記音源とともに前記空間オーディオデータの提示および記録のうちの1つまたは複数(例えば両方)を提供するように構成される。
1つまたは複数の実施例では、前記装置の前記手段は少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを含み、前記少なくとも1つのメモリと前記コンピュータプログラムコードとは、前記少なくとも1つのプロセッサによって、前記装置に第1の態様の機能を実行させる。
第2の例示の態様では、第1の態様の装置と、前記ビデオ画像をキャプチャするように構成されたカメラと、前記空間オーディオデータをキャプチャするように構成された複数のマイクロホンと、前記装置によって前記ビデオ画像を前記視野外グラフィックとともに表示するために使用されるディスプレイとを含む、電子デバイスが提供される。
第3の態様では、方法が提供され、この方法は、キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取ることと、
前記キャプチャデバイスのカメラによってキャプチャされ、視野を有するビデオ画像であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取ることと、
前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲を示す視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付けることと、
前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供することと、
前記ビデオ画像のうちの領域または前記視野外グラフィックのうちの部分を選択するユーザ入力を受け取ることと、
前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供することとを含む。
1つまたは複数の実施例では、この方法は、
前記視野外グラフィックのうちの、前記1つまたは複数の音源に向かう方向に対応する部分と、
前記ビデオ画像のうちの、前記1つまたは複数の音源に向かう方向に対応する領域と、
のうちの一方または両方におけるマーカの表示を提供するように構成される。
1つまたは複数の実施例では、少なくとも1つのオーディオキャプチャ特性の制御は、ビーム形成技術を使用して選択された前記1つの音源のキャプチャまたは記録を行わせるシグナリングを提供する方法を含む。
1つまたは複数の実施例では、少なくとも1つのオーディオキャプチャ特性の制御は、
前記空間オーディオデータのうちの他のオーディオに適用される音量利得に対して相対的により大きな音量利得を有する選択された前記1つの音源をキャプチャまたは記録することと、
前記空間オーディオデータのうちの他のオーディオに適用される質に対して相対的により高い質を有する選択された前記1つの音源をキャプチャまたは記録することと、
選択された前記1つの音源の前記オーディオを前記空間オーディオデータのうちの他のオーディオとは分離したオーディオストリームとしてキャプチャまたは記録することと、
のうちの少なくとも1つを行う方法を含む。
1つまたは複数の実施例では、この方法は、前記方向情報を使用して、所定の閾値を上回る音量を有するオーディオがどの方向から受け取られているかを判定することによって、前記1つまたは複数の音源を判定することを含む。
1つまたは複数の実施例では、この方法は、前記ビデオ画像の前記領域または前記視野外グラフィックの前記部分を選択する、タッチセンシティブ入力デバイス上の場所におけるタップを含むユーザ入力を受け取ることと、選択された前記領域または部分に対応する前記空間の前記領域に焦点を合わせるビーム形成技術の適用によりオーディオキャプチャ特性を変更することによって少なくとも1つの前記オーディオキャプチャ特性の制御を提供することとを含む。
1つまたは複数の実施例では、この方法は、前記ビデオ画像の前記領域または前記視野外グラフィックの前記部分を選択する、タッチセンシティブ入力デバイス上の場所におけるピンチジェスチャを含む前記ユーザ入力を受け取ることと、前記ピンチジェスチャの大きさに関連する程度を有するビーム形成技術の適用によりオーディオキャプチャ特性を変更することによって、少なくとも1つの前記オーディオキャプチャ特性の制御を提供することとを含む。
1つまたは複数の実施例では、この方法は、関連付けられた音源がない前記ビデオ画像の領域または前記視野外グラフィックの部分を選択する前記ユーザ入力を受け取ることと、前記ビデオ画像の選択された前記領域または前記視野外グラフィックの部分に対応する方向に音源がないことを示す第2のマーカの表示を提供することとを含む。
1つまたは複数の実施例では、この方法は、制御された前記オーディオキャプチャ特性を有する選択された前記音源とともに前記空間オーディオデータの提示および記録の一方または両方を提供することを含む。
第4の例示の態様では、コンピュータプログラムコードが記憶されたコンピュータ可読媒体が提供され、前記コンピュータ可読媒体とコンピュータプログラムコードとは、少なくとも1つのプロセッサで実行されると、
キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取り、
前記キャプチャデバイスのカメラによってキャプチャされ、視野を有するビデオ画像であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取り、
前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲を示す視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付け、
前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供し、
前記ビデオ画像のうちの領域または前記視野外グラフィックのうちの部分を選択するユーザ入力を受け取り、
前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供する方法を実行するように構成される。
第4の例示の態様では、
少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つのメモリとを含む装置が提供され、
前記少なくとも1つのメモリと前記コンピュータプログラムコードとは、前記少なくとも1つのプロセッサによって、前記装置に少なくとも、
キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取ることと、
前記キャプチャデバイスのカメラによってキャプチャされ、視野を有するビデオ画像であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取ることと、
前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲を示す視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付けることと、
前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供することと、
前記ビデオ画像のうちの領域または前記視野外グラフィックのうちの部分を選択するユーザ入力を受け取ることと、
前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供することとを実行させる。
第1の態様の任意による特徴は、第4の態様の装置にも等しく当てはまる。また、第1の態様の任意による特徴によって提供される機能は、第2の態様の方法および第3の態様のコンピュータ可読媒体のコードによって実行されてもよい。
本開示は、組み合わせまたは単独で具体的に記載されている(特許請求されていることを含む)か否かを問わず、1つまたは複数の対応する態様、実施例または特徴を単独で、または様々な組み合わせで含む。記載されている機能のうちの1つまたは複数の機能を実行するための対応する手段および対応する機能ユニット(例えば機能イネーブラ、AR/VRグラフィックレンダラ、ディスプレイデバイス)も本開示に含まれる。
本開示の方法のうちの1つまたは複数の方法を実装するための対応するコンピュータプログラムも本開示に含まれ、記載されている実施例のうちの1つまたは複数の実施例に包含される。
上記の概要は、単に例示を意図したものであり、限定的であることを意図していない。
以下、例示のみを目的として、添付図面を参照しながら説明する。
少なくとも1つのオーディオキャプチャ特性の制御のための例示の装置を、音源を有する空間における電子デバイスまたは「キャプチャデバイス」の一部として示す図である。 装置からのシグナリングに基づくインターフェースを示すディスプレイの第1の例示の表示を示す図である。 装置からのシグナリングに基づくインターフェースを示すディスプレイの第2の例示の表示を示す図である。 装置からのシグナリングに基づくインターフェースを示すディスプレイの第3の例示の表示を示す図である。 ユーザがピンチジェスチャを含むユーザ入力を与えている状態の、装置からのシグナリングに基づくインターフェースを示すディスプレイの第4の例示の表示を示す図である。 ユーザが、視野外グラフィックの一部分を選択するためにユーザ入力を与えている状態の、装置からのシグナリングに基づくインターフェースを示すディスプレイの第5の例示の表示を示す図である。 例示の方法を示すフローチャートである。 コンピュータ可読媒体を示す図である。
空間オーディオのキャプチャは、仮想現実、拡張現実、通信およびビデオキャプチャなどの分野において豊かな様々なユーザエクスペリエンスを提供するために有用な場合がある。したがって、空間オーディオをキャプチャすることができるデバイスの数は増加する可能性が高い。空間オーディオが1つまたは複数の音源に向かう方向、別の言い方をすれば、1つまたは複数の音源からのオーディオの到来方向を示す方向情報を使用してオーディオをキャプチャすることを含むことを考えると、そのようなオーディオの効果的なキャプチャは複雑である可能性がある。空間オーディオをキャプチャするデバイスの潜在的限界にもかかわらず、効率的な方式で空間オーディオコンテンツの1つまたは複数のオーディオキャプチャ特性の制御を提供することが望ましいであろう。
空間オーディオは、方向情報を使用して空間オーディオキャプチャデバイスなどによってキャプチャされたオーディオを含む。したがって、キャプチャされた空間オーディオは、オーディオ自体を表す情報を、空間オーディオキャプチャデバイスの周囲の空間におけるオーディオの音源の空間的配置を示す情報とともに有することができる。空間オーディオは、オーディオの個々の音源が特定の場所にあるかのように、各音源がその特定の場所から発せられていることが知覚されるようにしてユーザに提示することができる。空間オーディオデータは、空間オーディオとして提示するためのオーディオを含み、したがって、典型的には、そのオーディオと、例えばメタデータとして明示的に指定されるかまたはオーディオがキャプチャされる仕方に本質的に存在する、方向情報とを含む。空間オーディオデータは、方向情報に従って、その成分オーディオ(例えばキャプチャされる空間内のオーディオの音源)が1つまたは複数の点または1つまたは複数の方向から発せられていることが知覚されるように、提示することができる。オーディオレンダリングは、例えば、オーディオ提示が行われる仮想空間または現実空間に応じてモデリング可能な、初期反射および残響を考慮に入れることができる。
キャプチャされる空間オーディオは、DirACまたは一次アンビソニクスまたは高次アンビソニクス(FOA、HOA)などのパラメトリック空間オーディオとすることができる。空間オーディオデータのキャプチャは、いくつかの(少なくとも3つなどの)マイクロホンを使用して行うことができる。1つまたは複数の実施例では、パラメトリック空間オーディオキャプチャ処理を使用してもよい。パラメトリック空間オーディオキャプチャは、当業者には知られているように、キャプチャされたマルチマイクロホン信号の時間周波数タイルごとに、信号の知覚的に関連する特性を表すのに十分な空間パラメータの分析を含み得る。これらのパラメータには、例えば、到来方向と、時間周波数タイルごとの拡散性などの比率パラメータとが含まれ得る。空間オーディオ信号は、次に、マルチマイクロホン入力信号から形成された伝送信号を含み得る方向情報(例えば空間メタデータ)を使用して表すことができる。レンダリング時、方向情報とともに、聴取者がマイクロホン配置の場所に自分の頭部があるかのような可聴知覚と類似した可聴知覚を生じさせる音場を合成するためにこの伝送オーディオ信号が使用される。
空間オーディオの空間的位置決めは、ユーザへの提示のためにオーディオを位置決めすることができる空間オーディオ空間(拡張現実の場合には現実世界と位置合わせされる)を生じさせるために頭部伝達関数を使用するものなど、3Dオーディオ効果によって実現することができる。空間オーディオは、オーディオコンテンツの知覚される聴覚源を位置決めするために頭部伝達関数(HRTF)フィルタリング技術を使用して、またはスピーカの場合は、ベクトルベース振幅パンニング技術を使用することによって、ヘッドフォンによって提示することができる。空間オーディオは、オーディオの発生源が空間内の(例えば必ずしもスピーカと位置合わせされていない)特定の位置または特定の方向にあるという知覚を生じさせるように、ユーザのそれぞれの耳に対する可聴提示の音量差、タイミング差、およびピッチ差のうちの1つまたは複数を使用することができる。空間オーディオの知覚された音源からの近さまたは距離を示すように残響量および利得を制御することによって、知覚された音源までの知覚距離をレンダリングすることができる。本明細書に記載の空間オーディオ提示は、その発生源に向かう知覚方向のみによるオーディオの提示と、オーディオの発生源が、例えばユーザからの距離の知覚を含む、知覚位置を有するようなオーディオの提示とに関することを理解されたい。
仮想現実(VR)コンテンツには、オーディオが、VRコンテンツの画像とリンク可能な、VR空間内の点から発せられるように知覚されるように、方向性を有する空間オーディオを与えることができる。拡張現実または複合現実コンテンツには、空間オーディオが、ユーザに見える現実世界の物体から、および/または、ユーザの視野に重ね合わされた拡張現実グラフィクスから発せされるものとして知覚されるように、空間オーディオを与えることができる。電子デバイス間の通信は、第1のユーザに知覚される実際の場面を第1のユーザから遠隔にいる第2のユーザに提示するために空間オーディオを使用することができる。
図1に、1つまたは複数の音源のうちの選択された1つの音源のための少なくとも1つのオーディオキャプチャ特性の制御を提供するように構成された、例示の装置100を示す。装置100は、プロセッサ101とメモリ102などの、空間オーディオデータを受信し、オーディオキャプチャ特性の制御を提供する手段を含む。この実施例および1つまたは複数の実施例では、装置100は、スマートフォンまたはタブレットコンピュータなどの電子デバイス103の一部を含んでもよい。電子デバイス103は、空間オーディオデータおよび/またはビデオ画像を受信するように構成されたキャプチャデバイスの一実施形態を含むことができる。
装置100は、1つまたは複数のマイクロホン104から空間オーディオデータを受け取るように構成される。1つまたは複数の実施例では、マイクロホン104は電子デバイス103の一部であってもよいが、他の実施例では電子デバイス103とは別個であってもよい。1つまたは複数のマイクロホン104は、例えば空間オーディオデータをキャプチャするためのマイクロホンアレイとして配置された少なくとも3つのマイクロホンを含んでもよい。装置100または電子デバイス103は、関連する方向情報を生成するために、マイクロホン104からキャプチャされたオーディオを処理するように構成可能である。1つまたは複数の実施例では、方向情報を生成するために、電子デバイス103の周囲の空間105における音源の追跡を使用することができる。
装置100は、カメラ106からビデオ画像を受信するように構成される。1つまたは複数の実施例では、カメラは電子デバイス103の一部であってもよいが、他の実施例では電子デバイス103とは別個のものであってもよい。カメラは、視野の第1の境界108と視野の第2の境界109との間の矢印によって表される、空間105の視野107を有する。カメラ106の視野107は、マイクロホン104によって空間オーディオデータがキャプチャされる空間105の空間範囲よりも小さい。したがって、カメラ106の視野107の外部にある空間105の領域110がある。電子デバイス103は、空間オーディオデータとビデオ画像とをキャプチャするために使用されるため、「キャプチャデバイス」と称される場合がある。しかし、カメラ106とマイクロホン104とが電子デバイス103とは分離しているかまたは独立している場合、カメラ106とマイクロホン104とがまとめてキャプチャデバイスを含むとみなすこともできる。
装置100は、ディスプレイ111にシグナリングを供給することによって、表示を提供するように構成することができる。ディスプレイ111は、ディスプレイ111上で提示されるユーザインターフェースに与えられるタッチスクリーン入力のための手段となるタッチセンシティブユーザ入力デバイス112に関連付けられてもよい。装置100によって、または装置100による使用のために電子デバイス103によって、他のユーザ入力機能が提供されてもよいことはわかるであろう。
この実施例では装置100は、電子デバイス103の一部として、および場合によってはプロセッサ101、メモリ102、カメラ106、ディスプレイ111およびマイクロホン104などのハードウェア資源を電子デバイス103と共用するものとして示されているが、他の実施形態では、装置100は、電子デバイス103と通信するか、または、電子デバイス103の一部であるか否かを問わずカメラ106、マイクロホン104、およびディスプレイ111と通信する、サーバ(図示せず)の一部を含んでもよい。したがって、装置100は、空間オーディオデータおよびビデオ画像を受信し、画像がディスプレイによって表示されるようにシグナリングを提供するために、通信要素を使用してもよい。
装置100がサーバの形態または電子デバイス103の一部などのいずれの方式で実現される場合も、装置100は、プロセッサ101とメモリ102とを含むか、またはこれらと接続されることができ、コンピュータプログラムコードを実行するように構成可能である。装置100は、1つのみのプロセッサ101と1つのみのメモリ102を有してもよいが、他の実施形態は複数のプロセッサおよび/または複数のメモリ(例えば同一かまたは異なるプロセッサ/メモリの種類)を使用してもよいことを理解されたい。また、装置100は特定用途向け集積回路(ASIC)であってもよい。
プロセッサは、メモリ内にコンピュータプログラムコードの形態で記憶されている命令に従って、マイクロホン104、カメラ106およびタッチセンシティブユーザ入力デバイス112などの他の構成要素から受け取った情報を実行/処理することを目的とした汎用プロセッサとすることができる。プロセッサのこのような動作によって発生する出力シグナリングは、ディスプレイ111などのさらなる構成要素へ、または、装置100による指示に従って空間オーディオデータを処理するように構成されたオーディオ処理モジュールに提供される。他の実施例では、装置100は、空間オーディオデータを処理する手段を含んでもよく、空間オーディオキャプチャ特性を変更することができる。
メモリ102(必ずしも単一のメモリユニットとは限らない)は、コンピュータプログラムコードを記憶するコンピュータ可読媒体(この実施例ではソリッドステートメモリであるが、ハードドライブ、ROM、RAM、フラッシュなど他の種類のメモリであってもよい)である。このコンピュータプログラムコードは、プログラムコードがプロセッサ上で実行されるとプロセッサによって実行可能な命令を格納する。メモリとプロセッサとの間の内部接続は、1つまたは複数の例示の実施形態では、プロセッサがメモリに記憶されているコンピュータプログラムコードにアクセスすることができるように、プロセッサとメモリとの能動的結合を提供するものと理解することができる。
この実施例では、それぞれの構成要素間の電気通信が可能なように、それぞれのプロセッサおよびメモリが互いに内部で電気的に接続される。この実施例では、構成要素はまとめてASICとして形成されるように、言い換えると、電子デバイスに実装することができる単一のチップ/回路としてまとめて集積されるように、すべて互いに近接して配置される。実施例によっては、構成要素の1つまたは複数または全部が、互いに離隔して配置されてもよい。
1つまたは複数の実施例では、装置100は、電子デバイス103の周囲に延びる空間105内の1つまたは複数の音源からキャプチャされたオーディオを含む空間オーディオデータを受け取るように構成される。図1の実施例では、カメラ106の視野107内の第1および第2の音源113および114と、カメラ106の視野107の外部(すなわち領域110)の第3および第4の音源115および116とを含む、4つの音源を含む。装置100は、第1~第4の音源113~116を、それらが現在、オーディオを発生しているときに、音源として認識するように構成することができる。他の実施例では、第1~第4の音源113~116は、音源が最後のオーディオを発生してから所定の無音時間未満であるときに、音源とみなされてもよい。無音時間は、ユーザの選好に応じて、最大5秒、10秒、20秒、30秒、40秒、50秒または60秒またはそれ以上を含んでもよい。したがって、装置100は、キャプチャされたオーディオを分析し、オーディオが現在、可聴であるか、または上記無音時間内で可聴であったかに基づいて、そのオーディオで1つまたは複数の音源を判定するように構成することができる。他の実施例では、装置は、空間オーディオデータ内のどこに音源が存在するかを識別する情報を受信してもよい。空間オーディオデータは、上記1つまたは複数の音源に向かう方向を少なくとも示す方向情報をさらに含む。したがって、方向情報は、第1の音源113の第1の方向117と、第2の音源114の第2の方向118と、第3の音源115の第3の方向119と、第4の音源116の第4の方向120とを示すことができる。空間オーディオデータは多くの異なる方法でコード化可能であり、方向117~120はメタデータとして記録可能であるか、またはオーディオ自体を方向117~120を示すようにコード化することができ、他の技術もあることを理解されたい。
上述のように、装置100は電子デバイス103のカメラ106によってキャプチャされたビデオ画像を受信するように構成することができ、空間オーディオデータがキャプチャされる空間105の空間範囲は視野107より大きい。したがって、ある時点で、第3および第4の音源115および116からのオーディオは空間オーディオデータにおいて現れるが、ある時点で第3および第4の音源115および116の像はビデオ画像には現れない。ビデオ画像と空間オーディオデータがキャプチャされている間、電子デバイス103は空間105内を動き回る可能性があり、その結果、時間の経過とともに視野が他の音源に移ることを理解されたい。したがって、視野107内にある音源は時間の経過とともに変化する可能性がある。
例示の図2に、電子デバイス103と、ユーザインターフェースが提示されたそのディスプレイ111とを示す。装置100は、カメラ106からのビデオ画像の表示を提供するように構成される。したがって、装置100は、カメラ106の視野107内でキャプチャされたビデオ画像がディスプレイ111上で提示されるようにシグナリングを供給することができる。カメラがキャプチャするものの範囲はディスプレイ111上に提示されるものと厳密に同じではない場合があることを理解されたい。例えば、カメラ106は、デフォルトで、ビデオ画像の解像度またはアスペクトをディスプレイ111に合わせるために領域をトリミングする場合がある。したがって、カメラ106の視野107は、ディスプレイ111上での提示のための視野を含むものとみなすことができる。図2の実施例では、ディスプレイ111上での提示のために提供されるビデオ画像内に第1の音源113が第2の音源114とともに見える。
例示の図2は、視野外グラフィック200の第1の実施例を示している。視野外グラフィック200は、視野107の外部の空間105の空間範囲を表すために表示されるグラフィカル要素または画像を含む。具体的には、視野外グラフィック200は、空間105のうちの視野の外部にある部分のみなど、視野107の外部にある、空間オーディオデータがキャプチャされる空間105の範囲を表すことができる。したがって、ビデオ画像に現れる音源は、視野外グラフィック200上では表示されない。1つまたは複数の実施例では、視野外グラフィック200が表すものは単に視野107の外部の空間105だけでなくてもよく、視野107内の空間105の部分を表す部分を含んでもよい。
この実施例および他の実施例で、視野外グラフィック200は、半楕円など、楕円の扇形区分を含む。したがって、電子デバイス103の周囲の360度の空間105を表すために楕円または円を使用することができ、半楕円またはその他の扇形部分は、視野107の外部の空間105の領域110を表すことができる。1つまたは複数の実施例では、視野外グラフィック200は、視野107の少なくとも第1の境界108に対応する方向を表す第1の半径部分201と、第1の境界108とは反対側の視野107の少なくとも第2の境界109に対応する方向を表す第2の半径部分202とを有する。視野外グラフィック200が空間105の視野107の外部にある部分を表すとすれば、視野外グラフィック内の位置は、音源115、116のオーディオをそこから受け取る方向を表すために使用することができる。
ディスプレイ111上に示される音源の位置に基づいて選択された音源のオーディオキャプチャ特性の制御を提供するために、装置100は表示されているビデオ画像または視野外グラフィック200の領域/部分を、方向情報から判定可能な1つまたは複数の音源のそれぞれに関連付けることができる。したがって、視野107内の音源113、114については、装置100はビデオ画像の領域203、204を音源113、114または音源に向かう方向に関連付けることができる。視野107外部の第3および第4の音源115、116については、装置100は、音源115、116に向かう方向に対応する、マーカ215および216として示されている視野外グラフィック200のうちの部分を関連付けることができる。したがって、マーカ215は第3の音源115に向かう位置または方向を表し、マーカ216は第4の音源116に向かう位置または方向を表す。
装置100は、ユーザ入力を受け取るように構成可能である。この実施例では、ユーザ入力は、タッチセンシティブユーザ入力デバイス112でのユーザ入力によって提供可能である。視線位置、またはコントローラを介したカーソルもしくはポインタの移動など、他のユーザ入力方法も使用可能であることを理解されたい。ディスプレイ111上のユーザ入力の位置により、領域203、204の一方、またはマーカ215、216の一方など、ビデオ画像の領域を選択するか視野外グラフィック200の一部を選択することができる。それらの領域203、204とマーカ215、216についてなされた関連付けがあるため、第1~第4の音源113~116のうちの1つからのオーディオの選択を装置100に提供することができる。他の実施例では、複数の選択を行ってもよいことを理解されたい。例示の図2では、指206で示されているユーザは、マーカ216、したがって空間オーディオデータ内の第4の音源116のオーディオを選択している。
装置100は、少なくとも1つのオーディオキャプチャ特性の制御を提供するように構成可能であり、制御は上記1つまたは複数の音源113~116のうちの選択された1つの音源に特定的である。
したがって、装置100は、共に受け取られるビデオ画像の空間範囲よりも広い方向の範囲からキャプチャされたオーディオを表す空間オーディオデータを受け取るように構成することができる。したがって、電子デバイス103、またはより一般的に、入来空間オーディオデータおよびビデオ画像には、音源113~116のオーディオはキャプチャされるが、同等の範囲の視覚画像は、球面配置されたカメラ配置などの複数カメラ配置なしにはキャプチャすることができないという技術的限界がある。そのような複数カメラ配置は、一般にかさばり、扱いにくいため、そのような複数カメラ構成は、空間オーディオデータをキャプチャ可能な状況を限定する可能性がある。したがって、装置100は、空間オーディオデータのより広いキャプチャ域と組み合わさったカメラ106のより狭い視野という技術的限界を有する空間オーディオキャプチャの制御に付随する問題を克服することができるような仕方で、空間オーディオデータとビデオ画像の処理と、インターフェースの提示とを提供する。
視野外グラフィック200は、何が表されているかをユーザが理解しやすいように標識が付けられてもよい、いくつかの矢印とともに示される。例えば、矢印207にはビデオ画像の正面方向から180°の方向を表すことを示すために180°と標識が付けられてもよい。同様に、他の矢印208および209には、視野外グラフィック200のそれらの部分によって表される方向を示すために135°および225°と標識が付けられてもよい。
1つまたは複数の実施例において、装置100は、ヘッドフォンなどのオーディオ提示デバイス(図示せず)によって空間オーディオデータの提示を提供してもよい。他の実施例では、電子デバイス103のユーザが、空間オーディオデータとしてキャプチャされるオーディオを直接聴くことができれば、空間オーディオデータの提示は必要がない場合がある。しかし、ユーザが、オーディオキャプチャ特性についてユーザ入力によって指示した変更の効果を認識することができるように、空間オーディオデータを提示することは有利である可能性がある。したがって、1つまたは複数の実施例では、装置は変更されたオーディオキャプチャ特性を有していた音源からのオーディオのみの提示を提供するように構成されてもよい。
視野外グラフィック200上のマーカ215、216の位置は、視野107外にある音源の現在位置を表すように、ライブで、または定期的に更新されてもよい。音源が領域110から視野107内に移動した場合、それに関連付けられたマーカが表示から除去されてもよい。同様に、音源が領域110に移動した場合、装置100は視野外グラフィック200にマーカを付加してもよい。1つまたは複数の実施例では、マーカ215、216に視覚的に類似しているかまたは異なるマーカが、視野107内の1つまたは複数の音源に向かう方向に対応するビデオ画像の領域203、204において提示されてもよい。したがって、装置は、装置100がビデオ画像内の人物を現時点での第1または第2の音源113、114とみなしていることを示すとともに、(ビデオ画像内に現れる音源に加えて)音源の位置を示すために、マーカの提示を提供してもよい。1つまたは複数の実施例において、ビデオ画像内の音源のために使用されるマーカは、該当領域203、204をマークするために輪郭または半透明の陰影を含んでもよい。
1つまたは複数の実施例で、装置100は、空間オーディオデータとしてオーディオキャプチャ特性のライブでの制御を提供するように構成され、ビデオ画像がキャプチャされる。1つまたは複数の実施例において、空間オーディオデータとビデオ画像とは同時にキャプチャされ、記録され、装置には前に記録された空間オーディオデータと前に記録されたビデオ画像とが提供される。
オーディオキャプチャ特性の制御は様々な方式で提供することができる。1つまたは複数の実施例では、装置100は、マイクロホン104の配置または、音源に適用される利得またはマイクロホンの方向焦点などのマイクロホン104のパラメータを変更するなどにより、空間オーディオデータがどのようにキャプチャされるかを制御するように構成されてもよい。1つまたは複数の実施例では、装置100は、空間オーディオデータがどのように記録されるかを制御するように構成されてもよく、したがって空間オーディオデータのオーディオ処理を提供し、適用されたオーディオキャプチャ特性の変更が加えられた空間オーディオデータを記録してもよい。オーディオキャプチャ特性の制御の目的は、特定の音源113~116または方向からのオーディオの強調を提供することであってもよい。
1つまたは複数の実施例において、オーディオキャプチャ特性の制御は、ビーム形成技術を使用して提供される。ビーム形成技術は、選択された音源のマイクロホンオーディオストリームをキャプチャするために使用することができる。マイクロホンオーディオストリームは、選択された音源に特定的とすることができ、一方、他の音源は共通のストリームにまとめて記録することができる。ビーム形成技術は、相対的に強調された選択された方向の音源、および/または相対的に減衰された他の方向の音源を有する、空間オーディオデータを提供することができる。ビーム形成技術の一例は、マイクロホンの焦点を選択された音源または方向からのオーディオのキャプチャに合わせるために少なくとも3つのマイクロホンからなるマイクロホンアレイを使用する、遅延和ビーム形成技術である。あるいは、ビーム形成技術は、空間オーディオの特定の領域または方向が強調されるか、または空間105から受け取ったオーディオを表す空間音場から「抽出」される、ビーム形成された出力を形成するためのパラメトリック空間オーディオ処理を含むことができる。
したがって、ビデオ画像と視野外グラフィック200のいずれかの上の位置を特定するユーザ入力により、装置100に、選択された音源のオーディオキャプチャ特性をビーム形成などにより制御させることができる。
1つまたは複数の実施例では、少なくとも1つのオーディオキャプチャ特性の制御は、手段が、空間オーディオデータの他の音源113、114、115のオーディオに適用される音量利得に対して相対的に大きい音量利得を有する選択された1つの音源116をキャプチャまたは記録するように構成されていることを含む。したがって、音量レベルを上げるためのオーディオ処理を、第4の音源116の方向からのオーディオに選択的に適用してもよい。他の実施例では、音量利得ではなく、オーディオキャプチャ特性が、選択された音源/方向からのオーディオがキャプチャされる質を含んでもよいことを理解されたい。したがって、選択された音源116からのオーディオを記録するために、空間オーディオデータの他のオーディオのために使用されるビットレートよりも高いビットレートを使用してもよい。
記載の実施例では、オーディオキャプチャ特性の制御を、選択された方向から受け取ったオーディオまたは選択された音源からのオーディオに適用することができると述べている。この2つは、1つまたは複数の実施形態では交換可能とみなすことができる。しかし、装置100は、音源に向かう方向を特定し、それによって空間オーディオデータにおける音源の存在を特定するように構成されてもよい。装置100は、方向情報を使用して、所定の閾値を上回る音量を有するオーディオがそこから受信される方向を判定するように構成されてもよい。特定の方向から閾値を上回るオーディオを受け取った場合、その方向が音源の方向を指すと判定することができる。
空間105における主要な音源を、異なる技術を使用して突き止めることができる。一例は、ステアード応答パワー位相変換(SRP-PHAT)である。このアルゴリズムは、空間105を「走査」するためにステアード遅延和ビームフォーマの出力を最大化する音源の候補位置または方向を探索する、ビーム形成ベースの手法と理解することができる。1つまたは複数の実施例において、この方法の計算負担を抑えるために、電子デバイス103の前部、後部および/または側部を固定サイズの区分に分割し、それぞれのために、104にまとめて示すマイクロホンまたはマイクロホンアレイからなる固定ビームフォーマを設計してもよい。所望の閾値を満たす音源のみを特定するためにフィルタリングを適用してもよいことを理解されたい。1つまたは複数の実施例では、装置は、音源がアクティブであるときを判定し、次にSRP-PHATなどのビーム形成手段によってその位置/方向を探索するために、深層学習法または音声区間検出を適用するように構成されてもよい。位置が判定されると、視野外グラフィック200上の適切な点において、関連付けを行い、および/またはマーカ215、216を配置することができる。1つまたは複数の実施例では、装置100は、音源が音源として検出されるためにアクティブである必要がある閾値期間を適用してもよい。これは、無用な雑音とみなすことができる短期間の音を除外するのに役立つ場合がある。
例示の図3に、視野外グラフィック300の別の実施形態を示す。例示の図3は、図2と類似しており、したがって視野外グラフィック300以外は同じ参照番号が使用されている。したがって、この実施例では、視野外グラフィックは線を含み、その一端301から他端302までの線に沿った位置が、視野107の少なくとも第1の境界108に対応する方向から第1の境界とは反対側の視野107の少なくとも第2の境界109に対応する方向までの領域110内で音源のオーディオがそこから受け取られる方向を表す。
視野107の外部の空間105内の音源の位置を表すように線上に表示するための、前述のようなマーカ215および216が提供される。この実施例では、マイクロホン104の周囲のアジマス方向のみが表されている。しかし、他の実施例では、音源113~116の球面位置、すなわち、電子デバイス103の周囲に延びる水平面より上方または下方の高さを有する位置が図示されてもよい。
したがって、例示の図4を参照すると、1つまたは複数の実施例において、視野外グラフィック400が、線の一端から他端までの線に沿った位置が音源のオーディオをそこから受け取られているアジマス方向を表す、視野の少なくとも第1の境界108に対応するアジマス方向から第1の境界とは反対側の視野の少なくとも第2の境界109に対応する方向までの線であって、視野外グラフィック400(例えば線)の上方または下方の距離401、402が、音源115、116のオーディオがそこから受け取られる高度方向に対応する線を含む。したがって、第3の音源115を表すマーカ215が、線の両端の間の中心に距離401だけ線の上方にあり、それによって、オーディオがマイクロホン104の背後および上方から受け取られていることを示している。また、第4の音源116を表すマーカ216が、距離402だけ線の下方にあり、オーディオがマイクロホン104の右および上方から受け取られていることを示している。実施例によっては、水平面より高い音源のみ、または水平面より低い音源のみについて、高度を提供してもよいことを理解されたい。
ユーザ入力について、オーディオ処理またはビーム形成などによって、所定のオーディオ焦点を音源に適用することによって提供可能なオーディオキャプチャ特性の制御をもたらすものとして説明した。1つまたは複数の実施例では、オーディオ処理またはビーム形成またはその他の制御を適用する程度は、制御可能とすることができる。装置100は、どのオーディオに制御を適用するか、およびオーディオキャプチャ特性をいかに制御するかの選択と制御の両方を効果的に行う方法を提供するように構成可能である。
例示の図5は例示の図4とほぼ同じであり、同じ参照番号が適用されている。1つまたは複数の実施例では、装置100はピンチジェスチャを受け取るように構成可能である。図5は、マーカの1つ216の上でピンチジェスチャを行っているユーザの2本の指501および502を示している。ピンチジェスチャは、他のマーカ215に対して、またはビデオ画像内に見える音源113、114に対しても適用可能であることを理解されたい。
装置100は、ピンチジェスチャの大きさ503に関連する程度を有するビーム形成技術の適用によって、上記オーディオキャプチャ特性の変更を提供するように構成されてもよい。ピンチジェスチャは、音源のうちの1つを選択するためと、オーディオキャプチャ特性に加える変更の程度を制御するために使用することができることを理解されたい。1つまたは複数の実施例では、オーディオキャプチャ特性の制御は、最終的な効果を「プレビュー」するようにピンチジェスチャの適用中に行うことができる。1つまたは複数の実施例では、大きさ503は、ピンチジェスチャが完了し、ユーザの指がディスプレイ111から離れるときに決定されてもよい。要約すると、ユーザ入力は、ビデオ画像の領域または視野外グラフィックの一部を選択し、オーディオキャプチャ特性が変更される程度を制御する、タッチセンシティブユーザ入力デバイス112上の位置(例えばマーカ216の位置)におけるピンチジェスチャを含み得る。
ビーム形成技術の適用に関しては、ピンチジェスチャの大きさ503は、他の空間オーディオデータに対して相対的な、空間オーディオデータにおいてオーディオ焦点が支配的である程度を決定することができる。ピンチジェスチャは、例えば、ビーム形成技術がもたらすビーム幅または最大利得を制御することができる。1つまたは複数の実施例では、ビーム幅は、音源が増幅される扇形区分であってその外部では音源が(例えば増幅された音源に対して相対的に)減衰させられる扇形区分の、度数で表したビーム形成技術の幅である。1つまたは複数の実施例では、最大利得は、最大限に減衰された音源に対する最大限に増幅された音源のデシベル差である。
装置は、ピンチジェスチャによって選択された音源を表すマーカの大きさを制御することによって、ピンチジェスチャにユーザフィードバックを提供するように構成されてもよい。したがって、マーカ216は、関連付けられている第4の音源116のオーディオにビーム形成により焦点が合わせられるかまたはその他により変更されるようにしたために、マーカ215よりも大きく示されている。
例示の図6に、マーカがなく、したがって音源がない視野外グラフィック300の部分600に適用されたユーザ入力を示す。ユーザ入力は、関連付けられた音源がないビデオ画像の領域に適用された可能性があることを理解されたい。このようなユーザ入力に応答して、装置100は、ビデオ画像の選択された領域または視野外グラフィック300の部分に対応する方向に音源がないことを示すために、第2のマーカ601の表示を提供するように構成されてもよい。第2のマーカ601の色またはパターンまたは見かけが、マーカ215、216とは異なっていてもよい。
図7に、キャプチャデバイスの周囲に延びる空間における1つまたは複数の音源からキャプチャされたオーディオと、上記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータを受け取るステップ701であって、空間オーディオデータが上記キャプチャデバイスによってキャプチャされる、空間オーディオデータを受け取るステップ701と、
キャプチャデバイスのカメラによってキャプチャされたビデオ画像を受け取るステップ702であって、ビデオ画像は視野を有し、空間オーディオデータがキャプチャされる空間の範囲が上記視野より大きい、上記ビデオ画像を受け取るステップ702と、
上記方向情報から判定された1つまたは複数の音源のそれぞれを、上記視野内の音源については音源に向かう方向に対応する、ビデオ画像の領域を関連付け、上記視野の外部の音源については音源に向かう方向に対応する、視野外グラフィックの部分を関連付けるステップ703であって、上記視野外グラフィックは上記視野の外部の空間の空間的範囲を示す、関連付けるステップ703と、
上記ビデオ画像の表示を上記視野外グラフィックとともにディスプレイ上で提供するステップ704と、
上記ビデオ画像のうちの領域または視野外グラフィックのうちの部分を選択するユーザ入力を受け取るステップ705と、
上記1つまたは複数の音源のうちの選択された1つの音源のうちの少なくとも1つのオーディオキャプチャ特性の制御を提供するステップ706であって、上記1つまたは複数の音源のうちの選択された上記1つの音源は、1つまたは複数の音源のうちの、ユーザ入力によって選択された領域または部分に関連付けられた1つの音源を含む、上記制御を提供するステップ706とを示す、流れ図を示す。
この方法は、上記装置に関連して上述した特徴のいずれかを特徴とすることができる。
図8に、一実施例による、プログラムを提供するコンピュータ/プロセッサ可読媒体800を概略的に示す。この実施例では、コンピュータ/プロセッサ可読媒体は、デジタルバーサタイルディスク(DVD)またはコンパクトディスク(CD)などのディスクである。実施例によっては、コンピュータ可読媒体は、発明の機能を実施するようにプログラムされた任意の媒体とすることができる。コンピュータプログラムコードは、ROM、RAM、フラッシュ、ハードディスク、ソリッドステートなど、同一種類の複数のメモリ、または異なる種類の複数のメモリに分散させてもよい。
ユーザ入力は、タップ、スワイプ、スライド、プレス、ホールド、回転ジェスチャ、デバイスのユーザインターフェースの近傍における静止ホバリングジェスチャ、デバイスの近傍における移動ホバリングジェスチャ、デバイスの少なくとも一部の曲げ、デバイスの少なくとも一部におけるスクイーズ、マルチフィンガジェスチャ、デバイスの傾け、または制御デバイスのフリップのうちの1つまたは複数を含むジェスチャとすることができる。また、ジェスチャは、ユーザの腕などユーザの身体、スタイラス、または自由空間ユーザジェスチャを行うのに適したその他の要素を使用した任意の自由空間ユーザジェスチャであってもよい。
上述の各実施例で示した装置は、可搬型電子デバイス、ラップトップコンピュータ、携帯電話、スマートフォン、タブレットコンピュータ、パーソナルデジタルアシスタント、デジタルカメラ、スマートウォッチ、スマートアイウェア、ペン式コンピュータ、非可搬型電子デバイス、デスクトップコンピュータ、モニタ、スマートTV、サーバ、ウェアラブル装置、仮想現実装置、または、これらのうちの1つまたは複数のためのモジュール/回路であってもよい。
上記の任意の装置および/または特定の上記の装置のその他の特徴は、使用可能とされたとき、例えばスイッチをオンにしたときなどにのみ、所望の動作を実施するように構成されるようになされた装置によって提供されてもよい。そのような場合、装置は、使用可能とされていない状態(例えばオフ状態)では必ずしもアクティブメモリに適切なソフトウェアがロードされていなくてもよく、適切なソフトウェアを、使用可能状態(例えばオン状態)でのみロードしてもよい。装置は、ハードウェア回路および/またはファームウェアを含み得る。装置は、メモリにロードされたソフトウェアを含み得る。そのようなソフトウェア/コンピュータプログラムは、同じメモリ/プロセッサ/機能ユニットおよび/または1つまたは複数のメモリ/プロセッサ/機能ユニットに記録されてもよい。
実施例によっては、言及されている特定の装置が、所望の動作を行うように適切なソフトウェアで事前プログラムされてもよく、適切なソフトウェアは、例えばソフトウェアとそれに関連付けられた機能をロック解除/使用可能にするための「鍵」をユーザがダウンロードすることによって使用可能とすることができる。そのような実施例に付随する利点には、デバイスにさらなる機能が必要な場合にダウンロードするデータの必要が削減されることが含まれることがあり、これは、デバイスが、ユーザによって使用可能とされない可能性がある機能のためのそのような事前プログラム済みソフトウェアを記憶するのに十分な容量を有すると認められる実施例において有用な場合がある。
言及されているいずれの装置/回路/要素/プロセッサも、言及されている機能に加えて他の機能も有することができ、それらの機能はその同じ装置/回路/要素/プロセッサによって実行可能である。1つまたは複数の本開示の態様は、関連するコンピュータプログラムの電子配布と、適切な担体(例えばメモリ、信号)に記録されたコンピュータプログラム(情報源/伝送路符号化が可能)とを包含することができる。
本明細書に記載のいずれの「コンピュータ」も、同じ回路板または回路板の同じ領域/位置さらには同じデバイスに配置されていてもいなくてもよい、1つまたは複数の個別プロセッサ/処理要素の集合を含むことができる。実施例によっては、言及されている任意のプロセッサのうちの1つまたは複数のプロセッサが、複数のデバイスに分散されてもよい。同一または異なるプロセッサ/処理要素が、本明細書に記載の1つまたは複数の機能を実行してもよい。
「シグナリング」という用語は、一連の送信および/または受信電気/光信号として送信される1つまたは複数の信号を指す場合がある。一連の信号は、上記シグナリングを構成するように、1つ、2つ、3つ、4つまたはそれより多くの個別信号成分または別個の信号を含み得る。これらの個別信号の一部または全部は、無線または有線通信によって、同時に、順次に、および/または互いに時間的に重なり合って送信/受信可能である。
言及されているいずれかのコンピュータおよび/またはプロセッサおよびメモリ(例えばROM、CD-ROMなどを含む)のいずれかの説明を参照すると、これらは、本発明の機能を実施するようにプログラムされた、コンピュータ・プロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、および/またはその他のハードウェア構成要素を含み得る。
本出願人は、本明細書により、本明細書に記載の個別の各特徴と、2つ以上のそのような特徴の任意の組み合わせを、そのような特徴または組み合わせが全体として本明細書に基づいて実施可能である程度まで、当業者の周知の知識に照らして、そのような特徴または特徴の組み合わせが本明細書で開示されているいずれかの問題を解決するか否かを問わず、特許請求の範囲に対する限定なしに、分離して開示する。出願人は、本開示の態様/実施例が任意のそのような個別の特徴または特徴の組み合わせからなり得ることを示す。以上の説明を考慮すると、当業者には本開示の範囲内で様々な修正を加えることができることが明らかであろう。
新規な基本的特徴をその実施例に適用されるものとして示し、説明し、指摘したが、記載されているデバイスおよび方法の形態および詳細には、本開示の範囲から逸脱することなく当業者により様々な省略、置換、および変更が可能であることを理解されたい。例えば、同じ結果を達成するように実質的に同じ機能を実質的に同じように実行する要素および/または方法ステップのすべての組み合わせが、本開示の範囲に含まれることが明示的に意図されている。また、開示されているいずれの形態または実施例に関連して示し、および/または説明している構造体および/または要素および/または方法ステップも、設計上の選択の一般事項として任意の他の開示または記載または示唆されている形態または実施例に組み込むことが可能であることを理解されたい。また、特許請求の範囲において、ミーンズプラスファンクション請求項は、記載されている機能を実行するものとして本明細書で説明されている構造体、および、構造的均等物だけでなく均等な構造体も対象として含むことが意図されている。したがって、釘とねじは、釘が木材部品を互いに固定するために円柱状の表面を採用し、ねじが螺旋状の表面を採用するという点で構造的均等物ではない場合があるが、固定する木材部品の環境において、釘とねじとは均等な構造体であり得る。

Claims (15)

  1. キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取り、
    前記キャプチャデバイスのカメラによってキャプチャされ、視野を有するビデオ画像であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取り、
    前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲を示す視野外グラフィックであって、線の一端から他端までの前記線に沿った位置が前記視野外グラフィックに関連付けられた前記音源の前記オーディオがそこから受け取られている方向を表す線であって、前記線の前記一端は前記視野の少なくとも第1の境界に対応する方向を表し、前記線の前記他端は前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応する方向を表す前記線を含む前記視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付け、
    前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供し、
    前記ビデオ画像のうちの領域または前記視野外グラフィックのうちの部分を選択するユーザ入力を受け取り、
    前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供する
    ように構成された手段を含む装置。
  2. 前記手段は、
    前記視野外グラフィックのうちの、前記1つまたは複数の音源に向かう方向に対応する前記部分と、
    前記ビデオ画像のうちの、前記1つまたは複数の音源に向かう方向に対応する前記領域と、
    のうちの1つまたは複数におけるマーカの表示を提供するように構成されている、請求項1に記載の装置。
  3. 少なくとも1つのオーディオキャプチャ特性の前記制御は、前記手段が、ビーム形成技術を使用して選択された前記1つの音源のキャプチャまたは記録を行わせるシグナリングを提供するように構成されていることを含む、請求項1または2に記載の装置。
  4. 少なくとも1つのオーディオキャプチャ特性の前記制御は、前記手段が、
    前記空間オーディオデータのうちの他のオーディオに適用される音量利得に対して相対的により大きな音量利得を有する選択された前記1つの音源をキャプチャまたは記録することと、
    前記空間オーディオデータのうちの他のオーディオに適用される質に対して相対的により高い質を有する選択された前記1つの音源をキャプチャまたは記録することと、
    選択された前記1つの音源の前記オーディオを前記空間オーディオデータのうちの他のオーディオとは分離したオーディオストリームとしてキャプチャまたは記録することと、
    のうちの少なくとも1つを行うように構成されていることを含む、請求項1~3のいずれか1項に記載の装置。
  5. 前記手段は、前記方向情報を使用して、所定の閾値を上回る音量を有するオーディオがどの方向から受け取られているかを判定することによって、前記1つまたは複数の音源を判定するように構成されている、請求項1~4のいずれか1項に記載の装置。
  6. 前記視野の外部の前記空間の空間範囲を示す前記視野外グラフィックは、
    楕円の扇形区分であって、前記扇形区分内の位置が前記視野外グラフィックに関連付けられた前記音源の前記オーディオがそこから受け取られる方向を表し、前記扇形区分の第1の部分が前記視野の少なくとも第1の境界に対応する方向を表し、前記扇形区分の第2の部分が前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応する方向を表す、前記扇形区分、
    をさらに含む、請求項1~5のいずれか1項に記載の装置。
  7. 前記視野の外部の前記空間の空間範囲を示す前記視野外グラフィックは、前記キャプチャデバイスの周囲の面を表し、前記視野外グラフィックに対して相対的な提示されるマーカの位置が、前記音源の前記オーディオがそこから受け取られているアジマス方向を表し、前記視野外グラフィックよりある距離だけ上方または下方に図示されている前記提示されたマーカの位置が、前記面の上方または下方の前記音源の前記オーディオがそこから受け取られている高度方向に対応する、請求項1~6のいずれか1項に記載の装置。
  8. 前記手段は、前記ビデオ画像の前記領域または前記視野外グラフィックの前記部分を選択する、タッチセンシティブ入力デバイス上の場所におけるタップを含む前記ユーザ入力に基づいて、選択された前記領域または部分に対応する前記空間の前記領域に焦点を合わせるビーム形成技術の適用により少なくとも1つのオーディオキャプチャ特性を変更することによって、少なくとも1つの前記オーディオキャプチャ特性の制御を提供するように構成されている、請求項1~7のいずれか1項に記載の装置。
  9. 前記手段は、前記ビデオ画像の前記領域または前記視野外グラフィックの前記部分を選択する、タッチセンシティブ入力デバイス上の場所におけるピンチジェスチャを含む前記ユーザ入力に基づいて、前記ピンチジェスチャの大きさに関連する角度を有するビーム形成技術の適用により少なくとも1つのオーディオキャプチャ特性を変更することによって、少なくとも1つの前記オーディオキャプチャ特性の制御を提供するように構成された、請求項1~8のいずれか1項に記載の装置。
  10. 前記手段は、関連付けられた音源がない、前記ビデオ画像の領域または前記視野外グラフィックの部分を選択する受け取った前記ユーザ入力に基づいて、前記ビデオ画像の選択された前記領域または前記視野外グラフィックの部分に対応する方向に音源がないことを示す第2のマーカの表示を提供するように構成されている、請求項1~9のいずれか1項に記載の装置。
  11. 前記ビーム形成技術は、選択された前記音源の前記オーディオが強調される、遅延和ビームフォーマ技術またはパラメトリック空間オーディオ処理技術のうちの少なくとも一方を含む、請求項3に記載の装置。
  12. 前記手段は、制御された前記オーディオキャプチャ特性を有する選択された前記音源とともに前記空間オーディオデータの提示および記録の一方または両方を提供するように構成されている、請求項1~11のいずれか1項に記載の装置。
  13. 請求項1~12のいずれか1項に記載の装置と、前記ビデオ画像をキャプチャするように構成されたカメラと、前記空間オーディオデータをキャプチャするように構成された複数のマイクロホンと、前記装置によって前記ビデオ画像を前記視野外グラフィックとともに表示するために使用されるディスプレイとを含む、電子デバイス。
  14. キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取ることと、
    前記キャプチャデバイスのカメラによってキャプチャされ、視野を有するビデオ画像であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取ることと、
    前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲を示す視野外グラフィックであって、線の一端から他端までの前記線に沿った位置が前記視野外グラフィックに関連付けられた前記音源の前記オーディオがそこから受け取られている方向を表す線であって、前記線の前記一端は前記視野の少なくとも第1の境界に対応する方向を表し、前記線の前記他端は前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応する方向を表す前記線を含む前記視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付けることと、
    前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供することと、
    前記ビデオ画像のうちの領域または前記視野外グラフィックのうちの部分を選択するユーザ入力を受け取ることと、
    前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供することと
    を含む、方法。
  15. コンピュータプログラムコードが記憶されたコンピュータ可読媒体であって、前記コンピュータ可読媒体とコンピュータプログラムコードとは、少なくとも1つのプロセッサで実行されると、
    キャプチャデバイスの周囲に延びる空間において1つまたは複数の音源からキャプチャされたオーディオと、前記1つまたは複数の音源に向かう方向を少なくとも示す方向情報とを含む空間オーディオデータであって、前記キャプチャデバイスによってキャプチャされる前記空間オーディオデータを受け取り、
    前記キャプチャデバイスのカメラによってキャプチャされ、視野を有するビデオ画像であって、前記空間オーディオデータがそこからキャプチャされる前記空間の範囲が前記視野より大きい、前記ビデオ画像を受け取り、
    前記方向情報から判定された前記1つまたは複数の音源のそれぞれを、前記視野内の音源については、前記ビデオ画像のうちの、前記音源に向かう方向に対応する領域に関連付け、前記視野の外部の音源については、前記視野の外部の前記空間の空間範囲を示す視野外グラフィックであって、線の一端から他端までの前記線に沿った位置が前記視野外グラフィックに関連付けられた前記音源の前記オーディオがそこから受け取られている方向を表す線であって、前記線の前記一端は前記視野の少なくとも第1の境界に対応する方向を表し、前記線の前記他端は前記第1の境界とは反対側の前記視野の少なくとも第2の境界に対応する方向を表す前記線を含む前記視野外グラフィックのうちの、前記音源に向かう方向に対応する部分に関連付け、
    前記ビデオ画像の表示を前記視野外グラフィックとともにディスプレイ上で提供し、
    前記ビデオ画像のうちの領域または前記視野外グラフィックのうちの部分を選択するユーザ入力を受け取り、
    前記1つまたは複数の音源のうちの選択された1つの音源の少なくとも1つのオーディオキャプチャ特性の制御であって、前記1つまたは複数の音源のうちの選択された前記1つの音源が前記ユーザ入力によって選択された前記領域または前記部分に関連付けられた前記1つまたは複数の音源のうちの1つを含む、前記制御を提供する、方法を実行するように構成されている、コンピュータ可読媒体。
JP2021569318A 2019-05-20 2020-05-11 空間オーディオをキャプチャする装置および関連する方法 Active JP7439131B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19175422.5 2019-05-20
EP19175422.5A EP3742185B1 (en) 2019-05-20 2019-05-20 An apparatus and associated methods for capture of spatial audio
PCT/EP2020/062987 WO2020234015A1 (en) 2019-05-20 2020-05-11 An apparatus and associated methods for capture of spatial audio

Publications (2)

Publication Number Publication Date
JP2022533755A JP2022533755A (ja) 2022-07-25
JP7439131B2 true JP7439131B2 (ja) 2024-02-27

Family

ID=66751860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021569318A Active JP7439131B2 (ja) 2019-05-20 2020-05-11 空間オーディオをキャプチャする装置および関連する方法

Country Status (5)

Country Link
US (1) US20220225049A1 (ja)
EP (1) EP3742185B1 (ja)
JP (1) JP7439131B2 (ja)
CN (1) CN113853529A (ja)
WO (1) WO2020234015A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115134499B (zh) * 2022-06-28 2024-02-02 世邦通信股份有限公司 一种音视频监控方法及***
CN115134581A (zh) * 2022-08-30 2022-09-30 四川中绳矩阵技术发展有限公司 一种图像和声音的融合重现方法、***、设备及存储介质
CN115225884A (zh) * 2022-08-30 2022-10-21 四川中绳矩阵技术发展有限公司 一种图像和声音的交互式重现方法、***、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013106298A (ja) 2011-11-16 2013-05-30 Sony Corp 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置
JP2016146547A (ja) 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 収音システム及び収音方法
JP2016178652A5 (ja) 2016-04-20 2018-05-10

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009008823A (ja) * 2007-06-27 2009-01-15 Fujitsu Ltd 音響認識装置、音響認識方法、及び、音響認識プログラム
US8610671B2 (en) * 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
JP5277887B2 (ja) * 2008-11-14 2013-08-28 ヤマハ株式会社 信号処理装置およびプログラム
US10635383B2 (en) * 2013-04-04 2020-04-28 Nokia Technologies Oy Visual audio processing apparatus
GB2516056B (en) * 2013-07-09 2021-06-30 Nokia Technologies Oy Audio processing apparatus
US9716944B2 (en) * 2015-03-30 2017-07-25 Microsoft Technology Licensing, Llc Adjustable audio beamforming
GB2540175A (en) * 2015-07-08 2017-01-11 Nokia Technologies Oy Spatial audio processing apparatus
US11231905B2 (en) * 2019-03-27 2022-01-25 Intel Corporation Vehicle with external audio speaker and microphone

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013106298A (ja) 2011-11-16 2013-05-30 Sony Corp 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置
JP2016146547A (ja) 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 収音システム及び収音方法
JP2016178652A5 (ja) 2016-04-20 2018-05-10

Also Published As

Publication number Publication date
EP3742185B1 (en) 2023-08-09
EP3742185A1 (en) 2020-11-25
US20220225049A1 (en) 2022-07-14
WO2020234015A1 (en) 2020-11-26
JP2022533755A (ja) 2022-07-25
CN113853529A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
CN110337318B (zh) 混合现实装置中的虚拟和真实对象记录
US20190139312A1 (en) An apparatus and associated methods
US10798518B2 (en) Apparatus and associated methods
CN110121695B (zh) 虚拟现实领域中的装置及相关联的方法
JP7439131B2 (ja) 空間オーディオをキャプチャする装置および関連する方法
US11432071B2 (en) User interface for controlling audio zones
US10887719B2 (en) Apparatus and associated methods for presentation of spatial audio
US10993067B2 (en) Apparatus and associated methods
JP2020520576A5 (ja)
JP2022116221A (ja) 空間オーディオに関する方法、装置およびコンピュータプログラム
EP3343957B1 (en) Multimedia content
WO2019057530A1 (en) APPARATUS AND ASSOCIATED METHODS FOR PRESENTING AUDIO IN THE FORM OF SPACE AUDIO
JP7037654B2 (ja) キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法
US20190058861A1 (en) Apparatus and associated methods
JP2021508193A5 (ja)
WO2019121059A1 (en) An apparatus and associated methods for presentation of first and second augmented, virtual or mixed reality content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7439131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150