CN110036655B - Hrtf测量方法、hrtf测量装置和存储介质 - Google Patents

Hrtf测量方法、hrtf测量装置和存储介质 Download PDF

Info

Publication number
CN110036655B
CN110036655B CN201780075539.5A CN201780075539A CN110036655B CN 110036655 B CN110036655 B CN 110036655B CN 201780075539 A CN201780075539 A CN 201780075539A CN 110036655 B CN110036655 B CN 110036655B
Authority
CN
China
Prior art keywords
user
hrtf
target
target direction
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780075539.5A
Other languages
English (en)
Other versions
CN110036655A (zh
Inventor
曲谷地哲
光藤祐基
今誉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN110036655A publication Critical patent/CN110036655A/zh
Application granted granted Critical
Publication of CN110036655B publication Critical patent/CN110036655B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技术涉及使得能够更简单地获取个体头部相关传递函数的HRTF测量方法、HRTF测量装置和程序。HRTF测量装置显示表示用户应面对的目标方向的图像。在用户的正面方向与目标方向匹配的情况下,HRTF测量装置通过扬声器输出测量声音并且基于由佩戴在用户耳朵上的麦克风获取的测量声音的结果来测量HRTF。本技术可以应用于例如测量头部相关传递函数等的装置。

Description

HRTF测量方法、HRTF测量装置和存储介质
技术领域
本技术涉及HRTF测量方法、HRTF测量装置和程序,并且特别涉及能够更简单地获取个体的头部相关传递函数的HRTF测量方法、HRTF测量装置和程序。
背景技术
近年来,对来自周围的空间信息的记录、传输和再现被开发并在语音领域中使用。在超高清晰度下,计划将22.2通道的三维多通道声音用于广播。此外,在虚拟现实领域中,除了围绕整个圆周的图像之外,围绕整个圆周的信号还以语音再现。
作为再现来自整个***的声音信息的方法,考虑了在整个***布置扬声器的方法。然而,考虑到的是,从安装规模和成本方面,声音信息限于电影院、大型设施等,而不能提供给普通家庭。使用耳机的双耳再现技术正吸引人们的注意。
这种双耳再现技术通常被称为听觉显示(下文中称为虚拟听觉显示 (VAD)),并且使用头部相关传递函数(HRTF)来实现。
头部相关传递函数将与从人头部周围的每个方向到两个耳膜的声音传输相关的信息表示为频率与进入方向的函数。在来自预定方向的HRTF 与目标语音合成并通过耳机发布的情况下,听者感觉到好像声音不是来自耳机而是来自所使用的HRTF的方向。听觉显示(VAD)是使用这样的原理的***。
如果使用听觉显示实现虚拟扬声器,则可以通过经由耳机发布来实现使用实际上难以实践的多个扬声器阵列***的再现。
然而,在听觉显示中使用的头部相关传递函数的特征是由耳廓和头部的反射和折射确定的。因此,个体差异是由耳廓或头部形状的差异引起的。因此,使用个体的头部相关传递函数对于声场的正确感知和定位是重要的。
例如,为了获取个体的头部相关传递函数,存在使用球形扬声器阵列等的测量方法(例如,参见专利文献1)。
引用列表
专利文件
专利文献1:日本专利申请公开第2007-251248号。
发明内容
本发明要解决的问题
然而,使用球形扬声器阵列等的测量方法在实际使用中存在问题,因为需要大型装置并且成本增加。
鉴于这样的情况,已经提出了本技术,并且本技术的目的是简单地获取个体的头部相关传递函数。
问题的解决方案
根据本技术的方面的HRTF测量方法包括:通过HRTF测量装置显示指示用户要面对的目标方向的图像;以及在用户的正面方向与目标方向匹配的情况下,从扬声器输出测量声音,以基于通过安装在用户的耳朵上的麦克风接收测量声音的结果来测量HRTF。
根据本技术的方面的HRTF测量装置包括:显示控制单元,其显示指示用户要面对的目标方向的图像;以及HRTF测量单元,其在用户的正面方向与目标方向匹配的情况下从扬声器输出测量声音,并且基于通过安装在用户的耳朵上的麦克风接收测量声音的结果来测量HRTF。
根据本技术的方面的程序使计算机执行包括以下项的处理:显示指示用户要面对的目标方向的图像;以及在用户的正面方向与目标方向匹配的情况下,从扬声器输出测量声音,以基于通过安装在用户的耳朵上的麦克风接收测量声音的结果来测量HRTF。
根据本技术的方面,HRTF测量装置显示指示用户要面对的目标方向的图像。在用户的正面方向与目标方向匹配的情况下,从扬声器输出测量声音,以基于通过安装在用户的耳朵上的麦克风接收测量声音的结果来测量HRTF。
此外,程序可以通过经由传输介质传输而被提供,或者被记录在记录介质中。
HRTF测量装置可以是独立装置,或者可以是作为一个装置的部件的内部块。
发明效果
根据本技术的方面,可以更简单地获取个体的头部相关传递函数。
此外,本文中描述的效果不必受限制,并且可以是本公开内容中描述的效果中的任何一种效果。
附图说明
图1是用于描述双耳再现技术的图。
图2是用于描述验证用户他自己(她自己)的头部相关传递函数的效果的实验结果的图。
图3是用于描述验证用户他自己(她自己)的头部相关传递函数的效果的实验结果的图。
图4是用于描述验证用户他自己(她自己)的头部相关传递函数的效果的实验结果的图。
图5是用于描述头部相关传递函数的另一测量方法的图。
图6是用于描述头部相关传递函数的另一测量方法的图。
图7是示出应用本技术的HRTF测量***的第一实施方式的配置的图。
图8是用于描述HRTF测量的过程的图。
图9是示出第一实施方式的HRTF测量***的详细配置的框图。
图10是用于描述第一实施方式的HRTF测量处理的流程图。
图11是示出用户的正面方向和目标方向上的图像的图。
图12是示出根据用户的正面方向与目标方向之间的差异的显示示例的图。
图13是示出在目标方向在视野之外的情况下的显示示例的图。
图14是用于描述转动的图。
图15是示出指示用户的正面方向和目标方向的图像的图,图像包括转动信息。
图16是示出与方向相关的匹配度的反馈显示示例的图。
图17是示出与转动相关的匹配度的反馈显示示例的图。
图18是示出在转动和方向都匹配的情况下的反馈显示示例的图。
图19是示出应用本技术的HRTF测量***的第二实施方式的配置的图。
图20是示出第二实施方式的HRTF测量***的详细配置的框图。
图21是用于描述第二实施方式的HRTF测量处理的流程图。
图22是示出反馈回距离信息的显示示例的图。
图23是示出反馈回竖向方向和横向方向的位置信息的显示示例的图。
图24是示出应用本技术的计算机的实施方式的配置示例的框图。
具体实施方式
在下文中,将描述用于执行本技术的模式(在下文中,称为实施方式)。此外,将按以下顺序给出描述。
1.双耳再现技术
2.验证用户他自己(她自己)的头部相关传递函数的效果的实验结果
3.HRTF测量***的第一实施方式
4.HRTF测量***的第二实施方式
5.修改
6.计算机的配置示例
<1.双耳再现技术>
首先,将简单描述使用头部相关传递函数(HRTF)的双耳再现技术。
如上面描述的,头部相关传递函数将与从人头部周围的每个方向到两个耳膜的声音传输相关的信息表示为频率与进入方向的函数。
如图1所示,在耳机HD11相对于目标声音呈现来自预定方向的组合 HRTF的情况下,听者(下文中,简称为用户)感觉声音不是来自耳机HD11 而是来自HRTF的方向,例如,设置在用户周围的扬声器SP1至SP8中的任何一个而不是耳机HD11。
在技术上定义,头部相关传递函数H(x,ω)是通过利用在头部不在自由空间中的状态下从声源位置x至头部中心O的传递特征H0(x,ω) 来归一化在用户的头部在自由空间中的状态下从声源位置x至用户的耳膜位置的传递特征H1(x,ω)而获得的。换句话说,通过以下表达式(1) 获得相对于声源位置x的头部相关传递函数H(x,ω)。
[数学式.1]
Figure BDA0002085720810000051
如果头部相关传递函数H(x,ω)与任何声音信号交叠并通过耳机等呈现,则可能给用户幻觉,好像从交叠的头部相关传递函数H(x,ω)的方向即声源位置x的方向听到声音。
此外,在声音是在例如回声室而不是自由空间中测量的情况下,回声与HRTF一起被包含。这样的情况通常被称为双耳房间脉冲响应(BRIR)。然而,在本说明书中,如果没有另外提及,则将共同使用HRTF或头部相关传递函数,而不管它是否是自由空间以及是否通过H0(x,ω)执行归一化。
头部相关传递函数H(x,ω)根据由耳廓或头部形状之间的差异引起的个体差异而不同。因此,期望针对每个用户测量个体头部相关传递函数 H(x,ω)。
<2.验证用户他自己(她自己)的头部相关传递函数的效果的实验结果>
与考虑用户他自己(她自己)和另一用户的HRTF的情况相比,将参照图2至图4来描述专用于用户的HRTF效果的实验结果。
图2是示出实验情况的图。
在实验中,使十个用户成为受试者,并且扬声器SP21至SP26位于距受试者的各个位置(方向)。从扬声器至受试者的专用于用户他自己(她自己)的HRTF被测量。另外,作为用户的平均HRTF,也通过如图3所示的仿真头部(HATS:头部和躯干模拟器,4100,由B&K制造)测量 HRTF。
评估实验的过程如下。
受试者收听声音作为从扬声器SP21至SP26中每一个扬声器输出声音的正确方向。
接下来,受试者佩戴耳机,收听测试刺激,并对定位方向(虚拟扬声器SP21至SP26中的每一个的方向)进行响应。作为测试刺激,受试者收听三种类型的测试刺激:受试者的HRTF与音乐信号交叠的测试刺激、另一受试者的HRTF与音乐信号交叠的测试刺激以及仿真头部的HRTF与音乐信号交叠的测试刺激。本文中,作为其他受试者的HRTF,使用当依次测试十个受试者时的上个受试者的HRTF。使用最后(第十)受试者的 HRTF测试第一受试者。
图4是示出评估实验的结果的曲线图。
图4的A示出了在用户收听与用户的HRTF交叠的测试刺激的情况下的响应结果。
图4的B示出了在用户收听与其他HRTF交叠的测试刺激的情况下的响应结果。
图4的C示出了在用户收听与仿真头部的HRTF交叠的测试刺激的情况下的响应结果。
在图4的A至C中的曲线图中,横轴表示呈现的刺激,而纵轴表示响应。曲线图中圆的大小与响应的次数成比例。曲线图中的斜线示出了y =x的直线。当响应接近直线时,可以准确地进行定位。
如从图4的A至C的响应结果可以看出的,发现可以准确地定位使用用户的HRTF的刺激。
如上面描述的,测量专用于用户的HRTF是非常有用的。
顺便提及,作为测量HRTF的方法,如图5所示,使用户坐在实际上设置扬声器SP1至SP8的球形扬声器阵列的中心,并且用户在耳道入口中佩戴麦克风MC。在这种状态下,从扬声器SP1至SP8中的每一个依次输出测量信号声音例如时间延长脉冲(TSP)以进行测量。
可替选地,如图6所示,存在以下测量方法,其中在使用横动装置 (traversedevice)TRV移动扬声器SP以使扬声器SP在球形表面上绘制轨迹时的每个位置处输出测量信号声音。
然而,这些方法适合于大规模测量***。因此,需要利用简单配置测量HRTF的方法。
<3.HRTF测量***的第一实施方式>
下面,将给出关于用于实现利用简单配置来测量头部相关传递函数 (HRTF)的HRTF测量***的描述。
<***配置示例>
图7示出了应用本公开内容的技术的HRTF测量***的第一实施方式的配置。
图7所示的HRTF测量***1由AR眼镜11、HRTF测量装置12和扬声器13配置。
AR眼镜11是能够显示增强现实(AR)图像的眼镜。测量HRTF的用户(受试者)佩戴眼镜。AR眼镜11基于从HRTF测量装置12提供的 AR图像信号在用户的视野内显示预定的AR图像。
AR眼镜11包括角度传感器21、操作按钮22和麦克风23。
例如,角度传感器21由例如陀螺仪传感器(角速度传感器)、加速度传感器、惯性传感器、地磁传感器等配置,并且用作检测带有AR眼镜11 的用户的头部的角度(方向)和旋转操作的传感器。角度传感器21将指示检测到的角度的角度检测信号提供至HRTF测量装置12。
操作按钮22由例如按压按钮配置,并接收用户的操作以检测预定定时。操作按钮22将与检测到的用户的操作相对应的操作信号提供至HRTF 测量装置12。
麦克风23佩戴在用户的耳朵中,并检测环境声音。麦克风23检测从扬声器13输出的声音(测量声音)用于HRTF测量,并将与检测到的测量声音对应的声音信号提供至HRTF测量装置12。麦克风23可以具有噪声消除功能。
HRTF测量装置12使扬声器13输出测量声音,并获取由麦克风23 检测的测量声音的声音信号,以计算(测量)专用于用户的HRTF。
更具体地,HRTF测量装置12将AR图像信号提供至AR眼镜11以在测量HRTF时显示AR图像(引导图像),并且在AR眼镜11中显示AR 图像。根据AR眼镜11中显示的AR图像,用户移动至朝向扬声器13的预定位置(方向)。当检测到用户基于从角度传感器21提供的角度检测信号移动至预定位置时,HRTF测量装置12将测量信号提供至扬声器13以使扬声器13输出测量声音,并获取由麦克风23检测的测量声音的声音信号,以计算(测量)专用于用户的HRTF。
扬声器13基于从HRTF测量装置12提供的测量信号输出测量声音。
此外,在该实施方式中,角度传感器21、操作按钮22和麦克风23 已经被描述为作为AR眼镜11的一部分与AR眼镜11集成地形成。然而,这些部件可以与AR眼镜11分开配置。
<HRTF测量的过程>
将参考图8描述HRTF测量***1的HRTF测量的过程。
HRTF测量装置12被配置成使得用户相对于一个固定的扬声器13转圈以在多个测量角度处测量HRTF,而不是将多个扬声器13设置在各种角度。
HRTF测量装置12包括存储用户要面对的方向的列表(在下文中,称为目标列表),该方向对应于旨在被测量的HRTF的角度。在下文中,旨在被测量的HRTF的角度将被称为目标角度,并且用户要面对的方向将被称为目标方向。
图8示出了在目标列表包括目标方向TG1至TG16上的十六个目标 TG的情况下的示例。
在该实施方式中,为了描述简单起见,将仅考虑通过用户的头部(耳朵)的水平面。十六个目标方向TG1至TG16在圆周上,其中用户与扬声器13之间的距离作为通过用户的头部(耳朵)的水平面上的半径。在十六个目标方向TG1至TG16中,设置方向BL(下文中,称为参考方向BL) 用于扬声器13的位置(方向)的参考。
例如,在测量用户右侧90度处的HRTF的情况下,用户需要面向扬声器13左侧的90度方向。因此,在目标角度是右侧90度的情况下,目标方向变为左侧90度。
以这种方式,如果确定了目标角度和目标方向中的任何一个,则确定了另一个。因此,当测量HRTF时,在该实施方式中仅将用户要面对的目标方向存储在目标列表中。
此外,可以在目标列表中仅存储目标方向TG。然而,可以存储目标方向TG和相对应的目标角度两者。相反,多个目标角度可以存储在目标列表中。
HRTF测量装置12基于用户的操作设置参考方向BL,然后基于目标列表设置多个目标方向TG。
例如,如果用户佩戴AR眼镜11,则消息例如“面对扬声器”被显示为AR图像。用户面对扬声器13,并按压操作按钮22。HRTF测量装置 12检测对操作按钮22的按压,将用户的当前面对方向设置为作为扬声器 13所在的方向的参考方向BL,并确认16个目标方向TG1至TG16。
HRTF测量装置12在AR眼镜11中显示用户的正面方向FC和指示用户要面对的目标方向TGn(n=1至16中的任何一个)的AR图像。
然后,在基于从角度传感器21提供的角度检测信号,用户的正面方向FC与用户要面对的目标方向TGn彼此匹配的情况下,HRTF测量装置 12使扬声器13输出测量声音,并获取由麦克风23检测的测量声音的信号(下文中,称为声音信号),以测量在目标方向TGn上专用于用户的 HRTF。
在目标方向TG1、TG2、TG3等上依次执行上述处理,以测量16个目标方向TG1至TG16的HRTF。
如上面描述的,根据HRTF测量***1,用户转圈而不是将多个扬声器13设置在各种角度处。因此,即使仅固定一个扬声器13,也可以测量全部目标角度的HRTF。
此外,在该实施方式的HRTF测量***1中,使用AR眼镜11。然而,可以类似地使用利用虚拟现实(VR)技术的VR头戴式显示器来代替AR 眼镜11。
然而,在使用VR头戴式显示器的情况下,用户不能在佩戴VR头戴式显示器的状态下观察扬声器13。因此,例如,从扬声器13输出语音消息例如“朝向扬声器佩戴VR头戴式显示器”。当准备好时,用户按压操作按钮22以设置参考方向BL,并且可以确认十六个目标方向TG1至 TG16。
可替选地,传感器被设置在扬声器13中以检测VR头戴式显示器,并且HRTF测量装置12基于传感器的检测结果将扬声器13的位置(参考方向BL)显示为VR图像,并且引导用户移动使得显示为VR图像的扬声器13处于正面方向。
<HRTF测量***的详细配置的框图>
图9是示出HRTF测量***1中包括的AR眼镜11、HRTF测量装置 12和扬声器13的详细配置的框图。
此外,在图9中,与上面描述的部分相对应的部分将附有相同的附图标记,并且其描述将被适当地省略。
在AR眼镜11中,除了角度传感器21、操作按钮22和麦克风23之外还添加了AR图像显示单元24。AR图像显示单元24基于从HRTF测量装置12提供的AR图像信号来显示AR图像。
HRTF测量装置12包括麦克风放大器51、AD转换单元52、用户正面方向检测单元53、目标方向设置单元54、显示控制单元55、匹配确定单元56、DA转换单元57、扬声器放大器58、HRTF测量单元59和记录单元60。
麦克风放大器51对从麦克风23提供的模拟声音信号进行放大,并将信号提供至AD转换单元52。AD转换单元52将从麦克风放大器51提供的模拟声音信号转换为数字声音信号(AD转换),并将数字信号提供至 HRTF测量单元59。
用户正面方向检测单元53基于从AR眼镜11的角度传感器21提供的角度检测信号来检测(计算)用户的正面方向FC,并将正面方向提供至显示控制单元55和匹配确定单元56。
目标方向设置单元54获取记录单元60中记录的目标列表,基于所获取的目标列表来设置用户的目标方向TG,并将目标方向提供至显示控制单元55、匹配确定单元56和HRTF测量单元59。
显示控制单元55基于从用户正面方向检测单元53提供的用户的正面方向FC和从目标方向设置单元54提供的用户的目标方向TG来生成其中以预定图画和标记显示用户的正面方向FC和目标方向TG的AR图像,并将AR图像信号提供至AR图像显示单元24。AR图像具有作为引导图像的功能以将用户的面对方向引导至目标方向TG。从AR眼镜11的操作按钮22输出的操作信号被提供至显示控制单元55、HRTF测量单元59等。
匹配确定单元56基于从用户正面方向检测单元53提供的用户的正面方向FC和从目标方向设置单元54提供的用户的目标方向TG来确定用户的面对方向与目标方向TG是否匹配,并将确定结果提供至HRTF测量单元59。
扬声器放大器58对从DA转换单元57提供的模拟测量信号进行放大,并将测量信号提供至扬声器13。DA转换单元57将从HRTF测量单元59 提供的数字测量信号转换为模拟测量信号(DA转换),并将模拟测量信号提供给扬声器放大器58。本文中,测量信号的示例包括时间延长脉冲 (TSP)信号等。
在从匹配确定单元56提供指示用户的面对方向与目标方向TG匹配的确定结果的情况下,HRTF测量单元59将从记录单元60获取的测量信号提供至DA转换单元57。利用该配置,在用户的面对方向与目标方向 TG匹配的情况下,从扬声器13输出测量声音。
另外,HRTF测量单元59获取从AD转换单元52提供的测量声音的声音信号,通过使用反函数进行分析来计算脉冲响应(HRTF),并且将脉冲响应记录在记录单元60中。
记录单元60由例如硬盘驱动器(HDD)、半导体存储器等配置,并记录测量HRTF所需的数据。具体地,记录单元60存储例如其中列出了相对于参考方向BL的多个目标方向TG的目标列表、测量声音的声音数据(测量信号)和基于由麦克风23获取的测量声音创建的每个用户的每个目标方向TG的HRTF。
根据上面描述来配置AR眼镜11、HRTF测量装置12和扬声器13。
此外,在AR眼镜11、HRTF测量装置12和扬声器13之间交换的控制信号、声音信号或图像信号可以通过使用高清晰度多媒体(HDMI,注册商标)电缆、通用串行总线(USB)电缆等的有线通信来传输,或者可以通过无线通信例如蓝牙(注册商标)或Wi-Fi来传输。
另外,HRTF测量装置12可以被集成配置到AR眼镜11或扬声器13 中的任何一者。
<HRTF测量处理的流程图>
接下来,将参考图10的流程图来描述根据第一实施方式的HRTF测量***1的HRTF测量处理。例如在用户(测量受试者)佩戴AR眼镜11 并且按压操作按钮22以给出关于测量开始的指令时,该处理开始。
首先,在步骤S1中,目标方向设置单元54获取记录单元60中记录的目标列表。
在步骤S2中,显示控制单元55将指示消息“面对扬声器并按压操作按钮”的AR图像信号提供至AR眼镜11的AR图像显示单元24。利用该配置,AR眼镜11的AR图像显示单元24显示AR图像,该AR图像显示消息“面对扬声器并按压操作按钮”。
在步骤S3中,显示控制单元55基于来自AR眼镜11的操作信号确定是否按压了操作按钮,并且待机直到确定操作按钮22被按压为止。
然后,在步骤S3中确定按压了操作按钮22的情况下,处理进行至步骤S4。显示控制单元55将由角度传感器21提供的角度检测信号指示的当前角度(方向)设置为参考方向BL。
在步骤S5中,目标方向设定单元54基于所获取的目标列表来设置预定目标方向TGn(n=1,2,3,...)。
此外,在紧接设置参考方向BL之后的步骤S5中,将指定在目标列表中列出的多个目标方向TG中的预定目标方向TGn的变量n设置为1。因此,在第一次进行步骤S5时,设置目标方向TG1。
在步骤S6中,用户正面方向检测单元53基于从AR眼镜11的角度传感器21提供的角度检测信号来计算用户的正面方向FC,并将正面方向提供至显示控制单元55和匹配确定单元56。
在步骤S7中,显示控制单元55基于设置的目标方向TGn和从用户正面方向检测单元53提供的用户的正面方向FC来生成指示用户的正面方向FC和目标方向TGn的AR图像,并且将AR图像信号提供至AR图像显示单元24。AR眼镜11的AR图像显示单元24显示指示用户的正面方向FC和目标方向TG的AR图像。
在步骤S8中,匹配确定单元56基于从用户正面方向检测单元53提供的用户的正面方向FC和由目标方向设置单元54设置的用户的目标方向 TGn来确定用户的面对方向是否与目标方向TGn匹配。
在步骤S8中,在确定了用户的正面方向FC与目标方向TGn之间的角度差落入预定范围内的情况下,确定用户的面对方向与目标方向TGn 匹配。
在步骤S8中,在确定了用户的面对方向与目标方向TGn不匹配的情况下,处理返回到步骤S8。利用该配置,指示用户的正面方向FC和目标方向TG的AR图像被更新直到确定用户的面对方向与目标方向TGn匹配为止,并且在AR眼镜11中被显示。
然后,在步骤S8中,在确定了用户的面对方向与目标方向TGn匹配的情况下,处理进行到步骤S9。匹配确定单元56将指示匹配的确定结果提供至HRTF测量单元59。HRTF测量单元59从扬声器13输出测量声音。换句话说,HRTF测量单元59将从记录单元60获取的测量信号提供至DA 转换单元57。测量信号经过DA转换并被放大,被提供至扬声器13,并从扬声器13输出作为测量声音。
接下来,在步骤S10中,HRTF测量单元59获取由AR眼镜11的麦克风23检测到的测量声音的声音信号,并测量目标方向TGn上的HRTF。换句话说,HRTF测量单元59从AR眼镜11的麦克风23获取通过麦克风放大器51和AD转换单元52提供的测量声音的声音信号,并通过使用反函数进行分析来计算脉冲响应,并将脉冲响应记录在记录单元60中。
在步骤S11中,HRTF测量单元59确定是否针对目标列表的所有目标方向TG测量了HRTF。
在步骤S11中,在确定未针对目标列表的所有目标方向TG测量HRTF 的情况下,处理进行到步骤S12。目标方向设置单元54将指定目标方向 TGn的变量n递增1。此后,处理返回到步骤S5。在步骤S5中,设置更新的目标方向TGn,并重复后续处理。
另一方面,在步骤S11中确定针对目标列表的所有目标方向TG测量了HRTF的情况下,HRTF测量处理结束。
HRTF测量***1执行如上面描述的HRTF测量处理,使得可以仅使用一个固定的扬声器13来测量期望的HRTF。
利用这种配置,可以仅通过一个扬声器13来简单地获取专用于个体的全部***的HRTF。因此,可以更简单地获取个体的HRTF。
在上面描述的HRTF测量处理中,HRTF测量(测量声音的输出)在用户的面对方向与目标方向TGn匹配的情况下自动开始。然而,HRTF测量可以在用户按压操作按钮22以使按钮操作的定时处开始。在这种情况下,用户可以确定测量开始定时。
另外,在上面描述的HRTF测量处理中的HRTF测量期间监测用户头部的移动。在位移、速度、加速度等中的任何一者偏离预定范围的情况下,可以校正测量。
在上面的示例中,通过读取记录单元60中记录的目标列表来设置测量HRTF的多个目标方向TG。然而,操作单元例如键盘或触摸板可以用于用户输入。
<AR图像的显示示例>
接下来,将描述在第一实施方式的HRTF测量处理中在AR眼镜11 中显示的AR图像的显示示例。
图11示出了在AR图像中显示的指示目标方向TG的图像和指示用户的正面方向FC的图像的示例,该AR图像指示在使用户面对预定的目标方向TG的情况下的目标方向TG和用户的正面方向FC。
例如,如图11所示,用圆标记“○”(图像)显示指示目标方向TG 的图像71,并且用交叉标记“×”(图像)显示指示用户的正面方向FC的图像72。
然后,在用户的当前正面方向FC与目标方向TG之间的角度上的差 (角度差)大于预定范围的情况下,指示目标方向TG的图像71和指示用户的正面方向FC的图像72被显示为如图12的A所示。在用户的当前正面方向FC与目标方向TG之间的角度上的差落在第一范围R1内的情况下,指示目标方向TG的图像71的显示被变为如图12的B所示的指示用户的当前正面方向FC相对于目标方向TG接近第一范围R1的显示。在图 12的B中,指示目标方向TG的图像71被变为以阴影(灰度(gradation)) 显示以显示图像接近第一范围R1。
然后,在用户的当前正面方向FC与目标方向TG之间的角度上的差落入第二范围R2(第一范围R1>第二范围R2)内,并且用户的当前正面方向FC与目标方向TG匹配的情况下,指示目标方向TG的图像71的显示进一步被变为如图12的C中所示的指示用户的当前正面方向FC与目标方向TG匹配的显示。在图12的C中,指示目标方向TG的图像71被显示为使得圆(内圆周)中的颜色变为与正常颜色不同的预定颜色(例如,黑色到红色)作为指示用户的当前正面方向FC与目标方向TG匹配的显示。
以这种方式,在诱导用户的面对方向朝向目标方向TG的AR图像中,可以通过根据用户的当前正面方向FC与目标方向TG之间的角度上的差来改变指示目标方向TG的图像71的显示(颜色或符号)而向用户呈现接近目标方向TG的状态。
此外,在图12的示例中,指示目标方向TG的图像71的显示根据用户的正面方向FC与目标方向TG之间的角度差而改变。然而,相反,可以改变指示用户的正面方向FC的图像72的显示。
在目标方向TG在用户的当前正面方向FC的视野内的情况下,如图 12所示,指示目标方向TG的图像71和指示用户的正面方向FC的图像 72可以同时显示。
然而,在目标方向TG在用户的视野之外的情况下,例如,直的向后方向,不能显示指示目标方向TG的图像71,并且用户不知道哪个方向是目标方向TG。
然后,在目标方向TG在用户的视野之外的情况下,显示控制单元55 显示用以诱导用户至目标方向TG的诱导图像73而不是指示目标方向TG 的图像71,例如,如图13所示。诱导图像73由预定曲率的弧形箭头表示,以便与稍后在图23中描述的竖向方向和横向方向的箭头142区分。
图13的A示出了在目标方向TG在用户的视野之外并且远离的情况下,即在用户的当前正面方向FC与目标方向TG之间的角度差大于第三范围R3的情况下的诱导图像73的示例。
图13的B示出了在目标方向TG在用户的视野之外并且接近用户的视野的情况下,即在用户的当前正面方向FC与目标方向TG之间的角度差大于第四范围R4并且落入第三范围R3(第三范围R3>第四范围R4) 内的情况下的诱导图像73的示例。
在图13的A和B中,诱导图像73由指示旋转方向的箭头表示。随着用户的正面方向FC与目标方向TG之间的角度差增大,箭头的长度被显示得长。
诱导图像73的箭头的长度可以被显示为与用户的正面方向FC和目标方向TG之间的角度差成比例地改变,或者可以通过在多个阶段中转换来显示诱导图像73的箭头的长度。
此外,如图14所示,可能存在用户的头部在水平方向上的倾斜(转动)不是水平的情况。因此,包括与头部在水平方向上的倾斜相关联的信息(转动信息)的AR图像可以在AR眼镜11中显示。
图15示出了在还包括头部在水平方向上的倾斜的情况下指示目标方向TG的图像和指示用户的正面方向FC的图像。
在目标方向TG被显示为包括头部在水平方向上的倾斜的情况下,需要用以指示上、下、右和左方向的显示。例如,指示目标方向TG的图像 81通过如图15所示的以下图像显示,在该图像中,其中绘制有交叉的圆 (大圆)和小于大圆的圆(小圆)彼此相邻(外接)。在这种情况下,小圆的方向表示上部(头部的上部)。图15的示例对应于用于用户将头部在水平方向上的倾斜改变为头部在左方向上的倾斜的显示。
指示用户的正面方向FC的图像82由具有四个方向(上、下、右和左)上的箭头的交叉图像显示。为了更好地理解与目标方向TG的关系的目的,向正面方向FC提供竖向方向和横向方向的显示,尽管不是必需的。
图16示出了在包括转动信息并指示目标方向TG的图像81和指示用户的正面方向FC的图像82中反馈回与方向相关的匹配度的显示示例。
图16的A示出了在接近方向的情况下的反馈显示示例。
图16的B示出了在方向匹配的情况下的反馈显示示例。
在接近方向的情况下,显示控制单元55改变显示,使得阴影(灰度) 被添加至示出目标方向TG的图像81的大圆的***,如图16的A所示。
然后,在方向匹配的情况下,显示控制单元55将示出目标方向TG 的图像81的大圆的内部(内圆周)的颜色改变为与正常颜色不同的预定颜色(例如,黑色到红色),如图16的B所示。
图17示出了在示出还包括转动信息的目标方向TG的图像81和示出用户的正面方向FC的图像82中反馈回与转动相关的匹配度的显示示例。
图17的A示出了在接近转动的情况下的反馈显示示例。
图17的B示出了在转动匹配的情况下的反馈显示示例。
在接近转动的情况下,显示控制单元55改变显示,使得示出用户的正面方向FC的图像82的具有四个方向的箭头的交叉和附接至小圆的***的阴影(灰度)技术如图17的A所示。
在转动匹配的情况下,显示控制单元55将示出用户的正面方向FC 的图像82的具有四个方向上的箭头的交叉和小圆的颜色改变为与正常颜色不同的预定颜色(例如,黑色到红色),如图17的B所示。
图18示出了在转动和方向都匹配的情况下的反馈显示示例。
在转动和方向都匹配的情况下,图16的B和图17的B中所示的图像被混合并显示。换句话说,如图18所示,指示目标方向TG的图像81 的大圆的内部(内围)和小圆以及指示用户的正面方向FC的图像82的具有四个方向的箭头的交叉的颜色被变成与正常颜色不同的预定颜色(例如,黑色到红色)。
以这种方式,在指示目标方向TG的图像81和指示用户的正面方向 FC的图像82与转动信息一起显示的情况下,或者在仅方向匹配的情况下,在仅转动匹配的情况下,或者在方向和转动都匹配的情况下,显示控制单元55可以改变显示。
<4.HRTF测量***的第二实施方式>
接下来,将描述HRTF测量***的第二实施方式。
<***配置示例>
图19示出了应用本公开内容的技术的HRTF测量***的第二实施方式的配置。
此外,在第二实施方式的描述中,适当地省略与上面描述的第一实施方式共同的描述,并且将描述与第一实施方式不同的部分。在第二实施方式的附图中,与第一实施方式相对应的部分将附有相同的附图标记。
在根据第二实施方式的HRTF测量***1中,除了AR眼镜11、HRTF 测量装置12和扬声器13之外,还新设置了摄像机101。
在根据第二实施方式的AR眼镜11中,附有可以由摄像机101捕获 (识别)的多个标记MK。在图19的示例中,三个标记MK1至MK3被附接至AR眼镜11。另外,在AR眼镜11中省略了角度传感器21。
类似地,根据第二实施方式的扬声器13也附有可以由摄像机101捕获(识别)的多个标记MK。在图19的示例中,两个标记MK11和MK12 被附接至扬声器13。
摄像机101包括图像捕获元件(例如,互补金属氧化物半导体(CMOS) 传感器、电荷耦合器件(CCD)等),捕获附接至AR眼镜11的三个标记 MK1至MK3和附接至扬声器13的两个标记MK11和MK12的图像,并将从结果获得的捕获图像提供至HRTF测量装置12。摄像机101可以是立体摄像机,其中,两个图像捕获元件在其间设置有预定间隙。
在第二实施方式中,HRTF测量装置12、扬声器13和摄像机101可以被配置成集成装置。与这些部件集成的装置可以通过例如智能电话或个人计算机来实现。在HRTF测量装置12、扬声器13和摄像机101被集成配置的情况下,省略两个标记MK11和MK12。
<HRTF测量***的详细配置的框图>
图20是示出根据第二实施方式的HRTF测量***1的详细配置示例的框图。
将图20与第一实施方式中的图9进行比较,在AR眼镜11中省略了角度传感器21。另外,在HRTF测量装置12中,使用用户正面方向检测单元111来替换第一实施方式中的用户正面方向检测单元53。另外,如上面描述的,添加了摄像机101。
由摄像机101捕获的图像(捕获图像)被提供至HRTF测量装置12 的用户正面方向检测单元111。
用户正面方向检测单元111检测包含在从摄像机101提供的捕获图像中的附接至AR眼镜11的三个标记MK1到MK3以及附接至扬声器13的两个标记MK11和MK12。
然后,用户正面方向检测单元111基于三个检测到的标记MK1至 MK3来计算AR眼镜11在以预定位置作为原点的三维坐标系上的位置。 AR眼镜11的位置等于佩戴AR眼镜11的用户的头部的位置。类似地,用户正面方向检测单元111基于两个检测到的标记MK11和MK12来计算扬声器13在三维坐标系上的位置。
此外,用户正面方向检测单元111根据通过计算获得的AR眼镜11 的位置和扬声器13的位置来检测(计算)用户相对于扬声器13的位置所面对的正面方向FC,并且将正面方向提供至显示控制单元55和匹配确定单元56。
另外,用户正面方向检测单元111还根据通过计算获得的AR眼镜11 的位置和扬声器13的位置来计算从扬声器13至用户的距离,并将计算出的距离提供至显示控制单元55和匹配确定单元56。
此外,当相对于扬声器13的位置计算AR眼镜11的位置和距离时,可以使用位置/姿态估计技术例如同时定位与映射(SLAM)。
在第二实施方式中由记录单元60存储的目标列表中,记录了相对于预定参考方向BL的多个目标方向TG和从扬声器13至用户的距离(下文中称为目标距离)。
<HRTF测量处理的流程图>
接下来,将参照图21的流程图来描述根据第二实施方式的HRTF测量***1的HRTF测量处理。该处理在例如用户(测量受试者)佩戴AR 眼镜11并且按压操作按钮22以给出关于测量开始的指令时开始。
首先,在步骤S21中,目标方向设置单元54获取记录单元60中记录的目标列表。在第二实施方式的目标列表中,如上面描述的,记录了多个目标方向TG和从扬声器13至用户的目标距离。
在步骤S22中,目标方向设置单元54基于所获取的目标列表来设置预定目标方向TGn(n=1,2,3,...)。
此外,在紧接设置参考方向BL之后的步骤S22中,将指定在目标列表中列出的多个目标方向TG中的预定目标方向TGn的变量n设置为1。因此,在第一次进行步骤S22时,设置目标方向TG1。
在步骤S23中,用户正面方向检测单元111基于从摄像机101提供的捕获图像来相对于扬声器13的位置计算用户面对的正面方向FC以及从扬声器13至用户的距离。
更具体地,用户正面方向检测单元111检测包含在由摄像机101捕获的图像中的附接至AR眼镜11的三个标记MK1到MK3以及附接至扬声器13的两个标记MK11和MK12的位置。然后,用户正面方向检测单元111基于三个检测到的标记MK1至MK3和两个检测到的标记MK11和 MK12的位置来相对于扬声器13的位置计算用户面对的正面方向FC。另外,用户正面方向检测单元111还计算从扬声器13至用户的距离。计算出的用户的正面方向FC和计算出的至用户的距离被提供至显示控制单元 55和匹配确定单元56。
在步骤S24中,显示控制单元55基于设置的目标方向TGn以及从用户正面方向检测单元111提供的用户的正面方向FC和至用户的距离来生成指示目标方向TGn、用户的正面方向FC以及至用户的距离的AR图像,并将AR图像信号提供至AR图像显示单元24。AR眼镜11的AR图像显示单元24显示指示目标方向TGn、用户的正面方向FC以及至用户的距离的AR图像。
在步骤S25中,匹配确定单元56基于从用户正面方向检测单元111 提供的用户的正面方向FC和至用户的距离以及由目标方向设置单元54 设置的用户的目标方向TGn和目标距离来确定用户的面对方向和距离是否与目标方向TGn和目标距离匹配。
在步骤S25中,在确定了用户的正面方向FC和目标方向TGn之间的角度差落入预定范围内的情况下,确定用户的面对方向和目标方向TGn 匹配。另外,关于至用户的距离,在确定了从用户正面方向检测单元111 提供的至用户的距离与目标距离之间的距离差落在预定范围内的情况下,确定从扬声器13至用户的距离与目标距离匹配。
在步骤S25中,在用户的面对方向和距离与目标方向TGn和目标距离不匹配的情况下,处理返回到步骤S25。利用该配置,指示目标方向TGn、用户的正面方向FC和至用户的距离的AR图像被更新直到确定用户的面对方向和距离与目标方向TGn和目标距离匹配为止,并在AR眼镜11中被显示。
然后,在步骤S25中,在确定了用户的面对方向和距离与目标方向 TGn和目标距离匹配的情况下,处理进行到步骤S26。匹配确定单元56 将指示匹配的确定结果提供至HRTF测量单元59。HRTF测量单元59从扬声器13输出测量声音。换句话说,HRTF测量单元59将从记录单元60 获取的测量信号提供至DA转换单元57。测量信号经过DA转换并被放大,被提供至扬声器13,并从扬声器13输出作为测量声音。
接下来,在步骤S27中,HRTF测量单元59获取由AR眼镜11的麦克风23检测到的测量声音的声音信号,并测量目标方向TGn上的HRTF。换句话说,HRTF测量单元59从AR眼镜11的麦克风23获取通过麦克风放大器51和AD转换单元52提供的测量声音的声音信号,并通过使用反函数进行分析来计算脉冲响应,并将脉冲响应记录在记录单元60中。
在步骤S28中,HRTF测量单元59确定是否针对目标列表的所有目标方向测量了HRTF。
在步骤S28中,在确定未针对目标列表的所有目标方向TG确定HRTF 的情况下,处理进行到步骤S29。目标方向设置单元54将指定目标方向 TGn的变量n递增1。此后,处理返回到步骤S22。在步骤S22中,设置更新的目标方向TGn,并重复后续处理。
另一方面,在步骤S28中确定针对目标列表的所有目标方向TG测量了HRTF的情况下,HRTF测量处理结束。
在上面的第二实施方式中的HRTF测量处理中,可以基于从摄像机101提供的捕获图像来检测用户相对于扬声器13的位置。因此,在第一实施方式的HRTF测量处理的步骤S2至S4中执行的相对于扬声器13设置参考方向BL的设置参考方向的处理被省略。
HRTF测量***1执行如上面描述的HRTF测量处理,使得可以仅使用一个固定的扬声器13来测量期望的HRTF。
利用这种配置,可以仅通过一个扬声器13来简单地获取专用于个体的全部***的HRTF。因此,可以更简单地获取个体的HRTF。
根据第二实施方式,可以在不仅用户面对的正面方向FC与目标方向 TG相匹配而且从扬声器13至用户的距离与多个目标方向TG相匹配时测量HRTF。利用这种配置,可以以比第一实施方式的情况更高的准确度测量HRTF。
此外,在第二实施方式中,用户正面方向检测单元111基于包含在由摄像机101捕获的图像中的标记MK来检测用户(用户佩戴的AR眼镜11) 和扬声器13的位置(包括方向)以及距离。然而,检测用户和扬声器13 的位置以及距离的方法不限于此。
例如,可以使用检测用户和扬声器13的位置以及距离的检测装置,例如,使用ToF传感器(其使用热成像(thermography)或飞行时间(ToF) 方法来测量至受试者的距离)测量距离的方法、结构光方法等。另外,位置和距离可以由不同的装置分别检测。
另外,在第二实施方式中,诱导用户不仅匹配针对存储在目标列表中的多个目标方向TG的目标方向,还匹配至扬声器13的距离。然而,可以执行控制以不匹配至扬声器13的距离。在这种情况下,当测量每个目标方向TGn的HRTF时,HRTF测量单元59将至扬声器13的距离与HRTF 的测量结果一起存储在记录单元60中。在测量之后的处理中,可以执行 HRTF的校正,以在测量每个目标方向TGn的HRTF时根据距离差来调整时间差。
在目标列表中,记录相对于预定参考方向BL的多个目标方向TG和从扬声器13至用户的距离。然而,类似于第一实施方式,可以省略至用户的距离。在这种情况下,在图21的HRTF测量处理中,例如,可以根据相对于测量第一目标方向TG1时的距离的距离来测量每个目标方向TG 上的HRTF。
相反,当从扬声器13至用户的多个距离存储在记录单元60中时,可以针对多个不同距离测量专用于用户的HRTF。
<AR图像的显示示例>
接下来,将描述在第二实施方式的HRTF测量处理中在AR眼镜11 中显示的AR图像的显示示例。
在第二实施方式中,不仅可以检测目标方向TG,还可以检测至扬声器13的距离。因此,可以显示至扬声器13的距离以在AR眼镜11中显示的AR图像中诱导用户。
图22示出了向用户反馈回至扬声器13的距离信息的指示用户的正面方向FC的图像的示例。
如图22所示,在用户的当前距离短于执行HRTF测量的目标距离(至扬声器13的距离近)的情况下,显示控制单元55使用放大比例的具有四个方向(上、下、右和左)上的箭头的交叉来显示指示用户的正面方向 FC的图像121。在用户的当前距离长(至扬声器13的距离远)的情况下,以缩小比例显示指示用户的正面方向FC的图像121。
另一方面,在用户的当前距离与目标距离之间的差落入预定范围内,并且用户的当前距离等于目标距离(至扬声器13的距离相等)的情况下,显示控制单元55对使用具有四个方向(上、下、右和左)上的箭头的交叉的指示用户的正面方向FC的图像121另外地显示例如由虚线描绘的正方形122。
此外,在用户的当前距离与目标距离相等的情况下指示用户的正面方向FC的图像121的尺寸与例如在如图15所示的不包含距离信息的情况下指示用户的正面方向FC的图像121的尺寸相同。
在第二实施方式中,不仅可以检测相对于扬声器13的位置的方向(角度),还可以检测竖向方向和横向方向的位置。因此,不仅可以显示目标方向TG,还可以显示用于诱导的竖向方向和横向方向的位置。
图23示出了在向用户反馈回用户相对于扬声器13的竖向方向和横向方向的位置信息的情况下的显示示例。
在向用户反馈回用户相对于扬声器13的竖向方向和横向方向的位置信息的情况下,如图23所示,显示控制单元55显示添加有两条对角线 141的AR图像,对角线141表示指示用户的正面方向FC的图像121外侧的深度。两条对角线141表示对用户的移动命令不是旋转操作而是平行移动操作。
然后,在偏离用户的竖向方向和横向方向的位置的情况下,显示控制单元55显示与校正指示用户的正面方向FC的图像121的外侧上的偏离的方向相对应的向上箭头的图像142U、向下箭头的图像142D、向右箭头的图像142R和向左箭头的图像142L中的任何一个。此外,在图23的示例中,虚线的正方形122也显示在指示用户的正面方向FC的图像121的外侧,作为在距离相等的情况下的显示示例。
以这种方式,在第二实施方式中,也可以显示包含至扬声器13的距离信息的AR图像和包含用户相对于扬声器13的位置信息(上、下、右和左)的AR图像。
<5.修改>
在下文中,将描述对上面实施方式的修改。
在上面描述的实施方式中,为了描述简单起见,已经给出了关于通过用户头部(耳朵)的水平面上的多个目标角度(目标方向TG)上的HRTF 的测量的描述。然而,实际上针对分布在围绕用户的球形形状中的多个目标角度测量HRTF。
在应用本技术并且测量分布在球形形状中的多个目标角度的HRTF 的情况下,可以通过由水平角度和仰角(elevation)的两条信息限定来实现存储在目标列表中的目标角度或目标方向。
另外,在还包含转动(头部在水平方向上的倾斜)作为控制目标的情况下,目标角度由水平角度和仰角的两条信息限定,而目标方向由水平角度、仰角和转动的三条信息限定。即使在一个目标方向上,也可以通过改变转动来测量不同目标角度的HRTF。
在上面描述的实施方式中,按照从来自存储在目标列表中的多个目标列表TG1至TGN中的第一目标列表TG1的顺序测量HRTF,但是可以随机选择目标方向TF。另外,可以不在AR图像中一个接一个地显示目标方向TG,而是可以同时显示多个目标方向,使得用户可以选择期望的目标方向TG。
上面描述的HRTF测量***1可以由云计算***配置,其中一个或更多个装置通过网络共享功能的一部分以一起执行处理。例如,记录在记录单元60中的目标列表和HRTF(测量结果)可以存储在云上的信息处理装置中。
在上面描述的实施方式中,提前设置用于目标方向TG和目标距离的阈值,以测量远离、接近、匹配等。然而,用户可以在设置屏幕中任意设置阈值。
另外,即使在要反馈回的参数的数目太多使得用户感到困惑的情况下,也可以使用设置屏幕显示并选择(指定)反馈信息作为AR图像。
用以向用户反馈回位置信息和方向信息的各种类型的AR图像的显示示例仅作为示例给出,并且本发明不限于此。另外,反馈信息可以利用如上面描述的AR图像的领域来向用户提供,或者使用其他模态例如声音或振动提供,或者可以以其组合提供。
<6.计算机的配置示例>
上面描述的一系列处理可以由硬件执行,或者可以由软件执行。在通过软件执行一系列处理的情况下,将配置软件的程序安装在计算机中。本文中,计算机的示例包括嵌入在专用硬件中的微计算机,或者可以通过安装各种程序来执行各种类型的功能的通用个人计算机。
图24是示出通过程序执行上面描述的一系列处理的计算机的硬件配置示例的框图。
在计算机中,中央处理单元(CPU)201、只读存储器(ROM)202、随机存取存储器(RAM)203通过总线204彼此连接。
在总线204中,还连接输入/输出接口205。在输入/输出接口205中,连接输入单元206、输出单元207、存储单元208、通信单元209和驱动器211。
输入单元206由键盘、鼠标、麦克风等配置。输出单元207由显示器、扬声器等配置。存储单元208由硬盘、非易失性存储器等配置。通信单元 209由网络接口等配置。
图像捕获单元210由电荷耦合器件(CCD)和图像捕获元件例如互补金属氧化物半导体(CMOS)传感器配置。图像捕获单元210捕获受试者的图像,并通过输入/输出接口205将捕获的受试者的图像数据提供至CPU 201等。
驱动器211由可移动记录介质212例如磁盘、光盘、磁光盘或半导体存储器驱动。
在如上面描述的那样配置的计算机中,CPU 201通过输入/输出接口205和总线204将存储在存储单元208中的程序加载至例如RAM 203并执行,使得执行上面描述的一系列HRTF测量处理。
在计算机中,通过将可移动记录介质212安装在驱动器211中,可以通过输入/输出接口205将程序安装在存储单元208中。另外,程序由通信单元209通过有线或无线传输介质(例如局域网、因特网或数字卫星广播***)接收,并且可以被安装在存储单元208中。此外,可以提前将程序安装在ROM 202或存储单元208中。
在本说明书中,流程图中描述的步骤当然可以根据所描述的顺序按时间顺序执行,或者可以不必按时间顺序执行。步骤可以并行执行或在所需定时处例如当被调用时被执行。
在本说明书中,***意指多个部件(装置、模块(零件)等)的集合,而不管所有部件是否都设置在同一壳体中。因此,存储在单独壳体中并通过网络连接的多个装置和其中多个模块存储在一个壳体中的一个装置可以是***。
本技术的实施方式不限于上面描述的实施方式,并且可以在不脱离本技术的精神的范围内进行各种改变。
例如,可以组合多个实施方式中的全部或一些。
例如,本技术可以由云计算***配置,其中多个装置通过网络共享一个功能以一起执行处理。
另外,上面流程图中描述的步骤可以由多个装置而不是一个装置共享并执行。
此外,在一个步骤中包含多个步骤的情况下,一个步骤中包含的多个处理可以由多个装置而不是一个装置共享并执行。
此外,本说明书中描述的效果仅作为示例给出,但是本发明不限于此。可以实现除了本说明书中描述的效果之外的效果。
此外,本技术可以如下配置。
(1)一种HRTF测量方法,包括:
通过HRTF测量装置显示指示用户要面对的目标方向的图像;以及
在所述用户的正面方向与所述目标方向匹配的情况下,从扬声器输出测量声音,以基于通过安装在所述用户的耳朵上的麦克风接收所述测量声音的结果来测量HRTF。
(2)根据(1)所述的HRTF测量方法,其中,
与指示所述目标方向的图像一起显示指示所述用户的正面方向的图像。
(3)根据(1)或(2)所述的HRTF测量方法,其中,
使用所述扬声器的位置作为参考位置来显示所述目标方向的图像。
(4)根据(3)所述的HRTF测量方法,其中,
将所述扬声器的位置显示为所述参考位置,以向所述用户显示指示所述目标方向的图像。
(5)根据(1)至(4)中任一项所述的HRTF测量方法,其中,
在所述目标方向在用户的视野之外的情况下,显示诱导图像以将所述用户诱导至所述目标方向。
(6)根据(1)至(5)中任一项所述的HRTF测量方法,其中,
测量所述用户与所述扬声器之间的距离以显示指示关于所述距离的信息的图像。
(7)根据(1)至(6)中任一项所述的HRTF测量方法,其中,
根据所述用户的正面方向与所述目标方向之间的差异来改变指示所述目标方向的图像或指示所述用户的正面方向的图像。
(8)根据(1)至(7)中任一项所述的HRTF测量方法,其中,
指示所述目标方向的图像包括与所述用户的头部在水平方向上的倾斜相关联的信息。
(9)根据(8)所述的HRTF测量方法,其中,
在仅所述用户的正面方向与所述目标方向匹配的情况下,在仅所述用户的头部在所述水平方向上的倾斜与所述目标方向匹配的情况下以及在所述用户的正面方向和所述用户的头部在所述水平方向上的倾斜都与所述目标方向匹配的情况下,要显示的图像是不同的。
(10)根据(1)至(9)中任一项所述的HRTF测量方法,其中,
显示指示所述用户相对于所述扬声器在竖向方向和横向方向上的位置的图像。
(11)一种HRTF测量装置,包括:
显示控制单元,其显示指示用户要面对的目标方向的图像;以及
HRTF测量单元,其在所述用户的正面方向与所述目标方向匹配的情况下从扬声器输出测量声音,并且基于通过安装在所述用户的耳朵上的麦克风接收所述测量声音的结果来测量HRTF。
(12)根据(11)所述的HRTF测量装置,其中,
所述显示控制单元将指示所述用户的正面方向的图像与指示所述目标方向的图像一起显示。
(13)根据(11)或(12)所述的HRTF测量装置,还包括:
用户正面方向检测单元,其基于由安装在所述用户上的装置检测到的角度检测信号来检测所述用户的正面方向。
(14)根据(11)或(12)所述的HRTF测量装置,还包括:
用户正面方向检测单元,其基于检测所述用户和所述扬声器的位置以及所述用户与所述扬声器之间的距离的检测装置的检测结果来检测所述用户的正面方向。
(15)根据(14)所述的HRTF测量装置,其中,
所述检测装置是捕获所述用户和所述扬声器的图像的图像捕获装置,并且所述用户正面方向检测单元基于由所述图像捕获装置捕获的图像来检测所述用户的正面方向。
(16)根据(11)至(15)中任一项所述的HRTF测量装置,还包括:
记录单元,其记录指定所述目标方向的信息。
(17)根据(16)所述的HRTF测量装置,其中,
指定所述目标方向的信息是所述目标方向或目标角度中的至少之一,所述目标角度是旨在被测量的HRTF的角度。
(18)根据(16)或(17)所述的HRTF测量装置,其中,
指定所述目标方向的信息包括从所述扬声器至所述用户的距离。
(19)一种程序,其使计算机执行包括以下项的处理:
显示指示用户要面对的目标方向的图像;以及
在用户的正面方向与所述目标方向匹配的情况下,从扬声器输出测量声音,以基于通过安装在所述用户的耳朵上的麦克风接收所述测量声音的结果来测量HRTF。
参考标记列表
1 HRTF测量***
11 AR眼镜
12 HRTF测量装置
13 扬声器
21 角度传感器
22 操作按钮
23 麦克风
53 用户正面方向检测单元
54 目标方向设置单元
55 显示控制单元
56 匹配确定单元
59 HRTF测量单元
60 记录单元
101 摄像机
111 用户正面方向检测单元
201 CPU
202 ROM
203 RAM
206 输入单元
207 输出单元
208 存储单元
209 通信单元
210 图像捕获单元
211 驱动器

Claims (14)

1.一种HRTF测量方法,包括使HRTF测量装置:
显示指示用户要面对的目标方向的图像;
基于从AR眼镜的角度传感器提供的角度检测信号或者基于从摄像机提供的捕获图像来计算所述用户的正面方向;以及
在所述用户的正面方向与所述目标方向匹配的情况下,从扬声器输出测量声音,并且基于通过安装在所述用户的耳朵上的麦克风接收所述测量声音的结果来测量HRTF,
其中,使用所述扬声器的位置作为参考位置来显示指示所述目标方向的图像,
其中,通过基于来自所述AR眼镜的操作信号确定是否按压操作按钮来获取所述用户的参考位置,并且
其中,与指示所述目标方向的图像一起也显示指示所述用户的正面方向的图像,并且根据所述用户的正面方向与所述目标方向之间的差异来改变指示所述目标方向的图像或指示所述用户的正面方向的图像,以向所述用户呈现接近所述目标方向的状态。
2.根据权利要求1所述的HRTF测量方法,其中,
在所述目标方向在所述用户的视野之外的情况下,显示将所述用户诱导至所述目标方向上的诱导图像。
3.根据权利要求1所述的HRTF测量方法,其中,
测量所述用户与所述扬声器之间的距离,并且也显示指示关于所述距离的信息的图像。
4.根据权利要求1所述的HRTF测量方法,其中,
指示所述目标方向的图像也包括与所述用户的头部在横向方向上的倾斜相关联的信息。
5.根据权利要求4所述的HRTF测量方法,其中,
在仅所述用户的正面方向匹配的情况下、在仅所述用户的头部在横向方向上的倾斜匹配的情况下以及在所述用户的正面方向和所述用户的头部在横向方向上的倾斜都匹配的情况下,要显示的图像是不同的。
6.根据权利要求1所述的HRTF测量方法,其中,
也显示指示所述用户相对于所述扬声器在竖向方向和横向方向上的位置的图像。
7.一种HRTF测量装置,包括:
显示控制单元,其显示指示用户要面对的目标方向的图像,并且还基于从AR眼镜的角度传感器提供的角度检测信号或者基于从摄像机提供的捕获图像来计算所述用户的正面方向;以及
HRTF测量单元,其在所述用户的正面方向与所述目标方向匹配的情况下从扬声器输出测量声音,并且基于通过安装在所述用户的耳朵上的麦克风接收所述测量声音的结果来测量HRTF,
其中,使用所述扬声器的位置作为参考位置来显示指示所述目标方向的图像,
其中,通过基于来自所述AR眼镜的操作信号确定是否按压操作按钮来获取所述用户的参考位置,并且
其中,所述显示控制单元将指示所述用户的正面方向的图像与指示所述目标方向的图像一起显示,并且根据所述用户的正面方向与所述目标方向之间的差异来改变指示所述目标方向的图像或指示所述用户的正面方向的图像,以向所述用户呈现接近所述目标方向的状态。
8.根据权利要求7所述的HRTF测量装置,还包括:
用户正面方向检测单元,其基于由安装在所述用户上的装置检测到的角度检测信号来检测所述用户的正面方向。
9.根据权利要求7所述的HRTF测量装置,还包括:
用户正面方向检测单元,其基于检测所述用户和所述扬声器的位置以及所述用户与所述扬声器之间的距离的检测装置的检测结果来检测所述用户的正面方向。
10.根据权利要求9所述的HRTF测量装置,其中,
所述检测装置是捕获所述用户和所述扬声器的图像的图像捕获装置,并且
所述用户正面方向检测单元基于由所述图像捕获装置捕获的图像来检测所述用户的正面方向。
11.根据权利要求7所述的HRTF测量装置,还包括:
记录单元,其记录指定所述目标方向的信息。
12.根据权利要求11所述的HRTF测量装置,其中,
指定所述目标方向的信息是所述目标方向或目标角度中的至少之一,所述目标角度是旨在被测量的所述HRTF的角度。
13.根据权利要求12所述的HRTF测量装置,其中,
指定所述目标方向的信息也包括从所述扬声器至所述用户的距离。
14.一种存储介质,其上存储有程序,所述程序使计算机执行包括以下项的处理:
显示指示用户要面对的目标方向的图像;
基于从AR眼镜的角度传感器提供的角度检测信号或者基于从摄像机提供的捕获图像来计算所述用户的正面方向;以及
在所述用户的正面方向与所述目标方向匹配的情况下,从扬声器输出测量声音,并且基于通过安装在所述用户的耳朵上的麦克风接收所述测量声音的结果来测量HRTF,
其中,使用所述扬声器的位置作为参考位置来显示指示所述目标方向的图像,
其中,通过基于来自所述AR眼镜的操作信号确定是否按压操作按钮来获取所述用户的参考位置,并且
其中,与指示所述目标方向的图像一起也显示指示所述用户的正面方向的图像,并且根据所述用户的正面方向与所述目标方向之间的差异来改变指示所述目标方向的图像或指示所述用户的正面方向的图像,以向所述用户呈现接近所述目标方向的状态。
CN201780075539.5A 2016-12-12 2017-11-28 Hrtf测量方法、hrtf测量装置和存储介质 Active CN110036655B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-240352 2016-12-12
JP2016240352 2016-12-12
PCT/JP2017/042532 WO2018110269A1 (ja) 2016-12-12 2017-11-28 Hrtf測定方法、hrtf測定装置、およびプログラム

Publications (2)

Publication Number Publication Date
CN110036655A CN110036655A (zh) 2019-07-19
CN110036655B true CN110036655B (zh) 2022-05-24

Family

ID=62558577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780075539.5A Active CN110036655B (zh) 2016-12-12 2017-11-28 Hrtf测量方法、hrtf测量装置和存储介质

Country Status (5)

Country Link
US (1) US11159906B2 (zh)
EP (1) EP3554098A4 (zh)
JP (1) JP6992767B2 (zh)
CN (1) CN110036655B (zh)
WO (1) WO2018110269A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112368767A (zh) * 2018-07-24 2021-02-12 索尼公司 测量装置和测量***
US11659347B2 (en) 2018-07-31 2023-05-23 Sony Corporation Information processing apparatus, information processing method, and acoustic system
US10856097B2 (en) 2018-09-27 2020-12-01 Sony Corporation Generating personalized end user head-related transfer function (HRTV) using panoramic images of ear
KR20210068402A (ko) 2018-10-03 2021-06-09 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US11113092B2 (en) 2019-02-08 2021-09-07 Sony Corporation Global HRTF repository
CN113519171A (zh) * 2019-03-19 2021-10-19 索尼集团公司 声音处理装置、声音处理方法和声音处理程序
US11451907B2 (en) 2019-05-29 2022-09-20 Sony Corporation Techniques combining plural head-related transfer function (HRTF) spheres to place audio objects
US11347832B2 (en) 2019-06-13 2022-05-31 Sony Corporation Head related transfer function (HRTF) as biometric authentication
US11146908B2 (en) 2019-10-24 2021-10-12 Sony Corporation Generating personalized end user head-related transfer function (HRTF) from generic HRTF
US11070930B2 (en) 2019-11-12 2021-07-20 Sony Corporation Generating personalized end user room-related transfer function (RRTF)
RU196533U1 (ru) * 2019-11-28 2020-03-03 Общество С Ограниченной Ответственностью "Яндекс" Умная колонка с медианной фильтрацией значений tof-сенсора
WO2022050087A1 (ja) 2020-09-03 2022-03-10 ソニーグループ株式会社 信号処理装置および方法、学習装置および方法、並びにプログラム
US11477597B2 (en) * 2021-02-01 2022-10-18 Htc Corporation Audio processing method and electronic apparatus
CN113068112B (zh) * 2021-03-01 2022-10-14 深圳市悦尔声学有限公司 声场重现中仿真系数向量信息的获取算法及其应用
CN113099359B (zh) * 2021-03-01 2022-10-14 深圳市悦尔声学有限公司 一种基于hrtf技术的高仿真声场重现的方法及其应用
WO2023238677A1 (ja) * 2022-06-08 2023-12-14 ソニーグループ株式会社 生成装置、生成方法及び生成プログラム
GB2621590A (en) * 2022-08-15 2024-02-21 Sony Interactive Entertainment Europe Ltd Method for generating a personalised HRTF

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN203733133U (zh) * 2013-02-06 2014-07-23 北京中科虹霸科技有限公司 一种具有人机交互机制的移动终端虹膜识别装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729612A (en) * 1994-08-05 1998-03-17 Aureal Semiconductor Inc. Method and apparatus for measuring head-related transfer functions
JP3388478B2 (ja) 1994-09-07 2003-03-24 日本電信電話株式会社 ヘッドホン
JPH08307988A (ja) 1995-05-09 1996-11-22 Sharp Corp 音像測定装置
JP2005123959A (ja) 2003-10-17 2005-05-12 Nippon Telegr & Teleph Corp <Ntt> 高臨場感通信会議装置
US9101279B2 (en) * 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
JP2007251248A (ja) 2006-03-13 2007-09-27 Yamaha Corp 頭部伝達関数測定装置
KR101384528B1 (ko) * 2007-03-02 2014-04-11 삼성전자주식회사 입체 음향을 이용한 방향 안내 처리 방법 및 그를 적용한네비게이션 시스템
JP4780119B2 (ja) 2008-02-15 2011-09-28 ソニー株式会社 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP2014093697A (ja) * 2012-11-05 2014-05-19 Yamaha Corp 音響再生システム
CN105027580B (zh) * 2012-11-22 2017-05-17 雷蛇(亚太)私人有限公司 用于输出修改的音频信号的方法
WO2015068587A1 (ja) 2013-11-05 2015-05-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6292040B2 (ja) 2014-06-10 2018-03-14 富士通株式会社 音声処理装置、音源位置制御方法及び音源位置制御プログラム
WO2016065137A1 (en) 2014-10-22 2016-04-28 Small Signals, Llc Information processing system, apparatus and method for measuring a head-related transfer function
JP6642989B2 (ja) 2015-07-06 2020-02-12 キヤノン株式会社 制御装置、制御方法及びプログラム
CN105910702B (zh) * 2016-04-18 2019-01-25 北京大学 一种基于相位补偿的异步头相关传输函数测量方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN203733133U (zh) * 2013-02-06 2014-07-23 北京中科虹霸科技有限公司 一种具有人机交互机制的移动终端虹膜识别装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
虚拟听觉环境实时绘制***平台;张承云 等;《科学通报》;20121120;第57卷(第32期);第3055-3066页 *

Also Published As

Publication number Publication date
US11159906B2 (en) 2021-10-26
JPWO2018110269A1 (ja) 2019-10-24
CN110036655A (zh) 2019-07-19
EP3554098A1 (en) 2019-10-16
JP6992767B2 (ja) 2022-01-13
WO2018110269A1 (ja) 2018-06-21
EP3554098A4 (en) 2019-12-18
US20200068334A1 (en) 2020-02-27

Similar Documents

Publication Publication Date Title
CN110036655B (zh) Hrtf测量方法、hrtf测量装置和存储介质
US11706582B2 (en) Calibrating listening devices
Ahrens et al. Sound source localization with varying amount of visual information in virtual reality
US20190364378A1 (en) Calibrating listening devices
US9648438B1 (en) Head-related transfer function recording using positional tracking
US9854371B2 (en) Information processing system, apparatus and method for measuring a head-related transfer function
US11528577B2 (en) Method and system for generating an HRTF for a user
US20190087972A1 (en) An arrangement for producing head related transfer function filters
CN113366863B (zh) 补偿头戴式装置对头部相关传递函数的影响
KR20190004809A (ko) 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라
US10021505B2 (en) Control apparatus, measurement system, control method, and storage medium
US20220078338A1 (en) Information processing apparatus, information processing method, and information processing program
JP2022130662A (ja) 頭部伝達関数を生成するシステム及び方法
US20190028690A1 (en) Detection system
US10743128B1 (en) System and method for generating head-related transfer function
JP2018152834A (ja) 仮想聴覚環境において音声信号出力を制御する方法及び装置
JP2024096996A (ja) 頭部伝達関数を生成するシステム及び方法
Lund et al. Sound source localization with varying amount of visual information in virtual reality
FI20195495A1 (en) System and method for generating head-related transfer function

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant