KR20210068402A - 정보 처리 장치, 정보 처리 방법 및 프로그램 - Google Patents

정보 처리 장치, 정보 처리 방법 및 프로그램 Download PDF

Info

Publication number
KR20210068402A
KR20210068402A KR1020217006946A KR20217006946A KR20210068402A KR 20210068402 A KR20210068402 A KR 20210068402A KR 1020217006946 A KR1020217006946 A KR 1020217006946A KR 20217006946 A KR20217006946 A KR 20217006946A KR 20210068402 A KR20210068402 A KR 20210068402A
Authority
KR
South Korea
Prior art keywords
user
head
control unit
measurement
interface control
Prior art date
Application number
KR1020217006946A
Other languages
English (en)
Inventor
고유루 오키모토
도루 나카가와
데츠 마가리야치
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Publication of KR20210068402A publication Critical patent/KR20210068402A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Otolaryngology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Abstract

유저가 자신의 헤드부 전달 특성을 정밀도 높게 측정하는 것을 가능하게 한다. 유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부(140)를 구비하고, 상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치(10)가 제공된다. 또한, 프로세서(871)가, 유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 것을 포함하고, 유저 인터페이스를 제어하는 것은, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 더 포함하는 정보 처리 방법이 제공된다.

Description

정보 처리 장치, 정보 처리 방법 및 프로그램
본 개시는, 정보 처리 장치, 정보 처리 방법 및 프로그램에 관한 것이다.
근년, 음원으로부터 양쪽 귀까지의 소리의 전달 특성을 나타내는 머리 전달 함수(Head-Related Transfer Function, HRTF)가 주목받고 있다. 또한, 머리 전달 함수의 측정을 효율적으로 행하기 위한 방법도 제안되어 있다. 예를 들어, 특허문헌 1에는, 머리 전달 함수의 측정 시간을 단축하여 피험자의 부담을 경감하는 기술이 개시되어 있다.
일본 특허 공개 제2007-251248호 공보
그러나, 특허문헌 1에 개시된 바와 같은 측정 방법은, 대규모의 측정 설비를 요하기 때문에, 일반의 유저가 자신의 헤드부 전달 특성을 손쉽게 측정하는 것이 곤란하다.
본 개시에 의하면, 유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부를 구비하고, 상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치가 제공된다.
또한, 본 개시에 의하면, 프로세서가, 유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 것을 포함하고, 유저 인터페이스를 제어하는 것은, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 더 포함하는 정보 처리 방법이 제공된다.
또한, 본 개시에 의하면, 컴퓨터를, 유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부를 구비하고, 상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치로서 기능시키기 위한 프로그램이 제공된다.
도 1은 본 개시의 일 실시 형태에 관한 유저 인터페이스 및 가이드 정보의 일례를 도시하는 도면이다.
도 2는 동 실시 형태에 관한 정보 처리 장치의 기능 구성예를 도시하는 블록도이다.
도 3은 동 실시 형태에 관한 인터페이스 제어의 구체예를 도시하는 도면이다.
도 4는 동 실시 형태에 관한 인터페이스 제어의 구체예를 도시하는 도면이다.
도 5는 동 실시 형태에 관한 인터페이스 제어의 구체예를 도시하는 도면이다.
도 6은 동 실시 형태에 관한 인터페이스 제어의 구체예를 도시하는 도면이다.
도 7은 동 실시 형태에 관한 정보 처리 장치를 사용한 다채널의 머리 전달 함수의 개인 최적화에 대하여 설명하기 위한 도면이다.
도 8은 동 실시 형태에 관한 다채널 측정 모드에 대응하는 유저 인터페이스의 일례를 도시하는 도면이다.
도 9는 동 실시 형태에 관한 인터페이스 제어부에 의한 제어의 흐름을 나타내는 흐름도이다.
도 10은 본 개시의 일 실시 형태에 관한 하드웨어 구성예를 도시하는 도면이다.
도 11은 더미 헤드 마이크를 사용한 일반적인 머리 전달 함수의 측정에 대하여 설명하기 위한 도면이다.
이하에 첨부 도면을 참조하면서, 본 개시의 적합한 실시 형태에 대하여 상세하게 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 부호를 부여함으로써 중복 설명을 생략한다.
또한, 설명은 이하의 순서로 행하는 것으로 한다.
1. 실시 형태
1. 1. 개요
1. 2. 정보 처리 장치(10)의 기능 구성예
1. 3. 제어의 구체예
1. 4. 제어의 흐름
2. 하드웨어 구성예
3. 정리
<1. 실시 형태>
<<1. 1. 개요>>
먼저, 본 개시의 일 실시 형태의 개요에 대하여 설명한다. 상술한 바와 같이, 근년, 음원으로부터 양쪽 귀까지의 소리의 전달 특성을 수학적으로 나타내는 머리 전달 함수가 주목받고 있다. 머리 전달 함수에 의하면, 예를 들어 헤드폰 등의 소리 출력 장치에 음상을 입체적으로 표현시키는 것이 가능해진다.
또한, 머리 전달 함수는, 더미 헤드 마이크를 사용하여 측정되는 것이 일반적이다. 여기서, 도 11을 참조하여, 더미 헤드 마이크를 사용한 일반적인 머리 전달 함수의 측정에 대하여 설명한다.
일반적인 머리 전달 함수의 측정에서는, 먼저, 도면 중 좌측에 도시한 바와 같이, 헤드폰(50)에 재현시키려고 하는 레퍼런스 음장 RSF에, 스피커(30)와 더미 헤드 마이크(40)를 설치한다.
다음에, 스피커(30)로부터 측정용 신호를 재생하고, 도면 중앙에 도시한 바와 같이, 더미 헤드 마이크(40)의 양쪽 귀 위치에 각각 구비된 마이크로폰으로 좌귀 및 우귀 각각의 머리 전달 함수를 취득한다.
다음에, 도면 중 우측에 도시한 바와 같이, 재현하고 싶은 음성 신호(소스 신호)에 대해, 좌귀 및 우귀 각각의 머리 전달 함수를 컨볼루션하는 처리를 행하여, 좌귀용 및 우귀용의 신호를 생성한다. 상기와 같이 생성한 신호를 헤드폰(50)에 재생시킴으로써, 음상을 입체적으로 표현할 수 있다.
이상, 더미 헤드 마이크를 사용한 머리 전달 함수의 측정에 대하여 설명하였다. 한편, 근년에 있어서는, 유저마다 측정한 머리 전달 함수를 사용함으로써, 상술한 바와 같은 음상의 입체적 표현의 효과가 보다 높아지는 것이 알려져 있다.
그러나, 헤드부 전달 특성의 측정에는, 무향실이나 시청실, 또한 대형 스피커 등의 대규모의 측정 설비가 필요해진다. 이 때문에, 일반의 유저가 자신의 헤드부 전달 특성을 손쉽게 측정하는 것이 곤란한 상황에 있었다.
또한, 유효한 머리 전달 함수를 정밀도 높게 측정하기 위해서는, 측정용 신호를 출력하는 음원과 유저의 양쪽 귀의 상대 위치를 명확하게 할 것이 요구된다. 그러나, 전문 지식이 부족한 유저가 스스로 머리 전달 함수를 측정하고자 하는 경우, 측정에 적합한 위치나 자세를 파악하는 것이 곤란하다.
본 개시에 관한 기술 사상은 상기의 점에 주목하여 발상된 것이며, 유저가 자신의 헤드부 전달 특성을 정밀도 높게 측정하는 것을 가능하게 한다. 이를 위해, 본 개시의 일 실시 형태에 관한 정보 처리 장치(10)는, 유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부(140)를 구비한다. 또한, 본 개시의 일 실시 형태에 관한 인터페이스 제어부(140)는, 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 특징의 하나로 한다.
도 1은 본 실시 형태에 관한 유저 인터페이스 및 가이드 정보의 일례를 도시하는 도면이다. 도 1에는, 유저 U가, 본 실시 형태에 관한 정보 처리 장치(10)를 사용하여 자신의 머리 전달 함수를 측정할 때에 있어서의 유저 인터페이스의 제어예가 도시되어 있다. 또한, 도 1에서는, 본 실시 형태에 관한 정보 처리 장치(10)가 스마트폰인 경우의 일례가 도시되어 있다.
먼저, 유저 U는, 도 1의 좌측에 도시한 바와 같이, 좌귀 및 우귀에 마이크로폰(20L 및 20R)을 장착하고, 정보 처리 장치(10)를 조작함으로써, 본 실시 형태에 관한 유저 인터페이스를 기동시킨다. 도 1의 중앙에는, 유저 U의 조작에 기초하여, 인터페이스 제어부(140)가 표시부(110)에 표시시키는 GUI(Graphical User Interface)의 일례가 도시되어 있다. 이와 같이, 본 실시 형태에 관한 유저 인터페이스는 GUI를 포함해도 된다.
이때, 본 실시 형태에 관한 인터페이스 제어부(140)는, 유저 U의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보를 출력시키는 것을 특징의 하나로 한다. 여기서, 상기 지정 방향이란, 머리 전달 함수의 측정에 적합한 방향이어도 된다. 예를 들어, 측정용 신호를 유저 U의 정면 방향으로부터 출력하고, 유저 U의 머리 전달 함수를 측정하고 싶은 경우, 상기 지정 방향은, 유저 U를 기점으로 하여 머리 전달 함수의 측정에 관한 측정용 신호를 출력하는 음성 출력부(170)가 위치하는 방향이어도 된다. 즉, 본 실시 형태에 관한 지정 방향은, 예를 들어 유저 U와 음성 출력부(170)가 대향하도록 설정될 수 있다.
본 실시 형태에 관한 인터페이스 제어부(140)는, 유저 U의 헤드부의 방향을 상기와 같은 지정 방향으로 유도함으로써, 머리 전달 함수의 측정에 적합한 양쪽 귀의 위치에서 유저의 자세를 고정시켜, 정밀도가 높은 머리 전달 함수의 측정을 실현하는 것이 가능하다.
여기서, 본 실시 형태에 관한 인터페이스 제어부(140)가 출력을 제어하는 가이드 정보의 일례에 대하여 설명한다. 본 실시 형태에 관한 가이드 정보는, 예를 들어 각종 시각 정보를 포함한다. 본 실시 형태에 관한 인터페이스 제어부(140)는, 유저 U의 헤드부의 방향을 지정 방향으로 유도하는 가이드 오브젝트를 표시부(110)에 표시시켜도 된다.
또한, 본 실시 형태에 관한 인터페이스 제어부(140)는, 촬영부(120)에 의해 촬영되는 유저 U의 화상을 실시간으로 표시부(110)에 표시시키고, 당해 화상에 가이드 오브젝트를 중첩시켜도 된다.
예를 들어, 도 1에 도시한 일례의 경우, 인터페이스 제어부(140)는, 지정 방향에 따른 헤드부 형상의 프레임 오브젝트 FF와, 프레임 오브젝트 FF에 촬영되어 있는 얼굴의 위치를 맞추도록 유도하는 메시지를, 가이드 정보로서 표시부(110)에 표시시키고 있다.
본 실시 형태에 관한 인터페이스 제어부(140)에 의한 상기와 같은 제어에 의하면, 유저 U가 자신의 화상을 확인하면서, 용이하게 프레임 오브젝트 FF에 얼굴 UF의 위치를 맞출 수 있어, 특별히 의식하지 않고 머리 전달 함수의 측정에 적합한 자세를 취하는 것이 가능해진다.
또한, 본 실시 형태에 관한 인터페이스 제어부(140)는, 인식부(150)에 의해, 유저 U의 헤드부의 방향이 지정 방향에 대략 일치하였다고 판정된 것에 기초하여, 머리 전달 함수의 측정의 개시를 나타내는 개시 통지 정보의 출력을 제어해도 된다. 이때, 인식부(150)는, 예를 들어 촬영되는 화상 중에 있어서의 유저 U의 얼굴 UF가, 프레임 오브젝트 FF의 내측에 수렴되어 있는 것에 기초하여, 유저 U의 헤드부의 방향이 지정 방향에 대략 일치하였다고 판정해도 된다.
도 1의 우측에는, 개시 통지 정보의 일례로서, 인터페이스 제어부(140)가, 측정의 개시를 나타내는 시스템 발화 SO1을 음성 출력부(170)에 출력시키고, 또한 측정의 개시를 나타내는 메시지를 표시부(110)에 표시시키는 경우가 도시되어 있다.
상기와 같은 개시 통지 정보에 의하면, 측정 개시 시에 유저 U가 헤드부를 고정하도록 유도할 수 있어, 정밀도가 높은 머리 전달 함수를 측정하는 것이 가능해진다.
또한, 본 실시 형태에 관한 인터페이스 제어부(140)는, 머리 전달 함수의 측정 처리를 개시나 중단 등을 제어해도 된다. 예를 들어, 본 실시 형태에 관한 인터페이스 제어부(140)는, 인식부(150)가, 유저 U의 헤드부의 방향이 지정 방향에 대략 일치하였다고 판정한 것에 기초하여, 후술하는 신호 처리부(160)에 머리 전달 함수의 측정 처리를 개시시켜도 된다.
또한, 예를 들어 본 실시 형태에 관한 인터페이스 제어부(140)는, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 개시시킨 후, 당해 측정 처리가 종료될 때까지의 동안에, 유저 U의 헤드부의 방향이 지정 방향과 대략 일치하지 않게 된다고 인식부(150)가 판정한 경우, 신호 처리부(160)에 측정 처리를 중단시켜도 된다.
본 실시 형태에 관한 인터페이스 제어부(140)가 갖는 상기 기능에 의하면, 측정 중에 유저 U의 헤드부의 방향이 지정 방향으로부터 일탈한 경우, 즉 유저 U의 자세가 머리 전달 함수의 측정에 적합하지 않은 자세가 된 경우에는, 신호 처리부(160)에 측정 처리를 중단시킴으로써, 취득되는 머리 전달 함수의 정밀도를 유지하는 것이 가능해진다.
또한, 인터페이스 제어부(140)는, 유저 U의 주위에 있어서의 노이즈 레벨에 기초하여 상기와 같은 제어를 행할 수도 있다. 예를 들어, 본 실시 형태에 관한 인터페이스 제어부(140)는, 인식부(150)가 측정한 노이즈 레벨이 역치를 초과하는 경우, 신호 처리부(160)에 의한 머리 전달 함수의 측정 처리가 개시되지 않도록 제어해도 된다.
또한, 예를 들어 본 실시 형태에 관한 인터페이스 제어부(140)는, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 개시시킨 후, 노이즈 레벨이 역치를 초과한 것이 검출된 경우, 신호 처리부(160)에 측정 처리를 중단시켜도 된다.
본 실시 형태에 관한 인터페이스 제어부(140)에 의한 상기 제어에 의하면, 노이즈 레벨이 높은 환경에서 정밀도가 낮은 머리 전달 함수가 취득되는 것을 방지할 수 있다.
또한, 본 실시 형태에 관한 인터페이스 제어부(140)는, 예를 들어 도 1에 도시한 바와 같이, 인식부(150)가 측정한 노이즈 레벨에 관한 노이즈 정보 NI를 표시부(110)에 표시시켜도 된다. 도 1에 도시한 일례의 경우, 인터페이스 제어부(140)는, 노이즈 정보 NI를 미터로서 표시하고, 현재의 노이즈 레벨과 측정을 허가하는 노이즈 레벨대(도면 중에 있어서의 해칭 부분)를 유저 U에게 제시하고 있다.
상기와 같은 표시에 의하면, 유저 U에게 주위 환경에 있어서의 노이즈 레벨이 머리 전달 함수의 측정에 적합한 상태인지 여부를 파악시키고, 예를 들어 노이즈 레벨이 높은 경우에는, 노이즈 레벨이 낮은 장소로의 이동을 유도하는 것이 가능해진다.
이상, 본 실시 형태에 관한 인터페이스 제어부(140)가 제어하는 유저 인터페이스의 개요에 대하여 설명하였다. 본 실시 형태에 관한 인터페이스 제어부(140)에 의한 상술한 제어에 의하면, 유저를 측정에 적합한 자세로 유도함으로써, 유저가 자신의 헤드부 전달 특성을 용이하게 또한 정밀도 높게 측정하는 것이 가능해진다.
<<1. 2. 정보 처리 장치(10)의 기능 구성예>>
다음에, 본 실시 형태에 관한 정보 처리 장치(10)의 기능 구성예에 대하여 설명한다. 본 실시 형태에 관한 정보 처리 장치(10)는, 예를 들어 스마트폰이나 태블릿 등의 모바일 단말기여도 된다.
도 2는 본 실시 형태에 관한 정보 처리 장치(10)의 기능 구성예를 도시하는 블록도이다. 도 2에 도시한 바와 같이, 본 실시 형태에 관한 정보 처리 장치(10)는, 표시부(110), 촬영부(120), 센서부(130), 인터페이스 제어부(140), 인식부(150), 신호 처리부(160) 및 음성 출력부(170)를 구비한다.
(표시부(110))
본 실시 형태에 관한 표시부(110)는, 인터페이스 제어부(140)에 의한 제어에 기초하여, 머리 전달 함수의 측정에 관한 GUI를 표시한다. 이 때문에, 본 실시 형태에 관한 것이다.
이 때문에, 본 실시 형태에 관한 표시부(110)는, 시각 정보를 제시하는 표시 디바이스 등을 구비한다. 상기 표시 디바이스에는, 예를 들어 액정 디스플레이(LCD: Liquid Crystal Display) 장치, OLED(Organic Light Emitting Diode) 장치, 터치 패널 등을 들 수 있다.
(촬영부(120))
본 실시 형태에 관한 촬영부(120)는, 예를 들어 유저의 화상 등을 촬영하는 기능을 갖는다. 이 때문에, 본 실시 형태에 관한 촬영부(120)는, 화상을 촬영하는 것이 가능한 촬영 장치를 구비한다. 또한, 상기 화상에는, 정지 화상 이외에 동화상이 포함된다.
(센서부(130))
본 실시 형태에 관한 센서부(130)는, 정보 처리 장치(10)나 주위 환경에 관한 다양한 센서 정보를 수집하는 기능을 갖는다. 센서부(130)가 수집한 센서 정보는, 인식부(150)에 의한 각종 인식 처리에 사용된다. 본 실시 형태에 관한 센서부(130)는, 예를 들어 자이로 센서, 가속도 센서, 지자기 센서, 마이크로폰 등을 구비한다.
(인터페이스 제어부(140))
본 실시 형태에 관한 인터페이스 제어부(140)는, 유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 기능을 갖는다. 상술한 바와 같이, 본 실시 형태에 관한 인터페이스 제어부(140)는, 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 특징의 하나로 한다.
(인식부(150))
본 실시 형태에 관한 인식부(150)는, 촬영부(120)가 촬영한 화상이나 센서부(130)가 수집한 센서 정보에 기초하여, 각종 인식 처리를 행한다. 예를 들어, 본 실시 형태에 관한 인식부(150)는, 유저의 헤드부의 방향을 인식한다. 인식부(150)는, 촬영부(120)가 촬영한 화상에 기초하여 유저의 헤드부의 방향을 인식해도 된다.
또한, 상술한 바와 같이, 인식부(150)는, 예를 들어 촬영된 화상 중에 있어서의 유저의 얼굴이, 프레임 오브젝트의 내측에 수렴되어 있는 것에 기초하여, 유저의 헤드부의 방향이 지정 방향에 대략 일치하고 있다고 판정할 수도 있다.
또한, 예를 들어 유저가 장착하는 마이크로폰(20)이 자이로 센서 등을 구비하는 경우, 인식부(150)는, 마이크로폰(20)으로부터 취득한 센서 정보에 기초하여, 유저의 헤드부의 방향을 인식해도 된다.
또한, 본 실시 형태에 관한 인식부(150)는, 센서부가 수집한 소리 정보에 기초하여 주위 환경에 있어서의 노이즈 레벨을 측정하는 기능을 갖는다.
(신호 처리부(160))
본 실시 형태에 관한 신호 처리부(160)는, 인터페이스 제어부(140)에 의한 제어에 기초하여 머리 전달 함수의 측정 처리를 개시한다. 예를 들어, 본 실시 형태에 관한 신호 처리부(160)는, 인터페이스 제어부(140)로부터 입력된 측정 개시 지시에 기초하여, 음성 출력부(170)에 측정용 신호를 출력시켜도 된다.
또한, 본 실시 형태에 관한 신호 처리부(160)는, 유저가 장착하는 마이크로폰(20L 및 20R)이 취득한 머리 전달 함수를 수신하고, 당해 머리 전달 함수에 기초하는 컨벌루션 처리를 행하여 좌귀 및 우귀용의 음성 신호를 생성한다. 또한, 본 실시 형태에 관한 신호 처리부(160)는, 공지의 컨벌루션 기술을 사용하여 음성 신호의 생성을 행할 수 있다. 본 실시 형태에 관한 신호 처리부(160)는, 예를 들어 본 개시의 출원인에 의해 출원된 일본 특허 공개 제2014-060691호 공보에 개시된 바와 같은 기술을 사용해도 된다.
(음성 출력부(170))
본 실시 형태에 관한 음성 출력부(170)는, 인터페이스 제어부(140)나 신호 처리부(160)에 의한 제어에 기초하여 음성을 출력한다. 예를 들어, 본 실시 형태에 관한 음성 출력부(170)는, 인터페이스 제어부(140)에 의한 제어에 기초하여, 가이드 정보나 개시 통지 정보를 출력해도 된다. 또한, 예를 들어 본 실시 형태에 관한 음성 출력부(170)는, 신호 처리부(160)에 의한 제어에 기초하여 측정용 신호를 출력해도 된다.
이상, 본 실시 형태에 관한 정보 처리 장치(10)의 기능 구성예에 대하여 설명하였다. 또한, 도 2를 사용하여 설명한 상기 구성은 어디까지나 일례이며, 본 실시 형태에 관한 정보 처리 장치(10)의 기능 구성은 이러한 예에 한정되지 않는다. 예를 들어, 본 실시 형태에 관한 정보 처리 장치(10)는, 서버로서 실현되며, 네트워크를 통해, 표시부, 촬영부, 음성 출력부 등을 구비하는 모바일 단말기의 제어를 행해도 된다. 또한, 본 실시 형태에 관한 정보 처리 장치(10)는, 유저가 귀에 장착하는 마이크로폰으로서 실현되며, 네트워크를 통해, 상기 모바일 단말기를 제어해도 된다. 본 실시 형태에 관한 정보 처리 장치(10)의 기능 구성은, 사양이나 운용에 따라서 유연하게 변형 가능하다.
<<1. 3. 제어의 구체예>>
다음에, 본 실시 형태에 관한 인터페이스 제어부(140)에 의한 제어에 대하여, 도 3 내지 6을 참조하여, 구체예를 들면서 보다 상세하게 설명한다. 도 3 내지 도 6은, 본 실시 형태에 관한 인터페이스 제어의 구체예를 도시하는 도면이다.
예를 들어, 도 1에서는, 본 실시 형태에 관한 인터페이스 제어부(140)가, 가이드 정보로서 헤드부 형상의 프레임 오브젝트를 표시부(110)에 표시시키는 경우를 설명하였지만, 본 실시 형태에 관한 가이드 정보는 이러한 예에 한정되지 않는다. 본 실시 형태에 관한 가이드 오브젝트는, 예를 들어 헤드부에 장착되는 장착품형 오브젝트여도 된다.
도 3에 도시한 일례의 경우, 본 실시 형태에 관한 인터페이스 제어부(140)는, 헤드부 형상의 프레임 오브젝트 FF에 더하여, 안경 형상의 장착품형 오브젝트 AO를 표시부(110)에 표시시키고 있다.
이와 같은 장착품형 오브젝트 AO를 표시부(110)에 표시시킴으로써, 프레임 오브젝트 FF만을 표시시키는 경우와 비교하여, 유저의 헤드부의 방향에 관한 유도 효과를 보다 높이는 것이 가능하다.
이때, 본 실시 형태에 관한 인터페이스 제어부(140)는, 인식부(150)가 유저 U의 얼굴 FF가 프레임 오브젝트 FF의 내측에 수렴되어 있는 것에 더하여 유저의 좌안 LE 및 우안 RE가 장착품형 오브젝트 AO 내에 있어서의 상정 위치에 수렴되어 있다고 인식한 것에 기초하여, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 개시시켜도 된다. 본 실시 형태에 관한 인터페이스 제어부(140)에 의한 상기 제어에 의하면, 측정에 의해 적합한 자세를 유저 U에 취하게 하여, 정밀도가 높은 머리 전달 함수를 측정할 수 있다.
또한, 본 실시 형태에 관한 장착품형 오브젝트 AO는, 도 3에 도시한 바와 같은 안경 형상에 한정되지 않고, 예를 들어 모자, 헤드폰, 헤드 밴드 등의 각종 형상을 가져도 된다.
또한, 도 1에서는, 인터페이스 제어부(140)가, 개시 통지 정보로서 음성 출력부(170)에 시스템 발화를 출력하는 경우를 예로 설명하였지만, 본 실시 형태에 관한 개시 통지 정보는 이러한 예에 한정되지 않는다. 본 실시 형태에 관한 개시 통지 정보는, 예를 들어 도 3에 도시한 바와 같이, 시엠송 J, 촬영부(120)에 의한 플래시 등의 광, 메시지, 화상, 기호 등이어도 된다. 또한, 유저 U는, 표시부(110)에 표시되는 측정용 버튼을 터치함으로써, 머리 전달 함수의 측정을 개시할 수 있어도 된다.
또한, 본 실시 형태에 관한 지정 방향은, 반드시 유저의 헤드부를 기점으로 하여 음성 출력부(170)가 위치하는 방향에 한정되지 않는다. 본 실시 형태에 관한 지정 방향은 임의의 귀의 위치에서 머리 전달 함수를 측정하기 위해 적절히 설정되어도 된다.
예를 들어, 도 4에 도시한 일례의 경우, 인터페이스 제어부(140)는, 유저 U에게 옆얼굴을 돌리도록 유도하는 프레임 오브젝트 FF를 표시부(110)에 표시시키고 있다. 이와 같이, 본 실시 형태에 관한 인터페이스 제어부(140)는, 지정 방향에 따른 헤드부 형상의 프레임 오브젝트 FF를 표시부(110)에 표시시키는 것도 가능하다. 본 실시 형태에 관한 인터페이스 제어부(140)가 갖는 상기 기능에 의하면, 다양한 지정 방향으로 유저의 헤드부의 방향을 유도하고, 다양한 귀의 위치에 대응하는 머리 전달 함수를 측정하는 것이 가능해진다.
또한, 본 실시 형태에 관한 가이드 정보는, 음성 정보여도 된다. 예를 들어, 본 실시 형태에 관한 인터페이스 제어부(140)는, 유저의 헤드부의 방향을 지정 방향으로 유도하는 음성을 음성 출력부(170)에 출력시켜도 된다.
도 5에는, 인터페이스 제어부(140)가, 인식부(150)가 유저 U의 웃는 얼굴을 인식한 것에 기초하여, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 개시시키는 경우의 일례가 도시되어 있다. 본 실시 형태에 관한 인식부(150)는, 이와 같이 웃는 얼굴 인식에 의해 유저의 헤드부의 방향을 인식하는 것도 가능하다.
이때, 인터페이스 제어부(140)는, 가이드 정보로서, 「화면을 보고 웃어 주세요」 등의 시스템 발화 SO2를 음성 출력부(170)에 출력시켜도 된다. 이와 같이, 본 실시 형태에 관한 인터페이스 제어부(140)는, 가이드 정보를 시각 정보나 음성 정보로서 출력시킴으로써, 유저의 헤드부의 방향을 지정 방향으로 효과적으로 유도할 수 있다.
또한, 상기에서는, 유저가 정보 처리 장치(10)가 표시부(110)의 면에 구비하는 촬영부(120)(소위 IN 카메라)로 자신을 촬영하면서 헤드부의 방향을 조정하는 경우를 설명하였지만, 유저의 촬영이나 헤드부에 적합한 조정은, 협력자에 의해 행해져도 된다.
도 6에 도시한 일례에서는, 협력자 C가 정보 처리 장치(10)의 배면측에 마련되는 촬영부(120)(소위 OUT 카메라)를 사용하여 유저 U를 촬영하면서, 유저 U의 헤드부 방향을 조정하는 경우의 일례가 도시되어 있다.
이와 같이, 본 실시 형태에 관한 정보 처리 장치(10)에 의하면, 협력자에 의한 촬영 등에도 대응할 수 있어, 지정 방향 등의 요인으로부터 유저 U 자신이 표시부(110)를 시인할 수 없는 경우에도, 머리 전달 함수를 정밀도 높게 측정할 수 있다.
또한, 이때, 본 실시 형태에 관한 인터페이스 제어부(140)는, 유저 U나 협력자 C 등의 조작자가 유저 인터페이스를 통해 선택한 촬영부(120)의 위치에 기초하여, 측정용 신호를 출력시키는 음성 출력부(170)를 선택할 수 있어도 된다.
예를 들어, 유저 U가 표시부(110)측에 배치된 촬영부(120)를 기동한 경우, 인터페이스 제어부(140)는, 동일하게 표시부(110)측에 배치된 음성 출력부(170)에 측정용 신호를 출력시키도록 신호 처리부(160)에 지시를 행해도 된다.
한편, 도 6에 도시한 바와 같이, 협력자 C가 정보 처리 장치(10)의 배면에 배치된 촬영부(120)를 기동한 경우, 인터페이스 제어부(140)는, 동일하게 정보 처리 장치(10)의 배면측에 배치된 음성 출력부(170)에 측정용 신호를 출력시키도록 신호 처리부(160)에 지시를 행해도 된다.
본 실시 형태에 관한 인터페이스 제어부(140)에 의한 상기 제어에 의하면, 유저 U가 장착하는 마이크로폰(20)에, 음성 출력부(170)로부터 출력되는 측정용 신호가 직접적으로 전달하는 패스를 확보함으로써, 정밀도가 높은 머리 전달 함수를 측정하는 것이 가능해진다.
이상, 본 실시 형태에 관한 인터페이스 제어의 예에 대하여 구체예를 들어 설명하였다. 또한, 본 실시 형태에 관한 인터페이스 제어부(140)는, 도 1, 도 3 내지 도 6에 도시한 유저 인터페이스 외에도 머리 전달 함수의 측정 모드에 대응한 복수의 유저 인터페이스를 가져도 된다. 이 경우, 본 실시 형태에 관한 인터페이스 제어부(140)는, 선택된 머리 전달 함수의 측정 모드에 기초하여, 유저 인터페이스의 전환을 제어할 수 있다.
상기 측정 모드는, 예를 들어 측정 채널수에 따라서 설정되어도 된다. 즉, 본 실시 형태에 관한 인터페이스 제어부(140)는, 측정 채널수에 따른 유저 인터페이스를 유저에게 제공하는 것이 가능하다.
도 7은 본 실시 형태에 관한 정보 처리 장치(10)를 사용한 다채널의 머리 전달 함수의 개인 최적화에 대하여 설명하기 위한 도면이다. 예를 들어, 5채널의 머리 전달 함수의 개인 최적화를 행하는 경우, 유저 U는, 도면 중 좌측에 도시한 바와 같이, 상기 5채널에 대응하는 5개의 위치 P1 내지 P5로 정보 처리 장치(10)를 움직이게 하여, 각 위치에서 머리 전달 함수의 측정을 행할 것이 요구된다. 또한, 위치 P1 내지 P5는, 유저 U의 헤드부 정면을 기준으로 한 상대 위치여도 된다.
본 실시 형태에 관한 인터페이스 제어부(140)는, 이때, 위치 P1 내지 P5에서 정확하게 머리 전달 함수를 측정할 수 있도록 유저의 헤드부의 방향을 유도하는 유저 인터페이스를 표시부(110)에 표시시킨다. 본 실시 형태에 관한 인터페이스 제어부(140)가 제어하는 상기 유저 인터페이스에 의하면, 도면 중 우측에 도시한 바와 같이, 위치 P1 내지 P1에 대응하는 5개의 음상 SI1 내지 SI5를 포함하는 가상 음장을 재현하여, 보다 풍부한 소리의 입체 표현을 실현하는 것이 가능해진다.
도 8은 본 실시 형태에 관한 다채널 측정 모드에 대응하는 유저 인터페이스의 일례를 도시하는 도면이다. 본 실시 형태에 관한 인터페이스 제어부(140)는, 예를 들어 도시한 바와 같이, 각 채널에 대응한 타깃 T1 내지 T5와, 인식부(150)가 인식하는 유저의 헤드부의 방향을 나타내는 마커 M을 표시부(110)에 실시간으로 표시시킨다.
여기서, 도면 중 좌측에 도시한 바와 같이, 유저의 헤드부의 방향이 지정 방향, 즉 타깃 T1 내지 T5로부터 일탈해 있는 경우, 인터페이스 제어부(140)는, 가이드 정보로서 시스템 발화 SO3을 출력시키는 것 등에 의해, 유저의 헤드부의 방향을 유도해도 된다.
한편, 도면 중 좌측에 도시한 바와 같이, 유저의 헤드부의 방향이 타깃 T1 내지 T5에 대략 일치한 경우, 인터페이스 제어부(140)는, 개시 통지 정보로서 시스템 발화 SO4를 출력시키거나 하여, 유저에게 측정 처리의 개시를 파악시켜, 자세를 유지하도록 유도한다. 본 실시 형태에 관한 인터페이스 제어부(140)는, 모든 타깃 T에 있어서 측정 처리가 완료될 때까지, 상기와 같은 제어를 반복해도 된다.
이상, 본 실시 형태에 관한 다채널의 머리 전달 함수의 개인 최적화에 대하여 설명하였다. 이와 같이, 본 실시 형태에 관한 정보 처리 장치(10)에 의하면, 채널의 수에 상관없이, 유저가 자신의 헤드부 전달 특성을 용이하게 또한 정밀도 높게 측정하는 것이 가능해진다.
<<1. 4. 제어의 흐름>>
다음에, 본 실시 형태에 관한 인터페이스 제어부(140)에 의한 제어의 흐름에 대하여 상세하게 설명한다. 도 9는 본 실시 형태에 관한 인터페이스 제어부(140)에 의한 제어의 흐름을 나타내는 흐름도이다.
도 9를 참조하면, 인터페이스 제어부(140)는, 먼저, 유저 조작에 기초하여, 유저 인터페이스 및 촬영부(120)를 기동한다(S1101).
다음에, 인터페이스 제어부(140)는, 표시부(110)나 음성 출력부(170)에 가이드 정보를 출력시킨다(S1102).
다음에, 인식부(150)는, 유저의 헤드부의 방향과 지정 방향의 대략 일치를 판정하였는지 여부를 판정한다(S1103). 인식부(150)는, 유저의 헤드부의 방향과 지정 방향의 대략 일치를 판정할 때까지, 스텝 S1103에 있어서의 판정 처리를 반복하여 실행한다.
한편, 유저의 헤드부의 방향과 지정 방향의 대략 일치를 판정한 경우(S1103: "예"), 인식부(150)는, 주위 환경에 있어서의 노이즈 레벨이 역치 이하인지 여부를 판정한다(S1104).
여기서, 주위 환경에 있어서의 노이즈 레벨이 역치를 초과한 경우(S1104: "아니오"), 인식부(150)는, 스텝 S1103으로 복귀해도 된다.
한편, 인식부(150)가 주위 환경에 있어서의 노이즈 레벨이 역치 이하라고 판정한 경우(S1104: "예"), 인터페이스 제어부(140)는, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 개시시킨다(S1105).
다음에, 인식부(150)는, 다시, 유저의 헤드부의 방향과 지정 방향의 대략 일치를 판정하였는지 여부를 판정한다(S1106).
여기서, 유저의 헤드부의 방향과 지정 방향이 대략 일치하지 않은 것, 즉 유저의 헤드부의 방향이 지정 방향으로부터 일탈한 것이 검출된 경우(S1106: "아니오"), 인터페이스 제어부(140)는, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 중지시킨다(S1109).
또한, 인식부(150)는, 주위 환경에 있어서의 노이즈 레벨이 역치 이하인지 여부의 판정을 행한다(S1107).
여기서, 주위 환경에 있어서의 노이즈 레벨이 역치를 초과한 것이 검출된 경우(S1107: "아니오"), 인터페이스 제어부(140)는, 신호 처리부(160)에 머리 전달 함수의 측정 처리를 중지시킨다(S1109).
한편, 주위 환경에 있어서의 노이즈 레벨이 역치 이하인 경우(S1107: "예"), 인터페이스 제어부(140)는, 머리 전달 함수의 측정 처리가 종료되었는지 여부를 판정한다(S1108).
여기서, 머리 전달 함수의 측정 처리가 종료되지 않은 경우(S1108: "아니오"), 정보 처리 장치(10)는 스텝 S1106으로 복귀하여, 이후의 판정을 반복하여 실행한다.
<2. 하드웨어 구성예>
다음에, 본 개시의 일 실시 형태에 관한 정보 처리 장치(10)의 하드웨어 구성예에 대하여 설명한다. 도 10은 본 개시의 일 실시 형태에 관한 정보 처리 장치(10)의 하드웨어 구성예를 도시하는 블록도이다. 도 10을 참조하면, 정보 처리 장치(10)는, 예를 들어 프로세서(871)와, ROM(872)과, RAM(873)과, 호스트 버스(874)와, 브리지(875)와, 외부 버스(876)와, 인터페이스(877)와, 입력 장치(878)와, 출력 장치(879)와, 스토리지(880)와, 드라이브(881)와, 접속 포트(882)와, 통신 장치(883)를 갖는다. 또한, 여기에서 나타내는 하드웨어 구성은 일례이며, 구성 요소의 일부가 생략되어도 된다. 또한, 여기서 나타나는 구성 요소 이외의 구성 요소를 더 포함해도 된다.
(프로세서(871))
프로세서(871)는, 예를 들어 연산 처리 장치 또는 제어 장치로서 기능하고, ROM(872), RAM(873), 스토리지(880), 또는 리무버블 기록 매체(901)에 기록된 각종 프로그램에 기초하여 각 구성 요소의 동작 전반 또는 그 일부를 제어한다.
(ROM(872), RAM(873))
ROM(872)은, 프로세서(871)에 읽어들여지는 프로그램이나 연산에 사용하는 데이터 등을 저장하는 수단이다. RAM(873)에는, 예를 들어 프로세서(871)에 읽어들여지는 프로그램이나, 그 프로그램을 실행할 때 적절히 변화되는 각종 파라미터 등이 일시적 또는 영속적으로 저장된다.
(호스트 버스(874), 브리지(875), 외부 버스(876), 인터페이스(877))
프로세서(871), ROM(872), RAM(873)은, 예를 들어 고속의 데이터 전송이 가능한 호스트 버스(874)를 통해 서로 접속된다. 한편, 호스트 버스(874)는, 예를 들어 브리지(875)를 통해 비교적 데이터 전송 속도가 저속인 외부 버스(876)에 접속된다. 또한, 외부 버스(876)는, 인터페이스(877)를 통해 다양한 구성 요소와 접속된다.
(입력 장치(878))
입력 장치(878)에는, 예를 들어 마우스, 키보드, 터치 패널, 버튼, 스위치 및 레버 등이 사용된다. 또한, 입력 장치(878)로서는, 적외선이나 그 밖의 전파를 이용하여 제어 신호를 송신하는 것이 가능한 리모트 컨트롤러(이하, 리모컨)가 사용되는 경우도 있다. 또한, 입력 장치(878)에는, 마이크로폰 등의 음성 입력 장치가 포함된다.
(출력 장치(879))
출력 장치(879)는, 예를 들어 CRT(Cathode Ray Tube), LCD, 또는 유기 EL 등의 디스플레이 장치, 스피커, 헤드폰 등의 오디오 출력 장치, 프린터, 휴대 전화, 또는 팩시밀리 등, 취득한 정보를 이용자에 대하여 시각적 또는 청각적으로 통지하는 것이 가능한 장치이다. 또한, 본 개시에 관한 출력 장치(879)는, 촉각 자극을 출력하는 것이 가능한 다양한 진동 디바이스를 포함한다.
(스토리지(880))
스토리지(880)는, 각종 데이터를 저장하기 위한 장치이다. 스토리지(880)로서는, 예를 들어 하드디스크 드라이브(HDD) 등의 자기 기억 디바이스, 반도체 기억 디바이스, 광 기억 디바이스, 또는 광자기 기억 디바이스 등이 사용된다.
(드라이브(881))
드라이브(881)는, 예를 들어 자기 디스크, 광 디스크, 광자기 디스크, 또는 반도체 메모리 등의 리무버블 기록 매체(901)에 기록된 정보를 판독하거나, 또는 리무버블 기록 매체(901)에 정보를 기입하는 장치이다.
(리무버블 기록 매체(901))
리무버블 기록 매체(901)는, 예를 들어 DVD 미디어, Blu-ray(등록 상표) 미디어, HD DVD 미디어, 각종 반도체 기억 미디어 등이다. 물론, 리무버블 기록 매체(901)는, 예를 들어 비접촉형 IC 칩을 탑재한 IC 카드, 또는 전자 기기 등이어도 된다.
(접속 포트(882))
접속 포트(882)는, 예를 들어 USB(Universal Serial Bus) 포트, IEEE1394 포트, SCSI(Small Computer System Interface), RS-232C 포트, 또는 광 오디오 단자 등과 같은 외부 접속 기기(902)를 접속하기 위한 포트이다.
(외부 접속 기기(902))
외부 접속 기기(902)는, 예를 들어 프린터, 휴대 음악 플레이어, 디지털 카메라, 디지털 비디오 카메라, 또는 IC 레코더 등이다.
(통신 장치(883))
통신 장치(883)는, 네트워크에 접속하기 위한 통신 디바이스이며, 예를 들어 유선 또는 무선 LAN, Bluetooth(등록 상표), 또는 WUSB(Wireless USB)용의 통신 카드, 광 통신용의 라우터, ADSL(Asymmetric Digital Subscriber Line)용의 라우터, 또는 각종 통신용의 모뎀 등이다.
<3. 정리>
이상 설명한 바와 같이, 본 개시의 일 실시 형태에 관한 정보 처리 장치(10)는, 유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부(140)를 구비한다. 또한, 본 개시의 일 실시 형태에 관한 인터페이스 제어부(140)는, 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 특징의 하나로 한다. 이러한 구성에 의하면, 유저가 자신의 헤드부 전달 특성을 정밀도 높게 측정하는 것이 가능해진다.
이상, 첨부 도면을 참조하면서 본 개시의 적합한 실시 형태에 대하여 상세하게 설명하였지만, 본 개시의 기술적 범위는 이러한 예에 한정되지 않는다. 본 개시의 기술분야에 있어서의 통상의 지식을 갖는 자라면, 청구범위에 기재된 기술적 사상의 범주 내에서, 각종 변경예 또는 수정예에 상도할 수 있는 것은 명백하고, 이들에 대해서도, 당연히 본 개시의 기술적 범위에 속하는 것으로 이해해야 한다.
또한, 본 명세서에 기재된 효과는, 어디까지나 설명적 또는 예시적인 것이며 한정적인 것은 아니다. 즉, 본 개시에 관한 기술은, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서의 기재로부터 당업자에게는 명백한 다른 효과를 발휘할 수 있다.
또한, 컴퓨터에 내장되는 CPU, ROM 및 RAM 등의 하드웨어에, 정보 처리 장치(10)가 갖는 구성과 동등한 기능을 발휘시키기 위한 프로그램도 작성 가능하고, 당해 프로그램을 기록한, 컴퓨터에 판독 가능한 비일과성의 기록 매체도 제공될 수 있다.
또한, 본 명세서의 정보 처리 장치(10)의 처리에 관한 각 스텝은, 반드시 흐름도에 기재된 순서에 따라서 시계열로 처리될 필요는 없다. 예를 들어, 정보 처리 장치(10)의 처리에 관한 각 스텝은, 흐름도에 기재된 순서와 다른 순서로 처리되어도, 병렬적으로 처리되어도 된다.
또한, 이하와 같은 구성도 본 개시의 기술적 범위에 속한다.
(1)
유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부를 구비하고,
상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치.
(2)
상기 가이드 정보는, 시각 정보를 포함하고,
상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 상기 지정 방향으로 유도하는 가이드 오브젝트를 표시부에 표시시키는, 상기 (1)에 기재된 정보 처리 장치.
(3)
상기 인터페이스 제어부는, 촬영된 유저의 화상을 실시간으로 상기 표시부에 표시시키고, 상기 유저의 화상에 상기 가이드 오브젝트를 중첩시키는, 상기 (2)에 기재된 정보 처리 장치.
(4)
상기 가이드 오브젝트는, 상기 지정 방향에 따른 헤드부 형상의 프레임 오브젝트를 포함하는, 상기 (2)에 기재된 정보 처리 장치.
(5)
상기 가이드 오브젝트는, 헤드부에 장착되는 장착품형 오브젝트를 포함하는, 상기 (3) 또는 (4)에 기재된 정보 처리 장치.
(6)
상기 가이드 정보는, 음성 정보를 포함하고,
상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 상기 지정 방향으로 유도하는 음성을 음성 출력부에 출력시키는, 상기 (1) 내지 (5) 중 어느 것에 기재된 정보 처리 장치.
(7)
상기 지정 방향은, 상기 유저의 헤드부를 기점으로 하여 상기 머리 전달 함수의 측정에 관한 측정용 신호를 출력하는 음성 출력부가 위치하는 방향을 포함하는, 상기 (1) 내지 (6) 중 어느 것에 기재된 정보 처리 장치.
(8)
상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향이 상기 지정 방향에 대략 일치하였다고 판정된 것에 기초하여, 상기 머리 전달 함수의 측정의 개시를 나타내는 개시 통지 정보의 출력을 제어하는, 상기 (1) 내지 (5) 중 어느 것에 기재된 정보 처리 장치.
(9)
상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정 모드에 기초하여, 상기 유저 인터페이스의 전환을 제어하는, 상기 (1) 내지 (8) 중 어느 것에 기재된 정보 처리 장치.
(10)
상기 측정 모드는, 측정 채널수에 따라서 설정되는, 상기 (9)에 기재된 정보 처리 장치.
(11)
상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정에 관한 측정용 신호를 출력하는 음성 출력부를 구비하는 모바일 단말기에 상기 가이드 정보를 출력시키는, 상기 (1) 내지 (10) 중 어느 것에 기재된 정보 처리 장치.
(12)
상기 모바일 단말기는, 적어도 2개의 촬영부와 적어도 2개의 상기 음성 출력 부를 구비하고,
상기 인터페이스 제어부는, 조작자가 상기 유저 인터페이스를 통해 선택한 상기 촬영부의 위치에 기초하여, 상기 측정용 신호를 출력시키는 상기 음성 출력부를 선택하는, 상기 (11)에 기재된 정보 처리 장치.
(13)
상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향이 상기 지정 방향에 대략 일치하였다고 판정된 것에 기초하여, 상기 머리 전달 함수의 측정 처리를 개시시키는, 상기 (1) 내지 (12) 중 어느 것에 기재된 정보 처리 장치.
(14)
상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정 처리를 개시시킨 후, 상기 측정 처리가 종료될 때까지의 동안에, 상기 유저의 헤드부의 방향이 상기 지정 방향과 대략 일치하지 않게 되었다고 판정된 것에 기초하여, 상기 측정 처리를 중단시키는, 상기 (13)에 기재된 정보 처리 장치.
(15)
상기 인터페이스 제어부는, 측정된 노이즈 레벨이 역치를 초과하는 경우, 상기 측정 처리가 개시되지 않도록 제어하는, 상기 (13) 또는 (14)에 기재된 정보 처리 장치.
(16)
상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정 처리를 개시시킨 후, 상기 노이즈 레벨이 역치를 초과한 것이 검출된 경우, 상기 측정 처리를 중단시키는, 상기 (15)에 기재된 정보 처리 장치.
(17)
상기 인터페이스 제어부는, 측정된 상기 노이즈 레벨에 관한 노이즈 정보의 출력을 제어하는, 상기 (15) 또는 (16)에 기재된 정보 처리 장치.
(18)
상기 유저의 헤드부의 방향을 인식하는 인식부를 더 구비하는, 상기 (1) 내지 (17) 중 어느 것에 기재된 정보 처리 장치.
(19)
프로세서가, 유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 것을 포함하고,
유저 인터페이스를 제어하는 것은, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 더 포함하는 정보 처리 방법.
(20)
컴퓨터를,
유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부를 구비하고,
상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치로서 기능시키기 위한 프로그램.
10: 정보 처리 장치
110: 표시부
120: 촬영부
130: 센서부
140: 인터페이스 제어부
150: 인식부
160: 신호 처리부
170: 음성 출력부
20: 마이크로폰

Claims (20)

  1. 유저의 머리 전달 함수의 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부를 구비하고,
    상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치.
  2. 제1항에 있어서.
    상기 가이드 정보는, 시각 정보를 포함하고,
    상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 상기 지정 방향으로 유도하는 가이드 오브젝트를 표시부에 표시시키는 정보 처리 장치.
  3. 제2항에 있어서,
    상기 인터페이스 제어부는, 촬영된 유저의 화상을 실시간으로 상기 표시부에 표시시키고, 상기 유저의 화상에 상기 가이드 오브젝트를 중첩시키는 정보 처리 장치.
  4. 제2항에 있어서,
    상기 가이드 오브젝트는, 상기 지정 방향에 따른 헤드부 형상의 프레임 오브젝트를 포함하는 정보 처리 장치.
  5. 제3항에 있어서,
    상기 가이드 오브젝트는, 헤드부에 장착되는 장착품형 오브젝트를 포함하는 정보 처리 장치.
  6. 제1항에 있어서,
    상기 가이드 정보는, 음성 정보를 포함하고,
    상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 상기 지정 방향으로 유도하는 음성을 음성 출력부에 출력시키는 정보 처리 장치.
  7. 제1항에 있어서,
    상기 지정 방향은, 상기 유저의 헤드부를 기점으로 하여 상기 머리 전달 함수의 측정에 관한 측정용 신호를 출력하는 음성 출력부가 위치하는 방향을 포함하는 정보 처리 장치.
  8. 제1항에 있어서,
    상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향이 상기 지정 방향에 대략 일치하였다고 판정된 것에 기초하여, 상기 머리 전달 함수의 측정의 개시를 나타내는 개시 통지 정보의 출력을 제어하는 정보 처리 장치.
  9. 제1항에 있어서,
    상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정 모드에 기초하여, 상기 유저 인터페이스의 전환을 제어하는 정보 처리 장치.
  10. 제9항에 있어서,
    상기 측정 모드는, 측정 채널수에 따라서 설정되는 정보 처리 장치.
  11. 제1항에 있어서,
    상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정에 관한 측정용 신호를 출력하는 음성 출력부를 구비하는 모바일 단말기에 상기 가이드 정보를 출력시키는 정보 처리 장치.
  12. 제11항에 있어서,
    상기 모바일 단말기는, 적어도 2개의 촬영부와 적어도 2개의 상기 음성 출력 부를 구비하고,
    상기 인터페이스 제어부는, 조작자가 상기 유저 인터페이스를 통해 선택한 상기 촬영부의 위치에 기초하여, 상기 측정용 신호를 출력시키는 상기 음성 출력부를 선택하는 정보 처리 장치.
  13. 제1항에 있어서,
    상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향이 상기 지정 방향에 대략 일치하였다고 판정된 것에 기초하여, 상기 머리 전달 함수의 측정 처리를 개시시키는 정보 처리 장치.
  14. 제13항에 있어서,
    상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정 처리를 개시시킨 후, 상기 측정 처리가 종료될 때까지의 동안에, 상기 유저의 헤드부의 방향이 상기 지정 방향과 대략 일치하지 않게 되었다고 판정된 것에 기초하여, 상기 측정 처리를 중단시키는 정보 처리 장치.
  15. 제13항에 있어서,
    상기 인터페이스 제어부는, 측정된 노이즈 레벨이 역치를 초과하는 경우, 상기 측정 처리가 개시되지 않도록 제어하는 정보 처리 장치.
  16. 제15항에 있어서,
    상기 인터페이스 제어부는, 상기 머리 전달 함수의 측정 처리를 개시시킨 후, 상기 노이즈 레벨이 역치를 초과한 것이 검출된 경우, 상기 측정 처리를 중단시키는 정보 처리 장치.
  17. 제15항에 있어서,
    상기 인터페이스 제어부는, 측정된 상기 노이즈 레벨에 관한 노이즈 정보의 출력을 제어하는 정보 처리 장치.
  18. 제1항에 있어서,
    상기 유저의 헤드부의 방향을 인식하는 인식부를 더 구비하는 정보 처리 장치.
  19. 프로세서가, 유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 것을 포함하고,
    유저 인터페이스를 제어하는 것은, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 것을 더 포함하는 정보 처리 방법.
  20. 컴퓨터를,
    유저의 머리 전달 함수 측정에 관한 유저 인터페이스를 제어하는 인터페이스 제어부를 구비하고,
    상기 인터페이스 제어부는, 상기 유저의 헤드부의 방향을 지정 방향으로 유도하는 가이드 정보의 출력을 제어하는 정보 처리 장치로서 기능시키기 위한 프로그램.
KR1020217006946A 2018-10-03 2019-09-25 정보 처리 장치, 정보 처리 방법 및 프로그램 KR20210068402A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018188473 2018-10-03
JPJP-P-2018-188473 2018-10-03
PCT/JP2019/037515 WO2020071200A1 (ja) 2018-10-03 2019-09-25 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
KR20210068402A true KR20210068402A (ko) 2021-06-09

Family

ID=70054520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217006946A KR20210068402A (ko) 2018-10-03 2019-09-25 정보 처리 장치, 정보 처리 방법 및 프로그램

Country Status (6)

Country Link
US (2) US11775164B2 (ko)
EP (1) EP3862860A4 (ko)
JP (1) JP7487663B2 (ko)
KR (1) KR20210068402A (ko)
CN (1) CN112789586A (ko)
WO (1) WO2020071200A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116801179A (zh) 2018-10-10 2023-09-22 索尼集团公司 信息处理装置、信息处理方法和计算机可访问介质
WO2022059364A1 (ja) * 2020-09-17 2022-03-24 日本電気株式会社 音響処理システム、音響処理方法、および記録媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251248A (ja) 2006-03-13 2007-09-27 Yamaha Corp 頭部伝達関数測定装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012028906A1 (en) 2010-09-03 2012-03-08 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
CN102254164B (zh) * 2011-08-04 2013-05-01 蔡翔 具有提示功能的人脸识别方法
JP6102179B2 (ja) 2012-08-23 2017-03-29 ソニー株式会社 音声処理装置および方法、並びにプログラム
WO2015062649A1 (en) * 2013-10-30 2015-05-07 Huawei Technologies Co., Ltd. Method and mobile device for processing an audio signal
US20150306330A1 (en) * 2014-04-29 2015-10-29 MaskSelect, Inc. Mask Selection System
WO2016065137A1 (en) 2014-10-22 2016-04-28 Small Signals, Llc Information processing system, apparatus and method for measuring a head-related transfer function
CN107004240A (zh) * 2014-11-25 2017-08-01 株式会社日立高新技术 测量***、头戴装置、程序及服务提供方法
JP6324939B2 (ja) 2015-11-05 2018-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
US11087775B2 (en) * 2015-12-11 2021-08-10 Sony Corporation Device and method of noise suppression based on noise source positions
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
US9800990B1 (en) * 2016-06-10 2017-10-24 C Matter Limited Selecting a location to localize binaural sound
US10154365B2 (en) * 2016-09-27 2018-12-11 Intel Corporation Head-related transfer function measurement and application
US11159906B2 (en) 2016-12-12 2021-10-26 Sony Corporation HRTF measurement method, HRTF measurement device, and program
JP7135472B2 (ja) * 2018-06-11 2022-09-13 カシオ計算機株式会社 表示制御装置、表示制御方法及び表示制御プログラム
CN116801179A (zh) 2018-10-10 2023-09-22 索尼集团公司 信息处理装置、信息处理方法和计算机可访问介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251248A (ja) 2006-03-13 2007-09-27 Yamaha Corp 頭部伝達関数測定装置

Also Published As

Publication number Publication date
US20230409185A1 (en) 2023-12-21
CN112789586A (zh) 2021-05-11
EP3862860A1 (en) 2021-08-11
US20220027033A1 (en) 2022-01-27
WO2020071200A1 (ja) 2020-04-09
JP7487663B2 (ja) 2024-05-21
JPWO2020071200A1 (ja) 2021-09-24
US11775164B2 (en) 2023-10-03
EP3862860A4 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
US20230409185A1 (en) Information processing device, information processing method, and program
KR102005071B1 (ko) 웨어러블 디바이스의 상태에 기초하는 컴패니언 통신 디바이스 거동의 변경
US9854371B2 (en) Information processing system, apparatus and method for measuring a head-related transfer function
CN106851525B (zh) 用于音频信号的处理的方法和装置
CN106559686A (zh) 移动终端及其控制方法
US20090231457A1 (en) Method and apparatus for generating media signal by using state information
CN107018316B (zh) 图像处理装置、图像处理方法以及存储介质
WO2017032035A1 (zh) 调节方法、调节装置和终端
KR20160024002A (ko) 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치
US20160219212A1 (en) Information processing apparatus and control method thereof
JP2013109768A (ja) ポータブル端末で拡張現実サービスを提供するための方法、及びポータブル端末装置
CN105430250A (zh) 移动终端及其控制方法
CN111741400B (zh) 耳机位置的调整方法、装置、设备及存储介质
US8422690B2 (en) Audio reproduction apparatus and control method for the same
JP2018186366A (ja) 会議システム
US10856097B2 (en) Generating personalized end user head-related transfer function (HRTV) using panoramic images of ear
JP2024097913A (ja) 情報処理方法、情報処理装置、およびプログラム
US11049527B2 (en) Selecting a recording mode based on available storage space
JP2019046482A (ja) 音声映像追跡装置
US10200606B2 (en) Image processing apparatus and control method of the same
KR20170022272A (ko) 녹음 시스템 및 녹음 방법
JP7315010B2 (ja) 撮影プログラム、情報処理装置、および方法
JP6249770B2 (ja) 文字入力装置
JP2017204718A (ja) 撮像装置およびそのズーム制御方法
WO2020075427A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A201 Request for examination