CN111369972B - 引导声音输出控制***及引导声音输出控制方法 - Google Patents
引导声音输出控制***及引导声音输出控制方法 Download PDFInfo
- Publication number
- CN111369972B CN111369972B CN201911238320.XA CN201911238320A CN111369972B CN 111369972 B CN111369972 B CN 111369972B CN 201911238320 A CN201911238320 A CN 201911238320A CN 111369972 B CN111369972 B CN 111369972B
- Authority
- CN
- China
- Prior art keywords
- voice
- guidance
- output
- sound
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000012545 processing Methods 0.000 claims abstract description 152
- 230000008569 process Effects 0.000 claims abstract description 110
- 230000004044 response Effects 0.000 claims abstract description 54
- 238000001514 detection method Methods 0.000 claims description 21
- 230000007704 transition Effects 0.000 claims description 5
- 230000015556 catabolic process Effects 0.000 abstract description 5
- 238000006731 degradation reaction Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 54
- 239000000872 buffer Substances 0.000 description 13
- 238000004891 communication Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000004904 shortening Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000002411 adverse Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3655—Timing of guidance instructions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41422—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4331—Caching operations, e.g. of an advertisement for later insertion during playback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4524—Management of client data or end-user data involving the geographical location of the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/26—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
- B60K35/265—Voice
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Navigation (AREA)
Abstract
提供能够在抑制由在对话关联处理的执行中完全不输出引导声音引起的用户的不利的基础上,抑制声音识别的精度的降低及用户的听取容易度的降低的“引导声音输出控制***及引导声音输出控制方法”。具备声音输出控制部,其具有根据触发而输出引导声音的功能及执行对话关联处理的功能,该对话关联处理具有受理声音的受理阶段、进行声音识别的识别阶段及输出基于识别结果的声音的输出阶段,当在该处理的执行中发生了触发的情况下,声音输出控制部相应于对话关联处理的处理阶段,控制引导声音的输出,由此相应于处理阶段是否是即使输出引导声音也不会对声音识别的精度、用户的听取难易度造成影响的阶段,来动态地控制引导声音的输出。
Description
技术领域
本发明涉及引导声音输出控制***及引导声音输出控制方法,尤其涉及适于在对搭乘于车辆的用户输出与车辆关联的声音的引导声音输出控制***及引导声音输出控制方法中使用的技术。
背景技术
以往,具有对搭乘于车辆的用户输出与车辆关联的引导声音(交叉点引导涉及的声音、与拥堵有关的引导涉及的声音、与超速有关的声音等)的功能的***广泛普及,提出了与声音的输出有关的各种各样的技术。例如,在专利文献1中记载了如下技术:在能够输出基于多个应用的声音的***中,相应于应用的优先度来切换作为输出声音的对象的应用。根据专利文献1的技术,即使有新追加的应用,也能够实现与该应用的性质相应的动态的声音切换。
另外,在专利文献2中,记载了如下技术:在通知(输出)基于声音信息数据的声音的***中,根据需要同时通知的声音信息数据的多寡,在声音信息数据数量较多的情况下,将声音信息数据的消息长度缩短后进行通知,另一方面,在声音信息数据数较少的情况下,不将声音信息数据的消息长度缩短而进行通知。根据专利文献2的技术,在需要对搭乘于车辆的用户短时间进行较多的信息提供的情况下,能够短时间进行较多的信息提供。
另外,在专利文献3中,记载了如下技术:在将路径引导涉及的声音进行声音合成后输出的***中,在检测到声音通话终端有来信的情况下,如果正处于路径引导所用的声音合成的执行中,则不执行声音合成,而输出固定的消息,由此通知有来信这一情况,另一方面,如果不是正处于路径引导所用的声音合成的执行中,则通过声音合成来生成并输出包含与来信有关的详细的信息的消息,由此通知有来信这一情况。根据专利文献3的技术,在声音通话终端有来信时,能够以与是否正处于路径引导所用的声音合成的执行中相应的恰当的形态、通过声音来通知有来信这一情况。
现有技术文献
专利文献
专利文献1:日本特开2014-038188号公报
专利文献2:日本特开2011-118692号公报
专利文献3:日本特开2015-200696号公报
但是,近年来,被称为智能音箱的具有声音对话功能的装置得到普及。相应于此,有希望将智能音箱的声音对话功能与输出与车辆有关的引导声音的功能(以下,称为“引导声音输出功能”)分别地安装于***的动向。作为将声音对话功能安装于***时的规格,考虑在进行与基于声音对话功能的对话关联的处理(以下,称为“对话关联处理”)的期间,将引导声音输出功能关闭,在该期间不输出基于引导声音输出功能的声音。通过这样,搭乘于车辆的用户说出的声音与通过引导声音输出功能由***输出的声音不会混杂,可望提高声音识别的精度。另外,通过声音对话功能由***输出的声音与通过引导声音输出功能由***输出的声音不会混杂,可望提高用户的听取容易度。
但是,如果采用这样的规格,则正在进行对话关联处理期间,与车辆有关的声音完全不被输出,起因于该情况可能对用户产生不利。若为了防止这样的用户的不利的发生,而采用在进行基于声音对话功能的对话关联处理的期间也使引导声音输出功能开启的规格,则声音识别的精度降低,而且用户的听取容易度降低。
发明内容
本发明是为了解决这样的问题而做出的,目的在于,对于具有声音对话功能及输出与车辆关联的声音的功能的***,抑制了由在对话关联处理的执行中完全不输出与车辆关联的引导声音所带来的用户的不利,并且能够抑制声音识别的精度的降低及用户的听取容易度的降低。
为了解决上述的课题,本发明具有相应于触发的发生而输出与车辆关联的引导声音的功能、及执行对话关联处理而实现声音对话的功能,该对话关联处理具有:将声音作为识别对象而受理的受理阶段、识别声音的识别阶段及使基于识别结果的声音输出至声音输出部的输出阶段,在对话关联处理的执行中发生了触发的情况下,相应于触发发生时的对话关联处理的处理阶段,控制引导声音的输出。
发明的效果
根据如上述那样构成的本发明,相应于对话关联处理的处理阶段,动态地控制与车辆关联的引导声音的输出,因此在对话关联处理的执行中发生了输出与车辆关联的引导声音的触发的情况下,在对话关联处理的处理阶段是即使输出了引导声音也不对声音识别的精度、用户的听取难易度造成影响的阶段的情况下,能够做出输出引导声音这一应对。因此,能够出现即使对话关联处理在执行中也输出引导声音的情形,与执行对话关联处理期间完全不输出引导声音的构成相比较,能够抑制用户的不利。在此基础上,根据如上述那样构成的本发明,在对话关联处理的处理阶段是如上述那样的造成影响的阶段的情况下,能够做出不输出引导声音这一应对。因此,与在对话声音关联处理的执行中发生了输出引导声音的触发的情况下必定输出引导声音的构成相比较,能够抑制声音识别的精度的降低及用户的听取容易度的降低。
附图说明
图1是表示本发明的一个实施方式的引导声音输出控制***的功能构成例的框图。
图2是在交叉点关联引导涉及的引导声音的说明中使用的图。
图3是按处理阶段与紧急度的每个组合而明示了处理内容的表。
图4是缩短文章的说明中使用的图。
图5是表示本发明的一个实施方式的车载装置的动作例的流程图。
图6是表示本发明的一个实施方式的变形例的车载装置的动作例的流程图。
图7是表示引导声音输出控制***的构成的另一例的图。
具体实施方式
以下,基于附图对本发明的一个实施方式进行说明。图1是表示本实施方式的引导声音输出控制***1的功能构成例的框图。如图1所示那样,引导声音输出控制***1具备车载装置2。车载装置2能够访问构成为包括因特网、电话网等通信网的网络N。网络N上连接有服务提供服务器3。
服务提供服务器3是提供与声音识别有关的服务的云服务器。服务提供服务器3提供用于实现在客户终端(在本实施方式中,为车载装置2)与用户之间的声音对话的服务。本实施方式的服务提供服务器3对在客户终端侧收集到的用户的声音进行声音识别,基于识别结果将与用户的声音的内容对应的内容的声音输出至客户终端。关于与声音识别有关的服务提供服务器3的处理,在后面详细叙述。
车载装置2是搭载于车辆的、所谓的车载导航,具有检测车辆的当前位置的功能、搜索到达由搭乘于车辆的用户设定的目的地为止的路径(以下,称为“引导路径”)并进行引导的功能等。另外,车载装置2也可以不是固定地安装于车辆的装置。例如,车载装置2可以是由用户带入到车内的移动终端。如图1所示那样,在车载装置2中连接有麦克风4、扬声器5及触摸屏6。以下,将搭载有车载装置2的车辆称为“本车辆”。
麦克风4是设置于能够将搭乘于本车辆的用户说出的声音收音的位置的收音装置。扬声器5是在本车辆的车内输出声音的放音装置。触摸屏6具备:显示器,设置于本车辆的仪表板、中央控制台等、搭乘本车辆的用户能够视觉辨认的位置;及触摸面板,重叠配置于显示器,检测针对显示器的显示区域进行的触摸操作。
如图1所示那样,车载装置2具备通信部10、声音处理部11、本车位置检测部12、路径关联控制部13、触发发生检测部14及声音输出控制部15,作为功能构成。上述各功能块10~15能够通过硬件、DSP(Digital Signal Processor)、软件中的某一个构成。例如通过软件构成的情况下,上述各功能块10~15实际上构成为具备计算机的CPU、RAM、ROM等,并通过在RAM、ROM、硬盘或半导体存储器等存储介质中存储的程序动作来实现。
如图1所示那样,车载装置2具备声音缓冲存储器17、地图数据存储部18及路径关联信息存储部19,作为存储手段。声音缓冲存储器17是缓冲存储后述的输入声音数据的暂时存储区域。地图数据存储部18存储地图数据。地图数据除了地图的描绘中使用的描绘用数据以外,还包括引导路径的搜索中使用的道路数据。道路数据包括与按道路网中的每个结节点而定义的节点有关的信息、及与按节点与节点之间的每个道路区间而定义的路段(link)有关的信息。路径关联信息存储部19存储后述的路径关联信息。
通信部10按照规定的通信标准而访问网络N,与连接于网络N的外部装置(包含服务提供服务器3)通信。通信部10访问网络N时的通信方法可以是任意的方法,另外,与外部装置的通信中使用的通信标准可以是任何通信标准。例如,通信部10与被带入到本车辆中的便携终端通过bluetooth(注册商标)、Wi-Fi(注册商标)等无线通信而通信,利用便携终端的绑定功能而访问网络N。另外,通信部10通过直接访问移动体通信网而访问网络N。
声音处理部11对通过麦克风4收音到的声音进行包括抽样、量化、编码处理在内的模拟/数字变换处理而生成声音数据,并将其缓冲存储于声音缓冲存储器17。其结果,成为基于从当前时刻向前追溯在规定期间中由麦克风4收音到的声音的声音数据被存储于声音缓冲存储器17的状态。以下,将存储于声音缓冲存储器17的声音数据的集合称为“输入声音数据”。基于声音处理部11的输入声音数据的缓冲存储,无论后述的对话关联处理是否处于执行中,都持续进行。
另外,声音处理部11具备D/A变换器、音量电路、放大器电路等,将从声音输出控制部15输入的声音数据,通过D/A变换器进行数字/模拟变换后,通过音量电路调整音量等级,并通过放大器电路放大后,作为声音从扬声器5输出。
本车位置检测部12基于GPS单元、加速度传感器、陀螺仪传感器及车速传感器等的传感器(都未图示)的检测结果,检测本车辆的当前位置(以下,称为“本车位置”)。
在由用户指定目的地并指示引导路径的引导时,路径关联控制部13基于存储于地图数据存储部18的地图数据而搜索引导路径,并对搜索到的引导路径进行引导。引导路径的引导通过在地图上将表示本车辆的当前位置及引导路径的图像进行明示等的现有的方法进行。
路径关联控制部13,在搜索到引导路径的情况下,将包含对引导路径及引导交叉点进行表示的信息的路径关联信息存储于路径关联信息存储部19。表示引导路径的信息是能够在地图上确定引导路径的信息,例如构成为包含构成引导路径的路段的路段ID及节点的节点ID的组合。另外,所谓的引导交叉点,是引导路径包含的交叉点中的进行左右转的交叉点。表示引导交叉点的信息是能够在地图上确定引导交叉点的信息,例如构成为包含与引导交叉点对应的节点的节点ID。
在发生了进行与引导交叉点关联的引导的触发的情况下,触发发生检测部14检测到该情况。若详细叙述,在本实施方式中为如下构成:若在引导路径的引导中靠近引导交叉点,则根据引导交叉点与本车辆之间的相隔距离,在该相隔距离为700米时、为300米时、为100米时及为30米时的各个的时刻,输出不同的内容的引导声音。关于引导声音的内容,在后面叙述。以下,将成为输出引导声音的触发的引导交叉点与本车辆之间的相隔距离(700米、300米、100米及30米)进行总称而称为“引导开始距离”。在引导路径的引导中,触发发生检测部14基于本车位置检测部12的检测结果、存储于地图数据存储部18的地图数据及存储于路径关联信息存储部19的路径关联信息,检测引导交叉点与本车辆之间的相隔距离,并且监视该相隔距离是否达到引导开始距离,在达到了引导开始距离的情况下,检测到该情况。
声音输出控制部15具有引导声音输出功能及声音对话功能,并且,在基于声音对话功能的对话关联处理的执行中发生了进行交叉点关联引导的触发的情况下,执行对基于引导声音输出功能的引导声音的输出及基于声音对话功能的对话声音的输出进行控制的声音输出控制处理。以下,在对引导声音输出功能及声音对话功能依次进行了说明后,对声音输出控制处理进行说明。
<引导声音输出功能>
首先,对引导声音输出功能进行说明。以下的引导声音输出功能的说明用于说明通过声音输出控制部15执行的基本的处理,设为在声音对话功能的执行中,引导声音输出功能不被执行。
图2是在交叉点关联引导涉及的引导声音的说明中使用的图。如图2所示那样,在本实施方式中,作为引导声音的种类,有引导开始距离为700米的远距离引导声音、为300米的中距离引导声音、为100米的近距离引导声音及为30米的跟前引导声音(参照“种类”字段及“引导开始距离”字段)。并且,各种类的引导声音的内容(与引导声音对应的文章)通过距离短语、倒计数标记短语(the countdown mark phrase)、倒计数剩余短语(the countdownremaining phrese)、交叉点名称短语、移动短语(maneuver phrese)、方面名称短语及左右转专用道短语这7个短语构成(参照“声音内容”字段)。其中,根据引导声音的种类,也有未被分配词语的短语。
在图2的例子中,远距离引导声音的内容为,“およそ700メートル先、○○交差点<で>、右方向、○○方面<です>。右折専用レーン<があります>。”。另外,在图2的例子中,中距离引导声音的内容为,“およそ300メートル先、右側の○○<を通过して>、4個目の信号<を>、○○交差点<で>、右方向<です>。右折専用レーン<があります>。”。另外,用“<”“>”括起来的词语,表示为了使与引导声音对应的文章成为自然的文章而按照规定的规则附加的词语。
声音输出控制部15,在通过触发发生检测部14检测到引导交叉点与本车辆之间的相隔距离达到了引导开始距离的情况下(=检测到发生了触发的情况下),识别与引导开始距离对应的引导声音的种类。接下来,声音输出控制部15生成和与识别出的种类相应的引导声音对应的文章。这里生成的文章的一例如图2所示那样。
另外,关于距离短语,声音输出控制部15基于本车位置检测部12的检测结果、存储于地图数据存储部18的地图数据及存储于路径关联信息存储部19的路径关联信息,重新检测该时间点的本车位置与引导交叉点之间的相隔距离,并采用反映了检测到的相隔距离的词语。即,如果该时间点的相隔距离为600米,则关于距离短语,采用“およそ600メートル先”。同样地,关于倒计数剩余短语,声音输出控制部15基于各种信息,在该时间点重新检测直到到达引导交叉点为止本车辆应当通过的交叉点的个数,并采用反映了检测到的交叉点的个数的词语。
由此,即使在由触发发生检测部14检测到发生了触发的时刻与由声音输出控制部15生成与引导声音对应的文章的时刻发生了延时(time leg)的情况下,距离短语及倒计数剩余短语的词语也为与生成该文章的时刻对应的恰当的内容的词语。另外,声音输出控制部15,对于倒计数标记短语、交叉点名称短语、移动短语、方面名称短语及左右转专用道短语,基于本车位置检测部12的检测结果、存储于地图数据存储部18的地图数据及存储于路径关联信息存储部19的路径关联信息,分配恰当的词语。在地图数据中包含有对这些短语分配词语所必要的信息。
在生成了与引导声音对应的文章后,声音输出控制部15生成用于将所生成的文章作为引导声音输出的声音数据。以下,将记录有引导声音的声音数据称为“引导声音数据”。引导声音数据的生成通过声音合成处理等现有的技术来恰当地进行。接下来,声音输出控制部15将所生成的引导声音数据经由未图示的缓冲存储器而输出至声音处理部11,并在声音处理部11中将被记录于引导声音数据的引导声音从扬声器5输出。
如以上那样,在引导声音输出功能中,声音输出控制部15,在通过触发发生检测部14检测到引导交叉点与本车辆之间的相隔距离达到了引导开始距离的情况下(检测到发生了输出引导声音的触发的情况下),生成存储有与引导开始距离对应的种类的引导声音的引导声音数据,并将引导声音数据输出至声音处理部11而使引导声音输出。通过该引导声音输出功能,搭乘于本车辆的用户能够听取与到达引导交叉点为止的距离相应的恰当的内容的引导声音。
<声音对话功能>
接下来,对声音对话功能进行说明。以下的声音对话功能的说明用于说明通过声音输出控制部15执行的基本的处理,设为在声音对话功能的执行中不执行上述的引导声音输出功能。
在要使声音对话功能开始的情况下,用户说出被称为唤醒字的预先确定的特定的字。若由用户说出特定字,则通过声音处理部11的功能,记录有与唤醒字对应的声音的输入声音数据被存储于声音缓冲存储器17。声音输出控制部15,持续分析存储于声音缓冲存储器17的输入声音数据,在与唤醒字对应的声音被记录于输入声音数据的情况下,检测到该情况。以下,将检测到与唤醒字对应的声音被记录于输入声音数据这一情况,简单地表现为“检测到唤醒字”。唤醒字的检测通过现有的记述来恰当地进行。作为一例,声音输出控制部15随时对记录于输入声音数据的声音的声音模式(声音波形)和预先登记的“与唤醒字对应的声音的声音模式”进行比较来计算类似度,在计算出的类似度比阈值大的情况下,检测到与唤醒字对应的声音被记录于输入声音数据这一情况。
若检测到唤醒字,则声音输出控制部15开始对话关联处理的执行。对话关联处理是具有受理阶段、识别阶段及输出阶段作为处理阶段的处理。声音输出控制部15相应于唤醒字的检测,首先,转移到受理阶段,执行对应的处理。受理阶段是将经由麦克风4被输入至声音处理部11的声音作为识别对象而受理的阶段。用户说出唤醒字后,说出某些提问、某些请求等的希望通过由服务提供服务器3提供的服务来回答的词语(以下,称为“申请”)。用户接着唤醒字的说出而连续地说出申请,因此基本上申请是在受理阶段被说出的。
声音输出控制部15分析存储于声音缓冲存储器17的输入声音数据,关于紧接着与唤醒字对应的声音之后的声音(假定为申请的声音),在未输入声音的期间持续了一定时间以上的情况下,使受理阶段结束,并转移到识别阶段。在该情况下,假定为用户说完申请。
若转移到识别阶段,则声音输出控制部15生成处理请求数据。处理请求数据包含识别对象声音数据和控制信息数据。所谓的识别对象声音数据,是存储于声音缓冲存储器17的输入声音数据中的、记录有与唤醒字对应的声音和与申请对应的声音的声音数据。声音输出控制部15从输入声音数据中提取包含了记录有与唤醒字对应的声音及与申请对应的声音的部分的声音数据,由此生成识别对象声音数据。此时,声音输出控制部15以满足利用服务提供服务器3提供的服务所要求的功能要件的形态,生成识别对象声音数据。例如,关于识别对象声音数据,在被要求在唤醒字的部分之前包含规定时间量的声音数据的情况下,声音输出控制部15以满足该要求的形态生成识别对象声音数据。另外,关于识别对象声音数据,在必要的情况下,也可以对其实施格式变换处理、数据整形处理等。
控制信息数据是按规定的格式记述了与识别对象声音数据有关的必要的参照信息的数据(例如,JSON形式的数据)。例如,在控制信息数据中,根据规格,而包含在处理请求数据的识别中使用的信息、表示识别对象声音数据的格式的信息、识别对象声音数据中的唤醒字的开始点及结束点的信息等。
在生成了处理请求数据后,声音输出控制部15将所生成的处理请求数据发送至服务提供服务器3。将处理请求数据发送至服务提供服务器3所必要的信息(服务提供服务器3的地址、认证所必要的信息等)被预先登记。
服务提供服务器3,在接收到处理请求数据时,基于控制信息数据的内容,对于识别对象声音数据,进行包含声音识别的分析,生成针对用户的申请的响应。响应的生成基于现有的技术来恰当地执行。例如,针对“明日の○○の天気を教えて(告诉我明天○○的天气)”(○○表示场所)这一申请,响应为“明日の○○の的天気は晴れです(明天○○的天气为晴)”。在该情况下,服务提供服务器3通过基于人工智能的声音识别处理、自然语言处理、信息摘要处理等,识别申请的内容,收集生成申请所必要的信息(本例的情况下,为表示明天的○○的天气的信息),并基于收集到的信息,生成响应。
生成了响应之后,服务提供服务器3生成记录有与响应对应的声音的声音数据(以下,称为“响应声音数据”)。接下来,服务提供服务器3将响应声音数据应答给车载装置2。
车载装置2的声音输出控制部15接收由服务提供服务器3发送的响应声音数据。声音输出控制部15相应于响应声音数据的接收,将处理阶段向输出阶段转移。在输出阶段,声音输出控制部15将接收到的响应声音数据经由未图示的缓冲存储器而输出至声音处理部11,使与记录于响应声音数据的响应对应的声音从扬声器5输出。声音处理部11在基于响应声音数据的声音的输出完毕时,将该意旨通知至声音输出控制部15。声音输出控制部15在接受到该通知时,使输出阶段结束,由此,结束对话关联处理。
如以上那样,是根据唤醒字的识别而开始并通过基于响应声音数据的声音的输出而结束的一系列的处理、且具有受理阶段、识别阶段及输出阶段作为处理阶段的处理,是对话关联处理。在该对话关联处理中,识别阶段由于通过服务提供服务器3进行包含声音识别的各种处理,因此有时需要数秒程度或者其以上的时间。
如以上那样,在声音对话功能中,声音输出控制部15在用户将申请与唤醒字一起说出的情况下,利用服务提供服务器3的功能,将与申请对应的响应通过声音来输出。通过该声音对话功能,搭乘于本车辆的用户能够与车载装置2之间进行声音对话。
<声音输出控制处理>
接下来,对声音输出控制处理进行说明。在声音输出控制处理中,声音输出控制部15,在执行基于声音对话功能的对话关联处理期间,监视是否通过触发发生检测部14检测到发生了输出交叉点关联引导涉及的引导声音的触发。在执行对话关联处理期间发生了触发的情况下,声音输出控制部15识别与引导开始距离对应的引导声音的种类,进而识别该种类的引导声音的紧急度。
如上所述,在本实施方式中,作为交叉点关联引导涉及的引导声音的种类,有远距离引导声音、中距离引导声音、近距离引导声音及跟前引导声音。另外,在本实施方式中,关于紧急度,定义了紧急度最高的“高等级”、紧急度最低的“低等级”、紧急度在高等级与低等级之间的“中等级”这3个等级。并且,作为远距离引导声音的紧急度,被了分配“低等级”,作为中距离引导声音及近距离引导声音的紧急度,被分配了“中等级”,作为跟前引导声音的紧急度,被分配了“高等级”(参照图2的“紧急度”字段)。越是引导开始距离短的引导声音为越高的等级的紧急度的理由如下。即,这是因为,引导开始距离短,是指输出引导声音的时刻的引导交叉点与本车辆之间的相隔距离短,需要尽可能迅速地让用户识别到与引导交叉点关联的引导。
接下来,声音输出控制部15识别当前时刻(=触发发生的时刻)的处理阶段(受理阶段、识别阶段或输出阶段)。并且,声音输出控制部15根据触发发生的时刻的处理阶段及成为输出的对象的引导声音的紧急度,控制引导声音的输出。以下,对于声音输出控制部15的处理,按处理阶段与紧急度的每个组合利用图3进行说明。图3是按处理阶段与紧急度的每个组合将由声音输出控制部15执行的处理的处理内容进行明示的表。
<处理阶段为受理阶段且紧急度为低等级的情形(参照图3的连续编号A1的记录)>
在触发发生的时刻的处理阶段为“受理阶段”、且引导声音的紧急度为“低等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15使基于引导声音输出功能的引导声音的输出保留,而如通常那样执行基于声音对话功能的对话关联处理。在引导声音的输出的保留时,声音输出控制部15不进行与引导声音对应的文章的生成。并且,声音输出控制部15在对话关联处理完毕后,执行引导声音的输出涉及的处理。在引导声音的输出涉及的处理中,包括与引导声音对应的文章的生成、引导声音数据的生成、引导声音数据的向声音处理部11的输出,距离短语及倒计数剩余短语的内容被设为与输出引导声音的时刻对应的恰当的内容。另外,距离短语及倒计数剩余短语的内容为与输出引导声音的时刻对应的恰当的内容,这在以下的各情形中也是同样的,以下不特别说明。
在本情形下进行以上的处理,因此起到以下的效果。即,在紧急度为低等级的情况下,是本车位置与引导交叉点相隔足够远的状态(在本实施方式中,为相隔700米的状态),将与引导交叉点关联的引导立即提供给用户的必要性小。在此基础上,在本情形下执行上述处理,由此首先在受理阶段不输出引导声音,因此用户的申请涉及的声音与引导声音并不混杂,能够抑制基于服务提供服务器3的声音识别的精度的降低,并且,在输出阶段不输出引导声音,因此基于车载装置2的响应涉及的声音与引导声音并不混杂,能够抑制用户对于响应涉及的声音的听取容易度的降低。在此基础上,通过紧急度较低的引导声音,不妨碍用户与车载装置2之间的声音对话而实现顺畅的声音对话,因此能够抑制用户的满意度的降低。
<处理阶段为受理阶段、且紧急度为中等级的情形(参照图3的连续编号A2的记录)>
在触发发生的时刻的处理阶段为“受理阶段”、且引导声音的紧急度为“中等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15使受理阶段继续,并在受理阶段期间使引导声音的输出保留。即,在本情形的情况下,受理阶段继续被维持,用户能够说出申请。另一方面,声音输出控制部15,在从受理阶段转移到识别阶段后,在识别阶段期间输出引导声音。以下,关于在识别阶段期间输出引导声音时的声音输出控制部15的处理,详细叙述。
声音输出控制部15,相应于向识别阶段的转移,生成与引导声音对应的文章。此时,声音输出控制部15生成按照规定的规则将通常时的文章缩短后的文章(以下,称为“缩短文章”)。
图4是缩短文章的说明中使用的图。在图4中,连续编号B1的记录表示将与图2中例示的中距离引导声音对应的文章(通常时的文章)缩短后的缩短文章,连续编号B2的记录表示将与图2中例示的近距离引导声音对应的文章缩短后的缩短文章。如图4的连续编号B1及连续编号B2的记录所示那样,在本实施方式中,声音输出控制部15生成将通常的文章中的、倒计数剩余短语及移动短语以外的短语删除后的文章,作为与紧急度为中等级的引导声音对应的缩短文章。
其结果,例如,与图2中例示的中距离引导声音对应的缩短文章为,“4個目の信号<を>,右方向<です>。”这一缩短后的文章。关于作为删除的对象的短语,用户在识别出引导交叉点的基础上,考虑对于用户而言是否是有益的信息来选择。
生成了缩短文章后,声音输出控制部15生成记录有与缩短文章对应的声音的引导声音数据。接下来,声音输出控制部15将所生成的引导声音数据输出至声音处理部11。声音输出控制部15,若在将引导声音数据输出至声音处理部11后、从服务提供服务器3接收到响应声音数据,则相应于响应声音数据的接收而向输出阶段转移。另外,也可能存在识别阶段的期间非常短的情况。在这样的情况下,也可以如在后述的<处理阶段为识别阶段、且紧急度为中等级的情形(参照图3的连续编号A5的记录)>中说明那样,引导声音的输出完毕之后,向输出阶段转移。
在本情形下进行以上的处理的结果,起到以下的效果。即,在紧急度为中等级的情况下,虽然与低等级的情况相比较、要求在尽可能早的阶段进行与引导交叉点关联的引导,但是在一直到本车位置到达引导交叉点为止,尚有距离上及时间上的裕度,容许在触发发生之后直到引导开始为止的少许的延时。在此基础上,在本情形下执行上述处理,由此,首先,由于在受理阶段及输出阶段这双方不输出引导声音,因此能够实现声音识别的精度的降低的抑制及用户的听取容易度的降低的抑制。另外,在识别阶段,不进行与申请对应的声音的受理、与响应对应的声音的输出,因此即使在识别阶段不输出引导声音,也不会对声音识别的精度、用户的听取容易度造成不良影响。将该情况换种说法,在本情形下,声音输出控制部15执行适当地利用了如下情况的处理:即使在对话关联处理中在受理阶段与输出阶段之间有识别阶段并在该识别阶段输出声音,也不会对声音识别的精度、用户的听取容易度造成不良影响。该情况关于在识别阶段进行引导声音的输出的其他的情形也是同样的。
并且,在本情形下,在受理阶段之后到来的识别阶段进行引导声音的输出,因此与在对话关联处理结束后进行引导声音的输出的情况相比较,能够迅速地进行与引导交叉点关联的引导。由此,能够抑制在接近引导交叉点达到300米、100米等程度的阶段伴随着不迅速地进行与引导交叉点关联的引导而产生的不利。
<处理阶段为受理阶段、且紧急度为高等级的情形(参照图3的连续编号A3的记录)>
在触发发生的时刻的处理阶段为“受理阶段”、且引导声音的紧急度为“高等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15将受理阶段中断而输出声音引导,并在声音引导的输出完毕后,从最初重新开始受理阶段。声音输出控制部15在受理阶段的中断中,不将被输入的声音作为声音识别的对象而受理。更详细而言,声音输出控制部15并不将在将受理阶段中断期间的输入声音数据作为认证对象声音数据中包含的对象。另外,在将受理阶段中断期间,声音输出控制部15也可以使通知已中断这一情况的信息显示于触摸屏6。
在本情形下执行上述处理,由此起到以下的效果。即,在紧急度为高等级的情况下,不同于低等级、中等级,需要立即进行与引导交叉点关联的引导。这是由于,通过使用户识别到本车辆马上到达引导交叉点,使得用户能够顺畅且安全地进行引导交叉点处的左右转。在此基础上,在本情形进行上述处理,因此能够抑制起因于紧急度为高等级的引导声音未被立即输出这一情况而对用户发生不利。另外,在输出引导声音期间,受理阶段被中断,因此引导声音与用户说出的声音混杂后的声音不作为声音识别的对象,而能够抑制声音识别的精度降低。
<处理阶段为识别阶段、且紧急度为低等级的情形(参照图3的连续编号A4的记录)>
在触发发生的时刻的处理阶段为“识别阶段”、且引导声音的紧急度为“低等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15将基于引导声音输出功能的引导声音的输出保留,如通常那样执行基于声音对话功能的对话关联处理。并且,声音输出控制部15在对话关联处理完毕后,执行引导声音的输出。该处理与<处理阶段为受理阶段、且紧急度为低等级的情形(参照图3的连续编号A1的记录)>是同样的。在本情形下进行上述处理的效果,与<处理阶段为受理阶段、且紧急度为低等级的情形(参照图3的连续编号A1的记录)>中说明的效果是同样的。
<处理阶段为识别阶段、且紧急度为中等级的情形(参照图3的连续编号A5的记录)>
在触发发生的时刻的处理阶段为“识别阶段”、且引导声音的紧急度为“中等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15相应于触发的发生而开始引导声音的输出,在识别阶段期间使缩短的引导声音的输出开始。引导声音的缩短方法与<处理阶段为受理阶段、且紧急度为中等级的情形(参照图3的连续编号A2的记录)>中说明的方法是同样的。
另外,声音输出控制部15,当在引导声音数据的输出后、从服务提供服务器3接收到响应声音数据前从声音处理部11接收到声音的输出已完毕这一意旨的通知的情况下,相应于响应声音数据的接收而转移至输出阶段。在该情况下,为在响应声音数据的接收前、引导声音的输出已完毕的状态。另一方面,声音输出控制部15,当在引导声音数据的输出后、从声音处理部11收到声音的输出已完毕的意旨的通知前、从服务提供服务器3接收到响应声音数据的情况下,进行待机直到收到该通知为止,并在收到该通知后向输出阶段转移。在该情况下,为在响应声音数据的接收前、引导声音的输出未完毕的状态。通过进行以上的处理,与缩短后的文章对应的引导声音不会在中途被被打中断,一直输出到最后。
在本情形下进行以上的处理,由此起到以下的效果。即,根据与在<处理阶段为受理阶段、且紧急度为中等级的情形(参照图3的连续编号A2的记录)>中说明的理由同样的理由,能够抑制声音识别的精度的降低、用户的听取容易度的降低。并且,适当利用即使在识别阶段输出引导声音也不会对声音识别的精度、用户的听取容易度造成不良影响这一情况,能够相应于触发的发生,而立刻输出引导声音,因此与从触发的发生起到引导声音的输出的开始为止有延时的情况相比较,用户的不利得以抑制。并且,声音输出控制部15在识别阶段期间输出缩短了的引导声音。因此,能够提高在识别阶段期间、即从服务提供服务器3接收到响应声音数据前、引导声音的输出完毕的可能性,能够抑制向输出阶段的转移的延迟。并且,即使在接收到响应声音数据前、引导声音的输出未完毕的情况下,由于引导声音已被缩短,因此能够使向输出阶段转移的时刻的偏移缩短。
<处理阶段为识别阶段、且紧急度为高等级的情形(参照图3的连续编号A6的记录)>
在触发发生的时刻的处理阶段为“识别阶段”、且引导声音的紧急度为“高等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15相应于触发的发生而使引导声音的输出开始,并在识别阶段期间使引导声音的输出开始。另外,声音输出控制部15,当在引导声音的输出完毕前、接收到响应声音数据的情况下,在引导声音的输出已完毕之后,向输出阶段转移。该处理,除了不缩短引导声音的点以外,是与<处理阶段为识别阶段、且紧急度为中等级的情形(参照图3的连续编号A5)>同样的处理。另外,在本情形下,不缩短引导声音的理由是,如以图2的跟前引导声音涉及的记录所示那样,与跟前引导声音对应的文章是仅具有倒计数剩余短语及移动短语作为短语的足够短的文章。另外,在通常的文章中包含了可以缩短为的短语的情况下,在本情形下当然也可以将引导声音缩短。
<处理阶段为输出阶段、且紧急度为低等级的情形(参照图3的连续编号A7的记录)>
在触发发生的时刻的处理阶段为“输出阶段”、且引导声音的紧急度为“低等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15保留基于引导声音输出功能的引导声音的输出,如通常那样执行基于声音对话功能的对话关联处理。并且,声音输出控制部15在对话关联处理已完毕之后执行引导声音的输出。该处理与<处理阶段为受理阶段、且紧急度为低等级的情形(参照图3的连续编号A1的记录)>的处理是同样的。进行这样的处理的效果,如在<处理阶段为受理阶段、且紧急度为低等级的情形(参照图3的连续编号A1的记录)>中说明那样。
<处理阶段为输出阶段、且紧急度为中等级的情形(参照图3的连续编号A8的记录)>
在触发发生的时刻的处理阶段为“输出阶段”、且引导声音的紧急度为“中等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15在输出阶段期间将引导声音的输出保留,在输出阶段结束后(=基于响应声音数据的声音的输出已完毕之后)输出引导声音。
在本情形下进行以上的处理,由此起到以下的效果。即,在输出阶段时不输出引导声音,因此能够抑制用户的听取容易度降低。另外,已经转移到输出阶段,因此认为到输出阶段结束为止所需要的时间短(最长为输出被记录于响应声音数据的声音所需要的时间),因此在触发的发生后不会不必要地发生延时就能够输出引导声音。另外,如上所述,引导声音的紧急度为中等级的情况下,触发发生之后到引导开始为止的少许的延时是容许的。
<处理阶段为输出阶段、且紧急度为高等级的情形(参照图3的连续编号A9的记录)>
在触发发生的时刻的处理阶段为“输出阶段”、且引导声音的紧急度为“高等级”的情况下,声音输出控制部15执行以下的处理。即,声音输出控制部15将输出阶段中断(=将与响应对应的声音的输出中断)并输出引导声音,在引导声音的输出已完毕之后,重新开始输出阶段。在输出阶段重新开始后,既可以将与响应对应的声音从最初输出,也可以从中断的地方输出。
在本情形下进行以上的处理,由此起到以下的效果。即,能够抑制起因于紧急度为高等级的引导声音未被立即输出而对用户发生不利的情况。在此基础上,在声音输出已完毕之后,输出阶段重新开始,用户能够从最初或中断的地方听取与响应对应的声音,因此用户不需要重新说出唤醒字及申请,用户的便利性高。另外,在输出引导声音期间,输出阶段被中断,因此引导声音和与响应对应的声音不会混杂后输出,能够抑制用户的听取容易度的降低。
接下来,对于车载装置2的动作例,尤其是声音输出控制处理的详细,使用图5的流程图进行说明。如图5所示那样,车载装置2的声音输出控制部15,通过检测唤醒字,开始对话关联处理,并向受理阶段转移(步骤SA1)。之后,声音输出控制部15监视是否由触发发生检测部14检测到发生了触发(步骤SA2),并且监视对话关联处理是否已完毕(步骤SA3)。在触发没发生而对话关联处理已完毕的情况下(步骤SA3:是),声音输出控制部15结束处理。
另一方面,在声音输出控制处理完毕前、触发发生的情况下(步骤SA2:是),声音输出控制部15识别与引导开始距离对应的引导声音的种类,并识别该引导声音的紧急度(步骤SA4)。接下来,声音输出控制部15识别当前时刻(=触发发生的时刻)的处理阶段(步骤SA5)。接下来,声音输出控制部15,以与如图3所示那样、在步骤SA4识别出的紧急度与在步骤SA5中识别出的处理阶段的组合对应的形态,控制引导声音及对话声音的输出(步骤SA6)。
<变形例>
接下来,对上述实施方式的变形例进行说明。在上述实施方式中,声音输出控制部15,相应于触发的发生时的处理阶段与输出的对象的引导声音的紧急度的组合,来控制引导声音的输出。另一方面,在本变形例中,声音输出控制部15,不考虑引导声音的紧急度,相应于处理阶段,来控制引导声音的输出。尤其是,在本实施方式中,声音输出控制部15,在对话关联处理的执行中发生了触发的情况下,在触发发生时的对话关联处理的处理阶段是在输出阶段之前的情况下,在识别阶段期间输出引导声音。以下,关于声音输出控制部15的处理,详细叙述。
在对话关联处理的执行中由触发发生检测部14检测到发生了触发的情况下,声音输出控制部15识别当前时刻的对话关联处理的处理阶段。此时,声音输出控制部15不进行紧急度的识别。然后,声音输出控制部15,相应于当前时刻的处理阶段,执行以下的处理。
在当前时刻的处理阶段为受理阶段的情况下,声音输出控制部15使受理阶段继续,受理阶段期间将引导声音的输出保留。并且,声音输出控制部15在从受理阶段转移到识别阶段后,在识别阶段期间,输出引导声音。此时,也可以使引导声音缩短。该处理对应于上述实施方式中的<处理阶段为受理阶段、且紧急度为中等级的情形(参照图3的连续编号A2的记录)>的处理。由于执行这样的处理,因此适当利用即使在识别阶段输出引导声音、也不会对声音识别的精度、用户的听取容易度造成不良影响这一情况,能够抑制声音识别的精度及用户的听取容易度的降低,并且能够使触发发生的时刻与引导声音开始的时刻尽可能地不产生延时地输出引导声音。通过缩短该延时,能够抑制用户的不利。
在当前时刻的处理阶段为识别阶段的情况下,声音输出控制部15在触发发生的时刻使引导声音的输出开始,在识别阶段期间输出引导声音。关于引导声音的输出,也可以输出缩短后的引导声音。该处理对应于上述实施方式中的<处理阶段为识别阶段、且紧急度为中等级的情形(参照图3的连续编号A5)>的处理。由于执行这样的处理,因此适当利用即使在识别阶段输出引导声音也不会对声音识别的精度、用户的听取容易度造成不良影响这一情况,能够抑制声音识别的精度及用户的听取容易度的降低,并且能够相应于触发的发生,立即输出引导声音。通过相应于触发的发生而立即输出引导声音,能够抑制用户的不利。
在当前时刻的处理阶段为输出阶段的情况下,在输出阶段期间将引导声音的输出保留,在输出阶段结束后(=基于响应声音数据的声音的输出已完毕之后)输出引导声音。该处理对应于上述实施方式中的<处理阶段为输出阶段、且紧急度为中等级的情形(参照图3的连续编号A8的记录)>的处理。由于执行这样的处理,因此在输出阶段时不输出引导声音因此能够抑制用户的听取容易度降低。
另外,在当前时刻的处理阶段为输出阶段的情况下,声音输出控制部15也可以采用代替上述处理而执行以下的处理的构成。即,声音输出控制部15也可以将输出阶段中断(=将与响应对应的声音的输出中断)而输出引导声音,并在引导声音的输出已完毕之后,重新开始输出阶段。该处理对应于上述实施方式中的<处理阶段为输出阶段、且紧急度为高等级的情形(参照图3的连续编号A9的记录)>的处理。另外,在输出阶段重新开始后,既可以将与响应对应的声音从最初输出,也可以从中断的地方输出。另外,也可以输出缩短了的引导声音。通过执行这样的处理,能够抑制起因于未立即输出引导声音而对用户发生不利这一情况。另外,在输出引导声音期间,输出阶段被中断,因此引导声音和与响应对应的声音不会混杂后输出,能够抑制用户的听取容易度的降低。
接下来,使用图6的流程图,对本变形例的车载装置2的动作例进行说明。如图6所示那样,车载装置2的声音输出控制部15,通过检测唤醒字,开始声音输出控制处理,并向受理阶段转移(步骤SB1)。之后,声音输出控制部15监视是否由触发发生检测部14检测到发生了触发(步骤SB2),并且监视声音输出控制处理是否已完毕(步骤SB3)。在触发未发生而声音输出控制处理已完毕的情况下(步骤SB3:是),声音输出控制部15结束处理。
另一方面,在声音输出控制处理完毕前、触发发生的情况下(步骤SB2:是),声音输出控制部15识别当前时刻(=触发发生的时刻)的处理阶段(步骤SB4)。接下来,声音输出控制部15以与步骤SB4中识别出的处理阶段对应的形态,控制引导声音的输出(步骤SB5)。
如以上那样,在本变形例中,声音输出控制部15,在对话关联处理的执行中发生了输出引导声音的触发的情况下,相应于触发发生时的对话关联处理的处理阶段,控制引导声音的输出。根据该构成,相应于处理阶段是否是即使输出引导声音也不会对声音识别的精度、用户的听取难易度造成影响的阶段,能够动态地控制引导声音的输出,与上述实施方式同样地,能够在抑制由在对话关联处理的执行中完全不输出引导声音引起的用户的不利的基础上,抑制声音识别的精度的降低及用户的听取容易度的降低。
以上,对本发明的实施方式(包含变形例)进行了说明,但上述实施方式只不过示出了在实施本发明时的具体化的一例,并不是通过其来限定性地解释本发明的技术的范围。即,本发明在不脱离其主旨或其主要的特征的条件下,能够以各种各样的形式实施。
例如,在上述实施方式中,紧急度能够取3个等级,但也可以将其设为2个等级。在该情况下,例如能够进行如下应对:“在为2个等级中的紧急度较低一侧的等级的情况下,执行在上述实施方式中紧急度为中等级时在各处理阶段执行的处理,在为2个等级中的紧急度较高一侧的等级的情况下,执行在上述实施方式中紧急度为高等级时在各处理阶段执行的处理”、“在为2个等级中的紧急度较低一侧的等级的情况下,执行在上述实施方式中紧急度为低等级时在各处理阶段执行的处理,在为2个等级中的紧急度较高一侧的等级的情况下,执行在上述实施方式中紧急度为高等级时在各处理阶段执行的处理”、“在为2个等级中的紧急度较低一侧的等级的情况下,执行在上述实施方式中紧急度为低等级时在各处理阶段执行的处理,在为2个等级中的紧急度较高一侧的等级的情况下,执行在上述实施方式中紧急度为中等级时在各处理阶段执行的处理”。
另外,在上述实施方式中,关于和处理阶段与紧急度之间的组合相应的一个处理,也可以在不脱离本发明的主旨的范围内变更其内容。作为一例,在上述实施方式中,在处理阶段为受理阶段且紧急度为中等级的情形的情况下,也可以代替被设为在该情形时执行的处理(参照图3的连续编号A2的记录的“处理内容”字段),而执行被设为在处理阶段为受理阶段且紧急度为高等级的情形时执行的处理(参照图3的连续编号A3的记录的“处理内容”字段)。
另外,在上述实施方式中,作为引导声音,仅例示了相应于本车位置与引导交叉点之间的相隔距离而输出的与引导交叉点关联的引导的引导声音,但这是为了使说明明确而非常简单化的例示。引导声音只要是相应于某些触发而输出的与车辆关联的引导声音即可。作为一例,本发明应用的引导声音可以包括收费处的引导的引导声音、ETC的车道引导的引导声音、VICS(注册商标)信息的引导声音等。
另外,在上述实施方式中,采用了由车载装置2执行由服务提供服务器3执行的处理的一部分或全部的构成。另外,也可以采由服务提供服务器3(可以是服务提供服务器3以外的外部装置)执行由车载装置2执行的处理的一部分或全部的构成。
另外,在上述实施方式中,是引导声音输出控制***1的车载装置2执行输出引导声音处理和对话声音处理的构成。关于该点,也可以是在本车辆中搭载智能音箱(也包括暂时带入的状态)、并由智能音箱与导航装置等的车载装置协作地执行各种处理的构成。另外,智能音箱只要是具有作为智能音箱的功能的装置即可。
图7是表示利用智能音箱的情况下的声音输出控制***1A的构成例的图。图7所示的声音输出控制***1A构成为,包括车载装置2A和智能音箱30。智能音箱30能够经由网络N而与服务提供服务器3通信。智能音箱30利用便携终端的绑定功能而访问网络N,或通过直接访问移动体通信网而访问网络N。智能音箱30与车载装置2A,通过有线或无线、根据规定的通信协议而连接为能够通信。在为图7中例示的构成的情况下,智能音箱30与车载装置2A协作地实现上述实施方式的声音输出控制部15的功能。
另外,在图7的例子中,可以是智能音箱30与车载装置2A都访问网络N的构成,另外也可以是车载装置2A能够访问网络N,并针对该车载装置2A以能够通信的方式连接智能音箱30的构成。
符号说明
1、1A引导声音输出控制***
14触发发生检测部
15声音输出控制部
Claims (13)
1.一种引导声音输出控制***,其特征在于,具备:
触发发生检测部,检测发生了输出与车辆关联的引导声音的触发这一情况;以及
声音输出控制部,具有在由上述触发发生检测部检测到发生了上述触发的情况下输出与检测到的上述触发对应的上述引导声音的功能、及执行对话关联处理而输出与搭乘于车辆的用户说出的声音的内容对应的内容的声音的功能,该对话关联处理具有将被输入的声音作为声音识别的对象而受理的受理阶段、对声音进行声音识别的识别阶段及输出基于识别结果的声音的输出阶段,
上述声音输出控制部,当在上述对话关联处理的上述受理阶段、上述识别阶段及上述输出阶段中的一个阶段的执行中发生了上述触发的情况下,相应于上述触发发生时的上述对话关联处理的处理阶段,控制上述引导声音的输出的时刻及内容,
上述声音输出控制部,当在上述对话关联处理的执行中发生了上述触发的情况下,在上述触发发生时的上述对话关联处理的处理阶段为上述输出阶段之前的情况下,在上述识别阶段期间输出上述引导声音,
上述声音输出控制部,在上述识别阶段期间输出以规定的形态缩短后的上述引导声音。
2.一种引导声音输出控制***,其特征在于,具备:
触发发生检测部,检测发生了输出与车辆关联的引导声音的触发这一情况;以及
声音输出控制部,具有在由上述触发发生检测部检测到发生了上述触发的情况下输出与检测到的上述触发对应的上述引导声音的功能、及执行对话关联处理而输出与搭乘于车辆的用户说出的声音的内容对应的内容的声音的功能,该对话关联处理具有将被输入的声音作为声音识别的对象而受理的受理阶段、对声音进行声音识别的识别阶段及输出基于识别结果的声音的输出阶段,
上述声音输出控制部,当在上述对话关联处理的上述受理阶段、上述识别阶段及上述输出阶段中的一个阶段的执行中发生了上述触发的情况下,相应于上述触发发生时的上述对话关联处理的处理阶段及与上述触发对应的上述引导声音的紧急度,控制上述引导声音的输出,
上述声音输出控制部,当在上述受理阶段时发生了上述触发的情况下,
在与上述触发对应的上述引导声音的紧急度为低等级的情况下,在执行中的上述对话关联处理已完毕之后,输出上述引导声音,
在与上述触发对应的上述引导声音的紧急度为比上述低等级高的中等级的情况下,在上述受理阶段期间,将上述引导声音的输出保留,在上述识别阶段期间,输出上述引导声音,
在与上述触发对应的上述引导声音的紧急度为比上述中等级高的高等级的情况下,将上述受理阶段中断而输出上述引导声音,在上述引导声音的输出已完毕之后,重新开始上述受理阶段。
3.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当在上述识别阶段时发生了上述触发的情况下,
在与上述触发对应的上述引导声音的紧急度比规定等级低的情况下,在执行中的上述对话关联处理已完毕之后,输出上述引导声音,
在与上述触发对应的上述引导声音的紧急度为上述规定等级以上的情况下,在上述识别阶段期间输出上述引导声音。
4.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当与在上述对话关联处理的执行中发生的上述触发对应的上述引导声音的紧急度低于规定等级的情况下,无论上述触发发生时的上述对话关联处理的处理阶段为哪个阶段,都在执行中的上述对话关联处理已完毕之后,输出上述引导声音。
5.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当与在上述对话关联处理的执行中发生的上述触发对应的上述引导声音的紧急度为规定等级以上的情况下,在上述触发发生时的上述对话关联处理的处理阶段为上述受理阶段的情况下,在上述受理阶段期间将上述引导声音的输出保留,在上述识别阶段期间输出上述引导声音。
6.根据权利要求5所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,在上述识别阶段期间输出以规定的形态缩短后的上述引导声音。
7.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当与在上述对话关联处理的执行中发生的上述触发对应的上述引导声音的紧急度为规定等级以上的情况下,在上述触发发生时的上述对话关联处理的处理阶段为上述识别阶段的情况下,在上述识别阶段期间输出上述引导声音。
8.根据权利要求7所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,在上述识别阶段期间输出以规定的形态缩短后的上述引导声音。
9.根据权利要求8所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当在上述识别阶段期间上述引导声音的输出未完毕的情况下,将向上述输出阶段的转移保留,并在使该声音的输出完毕后,向上述输出阶段转移。
10.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当与在上述对话关联处理的执行中发生的上述触发对应的上述引导声音的紧急度为规定等级以上的情况下,在上述触发发生时的上述对话关联处理的处理阶段为上述输出阶段的情况下,在上述输出阶段期间,将上述引导声音的输出保留,在上述输出阶段结束后,输出上述引导声音。
11.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当与在上述对话关联处理的执行中发生的上述触发对应的上述引导声音的紧急度为规定等级以上的情况下,在上述触发发生时的上述对话关联处理的处理阶段为上述受理阶段的情况下,将上述受理阶段中断而输出上述引导声音,该声音的输出已完毕之后,重新开始上述受理阶段。
12.根据权利要求2所述的引导声音输出控制***,其特征在于,
上述声音输出控制部,当与在上述对话关联处理的执行中发生的上述触发对应的上述引导声音的紧急度为规定等级以上的情况下,在上述触发发生时的上述对话关联处理的处理阶段为上述输出阶段的情况下,将上述输出阶段中断而输出上述引导声音,在上述引导声音的输出已完毕之后,重新开始上述输出阶段。
13.一种引导声音输出控制***,其特征在于,具备:
触发发生检测部,检测发生了输出与车辆关联的引导声音的触发这一情况;以及
声音输出控制部,具有在由上述触发发生检测部检测到发生了上述触发的情况下输出与检测到的上述触发对应的上述引导声音的功能、及执行对话关联处理而输出与搭乘于车辆的用户说出的声音的内容对应的内容的声音的功能,该对话关联处理具有将被输入的声音作为声音识别的对象而受理的受理阶段、对声音进行声音识别的识别阶段及输出基于识别结果的声音的输出阶段,
上述声音输出控制部,当在上述对话关联处理的上述受理阶段、上述识别阶段及上述输出阶段中的一个阶段的执行中发生了上述触发的情况下,相应于上述触发发生时的上述对话关联处理的处理阶段及与上述触发对应的上述引导声音的紧急度,控制上述引导声音的输出,
上述声音输出控制部,当在上述输出阶段时发生了上述触发的情况下,
在与上述触发对应的上述引导声音的紧急度为低等级的情况下,在执行中的上述对话关联处理已完毕之后,输出上述引导声音,
在与上述触发对应的上述引导声音的紧急度为比上述低等级高的中等级的情况下,在上述输出阶段期间,将上述引导声音的输出保留,在上述输出阶段结束后,输出上述引导声音,
在与上述触发对应的上述引导声音的紧急度为比上述中等级高的高等级的情况下,将上述输出阶段中断而输出上述引导声音,在上述引导声音的输出已完毕之后,重新开始上述输出阶段。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-228948 | 2018-12-06 | ||
JP2018228948A JP7002823B2 (ja) | 2018-12-06 | 2018-12-06 | 案内音声出力制御システムおよび案内音声出力制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111369972A CN111369972A (zh) | 2020-07-03 |
CN111369972B true CN111369972B (zh) | 2024-06-07 |
Family
ID=68806665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911238320.XA Active CN111369972B (zh) | 2018-12-06 | 2019-12-06 | 引导声音输出控制***及引导声音输出控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11705119B2 (zh) |
EP (1) | EP3664458B1 (zh) |
JP (1) | JP7002823B2 (zh) |
CN (1) | CN111369972B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220284883A1 (en) * | 2021-03-05 | 2022-09-08 | Comcast Cable Communications, Llc | Keyword Detection |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5809447A (en) * | 1995-04-04 | 1998-09-15 | Aisin Aw Co., Ltd. | Voice navigation by sequential phrase readout |
JP2004029456A (ja) * | 2002-06-26 | 2004-01-29 | Nec Corp | 端末通信システム、連携サーバ、音声対話サーバ、音声対話処理方法および音声対話処理プログラム |
CN1969315A (zh) * | 2004-12-21 | 2007-05-23 | 松下电器产业株式会社 | 基于声音的选择装置以及选择方法 |
CN101589428A (zh) * | 2006-12-28 | 2009-11-25 | 三菱电机株式会社 | 车载用声音识别装置 |
KR20120017492A (ko) * | 2010-08-19 | 2012-02-29 | 현대모비스 주식회사 | 음성을 이용한 사용자 인터페이스를 제공하는 음성인식 방법 및 장치 |
CN105144285A (zh) * | 2013-06-19 | 2015-12-09 | 松下电器(美国)知识产权公司 | 声音对话方法及设备 |
JP2017083713A (ja) * | 2015-10-29 | 2017-05-18 | シャープ株式会社 | 対話装置、対話機器、対話装置の制御方法、制御プログラム、および記録媒体 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3902483B2 (ja) | 2002-02-13 | 2007-04-04 | 三菱電機株式会社 | 音声処理装置及び音声処理方法 |
WO2004006207A1 (ja) * | 2002-07-03 | 2004-01-15 | Iwane Laboratories,Ltd. | 交通機関自動案内装置 |
JP4483798B2 (ja) * | 2005-04-06 | 2010-06-16 | 株式会社デンソー | 経路案内装置およびプログラム |
JP4984708B2 (ja) * | 2006-07-21 | 2012-07-25 | 富士通株式会社 | 音声対話機能を有する情報処理装置 |
JP2008233678A (ja) * | 2007-03-22 | 2008-10-02 | Honda Motor Co Ltd | 音声対話装置、音声対話方法、及び音声対話用プログラム |
JP2011118692A (ja) | 2009-12-03 | 2011-06-16 | Denso Corp | 音声通知装置 |
JP2011242594A (ja) * | 2010-05-18 | 2011-12-01 | Denso Corp | 情報提示システム |
DE112012004711T5 (de) * | 2011-11-10 | 2014-08-21 | Mitsubishi Electric Corporation | Navigationsvorrichtung und Verfahren |
JP5920104B2 (ja) | 2012-08-15 | 2016-05-18 | 株式会社デンソー | 車両用音声制御装置 |
JP2015200696A (ja) | 2014-04-04 | 2015-11-12 | トヨタ自動車株式会社 | 音声出力制御装置 |
JP6011584B2 (ja) * | 2014-07-08 | 2016-10-19 | トヨタ自動車株式会社 | 音声認識装置及び音声認識システム |
KR101643560B1 (ko) * | 2014-12-17 | 2016-08-10 | 현대자동차주식회사 | 음성 인식 장치, 그를 가지는 차량 및 그 방법 |
JP6595293B2 (ja) | 2015-10-09 | 2019-10-23 | クラリオン株式会社 | 車載装置、車載システムおよび通知情報出力方法 |
JP2017171162A (ja) * | 2016-03-24 | 2017-09-28 | 矢崎総業株式会社 | 情報出力装置 |
US11003417B2 (en) * | 2016-12-15 | 2021-05-11 | Samsung Electronics Co., Ltd. | Speech recognition method and apparatus with activation word based on operating environment of the apparatus |
-
2018
- 2018-12-06 JP JP2018228948A patent/JP7002823B2/ja active Active
-
2019
- 2019-12-03 US US16/701,494 patent/US11705119B2/en active Active
- 2019-12-05 EP EP19213819.6A patent/EP3664458B1/en active Active
- 2019-12-06 CN CN201911238320.XA patent/CN111369972B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5809447A (en) * | 1995-04-04 | 1998-09-15 | Aisin Aw Co., Ltd. | Voice navigation by sequential phrase readout |
JP2004029456A (ja) * | 2002-06-26 | 2004-01-29 | Nec Corp | 端末通信システム、連携サーバ、音声対話サーバ、音声対話処理方法および音声対話処理プログラム |
CN1969315A (zh) * | 2004-12-21 | 2007-05-23 | 松下电器产业株式会社 | 基于声音的选择装置以及选择方法 |
CN101589428A (zh) * | 2006-12-28 | 2009-11-25 | 三菱电机株式会社 | 车载用声音识别装置 |
KR20120017492A (ko) * | 2010-08-19 | 2012-02-29 | 현대모비스 주식회사 | 음성을 이용한 사용자 인터페이스를 제공하는 음성인식 방법 및 장치 |
CN105144285A (zh) * | 2013-06-19 | 2015-12-09 | 松下电器(美国)知识产权公司 | 声音对话方法及设备 |
JP2017083713A (ja) * | 2015-10-29 | 2017-05-18 | シャープ株式会社 | 対話装置、対話機器、対話装置の制御方法、制御プログラム、および記録媒体 |
Non-Patent Citations (1)
Title |
---|
声音定位引导***设计;郝立果 等;机床与液压;20111130;第39卷(第22期);第104-108页 * |
Also Published As
Publication number | Publication date |
---|---|
JP2020091416A (ja) | 2020-06-11 |
US20200184971A1 (en) | 2020-06-11 |
CN111369972A (zh) | 2020-07-03 |
US11705119B2 (en) | 2023-07-18 |
EP3664458A1 (en) | 2020-06-10 |
EP3664458B1 (en) | 2022-07-13 |
JP7002823B2 (ja) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10170111B2 (en) | Adaptive infotainment system based on vehicle surrounding and driver mood and/or behavior | |
US8275307B2 (en) | Vehicle audio integrator | |
US8903651B2 (en) | Information terminal, server device, searching system, and searching method thereof | |
US9990914B2 (en) | System and method for dynamically interacting with a mobile communication device by series of similar sequential barge in signals to interrupt audio playback | |
JP2009300537A (ja) | 音声作動システム、音声作動方法および車載装置 | |
JP2009530666A (ja) | 外部ユーザの自動音声認識、口述、録音および再生を提供する方法 | |
JP5413321B2 (ja) | 通信システム、車載端末、および携帯端末 | |
WO2016129276A1 (ja) | 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム | |
US20200057601A1 (en) | Audio stream mixing system and method | |
JP2017138536A (ja) | 音声処理装置 | |
JP6984420B2 (ja) | 対話装置 | |
CN111369972B (zh) | 引导声音输出控制***及引导声音输出控制方法 | |
US11398221B2 (en) | Information processing apparatus, information processing method, and program | |
US10740063B2 (en) | Method and apparatus for enhanced content replacement and strategic playback | |
JP2012168243A (ja) | 音声出力装置 | |
CN102571882A (zh) | 基于网络的语音提醒的方法和*** | |
JP2012173702A (ja) | 音声案内システム | |
JP2017068061A (ja) | 通信端末及び音声認識システム | |
JP6050171B2 (ja) | 認識処理制御装置、認識処理制御方法および認識処理制御プログラム | |
JPH08285628A (ja) | 車載用ナビゲーションシステム | |
KR100820319B1 (ko) | 네비게이션 서버를 이용하여 길 안내하는 방법 및 장치 | |
US10885919B2 (en) | Routing system and method | |
CN113271491B (zh) | 电子装置以及播放控制方法 | |
JP2014202800A (ja) | 音声認識制御装置 | |
JP2015004703A (ja) | 電子装置、音声信号の転送方法、音声信号の転送プログラム及び音声処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |