WO2019163011A1 - 表示制御装置および表示制御方法 - Google Patents

表示制御装置および表示制御方法 Download PDF

Info

Publication number
WO2019163011A1
WO2019163011A1 PCT/JP2018/006134 JP2018006134W WO2019163011A1 WO 2019163011 A1 WO2019163011 A1 WO 2019163011A1 JP 2018006134 W JP2018006134 W JP 2018006134W WO 2019163011 A1 WO2019163011 A1 WO 2019163011A1
Authority
WO
WIPO (PCT)
Prior art keywords
display control
display
information
display area
displayed
Prior art date
Application number
PCT/JP2018/006134
Other languages
English (en)
French (fr)
Inventor
知弘 岩▲崎▼
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/006134 priority Critical patent/WO2019163011A1/ja
Priority to US16/967,448 priority patent/US11243741B2/en
Priority to JP2020501891A priority patent/JP6884263B2/ja
Publication of WO2019163011A1 publication Critical patent/WO2019163011A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to a display control device and a display control method.
  • Patent Document 1 discloses a vehicle device control device.
  • the vehicle device control apparatus acquires a plurality of control contents associated with a search word included in the user's utterance as a search result.
  • the vehicle device control apparatus estimates an operation target device that the user intends to operate based on the screen displayed on the display device.
  • the vehicular equipment control device organizes and displays the control contents related to the operation target equipment in order from among a plurality of control contents included in the search result.
  • the vehicle device control apparatus described in Patent Document 1 lists and displays a plurality of control contents related to a plurality of applications as a search result on one screen. Therefore, it is difficult for the user to instantaneously determine which application the control content corresponds to. In addition, since the vehicle device control apparatus displays each control content and the corresponding application name on the screen, the display apparatus may exceed the upper limit of the number of characters that can be displayed per line.
  • the present invention has been made to solve the above-described problems, and a process executed by an application related to the utterance content in a display area of a display device in which the application related to the utterance content is displayed.
  • An object of the present invention is to provide a display control device that performs control for displaying the processing target on the display device.
  • the display control device is a display control device that performs display control based on the utterance content of spoken voice for a display device having a display area in which each of a plurality of applications is displayed.
  • the display control device includes a display control unit.
  • the display control unit includes first information that can identify at least one application related to the utterance content among a plurality of applications, and a processing target of processing executed by the at least one application, and at least one related to the utterance content. And second information that can identify one processing target.
  • the display control unit is configured to display at least one of the processes specified based on the second information and executed by each of the at least one application in a display area where each of the at least one application specified based on the first information is displayed.
  • the display device is controlled to display one processing target as a recognition candidate.
  • a control for displaying a processing target of processing executed by the application in relation to the utterance content on the display area of the display device in which the application related to the utterance content is displayed is provided to the display device.
  • a display control device can be provided.
  • FIG. 2 is a block diagram illustrating a configuration of a display control device and a device that operates in association with the display control device in the first embodiment.
  • 3 is a diagram illustrating an example of a processing circuit included in the display control device in Embodiment 1.
  • FIG. 6 is a diagram illustrating another example of a processing circuit included in the display control device according to Embodiment 1.
  • FIG. 3 is a flowchart showing the operation of the display control apparatus in the first embodiment.
  • FIG. 6 is a block diagram illustrating a configuration of a display control device according to Embodiment 2 and a device that operates in association with the display control device. 6 is a diagram illustrating a configuration of a multi-display that is a display device according to Embodiment 2.
  • FIG. 10 is a diagram illustrating a first display area of a first display unit in the second embodiment.
  • FIG. 10 is a diagram showing a second display area of a second display unit in the second embodiment.
  • FIG. 10 is a diagram showing a third display area of a third display unit in the second embodiment.
  • FIG. 11 is a diagram showing display area information in the second embodiment. It is a figure which shows the speech audio
  • voice recognized with respect to the candidate selection speech in Embodiment 2, a topic, and a slot. 10 is a diagram illustrating a correspondence relationship between topics and applications in Embodiment 2.
  • FIG. 10 is a diagram illustrating a correspondence relationship between topics and applications in Embodiment 2.
  • FIG. 10 is a flowchart showing the operation of the display control apparatus for command utterance in the second embodiment.
  • FIG. 10 is a diagram showing a state in which a top screen of an application is displayed in each display area in the second embodiment. It is a figure which shows the relationship between each process target in Embodiment 2, and an identification symbol.
  • FIG. 10 is a diagram showing a state where recognition candidates are displayed in a first display area in the second embodiment.
  • 10 is a flowchart showing an operation of the display control apparatus for candidate selection utterance in the second embodiment.
  • 10 is a diagram showing a state in which a screen during processing is displayed in the first display area in Embodiment 2.
  • FIG. 10 is a diagram showing a state in which a top screen of an application is displayed in each display area in the second embodiment. It is a figure which shows the relationship between each process target in Embodiment 2, and an identification symbol.
  • FIG. 10 is a diagram showing a state where recognition candidates are displayed in a second display area in the second embodiment.
  • FIG. 10 is a diagram showing a state in which a screen during processing is displayed in a second display area in the second embodiment.
  • FIG. 10 is a diagram showing a state in which a top screen of an application is displayed in each display area in the second embodiment. It is a figure which shows the relationship between each process target in Embodiment 2, and an identification symbol.
  • FIG. 10 is a diagram showing a state in which a top screen of an application is displayed in each display area in the second embodiment. It is a figure which shows the relationship between each process target in Embodiment 2, and an identification symbol.
  • FIG. 10 is a diagram showing a state where recognition candidates are displayed in a third display area in the second embodiment.
  • FIG. 10 is a diagram showing a state in which a screen during processing is displayed in a third display area in the second embodiment. It is a figure which shows the state by which the top screen was displayed on the 3rd display area in Embodiment 2 after completion
  • FIG. 20 is a diagram showing a state in which a top screen of an application is displayed in each display area in the third embodiment.
  • FIG. 10 is a diagram illustrating a relationship between each processing target and an identification symbol in the third embodiment.
  • FIG. 11 is a diagram showing a state where recognition candidates are displayed in each display area in the third embodiment.
  • FIG. 10 is a diagram showing a state where a screen during processing is displayed in a third display area in the third embodiment.
  • FIG. 16 is a diagram showing a state where recognition candidates are displayed in each display area in the fourth embodiment.
  • FIG. 18 is a diagram showing a state where recognition candidates are displayed in each display area in the fifth embodiment.
  • FIG. 25 is a diagram showing a state where recognition candidates are displayed in each display area in the sixth embodiment.
  • FIG. 20 is a block diagram showing a configuration of a display control system in a seventh embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of a display control device 10 according to the first embodiment and a device that operates in association with the display control device 10.
  • the display control device 10 is a display control device that performs display control based on the utterance content of the uttered voice on the display device 20 having a display area in which each of a plurality of applications is displayed.
  • the display device 20 has a plurality of display areas. A plurality of applications are displayed corresponding to each of the plurality of display areas. That is, one application is displayed in one display area.
  • One display area is, for example, one window.
  • the display device 20 may be a multi-display including a plurality of display units, each having an individual display area.
  • the display device 20 may be configured to have a plurality of display areas in one display device. That is, the window corresponding to each application may be displayed at different positions in the display device 20.
  • the display device 20 includes a first display area 21, a second display area 22, and a third display area 23. Note that the number of display areas is not limited to three.
  • the voice recognition device 30 recognizes the voice spoken by the user and outputs the first information and the second information to the display control device 10.
  • the first information is information that can identify at least one application related to the utterance content among a plurality of applications.
  • the second information is information that is a processing target of processing executed by at least one application specified by the first information and that can specify at least one processing target related to the utterance content.
  • the uttered voice is a voice recognition result by the voice recognition device 30, and the first information and the second information are intention understanding results by the voice recognition device 30.
  • the voice recognition device 30 recognizes an uttered voice corresponding to the voice uttered by the user as a voice recognition result.
  • the speech recognition device 30 analyzes the uttered speech and outputs the first information and the second information as the intention understanding result.
  • the speech recognition apparatus 30 refers to a database in which a plurality of utterance contents prepared in advance, the first information, and the second information are associated in advance, and corresponds to the utterance contents actually recognized. 1 information and 2nd information are acquired and output.
  • the database includes, for example, a dictionary in which a plurality of previously prepared utterance contents, first information, and second information are statistically associated with each other based on past utterance contents.
  • the display control device 10 includes a display control unit 1.
  • the display control unit 1 acquires first information and second information.
  • the display control unit 1 specifies at least one application related to the utterance content among the plurality of applications based on the first information.
  • the display control unit 1 specifies a display area in which each of at least one application specified based on the first information is displayed.
  • the display control part 1 specifies at least 1 process target relevant to the utterance content based on 2nd information.
  • the at least one processing target is a processing target of processing executed by at least one application.
  • the display control unit 1 displays at least one process specified by the second information and executed by each of the at least one application in a display area in which each of the at least one application specified based on the first information is displayed.
  • One processing target is displayed as a recognition candidate.
  • FIG. 2 is a diagram illustrating an example of the processing circuit 90 included in the display control apparatus 10. Each function of the display control unit 1 is realized by the processing circuit 90. That is, the processing circuit 90 includes the display control unit 1.
  • the processing circuit 90 When the processing circuit 90 is dedicated hardware, the processing circuit 90 includes, for example, a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable). Gate Array) or a combination of these.
  • Each function of the display control unit 1 may be realized individually by a plurality of processing circuits or may be realized collectively by one processing circuit.
  • FIG. 3 is a diagram showing another example of the processing circuit included in the display control device.
  • the processing circuit includes a processor 91 and a memory 92.
  • Each function of the display control unit 1 is realized by the processor 91 executing a program stored in the memory 92.
  • each function is realized when the processor 91 executes software or firmware described as a program. That is, the display control apparatus includes a memory 92 that stores a program and a processor 91 that executes the program.
  • the display control device is a processing target of processing executed by at least one application and first information that can identify at least one application related to the utterance content among a plurality of applications.
  • Second information capable of specifying at least one related processing target, and specifying based on the second information in a display area in which each of at least one application specified based on the first information is displayed
  • the program causes the computer to execute the procedure or method of the display control unit 1.
  • the processor 91 is, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor) or the like.
  • the memory 92 is a non-volatile or volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), etc. It is a semiconductor memory.
  • the memory 92 may be any storage medium that will be used in the future, such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD.
  • Some of the functions of the display control unit 1 described above may be realized by dedicated hardware, and the other part may be realized by software or firmware.
  • the processing circuit realizes the above-described functions by hardware, software, firmware, or a combination thereof.
  • FIG. 4 is a flowchart showing the operation of the display control apparatus 10 in the first embodiment.
  • step S10 the display control unit 1 acquires the first information and the second information from the voice recognition device 30.
  • step S20 the display control unit 1 specifies at least one application related to the utterance content based on the first information.
  • step S30 the display control unit 1 specifies a display area in which the specified at least one application is displayed.
  • step S40 the display control unit 1 specifies, based on the second information, at least one processing target related to the utterance content, which is a processing target of processing executed by the specified at least one application.
  • step S50 the display control unit 1 is specified based on the second information in a display area in which each of at least one application specified based on the first information is displayed, and the at least one application is executed. At least one processing target of the processing to be performed is displayed as a recognition candidate.
  • the display control apparatus 10 performs display control based on the utterance content of the spoken voice on the display apparatus 20 having a display area in which each of a plurality of applications is displayed. It is a control device.
  • the display control device 10 includes a display control unit 1.
  • the display control unit 1 is a processing target of processing executed by at least one application, the first information that can identify at least one application related to the utterance content among a plurality of applications, and at least related to the utterance content Second information that can identify one processing target is acquired.
  • the display control unit 1 performs processing of each of the at least one application specified based on the second information and executed by each of the at least one application in a display area where each of the at least one application specified based on the first information is displayed.
  • the display device 20 is controlled to display at least one processing target as a recognition candidate.
  • the display control apparatus 10 can recognize recognition candidates for executing processing related to the utterance content in the display area (or display position, window) in which the application related to the utterance content is displayed. Is displayed. Since the position where the recognition candidate is displayed is directly related to the application, it is not necessary to display the recognition candidate with the name of the application. Therefore, many recognition candidates can be displayed at one time in one display area, and the upper limit number of character strings for displaying recognition candidates increases.
  • the display control device 10 can display a large amount of information in a display area having a limited space. Moreover, the display control apparatus 10 makes it easy for the user to determine which application is the recognition candidate based on the display area where the recognition candidate is displayed.
  • a recognition candidate is displayed in a display area where an application different from the application intended by the user is displayed. That is, when the speech recognition apparatus misrecognizes the utterance, the display control apparatus 10 makes it easy for the user to determine the misrecognition.
  • the display control method is a display control method in which display control based on the utterance content of the uttered voice is performed on the display device 20 having a display area in which each of a plurality of applications is displayed.
  • the display control method includes: first information that can identify at least one application related to utterance content among a plurality of applications; and at least one related to utterance content that is a processing target of processing executed by at least one application. Second information capable of specifying one processing target, and a display area in which each of at least one application specified based on the first information is displayed is specified based on the second information and at least one
  • the display device 20 is controlled to display at least one processing target of processing executed by each of the two applications as a recognition candidate.
  • the display control method displays recognition candidates for executing processing related to the utterance content in the display area (display position) where the application related to the utterance content is displayed. Since the position where the recognition candidate is displayed is directly related to the application, it is not necessary to display the recognition candidate with the name of the application. Therefore, many recognition candidates can be displayed at one time in one display area, and the upper limit number of character strings for displaying recognition candidates increases.
  • the display control method makes it possible to display a large amount of information in a display area having a limited space. Further, the display control method makes it easy for the user to determine which application is the recognition candidate based on the display area where the recognition candidate is displayed.
  • a recognition candidate is displayed in a display area where an application different from the application intended by the user is displayed. That is, when the speech recognition apparatus misrecognizes an utterance, the display control method makes it easy for the user to determine the misrecognition.
  • Embodiment 2 A display control device and a display control method according to Embodiment 2 will be described. Note that the description of the same configuration and operation as in the first embodiment will be omitted.
  • FIG. 5 is a block diagram illustrating the configuration of the display control device 11 according to the second embodiment and a device that operates in association with the display control device 11.
  • the voice input device 40 is a device through which a user inputs voice.
  • the display device 20 is a multi-display in the second embodiment.
  • the display device 20 has three display areas.
  • the display device 20 includes a first display section 210 having a first display area 21, a second display section 220 having a second display area 22, and a third display section 230 having a third display area 23.
  • the display control device 11 includes a display area management unit 2, a voice recognition unit 3, and a display control unit 1.
  • the display area management unit 2 manages display area information that is a correspondence relationship between an application and a display area in which the application is displayed.
  • the display area management unit 2 may manage the display position where the application is displayed.
  • the display area information is stored in advance in the display area management unit 2, for example.
  • the display area management unit 2 notifies the display control unit 1 of display area information.
  • the display area management unit 2 is, for example, an application manager (Application manager).
  • the voice recognition unit 3 includes a storage unit 4, and the storage unit 4 stores a database in which a plurality of prepared utterance contents, first information, and second information are associated with each other.
  • the voice recognition unit 3 has the same function as the voice recognition device 30 shown in the first embodiment.
  • the voice recognition unit 3 acquires and recognizes the user's voice input to the voice input device 40.
  • the voice recognition unit 3 recognizes the voice spoken by the user in a state where different applications are displayed in the three display areas.
  • the speech recognition unit 3 specifies the first information and the second information related to the utterance content with reference to the database, and outputs them to the display control unit 1.
  • the voice recognition unit 3 is, for example, a voice recognition engine (Voice recognition engine).
  • the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 specifies at least one application related to the utterance content among the plurality of applications based on the first information.
  • the display control unit 1 identifies the first information with reference to correspondence relationships between a plurality of applications registered in advance.
  • the correspondence relationship is stored in advance in the display control unit 1, for example.
  • the display control unit 1 specifies a display area in which at least one specified application is displayed based on display area information managed by the display area management unit 2. Further, the display control unit 1 specifies at least one processing target related to the utterance content based on the second information, which is a processing target of processing executed by the specified at least one application.
  • the display control unit 1 causes each processing target specified based on the second information to be displayed as a recognition candidate in a display area where the application specified based on the first information is displayed.
  • the display control unit 1 is, for example, a voice recognition manager (Voice recognition manager).
  • FIG. 6 is a diagram showing a configuration of a multi-display provided inside the vehicle.
  • a display device 20 that is a multi-display is mounted in a cockpit of a vehicle.
  • the 1st display part 210, the 2nd display part 220, and the 3rd display part 230 which comprise a multi display are provided individually in the vehicle inside.
  • the 1st display part 210, the 2nd display part 220, and the 3rd display part 230 are arrange
  • the 1st display part 210, the 2nd display part 220, and the 3rd display part 230 are arranged in the order near a driver's seat or a passenger seat.
  • Each display part is arrange
  • FIG. 7 is a diagram showing the first display area 21 of the first display unit 210.
  • navigation is displayed as an application.
  • a top screen (Top) corresponding to the initial state or the standby state is displayed.
  • the navigation displays a map (MAP).
  • the navigation also has a function of guiding to a set destination.
  • the navigation has a function of guiding the house specified based on the name included in the utterance content recognized by the voice recognition unit 3.
  • FIG. 8 is a diagram showing the second display area 22 of the second display unit 220.
  • a media player is displayed as an application.
  • the top screen (Top) is displayed.
  • the media player displays the song title (Album title).
  • the media player has a function of playing music.
  • the media player has a function of reproducing an artist's song specified based on the name included in the utterance content recognized by the voice recognition unit 3.
  • FIG. 9 is a diagram showing the third display area 23 of the third display unit 230.
  • a phone is displayed as an application.
  • the top screen (Top) is displayed.
  • the phone displays a phonebook. Further, the phone has a function of making a call.
  • the phone has a function of making a call to the other party specified based on the name included in the utterance content recognized by the voice recognition unit 3.
  • FIG. 10 is a diagram showing display area information managed by the display area management unit 2.
  • the display area information stores that navigation is displayed in the first display area 21, the media player is displayed in the second display area 22, and the phone is displayed in the third display area 23.
  • the display area information includes, for example, a table shown in FIG.
  • the voice recognition unit 3 recognizes voices of command utterances and candidate selection utterances.
  • a command utterance is an utterance that specifies a process to be executed by each application.
  • the candidate selection utterance is an utterance that designates a processing target of processing executed by each application from a plurality of recognition candidates.
  • the voice recognition unit 3 outputs topics and slots related to the user's utterance content.
  • the topic includes first information and corresponds to the type of command.
  • the slot includes the second information and is a parameter accompanying the command.
  • FIG. 11 is a diagram showing uttered voices recognized by the voice recognition unit 3 in response to a command utterance, and topics and slots output to the display control unit 1.
  • the user speaks “Navigate to John Smith” (“Guide to John Smith”) to the voice input device 40 in order to cause the navigation to perform guidance processing to the destination.
  • the voice recognition unit 3 recognizes “Navigate to John Smith” as the utterance content.
  • the voice recognition unit 3 refers to the database stored in the storage unit 4 and outputs “NAV.navigateName” as a topic related to Navigate (guidance) included in the utterance content.
  • the voice recognition unit 3 outputs “John Smith” as a slot related to John Smith (John Smith) included in the utterance content.
  • the topic “NAV.navigateName” requests navigation to set and guide a point corresponding to a specific name from names registered in advance. That is, the navigation that is an application specified in relation to the utterance content is based on the topic “NAV.navigateName” and the slot “John Smith”, and the location stored in John Smith from among the names registered in advance. A process for setting the destination and guiding to the destination is executed.
  • the topic “MPL.playArtist” requests the media player to play a song of an artist corresponding to a specific name from names registered in advance.
  • the topic “PHN.callName” requests the phone to make a call to a phone number corresponding to a specific name from names registered in advance.
  • the voice recognition unit 3 recognizes user requests as topics and slots. That is, the topic and the slot are the result of intention understanding by the voice recognition unit 3.
  • the utterance content shown by FIG. 11 is an example, and is not limited to them.
  • the utterance content associated with the topic “NAV.navigateName” includes any command utterance in which the user instructs the navigation to guide. All these command utterances are stored in the database of the storage unit 4. Further, all these command utterances are learned and accumulated by the voice recognition unit 3.
  • FIG. 12 is a diagram showing the utterance voice recognized by the voice recognition unit 3 with respect to the candidate selection utterance, and the topics and slots to be output to the display control unit 1.
  • the user speaks “Select number number one” (“select number 1”) to the voice input device 40.
  • the speech recognition unit 3 recognizes “Select number one” as the utterance content, it refers to the database stored in the storage unit 4 and outputs “CMD.selectNbest” as a topic related to Select. .
  • FIG. 13 is a diagram illustrating a correspondence relationship between a topic including the first information and an application.
  • topics corresponding to each of the three applications are stored in the table.
  • FIG. 14 is a flowchart showing the operation of the display control apparatus 11 for command utterances in the second embodiment.
  • the display control operation for navigation among the three applications will be described.
  • the navigation can set the person's house as the destination.
  • the names of persons registered for navigation are John Smith and Josh Smith.
  • FIG. 15 is a diagram showing a state in which the top screen (Top) of the application is displayed in each display area.
  • step S100 the voice recognition unit 3 recognizes the spoken voice. That is, the user inputs a command utterance for navigation to the voice input device 40, and the voice recognition unit 3 recognizes the voice.
  • the user speaks “Navigate to John Smith” (“Guide to John Smith”).
  • the pronunciation of “John Smith” is similar to the pronunciation of “Josh Smith”. Therefore, the voice recognition unit 3 recognizes “Navigate to John Smith” (“Guide to John Smith”) and “Navigate to Josh Smith” (“Guide to Josh Smith”) as utterance contents.
  • “Navigate to John Smith” is referred to as the first utterance content
  • “Navigate to Josh Smith” is referred to as the second utterance content.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output.
  • “Navigate to John Smith”, “Navigate to Josh Smith”, “John Smith”, and “Josh Smith” are stored in the database corresponding to navigation as the utterance contents prepared in advance.
  • the speech recognition unit 3 refers to the database, outputs “NAV.navigateName” as a topic associated with the first utterance content “Navigate ⁇ to John Smith”, and further outputs “John Smith” as a slot. .
  • the speech recognition unit 3 outputs a topic “NAV.navigateName” and a slot “Josh Smith” that are associated with “Navigate to Josh Smith”, which is the second utterance content.
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S130 the display control unit 1 specifies at least one application related to the utterance content based on the first information.
  • the topic including the first information is “NAV.navigateName”.
  • the display control unit 1 identifies navigation as an application related to the utterance content based on the correspondence shown in FIG.
  • step S140 the display control unit 1 specifies a display area in which the specified at least one application is displayed based on the display area information.
  • the display control unit 1 specifies the first display area 21 in which navigation is displayed among the three display areas based on the display area information shown in FIG.
  • step S150 the display control unit 1 specifies, based on the second information, at least one processing target that is a processing target of processing executed by the specified at least one application and is related to the utterance content.
  • the navigation that is the identified application is executed, and the processing related to the utterance content is processing corresponding to the topic “NAV.navigateName”.
  • NAV.navigateName means a process of setting a point corresponding to a specific name from names registered in advance as a destination and guiding the destination. That is, the processing target of the processing executed by the navigation is the destination.
  • the slot associated with the first utterance content is “John Smith”, and the slot associated with the second utterance content is “Josh Smith”. Based on each slot, the display control unit 1 identifies each processing target, that is, the destination, as a point corresponding to “John Smith” and a point corresponding to “Josh Smith”.
  • step S160 the display control unit 1 assigns an identification symbol to each processing target.
  • FIG. 16 is a diagram illustrating a relationship between each processing target and an identification symbol.
  • the display control unit 1 assigns an ID number “1” as an identification symbol to “John Smith”. Further, the display control unit 1 assigns the ID number “2” to “Josh Smith”.
  • step S170 the display control unit 1 stores the relationship between each processing target and the identification symbol.
  • the display control unit 1 stores, for example, a table storing each processing target and an identification symbol as shown in FIG.
  • step S180 the display control unit 1 displays each processing target as a recognition candidate together with the identification symbol in a display area where each application is displayed.
  • FIG. 17 is a diagram illustrating a state where recognition candidates are displayed in the first display area 21.
  • the display control unit 1 displays the slots “John Smith” and “Josh Smith” together with the ID number as recognition candidates in the first display area 21.
  • “1. John Smith” and “2. Josh Smith” are displayed.
  • the navigation displays a destination setting (Set destination) screen.
  • recognition candidates are not displayed for media players and phones that have no topic related to the utterance content.
  • FIG. 18 is a flowchart showing the operation of the display control apparatus 11 for candidate selection utterances in the second embodiment.
  • step S100 the voice recognition unit 3 recognizes the spoken voice. That is, the user inputs a candidate selection utterance for navigation to the voice input device 40, and the voice recognition unit 3 recognizes the voice.
  • the user utters “Select number number one” (“select number 1”) based on the recognition candidates shown in FIG.
  • the voice recognition unit 3 recognizes “Select number number one” for the utterance.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output. As shown in FIG. 12, in the database corresponding to the candidate selection utterance, “Number one” (“No. 1”) and “Select number one” (“Select No. 1”) are prepared as utterance contents prepared in advance. And are stored respectively.
  • the speech recognition unit 3 refers to the database and outputs a topic “CMD.selectNbest” and a slot “Number one” that are associated with the utterance content “Select number one”.
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S230 the display control unit 1 acquires an identification symbol corresponding to the utterance content from the second information based on the first information.
  • the display control unit 1 acquires the ID number corresponding to the slot “Number one” based on the topic “CMD.selectNbest”. In this case, “1” is acquired as the ID number.
  • step S240 the display control unit 1 selects a processing target corresponding to the utterance content based on the relationship between each processing target and the identification symbol.
  • the display control unit 1 selects the slot “John Smith” corresponding to the spoken identification symbol based on the relationship between each processing target and the identification symbol shown in FIG.
  • the processing target of the process executed by the application is determined. That is, the destination set by the navigation is determined as the point corresponding to “John Smith”.
  • step S250 the display control unit 1 requests the application to execute the process.
  • the display control unit 1 requests the navigation to guide to a point corresponding to “John Smith”.
  • step S260 the display control unit 1 displays in the display area where the application is displayed that the application is executing processing.
  • FIG. 19 is a diagram illustrating a state in which a screen during processing is displayed in the first display area 21.
  • the display control unit 1 maps a route to “John Smith's home” (“John Smith's home”) corresponding to “John Smith” (MAP) ) Display on top. Further, the display control unit 1 displays a top screen (Top) in the first display area 21.
  • the second display area 22 in which the media player is displayed and the third display area 23 in which the phone is displayed remain unchanged from the top screen.
  • FIG. 20 is a diagram showing a state in which the top screen (Top) of the application is displayed in each display area.
  • step S100 the voice recognition unit 3 recognizes the spoken voice.
  • the user speaks “Play Joan Smith” (“Play Joan Smith”).
  • the pronunciation of “Joan Smith” is similar to the pronunciation of “Josh Smith”. Therefore, the speech recognition unit 3 recognizes “Play Joan Smith” (“Play Joan Smith”) and “Play Josh Smith” (“Play Josh Smith”) as utterance contents.
  • “Play Joan Smith” is referred to as the third utterance content
  • “Play Josh Smith” is referred to as the fourth utterance content.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output. As shown in FIG. 11, “Play ⁇ ⁇ ⁇ ⁇ Joan Smith”, “Play Josh Smith”, “Joan Smith”, and “Josh Smith” are stored as utterance contents prepared in advance in the database corresponding to the media player. ing.
  • the speech recognition unit 3 refers to the database, and outputs “MPL.playArtist” as a topic associated with “Play Joan Smith”, which is the third utterance content, and “Joan Smith” as a slot. Similarly, the speech recognition unit 3 outputs “MPL.playArtist” as a topic associated with “Play Josh Smith” as the fourth utterance content and “Josh Smith” as a slot.
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S130 the display control unit 1 specifies at least one application related to the utterance content based on the first information.
  • the topic including the first information is “MPL.playArtist”.
  • the display control unit 1 specifies a media player as an application related to the utterance content based on the correspondence shown in FIG.
  • step S140 the display control unit 1 specifies a display area in which the specified at least one application is displayed based on the display area information.
  • the display control unit 1 specifies the second display area 22 in which the media player is displayed among the three display areas based on the display area information shown in FIG.
  • step S150 the display control unit 1 specifies, based on the second information, at least one processing target that is a processing target of processing executed by the specified at least one application and is related to the utterance content.
  • the process executed by the media player that is the identified application and related to the utterance content is a process corresponding to the topic “MPL.playArtist”.
  • MPL.playArtist means a process of playing a song of an artist corresponding to a specific name from names registered in advance. That is, the processing target of the processing executed by the media player is the artist's song.
  • the slot associated with the third utterance content is “Joan Smith”, and the slot associated with the fourth utterance content is “Josh Smith”. Based on each slot, the display control unit 1 identifies each processing target, that is, the artist's song as a song corresponding to “Joan Smith” and a song corresponding to “Josh Smith”.
  • step S160 the display control unit 1 assigns an identification symbol to each processing target.
  • FIG. 21 is a diagram illustrating a relationship between each processing target and an identification symbol.
  • the display control unit 1 assigns an ID number “1” as an identification symbol to “Joan Smith”. Further, the display control unit 1 assigns the ID number “2” to “Josh Smith”.
  • step S170 the display control unit 1 stores the relationship between each processing target and the identification symbol.
  • the display control unit 1 stores, for example, a table storing each processing target and an identification symbol as shown in FIG.
  • step S180 the display control unit 1 displays each processing target as a recognition candidate together with the identification symbol in a display area where each application is displayed.
  • FIG. 22 is a diagram showing a state where recognition candidates are displayed in the second display area 22.
  • the display control unit 1 displays the slots “Joan Smith” and “Josh Smith” in the second display area 22 as recognition candidates together with the ID number.
  • “1.1Joan Smith” and “2. Josh Smith” are displayed.
  • the media player displays a screen of music playback (Play by artist) by the artist.
  • recognition candidates are not displayed on navigation and phones that have no topic related to the utterance content.
  • step S100 the voice recognition unit 3 recognizes the spoken voice. That is, the user inputs a candidate selection utterance for the media player to the voice input device 40, and the voice recognition unit 3 recognizes the voice.
  • the user speaks “Select number number one” (“select number 1”) based on the recognition candidates shown in FIG.
  • the voice recognition unit 3 recognizes “Select number number one” for the utterance.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output.
  • the speech recognition unit 3 refers to the database corresponding to the candidate selection utterance shown in FIG. 12, and outputs the topic “CMD.selectNbest” and the slot “Number one” that are associated with the utterance content “Select number one”. .
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S230 the display control unit 1 acquires an identification symbol corresponding to the utterance content from the second information based on the first information.
  • the display control unit 1 acquires the ID number corresponding to the slot “Number one” based on the topic “CMD.selectNbest”. In this case, “1” is acquired as the ID number.
  • step S240 the display control unit 1 selects a processing target corresponding to the utterance content based on the relationship between each processing target and the identification symbol.
  • the display control unit 1 selects the slot “Joan Smith” corresponding to the spoken identification symbol based on the relationship between each processing target and the identification symbol shown in FIG.
  • the processing target of the process executed by the application is determined. That is, the artist's song played by the media player is determined as the song corresponding to “Joan Smith”.
  • step S250 the display control unit 1 requests the application to execute the process.
  • the display control unit 1 requests the media player to play a song corresponding to “Joan Smith”.
  • step S260 the display control unit 1 displays in the display area where the application is displayed that the application is executing processing.
  • FIG. 23 is a diagram showing a state where a screen during processing is displayed in the second display area 22.
  • the display control unit 1 displays information such as “Joan Smith Best” (“Joan ⁇ Smith Best”) corresponding to “Joan Smith” in the second display area 22 where the media player is displayed. The media player plays music. Further, the display control unit 1 displays a top screen (Top) in the second display area 22.
  • the first display area 21 where the navigation is displayed and the third display area 23 where the phone is displayed remain unchanged from the top screen.
  • FIG. 24 is a diagram showing a state in which the top screen (Top) of the application is displayed in each display area.
  • step S100 the voice recognition unit 3 recognizes the spoken voice.
  • the user speaks “Call Joe Smith” (“Call Joe Smith”).
  • the pronunciation of “Joe Smith” is similar to the pronunciation of “Josh Smith”. Therefore, the speech recognition unit 3 recognizes “Call Joe Smith” (“Call Joe Smith”) and “Call Josh Smith” (“Call Josh Smith”) as utterance contents.
  • “Call Joe Smith” is referred to as the fifth utterance content
  • “Call Josh Smith” is referred to as the sixth utterance content.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output. As shown in FIG. 11, “Call Joe Smith”, “Call Josh Smith”, “Joe Smith”, and “Josh Smith” are stored as utterance contents prepared in advance in the database corresponding to the phone. Yes.
  • the speech recognition unit 3 refers to the database and outputs “PHN.callName” as a topic associated with the fifth utterance content “CallthJoe Smith” and “Joe Smith” as a slot. Similarly, the speech recognition unit 3 outputs “PHN.callName” as a topic associated with “Call Josh Smith” which is the sixth utterance content and “Josh Smith” as a slot.
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S130 the display control unit 1 specifies at least one application related to the utterance content based on the first information.
  • the topic including the first information is “PHN.callName”.
  • the display control unit 1 identifies a phone as an application related to the utterance content based on the correspondence shown in FIG.
  • step S140 the display control unit 1 specifies a display area in which the specified at least one application is displayed based on the display area information. Based on the display area information shown in FIG. 10, the display control unit 1 specifies the third display area 23 in which the phone is displayed among the three display areas.
  • step S150 the display control unit 1 specifies, based on the second information, at least one processing target that is a processing target of processing executed by the specified at least one application and is related to the utterance content.
  • the process executed by the phone that is the identified application and related to the utterance content is a process corresponding to the topic “PHN.callName”.
  • PPN.callName means a process of making a call to a telephone number corresponding to a specific name from names registered in advance. That is, the processing target of the process executed by the phone is the name of the other party who makes the call.
  • the slot associated with the fifth utterance content is “Joe Smith”, and the slot associated with the sixth utterance content is “Josh Smith”. Based on each slot, the display control unit 1 identifies the telephone number corresponding to “Joe Smith” and the telephone number corresponding to “Josh Smith” based on each slot.
  • step S160 the display control unit 1 assigns an identification symbol to each processing target.
  • FIG. 25 is a diagram illustrating a relationship between each processing target and an identification symbol.
  • the display control unit 1 assigns ID number “1” as an identification symbol to “Joe Smith”. Further, the display control unit 1 assigns the ID number “2” to “Josh Smith”.
  • step S170 the display control unit 1 stores the relationship between each processing target and the identification symbol.
  • the display control unit 1 stores, for example, a table storing each processing target and an identification symbol as shown in FIG.
  • step S180 the display control unit 1 displays each processing target as a recognition candidate together with the identification symbol in a display area where each application is displayed.
  • FIG. 26 is a diagram showing a state where recognition candidates are displayed in the third display area 23.
  • the display control unit 1 displays the slots “Joe Smith” and “Josh Smith” together with the ID number as recognition candidates in the third display area 23 where the phone is displayed.
  • “1. Joe Smith” and “2. Josh Smith” are displayed.
  • the phone displays a screen of call name by name.
  • recognition candidates are not displayed on navigation and media players that have no topic related to the utterance content.
  • step S100 the voice recognition unit 3 recognizes the spoken voice. That is, the user inputs a candidate selection utterance for the phone to the voice input device 40, and the voice recognition unit 3 recognizes the voice.
  • the user speaks “Select number number one” (“select number 1”) based on the recognition candidates shown in FIG.
  • the voice recognition unit 3 recognizes “Select number number one” for the utterance.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output.
  • the speech recognition unit 3 refers to the database corresponding to the candidate selection utterance shown in FIG. 12, and outputs the topic “CMD.selectNbest” and the slot “Number one” that are associated with the utterance content “Select number one”. .
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S230 the display control unit 1 acquires an identification symbol corresponding to the utterance content from the second information based on the first information.
  • the display control unit 1 acquires the ID number corresponding to the slot “Number one” based on the topic “CMD.selectNbest”. In this case, “1” is acquired as the ID number.
  • step S240 the display control unit 1 selects a processing target corresponding to the utterance content based on the relationship between each processing target and the identification symbol.
  • the display control unit 1 selects the slot “Joe Smith” corresponding to the spoken identification symbol based on the relationship between each processing target and the identification symbol shown in FIG.
  • the processing target of the process executed by the application is determined. That is, the phone number to which the phone calls is determined as the phone number corresponding to “Joe Smith”.
  • step S250 the display control unit 1 requests the application to execute the process.
  • the display control unit 1 requests the phone to call the phone number corresponding to “Joe Smith”.
  • step S260 the display control unit 1 displays in the display area where the application is displayed that the application is executing processing.
  • FIG. 27 is a diagram illustrating a state in which a screen during processing is displayed in the third display area 23.
  • the display control unit 1 displays “Calling Joe Smith 0123-455-7889” (“Calling Joe Smith” as information including the telephone number corresponding to “Joe Smith”. 0123-455-7889 ”) etc. is displayed.
  • the display control unit 1 displays a calling screen.
  • the display control device 11 displays the top screen (Top) in the third display area 23 when the phone call is finished.
  • FIG. 28 is a diagram showing a state in which the top screen (Top) is displayed in the third display area 23 after the transmission is completed. In the above operation, the first display area 21 where the navigation is displayed and the second display area 22 where the media player is displayed remain the top screen.
  • the number of the display areas constituting the multi-display is an example, and is not limited to three. Further, the above three applications displayed in each display area are examples, and are not limited thereto. Further, the identification symbol is not limited to the ID number, and may be a character, a code, a symbol, a combination thereof, or the like as long as each of a plurality of processing objects can be identified.
  • the display control device 11 can display a large amount of information in a display area having a limited space.
  • the display control apparatus 11 recognizes a spoken voice, and refers to a database in which the utterance content obtained by recognizing the voice, the first information, and the second information are associated with each other.
  • the voice recognition unit 3 further outputs the first information and the second information related to the utterance content to the display control unit 1.
  • the voice recognition unit 3 includes a storage unit 4 that stores a database.
  • the display control device 11 can efficiently identify the application and processing target related to the utterance content.
  • the display control apparatus 11 further includes a display area management unit 2 that manages display area information that is a correspondence relationship between each application and the display area in which each application is displayed.
  • the display control unit 1 specifies a display area in which each of at least one application specified based on the first information is displayed based on the display area information acquired by the display area management unit 2.
  • the display control device 11 controls the display device 20 to accurately display the processing target at the display position of the application related to the utterance content even when the display area where the application is displayed can be changed. it can.
  • Embodiment 3 The display control device 11 and the display control method in Embodiment 3 will be described. Note that the description of the same configuration and operation as in Embodiment 1 or 2 is omitted.
  • At least one processing target specified based on the second information includes a plurality of processing targets.
  • the display control unit 1 assigns an identification symbol that does not overlap each other to each of the plurality of processing targets, and displays each processing target as a recognition candidate together with the identification symbol in the display area.
  • the display control unit 1 assigns an identification symbol to each of the plurality of processing targets according to a predetermined priority for each display area in which recognition candidates are displayed.
  • FIG. 29 is a diagram showing a state in which the top screen (Top) of the application is displayed in each display area.
  • step S100 the voice recognition unit 3 recognizes the spoken voice.
  • the user utters “Joe Smith” (“Joe Smith”).
  • the speech recognition unit 3 is similar to the speech of the utterance “John Smith” (“John Smith”), “Josh Smith” (“Josh Smith”), “Joan Smith” (“Joane Smith”) and “ “Joe Smith” (“Joe Smith”) is recognized as the utterance content.
  • “John Smith” is referred to as the seventh utterance content
  • “Joe Smith” as the ninth utterance content
  • “Josh Smith” as the tenth utterance content.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output.
  • the speech recognition unit 3 refers to the database corresponding to the command utterance shown in FIG. 11 and outputs the topic “NAV.navigateName” and the slot “John Smith” associated with “John Smith” which is the seventh utterance content. .
  • the speech recognition unit 3 outputs a topic “MPL.playArtist” and a slot “Joan Smith” associated with “Joan Smith” which is the eighth utterance content.
  • the speech recognition unit 3 outputs the topic “PHN.callName” and the slot “Joe Smith” associated with “Joe Smith” which is the ninth utterance content.
  • the speech recognition unit 3 outputs three topics “NAV.navigateName”, “MPL.playArtist”, “PHN.callName”, and slot “Josh Smith” associated with “Josh Smith” as the tenth utterance content.
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • the display control unit 1 specifies at least one application related to the utterance content based on the first information.
  • the display control unit 1 specifies an application related to the utterance content based on the correspondence shown in FIG. Since the topic of the seventh utterance content and the tenth utterance content is “NAV.navigateName”, the application is navigation. Since the topic of the eighth utterance content and the tenth utterance content is “MPL.playArtist”, the application is a media player. Since the topic of the ninth utterance content and the tenth utterance content is “PHN.callName”, the application is a phone.
  • step S140 the display control unit 1 specifies a display area in which the specified at least one application is displayed based on the display area information.
  • the display control unit 1 specifies each display area where three applications are displayed based on the display area information. That is, the display control unit 1 displays the first display area 21 where the navigation is displayed, the second display area 22 where the media player is displayed, and the phone, based on the display area information shown in FIG.
  • the third display area 23 is specified.
  • step S150 the display control unit 1 specifies, based on the second information, at least one processing target that is a processing target of processing executed by the specified at least one application and is related to the utterance content.
  • the display control unit 1 sets the destination set by the navigation based on each slot of the seventh utterance content and the tenth utterance content as a point corresponding to “John Smith” and a point corresponding to “Josh Smith”.
  • the display control unit 1 Based on the slots of the eighth utterance content and the tenth utterance content, the display control unit 1 changes the music of the artist played by the media player into a song corresponding to “Joan Smith” and a song corresponding to “Josh Smith”. Identify.
  • the display control unit 1 Based on the slots of the ninth utterance content and the tenth utterance content, the display control unit 1 sets the telephone number corresponding to “Joe Smith” and the telephone number corresponding to “Josh Smith” to the party that the phone calls. Identify.
  • step S160 the display control unit 1 assigns an identification symbol to each processing target.
  • the display control unit 1 assigns identification symbols that do not overlap each other to each of the plurality of processing objects.
  • FIG. 30 is a diagram illustrating a relationship between each processing target and an identification symbol.
  • the display control unit 1 assigns different ID numbers “1” to “6” to the respective processing targets.
  • the display control part 1 provides an identification symbol according to the priority predetermined for every display area.
  • the priority is stored in, for example, display area information, and the display control unit 1 refers to the display area information.
  • the priority is set in advance according to the position of each display area inside the vehicle, for example. For example, priorities are set in descending order of the height at which each display area is located. Alternatively, for example, priority is set for each display area in the order closer to the driver seat or the passenger seat. In the third embodiment, priorities are set in advance in the order of the first display area 21, the second display area 22, and the third display area 23.
  • step S170 the display control unit 1 stores the relationship between each processing target and the identification symbol.
  • the display control unit 1 stores, for example, a table storing each processing target and an identification symbol as shown in FIG.
  • step S180 the display control unit 1 displays each processing target as a recognition candidate together with the identification symbol in a display area where each application is displayed.
  • FIG. 31 is a diagram illustrating a state where recognition candidates are displayed in each display area.
  • the display control unit 1 displays the slots “John Smith” and “Josh Smith” together with the ID number as recognition candidates in the first display area 21.
  • the navigation displays a destination setting (Set destination) screen.
  • the display control unit 1 displays the slots “Joan Smith” and “Josh Smith” in the second display area 22 as recognition candidates together with the ID number.
  • the media player displays a screen of a reproduction artist (Play by artist).
  • the display control unit 1 displays the slots “Joe Smith” and “Josh Smith” in the third display area 23 as recognition candidates together with the ID number.
  • the phone displays a screen of call name by name.
  • step S100 the voice recognition unit 3 recognizes the spoken voice.
  • the user utters “Select number number five” (“select number 5”) based on the recognition candidates shown in FIG.
  • the voice recognition unit 3 recognizes “Select number five” for the utterance.
  • the speech recognition unit 3 refers to a database in which the utterance content prepared in advance, the first information and the second information are associated, and the first information and the second information related to the recognized utterance content. Is output.
  • the speech recognition unit 3 refers to the database corresponding to the candidate selection utterance shown in FIG. 12, and outputs the topic “CMD.selectNbest” and the slot “Number five” associated with the utterance content “Select“ number five ”. .
  • step S120 the display control unit 1 acquires the first information and the second information output from the voice recognition unit 3.
  • the display control unit 1 acquires a topic and a slot.
  • step S230 the display control unit 1 acquires an identification symbol corresponding to the utterance content from the second information based on the first information.
  • the display control unit 1 acquires an ID number corresponding to the slot “Number five” based on the topic “CMD.selectNbest”. In this case, “5” is acquired as the ID number.
  • step S240 the display control unit 1 selects a processing target corresponding to the utterance content based on the relationship between each processing target and the identification symbol.
  • the display control unit 1 selects the slot “Joe Smith” corresponding to the spoken identification symbol based on the relationship between each processing target and the identification symbol shown in FIG.
  • the processing target of the process executed by the application is determined. That is, the phone number to which the phone calls is determined as the phone number corresponding to “Joe Smith”.
  • step S250 the display control unit 1 requests the application to execute the process.
  • the display control unit 1 requests the phone to call the phone number corresponding to “Joe Smith”.
  • step S260 the display control unit 1 displays in the display area where the application is displayed that the application is executing processing.
  • FIG. 32 is a diagram showing a state in which a screen during processing is displayed in the third display area 23.
  • the display control unit 1 displays “Calling Joe Smith 0123-455-7889” (“Calling Joe Smith” as information including the telephone number corresponding to “Joe Smith”. 0123-455-7889 ”) etc. is displayed.
  • the display control unit 1 displays a top screen (Top) in the first display area 21 and the second display area 22 in which navigation and media players for which no recognition candidate has been selected are displayed, respectively.
  • the display control device 11 displays the same top screen (Top) as that shown in FIG.
  • the utterance “Josh Smith” is related to three applications: navigation, media player, and phone.
  • each recognition candidate is displayed with a different ID number in the display device 20. Therefore, the display control apparatus 11 enables the user to select a recognition candidate only by specifying an ID number without specifying an application.
  • At least one processing target specified based on the second information includes a plurality of processing targets.
  • the display control unit 1 assigns an identification symbol that does not overlap each other to each of the plurality of processing targets, and displays each processing target as a recognition candidate together with the identification symbol in the display area.
  • the display control device 11 enables the user to select recognition candidates displayed in a plurality of applications by specifying an identification symbol.
  • the display control unit 1 of the display control device 11 according to the third embodiment gives an identification symbol to each of the plurality of processing objects according to the priority set in advance for each display area where the recognition candidate is displayed.
  • the display control device 11 can present a recognition candidate having a high priority from a plurality of recognition candidates to the user.
  • the display areas of the navigation and media player are switched.
  • a media player is displayed in the first display area 21 having the highest priority
  • navigation is displayed in the second display area 22 having a lower priority than the first display area 21.
  • Whether the display area of each application has been replaced is determined by, for example, the display area management unit 2 notifying the display control unit 1 of the display area information.
  • the display control device 11 preferentially assigns an identification symbol to each processing target executed by the media player displayed in the first display area 21.
  • the display control device 11 has an ID number “1” for the topic “MPL.playArtist” and the slot “Joan Smith” and an ID number “2” for the topic “MPL.playArtist” and the slot “Josh Smith” among the plurality of processing objects. Is given.
  • FIG. 33 is a diagram showing a state where recognition candidates are displayed in each display area in the fourth embodiment.
  • the display control unit 1 displays the slots “Joan Smith” and “Josh Smith” together with the ID number as recognition candidates in the first display area 21 where the media player is displayed.
  • the display control unit 1 displays the slots “John Smith” and “Josh Smith” together with the ID number as recognition candidates in the second display area 22 where the navigation is displayed.
  • the display control unit 1 displays the slots “Joe Smith” and “Josh Smith” together with the ID number as recognition candidates in the third display area 23 where the phone is displayed.
  • the ID number of the recognition candidate displayed in each display area is displayed side by side according to the priority of each display area. Therefore, the user can easily select a recognition candidate.
  • the display control unit 1 highlights and displays a processing target having the highest acoustic reliability based on the utterance content as a recognition candidate among a plurality of processing targets.
  • the acoustic reliability is the acoustic accuracy of the uttered voice recognized by the voice recognition unit 3.
  • a processing target with high acoustic reliability has a high probability of being a processing target intended by the user.
  • FIG. 34 is a diagram showing a state where recognition candidates are displayed in each display area in the fifth embodiment.
  • the display control unit 1 highlights and displays recognition candidates including “John Smith” having the highest acoustic reliability. For example, to change the display size of the recognition candidate, to change the color of the recognition candidate display, to change the font of the recognition candidate display, or to display the recognition candidate with a decoration such as an underline.
  • the recognition candidate is displayed in an italic form, the recognition candidate display is animated, the recognition candidate display position is changed, and the recognition candidate display direction is changed.
  • the display control unit 1 acquires the acoustic reliability from the voice recognition unit 3. For example, the display control unit 1 acquires the acoustic reliability together with the first information and the second information.
  • the display control device 11 can control the display device 20 to display recognition candidates that are highly likely to match the user's intention.
  • a display control device 11 and a display control method according to the sixth embodiment will be described. Note that description of the same configurations and operations as those of the other embodiments is omitted.
  • FIG. 6 An example in which there are two recognition candidates displayed in one display area has been shown. However, depending on the utterance content and the name registered in each application, more recognition is possible. Candidates may be displayed in one display area. When the number of recognition candidates is large, it is difficult to display them in one display area, that is, in one screen.
  • the display control device 11 displays at least one processing target as a recognition candidate within the upper limit value of the number of recognition candidates displayed in advance for each display area.
  • FIG. 35 is a diagram showing a state where recognition candidates are displayed in each display area in the sixth embodiment.
  • the upper limit value of the display number of recognition candidates determined in advance in each display area is two.
  • the upper limit value in each display area is the same value, different upper limit values may be set in the respective display areas. It is preferable that each recognition candidate is displayed in order of the high acoustic reliability in each display area.
  • the display control device 11 can prevent deterioration in visibility when a plurality of recognition candidates are displayed.
  • FIG. 36 is a block diagram illustrating a configuration of the display control system 100 according to the seventh embodiment.
  • each function or each component of the display control apparatus 10 may be distributed and arranged in each device that constructs the display control system 100.
  • the vehicle 70 is provided with a display control device 10, a display device 20, a voice input device 40, and a communication device 50.
  • the communication terminal includes mobile terminals such as a mobile phone, a smartphone, and a tablet.
  • the server 80 is provided with a voice recognition device 30 and a communication device 60.
  • the user's utterance input to the voice input device 40 is input to the voice recognition device 30 and recognized through the vehicle communication device 50 and the server communication device 60.
  • the voice recognition device 30 outputs the first information and the second information to the display device 20 via each communication device.
  • the display control device 10 performs the display control operation shown in each embodiment on the display device 20 based on the first information and the second information. Even with such a configuration, the display control device 10 has the same effects as the effects shown in the embodiments.
  • the function of the display control device is the vehicle 70 and the server. 80 and distributed. That is, the functions of the display control unit 1 are distributed in the vehicle 70 and the functions of the voice recognition unit 3 are distributed in the server 80. Even with such a distributed arrangement, the display control device has the same effects as those shown in each embodiment. Further, by providing a part of the configuration of the display control device in the server 80, the configuration of the device mounted on the vehicle 70 can be simplified. In addition, it is easy to update the database used by the speech recognition unit 3 when recognizing speech, and the accuracy of the utterance content, that is, the acoustic reliability can be improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

発話内容に関連するアプリケーションが表示されている表示装置の表示領域に、その発話内容に関連してアプリケーションが実行する処理の処理対象を表示させる表示制御装置の提供を目的とする。表示制御装置は、発話された音声の発話内容に基づいて、複数のアプリケーションの各々が表示される表示領域を有する表示装置に対して表示制御を行う。表示制御装置が備える表示制御部は、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得する。さらに表示制御部は、第1情報に基づいて特定される表示領域に、第2情報に基づいて特定されかつアプリケーションが実行する処理の少なくとも1つの処理対象を表示させる制御を行う。

Description

表示制御装置および表示制御方法
 本発明は、表示制御装置および表示制御方法に関する。
 車両のコックピットに装備されたディスプレイを通じてドライバ-に多様な情報を提供するシステムが増加している。例えば、特許文献1には、車両用機器制御装置が開示されている。車両用機器制御装置は、ユーザの発話に含まれる検索語に対応付けられた複数の制御内容を検索結果として取得する。また、車両用機器制御装置は、表示装置に表示されている画面に基づいて、ユーザが操作しようとした操作対象機器を推定する。車両用機器制御装置は、検索結果に含まれる複数の制御内容のうち、操作対象機器に関連する制御内容から順に整理して表示する。
特開2016-62129号公報
 特許文献1に記載の車両用機器制御装置は、検索結果として複数のアプリケーションに関連する複数の制御内容を1つの画面に列挙して表示する。そのため、ユーザにとっては、制御内容がどのアプリケーションに対応するか瞬時に判断することが難しい。また、車両用機器制御装置は、各制御内容とともに、それに対応するアプリケーション名も画面内に表示するため、表示装置が一行あたりに表示できる文字数の上限を超える場合がある。
 本発明は、以上のような課題を解決するためになされたものであり、発話内容に関連するアプリケーションが表示されている表示装置の表示領域に、その発話内容に関連してアプリケーションが実行する処理の処理対象を表示させる制御を、表示装置に対して行う表示制御装置の提供を目的とする。
 本発明に係る表示制御装置は、発話された音声の発話内容に基づく表示制御を、複数のアプリケーションの各々が表示される表示領域を有する表示装置に対して行う表示制御装置である。表示制御装置は、表示制御部を備える。表示制御部は、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得する。さらに表示制御部は、第1情報に基づいて特定される少なくとも1つのアプリケーションの各々が表示される表示領域に、第2情報に基づいて特定されかつ少なくとも1つのアプリケーションの各々が実行する処理の少なくとも1つの処理対象を、認識候補として表示させる制御を表示装置に対して行う。
 本発明によれば、発話内容に関連するアプリケーションが表示されている表示装置の表示領域に、その発話内容に関連してアプリケーションが実行する処理の処理対象を表示させる制御を、表示装置に対して行う表示制御装置の提供が可能である。
 本発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白になる。
実施の形態1における表示制御装置およびその表示制御装置に関連して動作する装置の構成を示すブロック図である。 実施の形態1における表示制御装置が含む処理回路の一例を示す図である。 実施の形態1における表示制御装置が含む処理回路の別の一例を示す図である。 実施の形態1における表示制御装置の動作を示すフローチャートである。 実施の形態2における表示制御装置およびその表示制御装置に関連して動作する装置の構成を示すブロック図である。 実施の形態2における表示装置であるマルチディスプレイの構成を示す図である。 実施の形態2における第1表示部の第1表示領域を示す図である。 実施の形態2における第2表示部の第2表示領域を示す図である。 実施の形態2における第3表示部の第3表示領域を示す図である。 実施の形態2における表示領域情報を示す図である。 実施の形態2におけるコマンド発話に対して認識された発話音声とトピックとスロットとを示す図である。 実施の形態2における候補選択発話に対して認識された発話音声とトピックとスロットとを示す図である。 実施の形態2におけるトピックとアプリケーションとの対応関係を示す図である。 実施の形態2におけるコマンド発話に対する表示制御装置の動作を示すフローチャートである。 実施の形態2における各表示領域にアプリケーションのトップ画面が表示された状態を示す図である。 実施の形態2における各処理対象と識別記号との関係を示す図である。 実施の形態2における第1表示領域に認識候補が表示された状態を示す図である。 実施の形態2における候補選択発話に対する表示制御装置の動作を示すフローチャートである。 実施の形態2における第1表示領域に処理の実行中の画面が表示された状態を示す図である。 実施の形態2における各表示領域にアプリケーションのトップ画面が表示された状態を示す図である。 実施の形態2における各処理対象と識別記号との関係を示す図である。 実施の形態2における第2表示領域に認識候補が表示された状態を示す図である。 実施の形態2における第2表示領域に処理の実行中の画面が表示された状態を示す図である。 実施の形態2における各表示領域にアプリケーションのトップ画面が表示された状態を示す図である。 実施の形態2における各処理対象と識別記号との関係を示す図である。 実施の形態2における第3表示領域に認識候補が表示された状態を示す図である。 実施の形態2における第3表示領域に処理の実行中の画面が表示された状態を示す図である。 実施の形態2における第3表示領域に発信終了後にトップ画面が表示された状態を示す図である。 実施の形態3における各表示領域にアプリケーションのトップ画面が表示された状態を示す図である。 実施の形態3における各処理対象と識別記号との関係を示す図である。 実施の形態3における各表示領域に認識候補が表示された状態を示す図である。 実施の形態3における第3表示領域に処理の実行中の画面が表示された状態を示す図である。 実施の形態4における各表示領域に認識候補が表示された状態を示す図である。 実施の形態5における各表示領域に認識候補が表示された状態を示す図である。 実施の形態6における各表示領域に認識候補が表示された状態を示す図である。 実施の形態7における表示制御システムの構成を示すブロック図である。
 <実施の形態1>
 (表示制御装置の構成)
 図1は、実施の形態1における表示制御装置10およびその表示制御装置10に関連して動作する装置の構成を示すブロック図である。
 表示制御装置10は、発話された音声の発話内容に基づく表示制御を、複数のアプリケーションの各々が表示される表示領域を有する表示装置20に対して行う表示制御装置である。
 表示装置20は、複数の表示領域を有する。複数の表示領域のそれぞれに対応して複数のアプリケーションが表示される。つまり、1つの表示領域には1つのアプリケーションが表示される。1つの表示領域は、例えば、1つのウィンドウである。また、表示装置20は、複数の表示部を含み、それぞれが個別の表示領域を有するマルチディスプレイであってもよい。または、表示装置20は、1つの表示装置に複数の表示領域を有する構成であってもよい。つまり表示装置20内の異なる位置に各アプリケーションに対応するウィンドウが表示される構成であってもよい。実施の形態1において、表示装置20は、第1表示領域21、第2表示領域22および第3表示領域23を有する。なお、表示領域の数は3つに限られるものではない。
 音声認識装置30は、ユーザが発話した音声を認識し、第1情報および第2情報を表示制御装置10に出力する。第1情報とは、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定可能な情報である。第2情報とは、第1情報により特定される少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を特定可能な情報である。発話音声とは、音声認識装置30による音声認識結果であり、第1情報と第2情報とは、音声認識装置30による意図理解結果である。例えば、音声認識装置30は、ユーザが発話した音声に対応する発話音声を音声認識結果として認識する。さらに音声認識装置30は、発話音声を分析し、第1情報と第2情報とを意図理解結果として出力する。その際、音声認識装置30は、例えば、予め準備された複数の発話内容と第1情報と第2情報とが予め対応付けられたデータベースを参照し、実際に認識された発話内容に対応する第1情報と第2情報とを取得し出力する。データベースは、例えば、過去の発話内容に基づき、予め準備された複数の発話内容と第1情報と第2情報とが統計的に対応付けられた辞書を含む。
 表示制御装置10は、表示制御部1で構成される。表示制御部1は、第1情報と第2情報とを取得する。表示制御部1は、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを第1情報に基づいて特定する。表示制御部1は、第1情報に基づき特定された少なくとも1つのアプリケーションの各々が表示される表示領域を特定する。また、表示制御部1は、第2情報に基づき、発話内容に関連する少なくとも1つの処理対象を特定する。その少なくとも1つの処理対象とは、少なくとも1つのアプリケーションが実行する処理の処理対象である。表示制御部1は、第1情報に基づき特定された少なくとも1つのアプリケーションの各々が表示される表示領域に、第2情報に基づいて特定されかつその少なくとも1つのアプリケーションの各々が実行する処理の少なくとも1つの処理対象を認識候補として表示させる。
 (処理回路)
 図2は表示制御装置10が含む処理回路90の一例を示す図である。表示制御部1の各機能は、処理回路90により実現される。すなわち、処理回路90は、表示制御部1を含む。
 処理回路90が専用のハードウェアである場合、処理回路90は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせた回路等である。表示制御部1の各機能は、複数の処理回路により個別に実現されてもよいし、1つの処理回路によりまとめて実現されてもよい。
 図3は表示制御装置が含む処理回路の別の一例を示す図である。処理回路は、プロセッサ91とメモリ92とを含む。プロセッサ91がメモリ92に格納されるプログラムを実行することにより、表示制御部1の各機能が実現される。例えば、プログラムとして記述されたソフトウェアまたはファームウェアがプロセッサ91により実行されることにより各機能が実現される。すなわち、表示制御装置は、プログラムを格納するメモリ92と、そのプログラムを実行するプロセッサ91とを含む。
 プログラムには、表示制御装置が、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得し、第1情報に基づいて特定される少なくとも1つのアプリケーションの各々が表示される表示領域に、第2情報に基づいて特定されかつ少なくとも1つのアプリケーションの各々が実行する処理の少なくとも1つの処理対象を、認識候補として表示装置20に表示させる機能が記述されている。また、プログラムは、表示制御部1の手順または方法をコンピュータに実行させるものである。
 プロセッサ91は、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリである。または、メモリ92は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、今後使用されるあらゆる記憶媒体であってもよい。
 上述した表示制御部1の各機能は、一部が専用のハードウェアによって実現され、他の一部がソフトウェアまたはファームウェアにより実現されてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現する。
 (表示制御装置10の動作)
 図4は、実施の形態1における表示制御装置10の動作を示すフローチャートである。
 ステップS10にて、表示制御部1は、第1情報および第2情報を音声認識装置30から取得する。
 ステップS20にて、表示制御部1は、第1情報に基づいて、発話内容に関連する少なくとも1つのアプリケーションを特定する。
 ステップS30にて、表示制御部1は、特定された少なくとも1つのアプリケーションが表示される表示領域を特定する。
 ステップS40にて、表示制御部1は、特定された少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を第2情報に基づいて特定する。
 ステップS50にて、表示制御部1は、第1情報に基づいて特定された少なくとも1つのアプリケーションの各々が表示される表示領域に、第2情報に基づいて特定され、その少なくとも1つのアプリケーションが実行する処理の少なくとも1つの処理対象を認識候補として表示させる。
 (効果)
 以上をまとめると、実施の形態1における表示制御装置10は、発話された音声の発話内容に基づく表示制御を、複数のアプリケーションの各々が表示される表示領域を有する表示装置20に対して行う表示制御装置である。表示制御装置10は、表示制御部1を備える。表示制御部1は、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得する。さらに表示制御部1は、第1情報に基づいて特定される少なくとも1つのアプリケーションの各々が表示される表示領域に、第2情報に基づいて特定されかつ少なくとも1つのアプリケーションの各々が実行する処理の少なくとも1つの処理対象を、認識候補として表示させる制御を表示装置20に対して行う。
 以上の構成により、表示制御装置10は、発話内容に関連するアプリケーションが表示されている表示領域(または表示位置、ウィンドウ)に、発話内容に関連してそのアプリケーションが処理を実行するための認識候補を表示させる。認識候補が表示された位置がアプリケーションに直接関連しているため、認識候補にアプリケーションの名称等を付与して表示する必要がない。よって、1つの表示領域内に一度に多くの認識候補を表示することが可能となり、また、認識候補を表示するための上限文字列数が増加する。表示制御装置10は、限られたスペースを有する表示領域に、多くの情報を表示することを可能とする。また、表示制御装置10は、認識候補が表示された表示領域に基づき、いずれのアプリケーションに対する認識候補であるかをユーザが判別することを容易にする。また、音声認識装置が発話を誤認識した場合、ユーザが意図したアプリケーションとは異なるアプリケーションが表示される表示領域に認識候補が表示される。つまり、音声認識装置が発話を誤認識した場合、表示制御装置10は、ユーザがその誤認識を判別することを容易にする。
 また、実施の形態1における表示制御方法は、発話された音声の発話内容に基づく表示制御を、複数のアプリケーションの各々が表示される表示領域を有する表示装置20に対して行う表示制御方法である。表示制御方法は、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得し、第1情報に基づいて特定される少なくとも1つのアプリケーションの各々が表示される表示領域に、第2情報に基づいて特定されかつ少なくとも1つのアプリケーションの各々が実行する処理の少なくとも1つの処理対象を、認識候補として表示させる制御を表示装置20に対して行う。
 以上の構成により、表示制御方法は、発話内容に関連するアプリケーションが表示されている表示領域(表示位置)に、発話内容に関連してそのアプリケーションが処理を実行するための認識候補を表示させる。認識候補が表示された位置がアプリケーションに直接関連しているため、認識候補にアプリケーションの名称等を付与して表示する必要がない。よって、1つの表示領域内に一度に多くの認識候補を表示することが可能となり、また、認識候補を表示するための上限文字列数が増加する。表示制御方法は、限られたスペースを有する表示領域に、多くの情報を表示することを可能とする。また、表示制御方法は、認識候補が表示された表示領域に基づき、いずれのアプリケーションに対する認識候補であるかをユーザが判別することを容易にする。また、音声認識装置が発話を誤認識した場合、ユーザが意図したアプリケーションとは異なるアプリケーションが表示される表示領域に認識候補が表示される。つまり、音声認識装置が発話を誤認識した場合、表示制御方法は、ユーザがその誤認識を判別することを容易にする。
 <実施の形態2>
 実施の形態2における表示制御装置および表示制御方法を説明する。なお、実施の形態1と同様の構成および動作については説明を省略する。
 (表示制御装置の構成)
 図5は、実施の形態2における表示制御装置11およびその表示制御装置11に関連して動作する装置の構成を示すブロック図である。
 音声入力装置40は、ユーザが音声を入力する装置である。
 表示装置20は、実施の形態2において、マルチディスプレイである。表示装置20は、3つの表示領域を有する。表示装置20は、第1表示領域21を有する第1表示部210、第2表示領域22を有する第2表示部220および第3表示領域23を有する第3表示部230を含む。
 表示制御装置11は、表示領域管理部2、音声認識部3および表示制御部1を含む。
 表示領域管理部2は、アプリケーションとそのアプリケーションが表示される表示領域との対応関係である表示領域情報を管理する。また、表示領域管理部2は、アプリケーションが表示される表示位置を管理してもよい。表示領域情報は、例えば表示領域管理部2に予め記憶されている。表示領域管理部2は、表示領域情報を表示制御部1に通知する。表示領域管理部2は、例えば、アプリケーションマネジャー(Application manager)である。
 音声認識部3は、記憶部4を含み、その記憶部4は、予め準備された複数の発話内容と第1情報と第2情報とが対応付けられたデータベースを記憶する。音声認識部3は、実施の形態1に示された音声認識装置30と同様の機能を有する。
 音声認識部3は、音声入力装置40に入力されたユーザの音声を取得して認識する。実施の形態2においては、音声認識部3は、3つの表示領域のそれぞれに異なるアプリケーションが表示されている状態で、ユーザが発話した音声を認識する。音声認識部3は、データベースを参照して発話内容に関連する第1情報および第2情報を特定し、表示制御部1に出力する。音声認識部3は、例えば音声認識エンジン(Voice recognition engine)である。
 表示制御部1は、音声認識部3が出力する第1情報と第2情報とを取得する。表示制御部1は、第1情報に基づいて、複数のアプリケーションのうち発話内容に関連する少なくとも1つのアプリケーションを特定する。その際、表示制御部1は、第1情報と予め登録されていた複数のアプリケーションとの対応関係を参照して特定する。その対応関係は、例えば表示制御部1に予め記憶されている。表示制御部1は、特定された少なくとも1つのアプリケーションが表示される表示領域を、表示領域管理部2が管理する表示領域情報に基づいて、特定する。また、表示制御部1は、特定された少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を第2情報に基づき特定する。表示制御部1は、第1情報に基づいて特定されたアプリケーションが表示される表示領域に、第2情報に基づいて特定された各処理対象を認識候補として表示させる。表示制御部1は、例えば音声認識マネジャー(Voice recognition manager)である。
 図6は、車両内部に設けられたマルチディスプレイの構成を示す図である。マルチディスプレイである表示装置20は、車両のコックピットに搭載されている。マルチディスプレイを構成する第1表示部210、第2表示部220および第3表示部230は、車両内部に個別に設けられている。第1表示部210、第2表示部220および第3表示部230は、例えば、設置位置の高い順に配置される。または、例えば、第1表示部210、第2表示部220および第3表示部230は、運転席または助手席に近い順に配置される。各表示部は、ユーザが視認しやすい順に配置される。
 図7は、第1表示部210の第1表示領域21を示す図である。第1表示領域21には、アプリケーションとしてナビゲーションが表示される。図7においては、その初期状態または待機状態に対応するトップ画面(Top)が表示されている。ナビゲーションは、地図(MAP)を表示する。また、ナビゲーションは、設定された目的地に誘導する機能を有する。実施の形態1においては、ナビゲーションは、音声認識部3にて認識される発話内容に含まれる名前に基づいて特定される家に案内する機能を有する。
 図8は、第2表示部220の第2表示領域22を示す図である。第2表示領域22には、アプリケーションとしてメディアプレーヤーが表示される。図8においては、そのトップ画面(Top)が表示されている。メディアプレーヤーは、曲名(Album title)を表示する。また、メディアプレーヤーは、音楽を吹鳴する機能を有する。実施の形態1においては、メディアプレーヤーは、音声認識部3にて認識される発話内容に含まれる名前に基づいて特定されるアーティストの曲を再生する機能を有する。
 図9は、第3表示部230の第3表示領域23を示す図である。第3表示領域23には、アプリケーションとしてフォンが表示される。図9においては、そのトップ画面(Top)が表示されている。フォンは、電話帳(Phonebook)を表示する。また、フォンは、通話する機能を有する。実施の形態1においては、フォンは、音声認識部3にて認識される発話内容に含まれる名前に基づいて特定される相手に電話をかける機能を有する。
 図10は、表示領域管理部2が管理する表示領域情報を示す図である。表示領域情報には、第1表示領域21にナビゲーションが表示され、第2表示領域22にメディアプレーヤーが表示され、第3表示領域23にフォンが表示されることが格納されている。表示領域情報は、例えば、図10に示されるテーブルを含む。
 実施の形態2においては、音声認識部3は、コマンド発話および候補選択発話の音声を認識する。コマンド発話とは、各アプリケーションが実行する処理を指定する発話である。また、候補選択発話とは、各アプリケーションが実行する処理の処理対象を複数の認識候補から指定する発話である。また、音声認識部3は、ユーザの発話内容に関連するトピックおよびスロットを出力する。トピックは、第1情報を含み、コマンドの種類に対応する。スロットは、第2情報を含み、コマンドに付随するパラメータである。
 図11は、コマンド発話に対して音声認識部3にて認識される発話音声と表示制御部1に出力されるトピックおよびスロットを示す図である。例えば、ユーザがナビゲーションに目的地までの案内処理を実行させるため、音声入力装置40に“Navigate to John Smith”(「ジョン・スミスに案内して」)と発話する。音声認識部3は、“Navigate to John Smith”を発話内容として認識する。音声認識部3は、記憶部4に記憶されているデータベースを参照し、発話内容に含まれるNavigate(案内)に関連するトピックとして“NAV.navigateName”を出力する。また、音声認識部3は、発話内容に含まれるJohn Smith(ジョン・スミス)に関連するスロットとして“John Smith”を出力する。トピック“NAV.navigateName”は、ナビゲーションに対し予め登録されている名前の中から特定の名前に対応する地点を目的地に設定し案内することを要求する。すなわち、発話内容に関連して特定されるアプリケーションであるナビゲーションは、トピック“NAV.navigateName”およびスロット“John Smith”に基づき、予め登録されている名前の中からJohn Smithで記憶されている場所を目的地に設定し、その目的地まで案内する処理を実行する。また、図11において、トピック“MPL.playArtist”は、メディアプレーヤーに対し予め登録されている名前の中から特定の名前に対応するアーティストの曲の再生を要求する。トピック“PHN.callName”は、フォンに対し予め登録されている名前の中から特定の名前に対応する電話番号に電話をかけることを要求する。以上のように、音声認識部3は、ユーザの要求をトピックとスロットとして認識する。つまり、トピックおよびスロットは、音声認識部3による意図理解結果である。また、図11に示される発話内容は、一例であり、それらに限定されるものではない。例えば、トピック“NAV.navigateName”に対応付けられる発話内容は、ユーザがナビゲーションに案内を命令するあらゆるコマンド発話が含まれる。それらのあらゆるコマンド発話は、記憶部4のデータベースに記憶されている。また、それらのあらゆるコマンド発話は、音声認識部3によって学習され蓄積される。
 図12は、候補選択発話に対して音声認識部3にて認識された発話音声と表示制御部1に出力するトピックおよびスロットを示す図である。例えば、ナビゲーションが目的地までの案内処理を実行するに際し、その案内処理の処理対象である複数の目的地が認識候補として表示領域に表示されているとする。ユーザがナビゲーションに目的地を指定するため、音声入力装置40に“Select number one”(「1番を選択」)と発話する。例えば、音声認識部3が“Select number one”を発話内容と認識した場合、記憶部4に記憶されているデータベースを参照し、Select(選択)に関連するトピックとして“CMD.selectNbest”を出力する。また、音声認識部3は、Number one(1番)に関連するスロットとして“Number one”を出力する。これは、ID(Identification)=1に対応する認識候補が選択される処理である。
 図13は、第1情報を含むトピックとアプリケーションとの対応関係を示す図である。ここでは、3つのアプリケーションのそれぞれに対応するトピックがテーブルに格納されている。
 (表示制御装置の動作:ナビゲーションに対する表示制御動作)
 図14は、実施の形態2におけるコマンド発話に対する表示制御装置11の動作を示すフローチャートである。まず、3つのアプリケーションのうちナビゲーションに対する表示制御動作を説明する。音声認識により登録された名前を含むコマンドが認識された場合、ナビゲーションはその人物の家を目的地に設定することができる。ここでは、ナビゲーションに対して登録されている人物の名前は、John Smith(ジョン・スミス)とJosh Smith(ジョシュ・スミス)である。図15は、各表示領域にアプリケーションのトップ画面(Top)が表示された状態を示す図である。
 ステップS100にて、音声認識部3は、発話された音声を認識する。すなわち、ユーザがナビゲーションに対するコマンド発話を音声入力装置40に入力し、音声認識部3は、その音声を認識する。ここでは、ユーザは、“Navigate to John Smith”(「ジョン・スミスに案内して」)と発話する。“John Smith”の発音と“Josh Smith”の発音とは類似している。そのため、音声認識部3は、“Navigate to John Smith”(「ジョン・スミスに案内して」)および“Navigate to Josh Smith”(「ジョシュ・スミスに案内して」)を発話内容として認識する。以下、“Navigate to John Smith”を第1発話内容、“Navigate to Josh Smith”を第2発話内容という。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。図11に示されるように、ナビゲーションに対応するデータベースには、予め準備された発話内容として、“Navigate to John Smith”と“Navigate to Josh Smith”と“John Smith”と“Josh Smith”とが格納されている。音声認識部3は、そのデータベースを参照し、第1発話内容である“Navigate to John Smith”に対応付けられるトピックとして“NAV.navigateName”を出力し、さらに、スロットとして“John Smith”を出力する。同様に、音声認識部3は、第2発話内容である“Navigate to Josh Smith”に対応付けられるトピック“NAV.navigateName”およびスロット“Josh Smith”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS130にて、表示制御部1は、第1情報に基づいて、発話内容に関連する少なくとも1つのアプリケーションを特定する。第1発話内容および第2発話内容ともに、第1情報を含むトピックは“NAV.navigateName”である。表示制御部1は、図13に示される対応関係に基づき、発話内容に関連するアプリケーションとしてナビゲーションを特定する。
 ステップS140にて、表示制御部1は、特定された少なくとも1つのアプリケーションが表示される表示領域を表示領域情報に基づいて特定する。表示制御部1は、図10に示される表示領域情報に基づき、3つの表示領域のうちナビゲーションが表示されている第1表示領域21を特定する。
 ステップS150にて、表示制御部1は、特定された少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を第2情報に基づいて特定する。ここでは、特定されたアプリケーションであるナビゲーションが実行し、かつ、発話内容に関連する処理は、トピック“NAV.navigateName”に対応する処理である。“NAV.navigateName”は、予め登録されている名前の中から特定の名前に対応する地点を目的地に設定し、その目的地へ案内する処理を意味する。すなわち、ナビゲーションが実行する処理の処理対象は、目的地である。第1発話内容に対応付けられたスロットは“John Smith”であり、第2発話内容に対応付けられたスロットは“Josh Smith”である。表示制御部1は、各スロットに基づいて、各処理対象を、つまり、目的地を、“John Smith”に対応する地点および“Josh Smith”に対応する地点に特定する。
 ステップS160にて、表示制御部1は、各処理対象に識別記号を付与する。図16は、各処理対象と識別記号との関係を示す図である。表示制御部1は、“John Smith”に識別記号としてID番号「1」を付与する。また、表示制御部1は、“Josh Smith”にID番号「2」を付与する。
 ステップS170にて、表示制御部1は、各処理対象と識別記号との関係を記憶する。表示制御部1は、例えば、図16に示されるような、各処理対象と識別記号とが格納されたテーブルを記憶する。
 ステップS180にて、表示制御部1は、識別記号とともに、各処理対象を認識候補として、各アプリケーションが表示される表示領域に表示させる。図17は、第1表示領域21に認識候補が表示された状態を示す図である。表示制御部1は、ID番号とともに、スロット“John Smith”および“Josh Smith”を認識候補として、第1表示領域21に表示させる。第1表示領域21には、“1. John Smith”と“2. Josh Smith”とが表示される。この際、ナビゲーションは、目的地設定(Set destination)の画面を表示している。また発話内容に関連するトピックがなかったメディアプレーヤーおよびフォンには、認識候補は表示されない。
 図18は、実施の形態2における候補選択発話に対する表示制御装置11の動作を示すフローチャートである。
 ステップS100にて、音声認識部3は、発話された音声を認識する。すなわち、ユーザがナビゲーションに対する候補選択発話を音声入力装置40に入力し、音声認識部3は、その音声を認識する。ここでは、ユーザは、図17に示された認識候補に基づき“Select number one”(「1番を選択」)と発話する。音声認識部3は、その発話に対して、“Select number one”を認識する。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。図12に示されるように、候補選択発話に対応するデータベースには、予め準備された発話内容として、“Number one”(「1番」)と“Select number one”(「1番を選択」)とがそれぞれ格納されている。音声認識部3は、データベースを参照し、発話内容である“Select number one”に対応付けられるトピック“CMD.selectNbest”およびスロット“Number one”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS230にて、表示制御部1は、第1情報に基づいて、第2情報から発話内容に対応する識別記号を取得する。表示制御部1は、トピック“CMD.selectNbest”に基づき、スロット“Number one”に対応するID番号を取得する。この場合、ID番号は「1」が取得される。
 ステップS240にて、表示制御部1は、各処理対象と識別記号との関係に基づき、発話内容に対応する処理対象を選択する。表示制御部1は、図16に示される各処理対象と識別記号との関係に基づき、発話された識別記号に対応するスロット“John Smith”を選択する。以上により、アプリケーションが実行する処理の処理対象が決定される。すなわち、ナビゲーションが設定する目的地が、“John Smith”に対応する地点に決定される。
 ステップS250にて、表示制御部1は、アプリケーションに処理の実行を依頼する。表示制御部1は、ナビゲーションに“John Smith”に対応する地点まで誘導するよう依頼する。
 ステップS260にて、表示制御部1は、アプリケーションが表示される表示領域に、そのアプリケーションが処理を実行中であることを表示させる。図19は、第1表示領域21に処理の実行中の画面が表示された状態を示す図である。表示制御部1は、ナビゲーションが表示される第1表示領域21において、“John Smith”に対応する地点である“John Smith's home”(「ジョン・スミスの家」)までの経路等を地図(MAP)上に表示させる。また、表示制御部1は、その第1表示領域21にトップ画面(Top)を表示させる。以上の動作において、メディアプレーヤーが表示される第2表示領域22およびフォンが表示される第3表示領域23は、トップ画面のまま変化しない。
 (表示制御装置の動作:メディアプレーヤーに対する表示制御動作)
 次に図14に示されるコマンド発話に対する動作を示すフローチャートに従い、3つのアプリケーションのうちメディアプレーヤーに対する表示制御動作を説明する。音声認識により登録された名前を含むコマンドが認識された場合、メディアプレーヤーはその名前のアーティストの曲を選択して再生することができる。ここでは、メディアプレーヤーに対して登録されている人物の名前は、Joan Smith(ジョーン・スミス)とJosh Smith(ジョシュ・スミス)である。図20は、各表示領域にアプリケーションのトップ画面(Top)が表示された状態を示す図である。
 ステップS100にて、音声認識部3は、発話された音声を認識する。ここでは、ユーザは、“Play Joan Smith”(「ジョーン・スミスを再生して」)と発話する。“Joan Smith”の発音と“Josh Smith”の発音とは類似している。そのため、音声認識部3は、“Play Joan Smith”(「ジョーン・スミスを再生して」)および“Play Josh Smith”(「ジョシュ・スミスを再生して」)を発話内容として認識する。以下、“Play Joan Smith”を第3発話内容、“Play Josh Smith”を第4発話内容という。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。図11に示されるように、メディアプレーヤーに対応するデータベースには、予め準備された発話内容として、“Play Joan Smith”と“Play Josh Smith”と“Joan Smith”と“Josh Smith”とが格納されている。音声認識部3は、そのデータベースを参照し、第3発話内容である“Play Joan Smith”に対応付けられるトピックとして“MPL.playArtist”およびスロットとして“Joan Smith”を出力する。同様に、音声認識部3は、第4発話内容である“Play Josh Smith” に対応付けられるトピックとして“MPL.playArtist”およびスロットとして“Josh Smith”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS130にて、表示制御部1は、発話内容に関連する少なくとも1つのアプリケーションを第1情報に基づいて特定する。第3発話内容および第4発話内容ともに、第1情報を含むトピックは“MPL.playArtist”である。表示制御部1は、図13に示される対応関係に基づき、発話内容に関連するアプリケーションとしてメディアプレーヤーを特定する。
 ステップS140にて、表示制御部1は、特定された少なくとも1つのアプリケーションが表示される表示領域を表示領域情報に基づいて特定する。表示制御部1は、図10に示される表示領域情報に基づき、3つの表示領域のうちメディアプレーヤーが表示されている第2表示領域22を特定する。
 ステップS150にて、表示制御部1は、特定された少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を第2情報に基づいて特定する。ここでは、特定されたアプリケーションであるメディアプレーヤーが実行し、かつ、発話内容に関連する処理は、トピック“MPL.playArtist”に対応する処理である。“MPL.playArtist”は、予め登録されている名前の中から特定の名前に対応するアーティストの曲を再生する処理を意味する。すなわち、メディアプレーヤーが実行する処理の処理対象は、アーティストの曲である。第3発話内容に対応付けられたスロットは“Joan Smith”であり、第4発話内容に対応付けられたスロットは“Josh Smith”である。表示制御部1は、各スロットに基づいて、各処理対象を、つまり、アーティストの曲を、“Joan Smith”に対応する曲および“Josh Smith”に対応する曲に特定する。
 ステップS160にて、表示制御部1は、各処理対象に識別記号を付与する。図21は、各処理対象と識別記号との関係を示す図である。表示制御部1は、“Joan Smith”に識別記号としてID番号「1」を付与する。また、表示制御部1は、“Josh Smith”にID番号「2」を付与する。
 ステップS170にて、表示制御部1は、各処理対象と識別記号との関係を記憶する。表示制御部1は、例えば、図21に示されるような、各処理対象と識別記号とが格納されたテーブルを記憶する。
 ステップS180にて、表示制御部1は、識別記号とともに、各処理対象を認識候補として、各アプリケーションが表示される表示領域に表示させる。図22は、第2表示領域22に認識候補が表示された状態を示す図である。表示制御部1は、ID番号とともに、スロット“Joan Smith”および“Josh Smith”を認識候補として、第2表示領域22に表示させる。第2表示領域22には、“1. Joan Smith”と“2. Josh Smith”とが表示される。この際、メディアプレーヤーは、アーティストによる音楽再生(Play by artist)の画面を表示している。また発話内容に関連するトピックがなかったナビゲーションおよびフォンには、認識候補は表示されない。
 次に候補選択発話に対する表示制御装置11の動作を図18に示されるフローチャートに従い説明する。
 ステップS100にて、音声認識部3は、発話された音声を認識する。すなわち、ユーザがメディアプレーヤーに対する候補選択発話を音声入力装置40に入力し、音声認識部3は、その音声を認識する。ここでは、ユーザは、図22に示された認識候補に基づき“Select number one”(「1番を選択」)と発話する。音声認識部3は、その発話に対して、“Select number one”を認識する。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。音声認識部3は、図12に示される候補選択発話に対応するデータベースを参照し、発話内容である“Select number one”に対応付けられるトピック“CMD.selectNbest”およびスロット“Number one”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS230にて、表示制御部1は、第1情報に基づいて、第2情報から発話内容に対応する識別記号を取得する。表示制御部1は、トピック“CMD.selectNbest”に基づき、スロット“Number one”に対応するID番号を取得する。この場合、ID番号は「1」が取得される。
 ステップS240にて、表示制御部1は、各処理対象と識別記号との関係に基づき、発話内容に対応する処理対象を選択する。表示制御部1は、図21に示される各処理対象と識別記号との関係に基づき、発話された識別記号に対応するスロット“Joan Smith”を選択する。以上により、アプリケーションが実行する処理の処理対象が決定される。すなわち、メディアプレーヤーが再生するアーティストの曲が、“Joan Smith”に対応する曲に決定される。
 ステップS250にて、表示制御部1は、アプリケーションに処理の実行を依頼する。表示制御部1は、メディアプレーヤーに“Joan Smith”に対応する曲を再生するよう依頼する。
 ステップS260にて、表示制御部1は、アプリケーションが表示される表示領域に、そのアプリケーションが処理を実行中であることを表示させる。図23は、第2表示領域22に処理の実行中の画面が表示された状態を示す図である。表示制御部1は、メディアプレーヤーが表示される第2表示領域22において、“Joan Smith”に対応する曲名である“Joan Smith Best”(「ジョーン・スミス ベスト」)の情報等を表示させる。メディアプレーヤーは、音楽を再生する。また、表示制御部1は、その第2表示領域22にトップ画面(Top)を表示させる。ナビゲーションが表示される第1表示領域21およびフォンが表示される第3表示領域23は、トップ画面のまま変化しない。
 (表示制御装置の動作:フォンに対する表示制御動作)
 次に図14に示されるコマンド発話に対する動作を示すフローチャートに従い、3つのアプリケーションのうちフォンに対する表示制御動作を説明する。音声認識により登録された名前を含むコマンドが認識された場合、フォンはその名前つまりコンタクト名に該当する相手に電話をかけることができる。ここでは、フォンに対して登録されている人物の名前は、Joe Smith(ジョー・スミス)とJosh Smith(ジョシュ・スミス)である。図24は、各表示領域にアプリケーションのトップ画面(Top)が表示された状態を示す図である。
 ステップS100にて、音声認識部3は、発話された音声を認識する。ここでは、ユーザは、“Call Joe Smith”(「ジョー・スミスに電話して」)と発話する。“Joe Smith”の発音と“Josh Smith”の発音とは類似している。そのため、音声認識部3は、“Call Joe Smith”(「ジョー・スミスに電話して」)および“Call Josh Smith”(「ジョシュ・スミスに電話して」)を発話内容として認識する。以下、“Call Joe Smith”を第5発話内容、“Call Josh Smith”を第6発話内容という。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。図11に示されるように、フォンに対応するデータベースには、予め準備された発話内容として、“Call Joe Smith”と“Call Josh Smith”と“Joe Smith”と“Josh Smith”とが格納されている。音声認識部3は、そのデータベースを参照し、第5発話内容である“Call Joe Smith”に対応付けられるトピックとして“PHN.callName”およびスロットとして“Joe Smith”を出力する。同様に、音声認識部3は、第6発話内容である“Call Josh Smith”に対応付けられるトピックとして“PHN.callName”およびスロットとして“Josh Smith”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS130にて、表示制御部1は、発話内容に関連する少なくとも1つのアプリケーションを第1情報に基づいて特定する。第5発話内容および第6発話内容ともに、第1情報を含むトピックは“PHN.callName”である。表示制御部1は、図13に示される対応関係に基づき、発話内容に関連するアプリケーションとしてフォンを特定する。
 ステップS140にて、表示制御部1は、特定された少なくとも1つのアプリケーションが表示される表示領域を表示領域情報に基づいて特定する。表示制御部1は、図10に示される表示領域情報に基づき、3つの表示領域のうちフォンが表示されている第3表示領域23を特定する。
 ステップS150にて、表示制御部1は、特定された少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を第2情報に基づいて特定する。ここでは、特定されたアプリケーションであるフォンが実行し、かつ、発話内容に関連する処理は、トピック“PHN.callName”に対応する処理である。“PHN.callName”は、予め登録されている名前の中から特定の名前に対応する電話番号に電話をかける処理を意味する。すなわち、フォンが実行する処理の処理対象は、電話をかける相手の名前である。第5発話内容に対応付けられたスロットは“Joe Smith”であり、第6発話内容に対応付けられたスロットは“Josh Smith”である。表示制御部1は、各スロットに基づいて、電話をかける対象を、“Joe Smith”に対応する電話番号および“Josh Smith”に対応する電話番号に特定する。
 ステップS160にて、表示制御部1は、各処理対象に識別記号を付与する。図25は、各処理対象と識別記号との関係を示す図である。表示制御部1は、“Joe Smith”に識別記号としてID番号「1」を付与する。また、表示制御部1は、“Josh Smith”にID番号「2」を付与する。
 ステップS170にて、表示制御部1は、各処理対象と識別記号との関係を記憶する。表示制御部1は、例えば、図25に示されるような、各処理対象と識別記号とが格納されたテーブルを記憶する。
 ステップS180にて、表示制御部1は、識別記号とともに、各処理対象を認識候補として、各アプリケーションが表示される表示領域に表示させる。図26は、第3表示領域23に認識候補が表示された状態を示す図である。表示制御部1は、ID番号とともに、スロット“Joe Smith”および“Josh Smith”を認識候補として、フォンが表示されている第3表示領域23に表示させる。第3表示領域23には、“1. Joe Smith”と“2. Josh Smith”とが表示される。この際、フォンは、名前呼び出し(Call by name)の画面を表示している。また発話内容に関連するトピックがなかったナビゲーションおよびメディアプレーヤーには、認識候補は表示されない。
 次に候補選択発話に対する表示制御装置11の動作を図18に示されるフローチャートに従い説明する。
 ステップS100にて、音声認識部3は、発話された音声を認識する。すなわち、ユーザがフォンに対する候補選択発話を音声入力装置40に入力し、音声認識部3は、その音声を認識する。ここでは、ユーザは、図26に示された認識候補に基づき“Select number one”(「1番を選択」)と発話する。音声認識部3は、その発話に対して、“Select number one”を認識する。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。音声認識部3は、図12に示される候補選択発話に対応するデータベースを参照し、発話内容である“Select number one”に対応付けられるトピック“CMD.selectNbest”およびスロット“Number one”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS230にて、表示制御部1は、第1情報に基づいて、第2情報から発話内容に対応する識別記号を取得する。表示制御部1は、トピック“CMD.selectNbest”に基づき、スロット“Number one”に対応するID番号を取得する。この場合、ID番号は「1」が取得される。
 ステップS240にて、表示制御部1は、各処理対象と識別記号との関係に基づき、発話内容に対応する処理対象を選択する。表示制御部1は、図25に示される各処理対象と識別記号との関係に基づき、発話された識別記号に対応するスロット“Joe Smith”を選択する。以上により、アプリケーションが実行する処理の処理対象が決定される。すなわち、フォンが電話をかける電話番号が、“Joe Smith”に対応する電話番号に決定される。
 ステップS250にて、表示制御部1は、アプリケーションに処理の実行を依頼する。表示制御部1は、フォンに“Joe Smith”に対応する電話番号に電話をかけるよう依頼する。
 ステップS260にて、表示制御部1は、アプリケーションが表示される表示領域に、そのアプリケーションが処理を実行中であることを表示させる。図27は、第3表示領域23に処理の実行中の画面が表示された状態を示す図である。表示制御部1は、フォンが表示される第3表示領域23において、“Joe Smith”に対応する電話番号を含む情報として、“Calling Joe Smith 0123-455-7889”(「ジョー・スミスに電話中 0123-455-7889」)等の情報を表示させる。この際、表示制御部1は、電話中(Calling)の画面を表示させる。表示制御装置11は、フォンの発信が終了すると、トップ画面(Top)を第3表示領域23に表示させる。図28は、第3表示領域23に発信終了後にトップ画面(Top)が表示された状態を示す図である。以上の動作において、ナビゲーションが表示される第1表示領域21およびメディアプレーヤーが表示される第2表示領域22は、トップ画面のまま変化しない。
 なお、マルチディスプレイを構成する上記の表示領域の個数は、一例であり、3つに限られるものではない。また、各表示領域に表示される上記の3つのアプリケーションは、一例であり、それらに限定されるものではない。また、識別記号は、ID番号に限られるものではなく、複数の処理対象のそれぞれが識別可能であれば文字、符号、記号、これらの組み合わせ等であってもよい。
 (効果)
 認識候補が表示された位置がアプリケーションに直接関連しているため、認識候補にアプリケーションの名称であるナビゲーション、メディアプレーヤー、フォン等を付与して表示する必要がない。よって、1つの表示領域内に一度に多くの認識候補を表示することが可能となり、また、認識候補を表示するための上限文字列数が増加する。表示制御装置11は、限られたスペースを有する表示領域に、多くの情報を表示することを可能とする。
 以上をまとめると、実施の形態2における表示制御装置11は、発話された音声を認識し、音声を認識して得られる発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、発話内容に関連する第1情報と第2情報とを表示制御部1に出力する音声認識部3をさらに備える。音声認識部3は、データベースを記憶する記憶部4を含む。
 以上の構成により、表示制御装置11は、発話内容に関連するアプリケーションと処理対象とを効率的に特定することができる。
 また、実施の形態2における表示制御装置11は、各アプリケーションと各アプリケーションが表示される表示領域との対応関係である表示領域情報を管理する表示領域管理部2をさらに備える。表示制御部1は、第1情報に基づいて特定される少なくとも1つのアプリケーションの各々が表示される表示領域を、表示領域管理部2にて取得された表示領域情報に基づいて特定する。
 以上の構成により、表示制御装置11は、アプリケーションが表示される表示領域が変更され得る場合においても、発話内容に関連するアプリケーションの表示位置に、表示装置20が処理対象を正確に表示するよう制御できる。
 <実施の形態3>
 実施の形態3における表示制御装置11および表示制御方法を説明する。なお、実施の形態1または2と同様の構成および動作については説明を省略する。
 実施の形態3において、第2情報に基づいて特定される少なくとも1つの処理対象は、複数の処理対象を含む。表示制御部1は、複数の処理対象の各々に互いに重複しない識別記号を付与し、各処理対象を認識候補として識別記号とともに表示領域に表示させる。また、表示制御部1は、認識候補が表示される表示領域ごとに予め定められる優先度に応じて、複数の処理対象の各々に識別記号を付与する。
 実施の形態3における表示制御動作を、図14に示されるコマンド発話に対する動作を示すフローチャートに従い説明する。ここでは、複数のアプリケーションに対する表示制御動作を説明する。図29は、各表示領域にアプリケーションのトップ画面(Top)が表示された状態を示す図である。
 ステップS100にて、音声認識部3は、発話された音声を認識する。ここでは、ユーザは、“Joe Smith”(「ジョー・スミス」)と発話する。音声認識部3は、その発話の音声に類似する“John Smith”(「ジョン・スミス」)と“Josh Smith”(「ジョシュ・スミス」)と“Joan Smith”(「ジョーン・スミス」)と“Joe Smith”(「ジョー・スミス」)とを発話内容として認識する。以下、“John Smith”を第7発話内容、“Joan Smith”を第8発話内容、“Joe Smith”を第9発話内容、“Josh Smith”を第10発話内容という。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。音声認識部3は、図11に示されるコマンド発話に対応するデータベースを参照し、第7発話内容である“John Smith”に対応付けられるトピック“NAV.navigateName”およびスロット“John Smith”を出力する。同様に、音声認識部3は、第8発話内容である“Joan Smith”に対応付けられるトピック“MPL.playArtist”およびスロット“Joan Smith”を出力する。音声認識部3は、第9発話内容である“Joe Smith”に対応付けられるトピック“PHN.callName”およびスロット“Joe Smith”を出力する。音声認識部3は、第10発話内容である“Josh Smith”に対応付けられる3つのトピック“NAV.navigateName”と“MPL.playArtist”と“PHN.callName”とスロット“Josh Smith”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS130にて、表示制御部1は、発話内容に関連する少なくとも1つのアプリケーションを第1情報に基づいて特定する。表示制御部1は、図13に示される対応関係に基づき、発話内容に関連するアプリケーションを特定する。第7発話内容および第10発話内容のトピックは“NAV.navigateName”であるため、アプリケーションはナビゲーションである。第8発話内容および第10発話内容のトピックは“MPL.playArtist”であるため、アプリケーションはメディアプレーヤーである。第9発話内容および第10発話内容のトピックは“PHN.callName”であるため、アプリケーションはフォンである。
 ステップS140にて、表示制御部1は、特定された少なくとも1つのアプリケーションが表示される表示領域を表示領域情報に基づいて特定する。実施の形態3においては、表示制御部1は、3つアプリケーションが表示される各表示領域を表示領域情報に基づいて特定する。すなわち、表示制御部1は、図10に示される表示領域情報に基づき、ナビゲーションが表示されている第1表示領域21、メディアプレーヤーが表示されている第2表示領域22、および、フォンが表示されている第3表示領域23を特定する。
 ステップS150にて、表示制御部1は、特定された少なくとも1つのアプリケーションが実行する処理の処理対象であって、発話内容に関連する少なくとも1つの処理対象を第2情報に基づいて特定する。ここでは、表示制御部1は、第7発話内容および第10発話内容の各スロットに基づいて、ナビゲーションが設定する目的地を、“John Smith”に対応する地点および“Josh Smith”に対応する地点に特定する。表示制御部1は、第8発話内容および第10発話内容の各スロットに基づいて、メディアプレーヤーが再生するアーティストの曲を、“Joan Smith”に対応する曲および“Josh Smith”に対応する曲に特定する。表示制御部1は、第9発話内容および第10発話内容の各スロットに基づいて、フォンが電話をかける相手を、“Joe Smith”に対応する電話番号および“Josh Smith”に対応する電話番号に特定する。
 ステップS160にて、表示制御部1は、各処理対象に識別記号を付与する。この際、表示制御部1は、複数の処理対象の各々に互いに重複しない識別記号を付与する。図30は、各処理対象と識別記号との関係を示す図である。表示制御部1は、各処理対象にそれぞれ異なるID番号「1」から「6」を付与する。また、表示制御部1は、表示領域ごとに予め定められる優先度に応じて識別記号を付与する。その優先度は、例えば、表示領域情報に格納され、表示制御部1がその表示領域情報を参照する。また、優先度は、例えば、車両内部の各表示領域の位置に応じて予め設定される。例えば、各表示領域が位置する高さが高い順に優先度が設定される。または、例えば、各表示領域は、運転席または助手席に近い順に優先度が設定される。実施の形態3においては、第1表示領域21、第2表示領域22、第3表示領域23の順に優先度が予め設定されている。
 ステップS170にて、表示制御部1は、各処理対象と識別記号との関係を記憶する。表示制御部1は、例えば、図30に示されるような、各処理対象と識別記号とが格納されたテーブルを記憶する。
 ステップS180にて、表示制御部1は、識別記号とともに、各処理対象を認識候補として、各アプリケーションが表示される表示領域に表示させる。図31は、各表示領域に認識候補が表示された状態を示す図である。表示制御部1は、ID番号とともに、スロット“John Smith”および“Josh Smith”を認識候補として、第1表示領域21に表示させる。この際、ナビゲーションは、目的地設定(Set destination)の画面を表示している。表示制御部1は、ID番号とともに、スロット“Joan Smith”および“Josh Smith”を認識候補として、第2表示領域22に表示させる。この際、メディアプレーヤーは、再生アーティスト(Play by artist)の画面を表示している。表示制御部1は、ID番号とともに、スロット“Joe Smith”および“Josh Smith”を認識候補として、第3表示領域23に表示させる。この際、フォンは、名前呼び出し(Call by name)の画面を表示している。
 次に候補選択発話に対する表示制御装置11の動作を図18に示されるフローチャートに従い説明する。
 ステップS100にて、音声認識部3は、発話された音声を認識する。ここでは、ユーザは、図31に示された認識候補に基づき“Select number five”(「5番を選択」)と発話する。音声認識部3は、その発話に対して、“Select number five”を認識する。
 ステップS110にて、音声認識部3は、予め準備された発話内容と第1情報と第2情報とが対応付けられたデータベースを参照し、認識した発話内容に関連する第1情報および第2情報を出力する。音声認識部3は、図12に示される候補選択発話に対応するデータベースを参照し、発話内容である“Select number five”に対応付けられるトピック“CMD.selectNbest”およびスロット“Number five”を出力する。
 ステップS120にて、表示制御部1は、音声認識部3が出力する第1情報および第2情報を取得する。ここでは、表示制御部1は、トピックおよびスロットを取得する。
 ステップS230にて、表示制御部1は、第1情報に基づいて、第2情報から発話内容に対応する識別記号を取得する。表示制御部1は、トピック“CMD.selectNbest”に基づき、スロット“Number five”に対応するID番号を取得する。この場合、ID番号は「5」が取得される。
 ステップS240にて、表示制御部1は、各処理対象と識別記号との関係に基づき、発話内容に対応する処理対象を選択する。表示制御部1は、図30に示される各処理対象と識別記号との関係に基づき、発話された識別記号に対応するスロット“Joe Smith”を選択する。以上により、アプリケーションが実行する処理の処理対象が決定される。すなわち、フォンが電話をかける電話番号が、“Joe Smith”に対応する電話番号に決定される。
 ステップS250にて、表示制御部1は、アプリケーションに処理の実行を依頼する。表示制御部1は、フォンに“Joe Smith”に対応する電話番号に電話をかけるよう依頼する。
 ステップS260にて、表示制御部1は、アプリケーションが表示される表示領域に、そのアプリケーションが処理を実行中であることを表示させる。図32は、第3表示領域23に処理の実行中の画面が表示された状態を示す図である。表示制御部1は、フォンが表示される第3表示領域23において、“Joe Smith”に対応する電話番号を含む情報として、“Calling Joe Smith 0123-455-7889”(「ジョー・スミスに電話中 0123-455-7889」)等の情報を表示させる。また、表示制御部1は、認識候補が選択されなかったナビゲーションおよびメディアプレーヤーがそれぞれ表示される第1表示領域21および第2表示領域22にトップ画面(Top)を表示させる。
 表示制御装置11は、フォンの発信が終了すると、図28と同様のトップ画面(Top)を第3表示領域23に表示させる。
 (効果)
 発話内容“Josh Smith”は、ナビゲーション、メディアプレーヤー、フォンの3つのアプリケーションに関連している。その場合、各認識候補は、表示装置20内にて、異なるID番号が付されて表示される。よって、表示制御装置11は、ユーザがアプリケーションを指定することなくID番号を指定するだけで認識候補を選択することを可能とする。
 以上をまとめると、実施の形態3の表示制御装置11において、第2情報に基づいて特定される少なくとも1つの処理対象は、複数の処理対象を含む。表示制御部1は、複数の処理対象の各々に互いに重複しない識別記号を付与し、各処理対象を認識候補として識別記号とともに表示領域に表示させる。
 このような構成により、表示制御装置11は、複数のアプリケーションに表示される認識候補をユーザが識別記号を指定して選択することを可能とする。
 また、実施の形態3における表示制御装置11の表示制御部1は、認識候補が表示される表示領域ごとに予め定められる優先度に応じて、複数の処理対象の各々に識別記号を付与する。
 このような構成により、表示制御装置11は、複数の認識候補から優先度の高い認識候補をユーザに提示することができる。
 <実施の形態4>
 実施の形態4における表示制御装置11および表示制御方法を説明する。なお、他の実施の形態と同様の構成および動作については説明を省略する。
 実施の形態4においては、ナビゲーションおよびメディアプレーヤーの各表示領域が入れ替えられる。優先度が最も高い第1表示領域21には、メディアプレーヤーが表示され、第1表示領域21よりも優先度が低い第2表示領域22には、ナビゲーションが表示される。
 各アプリケーションの表示領域が入れ替えられたか否かは、例えば、表示領域管理部2が表示制御部1に表示領域情報を通知することによって行われる。表示制御装置11は、表示位置が入れ替えられた結果、第1表示領域21に表示されているメディアプレーヤーが実行する各処理対象に、優先的に識別記号を付与する。表示制御装置11は、複数の処理対象のうち、トピック“MPL.playArtist”およびスロット“Joan Smith”にID番号「1」を、トピック“MPL.playArtist”およびスロット“Josh Smith”にID番号「2」を付与する。
 図33は、実施の形態4における各表示領域に認識候補が表示された状態を示す図である。表示制御部1は、ID番号とともに、スロット“Joan Smith”および“Josh Smith”を認識候補として、メディアプレーヤーが表示されている第1表示領域21に表示させる。表示制御部1は、ID番号とともに、スロット“John Smith”および“Josh Smith”を認識候補として、ナビゲーションが表示されている第2表示領域22に表示させる。表示制御部1は、ID番号とともに、スロット“Joe Smith”および“Josh Smith”を認識候補として、フォンが表示されている第3表示領域23に表示させる。
 このような構成により、アプリケーションの表示位置が変更されたとしても、各表示領域に表示される認識候補のID番号は、各表示領域の優先度に応じて並んで表示される。そのため、ユーザは、認識候補を選択しやすい。
 <実施の形態5>
 実施の形態5における表示制御装置11および表示制御方法を説明する。なお、他の実施の形態と同様の構成および動作については説明を省略する。
 実施の形態5においては、表示制御部1は、複数の処理対象のうち発話内容に基づく音響的な信頼度が最も高い処理対象を認識候補として強調して表示させる。音響的な信頼度とは、音声認識部3が認識した発話音声の音響的な確からしさのことである。音響的な信頼度が高い処理対象は、ユーザが意図した処理対象である確率が高い。
 図34は、実施の形態5における各表示領域に認識候補が表示された状態を示す図である。表示制御部1は、音響的な信頼度が最も高い“John Smith”を含む認識候補を強調して表示させている。強調して表示する方法は、例えば、認識候補の表示の大きさを変更する、認識候補の表示の色を変える、認識候補の表示の字体を変える、認識候補の表示にアンダーラインなどの飾りを付ける、認識候補を斜体形などの表示方式を変更する、認識候補の表示がアニメーション動作を行う、認識候補の表示の位置を変える、認識候補の表示の向きを変える等である。表示制御部1は、音響的な信頼度を音声認識部3から取得する。表示制御部1は、例えば、第1情報および第2情報とともに音響的な信頼度を取得する。
 このような構成により、表示制御装置11は、表示装置20がユーザの意図と合致する可能性の高い認識候補を表示するよう制御できる。
 <実施の形態6>
 実施の形態6における表示制御装置11および表示制御方法を説明する。なお、他の実施の形態と同様の構成および動作については説明を省略する。上記の各実施の形態においては、1つの表示領域に表示される認識候補は2つである例が示されたが、発話内容や各アプリケーションに登録されている名前等によっては、より多くの認識候補が1つの表示領域に表示される可能性がある。認識候補の数が多い場合、1つの表示領域に、つまり、1つの画面にそれらを表示することが難しい。
 実施の形態6において、表示制御装置11は、表示領域ごとに予め定められる認識候補の表示数の上限値内で、少なくとも1つの処理対象を認識候補として表示させる。図35は、実施の形態6における各表示領域に認識候補が表示された状態を示す図である。ここでは、各表示領域における予め定められる認識候補の表示数の上限値は2である。ここでは、各表示領域における上限値を同一の値としたが、異なる上限値がそれぞれの表示領域に設定されてもよい。各認識候補は、それぞれの表示領域において、音響的な信頼度が高い順に表示されることが好ましい。
 このような構成により、表示制御装置11は、複数の認識候補が表示される場合の視認性の悪化を防止できる。
 <実施の形態7>
 以上の各実施の形態においては、車両に搭載される表示制御装置が示された。実施の形態7における、表示制御装置は、通信端末と、サーバと、これらにインストールされるアプリケーションの機能とを適宜に組み合わせて構築されるシステムに適用される。図36は、実施の形態7における表示制御システム100の構成を示すブロック図である。表示制御装置10がシステムに適用される場合、表示制御装置10の各機能あるいは各構成要素は、表示制御システム100を構築する各機器に分散して配置されてもよい。車両70には、表示制御装置10、表示装置20、音声入力装置40、および通信装置50が設けられている。ここで、通信端末とは、例えば、携帯電話、スマートフォンおよびタブレットなどの携帯端末を含む。サーバ80には、音声認識装置30および通信装置60が設けられている。音声入力装置40に入力されたユーザの発話は、車両の通信装置50およびサーバの通信装置60を介して音声認識装置30に入力され認識される。音声認識装置30は、各通信装置を介して表示装置20に第1情報および第2情報を出力する。表示制御装置10は、その第1情報と第2情報とに基づき、各実施の形態に示された表示制御動作を表示装置20に対して行う。このような構成であっても、表示制御装置10は、各実施の形態に示された効果と同様の効果を奏する。
 また、ここでは図示は省略するが、実施の形態2に示されたように、表示制御装置が音声認識装置30の機能として音声認識部3を含む場合、表示制御装置の機能は車両70とサーバ80とに分散配置される。つまり、車両70には表示制御部1の機能が、サーバ80には音声認識部3の機能が分散配置される。そのような分散配置された構成であっても、表示制御装置は各実施の形態において示された効果と同様の効果を奏する。また、表示制御装置の一部の構成がサーバ80に設けられることにより、車両70に搭載される装置の構成を簡素化できる。また、音声認識部3が音声の認識の際に用いるデータベースのアップデート等も容易であり、発話内容の精度、すなわち、音響的な信頼度の向上が可能である。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、全ての局面において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 表示制御部、2 表示領域管理部、3 音声認識部、4 記憶部、10 表示制御装置、20 表示装置、21 第1表示領域、22 第2表示領域、23 第3表示領域、100 表示制御システム。

Claims (8)

  1.  発話された音声の発話内容に基づく表示制御を、複数のアプリケーションの各々が表示される表示領域を有する表示装置に対して行う表示制御装置であって、
     表示制御部を備え、
     前記表示制御部は、前記複数のアプリケーションのうち前記発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、前記少なくとも1つのアプリケーションが実行する処理の処理対象であって、前記発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得し、
     さらに前記表示制御部は、前記第1情報に基づいて特定される前記少なくとも1つのアプリケーションの各々が表示される前記表示領域に、
     前記第2情報に基づいて特定されかつ前記少なくとも1つのアプリケーションの各々が実行する前記処理の前記少なくとも1つの処理対象を、認識候補として表示させる制御を前記表示装置に対して行う、表示制御装置。
  2.  前記発話された前記音声を認識し、前記音声を認識して得られる前記発話内容と前記第1情報と前記第2情報とが対応付けられたデータベースを参照し、前記発話内容に関連する前記第1情報と前記第2情報とを前記表示制御部に出力する音声認識部をさらに備え、
     前記音声認識部は、前記データベースを記憶する記憶部を含む請求項1に記載の表示制御装置。
  3.  各前記アプリケーションと各前記アプリケーションが表示される前記表示領域との対応関係である表示領域情報を管理する表示領域管理部をさらに備え、
     前記表示制御部は、前記第1情報に基づいて特定される前記少なくとも1つのアプリケーションの各々が表示される前記表示領域を、前記表示領域管理部にて取得された前記表示領域情報に基づいて特定する請求項1に記載の表示制御装置。
  4.  前記第2情報に基づいて特定される前記少なくとも1つの処理対象は、複数の処理対象を含み、
     前記表示制御部は、前記複数の処理対象の各々に互いに重複しない識別記号を付与し、前記識別記号とともに各前記処理対象を前記認識候補として前記表示領域に表示させる請求項1に記載の表示制御装置。
  5.  前記表示制御部は、前記認識候補が表示される前記表示領域ごとに予め定められる優先度に応じて、前記複数の処理対象の各々に前記識別記号を付与する請求項4に記載の表示制御装置。
  6.  前記第2情報に基づいて特定される前記少なくとも1つの処理対象は、複数の処理対象を含み、
     前記表示制御部は、前記複数の処理対象のうち前記発話内容に基づく音響的な信頼度が最も高い処理対象を前記認識候補として強調して表示させる請求項1に記載の表示制御装置。
  7.  前記表示制御部は、前記表示領域ごとに予め定められる前記認識候補の表示数の上限値内で、前記少なくとも1つの処理対象を前記認識候補として表示させる請求項1に記載の表示制御装置。
  8.  発話された音声の発話内容に基づく表示制御を、複数のアプリケーションの各々が表示される表示領域を有する表示装置に対して行う表示制御方法であって、
     前記複数のアプリケーションのうち前記発話内容に関連する少なくとも1つのアプリケーションを特定可能な第1情報と、前記少なくとも1つのアプリケーションが実行する処理の処理対象であって、前記発話内容に関連する少なくとも1つの処理対象を特定可能な第2情報と、を取得し、
     前記第1情報に基づいて特定される前記少なくとも1つのアプリケーションの各々が表示される前記表示領域に、
     前記第2情報に基づいて特定されかつ前記少なくとも1つのアプリケーションの各々が実行する処理の前記少なくとも1つの処理対象を、認識候補として表示させる制御を前記表示装置に対して行う表示制御方法。
PCT/JP2018/006134 2018-02-21 2018-02-21 表示制御装置および表示制御方法 WO2019163011A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/006134 WO2019163011A1 (ja) 2018-02-21 2018-02-21 表示制御装置および表示制御方法
US16/967,448 US11243741B2 (en) 2018-02-21 2018-02-21 Display control device and display control method
JP2020501891A JP6884263B2 (ja) 2018-02-21 2018-02-21 表示制御装置および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/006134 WO2019163011A1 (ja) 2018-02-21 2018-02-21 表示制御装置および表示制御方法

Publications (1)

Publication Number Publication Date
WO2019163011A1 true WO2019163011A1 (ja) 2019-08-29

Family

ID=67687121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/006134 WO2019163011A1 (ja) 2018-02-21 2018-02-21 表示制御装置および表示制御方法

Country Status (3)

Country Link
US (1) US11243741B2 (ja)
JP (1) JP6884263B2 (ja)
WO (1) WO2019163011A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4210047A1 (en) * 2022-01-05 2023-07-12 Honeywell International Inc. Contextual editable speech recognition methods and systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164809A (ja) * 2006-12-27 2008-07-17 Denso Corp 音声認識装置
JP2012213132A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置および情報表示システム
JP2015043144A (ja) * 2013-08-26 2015-03-05 株式会社デンソー 表示装置
JP2016062129A (ja) * 2014-09-15 2016-04-25 株式会社デンソー 車両用機器制御装置、制御内容検索方法
JP2016102823A (ja) * 2014-11-27 2016-06-02 アルパイン株式会社 情報処理システム、音声入力装置及びコンピュータプログラム
WO2016181565A1 (ja) * 2015-05-14 2016-11-17 富士通株式会社 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3725566B2 (ja) * 1992-12-28 2005-12-14 株式会社東芝 音声認識インターフェース
JP3387178B2 (ja) 1993-11-15 2003-03-17 富士写真光機株式会社 内視鏡の湾曲操作装置
JP3671636B2 (ja) 1997-12-09 2005-07-13 株式会社日立製作所 音声認識装置
US9129291B2 (en) * 2008-09-22 2015-09-08 Personics Holdings, Llc Personalized sound management and method
CN102315557B (zh) 2010-07-09 2013-08-21 凡甲电子(苏州)有限公司 电源连接器
US9153084B2 (en) * 2012-03-14 2015-10-06 Flextronics Ap, Llc Destination and travel information application
JP5701327B2 (ja) 2013-03-15 2015-04-15 ヤフー株式会社 音声認識装置、音声認識方法、およびプログラム
US10949228B1 (en) * 2018-09-28 2021-03-16 United Services Automobile Association (Usaa) System and method for controlling the content of a device in response to an audible request
US10972607B1 (en) * 2018-09-28 2021-04-06 United Services Automobile Association (Usaa) System and method for providing audible support to a service representative during a call

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164809A (ja) * 2006-12-27 2008-07-17 Denso Corp 音声認識装置
JP2012213132A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置および情報表示システム
JP2015043144A (ja) * 2013-08-26 2015-03-05 株式会社デンソー 表示装置
JP2016062129A (ja) * 2014-09-15 2016-04-25 株式会社デンソー 車両用機器制御装置、制御内容検索方法
JP2016102823A (ja) * 2014-11-27 2016-06-02 アルパイン株式会社 情報処理システム、音声入力装置及びコンピュータプログラム
WO2016181565A1 (ja) * 2015-05-14 2016-11-17 富士通株式会社 文字入力受付方法、文字入力受付装置及び文字入力受付プログラム

Also Published As

Publication number Publication date
US20210216275A1 (en) 2021-07-15
JP6884263B2 (ja) 2021-06-09
US11243741B2 (en) 2022-02-08
JPWO2019163011A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
US10706853B2 (en) Speech dialogue device and speech dialogue method
US9396727B2 (en) Systems and methods for spoken dialog service arbitration
US11264026B2 (en) Method, system, and device for interfacing with a terminal with a plurality of response modes
US7451088B1 (en) System and method of handling problematic input during context-sensitive help for multi-modal dialog systems
US20190051306A1 (en) Voice recognition device
US20070005206A1 (en) Automobile interface
US20140316782A1 (en) Methods and systems for managing dialog of speech systems
US20170010859A1 (en) User interface system, user interface control device, user interface control method, and user interface control program
JP2017146437A (ja) 音声入力処理装置
US7624016B2 (en) Method and apparatus for robustly locating user barge-ins in voice-activated command systems
US10943587B2 (en) Information processing device and information processing method
JP2007535731A (ja) 殊に自動車のためのリスト項目選択方法および情報システムまたは娯楽システム
JP2020095121A (ja) 音声認識システム、学習済みモデルの生成方法、音声認識システムの制御方法、プログラム、及び移動体
WO2019163011A1 (ja) 表示制御装置および表示制御方法
KR102217653B1 (ko) 차량용 인포테인먼트 시스템 및 그의 제어 방법과 그를 포함하는 차량
US9715878B2 (en) Systems and methods for result arbitration in spoken dialog systems
JP4770374B2 (ja) 音声認識装置
JP2018028733A (ja) 入力装置、入力装置の制御方法、表示装置および入力プログラム
US20120284031A1 (en) Method and device for operating technical equipment, in particular a motor vehicle
JP6987447B2 (ja) 音声認識装置
JP2016102823A (ja) 情報処理システム、音声入力装置及びコンピュータプログラム
JP2020091435A (ja) 音声認識システム、音声認識システムの通知方法、プログラム、及び移動体搭載機器
US20230260511A1 (en) Vehicle and control method thereof
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
WO2019058453A1 (ja) 音声対話制御装置および音声対話制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18907215

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020501891

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18907215

Country of ref document: EP

Kind code of ref document: A1