WO2023153314A1 - 車内機器制御装置、車内機器制御方法 - Google Patents

車内機器制御装置、車内機器制御方法 Download PDF

Info

Publication number
WO2023153314A1
WO2023153314A1 PCT/JP2023/003449 JP2023003449W WO2023153314A1 WO 2023153314 A1 WO2023153314 A1 WO 2023153314A1 JP 2023003449 W JP2023003449 W JP 2023003449W WO 2023153314 A1 WO2023153314 A1 WO 2023153314A1
Authority
WO
WIPO (PCT)
Prior art keywords
occupant
screen
driver
seat
function
Prior art date
Application number
PCT/JP2023/003449
Other languages
English (en)
French (fr)
Inventor
健史 山元
清貴 田口
静香 横山
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2023153314A1 publication Critical patent/WO2023153314A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Definitions

  • the present disclosure relates to technology for controlling the operation of in-vehicle equipment based on a signal from an operation device, which is an input device operated by a passenger's hand.
  • buttons displayed on the in-vehicle display by the occupants Based on signals from operation devices such as touch panels and touchpads, it detects the selection operations of buttons displayed on the in-vehicle display by the occupants, and functions according to the operation details of the occupants, such as starting route guidance and playing music.
  • operation devices such as touch panels and touchpads
  • such an in-vehicle device control device has a so-called operation restriction function that displays some buttons in a manner that prevents the occupant from selecting them while the vehicle is running for the purpose of improving safety. is sometimes installed.
  • voice input method In recent years, in-vehicle equipment control devices that perform functions according to the contents of speech by voice input are also being introduced. According to the voice input method, the occupant does not need to confirm the contents of the display in order to input instructions to the system. Therefore, the voice input method is suitable as a means for inputting instructions while driving.
  • request phrases such as "Call Mr. XX" or "Set XX station as the destination," indicate at least the function that the passenger wants to use. A phrase containing a verb phrase and its object must be spoken. In addition, the passenger needs to press the talk switch or utter a wake word when starting voice input.
  • the in-vehicle equipment control device supports voice input, if voice recognition does not work well, or depending on the situation inside the vehicle and the preferences of the occupants, the occupants will input instructions manually instead of using voice input. Sometimes. According to the manual input method, the functions to be used and their execution conditions are narrowed down based on confirmation by the passenger.
  • the manual input method here is a method of specifying the control to be executed based on the selection operation of the button displayed on the display by the occupant.
  • the manual input method also has the advantage of being easy to use even when the surroundings are noisy or when the passenger is sleeping.
  • Patent Document 1 describes a configuration for specifying the control content desired by the passenger by using these methods in a composite/complementary manner. is not mentioned at all. There is room for improvement as a configuration for acquiring crew member's instructions.
  • the present disclosure has been made based on the above considerations or points of focus, and one of the purposes thereof is to provide an in-vehicle equipment control device and an in-vehicle equipment control method capable of improving passenger convenience. .
  • a first in-vehicle equipment control device disclosed herein is based on a signal from an operation device for receiving a selection operation by a passenger for options displayed on a display and on the content of the passenger's utterance specified by voice recognition.
  • An in-vehicle equipment control device for controlling in-vehicle equipment wherein an occupant in the driver's seat, who is an occupant sitting in the driver's seat, controls the vehicle based on the output of an occupant behavior sensor that detects at least one of the movement and line of sight of the occupant.
  • Determining whether or not it corresponds to the driving state in which the operation to run is performed controlling the display screen of the display based on the signal from the operation device, and in the situation where the driver's seat occupant is in the driving state , when it detects that an operation to call a restriction target screen, which is a screen that is set as a target for operation restriction, has been performed, it outputs an inquiry message regarding unentered items according to the restriction target screen. , at the same time as or after outputting the inquiry message, enable the voice recognition function, and if the passenger's response to the inquiry message can be obtained by voice recognition, the response will be within the scope of the function corresponding to the restricted screen. and executing control according to.
  • the occupant in the driver's seat can execute the desired control by uttering the desired conditions for the execution of the function in response to the inquiry message. can be done.
  • the type of function executed by the device based on the response from the crew member is the function corresponding to the screen being displayed/to be displayed, and corresponds to the option selected by the crew member while looking at the screen. Therefore, there is a high possibility that the type of function executed by the device based on the passenger's answer is in line with the intention of the passenger as the operator. That is, according to the above configuration, it is possible to reduce the risk of unintentional control by the occupant.
  • the type of function to be executed is automatically specified based on the screen being displayed/to be displayed, so the crew does not have to say the verb phrase that corresponds to the function they want to execute.
  • voice recognition is automatically enabled, so you don't have to say a wake word or press the talk switch.
  • the second in-vehicle equipment control device included in the present disclosure is based on the signal from the operation device for accepting the selection operation of the occupant for the options displayed on the display, and the utterance content of the occupant specified by voice recognition.
  • a vehicle interior equipment control device for controlling vehicle interior equipment based on an occupant behavior sensor that detects at least one of the movement and line of sight of the occupant based on the output of the occupant seated in the driver's seat. , determining whether or not the vehicle is in a driving state in which an operation is being performed to run the vehicle, and based on the information on the screen displayed on the display or the option selected by the occupant, the current operating state is determined.
  • Determining whether or not the operation is in the middle of a series of operations for executing a predetermined function Determining whether or not the operation is in the middle of a series of operations for executing a predetermined function; outputting an inquiry message related to unentered items according to the current display screen, automatically activating the voice recognition function at the same time or after outputting the inquiry message, and responding to the inquiry message
  • control according to the answer is performed within the range of functions corresponding to the current display screen.
  • the second in-vehicle device control device even when the driving operation is started in the middle of the operation, it is possible to input items that have not been input by voice, and to execute desired control. can. Further, for the same reason as the first in-vehicle device control device, according to the second in-vehicle device control device, it is possible to execute a desired function with a smaller amount of speech and more accurately.
  • the in-vehicle device control method of the present disclosure controls the in-vehicle device based on the signal from the operation device for accepting the selection operation of the passenger for the options displayed on the display and the content of the passenger's speech specified by voice recognition.
  • An in-vehicle equipment control device wherein an occupant seated in the driver's seat performs an operation to drive the vehicle based on the output of an occupant behavior sensor that detects at least one of the movement and line of sight of the occupant. controlling the display screen of the display based on a signal from the operation device; When it is detected that an operation to call up a restricted screen, which is a set screen, has been performed, an inquiry message regarding unentered items according to the restricted screen is output, and an inquiry message is output. Simultaneously with or after the output, the voice recognition function is enabled, and if the passenger's response to the inquiry message is acquired by voice recognition, control is executed according to the response within the scope of the function corresponding to the restricted target screen. including doing and
  • the above method is a method corresponding to the first in-vehicle device control device, and provides similar effects through the same actions as the first in-vehicle device control method.
  • FIG. 1 is a block diagram showing an overview of an in-vehicle system;
  • FIG. It is a figure which shows an example of an instrument panel display. It is a figure which shows an example of the operation device connected to HCU. It is a functional block diagram of HCU. It is a figure which shows an example of a home screen. It is a figure which shows an example of a limitation object screen.
  • FIG. 10 is a diagram for explaining screens that can be set as restricted screens; 8 is a flowchart of command input support processing; 9 is a flowchart showing another example of command input support processing; It is a functional block diagram of HCU in a modification.
  • FIG. 9 is a flowchart showing another example of command input support processing; It is a figure for demonstrating the operation
  • FIG. 4 is a diagram showing an example of a speech recognition indicator; It is a figure which shows an example of an operation
  • FIG. 1 is a diagram showing an example of a schematic configuration of an in-vehicle system Sys to which an in-vehicle device control device is applied.
  • the present disclosure can be implemented with appropriate modifications so as to comply with local laws and customs where the in-vehicle system Sys is used.
  • the present disclosure is applicable not only to passenger cars but also to various vehicles that can travel on roads, such as tank trucks and trucks.
  • the vehicle on which the in-vehicle system Sys is mounted is also referred to as the own vehicle.
  • the own vehicle may be an owner car owned by an individual, a shared car, or a rental car.
  • the own vehicle is an electric vehicle.
  • the own vehicle may be an engine vehicle.
  • the concept of electric vehicles can include not only electric vehicles but also plug-in hybrid vehicles, hybrid vehicles, and fuel cell vehicles.
  • the in-vehicle system Sys is equipped with an automatic operation device 17, which will be described later, so that the vehicle can autonomously travel along a predetermined route, so-called automatic operation.
  • the driver in the present disclosure is not limited to the person actually performing the driving operation, but may refer to the person who should receive the driving operation authority from the in-vehicle system Sys when the automatic driving ends. In other words, the driver in the present disclosure refers to the person sitting in the driver's seat, ie, the occupant in the driver's seat, regardless of whether the vehicle is actually driving. References to driver in this disclosure may be replaced with driver's seat occupant.
  • a person present in the vehicle interior is not distinguished according to the seat, it is simply referred to as an occupant.
  • the occupants may include, in addition to the driver, a front passenger who is a person sitting in the front passenger seat and a person sitting in the rear seat.
  • the description of the passenger can be read as the user.
  • the description of the D seat in this disclosure refers to the driver's seat, and the P seat refers to the passenger's seat.
  • the D-seat microphone described below refers to the driver's seat microphone.
  • the instrument panel (dashboard) may be abbreviated as the instrument panel as appropriate in the present disclosure.
  • the in-vehicle system Sys includes a vehicle state sensor 11, a peripheral monitoring sensor 12, an occupant monitoring camera 13, a wireless communication device 14, a navigation device 15, an audio device 16, and an automatic operation device 17.
  • the in-vehicle system Sys includes a HUD 21, an instrument panel display 22, an operation device 23, a D seat speaker 24a, a P seat speaker 24b, a D seat microphone 25a, a P seat microphone 25b, and a talk switch .
  • the in-vehicle system Sys includes an HCU (HMI Control Unit) 30 .
  • HMI is an abbreviation for Human Machine Interface.
  • HUD is an abbreviation for Head-Up Display.
  • the vehicle state sensor 11 is a sensor that detects information regarding the state of the vehicle.
  • the vehicle state sensor 11 includes a vehicle speed sensor, a steering angle sensor, a shift position sensor, a brake pedal sensor, an accelerator pedal sensor, a steering sensor, and the like.
  • a vehicle speed sensor detects the vehicle speed of the own vehicle.
  • a steering angle sensor detects a steering angle.
  • a shift position sensor detects a shift position.
  • the brake pedal sensor is a sensor that detects the amount/force of depression of the brake pedal by the driver.
  • the accelerator pedal sensor is a sensor that detects the amount/force of depression of the accelerator pedal by the driver.
  • the steering sensor is a sensor that outputs a signal indicating whether or not the driver is gripping the steering wheel, and may be a capacitive touch sensor.
  • the steering sensor may be a sensor that detects steering torque.
  • An accelerator pedal sensor, a brake pedal sensor, and a steering sensor correspond to sensors for detecting the driver's behavior, in other words, one type
  • the vehicle state sensor 11 outputs to the HCU 30 a signal indicating the current value/state of the item to be detected.
  • the type of sensor that the in-vehicle system Sys should have as the vehicle state sensor 11 may be appropriately designed.
  • the in-vehicle system Sys need not include all the sensors described above. Further, the in-vehicle system Sys may include sensors other than those described above as the vehicle state sensor 11 .
  • the vehicle state sensor 11 can also include a seating sensor and a seat belt sensor for each seat.
  • the seating sensor is a sensor that detects that a person is seated, and is a pressure sensor embedded in the seating surface.
  • the seat belt sensor is a sensor that outputs a signal corresponding to the wearing state of the seat belt.
  • the output signals of the seat sensor and the seat belt sensor can be used as information for determining whether or not there is an occupant in the front passenger seat.
  • a seat sensor and a seatbelt sensor are one type of in-vehicle sensor for determining the presence or absence of an occupant in the front passenger seat.
  • the surroundings monitoring sensor 12 is an autonomous sensor that monitors the surroundings of the vehicle.
  • the surroundings monitoring sensor 12 detects predetermined moving objects and stationary objects from the detection range around the vehicle.
  • a camera that captures an image of the outside of the vehicle, millimeter wave radar, LiDAR, sonar, and the like correspond to the peripheral monitoring sensor 12 .
  • LiDAR is an abbreviation for Light Detection and Ranging or Laser Imaging Detection and Ranging.
  • the in-vehicle system Sys includes a front camera as the peripheral monitoring sensor 12, which is arranged to capture an image of the front of the vehicle at a predetermined angle of view.
  • the front camera is arranged at the upper end of the windshield on the interior side of the vehicle, the front grille, the roof top, or the like.
  • the front camera detects moving objects such as pedestrians and other vehicles by performing recognition processing on image frames.
  • the front camera can also detect traffic lights and their lighting conditions.
  • a detection result of the periphery monitoring sensor 12 is input to the H
  • the occupant monitoring camera 13 is a visible light/infrared camera, and is placed in the vehicle interior at a position and posture that allow it to capture at least the driver's face.
  • the occupant monitoring camera 13 may be placed on the upper surface of the steering column cover, the upper surface of the instrument panel, the upper end of the windshield, or the like, with the optical axis facing the headrest of the driver's seat.
  • the occupant monitoring camera 13 sequentially detects the state of the driver based on the face image of the driver included in the captured video.
  • the occupant monitoring camera 13 can sequentially detect the orientation of the driver's face, the line-of-sight direction, the opening degree of the eyelids (so-called eye opening degree), and the like as the driver's state.
  • the occupant watching camera 13 may be configured to be able to detect the driver's posture, the gripping state of the steering wheel, and whether or not the operation device 23 is being operated.
  • the occupant watching camera 13 sequentially outputs information indicating the state of the driver specified from the captured image to the HCU 30 as driver state data.
  • the HCU 30 may have the function of detecting the state of the driver or the like based on the video signal of the camera.
  • the occupant monitoring camera 13 may be arranged at the center of the instrument panel in the vehicle width direction so as to be able to image the face of the occupant in the front passenger seat.
  • the occupant monitoring camera 13 may be provided at the upper end of the windshield, the overhead console, or the like.
  • the occupant watching camera 13 may be configured to be able to detect the presence or absence of an occupant in the front passenger seat, the posture of the occupant in the front passenger seat if there is one, and whether or not the operating device 23 is being operated.
  • a plurality of occupant watching cameras 13 may be provided.
  • the passenger watching camera 13 may be arranged for each seat.
  • the occupant watching camera 13 whose imaging range includes the front passenger seat can also correspond to an in-vehicle sensor for determining whether or not there is an occupant in the front passenger seat.
  • the occupant watching camera 13 can correspond to an occupant behavior sensor.
  • the wireless communication device 14 is a device for carrying out wireless communication between the own vehicle and other devices.
  • Wireless communication device 14 is configured to be capable of performing cellular communication.
  • Cellular communication is wireless communication conforming to standards such as LTE (Long Term Evolution), 4G, and 5G.
  • the HCU 30, in cooperation with the wireless communication device 14, can acquire text data indicating the uttered voice of the passenger from the voice recognition server, or a command corresponding to the uttered voice.
  • the wireless communication device 14 may be configured to be able to receive distribution data from a roadside device, which is communication equipment installed along the road.
  • the wireless communication device 14 may transmit the lighting schedule information to the HCU 30 or the automatic operation device 17 when receiving a signal indicating the lighting schedule information of the traffic signal from the roadside device.
  • the lighting schedule information indicates the current lighting state (lighting color), the remaining time for maintaining the current lighting state, the next lighting color, and the like.
  • the wireless communication device 14 is configured to be able to perform communication conforming to standards such as Bluetooth (registered trademark) and Wi-Fi (registered trademark).
  • the wireless communication device 14 can function as an interface for carrying out mutual communication between the carry-in terminal 40, which is a portable terminal worn inside the vehicle by the passenger (mainly the driver), and the HCU 30.
  • the bring-in terminal 40 is a portable information processing terminal such as a smart phone or a tablet terminal.
  • the HCU 30 can display the screen of the carry-on terminal 40 on the instrument panel display 22 and execute an application installed on the carry-on terminal 40. Become.
  • the mode of connection between the carry-on terminal 40 and the in-vehicle system Sys is not limited to wireless.
  • the carry-on terminal 40 and the in-vehicle system Sys may be connected using a communication cable.
  • the navigation device 15 uses the map data to display a map image of the area around the current location on the instrument panel display 22, and to perform route guidance processing to guide travel from the current location to the destination.
  • functions provided in the navigation device 15, such as display of a map of the surrounding area and route guidance are referred to as navigation functions.
  • the operation for starting route guidance includes an operation of inputting a destination and an operation of selecting a route to be actually adopted from route candidates.
  • multiple operations may be required, such as whether to use an address, facility name, or phone number as a search method.
  • the HCU 30 or the carry-in terminal 40 may have the navigation function.
  • the audio device 16 is a device that reproduces music data stored in local storage or the cloud based on instructions from the HCU 30 .
  • the song data includes, as metadata, information about the album in which the song data is recorded, artist information, song title, playing time, and the like.
  • An operation for playing a song may include multiple operations such as selecting an artist, album, or genre.
  • a function related to music playback and radio reception is referred to as an audio function in the present disclosure.
  • the HCU 30 or the carry-in terminal 40 may have the audio function.
  • the automatic operation device 17 is a device that executes part or all of the driving operation instead of the driver by controlling the travel actuator based on the detection results of the surroundings monitoring sensor 12.
  • a travel actuator is an actuator for accelerating, decelerating, and turning a vehicle, and refers to a brake actuator as a braking device, an electronic throttle, an EPS (Electric Power Steering) motor, and the like.
  • the automatic operation device 17 is mainly composed of a computer equipped with a processor, memory, storage, etc. It has multiple operating modes with different levels of automation for driving operations.
  • the automatic operation device 17 is configured to be switchable between a fully manual mode, a driving support mode, and an automatic driving mode.
  • the operation mode of the automatic operation device 17 can also be called a driving mode.
  • Full manual mode is an operating mode in which the driver performs all driving tasks (driving operations).
  • the driving assistance mode is an operation mode in which the system executes at least one of acceleration/deceleration and steering operation of the automatic operation device 17 .
  • Full manual mode and driving assistance mode are driving modes in which the driver performs at least some driving tasks. Therefore, in the present disclosure, the full manual mode and the driver assistance mode are also referred to as the passenger involvement mode when not distinguished.
  • the passenger involvement mode can also be called a manual driving mode as an antonym of the automatic driving mode.
  • the automatic driving mode is an operating mode in which the system performs all driving tasks on the condition that the vehicle is within a predetermined Operational Design Domain (ODD).
  • ODD Operational Design Domain
  • the automatic operation device 17 of the present embodiment performs control corresponding to so-called automation level 3, in which the system requests the driver to change driving in an emergency as automatic driving.
  • ODD defines the conditions under which automatic driving can be executed.
  • the driving road is a highway or a motorway with a median strip and a guardrail, etc.
  • the amount of rainfall is less than or equal to a predetermined threshold
  • all/predetermined For example, more than a number of surrounding monitoring sensors 12 are operating normally.
  • Conditions for determining whether automatic operation is possible/impossible in other words, detailed conditions defining ODD can be changed as appropriate.
  • the automatic operation device 17 may be configured to enable automatic operation equivalent to automation level 4 or 5.
  • Level 4 is the level at which the system performs all driving tasks except under certain conditions such as certain roads, extreme environments, etc., which cannot be handled.
  • Level 5 is the level at which the system can perform all driving tasks under all circumstances.
  • the operation mode of the automatic operation device 17 is switched based on the crew's operation on the operation device 23 or voice input.
  • the automatic driving mode is ended due to a driver's operation (so-called override), a system limit, an exit of the ODD, and the like.
  • the process of transferring the driving authority from the system to the driver includes requesting the driver to take over the driving operation through announcements, image display, lighting of indicators, vibration, and the like.
  • This kind of driver change request processing is also called Take-Over Request (TOR) or Request To Intervene (RTI).
  • TOR Take-Over Request
  • RTI Request To Intervene
  • the period from when the drive change request is initiated until the drive change is completed is referred to as during drive change.
  • the automatic operation device 17 outputs a signal indicating the current mode, which is the current operating mode, to the HCU 30 .
  • the automatic operation device 17 outputs to the HCU 30 a signal indicating whether or not driving change is in progress.
  • the HUD 21 is a device that superimposes and displays an image on the scenery in front by projecting image light onto a predetermined area of the windshield based on the control signal and video data input from the HCU 30 .
  • the HUD 21 may be housed in a housing space within the instrument panel.
  • the instrument panel display 22 is a display provided on the instrument panel.
  • the instrument panel display 22 is capable of full-color display, and is realized using a liquid crystal display, an organic EL display, or the like.
  • the instrument panel display 22 displays text and images based on instructions from the HCU 30 .
  • the instrument panel display 22 of this embodiment is formed continuously from substantially the right end to substantially the left end at the upper end of the instrument panel.
  • the instrument panel display 22 can also be called a pillar-to-pillar display or a full instrument panel display.
  • the instrument panel display 22 has a display screen with a width of 0.6 m or more, and is configured to be able to display a plurality of operation screens (windows) for different functions in parallel.
  • the display screen/operation screen hereinafter refers to the window selected/worked (that is, active) by the occupant.
  • the display screen of the instrument panel display 22 includes a D-seat display area A1 located in front of the driver's seat, a P-seat display area A2 located in front of the passenger's seat, and a display area A2 located in front of the front passenger's seat. It can be divided into the located central display area A3.
  • the D-seat display area A1 is mainly used to display information essential for driving operation, such as running speed, shift position, remaining battery/gasoline level, and the like.
  • the central display area A3 can also be called a common area because it is an area that can be used/visible by both the driver and the front passenger. There is no clear boundary line dividing each display area, and the HCU 30 can also display an operation screen (window) of one function across two display areas.
  • the instrument panel display 22 may be a meter display arranged in the front area of the driver's seat of the instrument panel, or may be a center display arranged in the central portion in the vehicle width direction.
  • the in-vehicle system Sys may include a plurality of physically independent displays as the instrument panel display 22 .
  • the in-vehicle system Sys may include a meter display, a center display, and a display arranged in front of the passenger's seat.
  • HCU 30 controls what is displayed in each display/display area.
  • the operation device 23 is a device for receiving an instruction operation from the passenger to the in-vehicle system Sys.
  • the operating device 23 is a device that is operated by the occupant's fingers.
  • the in-vehicle system Sys includes a touch panel 23A, a touch pad 23B, and a steering switch 23C as operation devices, as shown in FIG.
  • the touch panel 23A is stacked on the instrument panel display 22 .
  • the touch pad 23B functions as a pointing device that detects the operating position of the finger on the operating surface, moves the cursor C displayed on the screen of the instrument panel display 22, selects the target pointed by the cursor C, and the like.
  • the touch pad 23B is provided at a position away from the instrument panel display 22, such as a center console.
  • the steering switch 23C is a switch provided on the steering wheel.
  • the touch pad 23B or the like may have a tactile feedback function that vibrates the operation surface in response to movement of the cursor C and selection operation.
  • the touch pad 23B may operate the vibration actuator to give the driver's finger a tactile sensation as if the button were touched.
  • the in-vehicle system Sys may include a joystick-type haptic device, mouse, or the like as the operation device 23 .
  • the operation device 23 can also include a gesture/motion sensor that receives an instruction operation from the passenger by detecting that the hand or fingers are moved in a specific pattern (that is, a gesture).
  • a crew member's operation on the operation device 23 can be read as an instruction input to the in-vehicle system Sys.
  • Each operation device 23 outputs an electric signal corresponding to the operation performed by the passenger to the HCU 30 as an operation signal.
  • the operation signal includes information indicating the details of the passenger's operation.
  • Both the D seat speaker 24a and the P seat speaker 24b are speakers 24 that output sounds corresponding to signals input from the HCU 30.
  • the expression “sound” in the present disclosure includes not only notification sound but also voice (announcement), music, and the like.
  • the D-seat speaker 24a is arranged around the driver's seat such as the driver's door and the A-pillar on the driver's seat side.
  • the P-seat speaker 24b is arranged around the passenger's seat, such as a door for the front passenger's seat, an area in front of the front passenger's seat of the instrument panel, or an A-pillar on the P-seat side.
  • the D-seat speaker 24a corresponds to the driver's seat speaker
  • the P-seat speaker 24b corresponds to the passenger's seat speaker.
  • the in-vehicle system Sys may be provided with a center speaker arranged in the central part of the instrument panel/overhead console instead of/in addition to the D seat speaker 24a and the P seat speaker 24b.
  • Both the D-seat microphone 25a and the P-seat microphone 25b are microphones 25 that convert the voice uttered by the passenger into an electrical voice signal and output it to the HCU 30.
  • the D-seat microphone 25a is provided at a position such as the upper surface of the steering column cover, the spokes of the steering wheel, the headrest of the driver's seat, etc. where it is easy to pick up the voice of the occupant in the driver's seat.
  • the P-seat microphone 25b is a microphone 25 for collecting the voice of the passenger in the front passenger seat.
  • the P-seat microphone 25b is arranged on the instrument panel in front of the front passenger seat.
  • the D-seat microphone 25a corresponds to the driver's seat microphone
  • the P-seat microphone 25b corresponds to the passenger's seat microphone.
  • the talk switch 26 is a switch for instructing the passenger to start voice input.
  • the talk switch 26 may be a hardware switch or a button provided within the display screen.
  • the HCU 30 is a device that controls the functions available to the occupant/in-vehicle equipment operations in the vehicle based on the signal from the operation device and the utterance content of the occupant.
  • the HCU 30 is mainly composed of a computer including a processor 31, a storage 32, a memory 33, a communication interface 34, and a bus connecting them.
  • the processor 31 is a calculation core such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the processor 31 accesses the memory 33 to perform various processes.
  • the storage 32 is rewritable non-volatile such as flash memory.
  • the storage 32 stores an in-vehicle equipment control program, which is a program executed by the processor 31 .
  • Execution of the in-vehicle device control program by the processor 31 corresponds to execution of the vehicle control method.
  • the memory 33 is a rewritable volatile storage medium and RAM (Random Access Memory).
  • the HCU 30 corresponds to an in-vehicle equipment control device.
  • the HCU 30 implements various applications 35 by executing software installed in the storage 32 .
  • the application 35 here can be rephrased as a function/service.
  • the HCU 30 includes a call application, a web browser, a video playback application, and the like.
  • a call application is an application that provides a call function, which is a function related to making and receiving calls.
  • the HCU 30 can execute a process of making a call to a party designated by the passenger by being provided with a call application.
  • the web browser is an application that cooperates with the wireless communication device 14 to access the Internet, acquire web pages according to passenger operations, and display the web pages on the instrument panel display 22 .
  • the moving image reproduction application is an application that displays moving images such as television and movies in a predetermined area of the instrument panel display 22 .
  • the video playback application may be an application compatible with a video distribution service.
  • the navigation function, audio function, call function, web search function, video playback function, etc. correspond to the functions that can be used by the passengers inside the vehicle. Some functions may be provided by devices connected to HCU 30, such as navigation device 15 and carry-on terminal 40.
  • the navigation device 15, the audio device 16, the carry-on terminal 40, and the like correspond to in-vehicle devices.
  • the concept of in-vehicle equipment also includes HCU 30, HUD 21, instrument panel display 22, speaker 24, microphone 25, and the like.
  • the in-vehicle system Sys can have an air-conditioning function for changing the operation settings of the in-vehicle air conditioner, a message function for sending and receiving messages/mails, a schedule function for managing the driver's schedule, and the like.
  • the functions available to the occupant via the operation device 23 can include driving assistance functions such as ACC (Adaptive Cruise Control) and LCA (Lane Change Assist).
  • the HCU 30 includes, as functional units, an information acquisition unit F1, a display control unit F2, a selection operation reception unit F3, an operation state determination unit F4, a target function estimation unit F5, a driving state determination unit F6, a voice recognition unit It has a part F7, a command specifying part F8, and a command execution part F9.
  • These functional units are realized by the processor 31 executing the in-vehicle device control program.
  • ICs Integrated Circuits
  • FPGAs Field-Programmable Gate Arrays
  • the concept of IC also includes ASIC (Application Specific Integrated Circuit).
  • the information acquisition unit F1 acquires various information necessary for controlling in-vehicle equipment from the vehicle state sensor 11 and the like, and temporarily stores it in the memory 33.
  • the information acquisition unit F1 acquires vehicle information such as the running speed and acceleration of the own vehicle, the operating state of the brake pedal, the operating state of the accelerator pedal, the steering state, and the like, from the vehicle state sensor 11 .
  • vehicle information such as the running speed and acceleration of the own vehicle, the operating state of the brake pedal, the operating state of the accelerator pedal, the steering state, and the like, from the vehicle state sensor 11 .
  • These pieces of vehicle information can function as information for determining whether the driver is in a driving state, whether or not the driver has started driving, and as information for determining whether or not operation restriction should be implemented. Operation restrictions will be described separately later.
  • the information acquisition unit F1 also acquires information indicating the state of each passenger, such as the driver and passenger, from the passenger monitoring camera 13 .
  • the information indicating the state of the occupant includes the line-of-sight direction, posture, hand position, and the like.
  • the information indicating the driver's state includes whether or not the driver is gripping the steering wheel, and whether or not the driver is looking ahead in the direction of travel outside the vehicle.
  • the information acquisition unit F1 may be configured to detect the behavior of the driver and the passenger in the passenger's seat by analyzing the video of the passenger watching camera 13 . "Obtaining" in the present disclosure also includes generating/detecting by internal calculation based on data input from other devices/sensors. This is because the functional arrangement within the system can be changed as appropriate.
  • the information acquisition unit F1 acquires information indicating the current operating status and the like from devices connected to the HCU 30 (hereinafter referred to as connected devices).
  • the information acquisition unit F1 acquires the current operation mode from the automatic operation device 17 and a signal indicating whether or not driving is being changed.
  • the HCU 30 can acquire video data to be displayed on the instrument panel display 22 and audio data to be output from the speaker 24 from the connected device in operation.
  • the display control unit F2 controls the display contents of the HUD 21.
  • the display control unit F2 displays the current vehicle speed on the HUD 21, an arrow image indicating the course, an image indicating the planned travel locus, and the like. Images displayed on the HUD 21 are adjusted based on input signals from the navigation device 15 and the automatic operation device 17 .
  • the display control unit F2 controls the display screen of the instrument panel display 22.
  • Various operation screens displayed on the instrument panel display 22 by the display control unit F2 are set with a screen ID, which is a unique identification number for each screen.
  • Each operating screen includes at least one button selectable by the occupant.
  • a button is a display element included in the operation screen, and can also be called an icon, a mark, a selection item, or the like. Buttons correspond to choices.
  • a unique button ID is set for each button displayed on the instrument panel display 22 .
  • the button ID is associated with the ID of the transition destination screen, the elements constituting the function and the execution condition, and the like.
  • buttons displayed on the instrument panel display 22 the crew can display another screen or execute any command.
  • the button corresponds to an option for the HCU 30 to specify the command, which is the control content desired by the passenger.
  • the command of the present disclosure can also be interpreted as control/processing to be executed by the in-vehicle device corresponding to the target function. Commands can also be called actions or jobs.
  • a command is specified by a combination of the target function and its execution conditions.
  • Execution conditions can also be interpreted as execution parameters.
  • the navigation function execution condition is destination information.
  • the element specifying "where" corresponds to the execution condition.
  • Conditions related to route calculation, such as time priority, toll road priority, and distance priority, in other words, elements specifying "how” can also correspond to execution conditions of the navigation function.
  • the conditions for executing the audio function include song title/album name/artist name/genre.
  • the call function execution condition is an element corresponding to the party to be called (destination), that is, "to whom".
  • An execution condition corresponding to the web browsing function is a search term.
  • Execution conditions corresponding to the motion picture reproduction function include program name/channel/movie name/category.
  • the display control unit F2 displays the home screen on the instrument panel display 22 as the highest screen.
  • the home screen is a screen for selecting a function to be used by the passenger.
  • the home screen may include function selection buttons B1-B6 as shown in FIG. All of the function selection buttons B1 to B6 are buttons for selecting a target function, which is a function to be used/operated by the passenger.
  • B1 in FIG. 5 is a button for calling the operation screen of the navigation function
  • B2 is a button for calling the operation screen of the audio function
  • B3 is a button for calling a call function screen
  • B4 is a button for displaying a web browser screen
  • B5 is a button for calling a screen related to the moving image playback function
  • B6 is a button for calling a setting change screen which is a screen for changing various settings.
  • a button corresponding to each function can also be called an icon.
  • Various operation screens displayed on the instrument panel display 22 by the display control unit F2 have a tree/hierarchical structure.
  • the screens for each function branched from the home screen become screens for designating (selecting) more specific execution conditions as they become lower screens.
  • the display control unit F2 also displays a cursor C pointing to the current input position on the screen as an element for the occupant to select a button.
  • the cursor C is arrow-shaped in FIG. 5, any figure or symbol can be adopted.
  • the position of cursor C can be changed based on a signal from a pointing device such as touch pad 23B.
  • the passenger By operating the operation device 23, the passenger can move the cursor C within the display screen and select a desired button.
  • the occupant can also directly select a button via the touch panel 23A without using the cursor C.
  • the selection operation reception unit F3 receives the selection operation of the button displayed on the instrument panel display 22 by the occupant based on operation signals input from various operation devices 23 .
  • the selection operation reception unit F3 detects the selection operation of the button displayed on the display screen by the occupant based on the signal from the operation device 23, the selection operation reception unit F3 notifies the ID of the selected button to the display control unit F2.
  • the display control unit F2 specifies the screen ID to be displayed next based on the ID of the selected button, and displays the screen.
  • the position of the button provided on the screen is set in advance for each screen, and the selection operation reception unit F3 identifies the button ID of the button selected by the passenger from the currently displayed screen ID and the cursor position. be able to.
  • the operation state determination unit F4 determines whether the occupant's operation state is a series of operations for using a predetermined function. It is determined whether or not it is in the middle of A state in which the operation is in progress includes a state in which input of a destination is not completed, a state in which a list of songs/albums/artists is displayed, a state in which a list of movies is displayed, and the like.
  • the state in which the operation is in progress corresponds to a state in which the execution button, which is the button for starting execution of the function, has not yet been pressed. Triggered by the pressing of the execution button, the HCU 30 starts route guidance, music reproduction, telephone calling, and the like.
  • the button for instructing the start of guidance corresponds to the execution button.
  • the call button displayed after selecting the destination corresponds to the execute button. A button that behaves as a run button can be designed accordingly.
  • the operation of selecting the execution button is also referred to as the final operation/execution instruction for executing the function in the present disclosure.
  • operations other than the final operation in the series of operations for executing a function are referred to as non-final operations.
  • Non-final operations can also be referred to as intermediate operations.
  • the non-final operation is an operation related to the input of execution conditions such as a destination and a call destination, so it can also be called a condition input operation.
  • the target function estimation unit F5 estimates the target function based on the ID of the current screen or the ID of the button selected by the passenger.
  • the target function estimation unit F5 may determine that the target function is the navigation function when the current screen is a screen associated with the navigation function. Estimating the target function corresponds to estimating what the passenger as the operator wants to do, in other words, estimating the in-vehicle device to be operated.
  • the driving state determination unit F6 determines whether or not the driver is driving (that is, driving). For example, the driving state determination unit F6 may perform preparatory processing for determining whether or not the driver is in the driving state. The preparation process may be to determine whether or not the host vehicle is running based on vehicle information input from the vehicle state sensor 11 . The driving state determination unit F6 determines that the vehicle is running when the vehicle speed is equal to or higher than a predetermined threshold value (for example, 3 km/h), and determines that the vehicle is running when the vehicle speed is less than the predetermined threshold value. You can decide not to. Further, the driving state determination unit F6 may determine that the host vehicle is not running based on the fact that the shift position is the parking position or the parking brake is on. The condition for determining that the own vehicle is stopped can be changed as appropriate.
  • a predetermined threshold value for example, 3 km/h
  • the driving state determination unit F6 determines whether the driver is in a driving state based on the operation mode information input from the automatic operation device 17 when the own vehicle is running. Even when the vehicle is running, the driving state determination unit F6 may determine that the driver is not in the driving state when the vehicle is in the automatic driving mode. On the other hand, when the self-vehicle is not under automatic operation and the own vehicle is running, the driving state determination part F6 may determine that the driver is in the driving state. If the own vehicle does not have an automatic driving function, the driving state determination unit F6 may determine that the driver is in the driving state based on the fact that the own vehicle is running.
  • the driving state determination unit F6 determines that the driver is not in the driving state when the own vehicle is not running. In a broad sense, stepping on the brake pedal to keep the vehicle stopped may be regarded as part of the driving operation.
  • the operating state in the present disclosure means a state in which an operation for causing the vehicle to travel is being performed, and is not included in the operating state while the vehicle is stopped.
  • a driver state that is not in a driving state is also referred to in this disclosure as a non-driving state.
  • the voice recognition unit F7 is configured to analyze the content of what the crew member has said.
  • the voice recognition unit F7 enters a voice input standby state based on the occurrence of a specific voice recognition start event, and acquires voice data uttered by the passenger via the microphone 25 . Then, the voice data is subjected to voice recognition processing to acquire text data corresponding to the voice data.
  • the voice input standby state is a state in which data input from the microphone 25 is acquired as a voice recognition target.
  • the voice input standby state corresponds to a state in which the voice recognition function is activated.
  • Pressing the talk switch 26 can be adopted as the speech recognition start event.
  • the driver it is also possible for the driver to receive an operation to transition to a screen subject to operation restrictions while the driver is in a driving state, or to have the driver transition to a driving state while a screen subject to operation restrictions is being displayed.
  • speech recognition start event includes speech recognition start event.
  • wake word utterance detection can also be included in the speech recognition start event.
  • a wake word is a prescribed phrase for activating speech recognition (voice input), and may also be called a hot word, trigger word, wake-up word, or the like.
  • speech recognition processing that is, analysis of speech content is performed inside the HCU 30 .
  • the voice recognition processing may be performed by a voice recognition server provided outside the vehicle.
  • the voice recognition unit F7 may select the microphone 25 to be activated according to the situation inside the vehicle and the target function when acquiring the spoken voice. Both the D-seat microphone 25a and the P-seat microphone 25b are enabled in a situation in which a voice instruction from the driver should also be accepted. Further, when the driver's driving load is high, or when it is determined that the person operating the operation device 23 is the front passenger, only the P-seat microphone 25b is activated. Enabling/disabling of the microphone 25 can be switched by software. According to this configuration, it is possible to reduce the possibility of bothering the driver and the possibility of system malfunction.
  • the command specifying unit F8 specifies a command to be executed based on at least one of the passenger's operation content and the voice recognition result acquired by the selection operation receiving unit F3.
  • the command specifying unit F8 specifies a command based on the content of the operation when the crew member has completed a series of operations on the operation device 23 for executing a function. This case corresponds to a case in which commands are specified only by signals from the operation device 23 .
  • the command specifying unit F8 acquires a request phrase, which is a phrase including a verb phrase indicating a desired function to be executed and its object as a speech recognition result
  • the command specifying unit F8 specifies a command according to the contents of the utterance.
  • the request phrase is, for example, "Call Mr.
  • the command identification unit F8 complementarily combines the passenger's input content and the voice recognition process until then. Executes command input support processing to specify a command. Details of the command input support process will be described separately later.
  • the command execution part F9 is configured to execute the command specified by the command specifying part F8. Execution of the command is realized through cooperation with in-vehicle equipment corresponding to the target function. If the command specified by the command specifying unit F8 is related to the navigation function, information such as the destination is transmitted to the navigation device 15 to cause the command to be executed.
  • the display control unit F2 may execute an operation restriction process that restricts the input operation of the passenger regarding the screen display on condition that the vehicle is running. Manipulation restrictions are also referred to as drive enforcement. Specifically, the operation restriction can correspond to restricting the passenger's operation of the navigation device 15, the audio device 16, the call function, and the like. The operation restriction is a process for restraining the driver from continuing to gaze at the instrument panel display 22 while driving.
  • Restricted screens which are operation screens subject to operation restrictions, are registered in advance in the HCU 30 .
  • a list of IDs of restricted screens is registered in the HCU 30 .
  • a flag is set for each screen to indicate whether or not the screen is subject to operation restrictions.
  • the HCU 30 is configured to be able to determine whether the current screen and the transition destination screen are restricted screens based on the screen ID.
  • the transition destination screen is a screen to be displayed next, and is specified by the ID of the button selected by the passenger.
  • buttons that are disabled due to operation restrictions may be displayed in a toned-down manner to inform the driver that they cannot be selected. Tone-down display will be described later.
  • the HCU 30 does not always apply the operation restriction. Operation restrictions are not applied when certain conditions are met, such as when the vehicle is stopped. A case where the operation restriction is applied is basically a case where the driver is in a driving state. However, when it is confirmed that the operator of the operation device 23 is not a driver such as an occupant in the front passenger seat, the HCU 30 of the present disclosure applies operation restrictions even if the driver is driving. do not. Conditions for applying operational limits can be designed accordingly.
  • the HCU 30 displays the button for executing the function included in the restriction target screen in such a manner that the passenger cannot select it.
  • the non-selectable mode means a mode in which the image and text forming the button are toned down from the normal appearance. Toning down corresponds to lowering saturation, graying (so-called grayout), lowering luminance, changing a line used for display from a solid line to a dashed line, and the like.
  • Normal time means a state in which the operation restriction is not applied, in other words, the button can be selected by the occupant.
  • the operation screens that are set as operation-restricted screens are screens that tend to take a long time to be visually recognized by the crew.
  • an estimated viewing time which is an estimated value of the time for the passenger to visually recognize the screen, is set in order to distinguish whether the screen is a restricted screen or not.
  • the estimated visual recognition time for a certain screen corresponds to the estimated value of the time until the input on the screen is completed.
  • the estimated viewing time for each screen is designed according to the number of options provided by the screen and the number of operations required by the passenger to switch between screens. The larger the number of options (buttons) and input items provided on the operation screen, the longer the expected visual recognition time.
  • the restricted screen can be a screen whose estimated viewing time is equal to or greater than a predetermined value.
  • the destination selection screen shown in FIG. 6 can be set as a restricted screen.
  • the destination selection screen is a screen for selecting a destination, and corresponds to one of the screens for using the call function.
  • operation screens for which the cumulative viewing time is equal to or greater than a predetermined value are also set as restricted screens.
  • the cumulative viewing time is the cumulative value of the estimated viewing time from the home screen.
  • the cumulative visual recognition time will be described with reference to FIG. 7 .
  • FIG. 7 shows a case in which four screen transitions from the first screen to the fourth screen occur before function execution.
  • the first screen is a screen displayed after the home screen. Taking the navigation function as an example, the first screen is a screen for selecting from which point of view the destination is to be entered, such as address, facility name, telephone number, and the like.
  • the second screen is a screen for inputting prefectures and cities, towns and villages, and the third screen is a screen for inputting addresses and the like.
  • the fourth screen is a screen for confirming the setting of the destination by displaying a map image around the input destination.
  • the fifth screen may include a screen for selecting a driving route from a plurality of route candidates calculated from different viewpoints such as distance priority and time priority.
  • each screen has an estimated viewing time according to the screen configuration.
  • FIG. 7 shows the case where the estimated viewing times of the 1st to 4th screens are set to 5 seconds, 6 seconds, 10 seconds, and 5 seconds in order.
  • VT in the figure indicates an assumed viewing time.
  • CVT indicates the accumulated visual recognition time.
  • the cumulative viewing time for a certain screen is a value obtained by adding the estimated viewing time for the screen to the total value of the estimated viewing times for the screen up to the screen.
  • the cumulative viewing time of the third screen is the sum of the estimated viewing times of the first screen, the second screen, and the third screen. In the example shown in FIG. 7, the cumulative viewing time of the third screen is 21 seconds.
  • the third screen and subsequent screens are registered as the restriction target screens.
  • the restricted target screen may differ depending on the threshold for the cumulative viewing time.
  • the threshold value for the cumulative viewing time is set to 10 seconds
  • the screens after the second screen correspond to the restricted screens. Note that the setting example of the restricted screen described above is an example and can be changed as appropriate.
  • the flowchart shown in FIG. 8 is executed when a non-final operation causing screen transition is received.
  • the flowchart shown in FIG. 8 includes steps S101 to S103, S110, and S120 to S126 as an example. Each step is executed in order according to the arrows shown in FIG.
  • the description of the processor 31 as the execution entity of the steps can be appropriately read as any of the plurality of functional units provided in the HCU 30, such as the information acquisition unit F1 to the command execution unit F9.
  • Step S101 is a step for acquiring various information that the processor 31 uses in subsequent processing.
  • the information acquisition unit F1 acquires vehicle state information, driver state information, and the like. Also, in step S101, the ID of the button selected by the passenger as a non-final operation is acquired, and the ID of the transition destination screen is acquired based on the button ID.
  • step S102 the processor 31 determines whether or not the transition destination screen corresponds to the restricted screen based on the button ID/transition destination screen ID acquired in step S101. If the transition destination screen corresponds to the restricted screen (step S102 YES), the processor 31 determines whether or not the driver is driving based on the output signal of the vehicle state sensor 11 . If the transition destination screen corresponds to the restricted screen and the driver is in the driving state (step S103 YES), the processor 31 displays the transition destination screen toned down (S120). As described above, the tone-down display means that buttons for inputting execution conditions are displayed in a non-selectable manner.
  • buttons that are not related to the input of execution conditions include a button for displaying a map of the vicinity of the current position, a button for returning to the home screen, and the like.
  • the transition destination screen is normally displayed.
  • Normal display means that buttons for inputting execution conditions are displayed in a selectable manner.
  • Step S121 is a step in which the processor 31 estimates the target function based on the ID of the current screen. Since the current screen is linked to the ID of the button selected last, estimating the target function based on the screen ID is the same as estimating the target function based on the ID of the button selected by the passenger. corresponds to
  • step S122 the processor 31 voice-outputs an inquiry message linked to the current screen. For example, if the current screen is the destination selection screen, processor 31 may voice out (announce) a question such as "Who would you like to call?" Also, if the current screen is a screen for inputting an address as a destination, an inquiry message such as "Where do you want to go?" If the current screen is a song selection screen related to the audio function, an inquiry message such as "Which song do you want to listen to?”
  • the inquiry message is preferably output from the speaker 24 as a voice so that the driver can recognize it even while looking at the traffic situation ahead.
  • the inquiry message may be displayed in the D-seat display area A1 or the HUD 21 as an image.
  • the inquiry message output in step S122 acts as a trigger for prompting the passenger to voice-input the execution conditions such as the destination, as will be described below.
  • the inquiry message to be displayed/audio output in step S122 is registered in the storage 32 or the like in advance for each screen ID.
  • the content of the inquiry message may directly correspond to the options on the current screen. If the current screen is a screen for selecting the state/prefecture to which the destination belongs in setting the destination, an inquiry message such as "Which state/prefecture would you like to visit?" may be output.
  • this inquiry method it may be necessary for the passenger to utter an answer for each item that has not been input or for each operation screen.
  • the HCU 30 of this embodiment poses questions that can achieve the original purpose without being bound by the current screen. That is, it asks for the object of the verb phrase corresponding to the target function. According to the said structure, it becomes possible to reduce the frequency
  • Step S123 is a step in which the processor 31 activates the speech recognition function. That is, it shifts to the voice input standby state.
  • Step S124 is a step of acquiring the uttered voice of the passenger and acquiring the recognition result. Note that if the occupant's utterance cannot be detected even after waiting for a certain period of time, this flow ends as a time-out.
  • a step S125 identifies a command desired by the passenger from the target function identified in step S121 and the utterance content obtained in step S124. It can be expected that the utterance content acquired in step S124 includes objects corresponding to execution conditions such as destinations, titles of songs, call destinations, and search words.
  • Processor 31 identifies a command by extracting an object from the utterance content and combining the object with the target function. If the target function is specified as the navigation function, and if "XX station" is acquired as the object, route guidance to XX station is acquired as a command. Also, in a situation where the target function is specified as a call function, if a person's name (eg, XX) is acquired as an object, a call to Mr. XX is acquired as a command.
  • a person's name eg, XX
  • the answers to questions from the system related to the call function can be classified into the following three patterns (1) to (3).
  • the processor 31 is configured to be compatible with any of the patterns (1) to (3).
  • the pronouns that indicate the destination are the person who just called, the father, the mother, the school, and so on. If the uttered destination corresponds to the pattern (3), the processor 31 searches the uttered name on the Internet and obtains the telephone number.
  • the processor 31 may operate as follows regarding the process of specifying a command by combining the target function estimation result with the speech recognition result. That is, the processor 31 supplements the object (O: object) acquired as the content of the utterance with the verb phrase (V: verb) corresponding to the ID (target function) of the current screen, thereby forming a pseudo request phrase. Generate. Then, using the pseudo request phrase, the most likely command can be obtained from the command list.
  • the command list is a list of commands that can be executed by the in-vehicle system Sys, and is a list of functions that can be operated/used by the occupant and control/processing that can be executed by the target functions. As described above, the function can be said to be an in-vehicle device/application or the like.
  • the processor 31 may use information on the target function to improve accuracy or reduce the processing load.
  • the processor 31 may preferentially extract words highly relevant to the target function as execution conditions from the full text of the utterance content acquired by speech recognition.
  • the HCU 30 may have a speech recognition database for acquiring the object corresponding to each function. In that case, the processor 31 selects the database used for speech recognition according to the target function specified in step S121.
  • the processor 31 analyzes the content of the utterance using a speech recognition database corresponding to the target function and extracts the object.
  • the HCU 30 may have a command list for each function that allows commands to be specified directly from the object.
  • Step S126 is a step of executing the command specified in step S125. If the specified command is "route guidance to XX station", a control signal corresponding to the command is output to the navigation device 15 to start navigation.
  • a series of sequences from step S121 to step S126 is also referred to as speech complementing processing.
  • the process of automatically activating the voice recognition function (S122 to S123) at the same time/immediately after outputting the inquiry message corresponding to the current screen is also called voice input guidance process.
  • the voice input guidance process corresponds to the process of prompting voice input of the non-input item, in other words, the object of the transitive verb corresponding to the functional object.
  • the configuration described above corresponds to a configuration in which, when a screen transitions to a screen to which an operation restriction is applied while the driver is driving, the continuation of the operation is obtained by voice input. According to this configuration, it is possible to prevent the operation from being stopped in the middle due to the start of driving or the like, thereby reducing the convenience for the driver. In other words, even functions to which operation restrictions are applied can be used by the driver through voice input.
  • the HCU 30 automatically activates the voice recognition function based on the display screen transitioning to the restricted screen while the driver is driving. Therefore, a passenger such as a driver does not need to press the talk switch 26 or issue a wake word when inputting voice.
  • the crew can speak the object that indicates the execution condition in response to the inquiry from the system. That is, the occupant does not have to utter the entire request phrase, including the verb phrase and object. Therefore, it is possible to reduce the amount of speech by the passenger. In addition, since the utterance content to be analyzed is shortened, the recognition accuracy itself can be improved. Therefore, the fear of malfunction can also be reduced.
  • the HCU 30 of the present disclosure poses questions that may limit the range of answers, including verb phrases related to the target function. Therefore, there is an advantage that it is easy for the crew to know what to say.
  • the processor 31 identifies the target function based on the details of the passenger's previous operation, and performs control according to the content of the utterance within the range in which the target function can be performed. Since the target function is specified based on the selection operation of the passenger, the possibility of erroneous determination is low. Therefore, it is possible to reduce the possibility that the occupant will activate an unintended function.
  • the initial operations such as selecting functions from the home screen
  • the interface can be easy to use, with little sense of incongruity even for passengers who prefer to use the operation device 23 for input instead of voice input.
  • the target function is specified before voice recognition is started, the range of words that the passenger can speak can be narrowed down, and voice recognition accuracy can be improved.
  • the HCU 30 corresponds to a configuration that switches input from a screen on which operation is restricted, in other words, after a screen on which manual operation takes a long time, to voice input.
  • this configuration switches from manual operation to voice input, and does not switch from voice input to manual operation. Nor does it switch the input means to manual operation based on the failure of speech recognition. It is also not intended to redo instruction input from the beginning or from a step before a predetermined amount by using a failure of recognition or the like as a trigger.
  • the HCU 30 may output an inquiry message as an image instead of a voice.
  • the HCU 30 may change the output mode of the inquiry message according to the conditions inside the vehicle. According to this configuration, convenience/comfort can be further improved.
  • the driving preparation state is, for example, a state in which the instrument panel display 22 is not viewed, more specifically, a state in which the driver is looking ahead of the vehicle. Whether or not the driver is ready for driving can be determined from the line-of-sight direction/face direction of the driver determined based on the signal from the passenger watching camera 13 .
  • the processor 31 may determine that the driver has shifted to the driving preparation state based on the start of the preceding vehicle being detected by the perimeter monitoring sensor 12 while the own vehicle is stopped. Further, the processor 31 detects that the surroundings monitoring sensor 12 has detected that the lighting state of the traffic light has changed to a lighting state that permits passage of the own vehicle while the vehicle is stopped by the instruction of the traffic light. may be determined to have moved to the operation preparation state.
  • the lighting state in which the vehicle is permitted to pass includes the state in which the green lamp is lit and the state in which the arrow-shaped auxiliary light corresponding to the traveling direction of the vehicle is lit.
  • the lighting state of the traffic light can be recognized by a camera as the perimeter monitoring sensor 12 .
  • the lighting state of the traffic signal may be specified based on the lighting schedule information delivered from the roadside device.
  • the processor 31 may be determined to be in the operation preparation state if the host vehicle is in the automatic driving mode and is in the process of driving change, or if it is planned to start the driving change process within a predetermined time (10 seconds).
  • FIG. 9 is a flowchart of command input support processing including a step of determining whether or not the driver is ready for driving.
  • the processor 31 determines whether the driver is in the driving preparation state (step S104). Whether or not the vehicle is in the driving preparation state is determined, as described above, based on the line-of-sight direction of the driver, the behavior of the preceding vehicle, the lighting state of the traffic signal, and the execution plan of the driving change processing.
  • the transition destination screen is normally displayed (step S110).
  • step S104 determines that the driver is in the driving preparation state (step S104 YES)
  • the restricted screen is displayed toned down and voice complement processing is performed (steps S120, S130).
  • voice input guidance processing is performed, and the combination of the target function, the estimation result, and the voice recognition result allows the passenger to identifies and implements the commands desired by
  • the HCU 30 may change the behavior (response) to the occupant's input operation depending on whether the operator of the operation device 23 is a front passenger seat occupant.
  • An embodiment (modification) corresponding to such a technical idea will be described with reference to FIGS. 10 and 11.
  • FIG. Note that an operator in the present disclosure is a person who presses a button displayed on the instrument panel display 22 by operating the operation device 23 . Since the operator is the person who is inputting the execution condition, it can also be called the person who entered the execution condition/command.
  • FIG. 10 is a block diagram showing the functions of the HCU 30 corresponding to the above technical idea.
  • the HCU 30 in this modification includes a passenger seat occupant detection unit Fa, an operator identification unit Fb, and an actual visual recognition time measurement unit Fc. These functional units can also be realized by the processor 31 executing the in-vehicle equipment control program.
  • the passenger seat occupant detection unit Fa detects whether or not there is an occupant in the passenger seat. Whether or not there is an occupant in the front passenger seat can be determined based on output signals from a seat sensor and a seat belt sensor provided in the front passenger seat. Further, the front passenger seat occupant detection unit Fa may determine whether or not there is a front passenger seat occupant based on a signal from the passenger watching camera 13 .
  • the operator identification part Fb is configured to identify the operator of the operation device 23 . If the front passenger seat occupant is not detected, the operator identification unit Fb determines that the operator is the driver. On the other hand, when the front passenger seat occupant is detected, the operator identification unit Fb may analyze the image of the passenger watching camera 13 to determine which of the driver and front passenger seat occupant corresponds to the operator. As information for the operator's judgment, it is possible to adopt the posture, face direction, hand movement, etc. of each passenger. The operator identification unit Fb determines that the person touching the operation device 23 or the person looking at the instrument panel display 22 is the operator.
  • the operator identification unit Fb can detect the motion direction of the fingers or arms. The operator may be determined based on the Further, the operator specifying unit Fb may specify the operator by elimination method. When it is confirmed that the driver is looking forward and that both hands of the driver or the hand closer to the operation screen is gripping the steering wheel at the time of receiving the operation, the operator identification unit Fb , the operator may be determined to be an occupant in the front passenger seat.
  • the actual visual recognition time measurement unit Fc is configured to measure the time that the operator continues to look at the instrument panel display 22 .
  • the time during which the operator continues to look at the instrument panel display 22 corresponds to the time during which the line of sight of the operator matches the direction in which the operation screen or the cursor exists.
  • the line-of-sight direction of the operator is determined by the signal from the passenger watching camera 13 as described above.
  • the match here is not limited to a perfect match, and includes a case where there is a deviation of about 30 degrees, that is, a nearly match.
  • the HCU 30 of this modified example executes the flow shown in FIG. 11 as command input support processing.
  • the command input support process shown in FIG. 11 can be implemented in appropriate combination with the process shown in FIG. 9 and the like.
  • the command input support process shown in FIG. 11 is also executed when a non-final operation causing screen transition is received, similarly to the command input support process shown in FIGS.
  • the command input support process shown in FIG. 11 includes steps S201 to S204, steps S210, S220, and S230. Each step is executed in order according to the arrows shown in FIG.
  • Steps S201 to S203 are the same as steps S101 to S103 described above.
  • Step S204 is a step for determining whether or not the operator is the driver. If it is determined that the operator is the driver (step S204 YES), the transition destination screen is displayed toned down (step S220), and voice complement processing is executed (step S230). The specific contents of steps S220 and S230 are the same as those of steps S120 and S130. On the other hand, if it is determined that the operator is not the driver, that is, the operator is the front passenger (step S204 NO), the transition destination screen is normally displayed as step S210 (step S210).
  • the HCU 30 does not apply the operation restriction, Buttons for inputting execution conditions are displayed in a selectable manner. According to this configuration, it is possible to improve the operability of the vehicle-mounted HMI for the passenger in the passenger's seat.
  • FIG. 12 shows a flow corresponding to the technical idea, and step S301 is a step of determining whether or not the input support conditions are satisfied. Further, step S302 is a step of executing voice complementing processing.
  • the input support condition corresponds to the condition for performing speech complement processing even when operation restrictions are not applied. Executing the voice complementing process corresponds to acquiring (complementing) an item that has not been input by voice input, in other words, switching the execution condition input means to voice input. Therefore, the input support condition can be interpreted as a condition for switching the input means of the execution condition to voice input.
  • the processor 31 executes the voice complementing process when the selection operation is not performed after a predetermined period of time. If the selection operation is not performed even after a predetermined lapse of time after the display screen is switched, it suggests that the operator is at a loss or is at a loss as to what to do. In such a situation, according to the configuration described above, the system asks questions, making it easier for the operator to use the desired function.
  • the processor 31 may execute the voice complementing process when the input completion button is not pressed even after a predetermined period of time has passed since the keyboard screen was displayed.
  • the keyboard screen is a screen provided with an input form for entering any character string as a search term.
  • the input completion button is a button for the operator to inform the system that the input of the character string is completed. When the input completion button is pressed, the HCU 30 executes subsequent processing such as searching using the input character string as a key.
  • the processor 31 may execute the voice complementing process based on the execution of the operation/processing to return to the previous screen.
  • the operation/processing to return to the previous screen was executed, the character input was completed on the keyboard screen related to the destination setting, but as a search result, the address/facility, etc. corresponding to the input character string could not be found. including cases where there were no If the above operation/process has been performed, it is assumed that the operator is having trouble finding the desired option.
  • FIG. 13 is a flow showing the operation of the processor 31 concerned.
  • the processing flow can be implemented in parallel with, in combination with, or in place of the various processing described above.
  • the flow shown in FIG. 13 can be implemented as a post-process of step S210.
  • Step S311 shown in FIG. 13 is a step for determining whether or not the restriction target screen is normally displayed based on the fact that the passenger in the front passenger seat is operating, and step S312 is a step for the driver to operate the operation device 23. This is the step of determining whether or not the Step S ⁇ b>312 may be a step of determining whether or not the driver is about to operate the operation device 23 .
  • Step S313 is a step of switching the display mode of the current screen to a tone-down display
  • step S314 is a step of performing voice complementing processing.
  • the processor 31 may measure the time that the driver continues to look at the instrument panel display 22. .
  • the processor 31 outputs a sound when the time for which the driver continues to look at the instrument panel display 22 exceeds a predetermined value in a situation where the restriction target screen is normally displayed on the condition that the passenger in the passenger seat is operating it. Complementary processing may be performed. This configuration can also reduce the risk of the driver continuing to look at the instrument panel display 22 while driving.
  • the processor 31 may display a voice recognition indicator, which is an image indicating the operating state (on/off) of the voice recognition function, at a predetermined position on the instrument panel display 22 .
  • the voice recognition indicator is an icon image that partially changes shape/color depending on the operating state of the voice recognition function.
  • the voice recognition status image may be an image simulating a microphone or an image simulating a face.
  • a voice recognition indicator may be realized by combining a microphone image and a face image as shown in FIG. (A) shown in FIG. 14 shows a display form in a scene in which an inquiry message is being output, and (B) shows a display form indicating that voice input is waiting. (C) of FIG. 14 shows a display form in a scene in which neither an inquiry message is output nor voice input is on standby.
  • FIG. 14 shows a display form in a scene in which neither an inquiry message is output nor voice input is on standby.
  • the voice recognition indicator may be implemented using any character image.
  • the processor 31 may express that the character is asking the question by opening and closing the mouth of the character constituting the voice recognition indicator in conjunction with the announcement. Usability can be improved according to this control mode.
  • step S322 When the processor 31 detects that the occupant continues to watch the voice recognition based on the signal from the occupant monitoring camera 13 as shown in FIG. Good (step S322). Note that the flow shown in FIG. 15 can be performed as a post-process of step S110 or step S210.
  • the processor 31 may adjust the display position of the operation screen (window) depending on whether the function that the passenger intends to use is a driving-related function or whether the operator is a driver or a front passenger.
  • Driving-related functions mean functions that affect the driver's driving operation and the in-vehicle environment for the driver. Driving-related functions include, for example, navigation functions. It should be noted that audio and climate control functions can also be included in the driving-related functions, since the music and air conditioning that are played in the car can affect the driver. On the other hand, entertainment-related functions such as video playback functions and web browsing functions do not correspond to driving-related functions. It is sufficient that the function type to be used as the driving-related function is registered in advance.
  • the processor 31 determines whether the selected function is a driving-related function (step S331).
  • the selected function is a function that the passenger intends to use, and corresponds to the target function described above.
  • the selected function is specified based on the button ID or the ID of the transition destination screen selected by the passenger.
  • step S331 YES When the processor 31 determines that the selected function corresponds to the driving-related function (step S331 YES), it displays the operation screen in the central display area A3 (step S332). On the other hand, when the processor 31 determines that the selected function does not correspond to the driving-related function (step S331 NO), it determines whether the operator is the driver (step S333).
  • step S333 YES If the selected function is not a driving-related function but the operator is a driver (step S333 YES), the processor 31 displays the operation screen in the central display area A3 (step S332). On the other hand, if the selected function is not a driving-related function and the operator is a front passenger (step S333 NO), the operation screen is displayed in the P seat display area A2 (step S334).
  • the operation screen such as the video playback application activated by the passenger's operation is displayed in the P-seat display area A2, making it difficult for the driver to see it. Therefore, it is possible to reduce the risk of the driver being annoyed by the screen display caused by the operation of the passenger in the front passenger seat.
  • the processor 31 may display the operation screen in the D-seat display area A1.
  • the determination of whether the operator is the driver or the front passenger is premised on the existence of the front passenger.
  • the above configuration changes the display position of the operation screen corresponding to the selected function based on a combination of whether or not it is determined that a passenger is present and whether or not the selected function corresponds to a driving-related function. It corresponds to an example of the configuration.
  • the flow chart shown in FIG. 16 includes a step of determining whether or not a passenger is present.
  • the processor 31 may adjust the display position of the operation screen using only one of the selected function type and the operator.
  • the processor 31 displays the operation screen for the selected function in the P seat display area A2.
  • the person who pressed the function selection button is the driver, it may be displayed in the central display area A3.
  • the processor 31 selects a combination of the speaker 24 and the microphone 25 to be used in the voice complementing process depending on whether the function that the passenger is going to use is a driving-related function or whether the operator is a driver. You can change it.
  • the processor 31 can selectively adopt the following three patterns (A) to (C) as combinations of the speaker 24 and the microphone 25 used in the speech complementing process. (A) Using the speaker 24 and microphone 25 on both sides of the D and P seats, (B) Using the speaker 24 and microphone 25 on the D seat side, (C) Using the speaker 24 and microphone 25 on the P seat . In pattern B, the processor 31 does not output an inquiry message from the P-seat speaker 24b and temporarily turns off the P-seat microphone 25b. In Pattern C, the processor 31 does not output an inquiry message from the D seat speaker 24a and temporarily turns off the D seat microphone 25a.
  • Pattern A corresponds to a pattern in which both the driver and passenger are requested to speak the object.
  • Pattern B mainly corresponds to a pattern in which the driver is requested to utter an object.
  • Pattern C mainly corresponds to a pattern in which the occupant in the front passenger seat is requested to utter an object.
  • the processor 31 determines whether the selected function is a driving-related function (step S341), as shown in FIG. If the processor 31 determines that the selected function corresponds to the driving-related function (step S341 YES), the processor 31 uses the speakers 24 and the microphones 25 of both the D seat side and the P seat side to execute the voice complementing process (step S342). That is, the processor 31 adopts the pattern A as a combination of the speaker 24 and the microphone 25 used in the speech complementing process.
  • step S341 NO determines whether the operator is the driver (step S343). If the selected function is not a driving-related function but the operator is a driver (step S343 YES), the processor 31 adopts pattern A (step S342).
  • the processor 31 uses the speaker 24 and microphone 25 on the side of the P seat to perform voice supplementation processing. (Step S344). That is, the processor 31 adopts the pattern C as the combination of the speaker 24 and the microphone 25 used in the speech complementing process.
  • the combination of the speaker 24 and the microphone 25 used in the voice complementing process is based on whether or not it is determined that a passenger is present and whether or not the selected function corresponds to the driving-related function. corresponds to a configuration that changes the
  • the processor 31 may change the combination of the microphones 25 used to acquire the object using either the type of selection function or the operator.
  • the processor 31 may be configured to adopt pattern C regardless of the operator when the selected function is not a driving-related function.
  • a case where the selected function is not a driving-related function is a case where the selected function is a video playback application or the like.
  • the processor 31 may execute the voice complementing process triggered by the driver's transition from the non-driving state to the driving state during screen operation.
  • the processor 31 may switch the execution condition acquisition means from manual operation to voice input along the flow shown in FIG. 18 .
  • the flow shown in FIG. 18 includes steps S401 to S404, steps S420, and steps S430, and can be executed in order according to the arrows in the drawing. It should be noted that the processing flow shown in FIG. 18 can be implemented in parallel with, in combination with, or in place of the various processing described above.
  • the flow shown in FIG. 18 can be performed periodically at predetermined intervals such as 250 milliseconds, 500 milliseconds, or 1 second while an operation screen for any function is being displayed.
  • Step S401 is a step of acquiring information used by the processor 31 in subsequent processing, such as vehicle information and driver status information, from various sensors/devices.
  • Step S402 is a step of determining whether or not the operation is in progress based on the ID of the current screen.
  • step S404 the processor 31 determines whether the driver's state has changed from the non-driving state to the driving state, that is, whether the driver has started driving (step S404).
  • driving in addition to the case where the vehicle is started by the driver turning on the accelerator or turning off the brake, the case where the automatic driving mode is switched to the manual driving mode can also be included.
  • step S403 YES When it is determined that the driver has started driving (step S403 YES), the display mode of the current screen is switched to tone-down display (step S420), and voice complementing processing is performed (step S430). On the other hand, if the current screen is not a restricted screen (step S402 NO) or if the driver has not yet started driving (step S403 NO), the processor 31 waits for the passenger's operation (step S404).
  • the above configuration also has the same effect as the above-described embodiment.
  • the driver can continue to input uninputted items (in other words, execution conditions) by voice even after the start of driving. As a result, it is possible to quickly execute the desired function.
  • the above processing may be configured to be performed on condition that the current screen is the restricted screen. If the current screen is not the restricted screen, the process of switching the display mode in step S420 may be omitted.
  • a question corresponding to the current screen/input content is output as an inquiry message.
  • the content of the message to be output here may be changed according to the degree (progress) of the operation. For example, on the address input screen for setting the destination, if the input up to "XX prefecture/state" to which the destination belongs is completed, and the current screen is the municipality selection screen, "Where are you going in XX prefecture/state?” ?” may be voice output. Also, on the address input screen for setting the destination, if the input up to the "city, town or village" to which the destination belongs has been completed and the current screen is the address input screen, "Please tell me your address. Guidance?” may be voice-outputted.
  • route guidance with the main part set as the destination may be executed as a command.
  • the processor 31 may materialize the question content according to the entered content.
  • the processor 31 may output a question for further narrowing down by voice.
  • the processor 31 detects that the input character string may be used to perform a search once. Then, the processor 31 may change subsequent control (response) according to the number of search hits.
  • processor 31 may output an inquiry message such as "Please tell us the name of the facility you want to visit.”
  • processor 31 may select the one with the highest likelihood from the search results and ask, "Is the place you want to go to XX?" The likelihood may be calculated according to the distance from the current location, such as the driver's past destination setting history and action history. If the search results include a facility that has been visited in the past, an inquiry may be made as to whether or not to set the facility as the destination.
  • the processor 31 may change the subsequent response depending on whether the target function corresponds to the driving-related function. As shown in FIG. 20, if the target function is a driving-related function, especially if it is a function that is highly related to driving operation such as a navigation function (step S421 YES), retry processing is performed (step S422). .
  • the retry process corresponds to executing the voice input guidance process again.
  • step S421 NO the processor 31 performs the subsequent operation in the nearest space where the vehicle can safely stop.
  • a safe parking space means a service area, a parking area, an evacuation space, or the like. If the speech recognition fails, the processor 31 may suggest that "There is a service area 5 km ahead, so let's stop and operate safely.” According to this response, it is possible to reduce the amount of time the driver pays attention to the system while driving.
  • the processor 31 when the processor 31 decides to execute the voice complementing process, it may adjust the output timing of the inquiry message depending on whether the driving change process is being executed. As shown in FIG. 21, if the processor 31 is executing the driving change process (step S431 YES), the output of the inquiry message is put on hold until the driving change is completed (step S432). On the other hand, if it is not during driving change (step S431 NO), an inquiry message is output.
  • the driver has to grasp the surrounding traffic conditions, check the status of the vehicle, and confirm the driving route, so the load on the driver is high. Outputting an inquiry message in such a situation may annoy the driver.
  • This modified example was created based on the above idea, and according to this modified example, it is possible to reduce the fear of bothering the driver.
  • the inquiry message may be output at any time even during the driving change.
  • the HCU 30 exemplifies a mode in which the answer range is a semi-closed question mode in which the range of answers is limited to the range related to the target function, and the mode is not limited to this.
  • HCU 30 may ask a fully closed question.
  • a fully closed question means a question that can be answered with two choices such as YES/NO.
  • Semi-closed questions are questions such as "Where are you going?", "What are you listening to?", "Which movie are you watching?” How to ask high questions.
  • a semi-closed question can also be called a semi-open question.
  • a vague question such as "Please talk" corresponds to a fully open question.
  • a CPU, an MPU, a GPU, a DFP (Data Flow Processor), or the like can be used as a processor (arithmetic core).
  • Some or all of the functions of the HCU 30 may be implemented using a system-on-chip (SoC).
  • SoC system-on-chip
  • the computer program may be stored in a computer-readable non-transitory tangible storage medium as instructions executed by a computer.
  • a HDD Hard-disk Drive
  • an SSD Solid State Drive
  • a flash memory or the like can be used as a program recording medium.
  • a program for causing a computer to function as the HCU 30, a form of a non-transitional substantive recording medium such as a semiconductor memory recording the program, and the like are also included in the scope of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

HCUは、ドライバが運転状態である状況において、操作制限対象に設定されている画面を表示する操作を受け付けた場合、操作制限の対象となるボタンをトーンダウンさせた態様で制限対象画面を表示するとともに、新たに表示した画面に予め対応付けられている問い合わせメッセージを音声出力する。そして、音声認識機能を自動的に有効化し、ドライバの回答を取得する。HCUは、現在表示中の制限対象画面のIDからドライバが使用したい機能である対象機能を推定し、対象機能の推定結果とドライバの回答とを組み合わせることで、実行すべきコマンド(ジョブ)を特定し、実行する。

Description

車内機器制御装置、車内機器制御方法 関連出願の相互参照
 この出願は、2022年2月9日に日本に出願された特許出願第2022-018944号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、乗員の手で操作される入力装置である操作デバイスからの信号に基づいて車内機器の動作を制御する技術に関する。
 タッチパネルやタッチパッドなどといった操作デバイスからの信号をもとに、車載ディスプレイに表示されているボタンに対する乗員の選択操作を検出し、経路案内の開始や音楽再生など、乗員の操作内容に応じた機能を実行する車内機器制御装置がある。
 このような車内機器制御装置においては、特許文献1に開示されているように、安全性向上を目的として、車両走行中は一部のボタンを乗員が選択できない態様で表示する、いわゆる操作制限機能が搭載されていることがある。
特開2016-24579号公報
 近年は音声入力により、発話された内容に応じた機能を実施する車内機器制御装置も導入されつつある。音声入力方式によれば、乗員はシステムへの指示入力のためにディスプレイの表示内容を確認する必要がない。故に、走行中の指示入力手段としては、音声入力方式は好適である。しかし、現在一般的に使用されている音声入力では、リクエストフレーズとして、例えば「XXさんに電話をかけて」や「XX駅を目的地に設定して」など、少なくとも乗員が利用したい機能を示す動詞句と、その目的語とを含むフレーズを発話する必要がある。また、乗員は音声入力を開始する際には、トークスイッチを押下したり、ウェイクワードを発話したりする必要もある。
 加えて、走行中の車内では、駆動源の動作音や、車内音楽、車外からのノイズ、同乗者の声など多様なノイズがある。当該ノイズによって乗員の発話内容を正しく認識できず、その結果として乗員の希望する機能を実施できないことが起こりうる。
 仮に車内機器制御装置が音声入力に対応している場合であっても、音声認識がうまく作動しない場合や、車内状況、乗員の好みによって、乗員は音声入力ではなく手操作にて指示を入力することがある。手入力方式によれば、乗員の確認のもと利用対象とする機能とその実行条件とが絞り込まれていく。
 そのため、手入力方式では、車内機器制御装置が乗員の希望とは異なる制御/処理を実施してしまう可能性は小さい。ここでの手入力方式とは、ディスプレイに表示したボタンに対する乗員の選択操作に基づいて実行すべき制御を特定する方式である。また、手入力方式は、周りが煩かったり、同乗者が寝ていたりするシーンでも利用しやすいといった利点も有する。しかしながら手入力方式では、機能の実行までに複数回の選択操作が必要となる事が多い。故に、車両の走行に伴う操作制限によって、一連の操作が途中で止まってしまうことがある。
 以上で述べたように、手入力方式と音声入力方式にはそれぞれ長所、短所があるが、これらを複合的に/相補的に用いて乗員が望む制御内容を特定する構成については特許文献1には何ら言及されていない。乗員の指示を取得するための構成としては改善の余地があった。
 本開示は、上記の検討又は着眼点に基づいて成されたものであり、その目的の1つは、乗員の利便性を向上可能な車内機器制御装置、車内機器制御方法を提供することにある。
 ここに開示される第1の車内機器制御装置は、ディスプレイに表示される選択肢に対する乗員の選択操作を受け付けるための操作デバイスからの信号、及び、音声認識によって特定される乗員の発話内容に基づいて車内機器を制御する車内機器制御装置であって、乗員の動き及び視線の少なくとも何れか一方を検出する乗員挙動センサの出力に基づき、運転席に着座している乗員である運転席乗員が、車両を走行させる操作をしている運転状態に該当するか否かを判定することと、操作デバイスからの信号に基づき、ディスプレイの表示画面を制御することと、運転席乗員が運転状態である状況において、操作制限の対象に設定されている画面である制限対象画面を呼び出す操作が行われたことを検出した場合には、当該制限対象画面に応じた、未入力の項目にかかる問い合わせメッセージを出力することと、問い合わせメッセージの出力と同時に又はその後に、音声認識機能を有効化することと、問い合わせメッセージ対する乗員の回答を音声認識により取得できた場合には制限対象画面に対応する機能の範囲において回答に応じた制御を実行することと、を実施するように構成されている。
 上記の車内機器制御装置によれば運転席乗員は、操作制限がかかっている状態においても、問い合わせメッセージに対して機能の実行にかかる希望の条件を発話することにより、所望の制御を実行させることができる。また、乗員の回答に基づいて上記装置が実行する機能の種別は、表示中/表示しようとしている画面に対応する機能であって、乗員が画面を見ながら選択した選択肢に対応するものである。そのため、乗員の回答に基づいて上記装置が実行する機能の種別は、操作者としての乗員の意図に沿っている可能性が高い。つまり上記構成によれば、乗員の意図しない制御を実施する恐れを低減できる。
 加えて、実行させる機能の種別は表示中/表示しようとしている画面に基づいて自動的に特定されるため、乗員は実行させたい機能にかかる動詞句を発話しなくとも良い。加えて、音声認識機能は自動的に有効化されるため、ウェイクワードを発話したり、トークスイッチを押下したりする必要もない。上記構成によれば、乗員の発話量を抑制できる。すなわち、上記構成によれば、より少ない発話量で、より精度良く所望の機能を実行させることが可能となるため乗員の利便性が向上しうる。
 また、本開示に含まれる第2の車内機器制御装置は、ディスプレイに表示される選択肢に対する乗員の選択操作を受け付けるための操作デバイスからの信号、及び、音声認識によって特定される乗員の発話内容に基づいて車内機器を制御する車内機器制御装置であって、乗員の動き及び視線の少なくとも何れか一方を検出する乗員挙動センサの出力に基づき、運転席に着座している乗員である運転席乗員が、車両を走行させる操作をしている運転状態であるか否かを判定することと、ディスプレイに表示している画面、又は、乗員によって選択された選択肢の情報に基づいて、現在の操作状態が所定の機能を実行させるための一連の操作の途中に該当するか否かを判定することと、操作状態が一連の操作の途中である状況において、運転席乗員が運転状態に移行したことに基づいて、現在の表示画面に応じた、未入力の項目にかかる問い合わせメッセージを出力することと、問い合わせメッセージの出力と同時に又はその後に、自動的に音声認識機能を有効化することと、問い合わせメッセージ対する乗員の回答を音声認識により取得できた場合には現在の表示画面に対応する機能の範囲において回答に応じた制御を実施することと、を実行するように構成されている。
 上記の第2の車内機器制御装置によれば、操作の途中で運転操作を開始した場合であっても、音声にて未入力の項目を入力することができ、所望の制御を実行させることができる。また、第1の車内機器制御装置と同様の理由により、第2の車内機器制御装置によれば、より少ない発話量で、より精度良く所望の機能を実行させることが可能となる。
 本開示の車内機器制御方法は、ディスプレイに表示される選択肢に対する乗員の選択操作を受け付けるための操作デバイスからの信号、及び、音声認識によって特定される乗員の発話内容に基づいて車内機器を制御する車内機器制御装置であって、乗員の動き及び視線の少なくとも何れか一方を検出する乗員挙動センサの出力に基づき、運転席に着座している乗員である運転席乗員が、車両を走行させる操作をしている運転状態であるか否かを判定することと、操作デバイスからの信号に基づき、ディスプレイの表示画面を制御することと、運転席乗員が運転状態である状況において、操作制限の対象に設定されている画面である制限対象画面を呼び出す操作が行われたことを検出した場合には、当該制限対象画面に応じた、未入力の項目にかかる問い合わせメッセージを出力することと、問い合わせメッセージの出力と同時に又はその後に、音声認識機能を有効化することと、問い合わせメッセージ対する乗員の回答を音声認識により取得できた場合には制限対象画面に対応する機能の範囲において回答に応じた制御を実行することと、を含む。
 上記方法は、第1の車内機器制御装置に対応する方法であって、第1の車内機器制御方法と同様の作用により同様の効果が得られる。
 なお、請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
車載システムの全体像を示すブロック図である。 インパネディスプレイの一例を示す図である。 HCUに連なる操作デバイスの一例を示す図である。 HCUの機能ブロック図である。 ホーム画面の一例を示す図である。 制限対象画面の一例を示す図である。 制限対象画面に設定されうる画面を説明するための図である。 コマンド入力支援処理のフローチャートである。 コマンド入力支援処理の他の例を示すフローチャートである。 変形例におけるHCUの機能ブロック図である。 コマンド入力支援処理の他の例を示すフローチャートである。 変形例におけるHCUの作動を説明するための図である。 変形例におけるHCUの作動を説明するための図である。 音声認識インジケータの一例を示す図である。 HCUの作動の一例を示す図である。 HCUの作動の一例を示す図である。 HCUの作動の一例を示す図である。 HCUの作動の一例を示す図である。 HCUの作動の一例を示す図である。 HCUの作動の一例を示す図である。 HCUの作動の一例を示す図である。
 以下、車内機器制御装置及び車内機器制御方法の実施形態について図を用いて説明する。図1は、車内機器制御装置が適用された車載システムSysの概略的な構成の一例を示す図である。本開示は、車載システムSysが使用される地域の法規及び慣習に適合するように適宜変更して実施可能である。
 <前置き>
 本開示は、乗用車に限らず、タンクローリーやトラックなど、道路上を走行可能な多様な車両に適用可能である。以降では車載システムSysが搭載されている車両を自車両とも記載する。自車両は、個人によって所有されるオーナーカーであってもよいし、シェアカーや、レンタカーであってもよい。自車両は電動車である。もちろん、自車両は、エンジン車であってもよい。電動車の概念には、電気自動車のみならず、プラグインハイブリッド車や、ハイブリッド車、燃料電池車を含めることができる。
 車載システムSysは、別途後述する自動運行装置17を備えることにより、自車両を所定の経路に沿って自律的に走行させる、いわゆる自動運転を実施可能に構成されている。本開示におけるドライバとは、実際に運転操作を実施している人物に限らず、自動運転終了時に車載システムSysから運転操作の権限を受け取るべき人物を指しうる。つまり本開示におけるドライバとは、実際に運転しているか否かに関わらず、運転席に着座している人物、つまり運転席乗員を指す。本開示におけるドライバとの記載は運転席乗員と置き換えることができる。
 また、本開示では車室内に存在する人物を座席に応じて区別しない場合、単に乗員と記載する。乗員には、ドライバの他、助手席に着座している人物である助手席乗員や後部座席に着座している人物を含みうる。乗員との記載はユーザと読み替えることができる。本開示におけるD席との記載は運転席を指し、P席とは助手席を意味する。以下に述べるD席用マイクとは、運転席用マイクを指す。その他、インストゥルメントパネル(ダッシュボード)のことを本開示では適宜、インパネとも省略して記載することがある。
 <車載システムの構成>
 図1に示すように車載システムSysは、車両状態センサ11、周辺監視センサ12、乗員見守りカメラ13、無線通信機14、ナビゲーション装置15、オーディオ装置16、及び自動運行装置17を備える。また、車載システムSysは、HUD21、インパネディスプレイ22、操作デバイス23、D席スピーカ24a、P席スピーカ24b、D席マイク25a、P席マイク25b、トークスイッチ26を備える。さらに、車載システムSysは、HCU(HMI Control Unit)30を備える。HMIは、ヒューマンマシンインターフェース(Human Machine Interface)の略である。HUDは、ヘッドアップディスプレイ(Head-Up Display)の略である。
 車両状態センサ11は、車両の状態に関する情報を検出するセンサである。車速センサ、操舵角センサ、シフトポジションセンサ、ブレーキペダルセンサ、アクセルペダルセンサ、ステアリングセンサ等が車両状態センサ11に該当する。車速センサは、自車の車速を検出する。操舵角センサは、操舵角を検出する。シフトポジションセンサは、シフトポジションを検出する。ブレーキペダルセンサは、ドライバによるブレーキペダルの踏込量/踏込力を検出するセンサである。アクセルペダルセンサは、ドライバによるアクセルペダルの踏込量/踏込力を検出するセンサである。ステアリングセンサは、ドライバがステアリングホイールを把持しているか否かを示す信号を出力するセンサであって、静電容量式のタッチセンサであってよい。ステアリングセンサは、操舵トルクを検出するセンサであっても良い。アクセルペダルセンサやブレーキペダルセンサ、ステアリングセンサはドライバの挙動を検出するセンサ、換言すれば乗員挙動センサの一種に相当する。
 車両状態センサ11は、検出対象とする項目の現在の値/状態を示す信号をHCU30に出力する。車両状態センサ11として車載システムSysが備えるべきセンサの種類は適宜設計されればよい。車載システムSysは、上述した全てのセンサを備えている必要はない。また、車載システムSysは上記以外のセンサを車両状態センサ11として備えていても良い。座席ごとの着座センサやシートベルトセンサも車両状態センサ11に含めることができる。着座センサは、人間が着座していることを検知するセンサであって、着座面に埋設された圧力センサである。シートベルトセンサはシートベルトの装着状態に応じた信号を出力するセンサである。着座センサやシートベルトセンサの出力信号は、助手席乗員がいるか否かの判断材料となりうる。着座センサやシートベルトセンサは助手席乗員の有無を判断するための車載センサの一種に相当する。
 周辺監視センサ12は、自車両の周辺環境を監視する自律センサである。周辺監視センサ12は、自車両周囲の検出範囲から予め規定された移動物体及び静止物体を検出する。車室外を撮像するカメラや、ミリ波レーダ、LiDAR、ソナーなどが周辺監視センサ12に該当する。LiDARは、Light Detection and Ranging、又は、Laser Imaging Detection and Rangingの略である。車載システムSysは、周辺監視センサ12として、車両前方を所定の画角で撮像するように配置された、前方カメラを備える。前方カメラは、フロントガラスの車室内側の上端部や、フロントグリル、ルーフトップ等に配置されている。前方カメラは、画像フレームに対して認識処理を施すことで、歩行者や、他車両などの移動体を検出する。また、前方カメラは、信号機及びその点灯状態も検出しうる。周辺監視センサ12の検出結果はHCU30に入力される。
 乗員見守りカメラ13は、可視光/赤外線カメラであって、少なくともドライバの顔部を撮像可能な位置および姿勢で車室内に配置されている。乗員見守りカメラ13は、運転席のヘッドレスト部に光軸を向けた姿勢にて、ステアリングコラムカバーの上面や、インストゥルメントパネルの上面、フロントガラスの上端部等に配置されていてよい。
 乗員見守りカメラ13は、撮影映像に含まれるドライバの顔画像に基づいてドライバの状態を逐次検出する。乗員見守りカメラ13は、ドライバの状態として、ドライバの顔の向きや視線方向、瞼の開き度合い(いわゆる開眼度)等を逐次検出しうる。乗員見守りカメラ13は、ドライバの姿勢やステアリングホイールの把持状態、操作デバイス23を操作しているか否かを検出可能に構成されていてもよい。乗員見守りカメラ13は、撮影画像から特定したドライバの状態を示す情報をドライバ状態データとしてHCU30へ逐次出力する。なお、カメラの映像信号に基づきドライバ等の状態を検出する機能は、HCU30が備えていても良い。
 なお、乗員見守りカメラ13は、助手席乗員の顔部を撮像可能なようにインストゥルメントパネルの車幅方向中央部に配置されていてもよい。乗員見守りカメラ13は、フロントガラスの上端部や、オーバーヘッドコンソールなどに設けられていても良い。乗員見守りカメラ13は、助手席乗員の有無、及び、助手席乗員が存在する場合にはその姿勢や、操作デバイス23を操作しているか否かを検出可能に構成されていてもよい。乗員見守りカメラ13は複数あってもよい。乗員見守りカメラ13は、座席ごとに配置されていても良い。助手席を撮像範囲に含む乗員見守りカメラ13もまた助手席乗員の有無を判断するための車載センサに該当しうる。また、乗員見守りカメラ13は、乗員挙動センサに相当しうる。
 無線通信機14は、自車両が他の装置と無線通信を実施するための装置である。無線通信機14は、セルラー通信を実施可能に構成されている。セルラー通信とは、LTE(Long Term Evolution)や4G、5Gなどの規格に準拠した無線通信である。HCU30は、無線通信機14との協働により、音声認識サーバから乗員の発話音声を示すテキストデータ、又は、発話音声に応じたコマンドを取得しうる。無線通信機14は、道路沿いに設置された通信設備である路側機からの配信データを受信可能に構成されていてもよい。無線通信機14は、路側機から信号機の点灯スケジュール情報を示す信号を受信した場合には、当該点灯スケジュール情報をHCU30や自動運行装置17に送信してよい。点灯スケジュール情報は、現在の点灯状態(点灯色)や、現在の点灯状態を維持する残り時間、次の点灯色などを示す。
 また、無線通信機14は、Bluetooth(登録商標)やWi-Fi(登録商標)などの規格に準拠した通信を実施可能に構成されている。無線通信機14は、乗員(主としてドライバ)によって車室内にも着込まれた携帯端末である持込端末40とHCU30とが相互通信を実施するためのインターフェースとして機能しうる。持込端末40は、携帯型の情報処理端末であって、スマートフォンやタブレット端末などである。
 車載システムSysに持込端末40が通信接続している場合、HCU30は、持込端末40の画面をインパネディスプレイ22に表示したり、持込端末40にインストールされているアプリケーションを実行したり可能となる。なお、持込端末40と車載システムSysとの接続態様は、無線に限らない。持込端末40と車載システムSysは、通信ケーブルを用いて接続されても良い。
 ナビゲーション装置15は、地図データを用いて、現在地周辺の地図画像をインパネディスプレイ22に表示させたり、現在地から目的地までの走行を案内する経路案内処理を実施したりする。周辺地図の表示や経路案内など、ナビゲーション装置15が備える機能を本開示ではナビゲーション機能と称する。経路案内を開始するための操作は、目的地の入力操作や、経路候補から実際に採用する経路を選択する操作を含む。目的地の入力時には、検索方法として住所、施設名、電話番号のいずれを使用するかなど、複数の操作が必要となりうる。なお、ナビゲーション機能は、HCU30又は持込端末40が備えていても良い。
 オーディオ装置16は、HCU30からの指示に基づいて、ローカルストレージ又はクラウド上に保存されている楽曲データを再生するデバイスである。楽曲データは、メタデータとして、その楽曲データが収録されているアルバムの情報や、アーティスト情報、曲名、演奏時間などを含んでいる。楽曲を再生するための操作は、アーティスト、アルバム、又はジャンルの選択など複数の操作を含みうる。楽曲再生やラジオの受信にかかる機能を本開示ではオーディオ機能と称する。オーディオ機能は、HCU30又は持込端末40が備えていても良い。
 自動運行装置17は、周辺監視センサ12の検出結果などをもとに走行アクチュエータを制御することにより、運転操作の一部又は全部をドライバの代わりに実行する装置である。走行アクチュエータとは、車両の加速、減速、旋回を実施するためのアクチュエータであって、制動装置としてのブレーキアクチュエータや、電子スロットル、EPS(Electric Power Steering)モータなどを指す。
 自動運行装置17は、プロセッサ、メモリ、ストレージ等を備えたコンピュータを主体として構成されている。運転操作の自動化レベルが異なる複数の動作モードを備える。ここでは一例として自動運行装置17は、完全手動モード、運転支援モード、及び自動運転モードを切替可能に構成されている。自動運行装置17の動作モードは運転モードと言い換えることもできる。
 完全手動モードは、ドライバがすべての運転タスク(運転操作)を実行する動作モードである。運転支援モードは、自動運行装置17が加減速及び操舵操作の少なくとも何れか一方をシステムが実行する動作モードである。完全手動モード及び運転支援モードは、ドライバが少なくとも一部の運転タスクを実行する運転モードである。そのため本開示では、完全手動モード及び運転支援モードを区別しない場合には乗員関与モードとも記載する。乗員関与モードは、自動運転モードの対義語としての手動運転モードと呼ぶこともできる。
 自動運転モードは、所定の運行設計領域(ODD:Operational Design Domain)内に車両が存在することを条件として、システムがすべての運転タスクを実行する動作モードである。本実施形態の自動運行装置17は、自動運転として、緊急時にはシステムからドライバに運転交代を要求する、いわゆる自動化レベル3相当の制御を実施する。
 ODDは、自動運転を実行可能な条件を規定するものである。ODDとしては、例えば(a)走行路が高速道路又は中央分離帯とガードレール等が整った自動車専用道路であること、(b)降雨量が所定の閾値以下であること、(c)全て/所定数以上の周辺監視センサ12が正常に動作していること等が挙げられる。自動運転可能/不可と判定する条件、換言すればODDを定義する詳細条件は、適宜変更可能である。
 もちろん、自動運行装置17は、自動化レベル4又は5相当の自動運転を実施可能に構成されていても良い。レベル4は、対応不可能な所定の道路、極限環境等の特定状況下を除き、システムが全ての運転タスクを実施するレベルである。レベル5は、あらゆる環境下でシステムが全ての運転タスクを実施可能なレベルである。
 自動運行装置17の動作モードは、操作デバイス23に対する乗員の操作又は音声入力に基づき切り替えられる。自動運転モードは、ドライバ操作(いわゆるオーバーライド)の他、システム限界や、ODDの退出等に起因して終了される。システムからドライバに運転権限を移譲する処理は、アナウンスや画像表示、インジケータの点灯、振動などにてドライバに運転操作を引き継ぐように要求することを含む。このような運転交代の要求処理は、Take-Over Request(TOR)又はRequest To Intervene(RTI)などとも称される。運転交代の要求を開始してから、運転交代が完了するまでの期間を本開示では運転交代中と称する。自動運行装置17は、現在の動作モードである現行モードを示す信号をHCU30に出力する。また、自動運行装置17は、運転交代中か否かを示す信号をHCU30に出力する。
 HUD21は、HCU30から入力される制御信号及び映像データに基づき、フロントガラスの所定領域に画像光を投影することにより、画像を前方景色に重畳表示する装置である。HUD21は、インストゥルメントパネル内の収容空間に収容されていてよい。
 インパネディスプレイ22は、インストゥルメントパネルに設けられたディスプレイである。インパネディスプレイ22は、フルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ等を用いて実現されている。インパネディスプレイ22は、HCU30からの指示に基づいてテキストや画像を表示する。
 本実施形態のインパネディスプレイ22は、インストゥルメントパネルの上端部において、略右端から略左端まで連続的に形成されている。当該インパネディスプレイ22は、ピラー・トゥ・ピラー・ディスプレイ、或いは、インパネ全面ディスプレイと呼ぶこともできる。インパネディスプレイ22は横幅0.6m以上の表示画面を有し、それぞれの異なる機能についての複数の操作画面(ウィンドウ)を並列的に表示可能に構成されている。インパネディスプレイ22に複数の操作画面が表示されている場合、以降における表示画面/操作画面とは、それらのうち乗員が選択中/作業中の(つまりアクティブな)ウィンドウを指す。
 インパネディスプレイ22が備える表示画面は、図2に示すように、運転席の正面に位置するD席用表示エリアA1と、助手席の正面に位置するP席用表示エリアA2と、それらの間に位置する中央表示エリアA3とに区分可能である。D席用表示エリアA1は主として走行速度やシフトポジション、バッテリ/ガソリン残量など、運転操作に必須の情報表示に使用される。中央表示エリアA3はドライバ及び助手席乗員の両方が使用/視認可能なエリアであるため、共用エリアと呼ぶこともできる。各表示エリアを区切る明確な境界線は存在せず、HCU30は、2つの表示エリアをまたぐように1つの機能の操作画面(ウィンドウ)を表示することもできる。
 なお、他の態様として、インパネディスプレイ22はインパネの運転席正面領域に配置されたメータディスプレイであってもよいし、車幅方向中央部分に配置されたセンターディスプレイであっても良い。車載システムSysは、インパネディスプレイ22として、それぞれ物理的に独立した複数のディスプレイを備えていても良い。車載システムSysは、メータディスプレイと、センターディスプレイと、助手席正面に配置されたディスプレイとを備えていても良い。各ディスプレイ/表示エリアに表示する内容はHCU30によって制御される。
 操作デバイス23は、車載システムSysに対する乗員の指示操作を受け付けるための装置である。操作デバイス23は、乗員の手指で操作されるデバイスである。車載システムSysは操作デバイスとして、図3に示すようにタッチパネル23A、タッチパッド23B、及びステアリングスイッチ23Cを備える。タッチパネル23Aは、インパネディスプレイ22に積層されている。タッチパッド23Bは、操作面上における指の操作位置を検出し、インパネディスプレイ22の画面上に表示されるカーソルCの移動、及び当該カーソルCが指し示す対象の選択などを行うポインティングデバイスとして機能する。タッチパッド23Bは、センターコンソールなど、インパネディスプレイ22とは離れた位置に設けられている。ステアリングスイッチ23Cは、ステアリングホイールに設けられたスイッチである。
 タッチパッド23Bなどは、カーソルCの移動及び選択操作に反応して操作面を振動させる、触覚フィードバック機能を有していても良い。カーソルCが背景画像領域からボタン上に移動した時には、タッチパッド23Bは振動アクチュエータを動作させることによって、そのボタンを触ったかのような触覚をドライバの指に付与してよい。
 なお、車載システムSysは操作デバイス23として、ジョイスティック型のハプティックデバイスやマウスなどを備えていても良い。また、手や指を特定のパターンで動かしていること(つまりジェスチャー)を検出することで乗員の指示操作を受け付けるジェスチャー/モーションセンサも操作デバイス23に含める事ができる。操作デバイス23に対する乗員の操作は、車載システムSysに対する指示入力と読み替える事ができる。各操作デバイス23は、乗員が行った操作に対応する電気信号を操作信号としてHCU30に出力する。操作信号は、乗員の操作内容を示す情報を含む。
 D席スピーカ24a及びP席スピーカ24bは何れも、HCU30から入力される信号に対応する音を出力するスピーカ24である。本開示における「音」との表現には、通知音のほか、音声(アナウンス)や、音楽なども含まれる。D席スピーカ24aは、運転席用ドアや、運転席側のAピラーなど、運転席周りに配置されている。P席スピーカ24bは、助手席用のドアや、インパネの助手席正面領域、或いは、P席側のAピラーなど、助手席周りに配置されている。D席スピーカ24aが運転席用スピーカに相当し、P席スピーカ24bが助手席用スピーカに相当する。なお、車載システムSysはD席スピーカ24a及びP席スピーカ24bの代わりに/それらに加えて、インパネの中央部/オーバーヘッドコンソールに配置された中央スピーカを備えていても良い。
 D席マイク25a及びP席マイク25bは何れも、乗員が発話した音声を、電気的な音声信号に変換してHCU30に出力するマイク25である。D席マイク25aは、ステアリングコラムカバーの上面部や、ステアリングホイールのスポーク部、運転席のヘッドレスト等の、運転席乗員の発話音声を拾いやすい位置に設けられる。P席マイク25bは、助手席乗員の発話音声を集音するためのマイク25である。P席マイク25bは、インパネの助手席正面領域などに配置されている。D席マイク25aが運転席用マイクに相当し、P席マイク25bが助手席用マイクに相当する。
 トークスイッチ26は、乗員が音声入力を開始する旨を指示するためのスイッチである。トークスイッチ26は、ハードウェアスイッチであっても良いし、表示画面内に設けられたボタンであってもよい。
 HCU30は、操作デバイスからの信号及び乗員の発話内容に基づいて、車両内において乗員が利用可能な機能/車内機器の動作を制御する装置である。HCU30は、プロセッサ31、ストレージ32、メモリ33、通信インターフェース34、及びこれらを接続するバス等を備えたコンピュータを主体として構成されている。プロセッサ31は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等といった、演算コアである。プロセッサ31は、メモリ33へのアクセスにより、種々の処理を実行する。ストレージ32は、フラッシュメモリなどの書き換え可能な不揮発性である。ストレージ32には、プロセッサ31によって実行されるプログラムである車内機器制御プログラムが格納されている。プロセッサ31が車内機器制御プログラムを実行することは、車両制御方法が実行されることに相当する。メモリ33は書き換え可能な揮発性の記憶媒体であってRAM(Random Access Memory)である。HCU30が車内機器制御装置に相当する。
 また、HCU30は、ストレージ32にインストールされているソフトウェアを実行する事により、多様なアプリ35を実施する。ここでのアプリ35は機能/サービスと言い換える事ができる。HCU30は、通話アプリや、ウェブブラウザ、動画再生アプリなどを備える。通話アプリは、電話の発着信に関連する機能である通話機能を提供するアプリである。HCU30は、通話アプリを備えることにより、乗員が指定する相手に電話をかける処理を実行可能となる。ウェブブラウザは、無線通信機14と協働して、インターネットにアクセスし、乗員操作に応じたWebページを取得し、インパネディスプレイ22に表示するアプリである。動画再生アプリは、テレビや映画などの動画をインパネディスプレイ22の所定領域に表示するアプリである。動画再生アプリは、動画配信サービスに対応するアプリであってもよい。
 ナビゲーション機能や、オーディオ機能、通話機能、ウェブ検索機能、動画再生機能などが、車内において乗員が利用可能な機能に該当する。一部の機能は、ナビゲーション装置15や持込端末40など、HCU30に接続するデバイスによって提供されうる。ナビゲーション装置15やオーディオ装置16、持込端末40などが車内機器に相当する。車内機器の概念には、HCU30やHUD21、インパネディスプレイ22、スピーカ24、マイク25なども含まれる。なお、車載システムSysは上述した以外にも、車載空調装置の動作設定を変更するための空調機能や、メッセージ/メールの送受信を行うメッセージ機能、ドライバのスケジュールを管理するスケジュール機能などを備えうる。操作デバイス23を介して乗員が利用可能な機能には、ACC(Adaptive Cruise Control)やLCA(Lane Change Assist)などの運転支援機能を含めることができる。
 <HCUの機能について>
 このHCU30は、機能部として図4に示すように、情報取得部F1、表示制御部F2、選択操作受付部F3、操作状態判定部F4、対象機能推定部F5、運転状態判定部F6、音声認識部F7、コマンド特定部F8、及びコマンド実行部F9を備える。これら機能部は、プロセッサ31が車内機器制御プログラムを実行することにより実現される。もちろん、HCU30が備える機能部の一部又は全部は、IC(Integrated Circuit)やFPGA(Field-Programmable Gate Array)を用いて実現されていてもよい。ICの概念には、ASIC(Application Specific Integrated Circuit)も含まれる。
 情報取得部F1は、車両状態センサ11などから、車内機器の制御に必要な多様な情報を取得し、メモリ33に一時保存する。情報取得部F1は、車両状態センサ11から、自車両の走行速度や加速度、ブレーキペダルの操作状態、アクセルペダルの操作状態、操舵状態などといった車両情報を取得する。これらの車両情報は、ドライバが運転状態にあるか否か、運転を開始したか否かの判断材料、及び、操作制限を実施するべきか否かの判断材料として機能しうる。操作制限に関しては別途後述する。
 また情報取得部F1は、乗員見守りカメラ13から、ドライバや助手席乗員といった乗員ごとの状態を示す情報を取得する。乗員の状態を示す情報としては、視線方向や、姿勢、手の位置などがある。ドライバの状態を示す情報には、ステアリングホイールを把持しているか否か、前方など車外における進行方向を見ているかなどが含まれる。なお情報取得部F1は、乗員見守りカメラ13の映像を解析することで、ドライバや助手席乗員の挙動を検出するように構成されていても良い。本開示における「取得」には、他の装置/センサから入力されたデータなどを元に内部演算によって生成/検出することも含まれる。システム内の機能配置は適宜変更可能であるためである。
 情報取得部F1は、HCU30に接続している機器(以降、接続機器)から、現在の動作状況等を示す情報を取得する。情報取得部F1は自動運行装置17から現在の動作モードや、運転交代中か否かを示す信号を取得する。その他、HCU30は、動作中の接続機器から、インパネディスプレイ22に表示するための映像データや、スピーカ24から出力するための音声データを取得しうる。
 表示制御部F2は、HUD21の表示内容を制御する。表示制御部F2は、HUD21に現在の車速や、進路を示す矢印画像或いは走行予定軌跡を示す画像などを表示する。HUD21への表示する画像は、ナビゲーション装置15や自動運行装置17からの入力信号に基づき調整される。
 また、表示制御部F2は、インパネディスプレイ22の表示画面を制御する。表示制御部F2がインパネディスプレイ22に表示する種々の操作画面には、画面毎に固有の識別番号である画面IDが設定されている。各操作画面には、乗員によって選択可能な少なくとも1つのボタンを含む。ボタンは、操作画面に含まれる表示要素であって、アイコン、マーク、選択項目などと呼ぶこともできる。ボタンが選択肢に相当する。インパネディスプレイ22に表示されるボタンには、ボタン毎に固有のボタンIDが設定されている。ボタンIDは、遷移先画面のIDや、機能及び実行条件を構成する要素などと対応付けられている。
 乗員は、インパネディスプレイ22に表示されているボタンを選択することによって、別の画面に表示させたり、任意のコマンドを実行させたりできる。すなわち、ボタンは、HCU30が乗員の希望する制御内容であるコマンドを特定するための選択肢に相当する。本開示のコマンドとは、対象機能に対応する車内機器が実行するべき制御/処理と解することもできる。コマンドは、アクションやジョブと呼ぶこともできる。
 コマンドは、対象機能と、その実行条件の組み合わせによって特定される。実行条件は、実行パラメータと解することもできる。ナビゲーション機能の実行条件とは、目的地情報である。つまり、ナビゲーション機能においては「どこに」を指定する要素が実行条件に相当する。なお、時間優先や、有料道路優先、距離優先など、経路計算に係る条件、換言すれば、「どうやって」を指定する要素もまた、ナビゲーション機能の実行条件に相当しうる。また、オーディオ機能の実行条件とは、曲名/アルバム名/アーティスト名/ジャンルなどである。通話機能の実行条件とは、電話を掛ける相手(発信先)、すなわち「誰に」に相当する要素である。ウェブ閲覧機能に対応する実行条件とは、検索語である。動画再生機能に対応する実行条件とは、番組名/チャンネル/映画名/カテゴリなどである。
 表示制御部F2は、最も上位の画面としてホーム画面をインパネディスプレイ22に表示する。ホーム画面は、乗員が利用する機能を選択するための画面である。ホーム画面は、図5に示すように機能選択ボタンB1~B6を含みうる。機能選択ボタンB1~6は何れも、乗員が利用/操作の対象とする機能である対象機能を選択するためのボタンである。
 なお、図5中のB1は、ナビゲーション機能の操作画面を呼び出すためのボタンであり、B2は、オーディオ機能の操作画面を呼び出すためのボタンである。B3は、通話機能画面を呼び出すためのボタンであり、B4は、ウェブブラウザ画面を表示するためのボタンである。B5は、動画再生機能にかかる画面を呼び出すためのボタンであり、B6は、各種設定を変更するための画面である設定変更画面を呼び出すためのボタンである。各機能に対応するボタンは、アイコンと呼ぶ事もできる。
 表示制御部F2がインパネディスプレイ22に表示させる種々の操作画面は、ツリー/階層構造を有する。ホーム画面から分岐する機能毎の画面は、より下位の画面となるに従って、より具体的な実行条件を指定(選択)するための画面となっていく。
 なお、表示制御部F2は、乗員がボタンを選択するための要素として、画面上における現在の入力位置を指し示すカーソルCも表示する。図5ではカーソルCを矢印型としているが、任意の図形や記号を採用可能である。カーソルCの位置は、タッチパッド23Bなどのポインティングデバイスからの信号に基づいて変更されうる。乗員は操作デバイス23を操作することによって、表示画面内のカーソルCを移動させ、所望のボタンを選択できる。もちろん、乗員はカーソルCを用いることなく、タッチパネル23Aを介して直接的にボタンを選択することもできる。
 選択操作受付部F3は、種々の操作デバイス23から入力される操作信号に基づいて、インパネディスプレイ22に表示しているボタンに対する乗員の選択操作を受け付ける。選択操作受付部F3は、操作デバイス23からの信号に基づき、表示画面に表示しているボタンに対する乗員の選択操作を検出した場合、その選択されたボタンのIDを表示制御部F2に通知する。表示制御部F2は、選択されたボタンのIDに基づいて、次に表示する画面IDを特定し、その画面を表示する。なお、画面が備えるボタンの位置は、画面毎に予め設定されてあって、現在表示している画面IDとカーソル位置から、選択操作受付部F3は、乗員が選択したボタンのボタンIDを特定することができる。
 操作状態判定部F4は、現在表示している操作画面である現行画面のIDまたは乗員によって選択されたボタンのIDに基づいて、乗員の操作状態が、所定の機能を利用するための一連の操作の途中であるか否かを判定する。操作が途中の状態とは、目的地の入力が完了していない状態や、楽曲/アルバム/アーティストのリストを表示している状態、映画のリストを表示している状態などである。
 操作途中の状態は、1つの局面においては、機能を実行開始させるためのボタンである実行ボタンがまだ押下されていない状態に相当する。実行ボタンの押下をトリガとしてHCU30は、経路案内、音楽再生、電話発信等が開始する。ナビゲーション機能においては、案内開始を指示するボタンが実行ボタンに相当する。また、通話機能においては発信先の選択後に表示される発信ボタンが実行ボタンに相当する。実行ボタンとして振る舞うボタンは、適宜設計されうる。
 実行ボタンを選択する操作を、本開示では機能を実行させるための最終操作/実行指示とも称する。また、本開示では機能を実行するための一連の操作のうちの最終操作以外の操作を、非最終操作と称する。非最終操作は、途中操作と呼ぶこともできる。なお、非最終操作は、目的地や発信先などといった実行条件の入力に係る操作であるため、条件入力操作と呼ぶこともできる。
 対象機能推定部F5は、現行画面のIDまたは乗員によって選択されたボタンのIDに基づいて対象機能を推定する。対象機能推定部F5は、現行画面がナビゲーション機能に紐づく画面である場合、対象機能はナビゲーション機能であると判定してよい。対象機能を推定することは、操作者としての乗員が何をしたいのかを推定すること、換言すれば、操作対象とする車内機器を推定することに対応する。
 運転状態判定部F6は、ドライバが運転している状態(つまり運転中)であるか否かを判定する。例えば運転状態判定部F6は、ドライバが運転状態であるか否かを判断するための準備処理を実行してよい。準備処理は、車両状態センサ11から入力される車両情報に基づき自車両が走行しているか否かを判定することであってよい。運転状態判定部F6は、車速が所定の閾値(例えば3km/h)以上となっている場合には走行していると判定し、車速が所定の閾値未満となっている場合には走行していないと判定してよい。また、運転状態判定部F6はシフトポジションが駐車ポジションとなっている場合や、パーキングブレーキがオンとなっていることに基づいて自車両は走行していないと判定してもよい。自車両が停止していると判断する条件は適宜変更可能である。
 運転状態判定部F6は、自車両が走行している場合、自動運行装置17から入力される動作モード情報に基づいて、ドライバが運転状態であるかを判定する。運転状態判定部F6は車両が走行している場合であっても、自動運転モードである場合にはドライバは運転状態ではないと判定してよい。一方、自動運転中ではなく、かつ、自車両が走行している場合、運転状態判定部F6は、ドライバは運転状態であると判定してよい。なお、自車両が自動運転機能を備えない場合、運転状態判定部F6は自車両が走行していることに基づいてドライバは運転状態であると判定しても良い。
 また、運転状態判定部F6は、自車両が走行していない場合には、ドライバは運転状態ではないと判定する。なお、広義においてはブレーキペダルを踏んで車両を停止させ続けることも運転操作の一部とみなされることがある。しかしながら、本開示における運転状態とは、車両を走行させるための操作を実施している状態を意味するものとし、停車中は運転状態に含まれないものとする。本開示では運転状態ではないドライバの状態を非運転状態とも称する。非運転状態から運転状態へ移行する場面、つまり運転開始の具体的な場面には、手動運転中に信号待ち等で停車している状態から発進させる場合だけでなく、自動運転から手動運転に切り替える場合も含まれる。
 音声認識部F7は、乗員が発話した内容を解析する構成である。音声認識部F7は、特定の音声認識開始イベントが生じたことに基づいて、音声入力待機状態となり、マイク25を介して乗員が発話した音声データを取得する。そして、その音声データに対して音声認識処理を実施し、音声データに対応するテキストデータを取得する。音声入力待機状態とは、マイク25から入力されるデータを、音声認識対象として取得する状態である。音声入力待機状態が、音声認識機能が有効化された状態に相当する。
 音声認識開始イベントとしては、トークスイッチ26の押下を採用可能である。また、後述するように、ドライバが運転状態である状況下で操作制限の対象画面に遷移する操作を受け付けたことや、操作制限の対象画面を表示中にドライバが運転状態に移行したことなども音声認識開始イベントに含まれる。その他、ウェイクワードの発話検知も音声認識開始イベントに含めることができる。ウェイクワードは、音声認識(音声入力)を有効化するための規定フレーズであって、ホットワード、トリガーワード、ウェイクアップワードなどとも呼ばれうる。なお、本実施形態では、HCU30内部で音声認識処理、つまり発話内容の解析を実施する。もちろん他の態様として音声認識処理は、車両に外部に設けられた音声認識サーバで実施されても良い。
 音声認識部F7は、発話音声の取得に際し、車内状況や対象機能に応じて有効化するマイク25を取捨選択してもよい。ドライバによる音声指示も受け付けるべき状況においてはD席マイク25aとP席マイク25bの両方を有効化する。また、ドライバの運転負荷が高い場合や、操作デバイス23を操作している人物は助手席乗員であると判定されている場合には、P席マイク25bのみ有効化する。マイク25の有効/無効はソフトウェア的に切替可能である。当該構成によれば、ドライバに煩わしさを与える可能性や、システム誤作動の可能性を低減できる。
 コマンド特定部F8は、選択操作受付部F3が取得した乗員の操作内容と音声認識結果の少なくとも何れか一方に基づいて、実行すべきコマンドを特定する。コマンド特定部F8は、機能実行のための操作デバイス23に対する乗員の一連の操作が完結した場合には、当該操作内容に基づいてコマンドを特定する。当該ケースは、操作デバイス23からの信号のみでコマンドを特定するケースに相当する。また、コマンド特定部F8は、音声認識結果として、実行させたい機能を示す動詞句とその目的語を含むフレーズであるリクエストフレーズを取得した場合には、当該発話内容に応じてコマンドを特定する。リクエストフレーズとは、例えば、「XXさんに電話をかけて」や、「XX駅を目的地に設定して」などである。「電話をかけて」や「目的地に設定して」などが、対象機能を示す動詞句に相当する。また、「XXさん」や「XX駅」などといった目的語としての単語が実行条件に相当する。
 加えて、コマンド特定部F8は、操作制限等の理由により、操作デバイス23に対する乗員の操作が途中で止まった場合には、それまでの乗員の入力内容と音声認識処理とを相補的に組み合わせてコマンドを特定する、コマンド入力支援処理を実行する。コマンド入力支援処理の詳細は別途後述する。コマンド実行部F9は、コマンド特定部F8が特定したコマンドを実行する構成である。コマンドの実行は、対象機能に対応する車内機器との協働によって実現される。仮にコマンド特定部F8が特定したコマンドがナビゲーション機能に関するものである場合には、ナビゲーション装置15に対して、目的地等の情報を送信し、コマンドを実行させる。
 <表示制御部の補足>
 表示制御部F2は、車両が走行中であることを条件として、画面表示に関わる乗員の入力操作を制限する、操作制限処理を実行することがある。操作制限は、走行強制とも称される。操作制限は、具体的には、ナビゲーション装置15やオーディオ装置16、通話機能等に対する乗員の操作を制限することに対応しうる。操作制限は、運転中のドライバが、インパネディスプレイ22を注視し続けることを抑制するための処理である。
 HCU30には操作制限の対象とする操作画面である制限対象画面が予め登録されている。HCU30には制限対象画面のIDのリストが登録されている。或いは、画面ごとに、操作制限の対象であるか否かを示すフラグが設定されている。HCU30は、画面IDに基づいて、現行画面、及び、遷移先画面が制限対象画面かどうかを判別可能に構成されている。なお、遷移先画面とは、次に表示する画面であって、乗員に選択されたボタンのIDによって特定される。
 HCU30は操作制限を適用している場合、制限対象画面に含まれるボタンのうち、機能の実行にかかるボタンが押下されてもそのボタンに紐づく処理を実行しない。つまり、機能に実行にかかるボタンを無効化する。機能の実行にかかるボタンとは、実行条件を指定するためのボタンである。操作制限によって無効化されたボタンは、選択不能であることがドライバに伝わるように、トーンダウンした態様で表示されてよい。トーンダウン表示については後述する。
 もちろんHCU30が、現行画面が制限対象画面であっても、いつも操作制限を適用するわけではない。車両が停止中である場合など、特定の条件を充足する場合には操作制限を適用しない。操作制限を適用する場合とは、基本的に、ドライバが運転状態である場合である。ただし、本開示のHCU30は、別途後述するように操作デバイス23の操作者が助手席乗員などドライバではないことが確認できている場合には、ドライバが運転状態であっても、操作制限を適用しない。操作制限を適用する条件は適宜設計されうる。
 HCU30は、操作制限を適用する場合、制限対象画面に含まれる、機能の実行にかかるボタンを乗員が選択不能な態様で表示する。選択不能な態様とは、外観上は、ボタンを構成する画像やテキストを通常時よりもトーンダウンさせた態様を意味する。トーンダウンは、彩度を低下させること、灰色にすること(いわゆるグレーアウト)、輝度を低下させること、表示に用いる線を実線から破線に変更すること等に相当する。通常時とは、操作制限が適用されていない場合、換言すれば、乗員がボタンを選択可能な状態を意味する。
 なお、操制限対象画面に設定される操作画面とは、乗員の視認時間が長くなりやすい画面である。各画面には、制限対象画面か否かを区分するために、乗員が当該画面を視認する時間の想定値である想定視認時間が設定されている。或る画面についての想定視認時間は、当該画面での入力が完了するまでの時間の想定値に相当する。画面ごとの想定視認時間は、画面が備える選択肢の数や、画面の切り替えるために必要な乗員の操作数に応じて設計されている。操作画面が備える選択肢(ボタン)や入力項目数が多いほど、想定視認時間は長くなる。制限対象画面とは、想定視認時間が所定値以上となる画面とすることができる。図6に示す発信先選択画面は、制限対象画面に設定されうる。発信先選択画面は、発信先を選択する画面であって、通話機能を利用するための画面の1つに相当する。
 また、本実施形態では累積視認時間が所定値以上となる操作画面もまた、制限対象画面に設定されている。累積視認時間はホーム画面からの想定視認時間の累積値である。当該累積視認時間については図7を用いて説明する。
 図7は、機能実行までに第1画面から第4画面までの4回の画面遷移が生じるケースを示している。第1画面はホーム画面の次に表示される画面である。ナビゲーション機能を例にとると、第1画面は、住所や、施設名、電話番号など、何れの観点から目的地を入力するかを選択する画面である。また、第2画面は、都道府県や市町村を入力するための画面であり、第3画面は番地等を入力するための画面である。第4画面は、入力された目的地周辺の地図画像を表示することで、目的地の設定を確認するための画面である。なお、ナビゲーション機能においては、第5画面として、距離優先や時間優先など、それぞれ異なる観点で算出された複数の経路候補の中から走行経路を選択するための画面を含んでいてもよい。
 前述の通り各画面には、画面構成に応じた想定視認時間が設定されている。図7では、第1~第4画面の想定視認時間は順に5秒、6秒、10秒、5秒に設定されている場合を示している。図中のVTは想定視認時間を示している。また、CVTは累積視認時間を示している。或る画面についての累積視認時間は、当該画面に至るまでの画面の想定視認時間の合算値に、さらに、当該画面での想定視認時間を加算した値である。第3画面の累積視認時間は、第1画面、第2画面、及び第3画面の想定視認時間の和である。図7に示す例では、第3画面の累積視認時間は21秒である。仮に操作制限を適用するための累積視認時間に対する閾値が16秒に設定されている場合、第3画面以降が制限対象画面として登録される。もちろん、累積視認時間に対する閾値によって、制限対象画面は異なりうる。累積視認時間に対する閾値が10秒に設定されている場合、第2画面以降が制限対象画面に該当する。なお、以上で述べた制限対象画面の設定例は一例であって適宜変更可能である。
 <コマンド入力支援処理について>
 ここでは、HCU30が実施するコマンド入力支援処理について図8に示すフローチャートを用いて説明する。図8に示すフローチャートは、画面遷移を生じさせる非最終操作を受け付けた場合に実行される。図8に示すフローチャートは一例としてステップS101~S103、S110、S120~S126を含む。各ステップは図8に示す矢印に従って順に実行される。ステップの実施主体としてのプロセッサ31との記載は、適宜、情報取得部F1~コマンド実行部F9といった、HCU30が備える複数の機能部の何れかに読み替え可能である。
 ステップS101は、プロセッサ31が以降の処理で使用する種々の情報を取得するステップである。情報取得部F1は、車両状態情報や、ドライバの状態情報などを取得する。また、ステップS101では、非最終操作として乗員によって選択されたボタンのIDを取得するとともに、当該ボタンIDに基づいて、遷移先画面のIDを取得する。
 ステップS102はプロセッサ31が、ステップS101で取得したボタンID/遷移先画面IDに基づいて、遷移先画面が制限対象画面に該当するか否かを判定する。遷移先画面が制限対象画面に該当する場合(ステップS102 YES)、プロセッサ31は車両状態センサ11の出力信号に基づいてドライバが運転状態であるか否かを判定する。遷移先画面が制限対象画面に該当し、かつ、ドライバが運転状態である場合には(ステップS103 YES)、プロセッサ31は遷移先画面をトーンダウン表示する(S120)。トーンダウン表示とは、前述の通り、実行条件の入力に係るボタン類を選択不能な態様で表示することを意味する。なお、制限対象画面をトーンダウン表示する場合においてもプロセッサ31は、実行条件の入力とは関係しない所定ボタンについては選択可能な態様で表示しうる。実行条件の入力とは関係しないボタンとは、現在位置周辺の地図を表示するためのボタンや、ホーム画面に戻るためのボタンなどを意味する。
 一方、遷移先画面が制限対象画面に該当しない場合(ステップS102 NO)や、ドライバが運転状態ではない場合(ステップS103 NO)には、遷移先画面を通常表示する。通常表示とは、実行条件の入力に係るボタン類を選択可能な態様で表示することを意味する。
 ステップS121はプロセッサ31が現行画面のIDに基づいて対象機能を推定するステップである。なお、現行画面は、最後に選択されたボタンのIDに紐付いているため、画面IDに基づいて対象機能を推定することは、乗員に選択されたボタンのIDに基づいて対象機能を推定することに対応する。
 ステップS122は、プロセッサ31が現行画面に紐づく問い合わせメッセージを音声出力する。例えば現行画面が発信先選択画面である場合、プロセッサ31は「誰に電話をかけますか?」といった質問を音声出力(アナウンス)させてよい。また、現行画面が目的地としての住所を入力するための画面である場合には、「どこに行きたいですか?」といった問い合わせメッセージを音声出力する。現行画面がオーディオ機能に係る楽曲選択画面である場合には「どの曲を聞きたいですか?」といった問い合わせメッセージを音声出力する。
 問い合わせメッセージは、ドライバが前方の交通状況を見ている状態でも認識可能なように音声としてスピーカ24から出力することが好ましい。もちろん、問い合わせメッセージは、画像としてD席用表示エリアA1やHUD21に表示されてもよい。なお、ステップS122で出力する問い合わせメッセージは、以下で説明するように、乗員に目的地等の実行条件を音声入力させるための呼び水(トリガ)として作用する。
 ステップS122にて表示/音声出力する問い合わせメッセージは、画面IDごとに予めストレージ32等に登録されている。なお、問い合わせメッセージの内容は、現行画面の選択肢に直接的に対応するものであっても良い。仮に現行画面が、目的地設定において、目的地が属する州/県を選択する画面である場合、「どの州/県に行きたいですか」といった問い合わせメッセージを出力してもよい。ただし、当該問い合わせ方式では、未入力の項目ごと、或いは、操作画面ごとに乗員が回答を発話する必要が生じうる。そのような課題に対し、本実施形態のHCU30は、現行画面に縛られずに、本来の目的を達成できる質問を投げかける。すなわち、対象機能に対応する動詞句の目的語を質問する。当該構成によれば乗員が発話する回数を低減可能となり、利便性を高めることができる。
 ステップS123はプロセッサ31が、音声認識機能を有効化するステップである。すなわち、音声入力待機状態に移行する。ステップS124は、乗員の発話音声を取得し、その認識結果を取得するステップである。なお、一定時間待機しても乗員の発話を検出できなかった場合には、タイムアウトとして本フローを終了する。
 ステップS125は、ステップS121で特定された対象機能と、ステップS124で取得した発話内容とから、乗員が希望するコマンドを特定する。ステップS124で取得する発話内容には、目的地や、曲名、電話の発信先、検索語などの実行条件に相当する目的語が含まれていることが期待できる。プロセッサ31は、発話内容から目的語を抽出し、当該目的語と対象機能とを組み合わせることにより、コマンドを特定する。仮に対象機能がナビゲーション機能と特定されている状況において、目的語として「XX駅」を取得した場合には、XX駅までの経路案内をコマンドとして取得する。また、対象機能が通話機能と特定されている状況において、目的語として人の名前(例:XX)を取得した場合には、XXさんに発信することをコマンドとして取得する。
 なお、「誰に電話をかけますか?」といった通話機能に係るシステムからの質問に対する回答としては、以下(1)~(3)の3つのパターンに層別可能である。(1)連絡先のリストに登録済みの人、(2)代名詞、(3)未登録の名前。プロセッサ31は、(1)~(3)の何れのパターンにも対応可能に構成されている。発信先を示す代名詞とは、さっき電話かけてきた人、父、母、学校などである。発話された発信先が(3)のパターンに該当する場合、プロセッサ31は、発話された名称をインターネット検索し、電話番号を取得すればよい。
 ところで、対象機能の推定結果に音声認識結果を組み合わせてコマンドを特定する処理に関し、プロセッサ31は、次のように作動しても良い。すなわち、プロセッサ31は、発話内容として取得した目的語(O:object)に、現行画面のID(対象機能)に対応する動詞句(V:verb)を補完することにより、擬似的にリクエストフレーズを生成する。そして、当該擬似的なリクエストフレーズを用いてコマンドリストの中から、最も尤度の高いコマンドを取得しうる。コマンドリストは、車載システムSysが実行可能なコマンドのリストであって、乗員が操作/利用可能な機能と、対象機能が実行可能な制御/処理の一覧をまとめたものである。前述の通り、機能は、車内機器/アプリなどと言いかえることができる。
 また、発話内容から実行条件に相当する目的語を抽出する際、プロセッサ31は対象機能の情報を用いて高精度化又は処理負荷低減を図ってもよい。プロセッサ31は、音声認識で取得した発話内容の全文のうち、対象機能に関連性が高いワードを優先的に実行条件として抽出しても良い。さらにHCU30は、機能ごとに当該機能に対応する目的語を取得するための音声認識データベースを備えていても良い。その場合、プロセッサ31はステップS121で特定された対象機能に応じて、音声認識に使用するデータベースを使い分ける。プロセッサ31は対象機能に応じた音声認識データベースを用いて発話内容を解析し、目的語を抽出する。当該構成によれば、目的語の探索範囲が対象機能に応じて限定的となるため処理負荷を低減できるとともに、音声認識の精度の向上効果が期待できる。その他、HCU30は、目的語から直接的にコマンドを特定可能なコマンドリストを、機能ごとに備えていても良い。
 ステップS126は、ステップS125で特定されたコマンドを実行するステップである。仮に特定されたコマンドが「XX駅までの経路案内」である場合には、当該コマンドに対応する制御信号をナビゲーション装置15に出力し、ナビゲーションを開始させる。
 本開示では、ステップS121からステップS126までの一連のシーケンスを音声補完処理とも称する。また、現行画面に応じた問い合わせメッセージを出力すると同時に/その直後に、音声認識機能を自動的に有効化する処理(S122~S123)を音声入力案内処理とも称する。音声入力案内処理は未入力の項目、換言すれば、機能対象に対応する他動詞の目的語を音声入力するように促す処理に相当する。
 <上記実施形態の効果について>
 以上の構成は、1つの局面において、ドライバが運転中に、操作制限が適用される画面に遷移した場合に、その操作の続きを音声入力にて取得する構成に相当する。当該構成によれば、運転開始等により操作が途中で止まってしまい、ドライバの利便性が低下することを抑制できる。換言すれば、操作制限が適用される機能に関しても、ドライバは音声入力にて使用できる。
 またHCU30はドライバが運転中に表示画面が制限対象画面に遷移したことに基づいて、自動的に音声認識機能を有効化する。そのため、ドライバ等の乗員は、音声入力に際してトークスイッチ26の押下やウェイクワードを発する必要がない。
 加えて、乗員はシステムからの問い合わせに対して回答する形で、実行条件を示す目的語を発話すればよい。つまり、乗員は動詞句と目的語とを含むリクエストフレーズ全体を発する必要がない。そのため、乗員の発話量を低減できる。また、解析対象とする発話内容が短縮されるため、認識精度自体も向上しうる。よって、誤作動の恐れも低減できる。
 加えて、一般的な音声認識では、「お話ください」等の漠然とした問いかけを行うため、乗員は何を話していいのか分かりにくい。そのような課題に対し、本開示のHCU30は、対象機能に関連する動詞句を含む、回答の範囲を限定しうる質問を投げかける。そのため、乗員も何を話せばよいのか分かりやすいといった利点を有する。
 また、プロセッサ31は、直前の乗員の操作内容に基づいて対象機能を特定し、当該対象機能が実施可能な範囲において発話内容に応じた制御を実施する。対象機能の特定は、乗員の選択操作に基づくものであるため、誤判定の可能性が低い。よって、乗員が意図しない機能を作動させてしまう恐れも低減できる。
 また、ホーム画面から機能を選択する部分など、最初の操作は停車時と同様に手操作で実施可能である。そのため、音声入力ではなく操作デバイス23による入力を好んで使う乗員にとっても違和感が少なく、使いやすいインターフェースとなりうる。その他、音声認識を開始する前に対象機能を特定しているため、乗員が発話しうる単語の範囲を絞り込むことができ、音声認識精度を高めることができる。
 その他、上記HCU30は、1つの局面において、操作制限がかかる画面、換言すれば、手操作では時間がかかる画面以降の入力を音声入力に切り替える構成に相当する。当該構成によれば、乗員の操作数を低減でき、周辺環境の確認に利用可能な時間を増やす効果が期待できる。また、上記構成は、手操作から音声入力に切り替えるものであって、音声入力から手操作に切り替えるものではない。音声認識に失敗したことに基づいて入力手段を手操作に切り替えるものでもない。認識等の失敗をトリガとして、最初から又は所定量前の工程から指示入力をやり直すものでもない。上記構成は、手入力された情報を引き継いで音声認識によってコマンドを特定及び実行するものであるため、乗員-システム間のやり取りを抑制できる。ひいては、乗員が入力操作に意識を取られる時間が少なくなるので、ドライバ等の乗員は周囲の安全確認を集中しやすくなる。
 また、一般的に、音声入力の成功率を高めるためにはリクエストフレーズを所定値以上の音量ではっきりと発話することが好ましいが、車内の状況は様々であり、同乗者が寝ている場合や電話をしている場合など、大きな声を出したくないシーンもある。上記の構成によれば乗員の発話量を抑制できるため、乗員が大きな声で発話することが発話しにくいシーンにも好適である。なお、HCU30は乗員見守りカメラ13からの信号に基づき、電話をしている同乗者や寝ている同乗者を検出した場合には、問い合わせメッセージを音声ではなく画像にて出力してもよい。HCU30は車内の状況に応じて問い合わせメッセージの出力態様を変更してもよい。当該構成によれば利便性/快適性がより一層向上しうる。
 以上、本開示の実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、以降で述べる種々の変形例も本開示の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。下記の種々の補足や変形例などは、技術的な矛盾が生じない範囲において適宜組み合わせて実施することができる。なお、以上で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略することがある。また、構成の一部のみに言及している場合、他の部分については上記説明を適用することができる。
 <変形例(1)>
 プロセッサ31は、ドライバが運転状態ではないと判定している場合には運転準備状態に該当するか否かを判定し、当該判定結果に基づいて制限対象画面の表示態様や、音声認識機能の動作状態を制御しても良い。運転準備状態とは、たとえばインパネディスプレイ22を見ていない状態、より具体的にはドライバが車両前方を見ている状態である。ドライバが運転準備状態に該当するか否かは、乗員見守りカメラ13からの信号に基づき定まるドライバの視線方向/顔の向きから判断可能である。
 また、プロセッサ31は、自車両が停車している状態において、周辺監視センサ12にて先行車両の発進が検出されたことに基づいて、ドライバは運転準備状態に移ったと判定しても良い。さらに、プロセッサ31は信号機の指示にて自車両が停止中、信号機の点灯状態が自車両の通行を許可する点灯状態に移ったことが周辺監視センサ12にて検出されたことに基づいて、ドライバは運転準備状態に移ったと判定しても良い。自車両の通行を許可する点灯状態とは、緑色灯火が点灯している状態に加えて、自車両の進行方向に応じた矢印型の補助灯が点灯している状態を含む。なお、信号機の点灯状態は周辺監視センサ12としてのカメラによって認識されうる。また、信号機の点灯状態は、路側機から配信される点灯スケジュール情報に基づいて特定されても良い。
 その他、プロセッサ31は、自車両が自動運転モードであって、かつ、運転交代中である場合や、所定時間(10秒)以内に運転交代処理を開始することが計画されている場合に、ドライバは運転準備状態であると判定してもよい。
 図9はドライバが運転準備状態に該当するか否かを判定するステップを含むコマンド入力支援処理についてのフローチャートである。図9に示すように、プロセッサ31は制限対象画面を表示する際、ドライバがまだ運転状態ではない場合には(ステップS103 NO)、ドライバが運転準備状態に該当するか否かを判定する(ステップS104)。運転準備状態に該当するか否かは、前述の通り、ドライバの視線方向、先行車両の挙動、信号機の点灯状態、及び、運転交代処理の実施計画に基づいて判断される。ここで、ドライバが運転準備状態に該当すると判定しなかった場合には(ステップS104 NO)、遷移先画面を通常表示する(ステップS110)。一方、ドライバが運転準備状態に該当すると判定した場合には(ステップS104 YES)、制限対象画面をトーンダウン表示した上で音声補完処理を実施する(ステップS120、S130)。つまり、まだドライバが運転操作を開始していない状態であっても運転準備状態に該当する場合には、音声入力案内処理を実施し、対象機能と推定結果と音声認識結果との組み合わせにより、乗員の望むコマンドを特定及び実施する。
 このような構成によれば、ドライバが運転準備状態に移ったタイミングで、音声にて未入力の実行条件を入力可能となる。これに伴いドライバは、操作画面から目を離し、余裕を持って車両前方を含む周辺の交通状況を確認可能となる。つまり、安全性を高めつつ、ドライバの利便性も向上可能となる。加えて、上記構成によれば、問い合わせメッセージが音声出力されたことに基づいて、ドライバは速やかに運転操作を開始する必要があることを認識しやすくなる。
 <変形例(2)>
 HCU30は、操作デバイス23の操作者が助手席乗員か否かに応じて、乗員の入力操作に対する挙動(応答)を変更しても良い。そのような技術思想に対応する実施例(変形例)を図10及び図11を用いて説明する。なお、本開示での操作者とは、操作デバイス23を操作することでインパネディスプレイ22に表示されているボタンを押下している人物である。操作者は、実行条件を入力している人物であるため、実行条件/コマンドの入力者と呼ぶこともできる。
 図10は上記技術思想に対応するHCU30の機能を示すブロック図である。本変形例におけるHCU30は、図10に示すように、助手席乗員検出部Fa、操作者特定部Fb、及び実視認時間計測部Fcを備える。これらの機能部もまた、プロセッサ31が車内機器制御プログラムを実施することで実現されうる。
 助手席乗員検出部Faは、助手席に乗員が存在するか否かを検出する。助手席乗員がいるか否かは、助手席に設けられた着座センサやシートベルトセンサの出力信号に基づいて判定可能である。また、助手席乗員検出部Faは乗員見守りカメラ13からの信号に基づいて、助手席乗員の有無を判定しても良い。
 操作者特定部Fbは、操作デバイス23の操作者を特定する構成である。助手席乗員が検出されていない場合、操作者特定部Fbは、操作者はドライバと判定する。一方、助手席乗員が検出されている場合、操作者特定部Fbは、乗員見守りカメラ13の映像を解析することでドライバと助手席乗員のどちらが操作者に該当するかを判定してよい。操作者の判断材料としては、乗員ごとの姿勢や顔の向き、手の動きなどを採用可能である。操作者特定部Fbは、操作デバイス23を触っている人物、或いは、インパネディスプレイ22を見ている人物を操作者と判定する。仮に車載システムSysが、操作デバイス23付近における指や腕の運動を赤外線センサやミリ波レーダ等を用いて検出可能に構成されている場合、操作者特定部Fbは指や腕の運動方向などに基づいて操作者を判定してもよい。また、操作者特定部Fbは、消去法的に操作者を特定しても良い。操作を受け付けた時点において、ドライバが前方を見ており、かつ、ドライバの両手或いは操作画面に近い方の手がステアリングホイールを把持していることを確認できている場合、操作者特定部Fbは、操作者は助手席乗員と判定しても良い。
 実視認時間計測部Fcは、操作者がインパネディスプレイ22を見続けている時間を計測する構成である。インパネディスプレイ22を見続けている時間は、操作者の視線が操作画面或いはカーソルが存在する方向と一致している時間に相当する。操作者の視線方向は、前述の通り乗員見守りカメラ13からの信号によって定まる。ここでの一致とは完全一致に限らず、30度程度ずれている場合、すなわち略一致を含む。
 本変形例のHCU30は、コマンド入力支援処理として図11に示すフローを実行する。図11に示すコマンド入力支援処理は、前述の図9等に示す処理と適宜組み合わせて実施可能である。図11に示すコマンド入力支援処理もまた、図8や図9に示すコマンド入力支援処理と同様に、画面遷移を生じさせる非最終操作を受け付けた場合に実行される。図11に示すコマンド入力支援処理はステップS201~ステップS204、ステップS210、ステップS220、及びステップS230を備える。各ステップは図11に示す矢印に従って順に実行される。
 ステップS201~ステップS203は前述のステップS101~ステップS103と同じである。ステップS204は、操作者がドライバであるか否かを判定するステップである。操作者がドライバであると判定されている場合には(ステップS204 YES)、遷移先画面をトーンダウン表示した上で(ステップS220)、音声補完処理を実行する(ステップS230)。ステップS220及びステップS230の具体的な内容はステップS120、ステップS130と同様である。一方、操作者はドライバではない、すなわち、操作者は助手席乗員であると判定されている場合には(ステップS204 NO)、ステップS210として遷移先画面を通常表示する(ステップS210)。
 以上の構成によれば、遷移先画面が制限対象画面であってかつドライバが運転状態である場合であっても、操作者が助手席乗員である場合、HCU30は操作制限を適用せずに、実行条件の入力にかかるボタンを選択可能な態様で表示する。当該構成によれは、助手席乗員にとっての車載HMIの操作性を向上できる。
 <変形例(3)>
 プロセッサ31は、ドライバが非運転状態であること、又は、操作者が助手席乗員であること等に由来して遷移先画面を通常表示している状況において、特定の入力支援条件が充足した場合には、音声補完処理を実施しても良い。図12は当該技術思想に対応するフローを示したものであってステップS301は入力支援条件が充足したか否かを判定するステップである。またステップS302は音声補完処理を実行するステップである。
 入力支援条件とは、操作制限を適用しない場合においても音声補完処理を実施する条件に相当する。音声補完処理を実行することは、未入力の項目を音声入力にて取得(補完)すること、換言すれば、実行条件の入力手段を音声入力に切り替えることに相当する。故に入力支援条件は、実行条件の入力手段を音声入力に切り替える条件と解することができる。
 プロセッサ31は、操作画面を表示した後、所定経過しても選択操作が実施されない場合に、音声補完処理を実行する。表示画面切り替え後、所定経過しても選択操作が実施されないということは、操作者が迷っている、或いは、操作が分からず困っている状況であることを示唆する。そのような状況に対し、上記構成によれば、システムが質問を投げかけることで、操作者は希望の機能を利用しやすくなる。
 また、プロセッサ31は、スクロールや、ページめくり、カーソルの移動等は観測されているものの、同一種別の画面が表示されている状態が所定時間継続したことに基づいて音声補完処理を実行しても良い。プロセッサ31は、キーボード画面を表示してから所定時間が経過しても入力完了ボタンが押下されない場合に、音声補完処理を実行しても良い。キーボード画面は、検索語としての任意の文字列を入力可能な入力フォームを備える画面である。入力完了ボタンは、文字列の入力が完了したことを操作者がシステムに伝えるためのボタンである。HCU30は、入力完了ボタンが押下されたことに基づいて、入力されている文字列をキーとした検索等の後続処理を実行する。
 その他、プロセッサ31は、1つ前の画面に戻る操作/処理が実行されたことに基づいて音声補完処理を実行しても良い。1つ前の画面に戻る操作/処理が実行される場合には、目的地設定に係るキーボード画面で文字入力を完了させたが、検索結果として入力文字列に該当する住所/施設等が発見できなかった場合が含まれる。上記の操作/処理がなされたということは、操作者が希望する選択肢が見つからずに困っていることが想定される。
 表示画面切り替え後、所定経過しても別の画面に移るための選択肢が選択されなかった場合や、前の画面に戻る操作/処理が実行された場合などが、入力支援条件が充足した場合に対応する。また、検索語として入力された文字列に対応する情報が見つからなかった場合も入力支援条件が充足した場合として取り扱うことができる。上記条件によって音声補完処理を実施する構成によれば操作者の機能を利用しやすくなる。なお、上記入力支援条件が充足したことに基づく音声補完処理の実行は、操作者が助手席乗員と判定されている場合にのみ実施されても良いし、操作者に関わらずに実施されても良い。
 <変形例(4)>
 プロセッサ31は、操作者が助手席乗員であると判定していることに条件に制限対象画面を通常表示している状況において、ドライバが操作しようとしたことを検知した場合には、音声補完処理を実行しても良い。当該構成によれば、ドライバが運転中にインパネディスプレイ22を見続ける恐れを低減できる。
 図13は当該プロセッサ31の作動を示すフローである。当該処理フローは、前述の種々の処理と並列的に、又は、組み合わせて、又は置き換えて実施可能である。図13に示すフローは、ステップS210の後工程として実施されうる。図13に示すステップS311は、助手席乗員が操作中であることに基づいて制限対象画面を通常表示している状態か否かを判定するステップであり、ステップS312はドライバが操作デバイス23を操作しているか否かを判定するステップである。ステップS312は、ドライバが操作デバイス23を操作しようとしているか否かを判定するステップであっても良い。ドライバが操作デバイス23を操作しているか/操作しようとしているか否かは、操作者の識別方法と同様に、乗員見守りカメラ13からの信号に基づいて判定されうる。ステップS313は現行画面の表示態様をトーンダウン表示に切り替えるステップであり、ステップS314は音声補完処理を実施するステップである。
 その他、プロセッサ31は、乗員見守りカメラ13からの信号に基づいて、ドライバがインパネディスプレイ22を見ていると判定している場合、ドライバがインパネディスプレイ22を見続けている時間を計測しても良い。プロセッサ31は、助手席乗員が操作中であることを条件として制限対象画面を通常表示している状況において、ドライバがインパネディスプレイ22を見続けている時間が所定値以上となった場合には音声補完処理を実施しても良い。当該構成によっても、ドライバが運転中にインパネディスプレイ22を見続ける恐れを低減できる。
 <変形例(5)>
 プロセッサ31は、インパネディスプレイ22の所定位置に、音声認識機能の作動状態(オン/オフ)を示す画像である音声認識インジケータをインパネディスプレイ22の所定位置に表示しても良い。音声認識インジケータは、音声認識機能の作動状態に応じて一部の形状/色合いが変化するアイコン画像である。音声認識ステータス画像は、マイクを模した画像でも良いし、顔を模した画像であっても良い。音声認識インジケータは、図14に示すようにマイク画像と顔画像を組み合わせて実現されていても良い。図14に示す(A)は問い合わせメッセージを出力しているシーンでの表示形態を示しており(B)は音声入力待機中であることを示す表示形態である。図14の(C)は、問い合わせメッセージの出力も、音声入力の待機も行っていないシーンでの表示形態を示している。もちろん、これらは一例であり、音声認識インジケータの具体的態様は適宜変更可能である。
 音声認識インジケータは、任意のキャラクター画像を用いて実現されていても良い。プロセッサ31は、質問を音声出力する際、音声認識インジケータを構成するキャラクターの口を当該アナウンスに連動させて開閉させることにより、当該キャラクターが質問していることを表現してもよい。当該制御態様によればユーザビリティが向上しうる。
 プロセッサ31は、図15に示すように乗員見守りカメラ13からの信号に基づいて、乗員が音声認識見続けていることを検出した場合には(ステップS321 YES)、音声補完処理を実行しても良い(ステップS322)。なお、図15に示すフローは、ステップS110やステップS210の後工程として実施されうる。
 <変形例(6)>
 プロセッサ31は、乗員が利用しようとしている機能が運転関連機能かどうか、或いは、操作者がドライバであるか助手席乗員であるかによって、操作画面(ウィンドウ)の表示位置を調整しても良い。運転関連機能とは、ドライバの運転操作やドライバにとっての車内環境に影響を与える機能を意味する。運転関連機能には、例えばナビゲーション機能が含まれる。なお、車内に流れる音楽や空調はドライバに影響を与えうるため、オーディオ機能や空調機能もまた、運転関連機能に含めることができる。一方、動画再生機能やウェブブラウジング機能などといった、エンターテイメント系の機能は、運転関連機能に該当しない。運転関連機能とする機能種別は予め登録されていれば良い。
 プロセッサ31は、ホーム画面に対する機能の選択操作を受け付けた場合、図16に示すように、選択機能が運転関連機能かどうかを判定する(ステップS331)。選択機能とは、乗員が利用しようとしている機能であって、上述した対象機能に対応する。選択機能は、乗員によって選択されたボタンID又は遷移先画面のIDに基づいて特定される。
 プロセッサ31は、選択機能が運転関連機能に該当すると判定した場合には(ステップS331 YES)、操作画面を中央表示エリアA3に表示する(ステップS332)。一方、プロセッサ31は、選択機能が運転関連機能に該当しないと判定した場合には(ステップS331 NO)、操作者はドライバであるか否かを判定する(ステップS333)。
 プロセッサ31は、選択機能が運転関連機能ではないものの、操作者はドライバである場合には(ステップS333 YES)、操作画面を中央表示エリアA3に表示する(ステップS332)。一方、選択機能が運転関連機能ではなく、かつ、操作者は助手席乗員である場合には(ステップS333 NO)、操作画面をP席用表示エリアA2に表示する(ステップS334)。
 上記の構成によれば、助手席乗員の操作によって起動した、動画再生アプリなどの操作画面は、P席用表示エリアA2に表示され、ドライバの視界に入りにくい。故に、助手席乗員の操作に起因する画面表示によってドライバに煩わしさを与える恐れを低減可能となる。なお、プロセッサ31は、選択機能が運転関連機能に該当すると判定し、且つ、操作者はドライバであると判定した場合には、操作画面をD席用表示エリアA1に表示しても良い。
 ところで、操作者がドライバであるか助手席乗員であるかの判定は、助手席乗員が存在することを前提とする。上記構成は、助手席乗員が存在すると判定されているか否か、及び、選択機能が運転関連機能に該当するか否かの組み合わせに基づいて、選択機能に対応する操作画面の表示位置を変更する構成の一例に相当する。図16に示すフローチャートには、助手席乗員が存在するか否かを判定するステップが内在している。
 また、他の態様として、プロセッサ31は選択機能の種別と操作者の何れか一方のみを用いて操作画面の表示位置を調整しても良い。ホーム画面における機能選択ボタンを押した人物(つまり操作者)が助手席乗員であると判定している場合、プロセッサ31は、選択された機能の操作画面をP席用表示エリアA2に表示する。一方、機能選択ボタンを押下した人物はドライバであると判定している場合には中央表示エリアA3に表示しても良い。
 <変形例(7)>
 プロセッサ31は、乗員が利用しようとしている機能が運転関連機能であるか否か、又は、操作者がドライバであるか否かに応じて、音声補完処理で使用するスピーカ24及びマイク25の組み合わせを変更しても良い。プロセッサ31は、音声補完処理で使用するスピーカ24及びマイク25の組み合わせとして、次の(A)~(C)の3パターンを選択的に採用可能である。(A)D席、P席の両側のスピーカ24及びマイク25を使用する、(B)D席側のスピーカ24及びマイク25を使用する、(C)P席のスピーカ24及びマイク25を使用する。パターンBではプロセッサ31は、P席スピーカ24bからは問い合わせメッセージを出力せず、かつ、P席マイク25bを一時的にオフにする。また、パターンCではプロセッサ31は、D席スピーカ24aからは問い合わせメッセージは出力せず、かつ、D席マイク25aを一時的にオフにする。
 上記のように音声補完処理で使用するスピーカ24及びマイク25の組み合わせを変更することは、対象機能の実行条件の問い合わせ先を制限することに相当する。パターンAは、ドライバと助手席乗員の両方に対して目的語の発話を要求するパターンに相当する。パターンBは、主としてドライバに目的語の発話を要求するパターンに相当する。パターンCは、主として助手席乗員に目的語の発話を要求するパターンに相当する。
 プロセッサ31は、ホーム画面に対する選択操作を受け付けた場合、図17に示すように、選択機能が運転関連機能かどうかを判定する(ステップS341)。プロセッサ31は、選択機能が運転関連機能に該当すると判定した場合には(ステップS341 YES)、D席側、P席側の両方のスピーカ24及びマイク25を使って音声補完処理を実行する(ステップS342)。つまり、プロセッサ31は音声補完処理で使用するスピーカ24及びマイク25の組み合わせとしてパターンAを採用する。
 一方、プロセッサ31は、選択機能が運転関連機能に該当しないと判定した場合には(ステップS341 NO)、操作者はドライバであるか否かを判定する(ステップS343)。プロセッサ31は、選択機能が運転関連機能ではないものの、操作者はドライバである場合には(ステップS343 YES)、パターンAを採用する(ステップS342)。
 プロセッサ31は、選択機能が運転関連機能ではなく、かつ、操作者は助手席乗員である場合には(ステップS343 NO)、P席側のスピーカ24及びマイク25を使って音声補完処理を実施する(ステップS344)。つまり、プロセッサ31は音声補完処理で使用するスピーカ24及びマイク25の組み合わせとしてパターンCを採用する。
 上記の構成によれば、助手席乗員の操作によって起動した、動画再生アプリなどについての問い合わせは助手席乗員にのみ実施されるため、ドライバに煩わしさを与える恐れを低減可能となる。このように選択機能の種別及び操作者に応じて、実行条件の問い合わせ先を変更することにより、ドライバの快適性/利便性を高める事ができる。上記構成は、助手席乗員が存在すると判定されているか否か、及び、選択機能が運転関連機能に該当するか否かの組み合わせに基づいて、音声補完処理で使用するスピーカ24及びマイク25の組み合わせを変更する構成に相当する。
 なお、プロセッサ31は選択機能の種別と操作者の何れか一方を用いて目的語の取得に使用するマイク25の組み合わせを変更しても良い。プロセッサ31は、選択機能が運転関連機能ではない場合には、操作者によらず、パターンCを採用するように構成されていても良い。選択機能が運転関連機能ではない場合とは、選択機能が動画再生アプリなどの場合である。
 <変形例(8)>
 プロセッサ31は、画面操作途中においてドライバが非運転状態から運転状態に移行することをトリガとして、音声補完処理を実行しても良い。プロセッサ31は、図18に示すフローに沿って、実行条件の取得手段を手操作から音声入力に切り替えてよい。図18に示すフローは、ステップS401~ステップS404、ステップS420、ステップS430を含み、図中の矢印に従って順に実行されうる。なお、図18に示す処理フローは、前述の種々の処理と並列的に、又は、組み合わせて、又は置き換えて実施可能である。図18に示すフローは、任意の機能にかかる操作画面を表示している状況において、例えば250ミリ秒や500ミリ秒、1秒などの所定間隔で定期的に実施されうる。
 ステップS401は、ステップS101等と同様に、車両情報やドライバの状態情報など、プロセッサ31が以降の処理で使用する情報を種々のセンサ/装置から取得するステップである。ステップS402は、現行画面のIDに基づいて、操作が途中の状態であるか否かを判定するステップである。
 操作途中である場合(ステップS402 YES)、プロセッサ31はドライバの状態が非運転状態から運転状態に遷移したか、つまり運転を開始したか否かを判定する(ステップS404)。運転を開始したと判定する場合には、ドライバ自身によるアクセルオン又はブレーキオフによって車両を発進させた場合の他に、自動運転モードから手動運転モードに切り替わった場合も含めることができる。
 ドライバが運転を開始したと判定した場合には(ステップS403 YES)、現行画面の表示態様をトーンダウン表示に切り替え(ステップS420)、音声補完処理を実施する(ステップS430)。一方、現行画面が制限対象画面ではない場合(ステップS402 NO)や、ドライバがまだ運転を開始していない場合(ステップS403 NO)には、プロセッサ31は乗員の操作を待機する(ステップS404)。
 上記の構成によっても前述の実施形態と同様の効果を奏する。また、ドライバからすると運転開始後も、音声にて未入力の項目(換言すれば実行条件)を引き続き入力可能となる。ひいては、利用したい機能を速やかに実行させることが可能となる。なお、上記の処理は、現行画面が制限対象画面であることを条件として実施するように構成されていても良い。現行画面が制限対象画面ではない場合、ステップS420として表示態様の切り替え処理は省略されても良い。
 ところで図18に示す音声入力案内処理では、問い合わせメッセージとして、現行画面/入力済みの内容に応じた質問を出力する。ここで出力するメッセージの内容は、操作の途中度(進行度)に応じて変更されてもよい。例えば目的地設定にかかる住所入力画面において、目的地が所属する「XX県/州」までの入力が完了しており、現行画面が市町村の選択画面の場合、「XX県/州のどこにいきますか?」といったメッセージを音声出力してもよい。また、目的地設定にかかる住所入力画面において、目的地が所属する「市町村」までの入力が完了しており、現行画面が番地の入力画面の場合、「番地を教えて下さい。主要部までの案内でもよいですか」といった内容のメッセージを音声出力してもよい。なお、上記質問に対して数字以外の回答が得られた場合には、主要部を目的地に設定した経路案内をコマンドとして実行しても良い。プロセッサ31は、入力済みの内容に応じて質問内容を具体化しても良い。また、プロセッサ31は、取得できた乗員からの回答の内容では、実行条件を一意に特定できなかった場合には、更に絞り込みのための質問を音声出力してもよい。
 加えて、プロセッサ31は、現行画面が検索語を入力するためのキーボード画面であって、ドライバ運転開始時に所定数以上の文字/単語が入力された状態である場合には、入力済みの文字列を用いていったん検索を行ってもよい。そして、プロセッサ31は検索ヒット数に応じて、その後の制御(応答)を変更しても良い。プロセッサ31は検索ヒット数が所定値(例えば5件)以上である場合には、「行きたい施設名称を言ってください」といった問い合わせメッセージを出力してよい。一方、検索ヒット数が所定値未満である場合、プロセッサ31は検索結果の中から最も尤度が高いものを選択し、「行きたい場所は、XXですか?」と問い合わせてもよい。尤度は過去のドライバの目的地の設定履歴や、行動履歴など、現在地からの距離に応じて算出されれば良い。検索結果のなかに過去に訪れたことがある施設が含まれている場合には、当該施設を目的地に設定するか否かを問い合わせても良い。
 <その他の変形例(9)>
 プロセッサ31は、図19に示すように、ホーム画面以外の操作画面を表示している状況においてトークスイッチ26が押下されたことに基づいて(ステップS411 YES)、当該操作画面に対応する音声補完処理を実施しても良い(430)。
 また、プロセッサ31は、ステップS124にて乗員の発話内容の取得に失敗した場合には、対象機能が運転関連機能に該当するか否かに応じてその後の応答を変更しても良い。図20に示すように、対象機能が運転関連機能である場合、特にナビゲーション機能などの運転操作との関連性が高い機能である場合(ステップS421 YES)、再試行処理を実施する(ステップS422)。再試行処理は、再度、音声入力案内処理を実施することに対応する。
 一方、発話内容の取得に失敗した際に、対象機能が運転関連機能ではない場合(ステップS421 NO)には、プロセッサ31は、最寄りの安全に停車可能なスペースにて続きの操作を実施することを提案しても良い。安全に停車可能なスペースとは、サービスエリアやパーキングエリア、退避スペースなどを意味する。プロセッサ31は音声認識に失敗した場合には、「5km先にサービスエリアがあるので、停車して安全に操作しましょう」と提案してもよい。当該応答によれば、ドライバが運転中においてシステムに意識を向ける時間を抑制可能となる。
 その他、プロセッサ31は、音声補完処理を実行することを決定した場合、運転交代処理を実行中かどうかに応じて、問い合わせメッセージの出力タイミングを調停しても良い。プロセッサ31は図21に示すように運転交代処理を実行中である場合には(ステップS431 YES)、問い合わせメッセージの出力を運転交代が完了するまで保留とする(ステップS432)。一方、運転交代中ではない場合には(ステップS431 NO)、問い合わせメッセージの出力を実施する。
 一般的に、運転交代中、ドライバは周囲の交通状況の把握や、自車両の状態、走行経路の確認などを実施するため、ドライバの負荷は高い状態となる。そのような状況下で問い合わせメッセージを出力すると、ドライバに煩わしさを与えうる。本変形例は上記の着想に基づいて創出されたものであって、本変形例によればドライバに煩わしさを与える恐れを低減できる。もちろん、他の態様として、運転交代中においても随時問い合わせメッセージを出力しても良い。
 上述した実施形態ではHCU30は、回答範囲が対象機能に関連する範囲に限定されるセミクローズド・クエスチョンの態様で、実行条件にかかる質問を行う態様を例示したが、これに限らない。HCU30はフルクローズド・クエスチョンで質問しても良い。フルクローズド・クエスチョンはYES/NOなどの2択で回答可能な質問の仕方を意味する。セミクローズド・クエスチョンとは「どこに行きますか?」「何を聴きますか」「どの映画を見ますか?」といったように、回答の範囲が限定されているものの、回答の自由度が相対的に高い質問の仕方を意味する。セミクローズド・クエスチョンはセミオープンクエスチョンと呼ぶこともできる。なお、「お話しください」といった漠然とした問いかけはフルオープン・クエスチョンに相当する。
 <付言(1)>
 本開示に示す種々のフローチャートは何れも一例であって、フローチャートを構成するステップの数や、処理の実行順は適宜変更可能である。また、本開示に記載の装置、システム、並びにそれらの手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。本開示に記載の装置及びその手法は、専用ハードウェア論理回路を用いて実現されてもよい。本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。HCU30が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。プロセッサ(演算コア)としては、CPUや、MPU、GPU、DFP(Data Flow Processor)などを採用可能である。HCU30が備える機能の一部又は全部は、システムオンチップ(SoC:System-on-Chip)を用いて実現されていても良い。
 また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体(non- transitory tangible storage medium)に記憶されていればよい。プログラムの記録媒体としては、HDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等を採用可能である。コンピュータをHCU30として機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体等の形態も本開示の範囲に含まれる。

Claims (13)

  1.  ディスプレイに表示される選択肢に対する乗員の選択操作を受け付けるための操作デバイスからの信号、及び、音声認識によって特定される前記乗員の発話内容に基づいて車内機器を制御する車内機器制御装置であって、
     前記乗員の動き及び視線の少なくとも何れか一方を検出する乗員挙動センサの出力に基づき、運転席に着座している前記乗員である運転席乗員が、車両を走行させる操作をしている運転状態に該当するか否かを判定することと、
     前記操作デバイスからの信号に基づき、前記ディスプレイの表示画面を制御することと、
     前記運転席乗員が運転状態である状況において、操作制限の対象に設定されている画面である制限対象画面を呼び出す操作が行われたことを検出した場合には、当該制限対象画面に応じた、未入力の項目にかかる問い合わせメッセージを出力することと、
     前記問い合わせメッセージの出力と同時に又はその後に、音声認識機能を有効化することと、
     前記問い合わせメッセージ対する前記乗員の回答を音声認識により取得できた場合には前記制限対象画面に対応する機能の範囲において前記回答に応じた制御を実行することと、を実施するように構成されている車内機器制御装置。
  2.  請求項1に記載の車内機器制御装置であって、
     前記問い合わせメッセージは、前記制限対象画面に対応する機能を前記乗員が利用するために必要な項目についての質問である車内機器制御装置。
  3.  請求項1又は2に記載の車内機器制御装置であって、
     前記ディスプレイに表示している画面又は前記乗員によって選択された前記選択肢の情報に基づいて、現在の操作状態が所定の機能を実行させるための一連の操作の途中に該当するか否かを判定することと、
     前記操作状態が前記一連の操作の途中である状況において、前記運転席乗員が運転状態に移行したことに基づいて、現在の表示画面に応じた問い合わせメッセージを出力することと、
     前記問い合わせメッセージの出力と同時に又はその後に、音声認識機能を有効化することと、
     前記問い合わせメッセージ対する前記乗員の回答を音声認識により取得できた場合には前記現在の表示画面に対応する機能の範囲において前記回答に応じた制御を実施する車内機器制御装置。
  4.  請求項1から3の何れか1項に記載の車内機器制御装置であって、
     前記運転席乗員は前記運転状態ではないと判定している場合には、さらに、前記乗員挙動センサ、又は、周辺監視センサ、又は、自動運行装置からの信号に基づいて、前記運転席乗員が運転準備状態に該当するか否かを判定し、
     前記運転席乗員が前記運転準備状態であると判定されている状況において、前記制限対象画面を表示する場合には、前記問い合わせメッセージの出力及び音声認識機能の自動的な有効化を含む音声入力案内処理を実施する車内機器制御装置。
  5.  請求項1から4の何れか1項に記載の車内機器制御装置であって、
     前記乗員挙動センサの出力に基づいて、前記操作デバイスの操作者が前記運転席乗員であるか助手席乗員であるかを判別し、
     前記運転席乗員が前記運転状態である状況において、前記制限対象画面を呼び出す操作が行われたことを検出した際、前記操作者が前記運転席乗員と判定している場合には、前記問い合わせメッセージの出力及び音声認識機能の自動的な有効化を含む音声入力案内処理を実施する一方、前記操作者が助手席乗員と判定されている場合には少なくとも表示画面を切り替えてから所定時間は前記音声入力案内処理を実行しないように構成されている車内機器制御装置。
  6.  請求項5に記載の車内機器制御装置であって、
     前記運転席乗員が前記運転状態である状況において前記制限対象画面を呼び出す操作が行われたことを検出した際、前記操作者が前記運転席乗員である場合には前記機能の実行にかかる選択肢を選択不能な態様で前記制限対象画面を表示する一方、前記操作者が前記助手席乗員である場合には前記機能の実行にかかる選択肢を選択可能な態様で前記制限対象画面を表示する車内機器制御装置。
  7.  請求項5又は6に記載の車内機器制御装置であって、
     前記操作者が前記助手席乗員であると判定されている状況において、前記制限対象画面を表示してから所定時間経過しても他の画面に移る選択肢が選択されなかった場合、1つ前の画面を再表示した場合、及び、検索語として入力された文字列に対応する情報が見つからなかった場合の少なくとも1つの場合には、前記音声入力案内処理を実行するように構成されている車内機器制御装置。
  8.  請求項5から7の何れか1項に記載の車内機器制御装置であって、
     前記運転席乗員が運転中、前記操作者が前記助手席乗員であることを条件に前記制限対象画面を前記乗員が選択操作可能な態様で表示している状況において、前記乗員挙動センサからの信号に基づいて前記運転席乗員が選択操作をしようとしていることを検知した場合には、前記音声入力案内処理を実行するように構成されている車内機器制御装置。
  9.  インストゥルメントパネルの運転席の正面領域から助手席の正面領域まで伸びる連続的な表示画面を備える前記ディスプレイと接続されて使用される、請求項1から8の何れか1項に記載の車内機器制御装置であって、
     前記操作デバイスからの信号又は前記ディスプレイに表示している画面の種別に基づいて、操作者としての前記乗員が利用しようとしている機能である対象機能を特定することと、
     前記対象機能が、運転操作に関連する予め定められた運転関連機能に該当するか否かを判定することと、
     車載センサの出力信号に基づいて、助手席乗員がいるか否かを判定することと、
     前記助手席乗員が存在すると判定されているか否か、及び、前記対象機能が前記運転関連機能に該当するか否かの組み合わせに基づいて、前記ディスプレイの表示画面内における、前記対象機能に対応する操作画面の表示位置を変更することと、を実施するように構成されている車内機器制御装置。
  10.  運転席用マイク、運転席用スピーカ、助手席用マイク、及び助手席用スピーカのそれぞれと接続されて使用される、請求項1から9の何れか1項に記載の車内機器制御装置であって、
     前記操作デバイスからの信号又は前記ディスプレイに表示している画面の種別に基づいて、操作者としての前記乗員が利用しようとしている機能である対象機能を特定することと、
     前記対象機能が、運転操作に関連する予め定められた運転関連機能に該当するか否かを判定することと、
     車載センサの出力信号に基づいて、助手席乗員がいるか否かを判定することと、
     前記助手席乗員が存在すると判定されているか否か、及び、前記対象機能が前記運転関連機能に該当するか否かの組み合わせに基づいて、前記問い合わせメッセージを出力させるスピーカ、及び、音声認識に使用するマイクの組み合わせを変更することと、を実行するように構成されている車内機器制御装置。
  11.  請求項1から10の何れか1項に記載の車内機器制御装置であって、
     前記機能の実行にかかる選択肢を選択可能な態様で前記制限対象画面を表示している状況において、
     前記乗員挙動センサの出力に基づき前記運転席乗員が前方に目を向けていることを検知した場合、
     周辺監視センサからの信号に基づき先行車両の発進を検知した場合、及び、
     前記周辺監視センサからの信号又は無線通信で外部から受信した信号に基づき、前方にある信号機が自車両の通行を許可する表示に切り替わったことを検知した場合の少なくとも何れか1つの場合には、
     前記制限対象画面に含まれる選択肢を選択不能な状態に切り替えることと、前記問い合わせメッセージを音声出力することと、音声認識機能を自動的に有効化することと、を実施するように構成されている車内機器制御装置。
  12.  ディスプレイに表示される選択肢に対する乗員の選択操作を受け付けるための操作デバイスからの信号、及び、音声認識によって特定される前記乗員の発話内容に基づいて車内機器を制御する車内機器制御装置であって、
     前記乗員の動き及び視線の少なくとも何れか一方を検出する乗員挙動センサの出力に基づき、運転席に着座している前記乗員である運転席乗員が、車両を走行させる操作をしている運転状態であるか否かを判定することと、
     前記ディスプレイに表示している画面、又は、前記乗員によって選択された前記選択肢の情報に基づいて、現在の操作状態が所定の機能を実行させるための一連の操作の途中に該当するか否かを判定することと、
     前記操作状態が前記一連の操作の途中である状況において、前記運転席乗員が運転状態に移行したことに基づいて、現在の表示画面に応じた、未入力の項目にかかる問い合わせメッセージを出力することと、
     前記問い合わせメッセージの出力と同時に又はその後に、自動的に音声認識機能を有効化することと、
     前記問い合わせメッセージ対する前記乗員の回答を音声認識により取得できた場合には前記現在の表示画面に対応する機能の範囲において前記回答に応じた制御を実施することと、を実行するように構成されている車内機器制御装置。
  13.  ディスプレイに表示される選択肢に対する乗員の選択操作を受け付けるための操作デバイスからの信号、及び、音声認識によって特定される前記乗員の発話内容に基づいて車内機器を制御する車内機器制御装置であって、
     前記乗員の動き及び視線の少なくとも何れか一方を検出する乗員挙動センサの出力に基づき、運転席に着座している前記乗員である運転席乗員が、車両を走行させる操作をしている運転状態であるか否かを判定することと、
     前記操作デバイスからの信号に基づき、前記ディスプレイの表示画面を制御することと、
     前記運転席乗員が運転状態である状況において、操作制限の対象に設定されている画面である制限対象画面を呼び出す操作が行われたことを検出した場合には、当該制限対象画面に応じた、未入力の項目にかかる問い合わせメッセージを出力することと、
     前記問い合わせメッセージの出力と同時に又はその後に、音声認識機能を有効化することと、
     前記問い合わせメッセージ対する前記乗員の回答を音声認識により取得できた場合には前記制限対象画面に対応する機能の範囲において前記回答に応じた制御を実行することと、を含む車内機器制御方法。
PCT/JP2023/003449 2022-02-09 2023-02-02 車内機器制御装置、車内機器制御方法 WO2023153314A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022018944A JP2023116247A (ja) 2022-02-09 2022-02-09 車内機器制御装置、車内機器制御方法
JP2022-018944 2022-02-09

Publications (1)

Publication Number Publication Date
WO2023153314A1 true WO2023153314A1 (ja) 2023-08-17

Family

ID=87564239

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/003449 WO2023153314A1 (ja) 2022-02-09 2023-02-02 車内機器制御装置、車内機器制御方法

Country Status (2)

Country Link
JP (1) JP2023116247A (ja)
WO (1) WO2023153314A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH074284A (ja) * 1993-06-16 1995-01-10 Mitsubishi Electric Corp エンジンの自動始動停止装置
JPH0916891A (ja) * 1995-07-03 1997-01-17 Aqueous Res:Kk 車載用情報入力装置
JP2004234529A (ja) * 2003-01-31 2004-08-19 Cross Culture Ltd キオスク端末
JP2004249833A (ja) * 2003-02-20 2004-09-09 Nissan Motor Co Ltd 車両用表示制御装置
JP2004355055A (ja) * 2003-05-26 2004-12-16 Alpine Electronics Inc 車載用電子機器及びナビゲーション方法
JP2014075069A (ja) * 2012-10-05 2014-04-24 Smk Corp 車載用タッチパネル入力装置
US20190084421A1 (en) * 2017-09-15 2019-03-21 Lg Electronics Inc. Vehicle control device and vehicle including the same
JP2020147101A (ja) * 2019-03-12 2020-09-17 アルパイン株式会社 制御装置および制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH074284A (ja) * 1993-06-16 1995-01-10 Mitsubishi Electric Corp エンジンの自動始動停止装置
JPH0916891A (ja) * 1995-07-03 1997-01-17 Aqueous Res:Kk 車載用情報入力装置
JP2004234529A (ja) * 2003-01-31 2004-08-19 Cross Culture Ltd キオスク端末
JP2004249833A (ja) * 2003-02-20 2004-09-09 Nissan Motor Co Ltd 車両用表示制御装置
JP2004355055A (ja) * 2003-05-26 2004-12-16 Alpine Electronics Inc 車載用電子機器及びナビゲーション方法
JP2014075069A (ja) * 2012-10-05 2014-04-24 Smk Corp 車載用タッチパネル入力装置
US20190084421A1 (en) * 2017-09-15 2019-03-21 Lg Electronics Inc. Vehicle control device and vehicle including the same
JP2020147101A (ja) * 2019-03-12 2020-09-17 アルパイン株式会社 制御装置および制御方法

Also Published As

Publication number Publication date
JP2023116247A (ja) 2023-08-22

Similar Documents

Publication Publication Date Title
US20220340166A1 (en) Presentation control device, presentation control program, and driving control device
JP6515764B2 (ja) 対話装置及び対話方法
US9103691B2 (en) Multimode user interface of a driver assistance system for inputting and presentation of information
CN111367601B (zh) 显示装置、显示方法及存储介质
US20170286785A1 (en) Interactive display based on interpreting driver actions
US9703472B2 (en) Method and system for operating console with touch screen
US20120268294A1 (en) Human machine interface unit for a communication device in a vehicle and i/o method using said human machine interface unit
US20230046135A1 (en) Control system and method using in-vehicle gesture input
WO2021033464A1 (ja) 運転制御装置及び車両行動提案装置
US20180226077A1 (en) Vehicle driving assist and vehicle having same
CN110211586A (zh) 语音交互方法、装置、车辆以及机器可读介质
WO2018230527A1 (ja) 運転支援方法、運転支援プログラム及び車両制御装置
CN111845776B (zh) 一种车辆提醒方法和车辆
US20200410264A1 (en) Control system using in-vehicle gesture input
WO2016084360A1 (ja) 車両用表示制御装置
WO2019069731A1 (ja) 情報処理装置、情報処理方法、プログラム、および移動体
JP2017090615A (ja) 音声認識制御システム
CN109976515B (zh) 一种信息处理方法、装置、车辆及计算机可读存储介质
JP2020160180A (ja) 表示制御装置、表示制御方法およびプログラム
JP2020050204A (ja) 車両の走行制御方法及び走行制御装置
WO2023153314A1 (ja) 車内機器制御装置、車内機器制御方法
JP2023138849A (ja) 提示制御装置及び提示制御プログラム
Nakrani Smart car technologies: a comprehensive study of the state of the art with analysis and trends
WO2020246089A1 (ja) 情報提示制御装置
JP2022007915A (ja) 提示制御装置、提示制御プログラム及び運転制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23752779

Country of ref document: EP

Kind code of ref document: A1