WO2018207482A1 - 発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法 - Google Patents

発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法 Download PDF

Info

Publication number
WO2018207482A1
WO2018207482A1 PCT/JP2018/012378 JP2018012378W WO2018207482A1 WO 2018207482 A1 WO2018207482 A1 WO 2018207482A1 JP 2018012378 W JP2018012378 W JP 2018012378W WO 2018207482 A1 WO2018207482 A1 WO 2018207482A1
Authority
WO
WIPO (PCT)
Prior art keywords
utterance
function
telephone
telephone function
notification
Prior art date
Application number
PCT/JP2018/012378
Other languages
English (en)
French (fr)
Inventor
茂典 木下
義親 飯田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2018207482A1 publication Critical patent/WO2018207482A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/247Telephone sets including user guidance or feature selection means facilitating their use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Definitions

  • the present invention relates to an utterance control device, an electronic device, a program, and an utterance control device control method.
  • Patent Document 1 when a call from a third party is received during a call and the user continues the call without answering the call, the ringer speaker unit calls the third party after the call ends.
  • a telephone device that announces caller information and a voice message for notifying that a call has been received is disclosed.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2011-250349 (published on December 8, 2011)”
  • the telephone device disclosed in Patent Document 1 announces the third party's caller information and voice message after the call ends, but does not announce that the voice operation is enabled after the call ends. However, it was still difficult to understand when the voice operation after the call ended was possible.
  • An aspect of the present invention has been made in view of the above-described problems, and an object of the present invention is to enable a user to easily recognize that voice operation of an electronic device is possible.
  • an utterance control device is an utterance control device that controls utterances of an electronic device having a telephone function, a voice operation function, and an utterance function.
  • an utterance control device controls utterances of an electronic device having a telephone function, a voice operation function, and an utterance function.
  • an electronic device is an electronic device that controls speech of the device having a telephone function, a voice operation function, and a speech function,
  • the electronic device An utterance determination unit that determines whether or not to perform a notification utterance for notifying the user that the voice operation function can be executed.
  • a control method for an utterance control device is a control method for an utterance control device that controls an utterance of an electronic device having a telephone function, a voice operation function, and an utterance function.
  • a telephone end detection step for detecting whether or not the execution of the telephone function has ended, and execution of the telephone function when the end of execution of the telephone function is detected in the telephone end detection step.
  • the electronic device includes an utterance determination step for determining whether or not to perform a notification utterance for notifying the user that the voice operation function can be executed.
  • the electronic device when the execution of the telephone function of the electronic device is finished, the electronic device makes a notification utterance under a certain condition, so that the user can perform voice operation of the electronic device. It can be easily recognized.
  • FIG. 6 is a block diagram showing a functional configuration of a main part of a smartphone according to Embodiments 1 to 5 of the present invention.
  • FIG. It is a flowchart which shows an example of the control method of the speech control apparatus which concerns on Embodiment 1 and 5 of this invention. It is a flowchart which shows an example of the control method of the speech control apparatus which concerns on Embodiment 2 of this invention. It is a flowchart which shows the other example of the control method of the speech control apparatus which concerns on Embodiment 3 and 4 of this invention.
  • Embodiment 1 Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 and 2.
  • components having the same functions as those described in the specific items are denoted by the same reference numerals and description thereof is omitted.
  • a smartphone will be described as an example of an electronic device provided with the speech control device according to one aspect of the present invention.
  • electronic devices that can incorporate the speech control device according to one embodiment of the present invention a smartphone, a speaker phone, a tablet terminal, a wearable terminal, a robot, and the like are assumed.
  • the speech control apparatus does not necessarily have to be incorporated in the electronic device as described above.
  • the utterance control device is mounted on an external information processing device, and each information related to the telephone function and voice operation function of the smartphone is transmitted and received between the information processing device and the smartphone. The utterance may be controlled.
  • a telephone end detection unit / speech determination unit which is a component of the speech control device, may be incorporated in the electronic device.
  • FIG. 1 is a block diagram illustrating a functional configuration of a main part of the smartphone 100 according to the first embodiment.
  • a smartphone 100 electronic device
  • PDA Personal Digital Assistant: personal digital assistant
  • the smartphone 100 has a voice operation function and an utterance function, and can perform a reception operation not only by manual operation but also by voice operation. Note that the receiving operation of the smartphone 100 may be realized only by a manual operation.
  • the smartphone 100 includes a microphone 11, a speaker 12, and a control unit 15.
  • the microphone 11 is a voice input device that accepts input of ambient sounds.
  • the speaker 12 is an audio output device for speaking to the user.
  • the control unit 15 controls and controls each unit of the smartphone 100, and includes the utterance control device 1. 1, the control unit 15 is built in the smartphone 100, but the control unit 15 may be an external device attached to the smartphone 100 or a network server used via a communication unit (not shown). Absent.
  • the utterance control device 1 is a device that controls the utterance of the smartphone 100, and as shown in FIG. 1, the voice operation unit 13, the voice conversion unit 14, the audio control unit 1a, the voice recognition unit 1b, the telephone function unit 1c, A call detection unit 1d (telephone end detection unit), an utterance determination unit 1e, and an utterance content storage unit 1f are provided.
  • the voice operation unit 13 When the user's utterance content indicated in the text data received from the voice recognition unit 1b, which will be described later, is an operation instruction for the smartphone 100, the voice operation unit 13 performs an execution instruction for a predetermined function that is an instruction target I do.
  • the voice conversion unit 14 converts the text data of the utterance sentence indicating the utterance content of the notification utterance received from the utterance determination unit 1e described later into voice data. Further, the voice conversion unit 14 requests the audio control unit 1a to grant the right to use the speaker 12 to the voice conversion unit 14. The voice conversion unit 14 that has obtained the right to use causes the converted voice data to be output from the speaker 12 as voice related to the notification utterance.
  • the audio control unit 1a appropriately grants each right to use the microphone 11 and the speaker 12 to the respective units in response to requests from the voice recognition unit 1b, the telephone function unit 1c, and the voice conversion unit 14.
  • the audio control unit 1a connects the microphone 11 and the line, and connects the speaker 12 and the line.
  • the voice recognition unit 1b receives sound data from the microphone 11 via the audio control unit 31, converts the user's voice data included in the sound data into text data of an utterance sentence indicating the utterance content, and performs voice operation. To the unit 13.
  • the telephone function unit 1c performs call control such as making / receiving calls, receiving / ending calls, etc., instructing the audio control unit 1a to connect the microphone 11 / speaker 12 to the line, and performing automatic call functions such as an answering machine function. Further, when the execution of the telephone function is completed, the telephone function unit 1c transmits execution mode information to the utterance determination unit 1e.
  • the execution mode information is information indicating the execution mode of the telephone function of the smartphone 100 (specifically, the telephone function unit 1c), and in addition to the user's reception operation type, the call time and the call time (call start time and Call end time), user habits related to the call, execution of the call function and execution of the automatic answering function.
  • the user's habits related to the call as the execution mode information may be stored in, for example, a memory (not shown) in the telephone function unit 1c, or stored in a storage unit (not shown) outside the utterance control device 1. May be. Alternatively, it may be stored in a storage device (not shown) outside the smartphone 100.
  • the call detection unit 1d monitors the execution status of the telephone function of the telephone function unit 1c and detects whether the user is talking or whether the user has finished talking. When it is detected that the user has finished speaking, the call detection unit 1d transmits the detection result to the utterance determination unit 1e. In the present embodiment, the call detection unit 1d detects the presence / absence of a user's call, but may detect the presence / absence of execution of an automatic response function, for example. In other words, the call detection unit 1d only needs to detect whether or not at least the execution of the telephone function of the smartphone 100 has been completed.
  • the speech determination unit 1e When the speech determination unit 1e receives a detection result indicating that the user's end speech has been detected from the call detection unit 1d, the speech determination unit 1e is based on the execution mode information received from the telephone function unit 1c (in other words, the execution of the telephone function). Whether or not the smartphone 100 performs a notification utterance is determined.
  • the notification utterance is an utterance for notifying the user that an execution instruction to each unit performing a predetermined function by the voice operation unit 13, that is, the voice operation function of the smartphone 100 can be executed. Therefore, the utterance content of the notification utterance is such that the user can easily recognize that the item of the voice operation function is possible.
  • execution mode information (receiving operation type) indicating that the user has performed a receiving operation by voice operation
  • execution mode information information calling
  • the utterance determination unit 1e determines that it is necessary to perform the notification utterance because the user is likely to be at a position away from the smartphone 100 after the call ends, and executes the notification utterance. decide.
  • the utterance determination unit 1e uses the voice operation function after the call ends more frequently when the user starts the call by voice operation than when the user starts the call. It may be determined that execution of the notification utterance is necessary by receiving the execution mode information (user's habits regarding a call) from the telephone function unit 1c. In this case, the notification utterance can be executed under a more accurate situation than the above example.
  • the utterance determination unit 1e determines the execution of the notification utterance
  • the utterance determination unit 1e reads “The phone call is over.
  • the text data of the utterance sentence having the utterance content “The function can be used” is called and the text data is notified to the voice conversion unit 14.
  • the utterance determination unit 1e receives the utterance content storage unit 1f. To call the text data of the utterance sentence with the utterance content “The phone call is over. You can use the voice operation function.
  • the utterance content storage unit 1f transmits the text data of the notification utterance selected by the utterance determination unit 1e to the utterance determination unit 1e.
  • the text data of a plurality of notification utterances to be selected by the utterance determination unit 1e are associated with the contents of predetermined execution mode information, and are stored in the utterance content storage unit 1f in the form of a data table (not shown). (Not shown).
  • FIG. 2 is a flowchart illustrating an example of a control method of the utterance control device 1.
  • the audio control unit 1a grants the right to use the microphone 11 to the voice recognition unit 1b in response to a request from the voice recognition unit 1b, enables the voice operation function of the smartphone 100, and proceeds to S103.
  • This voice operation function includes a voice reception operation by voice operation.
  • the telephone function unit 1c detects whether there is an incoming call. If it is determined NO (hereinafter abbreviated as “N”) in S103, the telephone function unit 1c performs the process of S103 again while the usable state of the voice operation function is maintained (S102).
  • the telephone function unit 1c requests the audio control unit 1a to receive the right to use the speaker 12, and causes the speaker 12 to ring. (S104), the process proceeds to S105.
  • the user who has recognized the incoming call speaks “take a phone call” toward the smartphone 100, performs a receiving operation by voice operation, and proceeds to S106.
  • the microphone 11 that has collected the user's voice transmits the voice to the voice recognition unit 1b as voice data.
  • the voice recognition unit 1 b converts the received voice data into text data and transmits the text data to the voice operation unit 13.
  • the voice operation unit 13 analyzes the received text data to recognize the user's reception instruction, transmits information indicating that the reception instruction has been received to the telephone function unit 1c to be instructed, and proceeds to S107.
  • the process proceeds to S108. Specifically, the audio control unit 1a grants the right to use the microphone 11 and the speaker 12 to the telephone function unit 1c in response to a request from the telephone function unit 1c. Further, the audio control unit 1a connects the microphone 11 and the line and connects the speaker 12 and the line in accordance with an instruction from the telephone function unit 1c. The user's voice collected by the microphone 11 flows to the line as voice data, and the voice data from the line flows to the speaker 12.
  • the call detection unit 1d monitors the execution status of the telephone function of the telephone function unit 1c, detects that the user is in a call, and proceeds to S109. In S109, the call detection unit 1d monitors the execution status of the telephone function of the telephone function unit 1c and detects whether or not the user has finished speaking (telephone end detection step).
  • the call detection unit 1d When the call detection unit 1d detects that the user has not ended the call (N in S109), the call detection unit 1d recognizes that the state during the call continues (S108), and then executes the process of S109 again. On the other hand, when the call detection unit 1d detects the user's end call (Y in S109), the call detection unit 1d transmits the detection result to the utterance determination unit 1e. The telephone function unit 1c transmits the execution mode information to the utterance determination unit 1e, and the process proceeds to S110.
  • the telephone function unit 1c performs the call termination process, and the process proceeds to S111. Specifically, the telephone function unit 1c disconnects the line and releases each right of use of the microphone 11 and the speaker 12. The audio control unit 1a gives the right to use the microphone 11 to the voice recognition unit 1b again.
  • the utterance determination unit 1e determines whether or not the smartphone 100 performs a notification utterance based on the detection result received from the call detection unit 1d and the execution mode information received from the telephone function unit 1c (utterance determination). Step).
  • the processes in and after S102 are executed again.
  • the utterance determination unit 1e determines the text associated with the content of the received execution mode information from the text data of the plurality of notification utterances stored in the utterance content storage unit 1f. Data is selected and called (S112). Then, the called text data is transmitted to the voice conversion unit 14, and the process proceeds to S113.
  • the voice conversion unit 14 converts the text data received from the utterance determination unit 1e into voice data, and outputs the voice data related to the notification utterance from the speaker 12, and the process proceeds to S114.
  • the voice conversion unit 14 releases the right to use the speaker 12, and again executes each process from S102.
  • the smartphone 100 appropriately performs the notification utterance by repeating the processes from S102 to S114 described above by the utterance control device 1.
  • FIG. 1 is a block diagram illustrating a functional configuration of main parts of a smartphone 100 according to the second embodiment.
  • the components of the utterance control device 2 according to the present embodiment are the same as the components of the utterance control device 1 according to the first embodiment.
  • the smartphone 100 when the utterance determination unit 1e provided in the utterance control device 2 receives execution mode information (receiving operation type) indicating that the call function has been executed by manual operation from the telephone function unit 1c, the smartphone 100 notifies the utterance. Decide not to do. In other words, the utterance determination unit 1e provided in the utterance control device 2 only needs to determine that the smartphone 100 does not perform the notification utterance when the telephone function is executed without voice operation. The same applies to utterance control devices 3 and 4 according to Embodiments 3 and 4 to be described later.
  • FIG. 3 is a flowchart illustrating an example of a control method of the utterance control device 2.
  • Each process of S201 to S204 in the flowchart of FIG. 3 is the same as each process of S101 to S104 in the flowchart of FIG.
  • S205 the user performs a manual reception operation by touching a predetermined portion of the display surface (not shown) of the smartphone 100 with a finger, and the process proceeds to S206. Since each process of S206 to S209 is the same as each process of S107 to S110 in the flowchart of FIG. 2, the description thereof is omitted.
  • the utterance determination unit 1e determines whether or not the smartphone 100 performs a notification utterance based on the detection result related to the user's end call received from the call detection unit 1d and the execution mode information received from the telephone function unit 1c. To decide. In the present embodiment, since the execution mode information (reception operation type) related to the manual operation is received from the telephone function unit 1c, the utterance determination unit 1e indicates that the smartphone 100 does not perform the notification utterance (N in S210). decide. After the determination, each process from S202 is executed again.
  • the smartphone 100 it is determined that the smartphone 100 does not perform the notification utterance by executing the process of S210 by the utterance determination unit 1e, but the present invention is not limited to this case.
  • the telephone function unit 1c accepts a manual receiving operation, it is determined that the telephone function unit 1c does not immediately perform the notification utterance without executing the functions of the call detecting unit 1d and the utterance determining unit 1e. May be. In this case, wasteful execution of the functions of the call detection unit 1d and the utterance determination unit 1e can be prevented, so that the power consumption of the smartphone 100 can be further reduced.
  • FIG. 1 is a block diagram illustrating a functional configuration of main parts of a smartphone 100 according to the third embodiment.
  • the utterance control device 3 according to the present embodiment is different from the utterance control devices 1 and 2 according to the first and second embodiments in that an utterance control device 1g is further provided.
  • the other components of the speech control device 3 are the same as those of the speech control devices 1 and 2.
  • the utterance determination unit 1e provided in the utterance control device 3 determines that the smartphone 100 does not perform the notification utterance when the execution mode information indicating that the answering machine function is executed is received from the telephone function unit 1c. .
  • the automatic response setting unit 1g has received an incoming call from the outside to the telephone function unit 1c by receiving in advance a user operation to use the answering machine function of the smartphone 100 (specifically, the telephone function unit 1c). Instruct the phone to perform the answering machine function.
  • the telephone function unit 1c Upon receiving the above instruction from the automatic response setting unit 1g, the telephone function unit 1c causes the speaker 12 to ring for a certain number of times when an incoming call is received from the outside, and then executes the answering machine function and automatically responds. .
  • the automatic response setting unit 1g may not be provided in the utterance control device 3.
  • the telephone function unit 1c receives the user operation in advance, the telephone function unit 1c receives an incoming call from the outside. You may make it perform a telephone function.
  • FIG. 4 is a flowchart illustrating an example of a control method of the utterance control device 3.
  • Each process of S301 to S304 in the flowchart of FIG. 4 is the same as each process of S101 to S104 in the flowchart of FIG. 2 and each process of S201 to S204 in the flowchart of FIG.
  • the telephone function unit 1c executes the answering machine function, automatically responds to an incoming call from outside, and proceeds to S306.
  • the process proceeds to S307.
  • the audio control unit 1a grants the right to use the microphone 11 and the speaker 12 to the telephone function unit 1c in response to a request from the telephone function unit 1c.
  • the telephone function unit 1c causes voice data related to the answering machine response message to flow to the line, and voice data from the line flows to the speaker 12 (it does not have to flow to the speaker 12).
  • the call detection unit 1d monitors the execution status of the answering machine function of the telephone function unit 1c, detects that the smartphone 100 is receiving a call, and proceeds to S308.
  • the call detecting unit 1d monitors the execution status of the answering machine function of the telephone function unit 1c, and detects whether or not the call is ended by the end of the automatic response or the instruction of the receiving party. Each process when determined to be Y and determined to be N in S308 will be omitted.
  • the telephone function unit 1c performs the call termination process, and the process proceeds to S310.
  • the utterance determination unit 1e determines whether or not the smartphone 100 performs a notification utterance based on the detection result related to the ending call received from the call detection unit 1d and the execution mode information received from the telephone function unit 1c. To do.
  • the utterance determination unit 1e determines that the smartphone 100 does not perform the notification utterance (N in S310). . After the determination, each process from S302 is executed again.
  • the processes in S311 to S313 are not executed, as in the second embodiment.
  • the telephone function unit 1c receives an instruction relating to the execution of the answering machine function from the automatic response setting unit 1g, the functions of the call detection unit 1d and the utterance determination unit 1e are executed.
  • the telephone function unit 1c may determine not to immediately make the notification utterance.
  • FIG. 1 is a block diagram illustrating a functional configuration of a main part of a smartphone 100 according to the fourth embodiment.
  • the utterance control device 4 according to the present embodiment is different from the utterance control devices 1, 2, and 3 according to the first, second, and third embodiments in that a speech time measuring unit 1 h is further provided.
  • Other components of the speech control device 4 are the same as those of the speech control devices 1 and 2.
  • the smartphone 100 determines not to perform the notification utterance.
  • the call time measuring unit 1h measures the execution time of the telephone function of the telephone function unit 1c, and transmits the measurement result to the telephone function unit 1c.
  • the telephone function unit 1c receives the measurement result from the call time measuring unit 1h, the telephone function unit 1c compares the measurement result with the data related to the reference time stored in the memory in the telephone function unit 1c, and the execution of the telephone function is performed as the reference time. It is determined whether or not the process is completed in a shorter time. The determination result is transmitted to the utterance determination unit 1e as execution mode information.
  • the reference time can be arbitrarily set within a time range in which the notification utterance is not required to be performed by the smartphone 100.
  • the execution time (for example, about 30 seconds) of the answering machine function of the telephone function unit 1c is set as the reference time.
  • the case where execution of the answering machine function of the telephone function part 1c was completed in time shorter than reference time is assumed. As such a case, for example, a case where the answering machine function is executed in the telephone function and the receiving party ends during the execution of the answering machine function is assumed.
  • call time measuring unit 1h may not be provided in the utterance control device 4, and the telephone function unit 1c may measure the execution time of the telephone function as in the third embodiment.
  • FIG. 4 is a flowchart illustrating an example of a control method of the utterance control device 4. The description of each processing of S301 to S309 has already been performed in the third embodiment, and thus will be omitted.
  • the utterance determination unit 1e determines whether or not the smartphone 100 performs a notification utterance based on the detection result related to the ending call received from the call detection unit 1d and the execution mode information received from the telephone function unit 1c. To do. In the present embodiment, since the execution mode information indicating that the execution time of the answering machine function is shorter than the reference time is received from the telephone function unit 1c, the utterance determination unit 1e does not allow the smartphone 100 to perform the notification utterance ( N) is determined in S310. After the determination, each process from S302 is executed again.
  • the telephone function is performed without executing the functions of the call detecting unit 1d and the utterance determining unit 1e.
  • the unit 1c may determine not to immediately perform the notification utterance.
  • FIG. 1 is a block diagram illustrating a functional configuration of main parts of a smartphone 100 according to the fifth embodiment.
  • the utterance control device 5 according to the present embodiment further includes a time calculation unit 1 i, and thus the utterance control devices 1, 2, 3, and 4 according to the first, second, third, and fourth embodiments. Different from 4.
  • Other components of the speech control device 5 are the same as those of the speech control devices 1 and 2.
  • the call detection unit 1d transmits the detection result to the utterance determination unit 1e and the user's end time to the time calculation unit 1i. Also send.
  • the time calculation unit 1i calculates the execution start time of the notification utterance by the smartphone 100 based on the end time received from the call detection unit 1d, and transmits the calculation result to the utterance determination unit 1e.
  • the utterance determination unit 1e provided in the utterance control device 5 checks whether or not the calculation result (execution start time) received from the time calculation unit 1i is an utterance prohibition time zone (predetermined time zone). When it is confirmed that the execution start time is the utterance prohibition time zone, the utterance determination unit 1e determines that the smartphone 100 does not perform the notification utterance.
  • the utterance prohibition time zone can be arbitrarily set within the range of the time zone generally recognized that the execution of the notification utterance by the smartphone 100 is inappropriate. In the present embodiment, “from 22:00 to 7:00 on the next day” is set as the speech prohibition time zone.
  • This utterance prohibition time zone is merely an example, and for example, a general work time zone “from 9:00 to 17:00” may be set as the utterance prohibition time zone.
  • the time calculation unit 1i is not necessarily provided in the utterance control device 5. For example, the call detection unit 1d may calculate the execution start time of the notification utterance.
  • FIG. 2 is a flowchart showing an example of a control method of the utterance control device 4. The description of each process of S101 to S110 has already been made in the first embodiment, and will be omitted.
  • the utterance determination unit 1e determines whether or not the smartphone 100 performs the notification utterance based on the detection result by the call detection unit 1d, the execution mode information, and the execution start time of the notification utterance received from the time calculation unit 1i. To do. In this embodiment, since the execution start time of the notification utterance received from the time calculation unit 1i is “23:00” and is included in the utterance prohibition time zone, the utterance determination unit 1e does not cause the smartphone 100 to perform the notification utterance. (N in S111) is determined. After the determination, each process after S102 is executed again.
  • the function of the utterance determination unit 1e is executed when the notification utterance start time calculated by the time calculation unit 1i is included in the utterance prohibition time zone.
  • the time calculation unit 1i may determine that the notification utterance is not performed immediately. In this case, the time calculation unit 1i confirms that the execution start time of the notification utterance is included in the utterance prohibition time zone.
  • control blocks (especially the call detecting unit 1d and the utterance determining unit 1e) of the utterance control devices 1 to 5 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software using a Central Processing Unit.
  • the utterance control devices 1 to 5 include a CPU that executes instructions of a program, which is software that implements each function, and a ROM (Read Only Only) in which the program and various data are recorded so as to be readable by the computer (or CPU).
  • Memory or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • an arbitrary transmission medium such as a communication network or a broadcast wave
  • one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • the utterance control devices 1 to 5 determine whether or not the smartphone 100 performs the notification utterance based on the execution mode information.
  • execution mode information for example, usage mode information indicating a usage mode of the user's smartphone 100 is used to determine whether to perform notification utterance. It can be used as a judgment material.
  • the utterance control devices 1 to 5 may further include a state detection unit that detects whether the user does not use the voice operation function of the smartphone 100 from the usage mode of the user's smartphone 100. In this case, the utterance determination unit 1e determines that the smartphone 100 does not perform the notification utterance when it is detected by the state detection unit that the user does not use the voice operation function.
  • information indicating whether or not the user uses the voice operation function of the smartphone 100 is the usage mode information.
  • the speech control device (1, 2, 3, 4, 5) is an speech control device that controls speech of an electronic device (smartphone 100) having a telephone function, a voice operation function, and a speech function.
  • a telephone end detecting unit (call detecting unit 1d) for detecting whether or not the execution of the telephone function has ended, and the telephone end when the end of execution of the telephone function is detected by the telephone end detecting unit.
  • An utterance determination unit (1e) that determines whether or not the electronic device performs a notification utterance to notify the user that the execution of the voice operation function is possible, according to an execution mode of the function; It has.
  • whether or not to make a notification utterance is determined according to the execution mode of the telephone function of the electronic device. Therefore, for example, when the user starts a call by voice operation, it is highly likely that the distance between the user and the electronic device is long, and the user is notified that the voice operation function can be executed. Is preferable, the electronic device can make a notification utterance. In such a case, the user can easily recognize that the voice operation function can be used without visually recognizing the electronic device.
  • the utterance determination unit is configured such that when the telephone function is executed without voice operation, the electronic device is You may decide not to perform notification utterance.
  • the electronic device when the telephone function of the electronic device is executed without a voice operation, the electronic device can be prevented from making a notification utterance.
  • execution of the telephone function is not performed by voice operation (for example, execution by manual operation or execution of an automatic response function)
  • the voice operation function is not used for the user. There is no need to notify that it has become possible. Therefore, the user can easily recognize that the voice operation function can be used, can reduce the execution of useless notification utterances, and can further reduce power consumption and improve user convenience.
  • the speech control apparatus (2) according to aspect 3 of the present invention provides the speech control unit (2) according to aspect 1 or 2, in which, as the telephone function execution mode, when the telephone function is executed manually, the speech determination unit The device may decide not to perform the notification utterance.
  • the electronic device when the telephone function of the electronic device is executed by manual operation, the electronic device can be prevented from making a notification utterance.
  • the telephone function is executed by a manual operation, there is a high possibility that the distance between the user and the electronic device is short during execution of the telephone function or immediately after the end of execution of the telephone function.
  • the user since the user can sufficiently recognize the state of the electronic device, it is not necessary to notify the user that the voice operation function can be used. Therefore, the user can easily recognize that the voice operation function can be used, can reduce the execution of useless notification utterances, and can further reduce power consumption and improve user convenience.
  • the utterance determination unit may determine that the electronic device does not perform the notification utterance.
  • the electronic device when the automatic response function of the telephone function of the electronic device is executed, the electronic device can be prevented from performing the notification utterance.
  • the automatic response function When the automatic response function is executed, there is a high possibility that the user is not in a place where the electronic device is located before and after the execution of the automatic response function. In such a case, it is not necessary to notify that the voice operation function can be used. Therefore, the user can easily recognize that the voice operation function can be used, can reduce the execution of useless notification utterances, and can further reduce power consumption and improve user convenience.
  • the execution of the telephone function is completed in a time shorter than a predetermined time as an execution aspect of the telephone function.
  • the utterance determination unit may determine that the electronic device does not perform the notification utterance.
  • the electronic device when the execution of the telephone function of the electronic device is completed in a time shorter than the predetermined time, the electronic device can be prevented from performing the notification utterance.
  • the execution time of the telephone function is short, for example, there is a case where there is an incoming call while the user is leaving the electronic device at home and the automatic response function is executed. In such a case, it is not necessary to notify that the voice operation function can be used. Therefore, the user can easily recognize that the voice operation function can be used, can reduce the execution of useless notification utterances, and can further reduce power consumption and improve user convenience.
  • the utterance determination unit may decide not to perform the notification utterance.
  • the electronic device when the user performs a telephone function in the midnight time zone, if the electronic device makes a notification utterance after the execution of the telephone function, the voice of the notification utterance may cause noise. Further, for example, if an electronic device makes a notification utterance while the user is working, it may be annoying to surrounding employees. In that respect, according to the above configuration, when the execution start time of the notification utterance by the electronic device is within a predetermined time zone, the electronic device can be prevented from performing the notification utterance.
  • the execution of inappropriate notification utterances can be prevented by setting a time zone that is generally recognized as a late-night time zone or a time zone that is recognized as a working hour zone as a predetermined time zone. can do. Therefore, the user can easily recognize that the voice operation function can be used, and can further reduce power consumption and improve user convenience.
  • An electronic device is an electronic device that controls speech of the device having a telephone function, a voice operation function, and a speech function, and detects whether or not the execution of the telephone function has been completed.
  • the electronic device can execute the voice operation function according to the execution mode of the telephone function.
  • an utterance determination unit that determines whether or not to perform a notification utterance for notifying the user of the fact.
  • the control method of the speech control apparatus is a control method of the speech control apparatus that controls speech of an electronic device having a telephone function, a voice operation function, and a speech function, and the execution of the telephone function is completed.
  • the electronic device is selected according to the execution mode of the telephone function.
  • the utterance control apparatus may be realized by a computer.
  • the utterance control apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the utterance control apparatus.
  • the control program of the utterance control apparatus realized by the above and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)

Abstract

電子機器の音声操作が可能になったことを容易に認識できるようにする。発話制御装置(1)は、電子機器(100)の電話機能の実行が終了したか否かを検知する電話終了検知部(1d)と、電話機能の実行態様に応じて、電子機器(100)が、該電子機器(100)の音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部(1e)と、を備える。

Description

発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法
 本発明は、発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法に関する。
 従来から、携帯電話機などの電話機能を有する電子機器に発話機能を持たせ、通話終了後の所定のタイミングで、電子機器がユーザにとって有用な情報を言語化して発話する技術の研究・開発が進められている。
 例えば、特許文献1には、通話中に第3者からの呼出しを受信した場合において、ユーザが呼出しに応答しないまま通話を続けた場合、通話終了後、リンガー用スピーカ部から第3者の発呼者情報および呼出しを受けたことを報知するための音声メッセージをアナウンスする電話装置が開示されている。
日本国公開特許公報「特開2011-250349号公報(2011年12月8日公開)」
 近年、スマートフォンなどの電話機能および音声操作機能を併有する電子機器の研究・開発が活発化している。この電子機器では、該電子機器の操作も通話相手との会話も音声によって行われることとなる。ところで、電子機器を音声操作する場合はユーザが電子機器から離れているケースが多く、例えば通話終了後にユーザが音声操作を行おうとする場合に、音声操作が可能となるタイミングが判りづらいという問題点があった。
 なお、特許文献1に開示された電話装置は、通話終了後に第3者の発呼者情報および音声メッセージをアナウンスするが、通話終了後に音声操作が可能になったことをアナウンスするものではないので、依然として通話終了後の音声操作が可能となるタイミングが判りづらかった。
 本発明の一態様は、上記の問題点に鑑みてなされたものであり、ユーザが、電子機器の音声操作が可能になったことを容易に認識できるようにすることを目的とする。
 上記の課題を解決するために、本発明の一態様に係る発話制御装置は、電話機能、音声操作機能および発話機能を有する電子機器の発話を制御する発話制御装置であって、前記電話機能の実行が終了したか否かを検知する電話終了検知部と、前記電話終了検知部によって前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部と、を備えている。
 また、上記の課題を解決するために、本発明の一態様に係る電子機器は、電話機能、音声操作機能および発話機能を有する自機器の発話を制御する電子機器であって、前記電話機能の実行が終了したか否かを検知する電話終了検知部と、前記電話終了検知部によって前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部と、を備えている。
 また、上記の課題を解決するために、本発明の一態様に係る発話制御装置の制御方法は、電話機能、音声操作機能および発話機能を有する電子機器の発話を制御する発話制御装置の制御方法であって、前記電話機能の実行が終了したか否かを検知する電話終了検知ステップと、前記電話終了検知ステップにて前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定ステップと、を含んでいる。
 本発明の一態様によれば、電子機器の電話機能の実行が終了した場合に電子機器が一定条件下で報知発話を行うことから、ユーザは、電子機器の音声操作が可能になったことを容易に認識することができる。
本発明の実施形態1~5に係るスマートフォンの主要部の機能的構成を示すブロック図である。 本発明の実施形態1および5に係る発話制御装置の制御方法の一例を示すフローチャートである。 本発明の実施形態2に係る発話制御装置の制御方法の一例を示すフローチャートである。 本発明の実施形態3および4に係る発話制御装置の制御方法の他の例を示すフローチャートである。
 〔実施形態1〕
 以下、本発明の実施の形態について、図1および図2を参照しながら詳細に説明する。説明の便宜上、特定の項目にて説明した構成と同一の機能を有する構成については、同一の符号を付記し、その説明を省略する。
 なお、本実施形態以下の各実施形態においては、本発明の一態様に係る発話制御装置を備えた電子機器として、スマートフォンを例に挙げて説明する。本発明の一態様に係る発話制御装置を内蔵することが可能な電子機器としては、スマートフォンの他、スピーカーフォン、タブレット端末、ウェアラブル端末およびロボットなどが想定される。
 また、本発明の一態様に係る発話制御装置は、上記のような電子機器に内蔵されている必要は必ずしもない。例えば、本発明の一態様に係る発話制御装置が外部の情報処理装置に搭載され、スマートフォンの電話機能や音声操作機能に係る各情報を情報処理装置とスマートフォンとの間で送受信することにより、スマートフォンの発話を制御してもよい。あるいは、本発明の一態様に係る発話制御装置の代わりに、該発話制御装置の構成要素である電話終了検知部・発話決定部が電子機器に内蔵されていてもよい。
 <スマートフォンの機能的構成>
 先ず、図1を参照して、実施形態1に係るスマートフォン100の機能的構成について説明する。図1は、実施形態1に係るスマートフォン100の主要部の機能的構成を示すブロック図である。スマートフォン100(電子機器)は、パーソナルコンピュータ・PDA(Personal Digital Assistant:携帯情報端末)等の機能を併せ持った多機能の携帯電話機である。
 また、スマートフォン100は、電話機能の他、音声操作機能および発話機能を有しており、手動操作のみならず音声操作による受話動作が可能となっている。なお、スマートフォン100の受話動作は、手動操作のみで実現されてもよい。図1に示すように、スマートフォン100は、マイク11、スピーカ12および制御部15を備えている。
 マイク11は、周囲の音の入力を受け付ける音声入力装置である。スピーカ12は、ユーザに対して発話するための音声出力装置である。制御部15は、スマートフォン100の各部を統括して制御するものであり、発話制御装置1を備えている。なお、図1では制御部15はスマートフォン100に内蔵されているが、制御部15はスマートフォン100に取付けられた外部装置や、通信部(不図示)を介して利用するネットワークサーバーであっても構わない。
 発話制御装置1は、スマートフォン100の発話を制御する装置であって、図1に示すように、音声操作部13、音声変換部14、オーディオ制御部1a、音声認識部1b、電話機能部1c、通話検知部1d(電話終了検知部)、発話決定部1eおよび発話内容格納部1fを備えている。
 音声操作部13は、後述する音声認識部1bから受信したテキストデータに示されたユーザの発話内容がスマートフォン100の操作指示であった場合に、指示対象となった所定の機能に対して実行指示を行う。
 音声変換部14は、後述する発話決定部1eから受信した報知発話の発話内容を示す発話文のテキストデータを音声データに変換する。また、音声変換部14は、オーディオ制御部1aに要求してスピーカ12の使用権を音声変換部14に付与させる。上記使用権を得た音声変換部14は、変換した音声データを、報知発話に係る音声としてスピーカ12から出力させる。
 オーディオ制御部1aは、音声認識部1b、電話機能部1cおよび音声変換部14からの要求に応じて、マイク11およびスピーカ12の各使用権をこれらの各部に適宜付与する。また、オーディオ制御部1aは、マイク11と回線との接続、およびスピーカ12と回線との接続を行う。音声認識部1bは、マイク11からオーディオ制御部31を介して音データを受信し、該音データに含まれるユーザの音声データを、発話内容を示す発話文のテキストデータに変換して、音声操作部13に送信する。
 電話機能部1cは、発着信や受話・終話などの呼制御、オーディオ制御部1aへのマイク11・スピーカ12と回線との接続指示、留守番電話機能等の自動通話機能の実行を行う。また、電話機能部1cは、電話機能の実行が終了すると、実行態様情報を発話決定部1eに送信する。
 ここで、実行態様情報は、スマートフォン100(具体的には電話機能部1c)の電話機能の実行態様を示す情報であり、ユーザの受話動作種別の他、通話時間、通話時刻(通話開始時刻および通話終了時刻)、通話に関するユーザの習慣、通話機能の実行および自動応答機能の実行などが含まれる。なお、実行態様情報としての通話に関するユーザの習慣は、例えば電話機能部1c内のメモリ(不図示)に記憶されていてもよいし、発話制御装置1の外部の記憶部(不図示)に記憶されていてもよい。あるいは、スマートフォン100の外部の記憶装置(不図示)に記憶されていてもよい。
 通話検知部1dは、電話機能部1cの電話機能の実行状況をモニターしてユーザが通話中か、あるいはユーザが終話したかを検知する。ユーザが終話したことを検知した場合、通話検知部1dは、その検知結果を発話決定部1eに送信する。なお、本実施形態では、通話検知部1dはユーザの通話の有無を検知しているが、例えば、自動応答機能の実行の有無を検知してもよい。換言すれば、通話検知部1dは、少なくともスマートフォン100の電話機能の実行が終了したか否かを検知するものであればよい。
 発話決定部1eは、通話検知部1dからユーザの終話が検知された旨の検知結果を受信した場合、電話機能部1cから受信した実行態様情報に基づいて(換言すれば、電話機能の実行態様に応じて)、スマートフォン100が報知発話を行うか否かを決定する。
 ここで、報知発話は、音声操作部13による所定の機能を行う各部への実行指示、すなわちスマートフォン100の音声操作機能の実行が可能になったことをユーザに報知するための発話である。したがって、報知発話の発話内容は、ユーザが該音声操作機能の事項が可能になったことを容易に認識できるような内容となっている。
 例えば、電話機能部1cから、ユーザが音声操作による受話動作を行った旨の実行態様情報(受話動作種別)、および電話機能部1cが通話機能を実行している旨の実行態様情報情報(通話機能の実行)を受信した場合、発話決定部1eは、通話終了後にユーザがスマートフォン100から離れた位置にいる可能性が高いことから報知発話を行う必要があると判定し、報知発話の実行を決定する。
 また例えば、発話決定部1eは、上記2つの実行態様情報に加えて、ユーザが音声操作によって通話を開始した場合、手動操作による場合と比較して通話終了後に音声操作機能を使用する頻度が高くなる旨の実行態様情報(通話に関するユーザの習慣)を電話機能部1cから受信して、報知発話の実行が必要であると判定してもよい。この場合、上述の例よりもさらに的確な状況下で報知発話を実行させることができる。
 また、発話決定部1eは、報知発話の実行を決定した場合、電話機能部1cから受信した実行態様情報の内容に応じて、発話内容格納部1fに格納されている複数の報知発話のテキストデータの中から適切な報知発話のテキストデータを選択し、呼び出す。そして、呼び出したテキストデータを音声変換部14に送信する。
 例えば、電話機能部1cから実行態様情報(受話動作種別)および実行態様情報(通話機能の実行)を受信した場合、発話決定部1eは、発話内容格納部1fから「電話が終わったよ。音声操作機能が使えるよ。」を発話内容とする発話文のテキストデータを呼び出し、該テキストデータを音声変換部14に通知する。
 また例えば、電話機能部1cから、上記2つの実行態様情報に加えて通話時刻(20:00-20:10)に係る実行態様情報を受信した場合、発話決定部1eは、発話内容格納部1fから「電話が終わったよ。音声操作機能が使えるよ。小さな声で操作してね。」を発話内容とする発話文のテキストデータを呼び出す。
 なお、発話決定部1eが報知発話を行わないことを決定する場合の詳細については、実施形態2以下の各実施形態で説明する。
 発話内容格納部1fは、発話決定部1eによって選択された報知発話のテキストデータを発話決定部1eに送信する。発話決定部1eの選択対象となる複数の報知発話のテキストデータは、それぞれ所定の実行態様情報の内容と対応付けられており、データテーブル(不図示)の形で発話内容格納部1f内のメモリ(不図示)に記憶されている。
 <発話制御装置の制御方法>
 次に、図2を参照して、発話制御装置1の制御方法について説明する。図2は、発話制御装置1の制御方法の一例を示すフローチャートである。まず、ユーザがスマートフォン100の電源をONにすることにより、図2に示すフローチャートの処理が開始される(ステップS101(以下、「ステップ」を省略する))。
 S102では、オーディオ制御部1aが、音声認識部1bの要求に応じてマイク11の使用権を音声認識部1bに付与し、スマートフォン100の音声操作機能を使用可能な状態にして、S103に進む。この音声操作機能には、音声操作による受話動作も含まれる。S103では、電話機能部1cが着信の有無を検知する。S103でNO(以下、「N」と略記する)と判定した場合、音声操作機能の使用可能な状態が維持されたまま(S102)、電話機能部1cは再びS103の処理を行う。
 一方、S103でYES(以下、「Y」と略記する)と判定した場合、電話機能部1cはオーディオ制御部1aに要求してスピーカ12の使用権を受け取り、該スピーカ12に着信音を鳴動させて(S104)、S105に進む。S105では、着信を認識したユーザがスマートフォン100に向けて「電話とって」と発話し、音声操作による受話動作を行って、S106に進む。
 S106では、ユーザの音声を集音したマイク11が、該音声を音声データとして音声認識部1bに送信する。音声認識部1bは、受信した音声データをテキストデータに変換して、音声操作部13に送信する。音声操作部13は、受信したテキストデータを解析してユーザの受話指示を認識し、指示対象となる電話機能部1cに受話指示があった旨の情報を送信して、S107に進む。
 S107では、電話機能部1cが受話処理を行うことにより、S108に進む。具体的には、オーディオ制御部1aが、電話機能部1cの要求に応じてマイク11およびスピーカ12の使用権を電話機能部1cに付与する。また、オーディオ制御部1aが、電話機能部1cの指示に従ってマイク11と回線との接続、およびスピーカ12と回線との接続を行う。マイク11が集音したユーザの音声は音声データとして回線に流れ、回線からの音声データはスピーカ12に流れる。
 S108では、通話検知部1dが電話機能部1cの電話機能の実行状況をモニターし、ユーザが通話中であることを検知して、S109に進む。S109では、通話検知部1dが、電話機能部1cの電話機能の実行状況をモニターしてユーザが終話したか否かを検知する(電話終了検知ステップ)。
 通話検知部1dは、ユーザが終話していないことを検知(S109でN)した場合、通話中の状態が継続していることを認識した後(S108)、再びS109の処理を実行する。一方、通話検知部1dがユーザの終話を検知(S109でY)した場合、通話検知部1dは、その検知結果を発話決定部1eに送信する。また、電話機能部1cが実行態様情報を発話決定部1eに送信して、S110に進む。
 S110では、電話機能部1cが終話処理を行うことにより、S111に進む。具体的には、電話機能部1cが回線切断を行ってマイク11およびスピーカ12の各使用権を開放する。オーディオ制御部1aは、マイク11の使用権を音声認識部1bに再び付与する。S111では、発話決定部1eが、通話検知部1dから受信した検知結果、および電話機能部1cから受信した実行態様情報に基づいて、スマートフォン100が報知発話を行うか否かを決定する(発話決定ステップ)。
 S111でNと決定した場合、再びS102以下の各処理を実行する。一方、S111でYと決定した場合、発話決定部1eは、発話内容格納部1fに格納されている複数の報知発話のテキストデータの中から、受信した実行態様情報の内容に対応付けられたテキストデータを選択し、呼び出す(S112)。そして、呼び出したテキストデータを音声変換部14に送信して、S113に進む。
 S113では、音声変換部14が、発話決定部1eから受信したテキストデータを音声データに変換し、報知発話に係る音声としてスピーカ12から出力させて、S114に進む。S114では、報知発話の実行が終了した後、音声変換部14がスピーカ12の使用権を開放して、再びS102以下の各処理を実行する。スマートフォン100は、発話制御装置1によって上述したS102からS114までの処理が繰り返されることにより、適宜報知発話を行う。
 〔実施形態2〕
 本発明の他の実施形態について、図1および図3に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。また、本実施形態では、発話制御装置2の電話機能部1cの通話(電話)機能が、手動操作によって実行された場合を想定して説明する。
 <発話制御装置の機能的構成>
 図1を参照して、実施形態2に係るスマートフォン100の機能的構成について説明する。図1は、実施形態2に係るスマートフォン100の主要部の機能的構成を示すブロック図である。図1に示すように、本実施形態に係る発話制御装置2の構成要素は、実施形態1に係る発話制御装置1の構成要素と同一である。
 但し、発話制御装置2に備えられた発話決定部1eは、電話機能部1cから通話機能が手動操作によって実行された旨の実行態様情報(受話動作種別)を受信した場合、スマートフォン100が報知発話を行わないことを決定する。換言すれば、発話制御装置2に備えられた発話決定部1eは、電話機能が音声操作によることなく実行された場合に、スマートフォン100が報知発話を行わないことを決定するものであればよい。後述の実施形態3・4に係る発話制御装置3・4についても同様である。
 <発話制御装置の制御方法>
 図3を参照して、発話制御装置2の制御方法について説明する。図3は、発話制御装置2の制御方法の一例を示すフローチャートである。図3のフローチャートにおけるS201~S204の各処理は、図2のフローチャートにおけるS101~S104の各処理と同一であるため、その説明を省略する。
 図3に示すように、S205では、ユーザがスマートフォン100の表示面(不図示)の所定箇所を指でタッチして手動による受話動作を行い、S206に進む。S206~S209の各処理は図2のフローチャートにおけるS107~S110の各処理と同様であるため、その説明を省略する。
 S210では、発話決定部1eが、通話検知部1dから受信したユーザの終話に係る検知結果、および電話機能部1cから受信した実行態様情報に基づいて、スマートフォン100が報知発話を行うか否かを決定する。本実施形態では、電話機能部1cから手動操作に係る実行態様情報(受話動作種別)を受信していることから、発話決定部1eはスマートフォン100が報知発話を行わないこと(S210でN)を決定する。決定後は、再びS202以下の各処理を実行する。
 ここで、本実施形態では、スマートフォン100が報知発話を行わないことから、S211~S213の各処理(図2のフローチャートにおけるS112~S114の各処理と同一)は実行されない。
 なお、本実施形態では、発話決定部1eによるS210の処理が実行されることでスマートフォン100が報知発話を行わないことが決定されるが、この場合に限定されない。例えば、電話機能部1cが手動による受話動作を受け付けた時点で、通話検知部1dおよび発話決定部1eの各機能を実行することなく、電話機能部1cが直ちに報知発話を行わないことを決定してもよい。この場合、通話検知部1dおよび発話決定部1eの各機能の無駄な実行を防止できることから、スマートフォン100の消費電力をより削減することができる。
 〔実施形態3〕
 本発明の他の実施形態について、図1および図4に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。また、本実施形態では、発話制御装置3の電話機能部1cの留守番電話(自動応答)機能が実行された場合を想定して説明する。実施形態4についても同様である。
 <発話制御装置の機能的構成>
 図1を参照して、実施形態3に係るスマートフォン100の機能的構成について説明する。図1は、実施形態3に係るスマートフォン100の主要部の機能的構成を示すブロック図である。図1に示すように、本実施形態に係る発話制御装置3は、自動応答設定部1gをさらに備えている点で、実施形態1・2に係る発話制御装置1・2と異なる。発話制御装置3のその他の構成要素は、発話制御装置1・2の構成要素と同一である。
 但し、発話制御装置3に備えられた発話決定部1eは、電話機能部1cから留守番電話機能が実行された旨の実行態様情報を受信した場合、スマートフォン100が報知発話を行わないことを決定する。
 自動応答設定部1gは、スマートフォン100(具体的には電話機能部1c)の留守番電話機能を使用する旨のユーザ操作を予め受け付けることにより、電話機能部1cに対して、外部から着信があった場合に留守番電話機能を実行するよう指示する。電話機能部1cは、自動応答設定部1gからの上記指示を受信すると、外部から着信があった場合にスピーカ12に着信音を一定回数鳴動させた後、留守番電話機能を実行して自動応答する。
 なお、自動応答設定部1gが発話制御装置3に備わっていなくてもよく、例えば、電話機能部1cが上記ユーザ操作を予め受け付けることにより、外部から着信があった場合に電話機能部1cが留守番電話機能を実行するようにしてもよい。
 <発話制御装置の制御方法>
 図4を参照して、発話制御装置3の制御方法について説明する。図4は、発話制御装置3の制御方法の一例を示すフローチャートである。図4のフローチャートにおけるS301~S304の各処理は、図2のフローチャートにおけるS101~S104の各処理、および図3のフローチャートにおけるS201~S204の各処理と同一であるため、その説明を省略する。
 図4に示すように、S305では、電話機能部1cが留守番電話機能を実行し、外部からの着信に対して自動応答して、S306に進む。S306では、電話機能部1cが受話処理を行うことにより、S307に進む。具体的には、オーディオ制御部1aが、電話機能部1cの要求に応じてマイク11およびスピーカ12の使用権を電話機能部1cに付与する。また、電話機能部1cによって留守番電話応答メッセージに係る音声データが回線に流れ、回線からの音声データはスピーカ12に流れる(スピーカ12に流さなくてもよい)。
 S307では、通話検知部1dが電話機能部1cの留守番電話機能の実行状況をモニターし、スマートフォン100が受話中であることを検知して、S308に進む。S308では、通話検知部1dが、電話機能部1cの留守番電話機能の実行状況をモニターして、自動応答の終了あるいは受話相手の指示によって終話したか否かを検知する。S308でYと判定した場合およびNと判定した場合の各処理については、省略する。
 S309では、電話機能部1cが終話処理を行うことにより、S310に進む。S310では、発話決定部1eが、通話検知部1dから受信した終話に係る検知結果、および電話機能部1cから受信した実行態様情報に基づいて、スマートフォン100が報知発話を行うか否かを決定する。本実施形態では、電話機能部1cから留守番電話機能の実行に係る実行態様情報を受信していることから、発話決定部1eはスマートフォン100が報知発話を行わないこと(S310でN)を決定する。決定後は、再びS302以下の各処理を実行する。
 スマートフォン100が報知発話を行わないことから、S311~S313の各処理が実行されない点については、実施形態2と同様である。また、実施形態2と同様に、電話機能部1cが自動応答設定部1gから留守番電話機能の実行に係る指示を受信した時点で、通話検知部1dおよび発話決定部1eの各機能を実行することなく、電話機能部1cが直ちに報知発話を行わないことを決定してもよい。
 〔実施形態4〕
 本発明の他の実施形態について、図1および図4に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 <発話制御装置の機能的構成>
 図1を参照して、実施形態4に係るスマートフォン100の機能的構成について説明する。図1は、実施形態4に係るスマートフォン100の主要部の機能的構成を示すブロック図である。図1に示すように、本実施形態に係る発話制御装置4は、通話時間測定部1hをさらに備えている点で、実施形態1・2・3に係る発話制御装置1・2・3と異なる。発話制御装置4のその他の構成要素は、発話制御装置1・2の構成要素と同一である。
 但し、発話制御装置4に備えられた発話決定部1eは、電話機能部1cから電話機能の実行が基準時間(所定の時間)よりも短い時間で終了した旨の実行態様情報を受信した場合、スマートフォン100が報知発話を行わないことを決定する。
 通話時間測定部1hは、電話機能部1cの電話機能の実行時間を計測し、計測結果を電話機能部1cに送信する。電話機能部1cは、通話時間測定部1hからの計測結果を受信すると、電話機能部1c内のメモリに記憶された基準時間に係るデータと計測結果とを比較し、電話機能の実行が基準時間よりも短い時間で終了したか否かを判定する。判定結果は、実行態様情報として発話決定部1eに送信される。
 基準時間は、スマートフォン100による報知発話の実行が不要になると想定される時間の範囲内で、任意に設定することができる。本実施形態では、電話機能部1cの留守番電話機能の実行時間(例えば、30秒程度)が基準時間として設定されている。また、本実施形態では、電話機能部1cの留守番電話機能の実行が基準時間よりも短い時間で終了した場合を想定している。このようなケースとしては、例えば電話機能のうち留守番電話機能が実行され、該留守番電話機能の実行途中で受話相手が終話した場合などが想定される。
 なお、通話時間測定部1hが発話制御装置4に備わっていなくてもよく、電話機能部1cが電話機能の実行時間を計測してもよい点については、実施形態3と同様である。
 <発話制御装置の制御方法>
 図4を参照して、発話制御装置4の制御方法について説明する。図4は、発話制御装置4の制御方法の一例を示すフローチャートである。S301~S309の各処理の説明については実施形態3にて既に行っているため、省略する。
 S310では、発話決定部1eが、通話検知部1dから受信した終話に係る検知結果、および電話機能部1cから受信した実行態様情報に基づいて、スマートフォン100が報知発話を行うか否かを決定する。本実施形態では、電話機能部1cから留守番電話機能の実行時間が基準時間よりも短い旨の実行態様情報を受信していることから、発話決定部1eはスマートフォン100が報知発話を行わないこと(S310でN)を決定する。決定後は、再びS302以下の各処理を実行する。
 なお、実施形態2・3と同様に、通話時間測定部1hが基準時間よりも短い実行時間を測定した時点で、通話検知部1dおよび発話決定部1eの各機能を実行することなく、電話機能部1cが直ちに報知発話を行わないことを決定してもよい。
 〔実施形態5〕
 本発明の他の実施形態について、図1および図2に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。また、本実施形態では、電話機能部1cの通話機能が深夜の時間帯(23:00-23:10)に実行された場合を想定して説明する。
 <発話制御装置の機能的構成>
 図1を参照して、実施形態5に係るスマートフォン100の機能的構成について説明する。図1は、実施形態5に係るスマートフォン100の主要部の機能的構成を示すブロック図である。図1に示すように、本実施形態に係る発話制御装置5は、時刻算出部1iをさらに備えている点で、実施形態1・2・3・4に係る発話制御装置1・2・3・4と異なる。発話制御装置5のその他の構成要素は、発話制御装置1・2の構成要素と同一である。
 但し、発話制御装置5に備えられた通話検知部1dは、ユーザが終話したことを検知した場合、その検知結果を発話決定部1eに送信するとともにユーザの終話時刻を時刻算出部1iにも送信する。時刻算出部1iは、通話検知部1dから受信した終話時刻に基づいてスマートフォン100による報知発話の実行開始時刻を算出し、算出結果を発話決定部1eに送信する。
 発話制御装置5に備えられた発話決定部1eは、時刻算出部1iから受信した算出結果(実行開始時刻)が発話禁止時間帯(所定の時間帯)であるか否かを確認する。そして、実行開始時刻が発話禁止時間帯であることを確認した場合、発話決定部1eは、スマートフォン100が報知発話を行わないことを決定する。
 発話禁止時間帯は、スマートフォン100による報知発話の実行が不適切であると一般に認識されている時間帯の範囲内で、任意に設定することができる。本実施形態では、「22:00から翌日の7:00まで」が発話禁止時間帯として設定されている。なお、この発話禁止時間帯はあくまで一例であり、例えば一般的な勤務時間帯である「9:00から17:00まで」を発話禁止時間帯としてもよい。また、時刻算出部1iが発話制御装置5に備わっている必要は必ずしもなく、例えば通話検知部1dが上記報知発話の実行開始時刻を算出してもよい。
 <発話制御装置の制御方法>
 図2を参照して、発話制御装置5の制御方法について説明する。図2は、発話制御装置4の制御方法の一例を示すフローチャートである。S101~S110の各処理の説明については実施形態1にて既に行っているため、省略する。
 S111では、発話決定部1eが、通話検知部1dによる検知結果、実行態様情報および時刻算出部1iから受信した報知発話の実行開始時刻に基づいて、スマートフォン100が報知発話を行うか否かを決定する。本実施形態では、時刻算出部1iから受信した報知発話の実行開始時刻が「23:00」であり、発話禁止時間帯に含まれることから、発話決定部1eはスマートフォン100が報知発話を行わないこと(S111でN)を決定する。決定後は、再びS102以下の各処理を実行する。
 なお、実施形態2・3・4と同様に、時刻算出部1iによって算出された報知発話の実行開始時刻が発話禁止時間帯に含まれていた時点で、発話決定部1eの機能を実行することなく、時刻算出部1iが直ちに報知発話を行わないことを決定してもよい。この場合、報知発話の実行開始時刻が発話禁止時間帯に含まれていることの確認は、時刻算出部1iが行う。
 〔ソフトウェアによる実現例〕
 発話制御装置1~5の制御ブロック(特に通話検知部1dおよび発話決定部1e)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、発話制御装置1~5は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔参考形態〕
 実施形態1~5に係る発話制御装置1~5は、実行態様情報に基づいてスマートフォン100が報知発話を行うか否かを決定する。ここで、無駄な報知発話の実行をより低減する観点から、実行態様情報に加えて、例えばユーザのスマートフォン100の使用態様を示す使用態様情報を、報知発話を行うか否かを決定する際の判断材料に用いることが考えられる。
 例えば、発話制御装置1~5が、ユーザがスマートフォン100の音声操作機能を使用しないか否かを、ユーザのスマートフォン100の使用態様から検知する状態検知部をさらに備えていてもよい。この場合、発話決定部1eは、状態検知部によってユーザが音声操作機能を使用しないことが検知された場合に、スマートフォン100が報知発話を行わないことを決定する。
 上述の例では、ユーザがスマートフォン100の音声操作機能を使用しないか否かを示す情報が使用態様情報となる。
 〔まとめ〕
 本発明の態様1に係る発話制御装置(1、2、3、4、5)は、電話機能、音声操作機能および発話機能を有する電子機器(スマートフォン100)の発話を制御する発話制御装置であって、前記電話機能の実行が終了したか否かを検知する電話終了検知部(通話検知部1d)と、前記電話終了検知部によって前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部(1e)と、を備えている。
 上記構成によれば、電子機器の電話機能の実行態様に応じて報知発話を行うか否かが決定される。したがって、例えばユーザが音声操作によって通話を開始するなど、通話時においてユーザと電子機器との距離が離れている可能性が高く、音声操作機能の実行が可能になったことをユーザに報知するのが好ましい場合においては、電子機器が報知発話を行うようにすることができる。このような場合、ユーザは、電子機器を視認することなく音声操作機能の使用が可能になったことを容易に認識することができる。
 また、例えばユーザが電子機器を自宅に置いて外出し、電子機器が外部からの入電に対して留守電応答しているなど、ユーザに対する報知発話の実行が不要・不適切な場合においては、電子機器が報知発話を行わないようにすることができる。それゆえ、無駄な、あるいは不適切な報知発話の実行を低減でき、消費電力の削減やユーザの利便性向上を図ることができる。
 本発明の態様2に係る発話制御装置(2、3、4)は、上記態様1において、前記発話決定部は、前記電話機能が音声操作によることなく実行された場合に、前記電子機器が前記報知発話を行わないことを決定してもよい。
 上記構成によれば、電子機器の電話機能が音声操作によることなく実行された場合、電子機器が報知発話を行わないようにすることができる。ここで、電話機能の実行が音声操作によらない場合(例えば、手動操作による実行や自動応答機能の実行)、一般的に、電話機能の実行終了後、ユーザに対して音声操作機能の使用が可能になったことを報知する必要がない。それゆえ、音声操作機能の使用が可能になったことをユーザが容易に認識できるとともに、無駄な報知発話の実行を低減でき、消費電力の削減やユーザの利便性向上をより図ることができる。
 本発明の態様3に係る発話制御装置(2)は、上記態様1または2において、前記電話機能の実行態様として、前記電話機能が手動操作によって実行された場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定してもよい。
 上記構成によれば、電子機器の電話機能が手動操作によって実行された場合、電子機器が報知発話を行わないようにすることができる。電話機能が手動操作によって実行された場合、電話機能の実行中、あるいは該電話機能の実行終了直後はユーザと電子機器との距離が近い可能性が高い。このような場合、ユーザが電子機器の状態を十分視認できることから、音声操作機能の使用が可能になったことをユーザに報知する必要がない。それゆえ、音声操作機能の使用が可能になったことをユーザが容易に認識できるとともに、無駄な報知発話の実行を低減でき、消費電力の削減やユーザの利便性向上をより図ることができる。
 本発明の態様4に係る発話制御装置(3、4)は、上記態様1から3のいずれかにおいて、前記電話機能の実行態様として、前記電話機能のうちの自動応答機能が実行された場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定してもよい。
 上記構成によれば、電子機器の電話機能のうちの自動応答機能が実行された場合、電子機器が報知発話を行わないようにすることができる。自動応答機能が実行された場合、該自動応答機能の実行前後に亘って、ユーザが電子機器のある場所に居ない可能性が高い。このような場合、音声操作機能の使用が可能になったことを報知する必要がない。それゆえ、音声操作機能の使用が可能になったことをユーザが容易に認識できるとともに、無駄な報知発話の実行を低減でき、消費電力の削減やユーザの利便性向上をより図ることができる。
 本発明の態様5に係る発話制御装置(4)は、上記態様1から4のいずれかにおいて、前記電話機能の実行態様として、前記電話機能の実行が所定の時間よりも短い時間で終了した場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定してもよい。
 上記構成によれば、電子機器の電話機能の実行が所定の時間よりも短い時間で終了した場合、電子機器が報知発話を行わないようにすることができる。電話機能の実行時間が短い場合として、例えばユーザが電子機器を自宅に置いたまま外出している最中に着信があり、自動応答機能が実行されているケースが想定される。このようなケースでは、音声操作機能の使用が可能になったことを報知する必要がない。それゆえ、音声操作機能の使用が可能になったことをユーザが容易に認識できるとともに、無駄な報知発話の実行を低減でき、消費電力の削減やユーザの利便性向上をより図ることができる。
 本発明の態様6に係る発話制御装置(5)は、上記態様1から5のいずれかにおいて、前記電子機器による前記報知発話の実行開始時刻が所定の時間帯である場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定してもよい。
 例えば、ユーザが深夜の時間帯に電話機能を実行させた場合、電話機能の実行終了後に電子機器が報知発話を行うと、該報知発話の音声が騒音の要因になりかねない。また例えば、ユーザの勤務中に電子機器が報知発話を行うと、周囲の従業員の迷惑となる場合がある。その点上記構成によれば、電子機器による報知発話の実行開始時刻が所定の時間帯である場合、電子機器が報知発話を行わないようにすることができる。
 したがって、一般的に深夜の時刻帯として認識されている時間帯や、勤務中の時間帯として認識されている時間帯を所定の時間帯として設定することで、不適切な報知発話の実行を防止することができる。それゆえ、音声操作機能の使用が可能になったことをユーザが容易に認識できるとともに、消費電力の削減やユーザの利便性向上をより図ることができる。
 本発明の態様7に係る電子機器は、電話機能、音声操作機能および発話機能を有する自機器の発話を制御する電子機器であって、前記電話機能の実行が終了したか否かを検知する電話終了検知部と、前記電話終了検知部によって前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部と、を備えている。
 上記構成によれば、ユーザが電子機器を視認することなく、音声操作機能の使用が可能になったことを容易に認識できる電子機器を実現することができる。
 本発明の態様8に係る発話制御装置の制御方法は、電話機能、音声操作機能および発話機能を有する電子機器の発話を制御する発話制御装置の制御方法であって、前記電話機能の実行が終了したか否かを検知する電話終了検知ステップ(S109)と、前記電話終了検知ステップにて前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定ステップ(S111)と、を含んでいる。
 上記構成によれば、ユーザが電子機器を視認することなく、音声操作機能の使用が可能になったことを容易に認識できる発話制御装置の制御方法を実現することができる。
 本発明の各態様に係る発話制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記発話制御装置が備える各部(ソフトウェア要素)として動作させることにより上記発話制御装置をコンピュータにて実現させる発話制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 〔付記事項〕
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 1、2、3、4、5 発話制御装置
 1d 通話検知部(電話終了検知部)
 1e 発話決定部
 100 スマートフォン(電子機器)

Claims (9)

  1.  電話機能、音声操作機能および発話機能を有する電子機器の発話を制御する発話制御装置であって、
     前記電話機能の実行が終了したか否かを検知する電話終了検知部と、
     前記電話終了検知部によって前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部と、を備えていることを特徴とする発話制御装置。
  2.  前記発話決定部は、前記電話機能が音声操作によることなく実行された場合に、前記電子機器が前記報知発話を行わないことを決定することを特徴とする請求項1に記載の発話制御装置。
  3.  前記電話機能の実行態様として、前記電話機能が手動操作によって実行された場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定することを特徴とする請求項1または2に記載の発話制御装置。
  4.  前記電話機能の実行態様として、前記電話機能のうちの自動応答機能が実行された場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定することを特徴とする請求項1から3のいずれか1項に記載の発話制御装置。
  5.  前記電話機能の実行態様として、前記電話機能の実行が所定の時間よりも短い時間で終了した場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定することを特徴とする請求項1から4のいずれか1項に記載の発話制御装置。
  6.  前記電子機器による前記報知発話の実行開始時刻が所定の時間帯である場合、前記発話決定部は、前記電子機器が前記報知発話を行わないことを決定することを特徴とする請求項1から5のいずれか1項に記載の発話制御装置。
  7.  電話機能、音声操作機能および発話機能を有する自機器の発話を制御する電子機器であって、
     前記電話機能の実行が終了したか否かを検知する電話終了検知部と、
     前記電話終了検知部によって前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定部と、を備えていることを特徴とする電子機器。
  8.  請求項1に記載の発話制御装置としてコンピュータを機能させるためのプログラムであって、前記電話終了検知部および前記発話決定部としてコンピュータを機能させるためのプログラム。
  9.  電話機能、音声操作機能および発話機能を有する電子機器の発話を制御する発話制御装置の制御方法であって、
     前記電話機能の実行が終了したか否かを検知する電話終了検知ステップと、
     前記電話終了検知ステップにて前記電話機能の実行の終了が検知された場合に、前記電話機能の実行態様に応じて、前記電子機器が、前記音声操作機能の実行が可能になったことをユーザに報知するための報知発話を行うか否かを決定する発話決定ステップと、を含んでいることを特徴とする発話制御装置の制御方法。
PCT/JP2018/012378 2017-05-11 2018-03-27 発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法 WO2018207482A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-094941 2017-05-11
JP2017094941 2017-05-11

Publications (1)

Publication Number Publication Date
WO2018207482A1 true WO2018207482A1 (ja) 2018-11-15

Family

ID=64102758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012378 WO2018207482A1 (ja) 2017-05-11 2018-03-27 発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法

Country Status (1)

Country Link
WO (1) WO2018207482A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640416A (zh) * 2019-02-13 2020-09-08 夏普株式会社 电子设备、控制装置、控制方法及记录介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004233794A (ja) * 2003-01-31 2004-08-19 Toshiba Corp 音声認識装置、及び音声認識方法
JP2010183205A (ja) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd 通話システム
JP2015052466A (ja) * 2013-09-05 2015-03-19 株式会社デンソー 車両用装置及び音声切換制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004233794A (ja) * 2003-01-31 2004-08-19 Toshiba Corp 音声認識装置、及び音声認識方法
JP2010183205A (ja) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd 通話システム
JP2015052466A (ja) * 2013-09-05 2015-03-19 株式会社デンソー 車両用装置及び音声切換制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640416A (zh) * 2019-02-13 2020-09-08 夏普株式会社 电子设备、控制装置、控制方法及记录介质

Similar Documents

Publication Publication Date Title
JP4331138B2 (ja) ハンズフリー通話装置
JP2007520943A (ja) ノイズの大きい環境における電話機の拡張された使用
KR101954774B1 (ko) 문자 데이터를 이용한 음성 통화를 제공하기 위한 전자 장치 및 방법
JP5973289B2 (ja) 携帯端末、音声制御プログラムおよび音声制御方法
US20090323973A1 (en) Selecting an audio device for use
JP2008109595A (ja) 通話方法自動切替システム、サーバ、方法およびプログラム
JP2007166073A (ja) 車載ハンズフリー装置及び車載ハンズフリーシステム
US20120015696A1 (en) Application Audio Announcements Using Wireless Protocols
US8321227B2 (en) Methods and devices for appending an address list and determining a communication profile
JP5251588B2 (ja) 携帯電話端末装置及び通話伝達の判断方法
WO2018207482A1 (ja) 発話制御装置、電子機器、プログラムおよび発話制御装置の制御方法
JP5890289B2 (ja) 携帯端末、音声制御プログラムおよび音声制御方法
JP2013026779A (ja) 通信端末及び通信方法
JP2017046280A (ja) 電子機器
WO2018058875A1 (zh) 一种终端的通话切换方法、***及终端、计算机存储介质
JP2013157924A (ja) 通信装置、通信プログラム及び通信方法
US20130217447A1 (en) Electronic equipment, storage medium and output controlling method
JP5265587B2 (ja) 通話装置及び通話方法
US11770872B2 (en) Radio apparatus, radio communication system, and radio communication method
JP4798135B2 (ja) 携帯端末装置及びその制御方法とプログラム
KR102075750B1 (ko) 문자 데이터를 이용한 음성 통화를 제공하기 위한 전자 장치 및 방법
JP2009212601A (ja) 電話機、通話終了方法
JP6571510B2 (ja) 電話機、および電話機の制御方法
JP2001251672A (ja) 携帯電話装置および携帯電話装置の通話方式
KR101366313B1 (ko) 이동통신 단말기 및 이동통신 단말기의 음성 입출력 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18797649

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18797649

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP