TWI725535B - 語音互動探知使用者行為與屬性特徵之方法 - Google Patents

語音互動探知使用者行為與屬性特徵之方法 Download PDF

Info

Publication number
TWI725535B
TWI725535B TW108131811A TW108131811A TWI725535B TW I725535 B TWI725535 B TW I725535B TW 108131811 A TW108131811 A TW 108131811A TW 108131811 A TW108131811 A TW 108131811A TW I725535 B TWI725535 B TW I725535B
Authority
TW
Taiwan
Prior art keywords
user
voice
parameter
analysis
database
Prior art date
Application number
TW108131811A
Other languages
English (en)
Other versions
TW202109506A (zh
Inventor
韓駿逸
Original Assignee
韓駿逸
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 韓駿逸 filed Critical 韓駿逸
Priority to TW108131811A priority Critical patent/TWI725535B/zh
Publication of TW202109506A publication Critical patent/TW202109506A/zh
Application granted granted Critical
Publication of TWI725535B publication Critical patent/TWI725535B/zh

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

一種語音互動探知使用者行為與屬性特徵之方法,應用於一智慧型行動裝置並且對該智慧型行動裝置中一輸入機構、一語音與參數儲存機構、一語音分析機構、一演算分析機構、一輸出機構以及一語音播放器進行執行。本方法可用於各類電子載具當中,以仿真人語音方式與使用者互動,透過日常對話了解使用者行為與屬性特徵,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性;當中以對話互動探知使用者行為與屬性之前後用語,會運用向使用者問好與閒談天氣等語言進行交談。藉此,通過判斷現場忙碌程度、使用者急切程度與使用者使用頻率程度等三項參數,決定探詢使用者問題之數量,並透過反覆性探詢確認方式,更新使用者之行為與屬性資訊,達成以口語的語言收集使用者資料之功效。

Description

語音互動探知使用者行為與屬性特徵之方法
本發明係有關於一種語音互動探知使用者行為與屬性特徵之方法,尤指涉及一種以仿真人語音方式與使用者互動,特別係指透過日常對話以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性特徵者。
線上廣告已成為常見現象,且其隨著網際網路與其它計算平台、系統、語言、及組件之發展而持續地發展。如同其它媒體,諸如電視、收音機、或雜誌等,呈現有效果的廣告是其持續的挑戰。行動裝置愈來愈普遍,且也在持續地發展。將有趣的、相關的、及有效的資訊呈現給行動裝置之使用者也是持續的挑戰。此外,行動裝置典型上連接到網路與網際網路,且對使用者之各種工作越來越有幫助,諸如排程、導航、運動訓練、睡眠、與旅行等。就此而論,有需要能更有效地選擇資訊呈現給移動之使用者。
按,傳統搜尋引擎可基於由使用者所載入之關鍵字或話題而選擇搜尋結果以將該使用者導向至特定最終目標。然而此種策略就瞭解使用者之行為、興趣及偏好上並非最有效。
在此情形下,電子商務網站紛紛推出個性化推薦系統,其是利用過去之歷史資訊來分析客戶之偏好,以進行個性化之推薦動作。但是在這樣的系統中,需要一段時間來累積銷售歷史資訊,才能進行接下來的資料分析與挖掘。也因此,資料分析與挖掘之時間點遠遠落在前端之銷售行為之後。 換言之,經由事後分析之方式,在銷售上會產生時間延遲之問題,系統不能精確反應客戶即時之需求,亦無法根據使用者當下之行為進行反應。整體而言,電子商務網站銷售之效率以及效果均會受到影響。
並且,根據上述個性化推薦系統,目前的資訊查詢方法,並無整合語音輸入模式,且需輸入準確的查詢訊息,才能得到正確的結果;除此之外,並無提供對話互動功能。
有鑑於此,為解決習用之種種缺失,本案之創作人特潛心研究,開發出一種語音互動探知使用者行為與屬性特徵之方法,以有效改善習用之缺點。
本發明之主要目的係在於,克服習知技藝所遭遇之上述問題並提供一種可用於各類電子載具當中,係以仿真人語音方式與使用者互動,透過日常對話了解使用者行為與屬性特徵,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性之語音互動探知使用者行為與屬性特徵之方法。
本創作之次要目的係在於,提供一種以對話互動探知使用者行為與屬性之前後用語,會運用向使用者問好與閒談天氣等語言進行交談。藉此通過判斷現場忙碌程度、使用者急切程度與使用者使用頻率程度等三項參數,決定探詢使用者問題之數量,並透過反覆性探詢確認方式,更新使用者之行為與屬性資訊,達成以口語的語言收集使用者的資料之語音互動探知使用者行為與屬性特徵之方法。
為達以上之目的,本發明係一種語音互動探知使用者行為與屬性特徵之方法,應用於一智慧型行動裝置並且對該智慧型行動裝置中一輸入機構、一語音與參數儲存機構、一語音分析機構、一演算分析機構、一輸出機構以及一語音播放器進行執行,該方法至少包含下列步驟:步驟一:透過該語音播放器與使用者進行一般對話,並由該輸入機構接收使用者之情緒語音;步驟二:透過該語音分析機構依據該使用者之情緒語音配合該語音與參數儲存機構中之資料,分別產生一相關於該使用者之情緒語音的聲學參數、以及產生一相關於該使用者之情緒語音的屬性參數,藉此辨識出該使用者的語意,詢問該使用者之需求;步驟三:透過該演算分析機構設定參數初始值,並依據該聲學參數、該屬性參數與該參數初始值,以增強式(reinforcement)學習演算法,輔以等候理論(Queuing theory)與基因演算法(Genetic Algorithm)進行分析,以統計現場忙碌程度、使用者急切程度、使用者使用頻率程度、使用者願意回答問題的程度、及使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問題數與提問之問題探知使用者屬性與行為特徵,並將該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題的程度、及該使用者回答的問題與答案儲存至該語音與參數儲存機構;其中,統計該現場忙碌程度可經由環境偵測,依照其偵測間隔採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊,而統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低,以及統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係 基於與使用者接受語音服務的頻率正相關,以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的機率越低;步驟四:透過該輸出機構將演算分析後之分析結果與參數以文字轉成口語的文字形式輸出;以及步驟五:接收該文字形式的分析結果與參數,該語音播放器經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。
於本發明上述實施例中,該聲學參數包含使用者聲音急促、聲音密度與聲音強度程度。
於本發明上述實施例中,該屬性參數包含性別、年齡、行業別與學歷。
於本發明上述實施例中,該步驟一之輸入機構為指向式麥克風接受器。
於本發明上述實施例中,該步驟三之演算分析機構具有一設定單元及一分析單元,由該設定單元提供設定參數初始值,該分析單元可由具環境偵測模組之設定單元,取得等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊,再根據該語音分析機構的聲學參數與該屬性參數以增強式學習演算法,輔以等候理論與基因演算法進行分析,以統計該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題的程度、及該使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問題數與提問之問題探知使用者屬性與行為特徵。
於本發明上述實施例中,該設定單元設定參數初始值,以均勻 (uniform)分配給定每個待問問題初始機率值;設定初期環境參數;以三個環境參數決定現場忙碌程度,現場忙碌給定數值1,其餘給定0;決定該間接性參數,使用者急切給定數值1,其餘給定0;決定該反覆性參數,使用者頻率低給定數值1,其餘給定0;問題題數由該現場忙碌程度、該使用者急切程度、及該使用者使用頻率程度決定,範圍0~2。
於本發明上述實施例中,該分析單元以環境偵測模組產生數個環境參數,以作為一現場忙碌程度模型的計算與學習,根據該等待語音服務的人數計算平均等待服務人數、及根據該服務一位使用者所需要的時間計算平均服務時間,並將高於該平均等待服務人數與高於該平均服務時間的時間區域視為忙碌,其中兩變數之一高於平均者視為尚可,皆未超過兩變數平均則視為不忙,並且每月執行修正模型。
於本發明上述實施例中,該分析單元以該語音分析機構產生數個聲學參數,以作為一使用者急切程度模型的計算與學習,初期擷取全體使用者之聲學參數,語速高於平均參數之使用者,視為急切,之後計算單一使用者平均語速,超過個人平均語速,視為急切,並且每月執行修正模型。
於本發明上述實施例中,該分析單元統計該使用者使用頻率程度,係當使用者使用頻率高於整體平均時,視為頻率高。
於本發明上述實施例中,該分析單元統計該使用者願意回答問題的程度,係當使用者回答問題高於整體平均時,視為頻率高。
於本發明上述實施例中,該步驟四、五之輸出機構與語音播放器為一螢幕與至少一喇叭之組合。
於本發明上述實施例中,該步驟一之語音播放器係以仿真人間 歇式語音模式與使用者互動。
1‧‧‧輸入機構
2‧‧‧語音與參數儲存機構
21‧‧‧語音類別儲存單元
211‧‧‧聲音語調資料庫
212‧‧‧聲音密度資料庫
213‧‧‧聲音強度資料庫
22‧‧‧屬性類別儲存單元
221‧‧‧性別資料庫
222‧‧‧年齡資料庫
223‧‧‧行業別資料庫
224‧‧‧學歷資料庫
23‧‧‧參數類別儲存單元
231‧‧‧現場忙碌程度資料庫
232‧‧‧使用者急切程度資料庫
233‧‧‧使用者使用頻率程度資料庫
234‧‧‧使用者回答問題程度資料庫
235‧‧‧使用者回答問題與答案資料庫
3‧‧‧語音分析機構
4‧‧‧演算分析機構
41:設定單元
411:環境偵測模組
42:分析單元
5:輸出機構
6:語音播放器
s11~s15:步驟
第1圖,係本發明之基本架構示意圖。
第2圖,係本發明之方法流程示意圖。
第3圖,係本發明之方塊示意圖。
請參閱『第1圖~第3圖』所示,係分別為本發明之基本架構示意圖、本發明之方法流程示意圖、及本發明之方塊示意圖。如圖所示:本發明係一種語音互動探知使用者行為與屬性特徵之方法,應用於一智慧型行動裝置並且對該智慧型行動裝置中一輸入機構1、一語音與參數儲存機構2、一語音分析機構3、一演算分析機構4、一輸出機構5以及一語音播放器6進行執行。
上述所提之輸入機構1可接收使用者之情緒語音。
該語音與參數儲存機構2與該輸入機構1連接,該語音與參數儲存機構2具有至少一語音類別儲存單元21、至少一屬性類別儲存單元22、及至少一參數類別儲存單元23,用以儲存所有過程內容與參數。
該語音分析機構3與該語音與參數儲存機構2連接,該語音分析機構3可依據該使用者之情緒語音配合該語音類別儲存單元21中之資料,產生一相關於該使用者之情緒語音的聲學參數,並可依據該使用者之情 緒語音配合該屬性類別儲存單元22中之資料,產生一相關於該使用者之情緒語音的屬性參數,藉此辨識出該使用者的語意,詢問該使用者之需求。
該演算分析機構4分別與該語音分析機構3及該語音與參數儲存機構2連接,該演算分析機構4具有一設定單元41及一分析單元42,該設定單元41提供設定參數初始值,該分析單元42根據該聲學參數、該屬性參數與該參數初始值,以增強式(reinforcement)學習演算法,輔以等候理論(Queuing theory)與基因演算法(Genetic Algorithm)進行分析,以統計現場忙碌程度、使用者急切程度、使用者使用頻率程度、使用者願意回答問題的程度、及使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問題數與提問之問題探知使用者屬性與行為特徵,並將該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題的程度、及該使用者回答的問題與答案儲存至該語音與參數儲存機構2;其中,該分析單元42可由具環境偵測模組411之設定單元41,依照其偵測間隔採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元42;該分析單元42統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低;該分析單元42統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於與使用者接受語音服務的頻率正相關,以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的機率越低。
該輸出機構5與該演算分析機構4連接,將該演算分析機構4 之分析結果與參數以文字形式輸出。
該語音播放器6與該輸出機構5連接,接收該文字形式的分析結果與參數,經過文字轉語音之過程合成語音形式後,依據所合成語音與使用者進行一般對話。
本發明可用於各類電子載具中,當運用時,該輸入機構1可為個人電腦、筆記型電腦、平板電腦、智慧型手錶或智慧型手機之收音麥克風,而該輸出機構5與該語音播放器6可為個人電腦、筆記型電腦、平板電腦、智慧型手錶或智慧型手機之螢幕與至少一喇叭之組合,且該語音分析機構3及該演算分析機構4係與個人電腦、筆記型電腦、平板電腦、智慧型手錶或智慧型手機之處理器連接(圖中未示)。
而使用時如第2圖所示,如步驟s11,本裝置可透過該語音播放器6與使用者進行一般對話,由該輸入機構1接收使用者之情緒語音,並將該情緒語音傳輸至該語音分析機構3。步驟s12,當該語音分析機構3收到情緒語音後,便可依據使用者之情緒語音配合該語音類別儲存單元21中之資料進行分析,產生一相關於該使用者之情緒語音的聲學參數,並可依據該使用者之情緒語音配合該屬性類別儲存單元22中之資料進行分析,產生一相關於該使用者之情緒語音的屬性參數,並於分析後辨識出使用者的語意,詢問該使用者之需求,同時,可將前述各項參數傳遞至該語音與參數儲存機構2與該演算分析機構4。步驟s13,當該演算分析機構4接收到該聲學參數與該屬性參數後,便由該設定單元41設定參數初始值,以均勻(uniform)分配給定每個待問問題初始機率值;設定初期環境參數;以三個環境參數決定現場忙碌程度,現場忙碌給定數值1,其餘給定0;決定間接性參數,使用 者急切給定數值1,其餘給定0;決定反覆性參數,使用者頻率低給定數值1,其餘給定0;問題題數由該現場忙碌程度、該使用者急切程度、及該使用者使用頻率程度決定,範圍0~2。該分析單元42根據該聲學參數、該屬性參數與該參數初始值,以增強式學習演算法,輔以等候理論與基因演算法進行分析,可通過計算判斷現場忙碌程度、使用者急切程度、與使用者使用頻率程度等三個參數,以決定探詢使用者問題之數量。在參數的變更與學習中: 該分析單元42統計該現場忙碌程度可由具環境偵測模組411之設定單元41,依照其偵測間隔(以每15分鐘、30分鐘、小時、週、季、年為計算基礎)採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元42。該分析單元42以該環境偵測模組411產生數個環境參數(等待服務人數、服務頻率與服務時間),以作為一現場忙碌程度模型的計算與學習,根據該等待語音服務的人數計算平均等待服務人數、及根據該服務一位使用者所需要的時間計算平均服務時間,並將高於該平均等待服務人數與高於該平均服務時間的時間區域視為忙碌,其中兩變數之一高於平均者視為尚可,皆未超過兩變數平均則視為不忙。透過以深度學習法建構預測模型,並且每月執行修正模型。
該分析單元42統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低。因此,該分析單元42以該語音分析機構3產生數個聲學參數,以作為一使用者急切程度模型的計算與學習,初期擷取全體使用者之聲學參數,語速高於平均參數之使用者,視為急切。再計算單一使用者平均語速, 超過個人平均語速,視為急切。透過以深度學習法建構預測模型,並且每月執行修正模型。
該分析單元42統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於:與使用者接受語音服務的頻率(次/週)正相關,頻率越高,詢問超過一個問題的機率越低;以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的頻率越低。因此,該分析單元42統計該使用者使用頻率程度,係當使用者使用頻率高於整體平均時,視為頻率高;以及該分析單元42統計該使用者願意回答問題的程度,係當使用者回答問題高於整體平均時,視為頻率高。
藉此,依據上述現場忙碌程度、使用者急切程度、與使用者使用頻率程度等三項參數,建構問題提問之時機模型,達到決定問題的數量。例如:假設現在現場很忙碌,提問的問題就會儘量的減少,使用者越急切,提問的問題也會越少。如果使用者接受服務的頻率很高,則提問的問題就會較少。最後如步驟s14,透過該輸出機構5將演算分析後之分析結果與參數文字轉成口語的文字形式後輸出,再如步驟s15,由該語音播放器6經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。
於本發明之一較佳具體實施例中,該輸入機構1可為指向性麥克風接受器。藉此,可於接收使用者之情緒語音時增加收音之靈敏度,以完整接收使用者之情緒語音。
於本發明之一較佳具體實施例中,該語音類別儲存單元21至 少具有一聲音語調資料庫211、一聲音密度資料庫212及一聲音強度資料庫213,該屬性類別儲存單元22至少具有一性別資料庫221、一年齡資料庫222、一行業別資料庫223及一學歷資料庫224。藉此,可於該語音分析機構3依據使用者之情緒語音配合該語音類別儲存單元21中之資料進行分析時,分析該情緒語音中之聲音語調急促、聲音密度與聲音強度程度,並同時配合該聲音語調資料庫211、該聲音密度資料庫212與該聲音強度資料庫213中之資料進行分析,以利用聲音語調急促、聲音密度與聲音強度程度產生一相關於該使用者之情緒語音的聲學參數,具體而言,該聲學參數包含響度(Loudness)、突出率(Prominence Ratio)、調變(Modulation)、波動強度(Fluctuation Strength)、尖銳度(Sharpness)與音調(Tonality);並且,可於該語音分析機構3依據使用者之情緒語音配合該屬性類別儲存單元22中之資料進行分析時,分析該情緒語音中之性別、年齡、行業別與學歷,並同時配合該性別資料庫221、該年齡資料庫222、該行業別資料庫223與該學歷資料庫224中之資料進行分析,以利用性別、年齡、行業別與學歷產生一相關於該使用者之情緒語音的屬性參數,通過前述聲學參數與屬性參數辨識出使用者的語意,進而依據使用者的語意詢問使用者之需求。
於本發明之一較佳具體實施例中,該參數類別儲存單元23至少具有一現場忙碌程度資料庫231、一使用者急切程度資料庫232、一使用者使用頻率程度資料庫233、一使用者回答問題程度資料庫234、及一使用者回答問題與答案資料庫235。藉此,可於該演算分析機構4將計算後的現場忙碌程度儲存至該現場忙碌程度資料庫231、計算後的使用 者急切程度儲存至該使用者急切程度資料庫232、計算後的使用者使用頻率程度儲存至該使用者使用頻率程度資料庫233、計算後的使用者願意回答問題的程度儲存至該使用者回答問題程度資料庫234、及計算後的使用者回答的問題與答案儲存至該使用者回答問題與答案資料庫235。
於本發明之一較佳具體實施例中,該輸出機構5與該語音播放器6可為一螢幕與至少一喇叭之組合。藉此,可於該輸出機構5與該語音播放器6輸出對話互動時,由該螢幕與該喇叭同時輸出依據該演算分析機構4分析結果與參數所探知的使用者屬性與行為特徵的相關內容。如此,可以仿真人語音方式與使用者互動,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性,而達到透過日常對話了解使用者行為與屬性特徵之效果。
綜上所述,本發明係一種語音互動探知使用者行為與屬性特徵之方法,可有效改善習用之種種缺點,可用於各類電子載具當中,係以仿真人語音方式與使用者互動,透過日常對話了解使用者行為與屬性特徵,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性;當中以對話互動探知使用者行為與屬性之前後用語,會運用向使用者問好與閒談天氣等語言進行交談。藉此通過判斷現場忙碌程度、使用者急切程度與使用者使用頻率程度等三項參數,決定探詢使用者問題之數量,並透過反覆性探詢確認方式,更新使用者之行為與屬性資訊,達成以口語的語言收集使用者的資料,進而使本發明之產生能更進步、更實用、更符合使用者之所須,確已符合發明專利申請之要件,爰依法提出專利申請。
惟以上所述者,僅為本發明之較佳實施例而已,當不能以此限 定本發明實施之範圍;故,凡依本發明申請專利範圍及發明說明書內容所作之簡單的等效變化與修飾,皆應仍屬本發明專利涵蓋之範圍內。
s11~s15‧‧‧步驟

Claims (4)

  1. 一種語音互動探知使用者行為與屬性特徵之方法,應用於一智慧型行動裝置並且對該智慧型行動裝置中一輸入機構、一語音與參數儲存機構、一語音分析機構、一演算分析機構、一輸出機構以及一語音播放器進行執行,該方法至少包含下列步驟:步驟一:透過該語音播放器與使用者進行一般對話,並由該輸入機構接收使用者之情緒語音;步驟二:透過該語音分析機構依據該使用者之情緒語音配合該語音與參數儲存機構中之資料,分別產生一相關於該使用者之情緒語音的聲學參數、以及產生一相關於該使用者之情緒語音的屬性參數,其中該語音與參數儲存機構具有至少一語音類別儲存單元、至少一屬性類別儲存單元、及至少一參數類別儲存單元,該語音類別儲存單元至少具有一聲音語調資料庫、一聲音密度資料庫及一聲音強度資料庫,該屬性類別儲存單元至少具有一性別資料庫、一年齡資料庫、一行業別資料庫及一學歷資料庫,藉此,可於該語音分析機構依據使用者之情緒語音配合該語音類別儲存單元中之資料進行分析時,分析該情緒語音中之聲音語調急促、聲音密度與聲音強度程度,並同時配合該聲音語調資料庫、該聲音密度資料庫與該聲音強度資料庫中之資料進行分析,以利用聲音語調急促、聲音密度與聲音強度程度產生一相關於該使用者之情緒語音的聲學參數,該聲學參數包含使用者聲音急促、聲音密度與聲音強度程度;並且,可於該語音分析機構依據使用者之情緒語音配合該屬性類別儲 存單元中之資料進行分析時,分析該情緒語音中之性別、年齡、行業別與學歷,並同時配合該性別資料庫、該年齡資料庫、該行業別資料庫與該學歷資料庫中之資料進行分析,以利用性別、年齡、行業別與學歷產生一相關於該使用者之情緒語音的屬性參數,該屬性參數包含性別、年齡、行業別與學歷,通過前述聲學參數與屬性參數辨識出該使用者的語意,進而依據該使用者的語意詢問該使用者之需求,同時將前述各項參數傳遞至該語音與參數儲存機構與該演算分析機構;步驟三:該演算分析機構具有一設定單元及一分析單元,當該演算分析機構接收到該聲學參數與該屬性參數後,便由該設定單元設定參數初始值,該分析單元並依據該聲學參數、該屬性參數與該參數初始值,以增強式(reinforcement)學習演算法,輔以等候理論(Queuing theory)與基因演算法(Genetic Algorithm)進行分析,以統計現場忙碌程度、使用者急切程度、使用者使用頻率程度、使用者願意回答問題的程度、及使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問題數與提問之問題探知使用者屬性與行為特徵,並將該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題的程度、及該使用者回答的問題與答案儲存至該語音與參數儲存機構;其中,該設定單元設定參數初始值,以均勻(uniform)分配給定每個待問問題初始機率值;設定初期環境參數;以三個環境參數決定現場忙碌程度,現場忙碌給定數值1,其餘給定0;決定該間接性參數,使用者急切給定數值1,其餘給定0;決定該反覆性參數,使用者頻率低給定數值 1,其餘給定0;問題題數由該現場忙碌程度、該使用者急切程度、及該使用者使用頻率程度決定,範圍0~2;該分析單元統計該現場忙碌程度可經由具環境偵測模組之設定單元,依照其偵測間隔採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元,該分析單元以該環境偵測模組產生數個環境參數,以作為一現場忙碌程度模型的計算與學習,根據該等待語音服務的人數計算平均等待服務人數、及根據該服務一位使用者所需要的時間計算平均服務時間,並將高於該平均等待服務人數與高於該平均服務時間的時間區域視為忙碌,其中兩變數之一高於平均者視為尚可,皆未超過兩變數平均則視為不忙,並且每月執行修正模型,而該分析單元統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低,該分析單元以該語音分析機構產生數個聲學參數,以作為一使用者急切程度模型的計算與學習,初期擷取全體使用者之聲學參數,語速高於平均參數之使用者,視為急切,之後計算單一使用者平均語速,超過個人平均語速,視為急切,並且每月執行修正模型,以及該分析單元統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於與使用者接受語音服務的頻率正相關,以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的機率越低,因此該分析單元統計該使用者使用頻率程度,係當使用者使用頻率高於整體平均時,視為頻率高,以及該分 析單元統計該使用者願意回答問題的程度,係當使用者回答問題高於整體平均時,視為頻率高;步驟四:透過該輸出機構將演算分析後之分析結果與參數以文字轉成口語的文字形式輸出;以及步驟五:接收該文字形式的分析結果與參數,該語音播放器經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。
  2. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之方法,其中,該步驟一之輸入機構為指向式麥克風接受器。
  3. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之方法,其中,該步驟四、五之輸出機構與語音播放器為一螢幕與至少一喇叭之組合。
  4. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之方法,其中,該步驟一之語音播放器係以仿真人間歇式語音模式與使用者互動。
TW108131811A 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之方法 TWI725535B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW108131811A TWI725535B (zh) 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW108131811A TWI725535B (zh) 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之方法

Publications (2)

Publication Number Publication Date
TW202109506A TW202109506A (zh) 2021-03-01
TWI725535B true TWI725535B (zh) 2021-04-21

Family

ID=76035597

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108131811A TWI725535B (zh) 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之方法

Country Status (1)

Country Link
TW (1) TWI725535B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201025289A (en) * 2008-12-25 2010-07-01 Inventec Besta Co Ltd Singing system with situation sound effect and method thereof
CN103811009A (zh) * 2014-03-13 2014-05-21 华东理工大学 一种基于语音分析的智能电话客服***
CN105144259A (zh) * 2013-01-24 2015-12-09 罗杰·安德烈·埃勒特森 交通监察和指导***
US20170188807A1 (en) * 2014-05-15 2017-07-06 Essilor International (Compagnie Generale D'optique) A monitoring system for monitoring head mounted device wearer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201025289A (en) * 2008-12-25 2010-07-01 Inventec Besta Co Ltd Singing system with situation sound effect and method thereof
CN105144259A (zh) * 2013-01-24 2015-12-09 罗杰·安德烈·埃勒特森 交通监察和指导***
CN103811009A (zh) * 2014-03-13 2014-05-21 华东理工大学 一种基于语音分析的智能电话客服***
US20170188807A1 (en) * 2014-05-15 2017-07-06 Essilor International (Compagnie Generale D'optique) A monitoring system for monitoring head mounted device wearer

Also Published As

Publication number Publication date
TW202109506A (zh) 2021-03-01

Similar Documents

Publication Publication Date Title
JP6776462B2 (ja) 会議能力を有する自動アシスタント
US10424302B2 (en) Turn-based reinforcement learning for dialog management
KR102249437B1 (ko) 메시지 분류에 기반한 메시지 교환 스레드의 자동화된 증대
US20200220975A1 (en) Personalized support routing based on paralinguistic information
US10878011B2 (en) Cognitive ranking of terms used during a conversation
CN110874716A (zh) 面试测评方法、装置、电子设备及存储介质
JP7280438B2 (ja) サービス品質評価製品のカスタマイズプラットフォーム及び方法
TWI727476B (zh) 適性化職缺媒合系統及方法
US10885080B2 (en) Cognitive ranking of terms used during a conversation
US20110270612A1 (en) Computer-Implemented Systems and Methods for Estimating Word Accuracy for Automatic Speech Recognition
CN112417158A (zh) 文本数据分类模型的训练方法、分类方法、装置和设备
Hastie Metrics and evaluation of spoken dialogue systems
EP4181124A1 (en) Communication system and related methods
EP3839800A1 (en) Recommending multimedia based on user utterances
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
CN114021962A (zh) 教学评估方法、评估装置及其相关设备和存储介质
CN111490929B (zh) 视频片段推送方法、装置、电子设备、存储介质
TWI725535B (zh) 語音互動探知使用者行為與屬性特徵之方法
CN117149979A (zh) 一种贷前智能问答及评审模块的构建方法及装置
Mohamed et al. Analyzing the role of Sentiment Analysis in Public Relations: Brand Monitoring and Crisis Management
US11704585B2 (en) System and method to determine outcome probability of an event based on videos
TWM592151U (zh) 語音互動探知使用者行為與屬性特徵之裝置
KR20230025708A (ko) 오디오 제시 인터렉션을 갖는 자동화된 어시스턴트
TWI722327B (zh) 影音內容與用戶互動序列分析系統及方法
Heath et al. The challenges of designing a robot for a satisfaction survey: Surveying humans using a social robot