TW201327449A - 用以將虛擬的社交網路帶入至真實生活中之社交系統及方法 - Google Patents

用以將虛擬的社交網路帶入至真實生活中之社交系統及方法 Download PDF

Info

Publication number
TW201327449A
TW201327449A TW100149582A TW100149582A TW201327449A TW 201327449 A TW201327449 A TW 201327449A TW 100149582 A TW100149582 A TW 100149582A TW 100149582 A TW100149582 A TW 100149582A TW 201327449 A TW201327449 A TW 201327449A
Authority
TW
Taiwan
Prior art keywords
interlocutor
social
scene
real
processing module
Prior art date
Application number
TW100149582A
Other languages
English (en)
Other versions
TWI482108B (zh
Inventor
Shao-Yi Chien
Jui-Hsin Lai
Jhe-Yi Lin
Min-Yian Su
Po-Chen Wu
Chieh-Chi Kao
Original Assignee
Univ Nat Taiwan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Taiwan filed Critical Univ Nat Taiwan
Priority to TW100149582A priority Critical patent/TWI482108B/zh
Priority to US13/420,966 priority patent/US9329677B2/en
Publication of TW201327449A publication Critical patent/TW201327449A/zh
Application granted granted Critical
Publication of TWI482108B publication Critical patent/TWI482108B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本發明提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統及方法,從虛擬的社交網路中收集及分析至少一對話者之社交網路訊息以產生至少一推薦話題,使用者利用推薦話題與對話者對談,擷取對話者之言談舉止及/或心理反應,分析對話者之言談舉止及/或心理反應以產生一對話者之情緒狀態,使用者透過對話者之情緒狀態以判斷對話者對於推薦話題是否感到興趣,如此,係將虛擬網路的社交訊息帶入至真實生活中,以增加真實生活中人與人之間的溝通話題。

Description

用以將虛擬的社交網路帶入至真實生活中之社交系統及方法
  本發明有關於一種用以將虛擬的社交網路帶入至真實生活中之社交系統及方法,尤指一種可利用虛擬網路的社交訊息來增加真實生活人與人之間的溝通話題之社交系統及方法。
  現今網路技術越來越發達,網路逐漸地成為人們生活不可或缺的一部份。人們常常在網路上進行線上交談、購物、網頁瀏覽、資料查詢、社交網站之訊息傳遞或互動...等等。
  藉由網路的應用,人們獲得更多生活上的樂趣及便利性。然而,某些人不知不覺地沉迷於網路,分辨不出虛擬網路世界與真實世界間之差異性。這些人平時在虛擬的網路世界(例如:社交網路)上可與他人交談自如,但是在真實世界中缺乏自信,平時欠缺與他人直接面對面溝通的經驗,久而久之,逐漸地疏離真實生活而造成人際關係上的緊張或冷漠。
  在此,如何讓人們由虛擬的網路世界重新回到真實生活當中,並且將虛擬網路的社交訊息帶引至真實生活上,以增加真實生活中人與人之間的溝通話題進而拓展人際關係,將會是本發明欲達到的目的。
  本發明之一目的,在於提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統及方法,從虛擬的社交網路中收集及分析至少一對話者之社交訊息以產生至少一推薦話題,使用者利用推薦話題直接與對話者對談,藉以增加真實生活中人與人之間的溝通話題進而拓展人際關係。
  本發明之一目的,在於提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統及方法,使用者利用推薦話題與對話者對談,對談中同時偵測對話者的言談舉止或心理反應以產生一對話者之情緒狀態,使用者經由對話者之情緒狀態以判斷對話者對於推薦話題是否感到興趣。
  本發明之一目的,在於提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統及方法,其可應用在一具有影像視窗之電子眼鏡上,使用者配戴電子眼鏡即可查閱顯示在影像視窗上之推薦話題及對話者之情緒狀態。
  本發明之一目的,在於提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統及方法,其拍攝使用者與對話者對話時所在的真實場景,識別真實場景之場景內容、場景地點及/或攝影時間以產生一場景識別結果,藉由分析對話者之社交訊息及/或場景識別結果以產生至少一對話者感到興趣及/或時機適合的推薦話題。
  為達到上述目的,本發明提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統,包括:一社交訊息處理模組,從虛擬的社交網路中收集及分析至少一對話者之社交訊息,以產生至少一推薦話題,使用者利用推薦話題與對話者對談;一影音擷取模組,擷取對話者之言談舉止;及一情緒分析模組,分析對話者之言談舉止,以產生一對話者之情緒狀態。
  本發明一實施例中,其中推薦話題及情緒狀態顯示於一影像視窗上。
  本發明一實施例中,其中影音擷取模組包括一臉部辨識單元,臉部辨識單元用以辨識對話者臉孔特徵,以將辨識出的對話者臉孔特徵與至少一社交網路上各身份帳號所對應的個人圖片進行比對而判別出對話者的身份。
  本發明一實施例中,社交系統尚包括一攝影模組,攝影模組用以拍攝使用者與對話者對談時之一真實場景,真實場景之視訊內容顯示於影像視窗上。
  本發明一實施例中,社交系統尚包括一擴充實景處理模組,擴充實景處理模組包括一不顯著區域辨識單元,不顯著區域辨識單元在真實場景中辨識出至少一不顯著區域,擴充實景處理模組繪製推薦話題及情緒狀態在不顯著區域上。
  本發明一實施例中,其中推薦話題及情緒狀態係以物件的型態繪製於不顯著區域上。
  本發明一實施例中,其中擴充實景處理模組尚包括:一擬真著色單元,其對於繪製在不顯著區域上的物件型態之推薦話題及情緒狀態進行一擬真的著色程序;及一穩固生成單元,其用以穩固地繪製物件型態之推薦話題及情緒狀態在不顯著區域之一適當位置上;其中,真實場景之不顯著區域隨著攝影角度的變化進行移動時,穩固生成單元操作物件型態之推薦話題及情緒狀態跟著相對位移調整。
  本發明一實施例中,其中社交系統尚包括一擴充實景處理模組,擴充實景處理模組包括一場景識別單元,場景識別單元用以識別及分析真實場景之場景內容、場景地點及/或拍攝時間而產生一場景識別結果,社交訊息處理模組藉由分析對話者之社交訊息及/或場景識別結果以產生推薦話題。
  本發明一實施例中,其中社交系統裝設在一手機、一電腦、一可用以顯示資料訊息之電子眼鏡或一可用以顯示資料訊息之電子裝置。
  本發明又提供一種用以將虛擬的社交網路帶入至真實生活中之社交系統,包括:一社交訊息處理模組,從虛擬的社交網路中收集及分析至少一對話者之社交訊息,以產生至少一推薦話題,使用者利用推薦話題與對話者對談;一生理擷取模組,擷取對話者之生理反應;及一情緒分析模組,分析對話者之生理反應,以產生一對話者之情緒狀態。
  本發明一實施例中,生理擷取模組為一體溫感測器、一血壓器、一呼吸器、一腦波檢測器及/或一可用以檢測人體生理反應之設備。
  本發明又提供一種用以將虛擬的社交網路帶入至真實生活中之社交方法,包括:從虛擬的社交網路中收集及分析至少一對話者之社交訊息以產生至少一推薦話題;利用推薦話題以令使用者與對話者進行對談;擷取對話者之言談舉止及/或生理反應;及分析對話者之言談舉止及/或生理反應以產生一對話者之情緒狀態。
  本發明一實施例中,社交方法尚包括下列步驟:拍攝使用者與對話者對談時之一真實場景;識別真實場景之場景內容、場景地點及/或攝影時間以產生一場景識別結果;及分析對話者之社交訊息及/或場景識別結果以產生推薦話題。
  請參閱第1圖,為本發明用以將虛擬的社交網路帶入至真實生活中之社交系統一較佳實施例之系統結構圖。如圖所示,社交系統100包括一社交訊息處理模組11、一影音擷取模組12及一情緒分析模組13,社交系統100可選擇有線或無線的方式進行網路連線。
  當系統100的使用者準備與至少一對話者進行對談時,首先,社交訊息處理模組11可從社交網路(例如:Facebook、Twitter、YouTube、MySpace...等等)上預先收集對話者之社交訊息110(例如:對話者的身份背景、喜好的多媒體資訊、推文資訊、瀏覽資訊、分享資訊...等等)。接著,社交訊息處理模組11分析收集到的對話者之社交訊息110,以產生至少一推薦話題111,例如:旅遊、閱讀、網球、生活。
  使用者利用推薦話題111與對話者進行對談。對談中,影音擷取模組12偵測對話者的言談舉止120,例如:聲音語調、臉部表情、肢體動作及/或談話內容。情緒分析模組13分析對話者之言談舉止120,以產生一對話者之情緒狀態130。情緒狀態130用以表示雙方對話時對話者之情緒反應。
  舉例來說,使用者利用系統100所推薦的其中一話題111(如旅遊話題)與對話者對談。對談中,假如對話者表現出聲音高亢、臉部露出喜悅表情、豐富的肢體動作及/或談及旅遊趣事之言談舉止120,系統100將會根據這些言談舉止120相對產生一正面反應(如喜悅)之情緒狀態130,其隱含對話者對於旅遊話題感到興趣之表現。
  或者,使用者利用系統100所推薦的其他話題111(如生活話題)與對話者對談。對談中,假如對話者表現出聲音沉悶、面無表情、眼神漂浮不定及/或少許言語,系統100將會根據這些言談舉止120相對產生一負面反應(如厭倦)之情緒狀態130,其隱含對話者對於生活話題不想討論之表現。
  如此,經由正面或負面反應之情緒狀態130,使用者將可判斷對話者對於推薦話題111是否感到興趣,進而決定是否與對話者繼續目前推薦話題111的交談或改換另一個推薦話題111與對話者交談。
  當然,實際情況,對話者也有可能心情不佳不想與任何人交談,或者對話者根本不想與使用者討論任何話題,導致社交系統100偵測出對話者之情緒狀態130皆顯示出負面反應,此時使用者亦可進一步考慮停止與對話者間之任何對話。
  如此據以實施,本發明社交系統100係可將虛擬網路的社交訊息帶入至真實生活中,並提供使用者至少一對話者可能感到興趣之推薦話題111,以令使用者可藉由推薦話題111與對話者對談,藉此增加真實生活中人與人之間的溝通話題,進而達到拓展人際關係之目的。
  如第2圖所示,本發明社交系統100之一具體實施例中,其社交系統100亦可裝設在一具有影像視窗21之電子眼鏡200上,該影像視窗21為電子眼鏡200之鏡片元件。系統100產生的推薦話題111及對話者之情緒狀態130係以一文字或一圖片方式顯示在影像視窗21之上。在實際應用時,使用者可配戴電子眼鏡200與對話者直接面對面對話,且雙方交談的同時,使用者透過閱覽電子眼鏡200之影像視窗21以立即得知系統100所提供之推薦話題111及對話者之情緒狀態130。
  再度參閱第1圖,本發明一實施例中,使用者亦可事先得知對話者身份,而將對話者身份手動設定在社交訊息處理模組11之中。之後,社交訊息處理模組11再根據使用者手動設定的對話者身份以在社交網路上搜尋及收集對話者之社交訊息110。
  或者,本發明又一實施例中,影音擷取模組12包括一臉部辨識單元121。使用者與對話者面對面交談時,臉部辨識單元121可主動偵測對話者臉孔特徵,並將辨識出的對話者臉孔特徵與社交網路上各身份帳號所對應的個人圖片進行比對,藉以判別出對話者的身份。之後,社交訊息處理模組11在根據臉部辨識單元121所辨識出的對話者身份以在社交網路上搜尋及收集對話者之社交訊息110。
  進一步,臉部辨識單元121亦可同時辨識多個對話者之臉孔特徵而判別出多個對話者之身分,進而達到使用者能夠與多數對話者同時社交對話之功效。
  社交系統100尚包括一攝影模組15及一擴充實景(Augmented Reality;AR)處理模組16。攝影模組15用以拍攝使用者與對話者對談時之一真實場景150,真實場景150之視訊內容將顯示於影像視窗21上。再者,透過擴充實景處理模組16之運用以將推薦話題111及情緒狀態130繪製於真實場景150中,如第3圖所示。
  擴充實景處理模組16包括一不顯著區域辨識單元161、一擬真著色單元163及一穩固生成單元165。
  如第3圖所示,不顯著區域辨識單元161可在真實場景150中辨識出至少一不顯著區域1501,該不顯著區域1501係為觀看者(如本案所述之系統使用者)觀看真實場景150時比較不會關注到的區域,例如:在本實施例中,該真實場景150為一教室中所拍攝的場景,而該不顯著區域1501可為一黑板、一垃圾桶、一桌子或一窗戶。擴充實景處理模組16將會以虛擬物件的型態繪製推薦話題111及對話者之情緒狀態130在不顯著區域1501上,以避免推薦話題111及對話者之情緒狀態130遮蓋到真實場景150中之顯著區域(例如:對話者之所在區域或影像輪廓較為複雜之區域)而造成使用者觀看真實場景150時產生視覺上之困惑。
  當物件型態之推薦話題111及情緒狀態130繪製在真實場景150之不顯著區域1501時,擬真著色單元163將參照真實場景150之背景光源對於物件型態之推薦話題111及情緒狀態130相對進行一擬真的著色程序,以令物件型態之推薦話題111及情緒狀態130可自然融合於真實場景150中,達到高度擬真的效果。
  再者,穩固生成單元165係可將物件型態之推薦話題111及情緒狀態130穩固地繪製於不顯著區域1501之一適當位置上。則,如第4圖所示,當真實場景150之不顯著區域1501隨著攝影角度的變化而跟著移動時,穩固生成單元165將操作物件型態之推薦話題111及情緒狀態130跟著相對位移調整,以避免因為攝影角度的不同而讓物件型態之推薦話題111及情緒狀態130落在顯著區域上。當然,不顯著區域1501亦可能因為攝影角度之變化而從真實場景150之中消失或變小以致無法繪製物件型態之推薦話題111及對話者之情緒狀態130,則不顯著區域辨識單元161將從目前拍攝的真實場景150之中重新辨識一新的不顯著區域1501。
  藉由不顯著區域辨識單元161、擬真著色單元163及穩固生成單元165所進行的影像處理程序,將可使得物件型態之推薦話題111及情緒狀態130無縫接合在真實場景150之中而自然地融為一體。
  另,本發明又一實施例中,擴充實景處理模組16尚包括一場景識別單元167。場景識別單元167用以識別及分析真實場景150之場景內容、場景地點及/或攝影時間,以產生一場景識別結果1671。本實施例之社交訊息處理模組11除分析收集到的對話者之社交訊息110外,將進一步分析場景識別結果1671,進而產生對話者感到興趣及時機適合之推薦話題111。
  例如:場景識別單元167識別真實場景150的場景內容之中人們眾多、場景地點為一醫院及攝影時間為一白天時間,社交訊息處理模組11將會根據這個場景識別結果1671分析出這個時機點不適合談論過於愉悅及個人私密的事情,致使以避免產生時機不對的推薦話題111。
  承上,本發明社交系統100除裝設在電子眼鏡200外,也可選擇裝設在一手機、一電腦或一可用以顯示資料訊息之電子裝置上。並且,社交系統100除應用在使用者與對話者面對面交談上,也可選擇應用在使用者與對話者視訊交談的情境當中。
  請參閱第5圖,為本發明用以將虛擬的社交網路帶入至真實生活中之社交系統又一實施例之系統結構圖。本實施例社交系統300之系統結構相似於上述實施例之社交系統100之系統結構,兩者差異性在於:上述實施例之社交系統100採用影音擷取模組12擷取對話者之言語舉止120以分析出對話者對於推薦話題111是否感到興趣;然而,本實施例之社交系統300改用一生理擷取模組31擷取對話者之生理反應310以分析出對話者對於推薦話題111是否感到興趣。
  同於上述,當系統300的使用者準備與至少一對話者進行對談時,首先,社交訊息處理模組11可從社交網路上預先收集對話者之社交訊息110。接著,社交訊息處理模組11分析收集到的對話者之社交訊息110,以產生至少一推薦話題111。
  使用者利用推薦話題111與對話者進行對談。對談中,生理擷取模組31偵測對話者身上所產生之生理反應310(體溫、呼吸、血壓、心跳次數、腦波、瞳孔)。之後,情緒分析模組分析13分析對話者之生理反應310以相對產生一對話者之情緒狀態130。
  如此據以實施,本實施例之社交系統300透過生理擷取模組31偵測對話者身上所產生之生理反應310也能分析出對話者對於推薦話題111是否感到興趣之功效。
  此外,本實施例所述之生理擷取模組31亦可包括有一體溫偵測器、一血壓偵測器、一呼吸偵測器、一腦波偵測器、一瞳孔偵測器及/或一可用以偵測人體生理反應之設備。
  又,本實施例之社交系統300除生理擷取模組31外,其餘各構件之具體實施方式及其應用係與上述實施例之社交系統100大致相同,在此,不再一一重複闡述。
  請參閱第6圖,為本發明用以將虛擬的社交網路帶入至真實生活中之社交方法一較佳實施例之步驟流程圖,該社交方法應用在一電子裝置上(如:電子眼鏡、手機、電腦)。如圖所示,首先,步驟S51,使用者透過電子裝置進行網路連線,並從虛擬的社交網路上收集至少一對話者之社交訊息110,分析收集到的對話者之社交訊息110而相對產生至少一推薦話題111。
  步驟S52,使用者挑選其中一推薦話題111,並利用該挑選的推薦話題111與對話者對談。步驟S53,在雙方對談期間,擷取對話者之言談舉止120及/或對話者身上之生理反應310。接著,步驟S54,分析對話者之言談舉止120及/或生理反應310以產生一對話者之情緒狀態130。
  之後,使用者經由對話者之情緒狀態130以判斷出對話者對於推薦話題111是否感到興趣,進而決定是否與對話者繼續目前的推薦話題111的交談或改換另一個推薦話題111與對話者交談。
  請參閱第7圖,為本發明用以將虛擬的社交網路帶入至真實生活中之社交方法又一實施例之步驟流程圖,該社交方法應用在一電子裝置上。如圖所示,首先,步驟S61,使用者透過電子裝置之攝影模組15拍攝使用者與對話者對談時之一真實場景150。
  步驟S62,識別真實場景150的場景內容、場景地點及/或攝影時間以產生一場景識別結果1671。
  步驟S63,使用者進一步透過電子裝置進行網路連線,並從虛擬的社交網路上收集至少一對話者之社交訊息110,分析收集到的對話者之社交訊息110以及場景識別結果1671而產生至少一推薦話題111。
  步驟S64,使用者挑選其中一推薦話題111,並利用該挑選的推薦話題111與對話者對談。步驟S65,在雙方對談期間,擷取對話者之言談舉止120及/或對話者身上之生理反應310。接著,步驟S66,分析對話者之言談舉止120及/或生理反應310以產生一對話者之情緒狀態130。
  之後,使用者經由對話者之情緒狀態130以判斷出對話者對於推薦話題111是否感到興趣,進而決定是否與對話者繼續目前的推薦話題111的交談或改換另一個推薦話題111與對話者交談。
  綜合上述,本發明社交系統及其方法係可將虛擬網路的社交訊息帶入至真實生活中,並提供可增加真實生活中人與人之間的溝通話題,藉以達到較佳的社交效果進而拓展人際關係。
  以上所述者,僅為本發明之一較佳實施例而已,並非用來限定本發明實施之範圍,即凡依本發明申請專利範圍所述之形狀、構造、特徵及精神所為之均等變化與修飾,均應包括於本發明之申請專利範圍內。
100...社交系統
11...社交訊息處理模組
110...社交訊息
111...推薦話題
12...影音擷取模組
120...言談舉止
121...臉部辨識單元
13...情緒分析模組
130...情緒狀態
15...攝影模組
150...真實場景
1501...不顯著區域
16...擴充實景處理模組
161...不顯著區域辨識單元
163...擬真著色單元
165...穩固生成單元
167...場景識別單元
1671...場景識別結果
200...電子眼鏡
21...影像視窗
31...生理擷取模組
310...生理反應
第1圖:本發明用以將虛擬的社交網路帶入至真實生活中之社交系統一較佳實施例之系統結構圖。
第2圖:本發明社交系統裝設在一電子眼鏡上之應用結構圖。
第3圖:本發明影像視窗顯示一真實場景之場景示意圖。
第4圖:本發明影像視窗顯示又一真實場景之場景示意圖。
第5圖:本發明用以將虛擬的社交網路帶入至真實生活中之社交系統又一實施例之系統結構圖。
第6圖:本發明用以將虛擬的社交網路帶入至真實生活中之社交方法一較佳實施例之步驟流程圖。
第7圖:本發明用以將虛擬的社交網路帶入至真實生活中之社交方法又一實施例之步驟流程圖。
100...社交系統
11...社交訊息處理模組
110...社交訊息
111...推薦話題
12...影音擷取模組
120...言談舉止
121...臉部辨識單元
13...情緒分析模組
130...情緒狀態
15...攝影模組
150...真實場景
16...擴充實景處理模組
161...不顯著區域辨識單元
163...擬真著色單元
165...穩固生成單元
167...場景識別單元
1671...場景識別結果
200...電子眼鏡
21...影像視窗

Claims (21)

  1. 一種用以將虛擬的社交網路帶入至真實生活中之社交系統,包括:
    一社交訊息處理模組,從虛擬的社交網路中收集及分析至 少一對話者之社交訊息,以產生至少一推薦話題,使用 者利用推薦話題與對話者對談;
    一影音擷取模組,擷取對話者之言談舉止;及
    一情緒分析模組,分析對話者之言談舉止,以產生一對話 者之情緒狀態。
  2. 如申請專利範圍第1項所述之社交系統,其中該推薦話題及該對話者之情緒狀態顯示於一影像視窗上。
  3. 如申請專利範圍第1項所述之社交系統,其中該影音擷取模組包括一臉部辨識單元,該臉部辨識單元用以辨識對話者臉孔特徵,以將辨識出的對話者臉孔特徵與至少一社交網路上各身份帳號所對應的個人圖片進行比對而判別出對話者的身份。
  4. 如申請專利範圍第1項所述之社交系統,尚包括一攝影模組,該攝影模組用以拍攝使用者與對話者對談時之一真實場景,該真實場景之視訊內容顯示於該影像視窗上。
  5. 如申請專利範圍第4項所述之社交系統,尚包括一擴充實景處理模組,該擴充實景處理模組包括一不顯著區域辨識單元,該不顯著區域辨識單元在該真實場景中辨識出至少一不顯著區域,該擴充實景處理模組繪製該推薦話題及該情緒狀態在該不顯著區域上。
  6. 如申請專利範圍第5項所述之社交系統,其中該推薦話題及該情緒狀態係以物件的型態繪製於該不顯著區域上。
  7. 如申請專利範圍第6項所述之社交系統,其中該擴充實景處理模組尚包括:
    一擬真著色單元,其對於繪製在該不顯著區域上的該物件 型態之推薦話題及情緒狀態進行一擬真的著色程序;及
    一穩固生成單元,其用以穩固地繪製該物件型態之推薦話 題及情緒狀態在該不顯著區域之一適當位置上;
    其中,該真實場景之該不顯著區域隨著攝影角度的變化進 行移動時,該穩固生成單元操作該物件型態之推薦話題 及情緒狀態跟著相對位移調整。
  8. 如申請專利範圍第4項所述之社交系統,尚包括一擴充實景處理模組,該擴充實景處理模組包括一場景識別單元,該場景識別單元用以識別及分析該真實場景之場景內容、場景地點及/或拍攝時間而產生一場景識別結果,該社交訊息處理模組藉由分析該對話者之社交訊息及/或該場景識別結果以產生該推薦話題。
  9. 如申請專利範圍第1項所述之社交系統,其中該社交系統裝設在一手機、一電腦、一可用以顯示資料訊息之電子眼鏡或一可用以顯示資料訊息之電子裝置。
  10. 一種用以將虛擬的社交網路帶入至真實生活中之社交系統,包括:
    一社交訊息處理模組,從虛擬的社交網路中收集及分析至 少一對話者之社交訊息,以產生至少一推薦話題,使用 者利用推薦話題與對話者對談;
    一生理擷取模組,擷取對話者之生理反應;及
    一情緒分析模組,分析對話者之生理反應,以產生一對話 者之情緒狀態。
  11. 如申請專利範圍第10項所述之社交系統,其中該推薦話題及該對話者之情緒狀態顯示於一影像視窗上。
  12. 如申請專利範圍第10項所述之社交系統,其中該生理擷取模組為一體溫感測器、一血壓器、一呼吸器、一腦波檢測器、一瞳孔偵測器及/或一可用以檢測人體生理反應之設備。
  13. 如申請專利範圍第10項所述之社交系統,尚包括一具有臉部辨識單元之影音擷取模組,該臉部辨識單元用以辨識對話者臉孔特徵,以將辨識出的對話者臉孔特徵與至少一社交網路上各身份帳號所對應的個人圖片進行比對而判別出對話者的身份。
  14. 如申請專利範圍第10項所述之社交系統,尚包括一攝影模組,該攝影模組用以拍攝使用者與對話者對談時之一真實場景,該真實場景之視訊內容顯示於該影像視窗上。
  15. 如申請專利範圍第14項所述之社交系統,尚包括一擴充實景處理模組,該擴充實景處理模組包括一不顯著區域辨識單元,該不顯著區域辨識單元在該真實場景中辨識出至少一不顯著區域,該擴充實景處理模組繪製該推薦話題及該情緒狀態於該不顯著區域上。
  16. 如申請專利範圍第15項所述之社交系統,其中該推薦話題及該情緒狀態將以物件的型態繪製於該不顯著區域上。
  17. 如申請專利範圍第16項所述之社交系統,其中該擴充實景處理模組,尚包括:
    一擬真著色單元,其對於繪製在該不顯著區域上的該物件 型態之推薦話題及情緒狀態進行一擬真的著色程序;及
    一穩固生成單元,其用以穩固地繪製該物件型態之推薦話 題及情緒狀態在該不顯著區域之一適當位置上;
    其中,該真實場景之該不顯著區域隨著攝影角度的變化進 行移動時,該穩固生成單元操作該物件型態之推薦話題 及情緒狀態跟著相對位移調整。
  18. 如申請專利範圍第14項所述之社交系統,尚包括一擴充實景處理模組,該擴充實景處理模組包括一場景識別單元,該場景識別單元用以識別及分析該真實場景之場景內容、場景地點及/或拍攝時間而產生一場景識別結果,該社交訊息處理模組藉由分析該對話者之社交訊息及/或該場景識別結果以產生該推薦話題。
  19. 如申請專利範圍第10項所述之社交系統,其中該社交系統裝設在一手機、一電腦、一可用以顯示資料訊息之電子眼鏡或一可用以顯示資料訊息之電子裝置上。
  20. 一種用以將虛擬的社交網路帶入至真實生活中之社交方法,包括:
    從虛擬的社交網路中收集及分析至少一對話者之社交訊息 以產生至少一推薦話題;
    利用推薦話題以令使用者與對話者進行對談;
    擷取對話者之言談舉止及/或生理反應;及
    分析對話者之言談舉止及/或生理反應以產生一對話者之 情緒狀態。
  21. 如申請專利範圍第20項所述之社交方法,尚包括下列步驟:
    拍攝使用者與對話者對談時之一真實場景;
    識別真實場景之場景內容、場景地點及/或攝影時間以產 生一場景識別結果;及
    分析該對話者之社交訊息及/或場景識別結果以產生該推 薦話題。
TW100149582A 2011-12-29 2011-12-29 To bring virtual social networks into real-life social systems and methods TWI482108B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW100149582A TWI482108B (zh) 2011-12-29 2011-12-29 To bring virtual social networks into real-life social systems and methods
US13/420,966 US9329677B2 (en) 2011-12-29 2012-03-15 Social system and method used for bringing virtual social network into real life

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW100149582A TWI482108B (zh) 2011-12-29 2011-12-29 To bring virtual social networks into real-life social systems and methods

Publications (2)

Publication Number Publication Date
TW201327449A true TW201327449A (zh) 2013-07-01
TWI482108B TWI482108B (zh) 2015-04-21

Family

ID=48694489

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100149582A TWI482108B (zh) 2011-12-29 2011-12-29 To bring virtual social networks into real-life social systems and methods

Country Status (2)

Country Link
US (1) US9329677B2 (zh)
TW (1) TWI482108B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025423A (zh) * 2015-12-24 2017-08-08 卡西欧计算机株式会社 情绪估计装置以及情绪估计方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443354B2 (en) * 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
US9354702B2 (en) * 2013-06-03 2016-05-31 Daqri, Llc Manipulation of virtual object in augmented reality via thought
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
CN105981375B (zh) * 2014-02-18 2020-06-16 索尼公司 信息处理设备、控制方法、程序和***
US9646198B2 (en) 2014-08-08 2017-05-09 International Business Machines Corporation Sentiment analysis in a video conference
US9648061B2 (en) 2014-08-08 2017-05-09 International Business Machines Corporation Sentiment analysis in a video conference
KR20160089152A (ko) * 2015-01-19 2016-07-27 주식회사 엔씨소프트 화행 분석을 통한 스티커 추천 방법 및 시스템
KR101583181B1 (ko) * 2015-01-19 2016-01-06 주식회사 엔씨소프트 응답 스티커 추천방법 및 컴퓨터 프로그램
US10284537B2 (en) 2015-02-11 2019-05-07 Google Llc Methods, systems, and media for presenting information related to an event based on metadata
US11392580B2 (en) * 2015-02-11 2022-07-19 Google Llc Methods, systems, and media for recommending computerized services based on an animate object in the user's environment
US11048855B2 (en) 2015-02-11 2021-06-29 Google Llc Methods, systems, and media for modifying the presentation of contextually relevant documents in browser windows of a browsing application
US9769564B2 (en) 2015-02-11 2017-09-19 Google Inc. Methods, systems, and media for ambient background noise modification based on mood and/or behavior information
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
CN105852831A (zh) * 2016-05-10 2016-08-17 华南理工大学 一种基于虚拟现实交互技术与脑功能实时监测技术的设备
US10521009B2 (en) * 2016-05-17 2019-12-31 Samsung Electronics Co., Ltd. Method and apparatus for facilitating interaction with virtual reality equipment
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) * 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10592612B2 (en) * 2017-04-07 2020-03-17 International Business Machines Corporation Selective topics guidance in in-person conversations
US9754397B1 (en) * 2017-04-07 2017-09-05 Mirage Worlds, Inc. Systems and methods for contextual augmented reality sharing and performance
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US11733824B2 (en) * 2018-06-22 2023-08-22 Apple Inc. User interaction interpreter
US20200098012A1 (en) * 2018-09-25 2020-03-26 XRSpace CO., LTD. Recommendation Method and Reality Presenting Device
CN109522928A (zh) * 2018-10-15 2019-03-26 北京邮电大学 文本的主题情感分析方法、装置、电子设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020194006A1 (en) 2001-03-29 2002-12-19 Koninklijke Philips Electronics N.V. Text to visual speech system and method incorporating facial emotions
US7607097B2 (en) * 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
JP3930489B2 (ja) 2004-03-31 2007-06-13 株式会社コナミデジタルエンタテインメント チャットシステム、通信装置、その制御方法及びプログラム
US8010460B2 (en) * 2004-09-02 2011-08-30 Linkedin Corporation Method and system for reputation evaluation of online users in a social networking scheme
US7707167B2 (en) 2004-09-20 2010-04-27 Microsoft Corporation Method, system, and apparatus for creating a knowledge interchange profile
US7620902B2 (en) 2005-04-20 2009-11-17 Microsoft Corporation Collaboration spaces
JP5176311B2 (ja) * 2006-12-07 2013-04-03 ソニー株式会社 画像表示システム、表示装置、表示方法
US9195752B2 (en) 2007-12-20 2015-11-24 Yahoo! Inc. Recommendation system using social behavior analysis and vocabulary taxonomies
US8195656B2 (en) 2008-02-13 2012-06-05 Yahoo, Inc. Social network search
TW201008222A (en) 2008-08-15 2010-02-16 Chi Mei Comm Systems Inc A mobile phone for emotion recognition of incoming-phones and a method thereof
CN201255787Y (zh) * 2008-09-12 2009-06-10 天津三星电子有限公司 电子眼镜
US8024317B2 (en) 2008-11-18 2011-09-20 Yahoo! Inc. System and method for deriving income from URL based context queries
TW201035967A (en) 2009-03-31 2010-10-01 Univ Nat United Online game speech emotion real-time recognition system and method
US8612435B2 (en) 2009-07-16 2013-12-17 Yahoo! Inc. Activity based users' interests modeling for determining content relevance
TWI424359B (zh) * 2009-12-03 2014-01-21 Chunghwa Telecom Co Ltd Two - stage Face Recognition System and Method
KR101303648B1 (ko) * 2009-12-08 2013-09-04 한국전자통신연구원 감성신호 감지 장치 및 그 방법
EP2539759A1 (en) * 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
JP2013537435A (ja) * 2010-06-07 2013-10-03 アフェクティヴァ,インコーポレイテッド ウェブサービスを用いた心理状態分析
US20120026191A1 (en) * 2010-07-05 2012-02-02 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system
CN102479291A (zh) * 2010-11-30 2012-05-30 国际商业机器公司 情感描述生成与体验方法和设备以及情感交互***
US8917913B2 (en) * 2011-09-22 2014-12-23 International Business Machines Corporation Searching with face recognition and social networking profiles
US8903176B2 (en) * 2011-11-14 2014-12-02 Sensory Logic, Inc. Systems and methods using observed emotional data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025423A (zh) * 2015-12-24 2017-08-08 卡西欧计算机株式会社 情绪估计装置以及情绪估计方法

Also Published As

Publication number Publication date
TWI482108B (zh) 2015-04-21
US9329677B2 (en) 2016-05-03
US20130169680A1 (en) 2013-07-04

Similar Documents

Publication Publication Date Title
TWI482108B (zh) To bring virtual social networks into real-life social systems and methods
EP2709357B1 (en) Conference recording method and conference system
US8243116B2 (en) Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
US10834456B2 (en) Intelligent masking of non-verbal cues during a video communication
Yu et al. Capture, recognition, and visualization of human semantic interactions in meetings
Rintel Tech-tied or tongue-tied? Technological versus social trouble in relational video calling
Bavelas et al. Effect of dialogue on demonstrations: Direct quotations, facial portrayals, hand gestures, and figurative references
JP5751143B2 (ja) 議事録作成支援装置、議事録作成支援システム、および、議事録作成用プログラム
KR102263154B1 (ko) 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법
CN116018789A (zh) 在线学习中用于对学生注意力进行基于上下文的评估的方法、***和介质
JP2016177483A (ja) コミュニケーション支援装置、コミュニケーション支援方法及びプログラム
CN114615455A (zh) 远程会议的处理方法、装置、会议***和存储介质
CN108898058A (zh) 心理活动的识别方法、智能领带及存储介质
Elsden et al. Zoom obscura: Counterfunctional design for video-conferencing
Ursu et al. Orchestration: Tv-like mixing grammars applied to video-communication for social groups
Suryani et al. Multi-modal asian conversation mobile video dataset for recognition task
Otsuka Multimodal conversation scene analysis for understanding people’s communicative behaviors in face-to-face meetings
US20200265464A1 (en) Method, system and non-transitory computer-readable recording medium for estimating emotion for advertising contents based on video chat
CN109902904A (zh) 创新性能力分析***及方法
MacHardy et al. Engagement analysis through computer vision
Takemae et al. Impact of video editing based on participants' gaze in multiparty conversation
Klowait On the multimodal resolution of a search sequence in virtual reality
Yu et al. Multimodal sensing, recognizing and browsing group social dynamics
JP3936295B2 (ja) データベース作成装置
Andreallo The selfie generation: a transformation of visual social relationships