TWI669635B - 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 - Google Patents

用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 Download PDF

Info

Publication number
TWI669635B
TWI669635B TW107116492A TW107116492A TWI669635B TW I669635 B TWI669635 B TW I669635B TW 107116492 A TW107116492 A TW 107116492A TW 107116492 A TW107116492 A TW 107116492A TW I669635 B TWI669635 B TW I669635B
Authority
TW
Taiwan
Prior art keywords
barrage
plane
dimensional space
binocular
space scene
Prior art date
Application number
TW107116492A
Other languages
English (en)
Other versions
TW201903565A (zh
Inventor
周揚
聶奇
Original Assignee
大陸商騰訊科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商騰訊科技(深圳)有限公司 filed Critical 大陸商騰訊科技(深圳)有限公司
Publication of TW201903565A publication Critical patent/TW201903565A/zh
Application granted granted Critical
Publication of TWI669635B publication Critical patent/TWI669635B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一種用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質,該方法包括:在虛擬的三維空間場景中播放畫面;在所述虛擬的三維空間場景中的第一位置呈現第一彈幕;以及在所述虛擬的三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述虛擬的三維空間場景中的深度不同。

Description

用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
本揭示關於虛擬實境技術領域,特別是關於一種用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質。
隨著彈幕技術的普及和發展,越來越多的使用者在觀看電腦、電視、智慧終端機上播放的視頻時使用彈幕功能。限於顯示螢幕的尺寸大小,在彈幕數量過多的情況下,將影響彈幕的可讀性。
另一方面,隨著虛擬實境(Virtual Reality,VR)技術的發展,如何針對虛擬實境技術提供一種更好的顯示彈幕的方法,以讓使用者獲得更好的體驗,是業界亟待解決的問題。
本揭示提供了一種用於顯示彈幕的方法,適用於一虛擬實境設備,所述方法包括:在虛擬的三維空間場景中播放畫面;在所述虛擬的三維空間場景中的第一位置呈現第一彈幕;以及在所述虛擬的三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述虛擬的三維空間場景中的深度不同。
本揭示還提供了一種用於顯示彈幕的裝置,適用於一虛擬實境設備,所述裝置包括:一記憶體,儲存有電腦可讀指令;以及一處理器,執行所述電腦可讀指令以用於:在虛擬的三維空間場景中播放畫面;在所述虛擬的三維空間場景中的第一位置呈現第一彈幕;以及在所述虛擬的三 維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述虛擬的三維空間場景中的深度不同。
本揭示還提供了一種非易失性電腦可讀儲存介質,儲存有電腦可讀指令,以使至少一處理器執行上述方法。
10‧‧‧VR設備
11‧‧‧頭戴式顯示裝置
12‧‧‧跟蹤系統單元
13‧‧‧計算處理單元
14‧‧‧眼球追蹤單元
21‧‧‧左虛擬攝影機
22‧‧‧右虛擬攝影機
23‧‧‧雙目成像區域
24‧‧‧單目成像區域
31‧‧‧伺服器
51‧‧‧第一彈幕平面
52‧‧‧第二彈幕平面
53‧‧‧投影區域
61‧‧‧第三彈幕平面
62‧‧‧第四彈幕平面
63‧‧‧第五彈幕平面
64‧‧‧視覺平面
71‧‧‧攝影機平面
800、900‧‧‧用於顯示彈幕的裝置
810‧‧‧播放單元
820‧‧‧處理單元
910‧‧‧記憶體
920‧‧‧處理器
S401-S403‧‧‧步驟
第1圖是本揭示實施例的裝置的示意圖。
第2圖是本揭示實施例的三維空間場景的示意圖。
第3圖是本揭示實施例的應用環境的示意圖。
第4圖是本揭示實施例的用於顯示彈幕的方法的示意性流程圖。
第5圖是本揭示又一實施例的用於顯示彈幕的方法的示意圖。
第6圖是本揭示又一實施例的三維空間場景的示意圖。
第7圖是本揭示又一實施例的三維空間場景的示意圖。
第8圖是本揭示又一實施例的裝置的示意圖。
第9圖是本揭示又一實施例的裝置的示意圖。
下面將結合附圖,對本揭示中的技術方案進行描述。
本揭示實施例的用於顯示彈幕的方法可以應用於虛擬實境(Virtual Reality,VR)系統。本揭示實施例的用於顯示彈幕的裝置可以包括用於播放虛擬實境視頻的設備。例如,上述用於顯示彈幕的裝置可以是VR設備。
應理解,VR系統也可以稱為靈境技術或者人工環境。VR系統可以利用VR設備類比產生一個虛擬的三維空間場景,為使用者提供關於視覺、聽覺或觸覺等感官的模擬場景,使用者可以通過VR系統對虛擬的三維空間場景進行體驗或與虛擬的三維空間場景進行交互。
接下來將結合附圖,介紹本揭示實施例的VR設備10和應用 環境。
第1圖示出了本揭示實施例的VR設備10的示意圖。應注意,第1圖的例子僅僅是為了幫助本揭示所屬技術領域中具有通常知識者理解本揭示實施例,而非要將本揭示實施例限於所例示的具體場景。本揭示所屬技術領域中具有通常知識者根據所給出的第1圖的例子,顯然可以進行各種相等的修改或變化,這樣的修改或變化也落入本揭示實施例的範圍內。
VR設備10通常可以包括以下模組:頭戴式顯示裝置(Head Mount Display,HMD)11:用於顯示虛擬的三維空間場景以及播放畫面。頭戴式顯示裝置11也可以稱作虛擬實境眼鏡,是一種硬體設備,可以將使用者對外界的視覺、聽覺封閉,並引導使用者產生身在虛擬環境中的感覺。其顯示原理在於通過左右眼螢幕分別顯示左右眼的圖像,人眼在獲取這種帶有差異的資訊之後在腦海中產生立體感的三維空間場景圖像。
在一些實施例中,頭戴式顯示裝置11還可以包括眼球追蹤單元14,眼球追蹤單元14可以獲得使用者眼球的即時運動軌跡。眼球追蹤也可以稱為注視點追蹤,其可以利用感測器捕獲、提取眼球特徵資訊、測量眼睛的運動情況、估計視線方向或估計眼睛注視點位置。例如,眼球追蹤技術通常的實現原理在於通過以下三種技術,來獲得眼球的眼球方向(1,θ,φ)。
1、根據眼球和眼球周邊的特徵變化進行跟蹤。
2、根據虹膜角度變化進行跟蹤。
3、主動投射紅外線等光束到虹膜來提取特徵。
例如,可以在頭戴式顯示裝置11的眼睛位置嵌入兩個紅外線攝影機,該紅外線攝影機可以放置在眼鏡鏡片下,既不會對視線範圍產生影響,又能跟蹤使用者的瞳孔活動。
跟蹤系統單元12:用於追蹤使用者在真實的三維空間的位置 資訊和運動資訊。跟蹤系統單元12通常可以作為頭戴式顯示裝置11的外部設備,或者也可以整合於頭戴式顯示裝置11之中。跟蹤系統單元12一般包括內置感測器、陀螺儀和磁力計。
計算處理單元13:用於從跟蹤系統單元12中獲取使用者的即時位置資訊和運動資訊,並計算出使用者頭部在虛擬的三維空間場景中的視野朝向,以及使用者在虛擬的三維空間場景中的即時注視點的三維座標,並根據獲取的使用者位置資訊和運動資訊指示頭戴式顯示裝置11進行相應的畫面切換或其他操作。跟蹤系統單元12和計算處理單元13可以通過捕捉使用者的運動資訊來創造一種沉浸式體驗。例如,當使用者帶著頭戴式顯示裝置11作出抬頭的動作,則計算處理單元13在接收到跟蹤系統單元12發送的使用者的運動資訊之後,可以指示頭戴式顯示裝置11將顯示的畫面轉換為天空。
應理解,VR設備10通常可以包括一體化的VR設備,也可以包括分離式的VR設備。例如,分離式的VR設備可以包括獨立的頭戴式顯示裝置11和計算處理單元13。計算處理單元13可以與頭戴式顯示裝置11相連,以控制頭戴式顯示裝置11顯示虛擬的三維空間場景。計算處理單元13可以通過有線或無線的方式與頭戴式顯示裝置11相連。具體地,跟蹤系統單元12可以作為與其他設備獨立的模組,或者也可以設置於頭戴式顯示裝置11之中。眼球追蹤單元14也可以設置於頭戴式顯示裝置11之中。計算處理單元13可以包括智慧手機、平板電腦、桌上型電腦、筆記型電腦或其他可以進行計算的智慧設備。又例如,一體化的VR設備可以理解為將分離式VR設備中的頭戴式顯示裝置11、跟蹤系統單元12、計算處理單元13整合在同一設備之中。
在一些實施例中,VR設備10還可以包括其他單元,例如,VR設備10還可以包括儲存單元,用於儲存相關的指令、待播放的視頻或者其他需儲存的內容。
在一些實施例中,上述VR設備10可以用於播放圖片、視頻、三維空間模型等虛擬實境場景。上述圖片、視頻可以是全景圖片、全景視頻、或者全部使用模型搭建的三維空間場景。或者,上述VR設備10可以用於播放三維空間場景與二維視頻共同拼接的畫面。
第2圖是本揭示實施例的虛擬的三維空間場景的示意圖。如第2圖所示,該虛擬的三維空間場景包括:左虛擬攝影機21和右虛擬攝影機22:用於模擬人的左眼和右眼。
雙目成像區域23:左虛擬攝影機21和右虛擬攝影機22的視角重疊區域。因人的雙眼或虛擬攝影機的視角有限,只有中間被雙眼覆蓋的視覺區域才有雙目視差,即使用者在雙目成像區域23內才能分辨出物體的前後距離,或者說使用者能在雙目成像區域23分辨出物體的深度。應理解,三維空間場景除了具有二維場景的長度屬性和寬度屬性之外,還具有深度屬性,或者說三維空間場景中的物體可以有前後之分。例如,在虛擬三維空間場景中,通常使用座標x、y、z分別表示三維空間場景的長度、寬度和深度。
單目成像區域24:三維空間場景中除雙目成像區域23之外的其他區域。在單目成像區域24內,使用者不能分辨物體的前後距離,或者說使用者在單目成像區域24不能分辨物體的深度。
第3圖是本揭示實施例的應用環境的示意圖。如第3圖所示,該應用環境可以包括具有通信連接的伺服器31和VR設備10。該伺服器31可以是遠端的網路服務器。伺服器31還可以接收和儲存多個終端設備發送的彈幕。VR設備10可以從伺服器31獲取多個終端設備發送的彈幕,並通過VR設備10的顯示器(例如,頭戴式顯示裝置11)在三維空間場景中播放彈幕。在一些實施例中,上述多個終端設備也可以包括VR設備10。例如,伺服器31可以是播放網路視頻或網路遊戲的伺服器。在網路視頻或遊戲的播放過 程中,伺服器31可以從多個終端設備獲取使用者發送的關於網路視頻或遊戲的彈幕,並且將各使用者針對該網路視頻或遊戲發送的彈幕添加到網路視頻或遊戲中進行顯示。VR設備10可以在播放網路視頻或遊戲的同時,從伺服器31獲取彈幕並播放。本揭示實施例對伺服器31將彈幕添加至網路視頻或遊戲中的顯示規則不作限定。例如,伺服器31可以根據使用者發送彈幕的時間確定將彈幕添加至網路視頻中的時間。
本揭示實施例對VR設備10獲取彈幕的方式不作限定。例如,VR設備10可以從伺服器31獲取彈幕。或者,VR設備10也可以預先將待播放的畫面以及彈幕下載至VR設備10的儲存單元中,然後從儲存單元中獲取彈幕並進行播放。本揭示實施例對上述多個終端設備的具體類型不作限定。上述多個終端設備可以包括VR設備10,也可以包括除VR設備10之外的其他類型的設備。例如,上述多個終端設備可以包括智慧手機、平板電腦、桌上型電腦、筆記型電腦或VR設備10等。
第4圖是本揭示實施例的用於顯示彈幕的方法的示意性流程圖。所述方法可以由第1圖的VR設備10執行。或者,所述方法可以由第1圖中的計算處理單元13執行。下面以VR設備10為例進行說明。如第4圖所示,方法包括:
步驟S401,在虛擬的三維空間場景中播放畫面。
例如,VR設備10可以通過VR顯示器(例如,頭戴式顯示裝置11)在虛擬的三維空間場景中播放畫面。上述在虛擬的三維空間場景中播放畫面也可以理解為通過VR顯示器播放虛擬實境畫面。
本揭示實施例對上述畫面的類型和內容不作具體限定。上述三維空間場景中播放的畫面可以包括圖片、視頻、遊戲場景、三維空間模型等場景。上述圖片、視頻可以是全景圖片、全景視頻、或者全部使用模型搭建的三維空間場景。或者,上述三維空間場景中播放的畫面可以是播放三維空間場景與二維視頻共同拼接的畫面。
本揭示實施例對上述畫面的獲取方式不作限定。例如,VR設備10可以從與VR設備10有通信連接的伺服器31中獲取畫面並進行播放。或者,VR設備10也可以從本地載入畫面並進行播放。
步驟S402,在所述三維空間場景中的第一位置呈現第一彈幕。
步驟S403,在所述三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述三維空間場景中的深度不同。
應理解,與通常的二維場景相比,三維空間場景除了具有長度屬性和寬度屬性之外,還具有深度屬性,或者說,三維空間場景中顯示的物體可以有前後之分。
因此,上述第一位置和第二位置在三維空間場景中的深度不同,可以指第一位置和第二位置在三維空間場景中的深度方向上的座標不同。或者說,第一位置和第二位置在三維空間場景中具有前後之分。或者,也可以理解為第一彈幕和第二彈幕分別具有深度屬性資訊,並且第一彈幕和第二彈幕的深度屬性資訊不同。上述深度屬性資訊例如可以包括彈幕的深度方向的座標資訊。例如,作為一種具體實現方式,可以在程式設計環境中對彈幕的深度座標資訊進行設置,以使不同的彈幕顯示在三維虛擬空間場景中不同深度的位置。
應理解,上文中的第一位置、第二位置以及下文中出現的第三位置至第六位置都是虛擬的三維空間場景中的位置。換句話說,第一位置至第六位置在三維空間場景中都具有長度方向座標、寬度方向座標以及深度方向座標。
作為一個具體示例,VR設備10可以從伺服器31獲取第一彈幕的彈幕資料,並根據第一彈幕的彈幕資料顯示第一彈幕。上述第一彈幕的彈幕資料可以包括評論內容以及彈幕的屬性資訊。彈幕的屬性資訊可以包括彈幕的評論時間或彈幕的顯示時間等。
上述第一彈幕和第二彈幕可以是不同的彈幕,也可以是相同的彈幕。在第一彈幕和第二彈幕是相同的彈幕的情況下,第一彈幕可以在不同的時刻分別處於第一位置和第二位置,第一位置和第二位置在三維空間場景中的深度不同。例如,VR設備10在配置顯示第一彈幕的方式時,可以設置第一彈幕在三維空間場景中的顯示軌跡,該顯示軌跡可以經過三維空間場景中的不同深度的位置(例如,第一位置和第二位置)。從而第一彈幕可以在不同的時刻位於三維空間場景中的不同深度的位置。
由於第一彈幕和第二彈幕處於三維空間場景中的不同的深度,因此可以在三維空間場景中的不同深度的位置對彈幕進行區別化顯示,從而提高彈幕的可讀性,優化使用者的閱讀體驗。
在一些實施例中,上述第一彈幕和第二彈幕可以是與三維空間場景中播放的畫面有關的彈幕。例如,當播放的畫面為電視節目的情況下,第一彈幕和第二彈幕可以是使用者對該電視節目的評論。或者,當播放的畫面為網路遊戲的情況下,第一彈幕和第二彈幕可以是使用者關於遊戲的評論。
本揭示實施例對三維空間場景中播放的畫面和彈幕(例如,第一彈幕或第二彈幕)之間的位置不作限定。彈幕的顯示位置可以與播放的畫面的位置處於不同的深度。例如,在三維空間場景中播放的畫面可以包括至少一個顯示物體。當畫面中包括多個顯示物體的情況下,上述多個顯示物體在三維空間場景中的深度座標可以不同。彈幕的顯示位置(例如,第一位置或第二位置)可以與各顯示物體處於不同的深度。或者,彈幕的顯示位置也可以與多個顯示物體中的某個顯示物體的深度相同。作為一個具體例子,三維空間場景中播放的畫面可以包括山和馬,山和馬的顯示位置可以處於三維空間場景中的不同深度。彈幕的顯示位置的深度可以與山或馬的顯示位置的深度相同,或者,彈幕的顯示位置的深度可以位於山和馬之間,或者,彈幕的顯示位置也可以位於三維空間場景中的其他任何深 度。
在本揭示實施例中,在虛擬的三維空間場景中播放畫面時,可以在三維空間場景的不同深度的位置呈現彈幕,從而能夠更好的區分不同的彈幕,提高了在虛擬實境系統中顯示彈幕的品質,提高了使用者的閱讀體驗,同時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
本揭示實施例包括多種顯示彈幕的規則。
例如,作為一種可行的顯示彈幕的規則,在第4圖的方法中,若所述第一位置與使用者視角在深度方向上的距離大於所述第二位置與所述使用者視角在深度方向上的距離,可以設置所述第一彈幕的字型大小大於所述第二彈幕的字型大小;或者,可以設置所述第一彈幕的滾動速度大於所述第二彈幕的滾動速度;或者,可以設置所述第一彈幕的文字對比度小於所述第二彈幕的文字對比度。
上述使用者視角可以指虛擬三維空間場景中使用者眼睛所在的位置。換句話說,使用者視角可以指三維空間場景中左虛擬攝影機21和右虛擬攝影機22所在的位置。例如,如第6圖所示,使用者視角可以是左虛擬攝影機21和右虛擬攝影機22所在的位置。或者,使用者視角可以位於第6圖中的攝影機平面71所在的平面。攝影機平面71可以是左虛擬攝影機21和右虛擬攝影機22所在的平面。
作為一個示例,上述文字對比度可以包括文字與背景的對比度。
在一些實施例中,所述三維空間場景包括第2圖之雙目成像區域23和單目成像區域24,在所述雙目成像區域23呈現的彈幕位於所述三維空間場景的不同深度的位置,在所述單目成像區域24呈現的彈幕位於所述三維空間場景中的相同深度的位置。
在一些實施例中,所述雙目成像區域23呈現的彈幕位於雙目 彈幕平面上,所述雙目彈幕平面位於使用者視角的平面與視覺平面之間並與所述視覺平面平行;所述單目成像區域24呈現的彈幕位於單目彈幕平面上,所述單目彈幕平面與所述視覺平面重疊。所述視覺平面是最佳視距所在的位置的平面。
在一些實施例中,所述單目彈幕平面的面積小於所述視覺平面的面積,所述雙目彈幕平面的面積小於所述單目彈幕平面的面積;當所述雙目成像區域23包括至少兩個所述雙目彈幕平面時,所述雙目彈幕平面的深度越深,其面積就越大。
在本揭示實施例中,通過在三維空間場景中的雙目成像區域23的不同深度的位置呈現彈幕,在單目成像區域24的相同深度的位置呈現彈幕,以利於使用者更好的區分不同的彈幕,提高了在虛擬實境系統中顯示彈幕的品質,提高了使用者的閱讀體驗,同時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
在一些實施例中,第4圖之方法還包括:獲取使用者的注視點;從所述三維空間場景的彈幕中選取位於所述注視點的目標彈幕;更改所述目標彈幕的顯示方式。
作為一個具體示例,第1圖之VR設備10可以通過跟蹤系統單元12或頭戴式顯示裝置11中的眼球追蹤單元14獲取使用者的即時注視點,然後從三維空間場景的彈幕中選取位於所述注視點的目標彈幕,更改目標彈幕的顯示方式,以便於使用者觀看目標彈幕。在使用頭戴式顯示裝置11中的眼球追蹤單元14的情況下,可以將注視點與使用者的眼球方向(1,θ,φ)相關聯,以得到即時的注視點位置,從而可以減少使用者不必要的轉頭動作。
在本揭示實施例中,通過獲取使用者的注視點,並更改位於注視點的目標彈幕的顯示方式,以利於使用者更好的區分目標彈幕與其他彈幕,提高了在虛擬實境系統中顯示彈幕的品質及使用者的閱讀體驗,同 時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
例如,作為一個具體示例,VR設備10可以從伺服器31獲取彈幕的文本,彈幕的發送時間,發表彈幕的使用者資訊等資訊。在一些實施例中,VR設備10也可以從伺服器31獲取彈幕的深度資訊。然後,VR設備10可以檢測使用者的即時注視點,並且根據使用者的即時注視點確定在三維空間場景中顯示彈幕的區域(例如,單目成像區域24或雙目成像區域23)。VR設備10可以按照每條彈幕對應的時間資訊,按照一定的規則,在距離虛擬攝影機的不同平面上設置彈幕的軌道,以顯示彈幕文本,例如,按照預先設置的規則及每條彈幕對應的時間資訊,將彈幕顯示在單目彈幕平面上或者顯示在雙目彈幕平面上。
在本揭示實施例中,可以根據使用者的即時注視點,計算出當下使用者即時注視點對應在三維空間場景中的區域,並根據使用者的即時注視點確定在三維空間場景中顯示彈幕的區域。另外,在本揭示實施例中,並結合彈幕的時間點、發送彈幕的使用者屬性、深度資訊來展示在不同深度的平面上實現對不同彈幕資訊的強調或弱化,從而提高了顯示彈幕的靈活性。本實施例中,所述使用者屬性包括使用者的優先順序資訊。
在一些實施例中,上述更改目標彈幕的顯示方式包括多種方式。例如,下文例示了幾種更改目標彈幕的顯示方式。
作為一個具體示例,可以將所述目標彈幕在所述三維空間場景中的呈現位置從第三位置更改至第四位置,所述第四位置與使用者視角在深度方向上的距離小於所述第三位置與所述使用者視角在深度方向上的距離。換句話說,可以將所述目標彈幕更改到距離使用者視角更靠近的位置,以便於使用者閱讀目標彈幕的內容。
作為另一個具體示例,可以降低目標彈幕的滾動速度。
作為另一個具體示例,可以增大目標彈幕與背景的對比度。 例如對背景進行高斯模糊化處理。
作為另一個具體示例,可以增大目標彈幕的字體大小。
在一些實施例中,第4圖之方法還包括:基於所述三維空間場景中的第一預設軌跡呈現第三彈幕,所述第一預設軌跡經過第五位置和第六位置,所述第五位置和所述第六位置在所述三維空間場景中的深度不同。換句話說,VR設備10在通過VR顯示器顯示第三彈幕的情況下,第三彈幕在播放過程中可以經過三維空間場景中的不同深度的位置。例如,當第三彈幕經過單目成像區域24時,可以在第一深度的位置進行滾動播放,當第三彈幕經過雙目成像區域23時,可以在第二深度的位置進行滾動播放。
更進一步,所述第五位置位於所述單目彈幕平面;所述第六位置位於所述雙目彈幕平面;所述單目彈幕平面的深度大於所述雙目彈幕平面的深度。當所述第三彈幕經過所述雙目彈幕平面在所述單目彈幕平面的投影區時,如果所述雙目彈幕平面上的彈幕數量未達到預設值時,使所述第三彈幕切換到所述雙目彈幕平面上呈現。
作為一個具體示例,第5圖是本揭示實施例的用於顯示彈幕的方法的示意圖。如第5圖所示,可以在三維空間場景中設置多個彈幕平面,多個彈幕平面可以是相互平行的平面。可以在上述多個彈幕平面上播放彈幕,在各彈幕平面上播放的彈幕的位置的深度相同。第5圖中包括第一彈幕平面51和第二彈幕平面52。第一彈幕平面51和第二彈幕平面52可以是位於與使用者視角平行的位置的平面。第一彈幕平面51更靠近使用者視角,第二彈幕平面52上存在第一彈幕平面51的投影區域53。可以設置第三彈幕從三維空間場景的一側開始向另外一側滾動播放。如果第三彈幕經過前方的彈幕平面(例如,第一彈幕平面51)在當前彈幕平面(例如,第二彈幕平面52)的投影區域(例如,投影區域53),並且前方彈幕平面的彈幕的數量未達到預定值的情況下,第三彈幕可以轉至前方的彈幕平面上進行滾動播放。
在本揭示實施例中,用於顯示第三彈幕的第一預設軌跡經過的位置在三維空間場景中的深度不同,以利於使用者更好的觀看彈幕,提高了在虛擬實境系統中顯示彈幕的品質及使用者的閱讀體驗,同時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
在一些實施例中,在第4圖之方法中,所述三維空間場景包括雙目成像區域23和單目成像區域24,在所述雙目成像區域23呈現的彈幕位於所述三維空間場景中的不同深度的位置,在所述單目成像區域24呈現的彈幕位於所述三維空間場景中的相同深度的位置。
具體地,由於人眼在雙目成像區域23可以區分物體的距離遠近,而在單目成像區域24不能區分物體的距離遠近。因此,可以在雙目成像區域23的不同深度的位置呈現彈幕,而在單目成像區域24的相同深度的位置呈現彈幕,以便於優化使用者的閱讀體驗,同時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
下文結合第6圖和第7圖,介紹本揭示實施例的用於顯示彈幕的方法的具體示例,第6圖和第7圖從不同的角度(俯視圖和側視圖)呈現了顯示彈幕的場景。第6圖和第7圖的用於顯示彈幕的方法包括以下幾個部分:
第一部分:VR設備10從伺服器31獲取即時的彈幕資料,該彈幕資料可以包括評論內容和評論時間,彈幕資料還可以包括發送彈幕的使用者資訊或者彈幕的深度資訊。彈幕的使用者資訊可以包括使用者的優先順序資訊。應理解,彈幕的深度資訊可以從伺服器31獲取,也可以不從伺服器31獲取,而是由VR設備10確定彈幕的深度資訊。
第二部分:VR設備10獲取當前時間使用者頭部的三維空間位置(x,y,z)以及使用者頭部的視野朝向(α,β,γ),並根據虛擬實境系統內置的參數,計算出當前的視覺平面64(以下稱為視覺平面)。例如,上述虛擬實境系統內置的參數可以包括視野寬度(Field of Vision,FOV)、最佳 視距等。
視覺平面64可以是使用者的最佳視距所在位置的平面。或者,視覺平面64也可以是根據其他參數確定的平面。
例如,通常情況下最佳視距的經驗值可以設置為2.5公尺,或者也可以採用其他經驗值,具體資料不影響計算方法。
例如,FOV的經驗值可以設置為90°,或者也可以採用其他經驗值,具體資料不影響計算方法。
第三部分:VR設備10可以確定多個彈幕平面。該多個彈幕平面可以用於呈現彈幕。例如,該多個彈幕平面可以位於視覺平面64與虛擬攝影機(包括左虛擬攝影機21和右虛擬攝影機22)之間的位置。或者視覺平面64也可以作為彈幕平面。該多個彈幕平面可以與視覺平面64平行。
上述確定多個彈幕平面可以包括確定多個彈幕平面在三維空間場景中的長、寬、深度,以及多個彈幕平面上的每個點在三維空間場景中的三維座標。例如,在雙目成像區域23,可以按照一定的距離規則,在距離左右兩個虛擬攝影機不同深度的位置放置一系列的彈幕平面。上述距離規則可以是在深度方向的固定的距離間距,或者採用其他距離規則,本揭示實施例不做具體限定。
在一些實施例中,由於使用者在單目成像區域24不能區分不同深度,因此在單目成像區域24可以設置一個彈幕平面,該彈幕平面可以稱為單目彈幕平面。而使用者在下雙目成像區域23可以區分不同深度,因此可以在雙目成像區域23設置多個彈幕平面,在雙目成像區域23設置的彈幕平面可以稱為雙目彈幕平面。
由於多個彈幕平面在三維空間場景中的深度不同,因此在不同的彈幕平面上呈現彈幕的情況下,彈幕之間的深度也不同。例如,第4圖之方法中的第一彈幕可以在第6圖中的第三彈幕平面61上呈現,第二彈幕可以在第6圖中的第四彈幕平面62上呈現。換句話說,第一彈幕呈現的第一位 置位於第三彈幕平面61,第二彈幕呈現的第二位置位於第四彈幕平面62,因此第一位置和第二位置的深度不同。
又例如,在第4圖之方法中,當檢測到使用者注視點所在的目標彈幕時,可以將目標彈幕在所述三維空間場景中的呈現位置從第三位置更改至第四位置,該第三位置可以位於第6圖中的第四彈幕平面62,第四位置可以位於第6圖中的第三彈幕平面61,因此第四位置比第三位置在深度方向上更靠近攝影機平面71。或者說,從使用者視角的來看,第四位置比第三位置更靠近表徵使用者眼睛的左右虛擬攝影機。
又例如,在第4圖之方法中,基於所述三維空間場景中的第一預設軌跡呈現第三彈幕,所述第一預設軌跡經過第五位置和第六位置。該第三彈幕可以從三維空間場景的一側向另一側進行滾動播放。滾動播放可以指彈幕在三維空間場景中根據預定的時間和預定的軌跡進行移動顯示。例如,第三彈幕可以首先通過第6圖中的第五彈幕平面63進行滾動播放,當第三彈幕經過第四彈幕平面62在第五彈幕平面63的投影區域時,可以設置第三彈幕轉至第四彈幕平面62進行滾動播放。從而第五位置可以位於第五彈幕平面63,第六位置可以位於第四彈幕平面62,因此第五位置和第六位置在三維空間場景中的深度不同。
需要說明的是,同一彈幕也可以不局限於在同一彈幕平面的範圍內播放。同一彈幕的播放軌跡也可以經過不同的彈幕平面。例如,第一彈幕可以在滾動播放過程中通過第三彈幕平面61和第四彈幕平面62。
本揭示一些實施例中,還可以利用眼球追蹤技術,根據使用者的眼球方向(1,θ,φ)顯示彈幕。具體地,可以包括第四部分和第五部分的內容:
第四部分:通過頭戴式顯示裝置11上的眼球追蹤設備,獲得在當前時間使用者眼球的方向為(1,θ,φ)。
第五部分:基於使用者眼球方向(1,θ,φ)以及一些參數資 訊(例如FOV資訊)獲得在此眼球方向下的雙目成像區域23。在雙目成像區域23,可以按照一定的距離規則在距離左右兩個虛擬攝影機不同的深度的位置放置一系列的雙目彈幕平面。例如,上述距離規則可以是在深度方向上的固定的距離間距,或者採用其他距離規則,本揭示實施例不做具體限定。
第6圖和第7圖分別從不同角度示出了攝影機平面71、彈幕平面和視覺平面64的位置關係。上述攝影機平面71即左虛擬攝影機21及右虛擬攝影機22所在的平面。上述彈幕平面例如可以包括第三彈幕平面61、第四彈幕平面62、第五彈幕平面63。如第6圖所示,可以根據左虛擬攝影機21及右虛擬攝影機22的視角以及幾何關係可得到雙目成像區域23和單目成像區域24。在雙目成像區域23中,根據所設定的彈幕平面數量與距離間隔,可得到多個面積大小不同的彈幕平面。所述彈幕平面數量與距離間隔可根據使用者需求進行定義。例如,第6圖和第7圖的彈幕平面包括第三彈幕平面61、第四彈幕平面62、第五彈幕平面63。需要注意的是,作為一個例子,視覺平面64也可以包括彈幕平面(例如,第五彈幕平面63)。或者,視覺平面64也可以不用作彈幕平面。在一些實施例中,第五彈幕平面63的面積大小可以與視覺平面64的面積大小相同,也可以小於視覺平面64的面積大小。視覺平面64可以是使用者的最佳視距所在位置的平面。該最佳視距可以是根據虛擬實境系統參數確定的。在第6圖和第7圖中,第三彈幕平面61和第四彈幕平面62位於雙目成像區域23中。第五彈幕平面63中的部分區域位元於單目成像區域24中,且另一部分區域位於雙目成像區域23中。在單目成像區域24中可以設置一個彈幕平面。或者說,在單目成像區域24中,彈幕可以在同一深度的位置進行顯示。
本揭示實施例對彈幕平面的面積大小的設置不作限定。例如,可以將彈幕平面的面積設置為隨著距離攝影機平面71的距離的增大而增大。或者,也可以將各彈幕平面的面積大小設置為相同。
在本揭示一些實施例中,以彈幕平面為例說明瞭彈幕的呈現方式。需要注意的是,採用彈幕平面呈現彈幕只是例示的一種表現方式。本揭示實施例中的彈幕呈現的軌跡可以不局限於彈幕平面進行呈現。彈幕也可以根據三維空間場景中的任何軌跡呈現。
第六部分:VR設備10可以根據預設規則和從伺服器31獲取的彈幕資料,將彈幕投射到彈幕平面上進行呈現。
本揭示實施例對顯示彈幕的預設規則不作限定。作為一個具體示例,假設第一彈幕平面51和第二彈幕平面52是三維空間場景中用於顯示彈幕的任意兩個彈幕平面,並且第一彈幕平面51距離攝影機平面的距離小於第二彈幕平面52距離攝影機平面的距離,則可以設置第一彈幕平面51上的彈幕的字型大小小於第二彈幕平面52的字型大小;或者,可以設置第一彈幕平面51上的彈幕的滾動速度小於第二彈幕平面52上的彈幕的滾動速度;或者,可以設置第一彈幕平面51上的彈幕的文字對比度大於第二彈幕平面52上的彈幕的文字對比度。
本揭示實施例對VR設備10投射彈幕的預設規則不作限定,作為一個具體示例,可以設置投射規則為以下幾種: 隨機均勻分佈原則:即所有的彈幕都隨機、均勻地投射到多個彈幕平面上。
使用者等級優先原則:即使用者等級高的使用者發出的彈幕,可以優先顯示在與虛擬攝影機距離更近的彈幕平面上。
滾動播放、自動提前原則:彈幕可以從距離虛擬攝影機最遠的彈幕平面的一側開始出現,向彈幕平面另外一側滾動播放。如果彈幕經過前方彈幕平面在當前彈幕平面的投影區域,並且前方彈幕平面彈幕數量未達上限的時候,則可以將這條彈幕則會轉到前方彈幕平面上進行滾動播放。
第七部分:VR設備10可以利用眼球追蹤單元14獲取使用者 的注視點,並根據使用者的注視點選取彈幕,並更改彈幕的顯示方式,以對彈幕進行優化顯示。
作為一個具體示例,每一條彈幕都會對應一個選擇回應區,當確定使用者的注視點落在某條彈幕上時,可以對該條或附近的幾條彈幕進行優化顯示。優化顯示的方法包括多種方式。上述選擇回應區可以指每一個彈幕存在的碰撞熱區,而眼睛的注視點也會是一個選擇器,當選擇器進入碰撞熱區之後,就會觸發回應。例如,若選中的彈幕不在距離最近的彈幕平面上,則可以把該彈幕提前到距離最近的彈幕平面。或者,還可以將該彈幕的背景進行高斯模糊化處理,以加強文字對比度。或者,還可以降低該彈幕的滾動速度。
下文結合附圖,詳細介紹本揭示實施例的用於顯示彈幕的裝置。
第8圖是本揭示實施例的用於顯示彈幕的裝置800的示意圖。用於顯示彈幕的裝置800可以包括第1圖中的計算處理單元13,或者,用於顯示彈幕的裝置800也可以包括第1圖中的VR設備10。如第8圖所示,用於顯示彈幕的裝置800包括:播放單元810和處理單元820。
所述播放單元810用於在虛擬的三維空間場景中播放畫面;所述處理單元820用於在所述三維空間場景中的第一位置呈現第一彈幕;以及在所述三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述三維空間場景中的深度不同。
在本揭示實施例中,在虛擬的三維空間場景中播放畫面時,可以在三維空間場景的不同的深度呈現彈幕,從而能夠更好的區分不同的彈幕,提高了在虛擬實境系統中顯示彈幕的品質,提高了使用者的閱讀體驗,同時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
作為一個示例,在用於顯示彈幕的裝置800中,所述處理單 元820還用於獲取使用者的注視點;以及從所述三維空間場景的彈幕中選取位於所述注視點的目標彈幕;以及更改所述目標彈幕的顯示方式。
作為一個示例,在用於顯示彈幕的裝置800中,在所述更改所述目標彈幕的顯示方式中,所述處理單元820具體用於將所述目標彈幕在所述三維空間場景中的呈現位置從第三位置更改至第四位置,所述第四位置與使用者視角在深度方向的距離小於所述第三位置與所述使用者視角在深度方向的距離。
作為一個示例,在用於顯示彈幕的裝置800中,所述第一位置與使用者視角在深度方向的距離大於所述第二位置與所述使用者視角在深度方向的距離,所述第一彈幕的字型大小大於所述第二彈幕的字型大小;或者,所述第一彈幕的滾動速度大於所述第二彈幕的滾動速度;或者,所述第一彈幕的文字對比度小於所述第二彈幕的文字對比度。
作為一個示例,在用於顯示彈幕的裝置800中,所述處理單元820還用於基於所述三維空間場景中的第一預設軌跡呈現第三彈幕,所述第一預設軌跡經過第五位置和第六位置,所述第五位置和所述第六位置在所述三維空間場景中的深度不同。
作為一個示例,在用於顯示彈幕的裝置800中,所述三維空間場景包括雙目成像區域和單目成像區域,在所述雙目成像區域呈現的彈幕位於所述三維空間場景中的不同深度的位置,在所述單目成像區域呈現的彈幕位於所述三維空間場景中的相同深度的位置。
第9圖是本揭示實施例的用於顯示彈幕的裝置的示意圖。該用於顯示彈幕的裝置900可以包括第1圖的計算處理單元13。或者,該用於顯示彈幕的裝置900可以包括第1圖的VR設備10。例如,用於顯示彈幕的裝置900可以包括智慧手機、平板電腦、桌上型電腦、筆記型電腦或其他可以進行計算的智慧設備。
第9圖的用於顯示彈幕的裝置900包括:記憶體910,用於儲 存程式;以及處理器920,與所述記憶體910和顯示器分別相連,用於執行所述記憶體910儲存的所述程式,當所述程式被執行時,所述處理器920用於通過所述顯示器在虛擬的三維空間場景中播放畫面;以及用於通過所述顯示器在所述三維空間場景中的第一位置呈現第一彈幕;以及在所述三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述三維空間場景中的深度不同。
在本揭示實施例中,在虛擬的三維空間場景中播放畫面時,可以在三維空間場景的不同的深度呈現彈幕,從而能夠更好的區分不同的彈幕,提高了在虛擬實境系統中顯示彈幕的品質及使用者的閱讀體驗,同時還有效利用了伺服器以及VR設備的硬體資源和網路資源,實現了更為豐富的功能。
在一些實施例中,上述顯示器可以是用於顯示虛擬實境畫面的設備。例如,顯示器可以是第1圖中的頭戴式顯示裝置11。顯示器可以設置於用於顯示彈幕的裝置900之中,也可以為獨立的設備。當顯示器作為獨立的設備時,顯示器與用於顯示彈幕的裝置900之間可以通過有線或無線的方式連接。
作為一個示例,所述用於顯示彈幕的裝置900還包括所述顯示器。
作為一個示例,在用於顯示彈幕的裝置900中,所述處理器920還用於獲取使用者的注視點;從所述三維空間場景的彈幕中選取位於所述注視點的目標彈幕;通過所述顯示器更改所述目標彈幕的顯示方式。
作為一個示例,在用於顯示彈幕的裝置900中,在所述更改所述目標彈幕的顯示方式中,所述處理器920具體用於通過所述顯示器將所述目標彈幕在所述三維空間場景中的呈現位置從第三位置更改至第四位置,所述第四位置與使用者視角在深度方向的距離小於所述第三位置與所述使用者視角在深度方向的距離。
作為一個示例,在用於顯示彈幕的裝置900中,所述第一位置與使用者視角在深度方向的距離大於所述第二位置與所述使用者視角在深度方向的距離,所述第一彈幕的字型大小大於所述第二彈幕的字型大小;或者,所述第一彈幕的滾動速度大於所述第二彈幕的滾動速度;或者,所述第一彈幕的文字對比度小於所述第二彈幕的文字對比度。
作為一個示例,在用於顯示彈幕的裝置900中,所述處理器920還用於通過所述顯示器基於所述三維空間場景中的第一預設軌跡呈現第三彈幕,所述第一預設軌跡經過第五位置和第六位置,所述第五位置和所述第六位置在所述三維空間場景中的深度不同。
作為一個示例,在用於顯示彈幕的裝置900中,所述三維空間場景包括雙目成像區域和單目成像區域,在所述雙目成像區域呈現的彈幕位於所述三維空間場景中的不同深度的位置,在所述單目成像區域呈現的彈幕位於所述三維空間場景中的相同深度的位置。
本揭示所屬技術領域中具有通常知識者可以意識到,結合本文中所公開的實施例描述的各示例的單元及演算法步驟,能夠以電子硬體、或者電腦軟體和電子硬體的結合來實現。這些功能究竟以硬體還是軟體方式來執行,取決於技術方案的特定應用和設計約束條件。本揭示所屬技術領域中具有通常知識者可以對每個特定的應用來使用不同方法來實現所描述的功能,但是這種實現不應認為超出本揭示的範圍。
本揭示所屬技術領域中具有通常知識者可以清楚地瞭解到,為了描述的方便和簡潔,上述描述的系統、裝置和單元的具體工作過程,可以參考前述方法實施例中的對應過程,在此不再贅述。
在本揭示所提供的幾個實施例中,應該理解到,所揭露的系統、裝置和方法,可以通過其它的方式實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或元件可以結合或者可 以整合到另一個系統,或一些特徵可以忽略,或不執行。另一點,所呈現或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些介面,裝置或單元的間接耦合或通信連接,可以是電性、機械或其它的形式。
所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元呈現的部件可以是或者也可以不是物理單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部單元來實現本實施例方案的目的。
另外,在本揭示各個實施例中的各功能單元可以整合在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。
所述功能如果以軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以儲存在一個非易失性電腦可讀儲存介質中。基於這樣的理解,本揭示的技術方案本質上或者說對習知技術做出貢獻的部分或者該技術方案的部分可以以軟體產品的形式體現出來,該電腦軟體產品儲存在一個儲存介質中,包括若干指令用以使得一台電腦設備(可以是個人電腦、伺服器、或者網路設備等)執行本揭示各個實施例所述方法的全部或部分步驟。而前述的儲存介質包括:U盤、移動硬碟、唯讀記憶體(Read-Only Memory,ROM)、隨機存取記憶體(Random Access Memory,RAM)、磁碟或者光碟等各種可以儲存程式碼的介質。
雖然本揭示已用較佳實施例揭露如上,然其並非用以限定本揭示,本揭示所屬技術領域中具有通常知識者在不脫離本揭示之精神和範圍內,當可作各種之更動與潤飾,因此本揭示之保護範圍當視後附之申請專利範圍所界定者為準。

Claims (19)

  1. 一種用於顯示彈幕的方法,適用於一虛擬實境設備,所述方法包括:在虛擬的三維空間場景中播放畫面;在所述虛擬的三維空間場景中的第一位置呈現第一彈幕;以及在所述虛擬的三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述虛擬的三維空間場景中的深度不同,其中所述虛擬的三維空間場景包括雙目成像區域和單目成像區域,在所述雙目成像區域呈現的彈幕位於所述虛擬的三維空間場景中的不同深度的位置,在所述單目成像區域呈現的彈幕位於所述虛擬的三維空間場景中的相同深度的位置。
  2. 如申請專利範圍第1項所述之方法,還包括:獲取注視點;從所述虛擬的三維空間場景的彈幕中選取位於所述注視點的目標彈幕;以及更改所述目標彈幕的顯示方式。
  3. 如申請專利範圍第2項所述之方法,其中所述更改所述目標彈幕的顯示方式包括:將所述目標彈幕在所述虛擬的三維空間場景中的呈現位置從第三位置更改至第四位置,所述第四位置與使用者視角在深度方向上的距離小於所述第三位置與所述使用者視角在深度方向上的距離,其中所述使用者視角是所述虛擬的三維空間場景中使用者眼睛所在的位置。
  4. 如申請專利範圍第1至3項任一項所述之方法,其中所述第一位置與使用者視角在深度方向上的距離大於所述第二位置與所述使用者視角在深度方向上的距離,所述第一彈幕的字型大小大於所述第二彈幕的字型大小;或者,所述第一彈幕的滾動速度大於所述第二彈幕的滾動速度;或者,所述第一彈幕的文字對比度小於所述第二彈幕的文字對比度。
  5. 如申請專利範圍第1項所述之方法,其中所述雙目成像區域呈現的彈幕位於雙目彈幕平面上,所述雙目彈幕平面位於使用者視角的平面與視覺平面之間並與所述視覺平面平行;以及所述單目成像區域呈現的彈幕位於單目彈幕平面上,所述單目彈幕平面與所述視覺平面重疊。
  6. 如申請專利範圍第5項所述之方法,其中所述視覺平面是最佳視距所在的位置的平面。
  7. 如申請專利範圍第5項所述之方法,其中所述單目彈幕平面的面積小於所述視覺平面的面積,所述雙目彈幕平面的面積小於所述單目彈幕平面的面積;以及當所述雙目成像區域包括至少兩個所述雙目彈幕平面時,所述雙目彈幕平面的深度越深,其面積就越大。
  8. 如申請專利範圍第1至3項任一項所述之方法,還包括:基於所述虛擬的三維空間場景中的第一預設軌跡呈現第三彈幕,所述第一預設軌跡經過第五位置和第六位置,所述第五位置和所述第六位置在所述三維空間場景中的深度不同。
  9. 如申請專利範圍第8項所述之方法,其中所述第五位置位於所述單目彈幕平面,所述第六位置位於所述雙目彈幕平面,所述單目彈幕平面的深度大於所述雙目彈幕平面的深度,所述方法進一步包括;當所述第三彈幕經過所述雙目彈幕平面在所述單目彈幕平面的投影區時,如果所述雙目彈幕平面上的彈幕數量未達到預設值時,使所述第三彈幕切換到所述雙目彈幕平面上呈現。
  10. 一種用於顯示彈幕的裝置,適用於一虛擬實境設備,所述裝置包括:一記憶體,儲存有電腦可讀指令;以及一處理器,執行所述電腦可讀指令以用於:在虛擬的三維空間場景中播放畫面;在所述虛擬的三維空間場景中的第一位置呈現第一彈幕;以及在所述虛擬的三維空間場景中的第二位置呈現第二彈幕,其中所述第一位置和所述第二位置在所述虛擬的三維空間場景中的深度不同,其中所述虛擬的三維空間場景包括雙目成像區域和單目成像區域,在所述雙目成像區域呈現的彈幕位於所述三維空間場景中的不同深度的位置,在所述單目成像區域呈現的彈幕位於所述三維空間場景中的相同深度的位置。
  11. 如申請專利範圍第10項所述之裝置,其中所述處理器進一步執行所述電腦可讀指令以用於:獲取注視點;從所述虛擬的三維空間場景的彈幕中選取位於所述注視點的目標彈幕;以及更改所述目標彈幕的顯示方式。
  12. 如申請專利範圍第11項所述之裝置,其中在所述更改所述目標彈幕的顯示方式中,所述處理器進一步執行所述電腦可讀指令以用於:將所述目標彈幕在所述虛擬的三維空間場景中的呈現位置從第三位置更改至第四位置,所述第四位置與使用者視角在深度方向上的距離小於所述第三位置與所述使用者視角在深度方向上的距離,其中所述使用者視角是所述虛擬的三維空間場景中使用者眼睛所在的位置。
  13. 如申請專利範圍第10至12項任一項所述之裝置,其中所述第一位置與使用者視角在深度方向上的距離大於所述第二位置與所述使用者視角在深度方向上的距離,所述第一彈幕的字型大小大於所述第二彈幕的字型大小;或者,所述第一彈幕的滾動速度大於所述第二彈幕的滾動速度;或者,所述第一彈幕的文字對比度小於所述第二彈幕的文字對比度。
  14. 如申請專利範圍第10項所述之裝置,其中所述雙目成像區域呈現的彈幕位於雙目彈幕平面上,所述雙目彈幕平面位於使用者視角的平面與視覺平面之間並與所述視覺平面平行;以及所述單目成像區域呈現的彈幕位於單目彈幕平面上,所述單目彈幕平面與所述視覺平面重疊。
  15. 如申請專利範圍第14項所述之裝置,其中所述視覺平面是最佳視距所在的位置的平面。
  16. 如申請專利範圍第14項所述之裝置,其中所述單目彈幕平面的面積小於所述視覺平面的面積,所述雙目彈幕平面的面積小於所述單目彈幕平面的面積;以及當所述雙目成像區域包括至少兩個所述雙目彈幕平面時,所述雙目彈幕平面的深度越深,其面積就越大。
  17. 如申請專利範圍第10至12項任一項所述之裝置,其中所述處理器進一步執行所述電腦可讀指令以用於:基於所述三維空間場景中的第一預設軌跡呈現第三彈幕,所述第一預設軌跡經過第五位置和第六位置,所述第五位置和所述第六位置在所述三維空間場景中的深度不同。
  18. 如申請專利範圍第17項所述之裝置,其中所述第五位置位於所述單目彈幕平面,所述第六位置位於所述雙目彈幕平面,所述單目彈幕平面的深度大於所述雙目彈幕平面的深度;所述處理器進一步執行所述電腦可讀指令以用於:當所述第三彈幕經過所述雙目彈幕平面在所述單目彈幕平面的投影區時,如果所述雙目彈幕平面上的彈幕數量未達到預設值時,使所述第三彈幕切換到所述雙目彈幕平面上呈現。
  19. 一種非易失性電腦可讀儲存介質,儲存有電腦可讀指令,以使至少一處理器執行如申請專利範圍第1至9項任一項所述之方法。
TW107116492A 2017-06-02 2018-05-15 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 TWI669635B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710412093.2A CN109246463B (zh) 2017-06-02 2017-06-02 用于显示弹幕的方法和装置
??201710412093.2 2017-06-02

Publications (2)

Publication Number Publication Date
TW201903565A TW201903565A (zh) 2019-01-16
TWI669635B true TWI669635B (zh) 2019-08-21

Family

ID=64454885

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107116492A TWI669635B (zh) 2017-06-02 2018-05-15 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質

Country Status (4)

Country Link
US (1) US10846927B2 (zh)
CN (1) CN109246463B (zh)
TW (1) TWI669635B (zh)
WO (1) WO2018219091A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231867A (zh) * 2019-05-31 2019-09-13 重庆爱奇艺智能科技有限公司 在虚拟现实设备中调整弹幕的显示属性的方法和装置
US11039116B2 (en) * 2019-10-29 2021-06-15 Htc Corporation Electronic device and subtitle-embedding method for virtual-reality video
CN111225287A (zh) * 2019-11-27 2020-06-02 网易(杭州)网络有限公司 一种弹幕处理的方法及装置、电子设备、存储介质
CN112929631B (zh) * 2019-12-05 2024-03-19 北京芯海视界三维科技有限公司 用于在3d视频中显示弹幕的方法和设备、3d显示设备
CN111131910B (zh) * 2020-01-02 2022-04-12 广州虎牙科技有限公司 弹幕实现方法、装置、电子设备和可读存储介质
CN113938723B (zh) * 2020-06-29 2023-07-21 大众问问(北京)信息科技有限公司 弹幕的播放方法、装置及设备
CN111726676B (zh) * 2020-07-03 2021-12-14 腾讯科技(深圳)有限公司 基于视频的图像生成方法、显示方法、装置以及设备
CN116260986A (zh) * 2021-12-10 2023-06-13 华为技术有限公司 自由视角视频的弹幕的显示方法、装置及***
CN117197400A (zh) * 2022-05-31 2023-12-08 北京字跳网络技术有限公司 信息交互方法、装置、电子设备和存储介质
CN117201855A (zh) * 2022-05-31 2023-12-08 北京字跳网络技术有限公司 信息的显示方法、装置、终端和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105916001A (zh) * 2016-05-12 2016-08-31 乐视控股(北京)有限公司 弹幕显示方法和装置
CN106156240A (zh) * 2015-04-27 2016-11-23 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106162303A (zh) * 2015-04-27 2016-11-23 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106162370A (zh) * 2015-04-27 2016-11-23 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3747884B2 (ja) * 2002-05-23 2006-02-22 ソニー株式会社 コンテンツ記録再生装置及びコンテンツ記録再生方法、並びにコンピュータ・プログラム
EP1665815A2 (de) * 2003-09-15 2006-06-07 Armin Grasnick Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit rumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
JP4832826B2 (ja) * 2005-07-26 2011-12-07 任天堂株式会社 オブジェクト制御プログラムおよび情報処理装置
JP2009049751A (ja) * 2007-08-21 2009-03-05 Toshiba Corp 立体画像表示装置
US20090085918A1 (en) * 2007-10-02 2009-04-02 Crawford Adam Hollingworth Method and device for creating movies from still image data
US9191238B2 (en) * 2008-07-23 2015-11-17 Yahoo! Inc. Virtual notes in a reality overlay
KR101596890B1 (ko) * 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
CN202038432U (zh) 2011-03-02 2011-11-16 中国舰船研究设计中心 船用液压航态调整装置
US20140181630A1 (en) * 2012-12-21 2014-06-26 Vidinoti Sa Method and apparatus for adding annotations to an image
KR102188149B1 (ko) * 2014-03-05 2020-12-07 삼성메디슨 주식회사 3차원 영상을 디스플레이하는 방법 및 그 디스플레이 장치
US10055888B2 (en) * 2015-04-28 2018-08-21 Microsoft Technology Licensing, Llc Producing and consuming metadata within multi-dimensional data
CN104936035B (zh) * 2015-06-19 2018-04-17 腾讯科技(北京)有限公司 一种弹幕处理方法及***
US9898865B2 (en) * 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
CN106454535B (zh) * 2015-08-20 2020-09-11 腾讯科技(北京)有限公司 一种弹幕评论信息处理方法、客户端、服务器及存储介质
CN205038432U (zh) * 2015-08-21 2016-02-17 广州弹幕网络科技有限公司 一种弹幕影院
US10725316B2 (en) * 2016-02-22 2020-07-28 Jay Song Optical stereoscopic display screen for naked eye viewing
CN106210861B (zh) * 2016-08-23 2020-08-07 上海幻电信息科技有限公司 显示弹幕的方法及***
CN106331879B (zh) * 2016-08-26 2019-12-31 传线网络科技(上海)有限公司 基于全景视频的弹幕显示方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156240A (zh) * 2015-04-27 2016-11-23 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106162303A (zh) * 2015-04-27 2016-11-23 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106162370A (zh) * 2015-04-27 2016-11-23 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN105916001A (zh) * 2016-05-12 2016-08-31 乐视控股(北京)有限公司 弹幕显示方法和装置

Also Published As

Publication number Publication date
US20190392636A1 (en) 2019-12-26
CN109246463A (zh) 2019-01-18
TW201903565A (zh) 2019-01-16
CN109246463B (zh) 2020-06-26
US10846927B2 (en) 2020-11-24
WO2018219091A1 (zh) 2018-12-06

Similar Documents

Publication Publication Date Title
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
JP6058184B1 (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6097377B1 (ja) 画像表示方法及びプログラム
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US20120200667A1 (en) Systems and methods to facilitate interactions with virtual content
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
US20130141419A1 (en) Augmented reality with realistic occlusion
US12022357B1 (en) Content presentation and layering across multiple devices
US20170195664A1 (en) Three-dimensional viewing angle selecting method and apparatus
WO2014085092A1 (en) System and method for generating 3-d plenoptic video images
US20180169517A1 (en) Reactive animation for virtual reality
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
JP6294054B2 (ja) 映像表示装置、映像提示方法及びプログラム
WO2016169409A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
CN109799899B (zh) 交互控制方法、装置、存储介质和计算机设备
WO2017062730A1 (en) Presentation of a virtual reality scene from a series of images
US11287881B2 (en) Presenting images on a display device
US11187895B2 (en) Content generation apparatus and method
EP3542877A1 (en) Optimized content sharing interaction using a mixed reality environment
US20220405996A1 (en) Program, information processing apparatus, and information processing method
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
KR101741149B1 (ko) 가상 카메라의 시점 제어 방법 및 장치
JP2017097918A (ja) 画像表示方法及びプログラム
US20230290081A1 (en) Virtual reality sharing method and system
JP2017162443A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム