TW201349844A - 產生裸眼3d效果之方法 - Google Patents

產生裸眼3d效果之方法 Download PDF

Info

Publication number
TW201349844A
TW201349844A TW101118435A TW101118435A TW201349844A TW 201349844 A TW201349844 A TW 201349844A TW 101118435 A TW101118435 A TW 101118435A TW 101118435 A TW101118435 A TW 101118435A TW 201349844 A TW201349844 A TW 201349844A
Authority
TW
Taiwan
Prior art keywords
image
eye
user
processing unit
image processing
Prior art date
Application number
TW101118435A
Other languages
English (en)
Inventor
Ching-Fuh Lin
Original Assignee
Univ Nat Taiwan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Taiwan filed Critical Univ Nat Taiwan
Priority to TW101118435A priority Critical patent/TW201349844A/zh
Priority to US13/900,760 priority patent/US20130314406A1/en
Publication of TW201349844A publication Critical patent/TW201349844A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本發明提供一種產生裸眼3D效果之方法,特別是有關一種不需使用全像片、3D立體眼鏡以及特殊光學膜即可產生裸眼3D效果之方法。該方法包含下列步驟:(1) 藉由一偵測單元偵測一手持裝置的旋轉角度或移動位置;(2)藉由一影像處理單元,而依據此手持裝置的旋轉角度或移動位置,而對一顯示器畫面上所顯示物體影像進行處理,以依據此手持裝置的旋轉角度或移動位置而建立一個該物體經過旋轉或移動的影像;以及(3)將此物體經過旋轉或移動的影像取代原先的物體影像,而顯示於顯示器畫面上,而呈現此物體不同視角的影像。此方法藉由在不同的時間呈現同一物體不同視角的影像,讓大腦自覺地將該影像視為一3D影像,而達成裸眼3D的效果。

Description

產生裸眼3D效果之方法
  本發明係關於一種產生裸眼3D效果之方法,特別是有關一種不需使用全像片與3D立體眼鏡以及特殊光學膜即可產生裸眼3D效果之方法。
  隨著人們對視覺效果的要求越來越高,3D視覺效果逐漸地被廣泛地運用於各種電子產品,例如手機、PDA、筆記型電腦、平面顯示器等。目前常用的3D技術,大多是採用全像片(Display Hologram)或是左右眼影像疊合技術。其中,全像片製作,往往涉及複雜的光學運算,或是藉由光的干涉才能達到立體影像的功能,也因此其在製作上顯得較為繁複與困難,導致其在製作成本與時間上過高而難以普及。因此,左右眼影像疊合技術是目前較為廣泛使用的立體影像技術。
    左右眼影像疊合技術大致分為兩類:一類是使用3D立體眼鏡,另一類是使用特殊的光學膜。左右眼影像疊合技術是利用顯示裝置同時於畫面上顯示左眼影像與右眼影,並讓觀看者配戴3D立體眼鏡或製作特殊光學膜於顯示裝置螢幕上,使得左眼影像的光線只傳遞到使用者的左眼,而被左眼所接收並投射於視網膜上,而右眼影像的光線只傳遞到使用者的右眼,而被右眼所接收並投射於視網膜上。實際上投射在視網膜上的左眼影像與右眼影像仍然為2D影像,藉由大腦自動將左眼影像與右眼影重疊,並將眼睛聚焦點(focus point)的左右眼影像調整為一致,而產生3D影像,但是,實際上投射在視網膜上的左眼影像與右眼影像仍然為2D影像,只是藉由大腦的左右眼視差的調整而產生一虛擬的3D影像,而達到3D的效果。
  然而,配戴3D立體眼鏡對於使用者來說,既笨重、麻煩,又不方便,特別是對於原本就配戴近視眼鏡的使用者來說,更是非常不方便。在製作特殊光學膜於顯示裝置螢幕上此一做法,雖然不需要配戴眼鏡,但是此一類特殊光學膜的製作非常不容易,並且因為每個人的左右眼距離不同,使得其所能達成的3D影像效果,往往因人而異。有鑑於目前的3D的缺點,因此亟需要一種可以不需要全像片、3D立體眼鏡、特殊光學膜即可以讓眼睛看到3D影像的方法。
  本發明之一目的為提供一種產生裸眼3D效果之方法,其可以應用於一手持裝置上,例如手機、PDA、平板電腦、衛星導航等,而在不需要全像片、3D立體眼鏡、以及特殊光學膜的情況下,提供3D影像給使用者。
  本發明之另一目的為提供一種產生裸眼3D效果之方法,可以不需使用全像片、3D立體眼鏡、以及特殊光學膜等製作困難或使用起來不方便的元件,即可以讓使用者看到立體影像,進而降低產生裸眼3D效果所需的成本與難度。
  根據本發明之一目的,本發明提供一產生裸眼3D效果之方法,此方法應用於一手持裝置,其包含下列步驟:(1)藉由一偵測單元偵測手持裝置的旋轉角度或移動位置;(2)藉由一影像處理單元,而依據手持裝置的旋轉角度或移動位置,對一顯示器畫面上所顯示的物體影像進行處理,進而依據該手持裝置的旋轉角度或移動位置而建立一個經過旋轉或移動的該物體影像;以及(3)將經過旋轉或移動的該物體影像顯示於顯示器畫面上,而呈現該物體不同視角的影像。藉由對應手持裝置的轉動與位移,而在不同的時間呈現同一物體不同視角的影像,使得2D影像隨著時間而變化,讓大腦透過其記憶自動地比較不同時間點所呈現的同一物體的影像之間的差異,而認知其為一3D影像,而達成裸眼3D的效果。
  根據本發明之另一目的,本發明提供一產生裸眼3D效果之方法,其包含下列步驟:(1) 藉由一偵測單元偵測使用者的移動位置與距離,或偵測使用者的眼球的移動位置與距離;(2) 藉由一影像處理單元,而依據使用者的移動位置與距離,或使用者的眼球的移動位置與距離,對一顯示器畫面上所顯示的物體影像進行處理,且依據使用者的移動位置與距離,或使用者的眼球的移動位置與距離,而建立一個經過旋轉或移動的物體影像;以及(3)將經過旋轉或移動的物體影像顯示於顯示器畫面上,而呈現該物體不同視角的影像。藉由對應使用者的移動或使用者的眼球的移動,而在不同的時間呈現同一物體不同視角的影像,使得2D影像隨著時間而變化,讓大腦透過其記憶自動地比較不同時間點所呈現的同一物體的影像之間的差異,而認知其為一3D影像,而達成裸眼3D的效果。
  因此,本發明提供了一種產生裸眼3D效果之方法,其以時間為縱軸,利用大腦會自動地比較不同時間點的同一物體的影像間的差異,讓大腦可以自發性地認定顯示器螢幕所顯示的該物體影像為一3D影像,而在不需要全像片、3D立體眼鏡、以及特殊光學膜的情況下即產生裸眼3D的效果,進而降低產生裸眼3D效果所需的成本與難度。
  本發明的一些實施例詳細描述如下。然而,除了該詳細描述外,本發明還可以廣泛地在其他的實施例施行。亦即,本發明的範圍不受已提出之實施例的限制,而以本發明提出之申請專利範圍為準。其次,當本發明之實施例圖示中的各元件或步驟以單一元件或步驟描述說明時,不應以此作為有限定的認知,即如下之說明未特別強調數目上的限制時本發明之精神與應用範圍可推及多數個元件或結構並存的結構與方法上。再者,在本說明書中,各元件之不同部分並沒有完全依照尺寸繪圖,某些尺度與其他相關尺度相比或有被誇張或是簡化,以提供更清楚的描述以增進對本發明的理解。而本發明所沿用的現有技藝,在此僅做重點式的引用,以助本發明的闡述。
  這個世界為一個4D的世界,即包含(X,Y,Z,t)等軸的世界,其中(X,Y,Z)代表空間,而(t)代表時間,所謂的3D事實上是由4D所投影出來的。事實上,在人類大腦裡的3D並非為(X,Y,Z),嚴格來說應該是(X,Y,t),t的特徵是透過大腦的記憶,讓視覺的2D影像隨著時間變化,比較記憶中前後的影像差異,而被大腦認知為3D影像。隨著時間變化的參數可以是景深(相當於Z座標),或是視角,或是物體呈現出來的角度的改變,例如旋轉。
  人類在看東西的時候,左眼與右眼分別接收到同一物體的不同2D影像,即所謂的視差,其投影在視網膜也為2D影像,左右眼影像在大腦中會重疊,使得大腦將眼睛聚焦點(focus point)的影像調整為一致,但是離開聚焦點,同一物體仍然是具有左右眼不同的影像。之所以會產生立體的感覺是因為眼睛調整聚焦點的位置,所以聚焦點上的物體隨之改變,使得大腦重疊之影像隨著變化,也就是說,視覺的2D影像隨著時間而變化。因此,雖然是2D影像,但是影像的內容隨著時間變化,而在大腦中形成由空間2D(X,Y)與時間(t)所形成之3D影像,其中隨著時間變化的參數為景深或是視角。
  根據上述藉由眼睛與大腦互動,而在大腦中形成一由空間(即2D(X,Y))與時間(t)構成的3D立體影像,本發明提出一種產生裸眼3D效果的新方法,使得眼睛需要調整聚焦點的位置,而直接將眼睛聚焦點的位置上的所見之2D影像直接模擬為2D影像隨著時間變化,而符合大腦與眼睛互動產生立體感或3D立體影像的機制,進而誘使大腦直接認知其為3D影像。藉由本發明之方法所產生的3D影像,既使在一般的顯示裝置,即不會同時發送左眼影像與右眼影像的顯示裝置,大腦也會認知其所看的影像為一3D影像,所以不需要全像片、3D立體眼睛或是特殊光學膜,即可以得到3D效果,甚至是使用單眼也可以感受到3D效果,而完全有別於傳統的左右眼影像疊合技術。本發明之產生裸眼3D效果之方法的實施例配合圖示說明如下:
實施例一

  首先,本發明提供一種應用於手持裝置的產生裸眼3D效果之方法,手持裝置可以為手機、PDA、筆記型電腦、平板電腦、MP3等或其他任何手持裝置。第一圖為本發明所提供的應用於手持裝置的產生裸眼3D效果之方法的流程圖。實施此方法必需藉有一包含有手持裝置、可以偵測手持裝置的旋轉角度或是移動位置的偵測單元、影像處理單元、以及顯示器等元件的系統或是裝置。其中,偵測單元與影像處理單元以有線或是無限的方式連接並做為訊號的傳遞,而影像處理單元與顯示器以有線或是無限的方式連接並做為訊號的傳遞。參照第一圖,此應用於手持裝置的產生裸眼3D效果之方法包含下列步驟:(1)首先,藉由偵測單元偵測手持裝置的旋轉角度或是移動位置(步驟S10),並且偵測單元會將所測得的手持裝置的旋轉角度或是移動位置等資訊,以有線或是無線(訊號)傳送的方式傳送給影像處理單元。(2)接著,在影像處理單元接收到偵測單元傳送來的資訊後,藉由影像處理單元根據偵測單元所傳送來的資訊,即偵測單元所偵測到手持裝置的旋轉角度或是移動位置,對顯示器畫面或螢幕上所顯示的一物體影像進行處理(步驟S12),而建立一個此物體經過旋轉或移動的物體影像,即建立一個將顯示器畫面上原本顯示的物體旋轉一個角度或移動一個位置(或景深)的影像。換言之,就是影像處理單元根據手持裝置的旋轉角度或移動位置,而建立顯示器畫面所顯示的同一物體的不同視角或不同位置(或景深)的影像。(3)最後,在影像處理單元將此經過變更視角或位置(或景深)的物體影像傳送給顯示器後,藉由顯示器將此影像顯示於其畫面或螢幕上,使得使用者可以看到該物體不同視角或不同位置(或景深)的影像(步驟S14)。
    在上述本發明之應用於手持裝置的產生裸眼3D效果之方法中,由於使用者的一直都是注視著顯示器螢幕,特別是螢幕中所顯示的一物體影像,換言之,就是使用者眼睛的聚焦點位置一直停留在顯示器螢幕中的此一物體上而沒有改變,因此,在顯示器依據手持裝置的旋轉角度或移動位置,而呈現物體的不同視角或不同位置(或景深)的影像,會讓使用者的大腦認知其眼睛所觀察的的物體影像隨著時間而改變,而符合前述誘使大腦認知一影像為立體(3D)的原理,進而誘使使用者的大腦認知顯示器所顯示的此物體影像為一3D影像,即認知使用者眼睛看到的此物體影像為一3D立體影像。因此,藉由此一方法,只需要一般的顯示器,不但不需要全像片、特殊光學膜(可以將左眼影像與右眼影像分別傳送至使用者的左眼與右眼的光學膜),即可以產生3D效果,而使用者更不需要配戴任何3D立體眼鏡即可以眼睛看到此物體的立體影像,而達成裸眼3D效果。
    另外,為了讓使用者在手持裝置未旋轉或移動的狀況下,仍然可以將看到3D影像,所以在偵測單元偵測到手持裝置的旋轉角度或移動位置為零的時間達到一預設的時間,例如長達為五秒或五秒以上時,但不以此為限,即代表手持裝置在這段時間並未進行任何旋轉或移動,此時顯示器畫面會以每秒四下或少於四下的頻率,在左眼影像與右眼影像之間變換,而自動呈現顯示器螢幕中所顯示的物體的不同視角或位置(或景深)的影像,而依照前述原理產生3D效果。左眼影像是指將顯示器螢幕中的物體向右旋轉一個小角度後所呈現的該物體影像,模擬使用者在不自覺地輕微向左轉動或擺動頭部所看到得該物體影像,其顯示該物體左側的更多部份。右眼影像則是指將顯示器螢幕中的物體向左旋轉一個小角度後所呈現的該物體影像,模擬使用者在不自覺地輕微向右轉動或擺動頭部所看到得該物體影像,其顯示該物體左側的更多部份。因此,顯示器所顯示的影像以每秒四下或少於四下的頻率在左眼影像與右眼影像之間變換,就是模擬使用者不自覺地輕微的來回轉動或擺動頭部所看到的物體影像,而讓使用者在手持裝置未轉動或移動的狀況下,仍然可以隨著時間看到該物體影像的不同變化(例如不同視角、位置、或景深),而誘使大腦認知該物體影像為一3D影像,而達到裸眼3D的效果。
    本發明之應用於手持裝置的產生裸眼3D效果之方法所使用的手持裝置、偵測單元、影像處理單元、以及顯示器可以是全部都設置於同一物件上或是偵測單元、影像處理單元與顯示器直接整合於手持裝置上,而藉由有線或無線的方式(或無線訊號)在四者之間傳遞訊號或資訊。但是,手持裝置、偵測單元、影像處理單元、以及顯示器也可以是四者是完全分離的獨立個體,而藉由無線訊號方式在四者之間傳遞訊號或資訊。或是,手持裝置、偵測單元、影像處理單元、以及顯示器其中兩者設置或整合於同一物件上,例如手持裝置與偵測單元設置或整合於同一物件上、偵測單元與影像處理單元設置或整合於同一物件上、手持裝置與偵測單元設置或整合於同一物件上、或是影像處理單元與顯示器設置或整合於同一物件上等。或是,手持裝置、偵測單元、影像處理單元、以及顯示器其中三者設置或整合於同一物件上,例如手持裝置、影像處理單元、以及顯示器都設置於同一物件上或是偵測單元。另外,手持裝置與影像處理單元可以設置於同一物件上,但是也可以設置於不同的物件上,而影像處理單元與顯示器可以設置於同一物件上,也可以設於不同的物件上。簡而言之,上述四者可以完全在同一物件,也可以完全分離,或是選任何其中之三者在同一物件,或是選任何其中之兩者在同一物件,而另外的二者為各自分離或這另外的二者在另一個物件上。若是彼此分離,則藉由有線或無線的方式(或無線訊號)在四者之間傳遞訊號或資訊。
    偵測單元可以為一旋轉角度偵測單元、移動位置偵測單元、動作感測器、影像擷取裝置、雷射光、偵測器模組、加速器(accelerator)、陀螺儀等偵測器或是其他可以偵測手持裝置的轉動角度與移動位置的偵測器。
    影像處理單元可以為一硬體裝置或是一軟體程式。此外,影像處理單元包含一左眼影像演算法(algorithm)以及一右眼影像演算法(algorithm)。左眼影像演用以對顯示器畫面中的該物體影像進行演算與處理而產生此物體的左眼影像,即該物體向右旋轉一個角度而呈現出此物體更多左側部份的(2D)影像或是完全呈現此該物體左側的(2D)影像。右眼影像演算法(algorithm)用以對顯示器畫面中的物體影像進行演算與處理而產生此物體的右眼影像,即該物體向左旋轉一個角度而呈現出此物體更多右側部份的(2D)影像或是完全呈現此該物體左側的(2D)影像。在前述步驟S12中,影像處理單元依據手持裝置的旋轉角度或移動位置,而將顯示器螢幕所顯示的此物體的左眼影像與右眼影像進行內插,得到此物體經過轉動或移動的影像,即將此物體的左眼影像與右眼影像依照旋轉或移動的方向以及旋轉角度的大小或移動距離的長短,進行內插計算處理而建立此物體的不同視角或位置(或景深)的影像。
    為了更清楚地說明本發明之應用於手持裝置的產生裸眼3D效果之方法,接下來將以一具有偵測單元、影像處理單元、以及顯示器的手機做為範例來加以說明,但是此範例僅做為說明之用,而非用以限縮本發明於本範例,而是還有其他不同的手持裝置以及不同手持裝置、偵測單元、影像處理單元、以及顯示器的配置方式可以實施本發明。
    第二圖顯示使用者以一將偵測單元、影像處理單元、以及顯示器都整合於其中的手機(或手持裝置)100實施本發明之產生裸眼3D效果之方法的示意圖。參照第二圖,使用者手持手機100,而手機100的螢幕102中顯示有一物體的(2D)影像104(如第三A圖所示)。當使用者將手機100向右旋轉一個角度,即依照箭頭106所示方向轉動一個角度,手機100藉由其內的偵測單元(圖中未示)偵測手機100的旋轉角度(即第一圖所示步驟S10),並將所測得向右旋轉角度以有線方式或是無線訊號傳遞給手機100內的影像處理單元(圖中未示)。
    在影像處理單元收到此旋轉將度後,根據此一旋轉角度的大小對原本螢幕102中所顯示的物體影像104進行計算處理(即第一圖所示之步驟S12)。若原本手機100、影像處理單元、或顯示器中已有原本螢幕102所顯示的物體影像104的所有影像資料(包含左眼影像與右眼影像),則直接依照偵測單元所偵測到手機100向右旋轉角度的大小,將左眼影像與右眼影像進行內插,而重新計算與建立出此物體向右旋轉一個角度後的影像。然後,如第一圖步驟S14,將此新建立的物體影像以有線或是無線(訊號)方式傳送給顯示器,而取代原先的物體影像而顯示於顯示器的螢幕中(如第三B圖)。參照第三B圖,此一新建立的影像104a比原本螢幕所顯示的物體影像104顯示或包含更多左側部份影像,而手機100向右的旋轉角度愈大,即偵測單元偵測到手機100向右的旋轉角度愈大,影像處理單元所建立的新物體影像104a所顯示或包含的物體左側部份的影像也會越多。
    若原本手機100、影像處理單元、或顯示器中未具有原本螢幕102所顯示的物體影像104的所有影像資料,特別是左眼影像與右眼影像,影像處理單元會先利用左眼影像演算法(algorithm)以及右眼影像演算法(algorithm)分別計算出左眼影像與右眼影像。然後,影像處理單元再利用計算出來的左眼影像與右眼影像進行內插,而建立出此物體向右旋轉一個角度後的影像。然後,再將此新建立的物體影像以有線或是無線(訊號)方式傳送給顯示器,而取代原先的物體影像而顯示於顯示器的螢幕中(如第三B圖)。藉此,使得可以隨著時間看到螢幕102所顯示物體的不同視角的影像,而誘使大腦認知該物體影像為一3D影像,而達到裸眼3D的效果。
    當使用者將手機100向左旋轉一個角度,即依照箭頭108所示方向轉動一個角度,手機100藉由其內的偵測單元(圖中未示)偵測手機100的旋轉角度(即第一圖所示步驟S10),並將所測得向左旋轉角度以有線方式或是無線訊號傳遞給手機100內的影像處理單元(圖中未示)。影像處理單元收到此旋轉將度後,根據此一旋轉角度的大小對原本螢幕102中所顯示的物體影像104進行計算處理(即第一圖所示之步驟S12)。如同前述,影像處理單元可以直接以該物體影像既存左眼影像與右眼影像內插,或是先計算出該物體的左眼影像與右眼影像後在進行內插,而重新計算與建立出此物體向左旋轉一個角度後的影像。然後,再將此新建立的物體影像以有線或是無線(訊號)方式傳送給顯示器,而取代原先的物體影像而顯示於顯示器的螢幕中(如第三C圖)。參照第三C圖,此一新建立的影像104b比原本螢幕所顯示的物體影像顯示或包含更多右側部份影像,而手機100向左的旋轉角度愈大,即偵測單元偵測到手機100向左的旋轉角度愈大,影像處理單元所建立的新物體影像104b所顯示或包含的物體右側部份的影像也會越多。
    當使用者手持手機100,而未對手機100進行旋轉達一預設時間時,即偵測單元未偵測到手機100有任何旋轉達一預設時間時,例如長達為五秒或五秒以上時,顯示器螢幕102會以每秒四下或少於四下的頻率在左眼影像與右眼影像之間變換,即顯示器螢幕102會以每秒四下或少於四下的頻率變換顯示左眼影像與右眼影像。舉例來說,就是以每秒四下或少於四下的頻率來回變換顯示第三B圖與第三C圖中所示之物體影像,但不以此為限,也可以以多於每秒四下的頻率進行變換。藉此,模擬使用者不自覺地輕微的來回轉動或擺動頭部所看到的物體影像,而讓使用者在手持裝置未轉動或移動的狀況下,仍然可以隨著時間看到該物體影像的不同變化(例如不同視角、位置、或景深),而誘使大腦認知該物體影像為一3D影像,而達到裸眼3D的效果。
實施例二

    另外,本發明提供一種產生裸眼3D效果之方法。第四圖為本發明所提供的產生裸眼3D效果之方法的流程圖,而實施此方法必需藉有一包含有可以偵測使用者的移動位置與距離或偵測使用者的眼球的移動位置與距離的偵測單元、影像處理單元、以及顯示器等元件的系統或是裝置。其中,偵測單元與影像處理單元以有線或是無限的方式連接並做為訊號的傳遞,而影像處理單元與顯示器以有線或是無限的方式連接並做為訊號的傳遞。參照第一圖,本發明之產生裸眼3D效果之方法包含下列步驟:(1)首先,藉由偵測單元偵測使用者的移動位置與距離或偵測使用者的眼球的移動位置與距離(步驟S40),並且偵測單元會將所測得的使用者的移動位置與距離或使用者的眼球的移動位置與距離等資訊,以有線或是無線(訊號)的傳輸方式傳送給影像處理單元。其中,無線傳輸方式可以是藍牙、紅外線、微波或其它標準之無線訊號。(2)接著,在影像處理單元接收到偵測單元傳送來的資訊後,藉由影像處理單元根據偵測單元所傳送來的資訊,即偵測單元所偵測到使用者的移動位置與距離或使用者的眼球的移動位置與距離,對顯示器畫面或螢幕上所顯示的一物體影像進行處理(步驟S42),而建立一個此物體經過旋轉或移動的物體影像,即建立一個將顯示器畫面上原本顯示的物體旋轉一個角度或移動一個位置(或景深)的影像。換言之,就是影像處理單元使用者的移動位置與距離或使用者的眼球的移動位置與距離,而建立顯示器畫面所顯示的同一物體的不同視角或不同位置(或景深)的影像。(3)最後,在影像處理單元將此經過變更視角或位置(或景深)的物體影像傳送給顯示器後,藉由顯示器將此影像顯示於其畫面或螢幕上,使得使用者可以看到該物體不同視角或不同位置(或景深)的影像(步驟S44)。另外,在步驟S40中,測單元偵測所偵測的使用者的移動位置,也可以是透過手指在一觸控螢幕上的滑動來模擬,藉由偵測單元偵測手指滑動距離、位置或其他特徵,並進行後續的步驟S42與步驟S44,而模擬為物體轉動角度,以達到裸眼3D的效果。
    在上述本發明之產生裸眼3D效果之方法中,由於使用者的一直都是注視著顯示器螢幕,特別是螢幕中所顯示的一物體影像,換言之,就是使用者眼睛的聚焦點位置一直停留在顯示器螢幕中的此一物體上而沒有改變,因此,在顯示器依據使用者的移動位置與距離或使用者的眼球的移動位置與距離,而呈現物體的不同視角或不同位置(或景深)的影像,會讓使用者的大腦認知其眼睛所觀察的的物體影像隨著時間而改變,而符合前述誘使大腦認知一影像為立體(3D)的原理,進而誘使使用者的大腦認知顯示器所顯示的此物體影像為一3D影像,即認知使用者眼睛看到的此物體影像為一3D立體影像。因此,藉由此一方法,只需要一般的顯示器,不但不需要全像片、特殊光學膜(可以將左眼影像與右眼影像分別傳送至使用者的左眼與右眼的光學膜),即可以產生3D效果,而使用者更不需要配戴任何3D立體眼鏡即可以眼睛看到此物體的立體影像,而達成裸眼3D效果。換言之,此方法藉由模擬使用者走向物體的不同側所看到同一物體的不同視角或位置(或景深)的影像變化,而讓使用者隨著時間看到同一物體的影像變化,而誘使大腦認知此一影像為立體(3D)影像。
    另外,為了讓使用者或使用者的眼球在未旋轉或移動的狀況下,仍然可以將看到3D影像,所以在偵測單元偵測到使用者的移動位置與距離或使用者的眼球的移動位置與距離為零的時間達到一預設的時間,例如長達為五秒或五秒以上時,但不以此為限,即代表使用者或使用者的眼球在這段時間並未進行任何旋轉或移動,此時顯示器畫面會以每秒四下或少於四下的頻率,在左眼影像與右眼影像之間變換,而自動呈現顯示器螢幕中所顯示的物體的不同視角或位置(或景深)的影像,而依照前述原理產生3D效果。左眼影像與右眼影像的定義如同前述實施例一中所述,所以在此不再贅述。藉由顯示器所顯示的影像以固定頻率在左眼影像與右眼影像之間變換,而模擬使用者不自覺地輕微的來回轉動或擺動頭部所看到的物體影像,讓使用者在使用者或使用者的眼球在未旋轉或移動的狀況下,仍然可以隨著時間看到該物體影像的不同變化(例如不同視角、位置、或景深),而誘使大腦認知該物體影像為一3D影像,而達到裸眼3D的效果。
    本發明之產生裸眼3D效果之方法所使用的偵測單元、影像處理單元、以及顯示器可以是全部都設置於同一物件上,或是偵測單元、影像處理單元與顯示器三者為完全分離的獨立個體。偵測單元、影像處理單元與顯示器可以藉由有線或無線的方式(或無線訊號)在三者之間傳遞訊號或資訊。或是,偵測單元、影像處理單元、以及顯示器其中兩者設置或整合於同一物件上,例如影像處理單元與顯示器設置或整合於同一物件上、偵測單元與影像處理單元設置或整合於同一物件上。影像處理單元與顯示器可以設置於同一物件上,但也可以設置於不同的物件上。偵測單元與影像處理單元可以設置於同一物件上,也可以設置於不同的物件上。
    偵測單元可以為一重力開關(或重力感測器)、震動開關(或震動感測器)、體感器、移動位置偵測單元、動作感測器、影像擷取裝置、雷射光、偵測器模組、加速器(accelerator)、紅外線感測器(IR sensor)等偵測器或是其他可以偵測使用者的移動位置與距離或使用者的眼球的移動位置與距離的偵測器。過去有使用電腦相機如web cam或PC cam配合軟體運算來判斷使用者的移動位置與距離,此法極耗CPU的時間,因此我們採用其他較快速的方式達到此功效。影像處理單元可以為一硬體裝置、軟體程式、或是燒錄有影像處理軟體的硬體,例如桌上型個人電腦或工作站。另外,影像處理單元與顯示器可以設置或整合於一筆記型電腦、平板電腦、或其他類似裝置中。影像處理單元包含一左眼影像演算法(algorithm)以及一右眼影像演算法(algorithm),對於左眼影像演算法(algorithm)與右眼影像演算法(algorithm)的說明已於前文詳加描述,在此不再贅述。在前述步驟S42中,影像處理單元依據使用者或使用者的眼球的移動位置與距離,而將顯示器螢幕所顯示的此物體的左眼影像與右眼影像進行內插,得到此物體經過轉動或移動的影像,而建立此物體的不同視角或位置(或景深)的影像。
    為了更清楚地說明本發明之產生裸眼3D效果之方法,接下來將以一設置有影像處理單元的平面顯示器與一偵測單元所組成的系統為範例來加以說明,但是此範例僅做為說明之用,而非用以限縮本發明於此範例,而是還有其他不同的系統以及不同偵測單元、影像處理單元、以及顯示器的配置方式可以實施本發明。
    第五圖顯示使用者以一設置有影像處理單元(圖中未示)的平面顯示器200與一偵測單元210所組成的系統實施本發明之產生裸眼3D效果之方法的示意圖。參照第五圖,使用者面對平面顯示器200的螢幕202,而平面顯示器200的螢幕中顯示有一物體的(2D)影像204(如第六A圖所示)。當使用者或使用者的眼球向左移動一個距離,即依照箭頭206所示方向移動一個距離,藉由偵測單元210偵測使用者的移動位置與距離或偵測使用者的眼球的移動位置與距離(即第四圖所示步驟S40),並將所測得向左移動的位置與距離以有線方式或是無線訊號傳遞給平面顯示器200內的影像處理單元(圖中未示)。
    在影像處理單元收到使用者的移動位置與距離或使用者的眼球的移動位置與距離等資訊後,根據使用者的移動位置與距離或使用者的眼球的移動位置與距離的大小對原本螢幕202中所顯示的物體影像204進行計算處理(即第四圖所示之步驟S42)。若原本影像處理單元、或平面顯示器200中已有原本螢幕202所顯示的物體影像204的所有影像資料(包含左眼影像與右眼影像),則直接依照偵測單元所偵測到使用者向左移動的位置與距離或使用者的眼球向左移動的位置與距離的大小,將左眼影像與右眼影像進行內插,而重新計算與建立出此物體向右旋轉一個角度後的影像,即模擬使用者由較偏左側的視角所看到該物體的影像。然後,如第四圖步驟S44,將此新建立的物體影像以有線或是無線(訊號)方式傳送給平面顯示器200,而取代原先的物體影像204而顯示於平面顯示器200的螢幕202中(如第六B圖)。參照第六B圖,此一新建立的影像204a比原本螢幕202所顯示的物體影像204顯示或包含更多左側部份影像,而使用者或使用者眼球向左移動的距離愈大,即偵測單元偵測到使用者或使用者眼球向左移動的距離愈大,影像處理單元所建立的新物體影像204a所顯示或包含的物體左側部份的影像也會越多。
    若影像處理單元或平面顯示器200中未具有原本螢幕202所顯示的物體影像204的所有影像資料,特別是左眼影像與右眼影像,影像處理單元會先利用左眼影像演算法(algorithm)以及右眼影像演算法(algorithm)分別計算出左眼影像與右眼影像。然後,影像處理單元再利用計算出來的左眼影像與右眼影像進行內插,而建立出此物體向右旋轉一個角度後的影像。然後,再將此新建立的物體影像以有線或是無線(訊號)方式傳送給平面顯示器200,而取代原先的物體影像204而顯示於平面顯示器的螢幕202中(如第六B圖)。藉此,使得可以隨著時間看到螢幕202所顯示物體的不同視角的影像,而誘使大腦認知該物體影像為一3D影像,而達到裸眼3D的效果。
    當使用者或使用者的眼球向右移動一個距離,即依照箭頭208所示方向移動一個距離,藉由偵測單元210偵測使用者的移動位置與距離或偵測使用者的眼球的移動位置與距離(即第四圖所示步驟S40),並將所測得向左移動的位置與距離以有線方式或是無線訊號傳遞給平面顯示器200內的影像處理單元(圖中未示)。影像處理單元收到使用者向右移動的位置與距離或使用者的眼球向右移動的位置與距離等資訊後,根據使用者的移動位置與距離或使用者的眼球的移動位置與距離的大小對原本螢幕202中所顯示的物體影像204進行計算處理(即第四圖所示之步驟S42)。如同前述,影像處理單元可以直接以該物體影像既存左眼影像與右眼影像內插,或是先計算出該物體的左眼影像與右眼影像後在進行內插,而重新計算與建立出此物體向左旋轉一個角度後的影像,即模擬使用者由較偏右側的視角所看到該物體的影像。然後,再將此新建立的物體影像以有線或是無線(訊號)方式傳送給顯示器,而取代原先的物體影像204而顯示於平面顯示器200的螢幕202中(如第六C圖)。參照第六C圖,此一新建立的影像204b比原本螢幕202所顯示的物體影像204顯示或包含更多右側部份影像,而使用者或使用者眼球向右移動的位置與距離愈大,即偵測單元偵測到使用者或使用者眼球向右移動的位置與距離愈大,影像處理單元所建立的新物體影像204b所顯示或包含的物體右側部份的影像也會越多。
    當使用者或使用者的眼球未有任何移動達一預設時間時,即偵測單元為偵測到使用者或使用者的眼球有任何移動達一預設時間時,例如長達為五秒或五秒以上時,平面顯示器200螢幕202會以每秒四下或少於四下的頻率在左眼影像與右眼影像之間變換,即顯示器螢幕202會以每秒四下或少於四下的頻率變換顯示左眼影像與右眼影像。舉例來說,就是以每秒四下或少於四下的頻率來回變換顯示第六B圖與第六C圖中所示之物體影像,但不以此為限,也可以以多於每秒四下的頻率進行變換。藉此,模擬使用者不自覺地輕微的來回轉動或擺動頭部所看到的物體影像,而讓使用者在手持裝置未轉動或移動的狀況下,仍然可以隨著時間看到該物體影像的不同變化(例如不同視角、位置、或景深),而誘使大腦認知該物體影像為一3D影像,而達到裸眼3D的效果。
    在第五圖所示的此一範例中,使用者手上配戴有一是識別裝置,用以發射識別訊號給偵測單元,使得偵測單元可以清楚識別其所偵測的目標,但不以此為限。此識別裝置所發射的識別訊號可以為藍牙訊號、無線電訊號、微波訊號、紅外線訊號或其他訊號。當然此一識別裝置並非實施本發明之產生裸眼3D效果必備的元件,可以依照不同的實施方式而選擇是否使用。
    另外,本發明之產生裸眼3D效果之方法的實施方式,可以藉由偵測單元、影像處理單元、顯示器所構成的系統中的偵測單元配戴於使用者身上而進行實施。以第七圖為例,其以具影像處理單元(圖中未示)之平面顯示器300以及配戴於使用者的眼鏡312的偵測單元310所構成的系統實施本發明之產生裸眼3D效果之方法,其中,平面顯示器300的螢幕302同樣顯示有一物體影像304。雖然,此實施例將偵測單元配戴於使用者的眼鏡上,但不以此為限。當然也可以將偵測元件配戴於使用者的其他部位,例如當成耳機配戴於耳朵,或當成別針配戴於使用者的衣物上。
    有鑑於上述實施例,本發明提供一種應用於手持裝置的產生裸眼3D效果之方法以及一種產生產生裸眼3D效果之方法,以隨著時間變化而呈現同一物體的不同視角或位置(或景深)的影像,而誘使大腦認知眼睛所看到影像為立體(3D)影像,進而可以無需全像片、特殊光學膜、以及3D立體眼鏡即可以產生裸眼3D功效,從而降低產生3D影像的成本與困難度。
100...手機
102...螢幕
104、104a、104b...物體影像
106、108...旋轉方向
200...平面顯示器
202...螢幕
204、204a、204b...物體影像
206、208...移動方向
210...偵測單元
212...識別裝置
300...平面顯示器
302...螢幕
304...物體影像
310...偵測單元
312...眼鏡
S10-S14...本發明之應用於手持裝置之產生裸眼3D效果之方法的各個步驟
S40-S44...本發明之產生裸眼3D效果之方法的各個步驟
第一圖為本發明之應用於手持裝置的產生裸眼3D效果之方法的流程圖。

第二圖為以一將偵測單元、影像處理單元、以及顯示器都整合於其中的手機實施本發明之產生裸眼3D效果之方法的示意圖。

第三A圖至第三C圖分別為手機依據不同旋轉角度所顯示一物體的不同視角影像的示意圖。

第四圖為本發明之產生裸眼3D效果之方法的流程圖。

第五圖為以具有影像處理單元之平面顯示器以及偵測單元構成的系統實施本發明之產生裸眼3D效果之方法的示意圖。

第六A圖至第六C圖分別為平面顯示器依據使用者或使用者的眼球所移動的位置與距離所顯示一物體的不同視角影像的示意圖。

第七圖為以配戴偵測單元於使用者身上實施本發明之產生裸眼3D效果之方法的示意圖。
S10-S14...本發明之應用於手持裝置之產生裸眼3D效果之方法的各個步驟

Claims (34)

  1. 一種產生裸眼3D效果之方法,該方法應用於一手持裝置,包含:
      (1)藉由一偵測單元偵測該手持裝置的旋轉角度或移動位置;
      (2)藉由一影像處理單元,而依據該手持裝置的旋轉角度或移動位置,對一顯示器畫面上所顯示的物體影像進行處理,進而依據該手持裝置的旋轉角度或移動位置而建立一個經過旋轉或移動的該物體影像;以及
       (3)將經過旋轉或移動的該物體影像顯示於該顯示器畫面上,而呈現該物體不同視角的影像。
  2. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該偵測單元為一旋轉角度偵測單元、移動位置偵測單元、動作感測器、影像擷取裝置、雷射光、偵測器模組、加速器(accelerator)、或陀螺儀。
  3. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中步驟(1)更包含一資料傳送步驟,用以將該偵測單元所偵測的該手持裝置的旋轉角度或移動位置等資訊傳送給該影像處理單元,使該影像處理單元依據該資訊對該顯示器畫面中的物體進行影像處理。
  4. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,在步驟(2)中,當該手持裝置向左旋轉或向左移動時,該影像處理單元依據該手持裝置向左旋轉的角度或向左移動位置,而處理該顯示器畫面中的該物體影像,使該顯示器畫面顯示該物體向左旋轉後的影像。
  5. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,在步驟(2)中,當該手持裝置向右旋轉或向右移動時,該影像處理單元依據該手持裝置向右旋轉的角度或向右移動位置,而處理該顯示器畫面中的該物體影像,使該顯示器畫面顯示該物體向右旋轉後的影像。
  6. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該影像處理單元包含一左眼影像演算法(algorithm),用以對該顯示器畫面中的該物體影像進行演算與處理而產生該物體的左眼影像,以及一右眼影像演算法(algorithm),用以對該顯示器畫面中的該物體影像進行演算與處理而產生該物體的右眼影像。
  7. 如申請專利範圍第6項所述之產生裸眼3D效果之方法,在步驟(2)中,該影像處理單元依據該手持裝置的旋轉角度或移動位置而將該左眼影像與該右眼影像進行內插而得到一經過轉動或移動的該物體影像。
  8. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該偵測單元與該手持裝置設置於同一物件上。
  9. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該偵測單元與該手持裝置設置於不同物件上。
  10. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該偵測單元與該影像處理單元設置於同一物件上。
  11. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該偵測單元與該影像處理單元設置於不同物件上。
  12. 如申請專利範圍第3項所述之產生裸眼3D效果之方法,其中該資料傳送步驟係以無線訊號將該偵測單元所偵測的該手持裝置的旋轉角度或移動位置等資訊傳送給該影像處理單元。
  13. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該手持裝置與該影像處理單元設置於同一物件上。
  14. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該手持裝置與該影像處理單元設置於不同物件上。
  15. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該影像處理單元與該顯示器設置於同一物件上。
  16. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該影像處理單元與該顯示器設置於不同物件上。
  17. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,其中該手持裝置、該影像處理單元、以及該顯示器設置於同一物件上。
  18. 如申請專利範圍第1項所述之產生裸眼3D效果之方法,當該偵測單元偵測到該手持裝置的旋轉角度或移動位置為零的時間達到一預設時間時,該顯示器畫面會以每秒四下或少於四下的頻率在該左眼影像與該右眼影像之間變換。
  19.  一種產生裸眼3D效果之方法,包含:
        (1)藉由一偵測單元偵測使用者的移動位置與距離,或偵測該使用者的眼球的移動位置與距離;
      (2)藉由一影像處理單元,而依據該使用者的移動位置與距離,或該使用者的眼球的移動位置與距離,而對一顯示器畫面上所顯示的物體影像進行處理,且依據該使用者的移動位置與距離,或該使用者的眼球的移動位置與距離,而建立一個經過旋轉或移動的該物體影像;以及
      (3)將經過旋轉或移動的該物體影像顯示於該顯示器畫面上,而呈現該物體不同視角的影像。
  20. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該偵測單元為一重力開關、震動開關、體感器、移動位置偵測單元、動作感測器、影像擷取裝置、雷射光、偵測器模組、紅外線感測器或加速器(accelerator)。
  21. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該使用者的移動位置也可以是透過手指在一觸控螢幕上的滑動來模擬,藉由手指滑動距離或特徵,模擬為物體轉動角度。
  22. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中步驟(1)更包含一資料傳送步驟,用以將該偵測單元所偵測的該使用者的移動位置與距離等資訊,或偵測該使用者的眼球的移動位置與距離等資訊,傳送給該影像處理單元,使該影像處理單元依據該資訊對該顯示器畫面中的物體進行影像處理。
  23. 如申請專利範圍第22項所述之產生裸眼3D效果之方法,其中該資料傳送步驟可以是有線或無線的傳輸方式。
  24. 如申請專利範圍第23項所述之產生裸眼3D效果之方法,其中無線傳輸方式可以是藍牙、紅外線、微波或其它標準之無線訊號。
  25. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該影像處理單元包含一左眼影像演算法(algorithm),用以對該顯示器畫面中的該物體影像進行演算與處理而產生該物體的左眼影像,以及一右眼影像演算法(algorithm),用以對該顯示器畫面中的該物體影像進行演算與處理而產生該物體的右眼影像。
  26. 如申請專利範圍第25項所述之產生裸眼3D效果之方法,在步驟(2)中,當該使用者向左移動時,或該使用者的眼球向左移動時,該影像處理單元依據該使用者向左移動的位置與距離或該使用者的眼球向左移動的位置與距離,而處理該顯示器畫面中的該物體影像,使該顯示器畫面顯示該物體向左旋轉或移動後的影像,而顯示更多的左眼影像。
  27. 如申請專利範圍第25項所述之產生裸眼3D效果之方法,在步驟(2)中,當該使用者向右移動時,或該使用者的眼球向右移動時,該影像處理單元依據該使用者向右移動的位置與距離或該使用者的眼球向右移動的位置與距離,而處理該顯示器畫面中的該物體影像,使該顯示器畫面顯示該物體向右旋轉或移動後的影像,而顯示更多的右眼影像。
  28. 如申請專利範圍第25項所述之產生裸眼3D效果之方法,在步驟(2)中,該影像處理單元依據該使用者的移動位置與距離或該使用者的眼球移動的位置與距離,而將該左側影像與該右側影像進行內插而得到一經過轉動或移動的該物體影像。
  29. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該影像處理單元與該顯示器設置於同一物件上。
  30. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該影像處理單元與該顯示器設置於不同物件上。
  31. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該偵測單元與該影像處理單元設置於同一物件上。
  32. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該偵測單元與該影像處理單元設置於不同物件上。
  33. 如申請專利範圍第25項所述之產生裸眼3D效果之方法,當該偵測單元偵測到該使用者的移動位置與距離為零的時間為一預設時間以上時,該顯示器畫面會以每秒四下或少於四下的頻率在該左眼影像與該右眼影像之間變換。
  34. 如申請專利範圍第19項所述之產生裸眼3D效果之方法,其中該偵測單元配戴於該使用者身上。
TW101118435A 2012-05-23 2012-05-23 產生裸眼3d效果之方法 TW201349844A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW101118435A TW201349844A (zh) 2012-05-23 2012-05-23 產生裸眼3d效果之方法
US13/900,760 US20130314406A1 (en) 2012-05-23 2013-05-23 Method for creating a naked-eye 3d effect

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101118435A TW201349844A (zh) 2012-05-23 2012-05-23 產生裸眼3d效果之方法

Publications (1)

Publication Number Publication Date
TW201349844A true TW201349844A (zh) 2013-12-01

Family

ID=49621244

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101118435A TW201349844A (zh) 2012-05-23 2012-05-23 產生裸眼3d效果之方法

Country Status (2)

Country Link
US (1) US20130314406A1 (zh)
TW (1) TW201349844A (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9865033B1 (en) 2014-01-17 2018-01-09 Amazon Technologies, Inc. Motion-based image views
WO2015112857A1 (en) * 2014-01-24 2015-07-30 Amazon Technologies, Inc. Create and view lenticular photos on table and phone
KR102182162B1 (ko) * 2014-02-20 2020-11-24 엘지전자 주식회사 Hmd 및 그 제어 방법
US9875526B1 (en) * 2014-03-20 2018-01-23 SoliDDD Corp. Display of three-dimensional images using a two-dimensional display
TWI567691B (zh) * 2016-03-07 2017-01-21 粉迷科技股份有限公司 立體空間的場景編輯方法與系統
US10564915B2 (en) * 2018-03-05 2020-02-18 Microsoft Technology Licensing, Llc Displaying content based on positional state
US11048375B2 (en) * 2018-09-18 2021-06-29 Alibaba Group Holding Limited Multimodal 3D object interaction system
TWM596351U (zh) * 2019-12-31 2020-06-01 亞達科技股份有限公司 結合擴增實境與人工智慧的機動型互動式展示平台
CN113382227A (zh) * 2021-06-03 2021-09-10 天翼阅读文化传播有限公司 一种基于智能手机的裸眼3d全景视频渲染装置及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080048980A1 (en) * 2006-08-22 2008-02-28 Novell, Inc. Detecting movement of a computer device to effect movement of selected display objects
US20090237379A1 (en) * 2008-03-22 2009-09-24 Lawrenz Steven D Automatically conforming the orientation of a display signal to the rotational position of a display device receiving the display signal
US8503932B2 (en) * 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
EP2699005A1 (en) * 2009-05-18 2014-02-19 LG Electronics, Inc. 3D image reproduction device and method capable of selecting 3D mode for 3D image
KR20120032321A (ko) * 2010-09-28 2012-04-05 삼성전자주식회사 디스플레이 장치 및 이의 영상 처리 방법
US20130207962A1 (en) * 2012-02-10 2013-08-15 Float Hybrid Entertainment Inc. User interactive kiosk with three-dimensional display

Also Published As

Publication number Publication date
US20130314406A1 (en) 2013-11-28

Similar Documents

Publication Publication Date Title
TW201349844A (zh) 產生裸眼3d效果之方法
US11800059B2 (en) Environment for remote communication
KR101730737B1 (ko) 안구추적을 기반으로 한 상이한 거리 자동적응 홀로그램 디스플레이 방법 및 장치
CN110968188B (zh) 基于头部位置的应用程序放置
US11520399B2 (en) Interactive augmented reality experiences using positional tracking
US9749619B2 (en) Systems and methods for generating stereoscopic images
WO2015068656A1 (ja) 画像生成装置および画像生成方法
JP6333801B2 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
JP6177872B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
EP3286601B1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
US11508130B2 (en) Augmented reality environment enhancement
JP6250025B2 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2022267694A1 (zh) 一种显示调节方法、装置、设备及介质
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2017111537A (ja) ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム
CN113039508A (zh) 评估虚拟环境的输入和输出的对准
US20240104871A1 (en) User interfaces for capturing media and manipulating virtual objects
JP6479836B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2017111724A (ja) 配管用ヘッドマウントディスプレイ
WO2024064350A1 (en) User interfaces for capturing stereoscopic media
WO2018154285A1 (en) Virtual reality