TWI471820B - 行動終端機及其操作控制方法 - Google Patents

行動終端機及其操作控制方法 Download PDF

Info

Publication number
TWI471820B
TWI471820B TW100143401A TW100143401A TWI471820B TW I471820 B TWI471820 B TW I471820B TW 100143401 A TW100143401 A TW 100143401A TW 100143401 A TW100143401 A TW 100143401A TW I471820 B TWI471820 B TW I471820B
Authority
TW
Taiwan
Prior art keywords
image
zoom
display
mobile terminal
zoom image
Prior art date
Application number
TW100143401A
Other languages
English (en)
Other versions
TW201224993A (en
Inventor
Hayang Jung
Seungmin Seen
Shinhae Lee
Jinsool Lee
Dongok Kim
Taeyun Kim
Seunghyun Woo
Original Assignee
Lg Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc filed Critical Lg Electronics Inc
Publication of TW201224993A publication Critical patent/TW201224993A/zh
Application granted granted Critical
Publication of TWI471820B publication Critical patent/TWI471820B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Processing Or Creating Images (AREA)

Description

行動終端機及其操作控制方法
本發明係有關於一種行動終端機,能夠校正落在參考差異範圍之外的物件的差異範圍,以響應包含放大或縮小的該物件的立體三維(3D)影像,以及該行動終端機的操作控制方法。
行動終端機為可攜帶裝置,能為使用者提供多種服務,比如語音通話服務、視頻通話服務、資訊輸入/輸出服務以及資料儲存服務。
隨著行動終端機提供服務類型的多樣化,更多的行動終端機具有多種複雜的功能,比如拍照或錄影、播放音樂檔或動態影像檔、提供遊戲程式、接收廣播程式以及提供無線網路服務,以及由此發展成多媒體播放器。
為了實現這些複雜功能,在硬體裝置及軟體程式上做了各種努力。例如,許多使用者介面(UI)環境已被開發,其中允許使用者輕易搜索及選擇所需功能。此外,由於考慮到行動終端機被當作可體現個人特性的私人物品之成長趨勢,所以對行動終端機的許多設計要求也不斷增加。
同時,立體三維(3D)成像,一種結合藉攝影機所捕獲的多個影像以產生3D影像的技術,近來已變得很普通。當應用到行動終端機時,立體3D成像可允許使用者使用行動終端機的攝影機以產生立體3D影像,並在行動終端機的顯示器上顯示各種立體3D影像。可使用許多方法,比如也叫無眼鏡3D的自動立體,而在行動終端機的顯示器上顯示立體3D影像。
立體3D影像通常是基於左影像及右影像之間的差異(比如左影像及右影像相對位置的差異)而產生。因此,當立體3D影像中的物件超出了使用者視差的臨界,該等物件可能出現扭曲並可能因此導致疲勞、噁心及/或頭痛。當放大或縮小立體3D影像時,扭曲變得更嚴重。
因此,需要一種校正落在參考差異範圍之外的立體3D影像中的物件的方法,以響應放大或縮小的立體3D影像。
本發明主要目的在於提供一種行動終端機及其操作控制方法,該行動終端機包括:一三維(3D)顯示器,配置以顯示含有第一影像與第二影像的一物件;以及一控制器,配置以改變包含第一縮放影像與第二縮放影像之該物件的放大率,並校正該第一縮放影像與該第二縮放影像間的雙眼差異,其中該控制器決定該第一縮放影像與該第二縮放影像之間的雙眼差異,決定該雙眼差異是否在規定的差異範圍之內,基於所決定的雙眼差異重新定位該第一縮放影像及該第二縮放影像的至少其中之一,以及控制該顯示器以顯示該校正的第一縮放影像與第二縮放影像。
本發明另一目的在於提供一種行動終端機,該行動終端機包括:一顯示器,用於顯示第一影像及第二影像,以產生具有複數個3D物件的一3D影像;以及一控制器,配置以調整該第一影像及該第二影像的顯示,其中該控制器縮放用於顯示的該第一影像與該第二影像,決定在該縮放的第一影像及第二影像中該等3D物件的雙眼差異是否在規定的臨界值之內,重新定位該縮放的第一影像及第二影像中該等3D物件的至少其中之一,以使得該雙眼差異是在該規定臨界值之內,以及顯示所調整的3D影像。
而本發明的一種操作控制行動終端機的方法包括:在一顯示模組上顯示基於第一與第二影像之間的差異而產生的第一3D影像;響應用於改變所接收影像之放大率的輸入,改變第一與第二影像的放大率;相對於由放大率改變的第一與第二影像中所選取的中心物件,藉移動放大率改變的第一與第二影像中落在參考差異範圍之外的其他物件,產生第一與第二校正影像,使得已移動的物件可落回參考差異範圍之內;以及在顯示模組上顯示由放大率改變輸入所指定的第二立體3D影像的一部分,而第二立體3D影像是基於放大率改變的第一與第二影像之間的差異而產生。
因此,本發明能適當校正落在參考差異範圍之外的立體3D影像中的物件的差異,以響應放大或縮小的立體3D影像。
本說明書將參考顯示本發明示範性實施例的所附圖式而詳細說明。
此處使用的術語‘行動終端機’,可指移動電話、智慧手機、可擕式電腦、數位廣播接收器、個人數位助理(PDA)、可攜式多媒體播放器(PMP)、導航裝置、平板電腦或電子書(E書)閱讀器。在本說明書中,術語“模組”與“單元”可交換使用。
第1圖為依據本發明實施例之行動終端機100的方塊圖。參閱第1圖,該行動終端機100可包含:無線通信單元110、音頻/視頻(A/V)輸入單元120、使用者輸入單元130、感測單元140、輸出單元150、記憶體160、介面單元170、控制器180以及電源供應單元190。兩個或更多個無線通信單元110、音頻/視頻(A/V)120、使用者輸入單元130、感測單元140、輸出單元150、記憶體160、介面單元170、控制器180以及電源供應單元190可合併為同一單元,或者無線通信單元110、音頻/視頻(A/V)120、使用者輸入單元130、感測單元150、記憶體160、介面單元170、控制器180以及電源供應單元190的其中一些可分為兩個或更多個更小的單元。
該無線通信單元110可包含廣播接收模組111、行動通信模組113、無線互聯模組115、短程通信模組117以及全球定位系統(GPS)模組119。
廣播接收模組111可經由廣播頻道而從外部廣播管理伺服器接收廣播信號及/或廣播相關資訊。該廣播頻道可為衛星頻道或地面頻道。該廣播管理伺服器可為產生廣播信號及/或廣播相關資訊並發射所產生之廣播信號及/或所產生之廣播相關資訊的伺服器,或為接收然後發射先前產生之廣播信號及/或先前產生之廣播相關資訊的伺服器。
該廣播相關資訊包含:廣播頻道資訊、廣播程式資訊與/或廣播服務提供者資訊。該廣播信號可包含:TV廣播信號、無線廣播信號、資料廣播信號、資料廣播信號與TV廣播信號的組合,或資料廣播信號與無線廣播信號的組合。該廣播相關資訊可藉移動通訊網絡而提供至行動終端機100。此時,該廣播相關資訊可由移動通訊模組113接收,而非廣播接收模組111。該廣播相關資訊可來自不同形式。例如,該廣播相關資訊可為數位多媒體廣播(Digital Multimedia Broadcating,DMB)的電子節目指南(Electronic Program Guide,EPG),或可為掌上型數位視頻廣播(Digital Video broadcast-handheld,DVB-H)的電子服務指南(Electronic Service Guide,ESG)。
廣播接收模組111可使用比如地面數位多媒體廣播(Digital Multimedia Broadcasting-terrestrial,DMB-T)、衛星數位多媒體廣播(Digital Multimedia Broadcasting-Satellite,DMB-S)、媒體前向鏈路(Media Forward Link Only,MediaFLO)、DVB-H以及地面集成服務數位廣播(Integrated Services Digital Broadcast-Terrestrial,ISDB-T)的多種廣播系統而接收該廣播信號。此外,廣播接收模組111除了此處的設置,也可配置以使用臨近的所有類型廣播系統。由廣播接收模組111所接收的廣播信號及/或廣播相關資訊可儲存於該記憶體160中。
行動通信模組113可藉移動通信網路接收來自基地臺、外部終端機以及伺服器的至少其中之一的無線信號,或發送無線信號至基地臺、外部終端機以及伺服器的至少其中之一。根據行動終端機100是否發送/接收語音通話信號、視頻通話信號或文本侈媒體資訊,該等無線信號可包含多種形式的資料。
無線互聯模組115可為用於無線存取網際網路(Internet)的模組。無線互聯模組115可嵌入在行動終端機100中或可安裝在外部裝置中。無線互聯模組115可使用比如無線區域網路(Wireless Local Area Network,WLAN)、無線寬頻(Wireless Broadband,WiBro)、全球互通微波存取(World Interoperability for Microwave Access,Wimax)以及高速下鏈封包存取(High Speed Downlink Packet Access,HSDPA)。
短程通信模組117可為用於短程通信的模組。短程通信模組117可使用比如藍牙(Bluetooth)、無線射頻識別(RFID)、紅外資料通信(IrDA)、超寬頻(UWB)以及紫蜂(Zigbee)等多種短程通信技術。
GPS模組119可接受來自多個GPS衛星的定位資訊。
A/V輸入單元120可用於接收音頻信號或視頻信號。A/V輸入單元120可包含攝影機121與麥克風123。攝影機121可處理多種影像圖框,比如由影像感測器在視頻通話模式或影像捕捉模式期間所捕捉的靜止影像或動態影像。由攝影機121所處理的影像圖框可藉顯示模組151而顯示。
由攝影機121所處理的該等影像圖框可儲存於記憶體160中,或可經無線通信單元110而發送至外部裝置。行動終端機100可包含兩個或兩個以上的攝影機121。
麥克風123可在通話模式、記錄模式或語音識別模式期間,使用麥克風而接收外部聲音信號,並將該等聲音信號轉換為電子聲音資料。在該通話模式中,移動通信模組113可將該電子聲音資料轉換為可被容易傳送至移動通信基地臺的資料,然後輸出藉轉換所獲得的資料。麥克風123可使用多種雜訊消除技術,以消除在接受外部聲音信號期間所產生的雜訊。
使用者輸入單元130可基於用於控制行動終端機100之操作的使用者輸入產生鍵輸入資料。使用者輸入單元130可以小鍵盤、圓頂開關(Dome Switch)、或可接收使用者按壓或觸摸之指令或資訊的靜壓力或電容觸摸板而實施。另一方式是,使用者輸入單元130可以能接受旋轉之指令或資訊的旋鈕、滾輪盤或旋鈕、或操縱桿而實施。又另一方式是,使用者輸入單元130可以手指滑鼠而實施。尤其是,當使用者輸入單元130以觸摸板的形式而實施時,且與顯示模組151形成同一層結構時,使用者輸入單元130與顯示模組151可一起稱為觸控螢幕(Touch Screen)。
感測單元140決定行動終端機100的目前狀態,比如行動終端機100是否開啟或關閉、行動終端機100的方位、行動終端機100是否與使用者接觸,並產生用於控制行動終端機100之操作的感測信號。例如,當行動終端機100為滑蓋式行動電話時,感測單元140可決定行動終端機100是否開啟或關閉。此外,感測單元140可決定行動終端機100是否由電源供應單元190所驅動,以及介面單元170是否連接於外部設備。
感測單元140可包含近接感測器141、壓力感測器143以及運動感測器145。近接感測器141可檢測是否有物件臨近或靠近該行動終端機100且不與實體機械性接觸。更具體地說,近接感測器141可藉檢測交變磁場的改變或靜態電容的改變率,檢測臨近以及靠近的物件。感測單元140可包含兩個及兩個以上的近接感測器141。近接感測器141可感測使用者與行動終端機100的相對位置。例如,可決定使用者眼睛至行動終端機100的顯示器之表面的相對位置。在某些實施例中,當顯示立體3D影像時,使用者(即使用者的眼睛)的感測距離可被用來計算差異的最大臨界值,如以下進一步詳細說明。
壓力感測器143可決定是否在行動終端機100上施加壓力,或可測量施加於行動終端機100之壓力的水準,如果有的話。該壓力感測器143可安裝於行動終端機100上需要檢測壓力的某一部位。例如,壓力感測器143可安裝在顯示模組151中。此時,可基於壓力感測器143所提供的資料差異化來自按壓觸碰輸入的典型觸摸輸入,其係使用比用以產生典型觸摸輸入還高的電壓位準來產生。此外,當顯示模組151接收按壓觸碰輸入時,可基於壓力感測器143所提供的資料而在檢測按壓碰觸輸入時,決定施加於顯示模組151的壓力水準。
運動感測器145使用加速度感測器或陀螺儀感測器,可決定行動終端機100的位置與動作。
同時,加速度感測器為用於轉換加速度之變動成為電氣信號的裝置。隨著微機電系統(Micro-Electromechanical system,MEMS)技術的發展,加速度感測器已廣泛使用於不同目的的不同產品,從檢測比如汽車碰撞中作為汽車安全氣囊系統的大型運動,到檢測比如作為遊戲輸入裝置的手部運動之細微運動。一般,表現兩個或三個軸向的一個或多個加速度感測器係合併至單一封裝中。有些情況僅需要檢測單一軸向,例如,Z軸向。因此,當需要X或Y軸加速度感測器代替Z軸加速度感測器時,該X或Y軸加速度感測器可安裝於附加基板上,且該附加基板係安裝於主基板上。
陀螺儀感測器為用於檢測角速度的感測器,並可檢測行動終端機100相對於參考方向的旋轉方向。
輸出單元150可輸出音頻信號、視頻信號與警報信號。輸出單元150可包含顯示模組151、音頻輸出模組153、警示模組155以及觸覺模組157。
顯示模組151可顯示由行動終端機100所處理的多種資訊。例如,當行動終端機100處於通話模式時,顯示模組151可顯示出使用者介面(UI)或圖形使用者介面(GUI),用於撥打電話或接受通話。當行動終端機100處於視頻模式或照相模式時,顯示模組151可顯示UI或GUI,用以捕捉或接收影像。
如果顯示模組151以及使用者輸入單元130一起形成為層狀結構,且因而以觸控螢幕實現,則顯示模組151可當作輸出裝置與輸入裝置。如果顯示模組151是以觸控螢幕而實現,則顯示模組151也可包含觸控螢幕面板與觸控螢幕面板控制器。該觸控螢幕面板為貼附於行動終端機100之外部上的透明面板。該觸控螢幕面板持續監視使用者是否觸摸該該觸控螢幕面板。一旦到該觸控螢幕的觸摸輸入被接收,該觸控螢幕面板發送一些對應於該觸摸輸入的信號至該觸控螢幕面板控制器。該觸控螢幕面板控制器處理該觸控螢幕面板所發送的該等信號,並發送所處理的信號至控制器180。然後,基於該觸控螢幕面板控制器所發送的處理信號,控制器180決定觸摸輸入是否已產生,以及該觸控螢幕面板的哪部分被觸摸。
顯示模組151可包含電子紙(e-paper)。E-paper是一種反射顯示技術,並能提供相當於傳統墨水在紙張上的高解析度、廣視角與卓越的可視性能。E-paper可在比如塑膠、金屬或紙質基板的多種基板上應用,並能在切斷電源後顯示並維持影像於其上。此外,因為不需要裝配背光燈,e-paper可降低該行動終端機100的功耗。顯示模組151可使用靜電充電半球狀扭曲球(Electrostatic-charged Hemispherical Twist Balls)、使用電泳沉積(Electrophoretic Deposition)或使用微囊(Microcapsules)以作為e-paper使用。
顯示模組151可包含液晶顯示器(LCD)、薄膜電晶體(TFT)-LCD、有機發光二極體(OLED)、軟性顯示器與三維(3D)顯示器的至少其中之一。行動終端機100可包含兩個或兩個以上的顯示模組151。例如,行動終端機100可包含外部顯示模組(圖中未顯示)與內部顯示模組(圖中未顯示)。
音頻輸出模組153在通話接收模式、通話模式、記錄模式、語音識別模式或廣播接收模式時可輸出由無線通信單元110所接收的音頻資料,或可輸出在記憶體160中的音頻資料。此外,音頻輸出模組153可輸出相關於行動終端機100之功能的多種聲音信號,比如接收通話或資訊。音頻輸出模組153可包含揚聲器與蜂鳴器。
警示模組155可輸出指示行動終端機100中事件發生的警報信號。該事件的實例包含通話信號、接收資訊或接收到關鍵信號。警示模組155所輸出的警報信號之實例可包含音頻信號、視頻信號與振動信號。更具體地說,警示模組155可根據接收通話信號或資訊而輸出警報信號。此外,該警報模組155可接收關鍵信號,並可輸出警報信號以作為該關鍵信號的回饋。因此,基於警示模組155所輸出的警報信號,使用者可輕易辨識事件的發生。用於通知使用者事件發生的警報信號不僅能由警示模組155輸出,也可由顯示模組151或音頻輸出模組153輸出。
觸覺模組157可提供使用者所感知的多種觸覺效果(如振動)。如果觸覺模組157產生振動當作觸覺效果,觸覺模組157所產生的震動之強度與模式可以多種方式改變。觸覺模組157可合成不同振動效果,並輸出該合成效果。或者,觸覺模組157依序輸出不同的振動效果。
觸覺模組157可提供除了振動之外的多種觸覺效果,比如使用垂直移動於相接觸之皮膚表面的細針陣列而獲得的觸覺效果、經注射孔或吸收孔而注入或吸入空氣所獲得觸覺效果、藉對皮膚表面給予刺激所獲得的觸覺效果、藉連接電極所獲取的觸覺效果、使用靜電力獲得的觸覺效果以及使用吸熱或放熱裝置以實現感測熱或冷所獲得的觸覺效果。觸覺模組157可配置成使得使用者能使用手指或手臂的運動觸覺而辨識出觸覺效果。行動終端機100可包兩個或兩個以上的觸覺模組157。
記憶體160可儲存控制器180所需的多種程式。此外,記憶體160可暫時儲存比如電話本、資訊、靜態影像或動態影像的多種資料。
記憶體160可包含快閃記憶體式儲存媒介、硬碟式儲存媒介、微型多媒體卡式儲存媒介、卡式儲存媒介(例如安全數位(Secure Digital,SD)或臨界數位(Extreme Digital,XD)記憶體)、隨機存取記憶體(Random Access Memory,RAM)與唯讀記憶體(Read Only Memory,ROM)的至少其中之一。行動終端機100可操作網路儲存,其在網際網路上執行記憶體160的功能。
介面單元170可與連接至行動終端機100的外部裝置連接。該介面單元170可為有線/無線耳機、外部電池充電器、有線/無線資料埠、用於例如記憶卡、用戶身份識別模組卡(Subscriber Identification Module,SIM)或使用者身份模組卡(User Identify Module,UIM)的卡座、音頻輸入/輸出(I/O)終端、視頻I/O終端或耳機。介面單元170可從外部裝置接收資料,或由外部裝置驅動。介面單元170可發送由外部裝置所提供的資料至行動終端機100的其他元件,或可發送由行動終端機100的其他元件所提供的資料至外部裝置。
當行動終端機100連接至外部支架時,介面單元170可提供用以由外部支架供應電源至行動終端機100,或用以由外部支架發送多種信號至行動終端機100的路徑。
控制器180可控制行動終端機100的一般操作。例如,控制器180可執行多種控制操作,如撥打/接受語音通話、發送/接收資料或撥打/接受視頻通話。控制器180可包含播放多媒體資料的多媒體播放器模組181。多媒體播放器模組181可以硬體裝置的方式實施並安裝於控制器180內。或者,多媒體播放器模組181可以軟體程式而實施。
電源供應單元190可由外部電源或內部電源以提供電力,並可提供電源至行動終端機100的其他元件。
行動終端機100可包含有線/無線通信系統或衛星通信系統,並可因而能在以圖框或封包為單元之形式而發送資料的通信系統中操作。
將在下文中參閱第2圖與第3圖詳細描述行動終端機100的外部結構。本發明可應用於幾乎所有類型的行動終端機,比如折疊式、直板式、掛式與滑蓋式行動終端機。然而,為了方便起見,假定行動終端機100為設置有完整觸控螢幕的直板式行動終端機。
第2圖為說明行動終端機100的前視圖,以及第3圖為說明行動終端機100的後視圖。參閱第2圖,行動終端機100的外殼可由前蓋100-1與後蓋100-2形成。多種電子裝置可安裝於前蓋100-1與後蓋100-2所形成的空間。前蓋100-1與後蓋100-2係由合成樹脂藉射出成型而形成。或者,前蓋100-1與後蓋100-2可由比如不銹鋼(STS)或鈦(Ti)等金屬而製成。
顯示模組151、第一音頻輸出模組153a、攝影機121a以及第一至第三使用者輸入模組130a至130c可配置於行動終端機100的主體中,尤其是在前蓋100-1上。第四使用者輸入模組130d與第五使用者輸入模組130e以及麥克風123可配置於後蓋100-2的一側。
如果觸摸板與顯示模組151重疊配置並因而形成同層結構,則顯示模組151可作為觸控螢幕使用。因此,使用者可藉觸摸顯示模組151而輸入多種資訊至行動終端機100。
第一音頻輸出模組153a可作為接收器或揚聲器用。攝影機121a可配置以適合捕捉使用者的靜止或動態影像。麥克風123可配置以正確地接收使用者的語音或其他聲音。
第一至第五使用者輸入模組130a至130e以及第六與第七使用者輸入模組130f與130g可一起稱為使用者輸入單元130,且任一裝置可作為第一至第七使用者輸入模組130a至130g使用,只要能以觸覺方式操作。例如,使用者輸入單元130可以圓頂開關或觸摸板來實施,其能接收根據使用者按壓或觸摸操作的指令或資訊,或可用以旋轉按鍵的旋鈕或滾輪,或以操縱桿而實施。從功能來說,第一至第三使用者輸入模組130a至130c可操作成用以輸入比如啟動、結束或滾動之指令的功能鍵,第四使用者輸入模組130d可操作成用以選擇行動終端機100之操作模式的功能鍵,且第五使用者輸入模組130e可操作成用以啟動行動終端機100內特殊功能的熱鍵。
參閱第3圖,可在後蓋100-2的背面額外提供兩個攝影機121b與121c,且第六與第七使用者輸入模組130f與130g以及介面單元170可配置於後蓋100-2的一側。
攝影機121b與121c可具有影像捕捉方向,其實質上與攝影機121a相反,並具有與攝影機121a不同的解析度。可在3D攝像模式中一起使用攝影機121b與121c以產生立體3D影像,或可單獨使用以產生二維(2D)影像。攝影機121b與121c之間的距離係配置成可調節。因此,藉由調整攝影機121b與121c之間的距離,可調整立體3D影像的大小或解析度。更具體地說,攝影機121b與121c的其中之一可配置成可移動接近或遠離另一攝影機,使得攝影機121b與121c之間的距離可調節。
閃光燈125與鏡子可配置於攝影機121b與121c之間。當攝影機121b與121c捕捉主體的影像時,閃光燈125可照亮該主體。當他或她要自拍時,該鏡子可允許使用者看見他或她自己。
後蓋100-2上可額外提供另一音頻輸出模組。在後蓋100-2上的音頻輸出模組連同前蓋100-1上的音頻輸出模組153可實現立體聲功能。後蓋100-2上的音頻輸出模組也可使用於免持聽筒模式中。
介面單元170可作為允許行動終端機100與外部裝置經固定線或無線方式以交換資料的通道。
除了用於通話通信的天線以外,廣播信號接收天線可安裝於前蓋100-1或後蓋100-2的一側。該廣播信號接收天線可安裝成能延伸至前蓋100-1或該後蓋100-2的外部。
電源供應單元190可安裝於後蓋100-2,並可供電給行動終端機100。例如,電源供應單元190可為能可拆式結合於後蓋100-2用以充電的充電電池。
行動終端機100可使用其背部的攝影機121b與121c而產生立體3D影像,然後可在顯示模組151上顯示立體3D影像。
行動終端機100可顯示不同於對應立體3D影像之物件而對應於2D影像的物件,使得對應於立體3D影像的物件可輕易區分對應於2D影像的物件。行動終端機100可在顯示模組151上重新排列,並只顯示對應於立體3D影像的物件。
立體3D影像為可產生影像中深度錯覺的影像,並可因而提供觀看者生動的真實感。使用者雙眼約相隔65mm。因此,當雙眼各自出現不同的世界的2D影像時,該2D影像投射到雙眼的視網膜上,且大腦使用雙眼視差而由2D視網膜影像得出深度,雙眼視差是由雙眼水平距離所導致,並且是設計3D顯示裝置時所需要考慮到的最重要因素之一。
有多種顯示3D影像的方法,比如立體鏡顯示方法,係使用眼鏡以顯示3D影像的方法,自動立體顯示方法,係不需眼鏡的3D影像顯示方法且也稱為無眼鏡3D,以及投影方法,係使用全像技術。該立體鏡顯示方法通常使用於家庭TV機中,且該自動立體顯示方法通常使用於行動終端機中。
該自動立體顯示方法的實例係包含:透鏡顯示方法、視差格柵方法以及視差照明方法,但不限於此。該透鏡顯示方法牽涉到使用一片球狀凸透鏡於裝置前,以顯示左眼影像與右眼影像。該視差格柵顯示方法牽涉到經由視差格柵以投影左眼影像與右眼影像。該視差照明方法牽涉到在LCD後放置發光板,以使得交替像素柱列能被左眼與右眼看到。除了此處陳述的這些方法外,還可使用利用一些能夠產生三維感之因素的多種其他形式之立體3D成像技術。
第4A圖至第4C圖說明如何產生立體3D影像的實例。行動終端機100可使用其背部的兩個攝影機以產生立體3D影像,亦即攝影機121b與121c。為了方便起見,攝影機121b與121c將在下文中分別被稱為第一攝影機121b與第二攝影機121c。
參閱第4A圖與第4B圖,當作使用第一攝影機121b與第二攝影機121c捕捉物件200的結果,可產生第一影像205與第二影像207。
由第一攝影機121b與第二攝影機121c所提供的第一影像205與第二影像207係分別相當於左眼與右眼影像。參閱第4C圖,控制器180可使用第一影像205與第二影像207之間的差異以產生立體3D影像210。例如,第一影像205與第二影像207之間的差異為第一影像205與第二影像207中對應點之間的距離。將在下文中詳細闡述立體3D影像中該差異及此值的校正方法。
如先前所述,立體3D影像為可產生影像中深度錯覺的影像,並可因而提供觀看者生動的真實感。使用者的雙眼約相隔65mm。因此,當雙眼個自出現不同的世界的2D影像時,該2D影像投射到雙眼的視網膜上,且大腦使用雙眼視差而由2D視網膜影像得出深度感,雙眼視差係由雙眼水平距離所導致,且為設計3D顯示裝置時所需要考慮到的最重要的因素之一。
由控制器180所產生的立體3D影像210可在顯示模組151上顯示,或可使用感光紙與裝置印刷。不只是立體3D靜態影像而已,立體3D動態影像也可使用大致相同於上述的方法而產生。
要注意的是,有多種顯示3D影像的方法,比如立體鏡顯示方法,係使用眼鏡顯示3D影像的方法,自動立體顯示方法,係不需眼鏡的3D影像顯示方法且也稱為無眼鏡3D,以及投影方法,係使用全像技術。該立體鏡顯示方法通常使用於家庭TV機中,以及該自動立體顯示方法通常使用於行動終端機中。
該自動立體顯示方法的實例包含:透鏡顯示方法、視差格柵方法以及視差照明方法,但不限於此。該透鏡顯示方法牽涉到使用一片球狀凸透鏡於裝置前,以顯示左眼影像與右眼影像。該視差格柵顯示方法牽涉到經由視差格柵以投影左眼與右眼影像。該視差照明方法牽涉到在LCD後放置發光板,以使交替像素柱列能被左眼與右眼看到。除了此處陳述的這些方法外,還可使用利用一些能夠產生三維感之因素的多種其他形式之立體3D成像技術。
除了行動終端機以外,多種類型的裝置也可配置而能產生並顯示立體3D影像。
第5A圖與第5B圖說明立體3D影像中3D物件的深度與疲勞/不適間關係的實例。立體3D影像中物件的深度可根據立體3D影像的該左眼與右眼影像中物件之位置的差異而變化。
參閱第5A圖,醫學研究顯示,當會聚角θ在離物件220距離Z觀察物件220超過1.5度時,左眼223與右眼225相互間隔距離d的觀察者會開始感到疲憊。換言之,當聚焦於臨近物件時,會聚角θ會比聚焦位於遠處位置來得大,且會聚角越大,觀察者感到越累。因此,為了降低疲憊,立體3D影像中的3D物件可排列成使得會聚角θ能落入在預定範圍之內。該會聚角θ的範圍可設定為該行動終端機中的原始值,或可基於使用者喜好而設定。
參閱第5B圖,物件220被感知到從顯示模組151的表面突出距離Z’。臨界差異dTH 可為顯示模組151上所顯示右眼影像220R與左眼影像220L的對應部分之間的距離。臨界差異dTH 對於給定的會聚角θ可為參考差異範圍內的最大值。如圖所示,臨界差異dTH 係與距離Z’(所感知的3D物件的突出距離)有關,會聚角θ和使用者至顯示器151的總距離一樣。會聚角θ對3D物件的感知深度以及臨界雙眼差異dTH具有可表達為以下等式的關係:cos(θ)>=(dL 2 +dR 2 -dTH )/(2*dL *dR ),其中θ為該會聚角、dL 係為左眼影像與會聚點之間的距離、dR 係為右眼影像與會聚點之間的距離,而dTH 為規定的該雙眼視差的臨界值。
該參考差異範圍可為儲存在行動終端機中的一預定值。該差異範圍也可以由使用者基於使用者對差異變化的體驗或耐受度而設置。或者,可使用多種模式以預測使用者的不適程度,藉以設定置或調整該參考差異範圍。
此外,由於該會聚角θ取決於使用者與顯示裝置151的相對位置,所以該參考差異範圍可基於從使用者位置到該顯示器的預定距離Z。或者,感測器141可改距離Z以決定該會聚角θ。然後,該臨界差異值可基於所檢測的使用者的位置而調整。
第6圖說明3D效果如何被扭曲以響應放大之立體3D影像的實例。參閱第6A圖與第6B圖,可基於左眼影像233與右眼影像235之間的差異而產生立體3D影像230。在立體3D影像230中的差異可為d1,係可為左眼影像233與右眼影像235之中心的物件間之距離(在下文中稱為中心物件)。
當立體3D影像230被放大時,藉由縮放立體3D影像230可獲得立體3D影像240。可基於左眼影像233與右眼影像235之放大的左眼影像243與右眼影像245而產生縮放立體3D影像240。由於放大的左眼影像243與右眼影像245的中心之間的距離d2可大於d1,所以在立體3D影像240中的一些物件可落在參考差異範圍外。這可導致所放大的立體3D影像240出現扭曲並導致疲勞。此時,在該參考差異範圍之外的該等物件的該差異範圍需要進行校正。相類似地,響應尺寸縮小的立體3D影像230,在改變大小的立體3D影像中的3D物件也會出現扭曲。
僅為簡化說明,該對影像中公共點間的距離已經被描述成是在該等中心物件測量。然而,須知在此揭露的並非限定於特定的中心物件,且可基於左眼影像233與右眼影像235中任意對應參考點而測量該對影像中的差異。
第7圖為依據本發明的實施例,說明行動終端機的操作控制方法的流程圖。參閱第7圖,響應所選擇的3D模式或所接收的使用者指令,控制器180在顯示模組151顯示基於左眼影像與右眼影像之間的差異而產生的立體3D影像(S300)。
在一情況中,接收到改變立體3D影像的放大率的輸入,比如放大或縮小立體3D影像的輸入(S305),該控制器180改變左眼影像與右眼影像的放大率,藉以產生更改放大率(放大或縮小)的左眼影像與右眼影像(S310)。
控制器180在更改放大率的左眼影像與右眼影像中移動物件,使得該等物件可落入參考差異範圍之內(S315)。例如,可選擇該更改放大率的左眼影像與右眼影像中的中心物件,並可相對於所選中心物件,移動該更改放大率的左眼影像與右眼影像中的其他物件。例如,所選擇的中心物件可被移動以建立零視差,且在該更改放大率的左眼影像與右眼影像中的其他物件可照樣相對於所擇選的中心物件而移動。當移動該等影像而疊加於另一上方時,可達到零視差。此時,該零視差平面可為該顯示幕幕的表面,且與該第一影像與第二影像的中心物件之間相對應的距離可為零,使得該等影像為重疊。
在難以一起移動該參考差異範圍外所有物件的情況中,就如同當改變立體3D影像的放大率不僅是短程內的物件而且也包括遠處的物件時,在該參考差異範圍外的所有或一些物件可顯示為二維的情形。控制器180可決定多少物件被處理以校正它們的差異,例如基於分配系統資源至該功能的預設參數。
控制器180內插到使用適當內插法之操作S315的結果所產生的空洞區域,藉以產生校正的左眼影像與右眼影像(S320)。例如,該空洞區域可使用相鄰於該空洞區域或輔助影像的像素數值而內插。
控制器180在顯示模組151上顯示修正的立體3D影像的部分,其係由用於立體3D影像之放大率改變的輸入所選定(S325)。
如果選定改變立體3D影像的放大率之外的功能(S330),控制器180控制執行所選定的功能(S335)。例如,響應用以移動所接收之顯示幕的輸入,控制器180可移動顯示模組151附近所校正的立體3D影像。控制器180也可移動對應於所校正之立體3D影像的立體資訊,如數位資料、圖形或影像。
重複執行操作S305至S335,直到使用者選擇結束上述操作(S340)。
依據此示範性實施例,能夠校正在該參考差異範圍之外的立體3D影像中的物件,以響應該立體3D影像的放大率改變。
將在下文中參閱第8圖至第16圖,以進一步詳細說明第7圖的實施例。
第8圖說明立體3D影像的實例。參閱第8圖,在某一情況中,含有遠端物件的立體3D影像400的一部分403以及含有近程物件的立體3D影像400的一部分405被放大,不同物件可選取自立體3D影像部分403與405以當作中心物件,且立體3D影像400中的其他物件可使用所選定的中心物件而校正。
例如,選擇在近程部分405中的一對影像物件作為該中心物件。近程部分405的中心物件可被移動距離d3以建立零視差。在立體3D影像400中的其他物件,包括遠端部分403以及立體3D影像400的其他區域,可被移動相當於該中心物件,藉以校正立體3D影像400。
參閱第9A圖與第9B圖,立體3D影像410的一部分415可被選擇性放大,藉以獲得放大的立體3D影像420。立體3D影像410的放大率越高,立體3D影像410的3D效果也越高。如果立體3D影像420中的物件沒有落在參考差異範圍之外,則立體3D影像420不需校正。
參閱第9B圖,立體3D影像420的一部分425被放大,藉以獲得放大的立體3D影像430,如第9C圖所示。放大的立體3D影像430的差異d5變成大於立體3D影像420的差異。如果該差異d5在參考差異範圍之外,則立體3D影像430會導致眼睛疲勞與痛苦,並因而需要校正。例如,該差異d5可降低至該參考差異範圍之內。或者,放大的影像的差異可調整至放大前的差異。例如,影像430的差異d5可改變成該影像被放大前便已存在之影像425中的差異。
此外,如果立體3D影像420太大而不能校正,則整個立體3D影像420或者至少部分立體3D影像420可二維顯示。該影像是否以二維顯示係可基於用於該功能及處理該變化所需時間量的預定資源量而決定。
第10圖說明如何藉分割與變形影像以調整差異的實例。參閱第10圖,在顯示幕幕500上一起顯示左眼影像503與右眼影像505,用以調整差異或深度。如果使用者選擇部分左眼影像503與右眼影像505,則網格係顯示於所選擇之部分左眼影像503與右眼影像505的上方,使得每個左眼影像503與右眼影像505可被分割成複數個區段。標識該網格的交叉點。
在該網格中的指標507係高於選自每個左眼影像503與右眼影像505中邊緣部分的預定臨界值之數值的點,並可藉相互相連而形成一個或多個平面。如果使用者觸摸且然後順時針旋轉該等指標,則當基於左眼影像503與右眼影像505以產生立體3D影像時,可增加該等指標的深度。
立體3D影像的深度可使用設於右眼影像505之右側上的顏色條510而表示。顏色條510表示藉自動會聚所獲取之原始深度值的相對深度。如果使用者觸摸然後逆時針旋轉該指標,則立體3D影像可以自動會聚所獲取之深度值的相對深度而顯示。為了提供自動會聚與整個影像之深度資訊所獲取的深度值,自動會聚所獲取的整體深度圖譜可顯示成3D柱狀圖513,並且藉改變左眼影像503與右眼影像505的深度所獲得的深度圖譜可以3D柱狀圖515而顯示於3D柱狀圖513下。如果左眼影像503與右眼影像505的其中之一的深度是藉分割與變形影像而調整,則另一眼影像的深度可照樣自動調整。
如果左眼影像503與右眼影像505的影像的深度對於所有區段都可自由調整,則立體3D影像會變得不自然,並因而對調整每個左眼影像503與右眼影像505的深度施加限制。換言之,左眼影像503與右眼影像505的深度未調整至有二物件個互相重疊的程度,後面的物件可能出現比前面的物件還突出,反之亦然。為此,顏色條510可對於每個物件,基於相鄰物件的深度而提供可允許的深度變化範圍資訊,使得使用者不能調整每個物件的深度超出可允許的深度變化範圍。影像的深度可藉分割與變形影像而被有效調整,防止3D效果被扭曲。,
第11A圖與第11B圖說明如何調整立體3D影像的深度與差異的實例。參閱第11A圖,可在顯示立體3D影像的3D模式顯示幕600上提供3D深度設置功能表610。
在“3D深度”的用詞是選取自3D深度設置功表能610的情況中,用以調整整體立體3D影像或部分立體3D影像之差異或深度的顯示幕620可被顯示出,如第11B圖所示。可顯示資訊視窗621以提供通知給使用者,如圖所示。此時,3D物件625(例如圖示)的感知深度可在顯示幕620上調整。
第12A圖與第12B圖說明如何使用捲軸調整整幅立體3D影像的深度的實例。參閱第12A圖與第12B圖,例如,包含複數個3D圖示625的立體3D影像可顯示在顯示幕620上。可在顯示幕620上配置立體3D影像的深度以增強響應於提供在顯示幕620左側之捲軸630中向上滾的滑塊,以及降低響應於捲軸中向下滾的滑塊。
在顯示幕620上的立體3D影像中的物件625可依據對應於立體3D影像的深度之變化而配置成放大或縮小,以響應捲軸630中向上或向下滾的滑塊。
參閱第13A圖與第13B圖,特定物件的深度可配置而調整,例如增強,以響應藉由在特定物件上用兩個或兩個以上手指多點觸摸並拖拽手指相互遠離而產生之被接收的按捏放大(Pinch-out)輸入623。在此例中,物件625的深度可選擇性調整以響應按捏放大輸入,而進一步從該顯示器中被感知到突出感,如圖所示。
參閱第14A圖至14B圖,特定物件的深度可配置而降低,以響應在特定物件上用兩個或兩個以上手指多點觸摸並拖拽手指相互靠近而產生之被接收的按捏縮小(Pinch-in)輸入633。
另一方式是,調整物件的深度可配置以響應長時觸摸輸入。
參閱第15圖,3D圖譜640可顯示於顯示幕上。3D圖譜640顯示出目前顯示於該顯示幕上的物件之深度。在3D圖譜640上,目前正被使用者操作的物件可用不同於其他物件的顏色而顯示。
參閱第16圖,立體3D影像650可包含複數個3D物件661、662、663。在某一情況中,特定物件662用兩個手指多點觸摸,然後此二手指拖拽成相互遠離或靠近,如元件符號655與657所示,而用另一手指按壓規定鍵,如元件符號653所示,物件662的深度可配置而調整。此時,物件662的深度可配置而增加以響應按捏放大輸入,並降低以響應按捏縮小輸入。另一方式是,該按捏輸入與按鈕653的選擇可一起改變整個立體3D影像650的感知3D深度,而非只是上述的物件662而已。此外,如上所述,可使用多種手勢輸入以調整物件的深度或差異。
依據本發明的行動終端機以及依據本發明的行動終端機之操作控制方法,並非限定於在此所提的示範性實施例。因此,此所提的示範性實施例之變化及組合會落入本發明範圍內。
本發明可被實現成能被包含於行動終端機之處理器(例如行動基地臺數據機(MSM))所讀取且可被寫入到電腦可讀記錄媒介上的代碼。該電腦可讀記錄媒介可包含能以電腦可讀形式儲存資料的任意類型之記錄裝置。該電腦可讀記錄媒介的實例包括ROM、RAM、CD-ROM,、磁帶、軟碟、光學資料記憶體以及載波(Carrier Wave)(比如藉網際網路的資料傳輸)。該電腦可讀記錄媒介可分佈於連接至網路的複數個電腦系統,使得電腦可讀代碼在此寫入,並在他處以分散化方式而執行。用以實現本發明所需的功能性程式、代碼以及代碼區段可輕易的由熟知該技術領之人士而建構。
如上所述,依據本發明,可正確校正落在參考差異範圍之外的立體3D影像中的物件的差異,以響應放大或縮小的立體3D影像。因此,可防止當立體3D影像中的物件落在參考差異範圍之外以響應被放大或縮小的立體3D影像時所引起的噁心或頭痛。
如同在此所實施及廣泛揭示,本發明提供一種行動終端機,能校正落在參考差異範圍之外的物件的差異範圍,以響應包含放大或縮小之物件的立體三維(3D)影像。
依據本發明的特點,提供一種行動終端機的操作控制方法,該操作控制方法包括:在顯示模組上顯示基於第一及第二影像之間的差異所產生的第一立體3D影像;響應用於改變已接收影像之放大率的輸入,改變第一影像及第二影像的放大率;藉相對於選取自放大改變的第一影像及第二影像的中心物件移動落在參考差異範圍之外的放大改變的第一影像及第二影像中的其他物件,產生第一校正影像及第二校正影像,使得移動物件可落回參考差異範圍之內;以及在顯示模組上顯示由放大改變輸入所指定之第二立體3D影像的一部分,而第二立體3D影像是基於放大改變的第一影像及第二影像之間的差異而產生。
依據本發明的另一特點,提供一種行動終端機,包括:顯示模組,配置以顯示基於第一影像及第二影像之間的差異所產生的第一立體3D影像;以及控制器,配置以響應用於改變已接收影像之放大率的輸入,改變第一影像及第二影像的放大率,並藉相對於選取自放大改變第一影像及第二影像的中心物件移動落在參考差異範圍之外的放大改變的第一影像及第二影像中的其他物件,產生第一校正影像及第二校正影像,使得移動物件可落回參考差異範圍之內,該控制器配置以在顯示模組上顯示被放大改變輸入所指定之第二立體3D影像的一部分,而第二立體3D影像是基於放大改變第一影像及第二影像之間的差異而產生。
說明書中任何參考“一個實施例”、“一實施例”、“具體實施例”,是指與相關實施例中描述的特定特點、結構、或特徵係包含於本發明實施例的至少其中之一中。說明書中不同階段的外觀並不必都涉及相同的實施例。進一步地,當特定特點、結構或特徵是描述成與任一實施例相關時,所提交的是與其他任一實施例相關的這種特點、結構或特徵是在熟知概技術領人士之常識內。
雖然多個實施例已經參考數個解釋性實例而說明,但是要了解的是,許多其他修改及實施例可由熟知該技術領之人士所想到,而將落在本發明原理之精神及範圍內。尤其是,許多改變及修改在本發明範圍、圖式及申請專利範圍內之主要組合配置的元件部分及/或配置中是可能的。除了元件部分及/或配置中的改變及修改以外,其他使用對於熟知該技術領的人士也將是顯而易見。
本申請案主張2010年11月26日提交之韓國專利申請第10-2010-0118918號的權利,透過引用將其全部結合到本申請案中。
100...行動終端機
100-1...前蓋
100-2...後蓋
105...天線
110...無線通信單元
111...廣播接收模組
113...無線互聯模組
117...短程通信模組
119...全球定位系統(GPS)模組
120...音頻/視頻(A/V)輸入單元
121...攝影機
121a、121b、121c...攝影機
123...麥克風
125...閃光燈
130...使用者輸入單元
130a...第一使用者輸入單元
130b...第二使用者輸入單元
130c...第三使用者輸入單元
130d...第四使用者輸入單元
130e...第五使用者輸入單元
130f...第六使用者輸入單元
130g...第七使用者輸入單元
140...感測單元
141...近接感測器
143...壓力感測器
145...運動感測器
150...輸出單元
151...顯示模組
153...音頻輸出模組
153a...第一音頻輸出模組
155...警示模組
157...觸覺模組
160...記憶體
170...介面單元
180...控制器
181...多媒體播放器模組
190...電源供應單元
200...物件
205...第一影像
207...第二影像
210...立體3D影像
220...物件
220R...右眼影像
220L...左眼影像
223...右眼
225...左眼
230...立體3D影像
233...左眼影像
235...右眼影像
240...立體3D影像
243...放大的左眼影像
245...放大的右眼影像
400...立體3D影像
403...遠端部分
405...近程部分
410...立體3D影像
415...立體3D影像的一部分
420...立體3D影像
425...立體3D影像的一部分
430...立體3D影像
500...顯示幕幕
503...左眼影像
505...右眼影像
507...指標
510...顏色條
513...3D柱狀圖
515...D柱狀圖
600...3D模式顯示幕
610...功能表
620...顯示幕
621...資訊視窗
623...按捏放大輸入
625...3D物件
630...捲軸
633...按捏縮小輸入
640...3D圖譜
650...立體3D影像
653...按鈕
655、657...箭頭(方向)
661、662、663...3D物件
S300~S340...步驟
Z、Z`...距離
θ...會聚角
實施例係參考圖式而詳細說明,元件符號係指相似的元件,其中:
第1圖為依據本發明實施例的行動終端機的方塊圖;
第2圖為第1圖所示的行動終端機的前視圖;
第3圖為第2圖所示的行動終端機的後視圖;
第4A圖至第4C圖為說明如何製作立體三維(3D)影像的實例的圖式;
第5A圖與第5B圖為說明立體3D影像中3D物件的深度與疲勞之間關係式實例的圖式;
第6A圖與第6B圖為說明3D效果如何扭曲以回應已放大之立體3D影像的實例之圖式;
第7圖為依據本發明示範性實施例說明行動終端機之操控方法的流程圖;以及
第8圖至第16圖為說明第7圖示範性實施例的圖式。
100...行動終端機
105...天線
110...無線通信單元
111...廣播接收模組
113...行動通信模組
115...無線互聯模組
117...短程通信模組
119...全球定位系統(GPS)模組
120...音頻/視頻(A/V)輸入單元
121...攝影機
123...麥克風
130...使用者輸入單元
140...感測單元
141...近接感測器
143...壓力感測器
145...運動感測器
150...輸出單元
151...顯示模組
153...音頻輸出模組
155...警示模組
157...觸覺模組
160...記憶體
170...介面單元
180...控制器
181...多媒體播放器模組
190...電源供應單元

Claims (15)

  1. 一種行動終端機,包括:一三維(3D)顯示器,配置以顯示含有第一影像與第二影像的一3D影像,該3D影像包括複數個3D物件;以及一控制器,配置以改變包含該第一影像與該第二影像之該3D影像的放大率以響應使用者輸入,並校正第一縮放影像與第二縮放影像之間的雙眼差異,其中該控制器決定該第一縮放影像與該第二縮放影像之間的雙眼差異,決定該雙眼差異是否在規定的差異範圍之外,將該第一縮放影像及該第二縮放影像的至少其中之一重新定位,使得該雙眼差異在規定的差異範圍之內,以及控制該3D顯示器以顯示該校正的第一縮放影像與第二縮放影像,其中該控制器藉由基於選自該第一縮放影像及該第二縮放影像的中心物件重新定位落於該規定的差異範圍之外的至少一3D物件,重新定位該第一縮放影像或該第二縮放影像的該至少其中之一,以及其中若該控制器難以將一起落入該規定的差異範圍之外的所有3D物件重新定位,則該控制器控制該3D顯示器以顯示落入該規定的差異範圍之外的該等3D物件的一些物件成為二維(2D)物件。
  2. 依據申請專利範圍第1項所述的行動終端機,其中該第一縮放影像及該第二縮放影像之間的該雙眼差異係基於該複數個3D物件的該中心物件來決定。
  3. 依據申請專利範圍第2項所述的行動終端機,其中該控制器藉移動該第一縮放影像及該第二縮放影像的該複數個3D物件之該中心物件,來校正該第一縮放影像與該第二縮放影像之間的該雙眼差異,以建立零視差。
  4. 依據申請專利範圍第1項所述的行動終端機,其中該控制器在該3D顯示器上移動該第一縮放影像及該第二縮放影像,以響應移動該縮放3D影像的請求。
  5. 依據申請專利範圍第1項所述的行動終端機,其中當該第一影像及該第二影像的放大率超出一參考水準時,該控制器控制該3D顯示器以顯示對應於該縮放的第一影像與第二影像的2D影像。
  6. 依據申請專利範圍第1項所述的行動終端機,其中該控制器內插以填滿藉重新定位該第一縮放影像或該第二縮放影像所產生的一空洞區域。
  7. 依據申請專利範圍第1項所述的行動終端機,其中該控制器校正選自該複數個3D物件的3D物件的雙眼差異,以響應包含一按捏縮小(Pinch-in)輸入或一按捏放大(Pinch-out)輸入的一預定手勢輸入。
  8. 依據申請專利範圍第1項所述的行動終端機,其中該控制器經由影像分割及變形而調整該3D影像之感知深度。
  9. 依據申請專利範圍第1項所述的行動終端機,其中該控制器響應一預定輸入控制該3D顯示器以顯示選取自該第一縮放影像及該第二縮放影像之一個或以上的物件成為3D物件,並顯示該第一縮放影像及該第二縮放影像中之其他非選取物件成為2D物件。
  10. 依據申請專利範圍第1項所述的行動終端機,其中該控制器控制該3D顯示器以顯示對應於該顯示之第一縮放影像與第二縮放影像的立體資訊,該立體資訊係顯示成數字資料、圖形或影像的至少其中之一。
  11. 一種用於控制行動終端機上之3D顯示器的方法,包括:顯示包含有第一影像與第二影像的3D影像,該3D影像包括複數個3D物件;改變包含該第一影像與該第二影像之該3D影像的放大率以響應使用者輸入;以及校正第一縮放影像與第二縮放影像之間的雙眼差異,其中該校正該雙眼差異包括:決定該第一縮放影像與該第二縮放影像之間的雙眼差異;決定該雙眼差異是否在規定的差異範圍之外;將該第一縮放影像及該第二縮放影像的至少其中之一重新定位,使得該雙眼差異在規定的差異範圍之內;以及於該3D顯示器上顯示該校正的第一縮放影像與第二縮放影像,其中該將該第一縮放影像及該第二縮放影像的至少其中之一重新定位包括藉由基於選自該第一縮放影像及該第二縮放影像的中心物件重新定位落於該規定的差異範圍之外的至少一3D物件,重新定位該 第一縮放影像或該第二縮放影像的該至少其中之一,以及其中若該顯示該校正的第一縮放影像與第二縮放影像難以將一起落入該規定的差異範圍之外的所有3D物件重新定位,則該顯示該校正的第一縮放影像與第二縮放影像包括顯示落入該規定的差異範圍之外的該等3D物件的一些物件成為二維(2D)物件。
  12. 依據申請專利範圍第11項所述的方法,其中該第一縮放影像及該第二縮放影像之間的該雙眼差異係基於該複數個3D物件的該中心物件來決定。
  13. 依據申請專利範圍第12項所述的方法,其中該校正該雙眼差異進一步包括移動該第一縮放影像及該第二縮放影像的該複數個3D物件之該中心物件,以建立零視差。
  14. 依據申請專利範圍第11項所述的方法,進一步包括:於該3D顯示器上移動該第一縮放影像及該第二縮放影像,以響應移動該縮放3D影像的請求。
  15. 依據申請專利範圍第11項所述的方法,進一步包括:當該第一影像及該第二影像的放大率超出一參考水準時,於該3D顯示器上顯示對應於該縮放的第一影像與第二影像的2D影像。
TW100143401A 2010-11-26 2011-11-25 行動終端機及其操作控制方法 TWI471820B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100118918A KR101727899B1 (ko) 2010-11-26 2010-11-26 휴대 단말기 및 그 동작 제어방법

Publications (2)

Publication Number Publication Date
TW201224993A TW201224993A (en) 2012-06-16
TWI471820B true TWI471820B (zh) 2015-02-01

Family

ID=45470262

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100143401A TWI471820B (zh) 2010-11-26 2011-11-25 行動終端機及其操作控制方法

Country Status (6)

Country Link
US (1) US9088771B2 (zh)
EP (1) EP2458880B1 (zh)
JP (1) JP5357238B2 (zh)
KR (1) KR101727899B1 (zh)
CN (1) CN102479052B (zh)
TW (1) TWI471820B (zh)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
US9152258B2 (en) * 2008-06-19 2015-10-06 Neonode Inc. User interface for a touch screen
US20130141550A1 (en) * 2010-04-01 2013-06-06 Nokia Corporation Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair
JP5586377B2 (ja) * 2010-08-17 2014-09-10 オリンパスイメージング株式会社 表示装置
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5281720B1 (ja) * 2011-09-20 2013-09-04 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
JP2013097593A (ja) * 2011-11-01 2013-05-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
GB2498954B (en) * 2012-01-31 2015-04-15 Samsung Electronics Co Ltd Detecting an object in an image
CN104137539B (zh) * 2012-02-23 2016-07-27 富士胶片株式会社 立体图像显示控制装置、具有该装置的摄像装置及立体图像显示控制方法
CN103312863A (zh) * 2012-03-08 2013-09-18 中兴通讯股份有限公司 移动终端视频的呈现方法及装置
WO2013145861A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2014002404A1 (ja) 2012-06-29 2014-01-03 パナソニック株式会社 触覚提示装置、および、触覚提示方法
CN102883120B (zh) * 2012-07-24 2016-07-20 冠捷显示科技(厦门)有限公司 一种双画面图像显示装置及控制方法
KR101971624B1 (ko) 2012-07-25 2019-04-23 삼성전자주식회사 이동 단말의 정보 표시 방법, 디스플레이 장치의 정보 제공 방법, 이동 단말의 제어 신호 생성 방법
TWI478046B (zh) * 2012-12-28 2015-03-21 Qisda Corp 數位相機操作方法以及使用此方法之數位相機
CN103049175B (zh) * 2013-01-22 2016-08-10 华为终端有限公司 预览画面呈现方法、装置及终端
CN103970458A (zh) 2013-01-30 2014-08-06 国际商业机器公司 用于对多个条件的取值进行调节的方法和***
EP2959685A4 (en) * 2013-02-19 2016-08-24 Reald Inc IMAGING PROCESS AND DEVICE BASED ON BINOCULAR FIXING
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10261612B2 (en) * 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US9239661B2 (en) * 2013-03-15 2016-01-19 Qualcomm Incorporated Methods and apparatus for displaying images on a head mounted display
WO2014163214A1 (en) * 2013-04-01 2014-10-09 Lg Electronics Inc. Image display device for providing function of changing screen display direction and method thereof
TWI547142B (zh) 2013-04-02 2016-08-21 杜比實驗室特許公司 引導的3d顯示器適配
CN103297501A (zh) * 2013-05-07 2013-09-11 杭州玄鸟数字技术有限公司 全息投影实时交互***
US20160212404A1 (en) * 2013-08-23 2016-07-21 The Schepens Eye Research Institute, Inc. Prevention and Treatment of Myopia
CN104461601B (zh) * 2013-09-25 2017-11-28 联想(北京)有限公司 一种参数值调整方法及电子设备
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
KR20150042574A (ko) * 2013-10-11 2015-04-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application
KR102271853B1 (ko) * 2014-03-21 2021-07-01 삼성전자주식회사 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
TWI566576B (zh) * 2014-06-03 2017-01-11 宏碁股份有限公司 立體影像合成方法及裝置
US9473764B2 (en) 2014-06-27 2016-10-18 Microsoft Technology Licensing, Llc Stereoscopic image display
US9911235B2 (en) * 2014-11-14 2018-03-06 Qualcomm Incorporated Spatial interaction in augmented reality
TWI556664B (zh) * 2014-11-24 2016-11-01 To achieve a wireless interaction between an electronic device and an initiator
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
DE102015100680B4 (de) * 2015-01-19 2016-10-13 Carl Zeiss Ag Verfahren und Vorrichtungen zur Umgebungsdarstellung
KR102317820B1 (ko) * 2015-08-12 2021-10-26 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
US11889224B2 (en) * 2015-12-31 2024-01-30 C. Douglass Thomas Electronic cooking assistant
CN106484416B (zh) 2016-09-30 2021-02-05 腾讯科技(北京)有限公司 一种信息处理方法及终端
CN107959846B (zh) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 影像显示设备及影像显示方法
JP7350510B2 (ja) * 2019-05-14 2023-09-26 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US11280630B2 (en) * 2019-11-27 2022-03-22 Zoox, Inc. Updating map data
CN114534252A (zh) * 2020-11-25 2022-05-27 苏州佳世达电通有限公司 显示装置及其显示方法
KR20220107831A (ko) * 2021-01-26 2022-08-02 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN113271451B (zh) * 2021-04-22 2023-02-28 武汉联影智融医疗科技有限公司 3d成像视差调整方法、控制设备和3d成像***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002071764A1 (en) * 2001-01-24 2002-09-12 Vrex, Inc. Method and system for adjusting stereoscopic image to optimize viewing for image zooming
CN1774937A (zh) * 2003-04-17 2006-05-17 夏普株式会社 三维图像生成装置、三维图像再现装置、三维图像处理装置、三维图像处理程序及记录该程序的记录介质
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653790B2 (ja) * 1995-05-23 2005-06-02 松下電器産業株式会社 立体電子ズーム装置及び立体画質制御装置
JP4222817B2 (ja) 2002-09-27 2009-02-12 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
JP4259913B2 (ja) 2003-05-08 2009-04-30 シャープ株式会社 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
US7636088B2 (en) 2003-04-17 2009-12-22 Sharp Kabushiki Kaisha 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
US8619121B2 (en) 2005-11-17 2013-12-31 Nokia Corporation Method and devices for generating, transferring and processing three-dimensional image data
KR100704634B1 (ko) * 2005-12-19 2007-04-09 삼성전자주식회사 사용자의 위치에 따른 입체 영상을 디스플레이하는 장치 및방법
KR100894874B1 (ko) * 2007-01-10 2009-04-24 주식회사 리얼이미지 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법
JP2009246625A (ja) 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
JP4811452B2 (ja) 2008-11-19 2011-11-09 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5355208B2 (ja) 2009-05-01 2013-11-27 富士フイルム株式会社 3次元表示装置及びデジタルズーム補正方法
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
US9380292B2 (en) * 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
KR101626621B1 (ko) * 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
KR101834263B1 (ko) * 2010-04-01 2018-03-06 톰슨 라이센싱 3차원(3d) 프리젠테이션에서의 서브타이틀들
GB2479784B (en) * 2010-04-23 2012-11-07 Nds Ltd Image scaling
JP5186715B2 (ja) 2010-06-14 2013-04-24 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム
WO2012037075A1 (en) * 2010-09-14 2012-03-22 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
KR20120055991A (ko) * 2010-11-24 2012-06-01 삼성전자주식회사 영상처리장치 및 그 제어방법
JP5879713B2 (ja) * 2010-12-09 2016-03-08 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9189825B2 (en) * 2011-04-12 2015-11-17 Lg Electronics Inc. Electronic device and method for displaying stereoscopic image
JP2012244396A (ja) * 2011-05-19 2012-12-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US20130009949A1 (en) * 2011-07-05 2013-01-10 Texas Instruments Incorporated Method, system and computer program product for re-convergence of a stereoscopic image
KR101899972B1 (ko) * 2011-12-21 2018-09-18 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR101873759B1 (ko) * 2012-04-10 2018-08-02 엘지전자 주식회사 영상 표시 장치 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002071764A1 (en) * 2001-01-24 2002-09-12 Vrex, Inc. Method and system for adjusting stereoscopic image to optimize viewing for image zooming
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
CN1774937A (zh) * 2003-04-17 2006-05-17 夏普株式会社 三维图像生成装置、三维图像再现装置、三维图像处理装置、三维图像处理程序及记录该程序的记录介质

Also Published As

Publication number Publication date
US9088771B2 (en) 2015-07-21
EP2458880A3 (en) 2013-03-27
US20120133645A1 (en) 2012-05-31
JP2012114920A (ja) 2012-06-14
JP5357238B2 (ja) 2013-12-04
CN102479052A (zh) 2012-05-30
KR101727899B1 (ko) 2017-04-18
EP2458880B1 (en) 2017-05-10
KR20120057258A (ko) 2012-06-05
EP2458880A2 (en) 2012-05-30
CN102479052B (zh) 2014-10-22
TW201224993A (en) 2012-06-16

Similar Documents

Publication Publication Date Title
TWI471820B (zh) 行動終端機及其操作控制方法
US9323324B2 (en) Mobile terminal and operation control method thereof
US9513710B2 (en) Mobile terminal for controlling various operations using a stereoscopic 3D pointer on a stereoscopic 3D image and control method thereof
US8826184B2 (en) Mobile terminal and image display controlling method thereof
US9298745B2 (en) Mobile terminal capable of displaying objects corresponding to 3D images differently from objects corresponding to 2D images and operation control method thereof
EP2498174B1 (en) Mobile terminal and 3D object control method thereof
KR101674957B1 (ko) 이동 단말기 및 그 제어방법
CN103369130B (zh) 显示设备及其控制方法
US9459785B2 (en) Electronic device and contents generation method thereof
KR20120015165A (ko) 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기
US20120069000A1 (en) Mobile terminal and method for controlling operation of the mobile terminal
KR20120007195A (ko) 이동 단말기 및 그 제어방법
KR101633336B1 (ko) 이동 단말기 및 그 제어방법
KR20130065074A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20130071059A (ko) 이동 단말기 및 그 제어방법
US8941648B2 (en) Mobile terminal and control method thereof
KR20110060125A (ko) 이동 단말기 및 그 제어방법
KR20120130394A (ko) 휴대 단말기 및 그 제어방법
KR20120040766A (ko) 휴대 단말기 및 그 동작 제어방법
KR20130033662A (ko) 이동 단말기
KR20130066338A (ko) 휴대 단말기 및 그 동작방법
KR20130058204A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees