TW201229646A - Information processing apparatus, information processing method and program - Google Patents

Information processing apparatus, information processing method and program Download PDF

Info

Publication number
TW201229646A
TW201229646A TW100128156A TW100128156A TW201229646A TW 201229646 A TW201229646 A TW 201229646A TW 100128156 A TW100128156 A TW 100128156A TW 100128156 A TW100128156 A TW 100128156A TW 201229646 A TW201229646 A TW 201229646A
Authority
TW
Taiwan
Prior art keywords
content
image
information processing
projection surface
projected
Prior art date
Application number
TW100128156A
Other languages
English (en)
Inventor
Ken Miyashita
Shunichi Kasahara
Ikuo Yamano
Kazuyuki Yamamoto
Hiroyuki Mizunuma
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of TW201229646A publication Critical patent/TW201229646A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/54Details of telephonic subscriber devices including functional features of a projector or beamer module assembly

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Description

201229646 六、發明說明 本申請案根據並主張先前20 10年8月16日提出申之 曰本專利申請案JP 20 1 0- 1 8 1 759之優勢,該全文內容倂 入本文參考。 【發明所屬之技術領域】 本揭示之例示性實施例與資訊處理設備、資訊處理方 法與程式有關。 【先前技術】 資訊處理裝置係設置於顯示設備內。此顯示設備具有 顯示單元,並顯示各式影像。此外,從顯示設備放大及顯 示影像的觀點來看,即爲吾人所熟知能投影並在投影面上 顯示影像的投影機(見提前公開之日本專利申請案No. 2009-64375)。提前公開之日本專利申請案 No. 2009-643 75的投影機根據從個人電腦輸出的視訊信號,在個人 電腦的監視器視訊影像上疊置一鍵盤視訊影像’並將該視 訊影像投影在地板面上。 【發明內容】 順帶一提,某些顯示設備具有顯示單元與投影機。不 過,這些顯示設備意欲用來在顯示單元上顯示影像’或將 影像投影在投影面上來顯示。因此,尙未有考慮到在顯示 器上顯示影像與將影像投影在投影面上一起使用,且有顯 -5- 201229646 示單元與投影單元無法被有效利用的問題。 按照前述,意欲提供一創新且改進的資訊處理設備、 資訊處理方法與程式,能夠增進利用被顯示在顯示單元上 之影像與被投影在投影面上之影像的方便性。 與例示性實施例一致’一資訊處理裝置包括外殼及顯 示單元被組構來將至少一部分的第一內容顯示給使用者。 投影單元被組構來將至少一部分的第二內容投影在投影面 上。偵測單元被組構來偵測投影面與部分外殼之間的位 移,外殼被組構來支撐顯示單元、投影單元、及偵測單 元。偵測單元另被組構來決定該位移是否落於臨限距離之 內。投影單元另被組構來當該位移落於臨限距離之內時’ 將該內容的該第二部分投影在投影面上。 與另一例示性實施例一致,一用於處理資訊之電腦可 實施的方法,包括偵測投影面與資訊處理裝置之部分外殼 之間的位移。該方法決定該位移是否落於臨限距離內。將 至少一部分的第一內容顯示給使用者。當位移落於臨限距 離之內時,將至少一部分的第二內容投影在投影面上。 與又一例示性實施例一致,一儲存程式的非暫時性電 腦可讀取儲存媒體,當所儲存的程式被處理器執行時,該 程式致使處理器施行用來處理資訊的方法。該方法包括偵 測投影面與資訊處理裝置之部分外殼間的位移。該方法決 定該位移是否落於臨限距離內。將至少一部分的第一內容 顯示給使用者。當該位移落於臨限距離之內時,將至少一 部分的第二內容投影在投影面上。 -6 - 201229646 如前所述,按照所揭示的例示性實施例’其可增進利 用被顯示在顯示單元上之影像與被投影在投影面上之影像 的方便性。 【實施方式】 在後文中,將參考附圖詳細描述本揭示的較佳實施 例。須注意,在本說明書中及附圖中,具有實質相同功能 及結構的結構構件,將以相同的參考編號來指示’且對這 些結構構件的重複解釋將予省略。 本描述將按以下所示的順序提供: 1.資訊處理設備之組構。 2 .投影機1 8之投影影像的投射。 3. 要被投射在投影面S上之投影影像的模式。 4. 影像P 1與投影影像P2之捲動顯示。 5. 影像P1與投影影像P2之顯示處理的第一例示性 實施例。 6. 影像P1與投影影像P 2之顯示處理的第二例示性 實施例。 7. 影像P 1與投影影像P2之捲動顯示的例子。 8 .其它例示性實施例。 1.資訊處理設備之組構。 在本例示性實施例中’將以諸如行動電話或PDA(個 人數位助理)之類的行動終端爲例來解釋資訊處理設備。 首先,將使用圖1及2來解釋行動終端1 0的組構。 201229646 圖1的方塊圖顯示行動終端1〇之主要部分之組構。圖2 的斜視圖顯示行動終端1 〇之外觀。此外,圖2顯示如何 藉由行動終端1 0的投影機1 8將投影影像投射在台面(未 顯示)上。 行動終端1 0例如具有瀏覽網站(全球資訊網)的功 能。如圖1之說明,此行動終端1 〇具有控制單元3 0、記 億體14、顯示單元16、投影機18(其爲投影單元之一 例)、照相機20、觸控面板22、接觸感測器24(其爲接觸 偵測單元之一例)、與通信單元2 8。 控制單元3 0控制整個行動終端丨〇,並對顯示單元 1 6、投影機1 8、及類似單元施行預定的控制。記憶體i 4 儲存控制單元3 0所使用的資訊(例如由控制單元3 〇所執 行的程式資訊)。 顯示單元1 6例如是液晶顯示器或有機EL顯示器, 且例如在顯示幕上顯示各式各樣的影像。例如,在瀏覽網 站時,顯示單元1 6顯示網頁的影像。此外,顯示單元1 6 設置在行動終端10之正面l〇b內,且顯示單元16之顯示 幕的尺寸遠小於正面l〇b的面積。 如圖2之說明,投影機1 8在投影面S上投射一投影 影像(第二影像)。投影機1 8具有光源及諸如透鏡的光學 系統,並放射一·光束’在投影面上投射影像或文子(視訊 影像)。投影機1 8與顯示單元1 6類似’也設置在行動終 端10的正面l〇b’且位在顯示單元16之垂直方向的上 方。此外,投影機1 8被組構來在垂直的方向斜向地向下 -8- 201229646 投射投影影像。 此外,按照本例示性實施例的投影機1 8,在行動終 端10底表面l〇a接觸的接觸面(投影面S)上投射一投影影 像。如圖2之說明,投影機1 8所投射的投影影像使得該 投影影像鄰接於行動終端10的底面l〇a。此外,以下將 解釋投影機1 8投射投影影像的細節。 照相機20係直接取得影像。照相機20具有鏡頭及成 像元件,諸如CCD或CMOS。按照本例示性實施例的照 相機20,具有偵測使用者之手指在投射於投影面S上之 投影影像上移動的功能。爲實現此功能,與投影機1 8類 似,照相機20也是設置在行動終端10的正面l〇b,且位 於顯示單元16垂直方向之上方。另外,照相機20被組構 來在垂直方向中取得斜向下部分的影像。此外,在本例示 性的實施例中,照相機20被設置在投影機1 8水平方向之 旁。 觸控面板22係覆於並設置在顯示單元16內。此觸控 面板22允許偵測使用者在顯示單元1 6所顯示之影像上的 點擊操作或拖曳操作。在此,可使用所謂的靜電法及壓力 感測法其中之一做爲觸控面板22的偵測方法。此外,點 擊操作意指關於觸控面板22的碰觸控制,而拖曳操作意 指手指接觸觸控面板22的移動操作。 接觸感測器2 4係設置在行動終端1 0的底面1 〇 a,並 偵測行動終端1 0接觸投影面S。接觸感測器24可用各式 各樣的系統,只要能偵測到接觸面,諸如可使用機械式系 -9 - 201229646 統。 通信單元2 8具有天線,例如經由基地台與網路施行 無線通信,以接到外部伺服器或類似物。 此外,雖然投影機1 8與照相機20位於顯示單元! 6 之垂直方向的上方,但它們的設置位置並不限於此。例 如,投影機1 8與照相機20也可位於顯示單元1 6之水平 方向中的橫向側。此外,投影機1 8與照相機2 0可各自設 置在不同的位置。 2 .投影機1 8之投影影像的投射 如圖2之說明,投影機1 8在行動終端1 0之底面1 〇 a 所接觸的接觸面(投影面S)上投射投影影像。此外,投影 面S上的虛線指示投影機1 8的投影區域。 在本例示性實施例中,藉由顯示單元1 6之影像的顯 示,與藉由投影機1 8在投影面上之影像的投射均被施 行。此外,顯示單元1 6上所顯示的影像與投影機1 8所投 射的投影影像構成一連串看似連續的影像。在此,投影影 像與顯示單元1 6上所顯示的影像相關。結果是,顯示區 看似被擴展,以致使用者可在一較寬的顯示幕上辨識相關 的影像(連續影像)。 控制單元30控制藉由顯示單元16之影像的顯示與藉 由投影機1 8之影像的投射來顯示這些連續的影像。亦 即,當行動終端1 0接觸投影面S時,控制單元3 0控制顯 示單元16與投影機18所顯示的影像,成爲顯示在顯示單 元1 6上之影像與投射在投影面S上之投影影像之連串的 -10- 201229646 連續影像。 更明確地說,當藉由接觸感測器2 4偵測行動終端1 〇 之底面l〇a接觸到接觸面(投影面S),同時顯示單元16在 顯示影像之時’控制單元30具有投影機18將投影影像投 射在投影面S上。此外,以下.將描述這些連續影像的顯示 處理。 此外,以下將解釋控制單元3 0爲了顯示連續影像, 控制投影機1 8逐漸放大要被投射之投影影像的顯示面 積。 3 ·要被投射在投影面S上之投影影像的模式 將使用圖3及4來解釋要被投射在投影面S上之投影 影像的模式。圖3的視圖用來解釋當網頁被顯示在顯示單 元16上之時,被投射在投影面S上的投影影像。此外, 爲便於解釋,在圖3中,在行動終端10的下方顯示投影 影像。 在圖3中,顯示單元16之顯示目標之網頁之影像的 尺寸,大於顯示單元16之顯示幕的尺寸。因此,顯示單 元16僅能顯示部分網頁的影像P1。於是,無法在顯示單 元1 6上顯示的網頁影像,即被投影機1 8投射在投影面S 上,如投影影像P2。更明確地說,接續於顯示單元16所 顯示之影像P 1的網頁影像P2(亦即,與顯示在顯示單元 16上之影像P1相關的影像P2)被投射在投影面S上。此 外,在圖3中,影像p丨對應於第一影像,且投影影像P2 對應於第二影像。 -11 - 201229646 在此,從圖2及3可清楚看出,投影影像P2在投影 面S上的位置鄰接於行動終端1 0的底面1 〇a。此外’如 前所述,顯示單元16所設置的顯示幕大體上覆蓋了行動 終端10整個正面10b的面積。因此,顯示在顯示單元16 上之影像P 1與投射在投影面S上之投影影像P2之間的不 連續很小,以致使用者可看到影像P 1與投影影像P2爲一 連續影像。 如前所述,顯示在顯示單元16上的影像P1與投射在 投影面S上的投影影像P2構成網頁之一連串的連續影 像。藉由觀看顯示在顯示單元16上之影像與投射在投影 面S上之影像P2,使用者可以在一大尺寸的螢幕上瀏覽 網頁。因此,例如不再需要切換顯示幕的操作,使得行動 終端1 〇的便利性獲增進。 圖4的視圖用來解釋當顯示單元16上顯示有文字顯 示區時,被投射在投影面S上的投影影像。此外,爲便於 解釋,圖4顯示行動終端1 0下方的投影影像。 在圖4中,當顯示文字顯示區的影像P1顯示在顯示 單元16上時,顯示用來在文字顯示區中輸入文字之虛擬 鍵盤的影像P2,被投影在行動終端1 〇之底面1 〇a所接觸 的投影面S上。藉由偵測在此虛擬鍵盤之影像P2上的觸 控,行動終端在文字顯示區上顯示與觸控之鍵相關的 文字。結果是,在看著顯示在顯示單元16之螢幕的同 時,使用者可藉由在投影影像P2施行觸控輕易地在文字 顯示區上輸入文字。 -12- 201229646 此外,投射在投影面s上之投影影像P2並不限於圖 3及4中所示的影像,且任何投影影像都可以,只要該影 像與顯示在顯示單元16上的影像相關。 4. 影像P1與投影影像P2之捲動顯示。 如前所述,控制單元3 0控制顯示單元1 6與投影機 18來顯示影像P1與投影影像P2之一連串的連續影像。 此外,在本例示性實施例中’控制單元3 0也控制顯示單 元1 6與投影機1 8施行其所顯示之連續影像的捲動顯示。 在影像P1顯示在顯示單元16上’且投影影像P2被 投影在投影面S上的狀態中’當偵測在觸控面板22上之 拖曳操作或使用者之手指在投影影像P2上的移動時’控 制單元3 0施行影像P1與投影影像P2的捲動顯示。在此 捲動顯示之時,顯示在顯示單元16上的影像P1被捲動, 同時,投射在投影面S上的投影影像P2也被捲動。 更明確地說,當在顯示連續影像同時偵測使用者在觸 控面板22上的拖曳操作時,控制單元30按照拖曳操作的 拖曳量同時捲動影像P1與投影影像P2。此外’當在顯示 連續影像之同時,照相機20偵測使用者手指的移動時’ 控制單元3 0按照手指的移動量捲動影像P1與投影影像 P2。此外,以下將描述影像P1與投影影像P2之捲動顯示 的例子。 5. 影像P1與投影影像P2之顯示處理的第一例示性 實施例。 以下將使用圖5來描述影像P 1與投影影像P2之顯示 -13- 201229646 處理的第一例示性實施例。圖5係用來解釋影像P 1與投 影影像P2之顯示處理之第一例示性實施例的流程圖。 第一例示性實施例與當在顯示單元16上顯示網頁時 的顯示處理有關,如圖3中所示的影像P1。此外,按照 第一例示性實施例的顯示處理,係從網頁(影像P 1)顯示在 顯示單元1 6上,且投影機1 8未施行投影的狀態中開始。 在此,雖然將以網頁爲例來做解釋,但本揭示並不限於 此。 首先,藉由接觸感測器24,控制單元3 0決定行動終 端10的底面10a是否接觸到另一物件(在此以桌面T爲 例)(步驟S2)。在此,將使用圖6來解釋接觸感測器24如 何偵測桌面T。 圖6的視圖解釋接觸感測器24偵測桌面T的接觸。 此外,爲便於解釋,在圖6中的顯示單元16內並未顯示 影像P 1。接觸感測器24設置在行動終端1 〇的底面1 〇a, 在行動終端1 0相對於桌面T大體上垂直的狀態中,當底 面1 〇a接觸桌面T時,用來偵測該接觸。因此,當行動終 端1 0相對於桌面T傾斜時,接觸感測器24不會偵測桌面 T ° 現回到圖5中所示的流程圖,繼續解釋顯示處理。當 控制單元3 0經由接觸感測器24決定底面1 Oa尙未接觸桌 面T時(步驟S2爲否),亦即,當行動終端1 〇的位置離開 桌面T時’投影機18不會在投影面S上投射投影影像 P2。亦即,由顯示單元16單獨顯示網頁。 14- 201229646 反之,當藉由接觸感測器24所做的決定爲底面10a 接觸桌面T時(步驟S2爲是),控制單元30接著決定使用 者的手指是否在觸控面板22的垂直方向施行拖曳操作(步 驟S4)。此拖曳操作係由使用者所施行,以便擴展網頁的 顯示面積。 此外,當控制單元30決定未在觸控面板22上施行拖 曳操作時(步驟S4爲否),投影機18不在投影面S上投射 投影影像P2。亦即’由顯不單兀16單獨顯不網頁。 反之,當其決定爲拖曳操作被施行時(步驟S4爲 是),控制單元3 0致使投影機1 8開始在接觸面(亦即投影 面S)上投射投影影像P2,桌面T經由其接觸底面l〇a(步 驟S 6)。投影機1 8開始在投影面S上投射投影影像P 2 ’ 以使投影影像P2鄰接於底面l〇a。 在此,投影影像P2爲未顯示在顯示單元16上的網頁 影像。顯示單元1 6上的影像P 1與投影面S上的投影影像 P2構成一個網頁的影像(一連串連續影像)。 在本例示性實施例中,在此期間,投影機1 8並非立 即投射圖3中顯示的投影影像P2。如圖7所示’投影機 1 8係推遲一段時間來擴展投影面積而投射投影影像。 圖7的視圖用來解釋投影機1 8逐漸擴展並在投影面 S上投射一投影範圍的模式。在圖7中,投影影像P2的 投影面積分3個階段來擴展。亦即’投影機1 8首先在投 影面S上投射投影影像P2a,使投影影像P2a從底面10a 跳出。進一步’在保持投影影像P2a被投射之狀態一段時 -15- 201229646 間之後,投影機18在投影面s上投射投影影像p 2 b。此 外,在保持投影影像P 2 b被投射的狀態一段時間之後’投 影機18在投影面S上投射投影影像P2c。此投影影像p2c 具有可投影的最大尺寸(與圖3中之影像相同的尺寸)° 因此,藉由逐漸擴展投影影像P2在投影面S上的投 影面積,使用者可以很容易地辨識顯示在投影面S上之連 續影像的影像形成部分。 現回到圖5所示的流程圖繼續解釋圖7中所示投射3 個投影影像P2a至P2c的顯示處理。首先’在顯示單元 1 6顯示影像P丨的狀態中’控制單元3 0控制投影機1 8以 使投影影像P 2 a (預定尺寸的影像)從行動終端1 〇的底面 l〇a延伸出(步驟S8)。 接著,控制單元30決定投射在投影面S上之影像是 否爲最大尺寸的投影影像P2c(步驟S 10)。在此’投影影 像P2a被投射(步驟S10爲否)’控制單元30且因此再次 施行S8,並投射投影影像P2b。此外’爲將投影影像P2a 擴展到投影影像P2b,影像的投射狀態被保持。因此’控 制單元3 0重複步驟S 8至步驟S 1 0的處理,直到投射出最 大尺寸的投影影像。 此外,當投影影像P2c被投射時(步驟S 1 0爲是),控 制單元3 0完成處理。按照此顯示處理,在顯示單元1 6顯 示影像P 1之同時,藉由投影機1 8在投影面S上投射出與 影像P1相關之投影影像P2,以構成一大的顯示面積。因 此,當與使用者觀看顯示在顯示幕與投影面S其中之一上 -16- 201229646 的影像相較,使用者可在大尺寸顯示幕中瀏覽網頁’以致 不再需要諸如切換顯示幕之複雜的操作,並增進了行動終 端1 〇的便利性。 此外,藉由執行上述的顯示處理,顯示單元16的顯 示幕與投影面S被鄰接配置,使得顯示幕與投影面S可被 當成一個顯示區域來處理。結果是,構成網頁的影像P1 與P2,各自在顯示幕與投影面S上可顯示出一連串的連 續影像。結果是,與當使用者觀看顯示在顯示幕與投影面 S其中之一上的影像時相較,使用者可在一較寬範圍中辨 識影像,使得對於使用者的便利性獲增進。 在過去,同時具有顯示單元16與投影機18的設備僅 使用顯示單元16與投影機18其中之一來顯示影像,並無 像本例示性實施例將顯示幕與投影面S當成一個顯示面積 來處理的技術槪念。因此,按照本顯示處理,藉由同時利 用顯示幕與投影面S,其可實現較過去之顯示系統更爲便 利的顯示系統。 此外,雖然以上所描述的是在接觸感測器24偵測到 底面l〇a之接觸後,當在觸控面板22上施行拖曳操作 時,在擴展投影面積之同時,投影影像被投射,但本揭示 並不限於此。例如,當偵測到底面1 〇a的接觸時,不論是 否施行了拖曳操作,投影面積都會被擴展。此外,按照拖 曳操作之方向,投影面積可改變到使用者所想要的投影面 積。藉此方法,可用最適的投影面積在投影面S上投射投 影影像。 -17- 201229646 6.影像P1與投影影像P2之顯示處理的第二例示性 實施例。 使用圖8來解釋影像P1與投影影像P2之顯示處理的 第二例示性實施例。圖8的流程圖係用來解釋影像P1與 投影影像P2之顯示處理的第二例示性實施例。 第二例示性實施例有關於當顯示單元1 6上顯示如圖 .4中所示文字顯示區時的顯示處理。此.外,按照第二例示 性實施例的顯示處理從顯示單元16上顯示文字顯示區(影 像P 1 )且投影機1 8未施行投影的狀態開始。 首先,控制單元30在顯示單元16上顯示有文字顯示 區的狀態中決定使用者是否在文字顯示區上施行點擊操作 (步驟22)。此外,當決定未施行點擊操作時(步驟S22爲 否),控制單元3 0結束此處理,而不在投影面S上投射影 像P2。 反之,當控制單元3 0決定有施行點擊操作時(步驟 S22爲是),接觸感測器24接著決定行動終端1〇的底面 l〇a是否接觸另一物件(例如桌面T)(步驟S24)。 此外,當控制單元30決定底面1 〇a未接觸桌面T時 (步驟S24爲否),鍵盤(未說明)顯示於顯示單元16上(步 驟S2 8) »亦即,顯示單元16顯示文字顯示區與鍵盤。結 果是,藉由碰觸顯示單元16的鍵盤,可以在文字顯示區 中輸入文字。此外,在此情況中,顯示單元1 6之文字顯 示區的大小變小,與所顯示的鍵盤呈反比。 反之,當決定底面l〇a接觸到桌面T時(步驟S24爲 -18- 201229646 是)’控制單元30致使投影機18在投影面S上投射顯示 圖4中所示之虛擬鍵盤的影像P2,而不改變顯示單元16 之文子顯不區的大小(步驟S26)。在此,被投射的影像P2 鄰接於底面1 〇a ’與第一例示性實施例類似。 按照此第二例示性實施例的顯示處理,當顯示單元 16上顯示文字顯示區時,藉由在投影面S上投射用以顯 示虛擬鍵盤的影像P2,使用者可藉由在虛擬鍵盤之影像 P2上施行觸碰控制以在文字顯示區內輸入文字。結果 是,與當文字顯示區與鍵盤區都在顯示幕內時相較,所顯 示的文字顯示區可較大,以使行動終端1 〇的便利性獲增 進。 此外,雖然在第一例示性實施例中被投射之影像P2 的投影區爲逐漸擴展的投影區,但在第二例示性實施例中 的影像P2係在投影面S上立即投射。藉此方法,其可快 速地輸入文字,同時保持寬的文字顯示區。 7.影像P 1與投影影像P 2之捲動顯示的例子。 現將解釋在影像P1顯示於顯示單元16且投影影像 P2被投射在投影面S上之特例的狀態中,影像P 1與投影 影像P2的捲動顯示。 圖9的視圖解釋影像P 1與投影影像P 2捲動如何與在 觸控面板22上的拖曳操作結合。圖9中的左圖顯示影像 被捲動前的狀態,及右圖顯示影像被捲動後的狀態。此 外,箭頭的方向D1指示拖曳方向。 如圖9所示,在手指F碰觸觸控面板22的狀態中’ •19- 201229646 藉由在方向D1中拖曳’顯示單元16的影像Pi與投影面 S的投影影像P2在方向D1中移動。藉此方法,在捲動之 前顯示爲投影影像P2的部分影像被顯示在顯示單元16 內。如前所述,藉由在觸控面板22上施行拖曳操作,不 僅顯示單元1 6的影像P1移動,投影影像P2也移動。結 果是,以簡單的操作即可輕易地捲動兩個影像P 1與P2。 圖1 0的視圖解釋影像P 1與投影影像P 2捲動如何與 手指在投影影像P2上的移動結合。圖10的左圖顯示影像 被捲動之前的狀態,及右圖顯示影像被捲動後的狀態。此 外,箭頭的方向D 1指示手指F的移動方向。 照相機2 〇偵測手指F的移動。亦即,照相機2 0相當 於移動偵測單元的例子。此外,如圖1 〇所示,當使用者 的手指F在投影影像P2上朝方向D1移動時,顯示單元 16上的影像P1與投影面S上的投影影像P2也在方向D1 中移動。藉此方法,在捲動前顯示爲投影影像P2的部分 影像被顯示在顯示單元16上。因此,藉由在投影影像P2 上移動手指,不僅投影影像P2移動,顯示單元1 6的影像 p 1也跟著移動。結果是,以簡單的操作即可輕地捲動兩 個影像P1與P2。 圖1 1的視圖解釋顯示單元1 6之顯示幕上的圖符I如 何與拖曳操作結合而移動到投影面S。此外,箭頭的方向 D2指示拖曳方向。 如圖11中之說明,在顯示單元16之顯示幕上的圖符 I被手指F觸控的狀態中,藉由連續地在方向D2中拖曳 -20- 201229646 圖符I ’圖符I移動到投影面s,且顯示爲投影影像的一 部分。此外,如圖1 1中間所示,在圖符i移動之時,當 圖符I跨過顯示幕與投影面S兩者時,圖符〗分別顯示在 顯示幕與投影面S上。如前所述,結合一連串從顯示幕到 投影面s的觸控操作與手指的移動操作,顯示幕上的圖符 移向投影面S。如前所述,以簡單的操作,即可在顯示幕 與投影面s之各自不同的面上施行圖符的拖曳操作。 現使用圖12來解釋當顯示單元16的顯示幕與投影面 S當成一連續顯不區來顯示時,實現連續觸控操作的方 法。圖12以槪圖解釋當顯示單元16之顯示幕與投影面被 視爲一連續顯示區時的整體座標空間。 圖12(a)顯示顯示單元16之顯示幕E的座標區域。顯 示幕E在寬度方向中的座標爲〇到WL,及在高度方向中 的座標爲〇到HL。此外’顯示幕E的上左端爲原點。圖 12(b)顯示投影面S的座標區域。投影面S在寬度方向中 的座標爲〇到WP,及在高度方向中的座標爲〇到HP。此 外,投影面S的上左端爲原點。圖12(c)顯示整合顯示幕 E與投影面S的整合座標空間。 現將解釋圖1 2(c)中所示之整合空間座標中計算觸控 位置的方法。從以下的3個常數SL、Η1、及SP將可找到 在整合空間座標中的整合座標(Χ,Υ)。首先,從以下3個 式子(即式1至式3)可決定這3個常數。 SL = W/WL (1) H1=HL/SL (2) -21 - 201229646 SP = W/WP (3) 在此,w爲隨機正固値(整合座標空間的最大X座標) 接下來,顯示幕E上的整合座標(Χ,Υ)可用以下的式 子來表示(即式4與式5) X = XL*SL (4) Y = YL*SL (5) 此外,投影面S上的整合座標(X,Y)可用以下的式子 來表示(即式6與式7)。 X = XP*SP (6) Y = YP*SP + HI (7) 8 .其它例示性實施例 熟悉此方面技術之人須瞭解,在所附申請項或其相等 物之範圍的範圍內,視設計需求及其它因素,可做各樣的 修改、組合、次組合及替換。 在以上的例示性實施例中,雖然是當行動終端1 0偵 測到其接觸桌面T,才將投影影像P2投射在投影面S 上’但本揭示並不限於這些例子。例如,當行動終端10 偵測到其靠近桌面T時,也可將投影影像P 2投射在投影 面S上。 圖1 3以槪圖解釋偵測行動終端1 〇接近投影面S的方 法。按照本方法’在一識別影像的標記Μ被投射在投影 面S上之後,照相機2 0取得被投射之標記Μ的影像。此 外,其可以根據相當於讀取單元之照相機20所取得之影 像上之標記Μ的位置,來決定行動終端1〇是否靠近桌面 -22- 201229646 T ° 例如,如圖1 3 (a)所示,當行動終端1 ο接近投影面s 時,由照相機20所取得之標記Μ之影像的位置,係定位 在靠近照相機2 0之影像取得區W的上側,如圖1 3 (b)所 示。反之,如圖13(c)所示,當行動終端10被帶離投影面 S —間隔時,所取得之標記Μ之影像的位置被定位在離開 影像取得區W之上側一間隔的位置,如圖1 3(d)所示。按 照此方法,即不需要接觸感測器24,以致可簡化設備。 此外,圖13(b)與圖13(d)中之投影影像Ρ2的形狀不同, 這是因爲圖13(b)中之照相機20的光軸與投影機18大體 上匹配,但在圖13(d)中,照相機20的光軸與投影機18 不在一條線上。 此外,雖然以上的例示性實施例中,在行動終端10 的底面1 Oa設置接觸感測器24來偵測行動終端1 0接觸桌 面T,但本揭示並不限於這些例子。例如,如圖14所 示,可根據設置於行動終端10之可旋轉之支撐軸32的旋 轉角度來偵測該接觸。雖然當行動終端1 0被攜行時,此 支撐軸3 2係收納於行動終端1 0內,但當行動終端1 〇被 置於桌面T或類似物上時,支撐軸32被轉動。結果是, 當行動終端1〇被置於桌面上時,藉由設定支撐軸32的旋 轉軸,其可偵測支撐軸3 2的旋轉角度,並偵測行動終端 1 〇的接觸。此外,圖14係顯示偵測到行動終端10接觸 之另一例示性實施例的視圖。 此外,即使當行動終端10的底面10a沒有接觸或靠 -23- 201229646 近桌面T時,與顯示單元16上所顯示之影像P1相關的投 影影像P2也可投射在投影面S上。例如,在影像P 1被顯 示之時,當施行搖晃行動終端1 0的操作時,投影影像P 2 可被投射。此外,當接收到電子郵件時,電子郵件的內容 可當成投影影像P2投射在投影面S上。 此外,雖然在以上的例示性實施例中,手指在投影影 像P 2上的移動係被照相機2 0所偵測,但本揭示並不限於 此例。例如,當投影機1 8採用雷射掃瞄系統時,可偵測 手指關於雷射的反射。 此外,雖然在以上的例示性實施例中,係以行動終端 1 〇爲例來解釋資訊處理設備,但本揭示並不限於這些例 子。例如,固定在例如桌面上的設備,諸如數位相框也可 適用。 本揭示所包含的主題與於2010年8月16日向日本專 利廳所提出申請之日本優先專利申請案J P 2 0 1 0 - 1 8 1 7 5 9 相關,該全部內容倂入本文參考。 【圖式簡單說明】 圖1的方塊圖顯示行動終端1 0之主要部分之組構; 圖2的斜視圖顯示行動終端1 〇之外觀; 圖3的視圖用來解釋當網頁被顯示在顯示單元16上 之時,被投射在投影面S上的投影影像; 圖4的視圖用來解釋當文字顯示區被顯示在顯示單元 1 6上之時,被投射在投影面S上的投影影像; -24- 201229646 圖5的流程圖解釋影像pi與投影影像P2之顯示處理 的第一例示性實施例; 圖6的視圖解釋接觸感測器24偵測枱面的接觸; 圖7的視圖用來解釋投影機18逐漸放大並在投影面 S上投射一投影區的模式; 圖8的流程圖解釋影像P1與投影影像P2之顯示處理 的第二例示性實施例; 圖9的視圖解釋影像P 1與投影影像P2捲動如何與在 觸控面板2 2上的拖曳操作結合; 圖1 0的視圖解釋影像P 1與投影影像P 2捲動如何與 手指在投影影像P2上的移動結合; 圖11的視圖解釋顯示單元16之顯示幕上的圖符1如 何與拖曳操作結合而移動到投影面S ; 圖12以槪圖解釋當顯示單元16之顯示幕與投影面被 視爲一連續顯示區時的整體座標空間; 圖1 3以槪圖解釋偵測行動終端1 0接近投影面S的方 法;以及 圖1 4的視圖顯示偵測行動終端1 0之接觸的另一例示 性實施例。 【主要元件符號說明】 1 〇 :行動終端 30 :控制單元 1 4 :記憶體 -25- 201229646 1 6 :顯示單元 1 8 :投影機 20 :照相機 22 :觸控面板 24 :接觸感測器 2 8 :通信單元 S :投影面 I :圖符 1 〇b :行動終端之前表面 l〇a :行動終端之底表面 P 1 :顯示單元上的影像 P2 :投影影像 T :桌面 E :顯示幕 Μ :識別標記 32 :支撐軸 -26-

Claims (1)

  1. 201229646 七、申請專利範圍 1. 一種資訊處理裝置,包含: 外殼; 顯示單元,被組構來將至少一部分的第一內容顯示給 使用者; 投影單元,被組構來將至少一部分的第二內容投影在 投影面上;以及 偵測單元,被組構來: 偵測該投影面與部分外殼之間的位移,該外殼被 組構來支撐該顯示單元、該投影單元、及該偵測單元;以 及. 決定該位移是否落於一臨限距離之內’ 其中,該投影單元另被組構來當該位移落於該臨限距 離之內時,將該內容的該第二部分投影在該投影面上。 2. 如申請專利範圍第1項資訊處理裝置,其中該第 一內容與該第二內容都與電子文件有關。 3 .如申請專利範圍第1項資訊處理裝置,進一步包 含控制單元,被組構來產生將該第一內容部分顯示給該使 用者的第一指令,以及將該第二內容部分投影在投影面上 的第二指令,該控制單元至少與該偵測單元通信。 4·如申請專利範圍第3項資訊處理裝置,進一步包 含感測器單元,被組構來產生指示使用者之操作工具與感 測器單元之表面接觸的信號,該感測器單元與該控制單元 通信。 -27- 201229646 5. 如申請專利範圍第4項資訊處理裝置,其中該操 作工具包含人的肢體。 6. 如申請專利範圍第4項資訊處理裝置,其中該控 制單元另被組構來: 接收來自該感測器單元的該信號;以及 根據至少該信號來識別與該接觸相關的第一接觸位 置。 7. 如申請專利範圍第6項資訊處理裝置,其中該控 制單元另被組構來識別該第一接觸位置的移動。 8. 如申請專利範圍第7項資訊處理裝置’其中該控 制單元另被組構來: 至少根據該第一接觸位置的該移動來選擇第三與第四 內容;以及 產生將至少一部分的該第三內容顯示給該使用者的第 三指令,以及將至少一部分的該第四內容投影到該投影面 上的第四指令。 9. 如申請專利範圍第8項資訊處理裝置,其中: 該第三內容部分包含該第一內容部分或該第二內容部 分至少其中之一的子集;以及 該第四內容部分包含該第一內容部分或該第二內容部 分至少其中’之一的子集。 10. 如申請專利範圍第8項資訊處理裝置,其中該控 制單元另被組構來: 決定與該第一接觸位置之該移動有關的方向;以及 -28- 201229646 根據該第一接觸位置之該移動與該方向來選擇該第三 與第四內容部分。 11.如申請專利範圍第3項資訊處理裝置,其中該偵 測單元另被組構來: 偵測使用者之操作工具與該投影面之間的接觸;以及 識別與該被偵測之接觸相關的第二位置。 1 2 ·如申請專利範圍第1 1項資訊處理裝置,其中該 控制單元另被組構來識別該第二接觸位置之移動。 1 3 .如申請專利範圍第1 4項資訊處理裝置,其中該 控制單元另被組構來: 至少根據該第二接觸位置之該移動來選擇第三與第四 內容;以及 產生將至少一部分的該第三內容顯示給該使用者的第 三指令’及將至少一部分的該第四內容投影在該投影面上 的第四指令。 I4·如申請專利範圍第13項資訊處理裝置,其中該 控制單兀另被組構來: 決定與該第二接觸位置相關之該移動的方向;以及 根據該第二接觸位置之該移動與該方向來選擇該第三 與第四內容部分。 15.如申請專利範圍第1 1項資訊處理裝置,其中該 控制單元另被組構來: 根據該被偵測的第二接觸位置來修改該第一內容部分 之子集;以及 -29- 201229646 產生將該修改之子集顯示,給該使用者的第三指令。 1 6.如申請專利範圍第1 5項資訊處理裝置,其中該 控制單元另被組構來·· 產生對應於該第二內容位置的原文資料;以及 將該原文資料加入到該第一內容部分,以產生該修改 的子集。 17. 如申請專利範圍第1 1項資訊處理裝置,其中: 該第一內容對應於可執行之應用程式的介面;以及 該控制單元另被組構來執行對應於該第二接觸位置之 該可執行之應用程式的功能。 18. 如申請專利範圍第1項資訊處理裝置,其中: 該偵測單元另被組構來決定該部分的外殻是否與該投 影面接觸;以及 該投影單元另被組構來當該部分的外殼與該投影面接 觸時,將該內容的第二部分投影在該投影面上。 19. 一種用於處理資訊之電腦實施的方法,包含: 偵測投影面與資訊處理裝置之部分外殼之間的位移; 以及 決定該位移是否落於臨限距離內, 將至少一部分的第一內容顯示給使用者;以及 當該位移落於該臨限距離之內時,將至少一部分的第 二內容投影在投影面上。 2 0. —種儲存程式的非暫時性電腦可讀取儲存媒體’ 當所儲存的該程式被處理器執行時,該程式致使處理器施 -30- 201229646 行用於處理資訊的方法,包含·· 偵測投影面與資訊處理裝置之部分外殼間的位移;以 及 決定該位移是否落於臨限距離內, 將至少一部分的第一內容顯示給使用者;以及 當該位移落於該臨限距離之內時,將至少一部分的第 二內容投影在投影面上。 S -31 -
TW100128156A 2010-08-16 2011-08-08 Information processing apparatus, information processing method and program TW201229646A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010181759A JP5601083B2 (ja) 2010-08-16 2010-08-16 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
TW201229646A true TW201229646A (en) 2012-07-16

Family

ID=44533934

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100128156A TW201229646A (en) 2010-08-16 2011-08-08 Information processing apparatus, information processing method and program

Country Status (7)

Country Link
US (2) US9218027B2 (zh)
EP (1) EP2420914A2 (zh)
JP (1) JP5601083B2 (zh)
KR (1) KR20120016585A (zh)
CN (2) CN202649977U (zh)
RU (1) RU2011133446A (zh)
TW (1) TW201229646A (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5601083B2 (ja) * 2010-08-16 2014-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2014015454A1 (zh) * 2012-07-23 2014-01-30 神画科技(深圳)有限公司 一种投影手机
WO2014015456A1 (zh) * 2012-07-23 2014-01-30 神画科技(深圳)有限公司 一种投影手机
CN102866779A (zh) * 2012-09-04 2013-01-09 尹国鑫 虚拟追踪键盘
KR20140057087A (ko) * 2012-11-02 2014-05-12 삼성전자주식회사 디바이스에 표시된 영상과 관련된 영상을 제공하는 시스템 및 방법
USD750111S1 (en) * 2012-12-14 2016-02-23 Facebook, Inc. Display panel of a programmed computer system with a graphical user interface
US20140267142A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion
JP2014191460A (ja) * 2013-03-26 2014-10-06 Fujifilm Corp 携帯型画像表示端末及びその作動方法
WO2015002566A1 (ru) * 2013-07-04 2015-01-08 Sherbakov Andrei Yuryevich Устройство интерфейса с компьютерной системой ("виртуальный планшет")
CN104423542B (zh) * 2013-08-26 2017-11-03 联想(北京)有限公司 一种电子设备
CN104516699A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种图像显示方法及电子设备
US9877080B2 (en) * 2013-09-27 2018-01-23 Samsung Electronics Co., Ltd. Display apparatus and method for controlling thereof
CN104657028B (zh) * 2013-11-18 2018-04-27 联想(北京)有限公司 信息处理方法及电子设备
JP6119570B2 (ja) * 2013-11-19 2017-04-26 ソニー株式会社 表示装置、表示方法およびプログラム
US20150205374A1 (en) * 2014-01-20 2015-07-23 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9965038B2 (en) * 2014-03-21 2018-05-08 Dell Products L.P. Context adaptable projected information handling system input environment
US10133355B2 (en) 2014-03-21 2018-11-20 Dell Products L.P. Interactive projected information handling system support input and output devices
US9304599B2 (en) 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
US20170097738A1 (en) * 2014-05-16 2017-04-06 Lumo Interactive Inc. Mobile communication device interactive projection effect system
US9993733B2 (en) 2014-07-09 2018-06-12 Lumo Interactive Inc. Infrared reflective device interactive projection effect system
CN105320258B (zh) * 2014-08-05 2019-01-01 深圳Tcl新技术有限公司 虚拟键盘***及其键入方法
CN105426139B (zh) * 2014-09-23 2018-08-10 联想(北京)有限公司 一种信息处理方法及电子设备
KR102393297B1 (ko) 2015-04-22 2022-05-02 삼성전자주식회사 전자기기 및 방법
CN104811639B (zh) * 2015-04-28 2019-04-26 联想(北京)有限公司 信息处理方法及电子设备
CN105024717B (zh) * 2015-07-03 2016-10-19 广东欧珀移动通信有限公司 移动终端
US10129510B2 (en) * 2016-02-18 2018-11-13 Samsung Electronics Co., Ltd. Initiating human-machine interaction based on visual attention
JP6986699B2 (ja) * 2017-07-04 2021-12-22 パナソニックIpマネジメント株式会社 表示制御システム、表示システム、移動体、表示制御方法及びプログラム
US11314399B2 (en) * 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
JP6522719B2 (ja) * 2017-11-28 2019-05-29 シャープ株式会社 画像表示方法
EP3669260A4 (en) * 2017-12-04 2021-03-24 Hewlett-Packard Development Company, L.P. PERIPHERAL DISPLAY DEVICES
US20190369555A1 (en) * 2018-06-04 2019-12-05 International Business Machines Corporation Holographic user interface for mobile menu item selection
WO2022008078A1 (en) * 2020-07-10 2022-01-13 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for receiving user input

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185354A (ja) * 1997-09-04 1999-03-30 Internatl Business Mach Corp <Ibm> キーボード組込み型座標指示装置、キーボード・ユニット、及び情報処理機器
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US20030132921A1 (en) * 1999-11-04 2003-07-17 Torunoglu Ilhami Hasan Portable sensory input device
JP3488874B2 (ja) * 2001-10-31 2004-01-19 シャープ株式会社 編集装置、編集方法、編集プログラム、編集プログラムを記録したコンピュータ読取可能な記録媒体
WO2011119483A1 (en) * 2010-03-24 2011-09-29 Neonode Inc. Lens arrangement for light-based touch screen
US20030165048A1 (en) * 2001-12-07 2003-09-04 Cyrus Bamji Enhanced light-generated interface for use with electronic devices
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US7173605B2 (en) * 2003-07-18 2007-02-06 International Business Machines Corporation Method and apparatus for providing projected user interface for computing device
JP4047822B2 (ja) * 2004-02-27 2008-02-13 ソフトバンクモバイル株式会社 電子機器
JP4961662B2 (ja) * 2004-09-21 2012-06-27 株式会社ニコン プロジェクタ装置、携帯電話、カメラ
TWI263436B (en) * 2005-03-18 2006-10-01 Asustek Comp Inc Mobile phone with virtual keyboard
JP2007096992A (ja) * 2005-09-29 2007-04-12 Kyocera Corp 携帯端末
US20070229650A1 (en) * 2006-03-30 2007-10-04 Nokia Corporation Mobile communications terminal and method therefor
US20100247223A1 (en) * 2006-12-22 2010-09-30 Ribi Hans O Stylus-substrate system for direct imaging, drawing, and recording
ITUD20070076A1 (it) * 2007-04-26 2008-10-27 Eurotech S P A Dispositivo di visualizzazione interattivo e procedimento di configurazione con unita' di calcolo
JP2008298819A (ja) * 2007-05-29 2008-12-11 Nikon Corp 携帯電子機器、カメラおよび携帯電話機
US8023996B2 (en) * 2007-09-07 2011-09-20 Sony Ericsson Mobile Communications Ab Cellular terminals and other electronic devices and methods that adjust projected video images to compensate for color, brightness, and/or pattern of a display surface
JP2009064375A (ja) 2007-09-10 2009-03-26 Sanyo Electric Co Ltd 投写型映像表示装置
JP2009141489A (ja) * 2007-12-04 2009-06-25 Toshiba Corp 電子機器
JP2009164761A (ja) * 2007-12-28 2009-07-23 Toshiba Corp 携帯端末
CN101581951B (zh) * 2008-05-14 2011-11-09 富准精密工业(深圳)有限公司 电脑
US8863038B2 (en) * 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel electronic device
US8860632B2 (en) * 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel device with configurable interface
KR101588660B1 (ko) * 2008-09-30 2016-01-28 삼성전자주식회사 영상 이동이 가능한 디스플레이 장치 및 그 방법
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101545588B1 (ko) * 2009-01-30 2015-08-19 엘지전자 주식회사 프로젝팅 기능을 가지는 휴대 단말기
US20100197364A1 (en) * 2009-02-05 2010-08-05 Jenching Lee Apparatus controllable by mobile phone for power management
JP5439834B2 (ja) 2009-02-09 2014-03-12 株式会社ニコン 撮影装置
EP2228711A3 (en) * 2009-03-12 2014-06-04 Lg Electronics Inc. Mobile terminal and method for providing user interface thereof
US9152314B2 (en) * 2009-11-30 2015-10-06 Lg Electronics Inc. Mobile terminal and controlling method thereof
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120034953A1 (en) * 2010-08-06 2012-02-09 Kyocera Corporation Wireless handset having combined multiple displays
US8449118B2 (en) * 2010-08-13 2013-05-28 T-Mobile Usa, Inc. Device-adjacent ambiently displayed image
JP5601083B2 (ja) * 2010-08-16 2014-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
EP2420914A2 (en) 2012-02-22
US11188125B2 (en) 2021-11-30
RU2011133446A (ru) 2013-02-20
US20120038542A1 (en) 2012-02-16
CN102375717A (zh) 2012-03-14
KR20120016585A (ko) 2012-02-24
CN202649977U (zh) 2013-01-02
US9218027B2 (en) 2015-12-22
JP2012043060A (ja) 2012-03-01
US20160062407A1 (en) 2016-03-03
JP5601083B2 (ja) 2014-10-08

Similar Documents

Publication Publication Date Title
TW201229646A (en) Information processing apparatus, information processing method and program
US9092090B2 (en) Structured light for touch or gesture detection
US11276144B2 (en) Information processing apparatus, display control method, and storage medium
JP5553812B2 (ja) スクロール制御装置、端末装置およびスクロール制御方法
JP5703873B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6046064B2 (ja) 携帯機器、タッチ位置補正方法およびプログラム
KR20150090840A (ko) 디스플레이 화면의 영역을 보호하는 디바이스 및 방법
US8797317B2 (en) Mobile terminal and control method thereof
EP2560086B1 (en) Method and apparatus for navigating content on screen using pointing device
US20170255443A1 (en) Information processing apparatus and control method thereof
US20130120289A1 (en) Information processing apparatus and method of controlling same
US20140152569A1 (en) Input device and electronic device
JP6048499B2 (ja) 表示装置、表示制御方法、及び、表示制御プログラム
JP2014197164A (ja) 表示装置、表示方法、及び表示プログラム
JP6153487B2 (ja) 端末及び制御方法
JP5820414B2 (ja) 情報処理装置及び情報処理方法
US10691287B2 (en) Touch panel type information terminal device, information input processing method and program thereof
WO2014132882A1 (ja) 端末装置、情報表示方法及び記録媒体
JP5756682B2 (ja) 情報処理装置
JP2018116346A (ja) 入力制御装置、表示装置、及び入力制御方法
JPWO2014147718A1 (ja) 電子機器、表示制御方法およびプログラム
JP2020017218A (ja) 電子機器、制御プログラム及び表示制御方法
JP6484859B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015141321A (ja) 電子機器、およびプログラム
JP2014215890A (ja) 電子機器、情報処理方法及び情報処理プログラム