JP5640680B2 - 情報処理装置、立体視表示方法及びプログラム - Google Patents
情報処理装置、立体視表示方法及びプログラム Download PDFInfo
- Publication number
- JP5640680B2 JP5640680B2 JP2010253151A JP2010253151A JP5640680B2 JP 5640680 B2 JP5640680 B2 JP 5640680B2 JP 2010253151 A JP2010253151 A JP 2010253151A JP 2010253151 A JP2010253151 A JP 2010253151A JP 5640680 B2 JP5640680 B2 JP 5640680B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- image content
- stereoscopic
- depth
- proximity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.立体視表示装置のハードウェア構成
2.立体視表示装置の機能構成(第1実施形態)
3.立体視表示装置の奥行き制御(第1実施形態)
4.奥行き制御処理(第1実施形態)
5.XY座標の制御(第1実施形態)
6.立体視表示装置の機能構成(第2実施形態)
7.立体視表示装置の奥行き/編集制御(第2実施形態)
8.立体視表示装置の奥行き/編集制御(第2実施形態)
9.奥行き/編集制御処理(第2実施形態/変形例1)
10.奥行き/編集制御処理(第2実施形態/変形例2)
11.立体視表示装置の縮小/拡大制御(第3実施形態)
12.組み合わせ
図1は、各実施形態及び変形例に係る立体視表示装置10のハードウェア構成の一例を示すブロック図である。図1を参照すると、立体視表示装置10は、タッチパネル20、バス30、CPU(Central Processing Unit)32、ROM(Read Only Memory)34及びRAM(Random Access Memory)36を有している。
次に、第1実施形態に係る立体視表示装置10の機能構成について、図2を参照しながら説明する。本実施形態に係る立体視表示装置10は、立体視表示部40、近接検知部42、表示制御部44及び記憶部60を有する。
タッチパネル20を用いて操作を行う場合、立体写真の表面から飛び出した部分と操作体とが重なってしまう場合がある。図3を例に挙げると、操作体が表示面24に近くなった場合にその状況が発生する。そのとき、奥行き情報の齟齬が発生し、見た目の違和感となる。例えば、表示面より手前に飛び出して表示されている立体写真に対しては、操作体が立体写真にめり込んでいるように表示され、ユーザに違和感や不快感を与えることになる。そこで、本実施形態では、この現象を解消する解決法として、以下の奥行き自動制御を実行する。この奥行き自動制御では、操作体が立体写真と重なろうとすることをタッチパネル20により検出し、立体写真が持つ視差情報から得られる奥行き情報を用いて立体写真が操作体に重ならないように立体写真の奥行き方向の位置を自動的に移動させる。
次に、本実施形態に係る立体視表示装置10の動作について説明する。図6は、立体視表示装置10の動作のための奥行き制御処理を示したフローチャートである。奥行き制御処理が開始されると、表示制御部44は、近接検知部42により操作体の近接又は接触が検出されたかを判定する(ステップS605)。検出されなかった場合、表示制御部44は、直ちに処理を終了する。一方、検出された場合には、表示制御部44は、検出された近接位置又は接触位置の奥行き方向に立体写真が表示されているかを判定する(ステップS610)。なお、表示制御部44は、検出された近接位置又は接触位置の奥行き方向から多少外れた位置に立体写真が表示されていても、検出された近接位置又は接触位置の奥行き方向に立体写真が表示されていると判定してもよい。
立体写真の表示位置を動かす方向としては、上述したように奥行き方向に動かしてもよいし、表示面24に平行に上下左右のどちらかの方向に動かしてもよい。例えば、図7の上図では、立体写真Ps、Ptが表示面24から飛び出して表示されている。図7では、立体写真が重なって表示されている場合である。ここでは、立体写真Ptには被写体Pt’(表示物)が含まれていて、立体写真Psには被写体Ps’(表示物)が含まれている。立体写真Ptの被写体Pt’は立体写真Ptに対して奥にある一方、立体写真Psの被写体Ps’が立体写真Psに対して手前にあるため、全体として、奥側の立体写真Ptの被写体体Pt’が手前側の立体写真Psの被写体Ps’(突出部分)の一部をさえぎって見える。この立体視表示は、現実空間では起こり得ないためユーザに違和感を与える。
次に、第2実施形態に係る立体視表示装置10の機能構成について、図8を参照しながら説明する。第2実施形態に係る立体視表示装置10では、第1実施形態で説明した奥行きの自動制御とともに書き込み等の編集制御が実行される。
図9は、本実施形態に係る立体視表示装置10の奥行き/編集制御の一例を示している。表示制御部44は、最初に奥行きの自動制御を行う。具体的には、表示制御部44は、操作体が表示面24に接触又は近接したことを検出した場合、接触位置又は近接位置の奥行き方向に表示された立体写真を制御対象として、その立体写真の奥行き方向の位置(奥行き量)を算出する。図9の左図では、表示制御部44は、奥行き量に基づき立体写真の突出部分WAが表示面24に来るように立体写真を手前にずらしている。このようにして奥行きの自動制御を行った結果、立体写真の突出部分WAの表示位置は、操作体に接触又は近接した位置となる。
次に、本実施形態に係る立体視表示装置10の動作について説明する。図11は、立体視表示装置10の動作のための奥行き/編集制御処理を示したフローチャートである。奥行き/編集制御処理が開始されると、表示制御部44は、図6のステップS605〜S625に示した奥行き制御処理を実行する(ステップS1105)。図6の奥行き制御処理については、第1実施形態にて説明したので、ここでは説明を省略する。図12の「a」、「b」には、奥行き制御処理にて実行される近接検出及び奥行き自動制御が示されている。ここでは、立体写真には奥行きの異なる被写体m、n、oが含まれている。
上記のように立体写真内の立体空間に自由に描画できるようにした場合、オリジナルの立体写真の持つ視差と書き込みとの間で表示に違和感を生じさせる場合がある。例えば、手前に来ている立体写真の奥に書き込みができてしまうと、立体視表示に違和感や不快感が生じる場合がある。それを防止するために、変形例1では、オリジナルの立体写真の左右の画像のピクセルごとのずれを予め計算しておき、書き込み位置から計算される左右のずれと比較することによって、立体写真の奥行き方向の位置と画像の書き込み位置との位置関係を判定することにより立体写真の奥に画像を書き込めないようにする。以下では、本実施形態の変形例1に係る立体視表示装置10の動作について、図14の奥行き/編集制御処理を示したフローチャートを参照しながら説明する。
変形例1では、オリジナルの立体写真の持つ視差と書き込みとの間での表示の違和感を防止するために、立体写真の奥への書き込みを禁止した。一方、変形例2では、立体写真上に画像が書き込まれるように、画像の書き込み編集とともに奥行きの自動制御が行われる。以下では、本実施形態の変形例2に係る立体視表示装置10の動作について、図16の奥行き/編集制御処理を示したフローチャートを参照しながら説明する。
次に、本発明の第3実施形態に係る立体視表示装置10の機能、動作について説明する。第3実施形態に係る立体視表示装置10の機能は、図8に示した機能ブロックの各部によって実行される。しかしながら、第3実施形態の表示制御部44は、操作体の近接又は接触が検知された場合、立体写真が含まれる画像コンテンツを所望のサイズに縮小して表示する。以下では、この相違点を中心に、第3実施形態に係る立体視表示装置の奥行き制御処理について説明する。
上記各実施形態及び変形例の立体視表示方法を適宜組み合わせて適用することが可能である。例えば、表示制御部44は、画像編集部48により画像の編集が実行される前に、制御対象の表示物の奥行き方向の位置を表示面(タッチ面)に一致させる又はタッチ面より奥側にさせるように制御した後、画像コンテンツを拡大して表示するように制御してもよい。
20 タッチパネル
22 検出面
24 表示面
40 立体視表示部
42 近接検知部
44 表示制御部
46 奥行き調整部
48 画像編集部
Claims (19)
- 画像コンテンツを立体的に表示する立体視表示部と、
前記立体視表示部のタッチ面に対する操作体の近接及び接触を検知する近接検知部と、
前記操作体の近接が検知された場合、前記画像コンテンツを縮小して表示するように制御する表示制御部と、
を備え、
前記操作体の接触が検知された場合、前記画像コンテンツに対して所定の処理を行うことを特徴とする、情報処理装置。 - 前記表示制御部は、前記タッチ面と前記操作体の近接位置との距離が近くなるほど、前記画像コンテンツを縮小表示し、前記タッチ面と前記操作体との距離が遠くなるほど、前記画像コンテンツを拡大表示するように制御する請求項1に記載の情報処理装置。
- 前記表示制御部は、前記操作体の近接が検知された場合、前記画像コンテンツの縮小表示とともに、前記操作体の近接位置の奥行き方向に表示された表示物を制御対象として、該表示物の奥行き方向の位置を表示位置より奥側に表示するように制御する請求項1に記載の情報処理装置。
- 前記表示制御部は、前記操作体の近接が検知されなくなった場合、前記画像コンテンツを元のサイズに戻して表示するように制御する請求項1に記載の情報処理装置。
- 前記表示制御部は、前記操作体の近接が検知された場合、前記画像コンテンツの縮小表示とともに、前記操作体の近接位置の奥行き方向に表示された表示物を制御対象として、該表示物の奥行き方向の位置を前記操作体の近接位置に近づける又は一致させるように制御する請求項1に記載の情報処理装置。
- 前記表示制御部は、前記画像コンテンツに含まれる1又は2以上の表示物のうち最大奥行きをもつ表示物の奥行き量に応じて、前記画像コンテンツの縮小の割合を定める請求項1に記載の情報処理装置。
- ユーザによる操作に応じて前記制御対象の表示物の奥行き方向の位置を調整する奥行き調整部を更に備える請求項1に記載の情報処理装置。
- 前記画像コンテンツ又は前記画像コンテンツ上に仮想的に貼り付けられたシート面に画像を描くことにより、前記画像コンテンツが立体視表示された立体空間上に所望の画像を編集する画像編集部を更に備える請求項1に記載の情報処理装置。
- 前記表示制御部は、前記画像編集部により画像の編集が実行される前に、前記制御対象の表示物の奥行き方向の位置を前記タッチ面に一致させる又はタッチ面より奥側にさせるように制御した後、前記画像コンテンツを拡大して表示するように制御する請求項8に記載の情報処理装置。
- 画像コンテンツを立体的に表示する立体視表示機能と、
前記立体視表示のタッチ面に対する操作体の近接及び接触を検知する近接検知機能と、
前記操作体の近接が検知された場合、前記画像コンテンツを縮小して表示するように制御する表示制御機能と、
前記操作体の接触が検知された場合、前記画像コンテンツに対して所定の処理を行う機能と、
を含む機能をコンピュータに実現させるためのプログラム。 - 前記表示制御機能は、前記タッチ面と前記操作体の近接位置との距離が近くなるほど、前記画像コンテンツを縮小表示し、前記タッチ面と前記操作体との距離が遠くなるほど、前記画像コンテンツを拡大表示するように制御する機能を有する請求項10に記載のプログラム。
- 前記表示制御機能は、前記操作体の近接が検知された場合、前記画像コンテンツの縮小表示とともに、前記操作体の近接位置の奥行き方向に表示された表示物を制御対象として、該表示物の奥行き方向の位置を表示位置より奥側に表示するように制御する機能を有する請求項10に記載のプログラム。
- 前記表示制御機能は、前記操作体の近接が検知されなくなった場合、前記画像コンテンツを元のサイズに戻して表示するように制御する機能を有する請求項10に記載のプログラム。
- 前記表示制御機能は、前記操作体の近接が検知された場合、前記画像コンテンツの縮小表示とともに、前記操作体の近接位置の奥行き方向に表示された表示物を制御対象として、該表示物の奥行き方向の位置を前記操作体の近接位置に近づける又は一致させるように制御する機能を有する請求項10に記載のプログラム。
- 前記表示制御機能は、前記画像コンテンツに含まれる1又は2以上の表示物のうち最大奥行きをもつ表示物の奥行き量に応じて、前記画像コンテンツの縮小の割合を定める機能を有する請求項10に記載のプログラム。
- ユーザによる操作に応じて前記制御対象の表示物の奥行き方向の位置を調整する調整機能を更に含む請求項10に記載のプログラム。
- 前記画像コンテンツ又は前記画像コンテンツ上に仮想的に貼り付けられたシート面に画像を描くことにより、前記画像コンテンツが立体視表示された立体空間上に所望の画像を編集する画像編集機能を更に含む請求項10に記載のプログラム。
- 前記表示制御機能は、前記画像編集機能により画像の編集が実行される前に、前記制御対象の表示物の奥行き方向の位置を前記タッチ面に一致させる又はタッチ面より奥側にさせるように制御した後、前記画像コンテンツを拡大して表示するように制御する機能を有する請求項17に記載のプログラム。
- 画像コンテンツを立体的に表示する立体視表示ステップと、
前記立体視表示のタッチ面に対する操作体の近接及び接触を検知する近接検知ステップと、
前記操作体の近接が検知された場合、前記画像コンテンツを縮小して表示するように制御する表示制御ステップと、
前記操作体の接触が検知された場合、前記画像コンテンツに対して所定の処理を行うステップと、
を含む、立体視表示方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010253151A JP5640680B2 (ja) | 2010-11-11 | 2010-11-11 | 情報処理装置、立体視表示方法及びプログラム |
CA2755689A CA2755689A1 (en) | 2010-11-11 | 2011-10-20 | Information processing apparatus, stereoscopic display method, and program |
AU2011244907A AU2011244907A1 (en) | 2010-11-11 | 2011-11-01 | Information processing apparatus, stereoscopic display method, and program |
EP11187686.8A EP2453660B1 (en) | 2010-11-11 | 2011-11-03 | Information processing apparatus, stereoscopic display method, and program |
US13/288,439 US8988500B2 (en) | 2010-11-11 | 2011-11-03 | Information processing apparatus, stereoscopic display method, and program |
CN201110350964.5A CN102469333B (zh) | 2010-11-11 | 2011-11-04 | 信息处理设备、立体显示方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010253151A JP5640680B2 (ja) | 2010-11-11 | 2010-11-11 | 情報処理装置、立体視表示方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012103982A JP2012103982A (ja) | 2012-05-31 |
JP5640680B2 true JP5640680B2 (ja) | 2014-12-17 |
Family
ID=44992620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010253151A Expired - Fee Related JP5640680B2 (ja) | 2010-11-11 | 2010-11-11 | 情報処理装置、立体視表示方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US8988500B2 (ja) |
EP (1) | EP2453660B1 (ja) |
JP (1) | JP5640680B2 (ja) |
CN (1) | CN102469333B (ja) |
AU (1) | AU2011244907A1 (ja) |
CA (1) | CA2755689A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102752621A (zh) * | 2012-06-26 | 2012-10-24 | 京东方科技集团股份有限公司 | 景深保持装置、3d显示装置及显示方法 |
CN103399629B (zh) * | 2013-06-29 | 2017-09-19 | 华为技术有限公司 | 获取手势屏幕显示坐标的方法和装置 |
KR102201733B1 (ko) * | 2013-09-30 | 2021-01-12 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
KR102120864B1 (ko) * | 2013-11-06 | 2020-06-10 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
KR20150092962A (ko) * | 2014-02-06 | 2015-08-17 | 삼성전자주식회사 | 입력 처리 방법 및 그 전자 장치 |
CN104765156B (zh) * | 2015-04-22 | 2017-11-21 | 京东方科技集团股份有限公司 | 一种三维显示装置和三维显示方法 |
CN106572389A (zh) * | 2015-10-08 | 2017-04-19 | 小米科技有限责任公司 | 调节显示图像方法及装置 |
TWI796022B (zh) * | 2021-11-30 | 2023-03-11 | 幻景啟動股份有限公司 | 在立體影像上執行互動的方法與立體影像顯示系統 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0816137A (ja) * | 1994-06-29 | 1996-01-19 | Nec Corp | 3次元座標入力装置及びカーソル表示制御方式 |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
US5574836A (en) * | 1996-01-22 | 1996-11-12 | Broemmelsiek; Raymond M. | Interactive display apparatus and method with viewer position compensation |
JP3741764B2 (ja) * | 1996-02-09 | 2006-02-01 | シャープ株式会社 | 三次元画像作成装置 |
JP3795647B2 (ja) * | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
JP4398141B2 (ja) * | 2002-10-31 | 2010-01-13 | パイオニア株式会社 | 表示装置及び方法 |
JP3971694B2 (ja) * | 2002-12-11 | 2007-09-05 | 日本電信電話株式会社 | オブジェクト表示方法及びその実施装置 |
JP4251907B2 (ja) * | 2003-04-17 | 2009-04-08 | シャープ株式会社 | 画像データ作成装置 |
JP4259913B2 (ja) * | 2003-05-08 | 2009-04-30 | シャープ株式会社 | 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体 |
JP4046121B2 (ja) * | 2005-03-24 | 2008-02-13 | セイコーエプソン株式会社 | 立体画像表示装置及び方法 |
JP4076090B2 (ja) * | 2005-04-14 | 2008-04-16 | 日本電信電話株式会社 | 画像表示システム |
JP2007219225A (ja) | 2006-02-17 | 2007-08-30 | Seiko Epson Corp | プロジェクタ |
JP4700539B2 (ja) * | 2006-03-22 | 2011-06-15 | パナソニック株式会社 | 表示装置 |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
JP5219929B2 (ja) * | 2008-07-31 | 2013-06-26 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2010045584A (ja) | 2008-08-12 | 2010-02-25 | Sony Corp | 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体 |
FR2936326B1 (fr) * | 2008-09-22 | 2011-04-29 | Stantum | Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
JP5539666B2 (ja) | 2009-04-28 | 2014-07-02 | 株式会社ルミカ | アンプルの製造方法及びアンプル製造用のアンプル容器 |
US8601402B1 (en) * | 2009-09-29 | 2013-12-03 | Rockwell Collins, Inc. | System for and method of interfacing with a three dimensional display |
US10146426B2 (en) * | 2010-11-09 | 2018-12-04 | Nokia Technologies Oy | Apparatus and method for user input for controlling displayed information |
-
2010
- 2010-11-11 JP JP2010253151A patent/JP5640680B2/ja not_active Expired - Fee Related
-
2011
- 2011-10-20 CA CA2755689A patent/CA2755689A1/en not_active Abandoned
- 2011-11-01 AU AU2011244907A patent/AU2011244907A1/en not_active Abandoned
- 2011-11-03 EP EP11187686.8A patent/EP2453660B1/en active Active
- 2011-11-03 US US13/288,439 patent/US8988500B2/en active Active
- 2011-11-04 CN CN201110350964.5A patent/CN102469333B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
AU2011244907A1 (en) | 2012-05-31 |
CA2755689A1 (en) | 2012-05-11 |
JP2012103982A (ja) | 2012-05-31 |
EP2453660A1 (en) | 2012-05-16 |
US8988500B2 (en) | 2015-03-24 |
US20120120064A1 (en) | 2012-05-17 |
EP2453660B1 (en) | 2016-01-27 |
CN102469333A (zh) | 2012-05-23 |
CN102469333B (zh) | 2016-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5703703B2 (ja) | 情報処理装置、立体視表示方法及びプログラム | |
JP5640680B2 (ja) | 情報処理装置、立体視表示方法及びプログラム | |
US9432652B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
US8643569B2 (en) | Tools for use within a three dimensional scene | |
EP2638461B1 (en) | Apparatus and method for user input for controlling displayed information | |
KR101815020B1 (ko) | 인터페이스 제어 장치 및 방법 | |
JP6508280B2 (ja) | 制御装置、検出装置、表示システム、電子機器、及びプログラム | |
JP5868044B2 (ja) | 情報処理装置及びその制御方法、プログラム、コンピュータが読み取り可能なプログラム記憶媒体 | |
US20150033157A1 (en) | 3d displaying apparatus and the method thereof | |
JP6065908B2 (ja) | 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム | |
Valkov et al. | Imperceptible depth shifts for touch interaction with stereoscopic objects | |
Zhao et al. | Evaluation of visuo-haptic feedback in a 3D touch panel interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141013 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5640680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |