KR20120050901A - 정보 처리 장치, 입체 표시 방법 및 프로그램 - Google Patents

정보 처리 장치, 입체 표시 방법 및 프로그램 Download PDF

Info

Publication number
KR20120050901A
KR20120050901A KR1020110114180A KR20110114180A KR20120050901A KR 20120050901 A KR20120050901 A KR 20120050901A KR 1020110114180 A KR1020110114180 A KR 1020110114180A KR 20110114180 A KR20110114180 A KR 20110114180A KR 20120050901 A KR20120050901 A KR 20120050901A
Authority
KR
South Korea
Prior art keywords
display
stereoscopic image
stereoscopic
depth
image
Prior art date
Application number
KR1020110114180A
Other languages
English (en)
Inventor
다꾸로 노다
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20120050901A publication Critical patent/KR20120050901A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

본 발명의 장치 및 방법은 정보를 처리하기 위한 로직을 제공한다. 일 구현에서, 본 발명의 장치는 조작체의 일부와 판정부면과의 접촉에 대응하는 판정부면 상의 위치를 판정하도록 구성된 판정부를 포함할 수 있다. 본 발명의 장치는, 또한, 제1 입체 화상의 제1 표시 위치를 규정하도록 구성된 규정부와, 접촉에 응답하여 제2 입체 화상을 생성하도록 구성된 생성부를 포함할 수 있다. 제어부는 제1 입체 화상을 상기 제1 표시 위치에 표시하고 제2 입체 화상을 제2 표시 위치에 표시하기 위한 신호를 생성하도록 구성되며, 상기 제1 및 제2 표시 위치는 접촉 위치의 미리 정해진 거리 내에 있다.

Description

정보 처리 장치, 입체 표시 방법 및 프로그램{INFORMATION PROCESSING APPARATUS, STEREOSCOPIC DISPLAY METHOD, AND PROGRAM}
[관련 출원의 상호 참조]
본 출원은 2010년 11월 11일에 출원된 일본 특허 출원 제2010-253152호에 기초한 것이며, 이를 우선권 주장하고, 이의 전체 내용이 참조로 본 명세서에 원용된다.
본 발명의 실시 형태는 정보 처리 장치, 입체 표시 방법 및 컴퓨터 판독가능 매체에 관한 것이다.
최근, 입체 사진 등의 화상 콘텐츠나 조작 오브젝트 등의 표시물을 입체적으로 표시하는 것이 가능한 입체 표시 장치가 실용화되어, 보급되고 있다. 예를 들면, 입체 표시가 가능한 텔레비전 수상기, 휴대 게임기 및 퍼스널 컴퓨터(이하, PC)용의 디스플레이 장치 등이 이미 제품화되어 있다. 이러한 입체 표시 장치에 관한 것으로, 예를 들면, 일본 특허 출원 제2010-045584호에는, 표시물의 제작자에 의해 의도된 돌출량이나 인입량(이하, 깊이량) 등을 정확하게 표현하는 것이 가능한 입체 화상의 보정 방법이 개시되어 있다.
그러나, 화상을 가상적인 3차원 공간에 입체적으로 표시하면, 화상을 2차원으로 표시하고 있었을 때에는 일어날 수 없었던 문제가 발생한다. 구체적으로, 현실 공간에 있는 물체가 가상적인 3차원 공간에 입체적으로 표시된 표시물과 겹치면, 실제로 입체적인 형상을 갖는 물체와, 인공적으로 시차를 표현해서 입체적으로 보여진 표시물 간에 거리감에 관한 부정합이 발생하고, 이로써, 바라보고 있는 사용자에게 위화감을 준다. 예를 들면, 앞에 있어야 할 부분이 배경에 있는 사물에 의해 가려지는 것과 같은, 현실 공간에서는 있을 수 없는 시각적인 부정합이 초래되는 경우가 있어, 사용자에게 불쾌감을 준다.
상술한 견지에서, 표시물을 입체적으로 표시하고 있는 표시면에 대하여 현실 공간에 있는 물체가 근접했을 경우에 사용자가 느끼는 위화감이나 불쾌감을 경감시킬 수 있고, 신규하면서도 개량된 정보 처리 장치, 입체 표시 방법 및 프로그램을 제공하는 것이 바람직하다.
본 발명의 일 실시 형태에 따르면, 정보 처리 장치는, 조작체(operating tool)의 일부와 판정부면과의 접촉에 대응하는 판정부면 상의 위치를 판정하도록 구성된 판정부(determination unit)를 포함한다. 상기 정보 처리 장치는 또한 제1 입체 화상의 제1 표시 위치를 규정하도록 구성된 규정부(definition unit)와, 접촉에 응답하여 제2 입체 화상을 생성하도록 구성된 생성부(generation unit)를 포함한다. 제어부는 제1 입체 화상을 제1 표시 위치에 표시하고 제2 입체 화상을 제2 표시 위치에 표시하기 위한 신호를 생성하도록 구성될 수 있으며, 상기 제1 및 제2 표시 위치는 접촉 위치의 미리 정해진 거리 내에 있다.
본 발명의 일 실시 형태에 따르면, 컴퓨터 구현 방법은 조작체의 일부와 판정부면과의 접촉에 대응하는 판정부면 상의 위치를 판정하는 단계를 포함한다. 상기 컴퓨터 구현 방법은 또한 제1 입체 화상의 제1 표시 위치를 규정하는 단계와, 접촉에 응답하여 제2 입체 화상을 생성하는 단계를 포함한다. 상기 컴퓨터 구현 방법은 제1 입체 화상을 제1 표시 위치에 표시하고 제2 입체 화상을 제2 표시 위치에 표시하기 위한 신호를 생성하는 단계를 더 포함하며 상기 제1 및 제2 표시 위치는 접촉 위치의 미리 정해진 거리 내에 있다.
본 발명의 다른 실시 형태에 따르면, 유형의 비일시적인 컴퓨터 판독가능 매체에는, 프로세서에 의해 실행되는 경우, 프로세서로 하여금, 조작체의 일부와 판정부면과의 접촉에 대응하는 판정부면 상의 위치를 판정하는 단계를 포함하는 방법을 수행하게 하는 명령어들이 저장된다. 본 방법은 또한 제1 입체 화상의 제1 표시 위치를 규정하는 단계와, 접촉에 응답하여 제2 입체 화상을 생성하는 단계를 포함한다. 본 방법은 제1 입체 화상을 제1 표시 위치에 표시하고 제2 입체 화상을 제2 표시 위치에 표시하도록 신호를 생성하는 단계를 더 포함하며, 상기 제1 및 제2 표시 위치는 접촉 위치의 미리 정해진 거리 내에 있다.
개시된 실시 형태에 따르면, 표시물을 입체적으로 표시하고 있는 표시면에 대하여 현실 공간에 있는 물체가 근접했을 경우에 사용자가 느끼는 위화감이나 불쾌감을 경감시킬 수 있다.
도 1은 본 발명의 일 실시 형태에 따른 정보 처리 장치의 하드웨어 구성도.
도 2는 본 발명의 제1 실시 형태에 따른 정보 처리 장치의 기능 구성도.
도 3은 입체 표시의 원리를 설명하기 위한 도면.
도 4는 본 발명의 제1 실시 형태에 따른 입체 표시 장치에 의한 깊이 제어를 설명하기 위한 도면.
도 5는 본 발명의 제1 실시 형태에 따른 입체 표시 장치에 의한 깊이 제어를 설명하기 위한 도면.
도 6은 본 발명의 제1 실시 형태에 따른 입체 표시 장치에 의한 깊이 제어 처리를 나타내는 순서도.
도 7은 본 발명의 제1 실시 형태에 따른 입체 표시 장치에 의한 XY 좌표의 제어를 설명하기 위한 도면.
도 8은 본 발명의 제2 및 제3 실시 형태에 따른 정보 처리 장치의 기능 구성도.
도 9는 본 발명의 제2 실시 형태에 따른 입체 표시 장치에 의한 깊이/편집 제어를 설명하기 위한 도면.
도 10은 본 발명의 제2 실시 형태에 따른 입체 표시 장치에 의한 깊이/편집 제어를 설명하기 위한 도면.
도 11은 본 발명의 제2 실시 형태에 따른 입체 표시 장치에 의한 깊이/편집 제어 처리를 나타내는 순서도.
도 12는 도 11의 깊이/편집 제어 처리를 설명하기 위한 도면.
도 13은 본 발명의 제2 실시 형태에 따른 입체 표시 장치에 의한 깊이/편집 제어 결과의 표시 화면을 나타내는 도면.
도 14는 본 발명의 제2 실시 형태의 변형예 1에 따른 입체 표시 장치에 의한 깊이/편집 제어 처리를 나타내는 순서도.
도 15는 도 14의 깊이/편집 제어 처리를 설명하기 위한 도면.
도 16은 본 발명의 제2 실시 형태의 변형예 2에 따른 입체 표시 장치에 의한 깊이/편집 제어 처리를 나타내는 순서도.
도 17은 도 16의 깊이/편집 제어 처리를 설명하기 위한 도면.
도 18은 본 발명의 제3 실시 형태에 따른 입체 표시 장치에 의한 깊이 제어 처리를 나타내는 순서도.
도 19는 본 발명의 제3 실시 형태에 따른 입체 표시 장치에 의한 깊이/편집 제어 처리를 설명하기 위한 도면.
도 20은 본 발명의 제3 실시 형태에 따른 입체 표시 장치에 의한 깊이/편집 제어 결과의 표시 화면을 나타내는 도면.
도 21은 본 발명의 추가 실시 형태에 따른 깊이/편집 제어 처리의 일례를 설명하기 위한 도면.
도 22는 본 발명의 추가 실시 형태에 따른 깊이/편집 제어 처리의 일례를 설명하기 위한 도면.
도 23은 화면 천이를 설명하기 위한 도면.
도 24는 깊이 조정을 설명하기 위한 도면.
이하에서는, 첨부 도면을 참조하여 본 발명의 실시 형태에 대해서 상세하게 설명한다. 본 명세서 및 첨부 도면에서, 실질적으로 동일한 기능 및 구성을 갖는 구성 요소에 대해서는 동일한 참조 부호로 나타내고, 그 구성 요소의 중복 설명은 생략한다.
또한, 이하의 순서로 설명한다.
1. 입체 표시 장치의 하드웨어 구성
2. 입체 표시 장치의 기능 구성(제1 실시 형태)
3. 입체 표시 장치에 의한 깊이 제어(제1 실시 형태)
4. 깊이 제어 처리(제1 실시 형태)
5. XY 좌표의 제어(제1 실시 형태)
6. 입체 표시 장치의 기능 구성(제2 실시 형태)
7. 입체 표시 장치에 의한 깊이/편집 제어(제2 실시 형태)
8. 입체 표시 장치에 의한 깊이/편집 제어(제2 실시 형태)
9. 예시적 깊이/편집 제어 처리(제2 실시 형태)
10. 추가적인 깊이/편집 제어 처리(제2 실시 형태)
11. 입체 표시 장치에 의한 축소/확대 제어(제3 실시 형태)
12. 추가적인 실시 형태 조합
정보 처리 장치는 통상적으로 터치 화면을 포함한다. 정보 처리 장치는, PC(Personal Computer), 스마트 폰, 휴대 정보 단말기(Personal Digital Assistant), 음악 플레이어, 게임 단말기 또는 디지털 가전 기기 등일 수 있다. 정보 처리 장치는 이들 장치와 접속되는 주변기기이어도 된다. 또한, 각각의 실시 형태에 따른 정보 처리 장치는, 입체적으로 시청될 수 있는 디스플레이에 입체적으로 표시(3차원 표시)된 표시물을 표시하는 것이 가능한 입체 표시 장치이다. 이하에서는, 입체적으로 표시되는 화상 콘텐츠에 포함되는 하나 이상의 표시물로서 입체 사진을 예로 들어 설명한다.
이하에서는, 본 발명의 제1 내지 제3 실시 형태에 따른 정보 처리 장치에 대해서 입체 표시 장치(10)를 예로 들어 설명한다. 본 실시 형태는, 입체 표시 장치(10)에 입체적으로 표시된 표시물에 대하여 현실 공간에 있는 물체가 근접했을 경우에 사용자에 부여되는 위화감이나 불쾌감을 경감시킬 수 있는 입체 표시 방법을 제안하는 것이다.
1. 입체 표시 장치의 하드웨어 구성
도 1은, 본 발명의 일 실시 형태에 따른 입체 표시 장치(10)의 하드웨어 구성의 일례를 나타내는 블록도이다. 도 1을 참조하면, 입체 표시 장치(10)는, 터치 패널(20), 버스(30), CPU(Central Processing Unit; 32), ROM(Read Only Memory; 34) 및 RAM(Random Access Memory; 36)을 포함한다.
터치 패널(20)은, 예컨대 검출면(22)인 판정면(determination surface)과 표시면(터치면; 24)을 포함한다. 검출면(22)은, 터치 패널(20)에의 조작체(사용자의 손가락이나 펜)의 근접 및 접촉을 검지하고, 근접 위치나 접촉 위치를 나타내는 전기 신호를 생성한다. 터치 패널(20)은 정보를 입력하는 입력 장치의 일례이다. 검출면(22)은, 예를 들면, 감압(pressure-sensitive)식, 정전 용량식 또는 적외선식 등의 임의의 터치 검출 방식에 따라 형성될 수 있다. 터치 패널(20)은, 표시면(24)으로의 접촉만을 검지 가능한 터치 패널이어도 좋지만, 근접 및 접촉을 검출할 수 있는 것이 바람직하다.
표시면(24)은 입체 표시 장치(10)로부터의 출력 화상을 표시한다. 표시면(24)은, 유기 발광 다이오드(예를 들면, 유기 EL: OLED) 또는 음극선관(CRT) 등을 이용해서 실현될 수 있다. 입체 뷰(view)가 가능한 디스플레이로서는, 안경을 이용하는 방식이나, 패럴랙스 배리어나 렌티큘러 렌즈를 이용하는 나안의 방식 등을 이용할 수 있다.
버스(30)는 검출면(22), 표시면(24), CPU(32), ROM(34) 및 RAM(36)을 서로 접속한다. CPU(32)는 입체 표시 장치(10)의 동작 전반을 제어한다. ROM(34)은 CPU(32)에 의해 실행되는 소프트웨어를 구성하는 프로그램 및 데이터를 기억한다. RAM(36)은, CPU(32)에 의한 처리의 실행시에, 프로그램 및 데이터를 일시적으로 기억한다. 또한, 입체 표시 장치(10)는 도 1에 나타낸 구성 요소 이외의 구성 요소를 포함해도 된다.
2. 입체 표시 장치의 기능 구성(제1 실시 형태)
다음으로, 제1 실시 형태에 따른 입체 표시 장치(10)의 기능 구성에 대해서, 도 2를 참조하여 설명한다. 본 실시 형태에 따른 입체 표시 장치(10)는 입체 표시부(40), 예컨대 근접 검지부(42)인 판정부, 표시 제어부(44) 및 기억부(60)를 포함한다.
입체 표시부(40)의 표시면 상에는 터치 패널(20)이 제공되어 있다. 입체 표시부(40)는 화상 콘텐츠를 입체적으로 표시한다. 화상 콘텐츠는 입체 영상 등의 시차 정보를 갖는 동화상이나 정지 화상을 말한다. 여기에서는, 각각 개별로 시차정보를 갖는 1 이상의 표시물로서의 입체 사진(들)이 포함된 화상 콘텐츠를 예로 들어 설명한다.
근접 검지부(42)는 입체 표시부(40)의 터치면에 대한 조작체의 근접을 검지한다. 여기에서는, 조작체로서 사용자의 손가락을 예로 들어 설명한다. 표시 제어부(44)는, 조작체의 근접이 검지되었을 경우, 화상 콘텐츠에 포함되는 1 이상의 입체 사진 중, 조작체의 근접 위치의 깊이 방향으로 표시된 입체 사진을 제어 대상으로 삼고, 해당 입체 사진의 위치가 조작체의 근접 위치에 가깝게 되도록 제어한다. 기억부(60)는, 화상 콘텐츠를 기억하고, 화상 콘텐츠에 포함되는 입체 사진의 깊이량 등을 기억한다.
표시 제어부(44)는, 기억부(60)에 저장되어 있는 화상 데이터를 읽어내고, 읽어낸 화상 데이터를 입체 표시부(40)에 표시시킨다. 또한, 표시 제어부(44)는, 영상 콘텐츠나 GUI(Graphical User Interface) 등을 입체 표시부(40)에 표시시킨다. 이때, 표시 제어부(44)는, 화상 데이터, 영상 콘텐츠, GUI 등의 표시물을 입체적으로 표시하기 위한 연산을 실행한다. 예를 들면, 표시 제어부(44)는, 입체 표시부(40)의 표시면으로부터 표시물을 돌출시키기 위해서, 또는 표시면의 뒤로 밀어 넣기 위해서 깊이량의 연산을 실행한다.
입체 사진을 가상적인 3차원 공간 내에 표시할 경우, 가상적인 3차원 공간 자체가 갖는 깊이 정보 이외에 입체 사진 자신도 시차 정보를 가진다. 도 3에는 3차원 공간 내에 입체 사진이 있는 경우의 개략도가 나타나 있다. 이 경우, 우안용 사진 및 좌안용 사진은 표시면(24) 위에 있기 때문에, 표시면(24) 상에 보여 지지만, 사진에 나타나 있는 A는 표시면(24)으로부터 돌출해 보인다. 이러한 입체 표시의 원리에 대해서 간단히 설명한다. 표시물을 입체적으로 보이게 하기 위해서는, 도 3에 도시한 바와 같이, 우안용의 표시물과 좌안용의 표시물을 표시면에 서로 분리해서 표시하고, 우안만으로 우안용의 표시물을 보도록 하고, 좌안만으로 좌안용의 표시물을 보도록 한다. 우안용의 표시물을 우안만으로 보도록 하고, 좌안용의 표시물을 좌안만으로 보도록 하게 하기 위해서는, 대부분의 경우, 편광이 이용된다. 예를 들면, 제1 방향으로 직선 편광된 광에 의해 우안용의 표시물을 표시하고, 제1 방향과 직교하는 제2 방향으로 직선 편광된 광에 의해 좌안용의 표시물을 표시한다. 또한, 제1 방향으로 직선 편광된 광을 통과시키는 렌즈를 우안에 착용하고, 제2 방향으로 직선 편광된 광을 통과시키는 렌즈를 좌안에 착용함으로써, 우안에는 우안용의 표시물만이 보이고, 좌안에는 좌안용의 표시물만이 보이는 상황을 만들어낼 수 있다.
이러한 상황을 만들어 낼 수 있으면, 우안과 우안용의 표시물을 연결하는 시선과, 좌안과 좌안용의 표시물을 연결하는 시선이 교차하는 위치에서 표시물이 입체 표시되어 보인다. 또한, 우안용의 표시물과 좌안용의 표시물 사이의 거리를 제어함으로써, 폭주(convergence)각을 조정할 수 있다. 폭주각이 변화함에 따라, 입체적으로 표시되어 있는 표시물의 돌출 정도가 변화한다.
즉, 표시면 상에 있는 우안용 및 좌안용의 표시물의 깊이량을 변화시켜 표시 위치를 제어함으로써, 입체적으로 표시된 표시물의 돌출 정도나 후퇴 정도를 제어할 수 있다. 또한, 여기서는 편광을 이용해서 입체 표시를 실현하는 방법에 대해서 설명했지만, 본 실시 형태는 이에 한정되지 않고, 표시물을 입체적으로 표시하는 것이 가능한 임의의 입체 표시 방법을 적용할 수 있다.
다시 도 1을 참조하면, 표시 제어부(44)는, 우안용 및 좌안용의 표시물의 표시를 제어함으로써, 표시물을 입체적으로 표시시킨다. 표시 제어부(44)에 의해 결정되는 표시물의 돌출 정도나 후퇴 정도를 나타내는 정보(이하, 깊이량 또는 깊이 정보)는 입체 표시부(40)에 입력된다. 또한, 표시 제어부(44)에 의해 기억부(60)로부터 읽어 내어진 표시물의 데이터도 입체 표시부(40)에 입력된다. 깊이량이 입력되면, 입체 표시부(40)는 입력된 깊이량에 기초해서 표시물을 표시한다.
또한, 표시 제어부(44)의 기능은 CPU(32) 등을 이용해서 실현된다. 또한, 기억부(60)의 기능은 ROM(34) 또는 RAM(36)(또는 도시하지 않은 유형의 비일시적인 리무버블(a tangible, non-transitory removable) 기록 매체 등)에 의해 실현된다.
3. 입체 표시 장치에 의한 깊이 제어(제1 실시 형태)
터치 패널(20)을 이용해서 조작을 행할 경우, 입체 사진의 표면으로부터 돌출한 부분과 조작체가 서로 겹쳐버릴 경우가 있다. 도 3을 예로 들면, 조작체가 표시면(24)에 가까이 있을 경우에 이러한 상황이 발생한다. 그때, 깊이 정보의 부정합(inconsistency)이 발생하고, 외관의 위화감이 초래된다. 예를 들면, 표시면보다 앞으로 돌출해서 표시되어 있는 입체 사진에 대해서는, 조작체가 입체 사진에 함몰되어 있듯이 표시됨으로써, 사용자에게 위화감이나 불쾌감을 부여하게 된다. 따라서, 본 실시 형태에서는, 이러한 현상을 해소하는 해결법으로서, 이하의 자동 깊이 제어를 실행한다. 이러한 자동 깊이 제어에 따르면, 조작체가 입체 사진과 겹치려 하는 것을 터치 패널(20)에 의해 검출하고, 입체 사진이 갖는 시차 정보로부터 얻어지는 깊이 정보에 기초하여 입체 사진이 조작체에 겹치지 않도록 입체 사진의 깊이 방향의 위치를 자동적으로 변경시킨다.
또한, 입체 사진 자체는 시차를 갖는 복수의 텍스쳐(이러한 경우에는 입체 사진)를 포함하지만, 2개의 시차가 존재하는 경우를 예로 들어 개시된 실시 형태를 설명한다. 이때, 입체 사진은 좌우 모두의 눈에 투영되어야 할 텍스쳐(이러한 경우에는 우안용 사진과 좌안용 사진)를 포함하므로, 한쪽의 텍스쳐에 있는 점이 다른 텍스쳐에 있는 어느 점에 상당하는 것인지를 추측할 수 있다. 이러한 방법으로서는 템플릿(template) 매칭이라 불리는 방법이 있다.
도 3 및 도 4를 참조하여, 본 실시 형태에 따른 입체 표시 장치(10)에 의한 깊이 제어에 대해서 더 설명한다. 표시 제어부(44)는, 도 4에 나타낸 바와 같이 조작체가 표시면(24)에 접촉한 것을 검출했을 경우(터치 검출), 터치한 위치의 깊이 방향으로 표시된 표시물인 입체 사진을 제어 대상으로 삼고, 그 입체 사진의 깊이 방향의 위치(깊이량)을 산출한다.
템플릿 매칭을 이용하면, 예를 들면, 도 3의 우안용 화상 A의 임의인 점 Pa가 좌안용 화상 A의 어디에 가까울지를 수평 방향을 따라 탐색해 간다. 우안용 화상 A에서의 점 Pa와 좌안용 화상 A에서 대상으로 되는 점 Pa’과의 어긋남(픽셀 차)은 시차이며, 이 어긋남을 입체 공간에 적용시킴으로써 얻어진 점으로 터치면(표시면(24))으로부터의 깊이량을 나타낸다.
구체적으로는, 도 4의 좌측 도면의 입체 사진의 좌우 화상의 어긋남을 D라 하고, 눈과 표시면(24)과의 거리를 Lc라 하고, 좌우의 눈의 간격을 Dc라 하고, 구해야 할 입체 사진의 깊이 방향의 위치(깊이량)을 Z라 하면, 입체 사진의 깊이량 Z는, 표시면(24)의 깊이를 0으로 했을 경우, 이하의 수학식 1로 나타내진다.
[수학식 1]
Z = D/Dc x Lc
이와 같이 하여, 조작체의 근접 위치 또는 접촉 위치에서의 깊이량 Z를 산출하고, 깊이량 Z 만큼, 도 4의 우측 도면으로부터 좌측 도면으로 천이하도록 입체 사진을 안측으로 어긋나게 하여, 입체 사진의 표시면으로부터의 깊이를 Z로 한다. 이에 의해, 손가락이 입체 사진의 돌출부에 함몰되어 있는 상태(도 4의 우측 도면)로부터, 입체 사진의 돌출부가 조작체(손가락)나 표시면(24)에 일치한 상태(도 4의 좌측 도면)로 됨으로써, 사용자가 느끼는 위화감이나 불쾌감을 경감시킬 수 있다.
또한, 깊이량 Z의 연산에 대해서는, 템플릿 매칭 대신에, 스테레오 카메라에 의해 취득된 2개의 화상의 시차에 기초한 대상물의 거리를 측정하기 위한 고속 스테레오 매칭 기술이 이용될 수도 있다. 이 기술을 이용하면 깊이량 산출의 정밀도를 올릴 수 있다.
상술한 바와 같이, 근접 검지부(42)에 의해 표시면(24) 상의 조작체의 접촉이 검지되었을 경우, 표시 제어부(44)는 제어 대상인 표시물의 깊이 방향의 위치를 표시면(24)에 일치시키도록 제어한다.
다음으로, 접촉 상태뿐만 아니라 근접 상태에 관한 경우에 대한 입체 표시 장치(10)에 의한 깊이 제어에 대해서, 도 5를 참조하여 설명한다. 도 5의 좌측 도면에 나타낸 바와 같이, 조작체가 표시면(24)에 근접한 것을 근접 검지부(42)가 검지했을 경우(즉, 조작체의 일부의 제1 공간 위치가 표시면의 임계 거리 내에 있다고 근접 검지부(42)가 판정), 표시 제어부(44)는, 근접한 위치(즉, 제1 공간 위치)의 깊이 방향으로 표시된 입체 사진을 제어 대상으로 삼고, 그 입체 사진의 깊이 방향의 제1 표시 위치(깊이량 Z)를 산출한다. 표시 제어부(44)는, 산출된 깊이량 Z 및 근접 위치와 표시면과의 거리에 기초하여, 제어 대상인 입체 사진의 깊이 방향의 위치를 조작체의 근접 위치에 가깝게 하거나 일치시키도록 제어한다.
또한, 도 5의 가운데 및 우측 도면에 나타낸 바와 같이, 조작체의 이동을 검출하고, 이러한 검출에 따라 표시 제어부(44)가 깊이량 연산을 반복한다. 표시면(24)과 조작체의 근접 위치(제2 공간 위치)와의 거리가 줄어들수록, 표시 제어부(44)는 입체 사진의 깊이 방향의 위치(즉, 제2 표시 위치)를 표시면(24)에 가깝게 하거나 일치시키도록 깊이를 자동 제어한다. 근접 검지부(42)는 조작체가 표시면(24)으로부터 적어도 미리 정해진 거리만큼 멀리 될 때까지 상술된 깊이 제어를 반복한다.
4. 깊이 제어 처리(제1 실시 형태)
다음으로, 본 실시 형태에 따른 입체 표시 장치(10)의 동작에 대해서 설명한다. 도 6은 입체 표시 장치(10)의 동작에 대한 깊이 제어 처리를 나타낸 순서도이다. 깊이 제어 처리가 개시되면, 표시 제어부(44)는 근접 검지부(42)에 의해 조작체의 근접 또는 접촉이 검출되었는지를 판정한다(스텝 S605). 근접 또는 접촉이 검출되지 않았을 경우, 표시 제어부(44)는 즉시 처리를 종료한다. 한편, 근접 또는 접촉이 검출되었을 경우, 표시 제어부(44)는 검출된 근접 위치 또는 접촉 위치의 깊이 방향으로 입체 사진이 표시되어 있는지를 판정한다(스텝 S610). 또한, 표시 제어부(44)는, 검출된 근접 위치 또는 접촉 위치의 깊이 방향으로부터 다소 떨어진 위치에 입체 사진이 표시되어 있어도, 검출된 근접 위치 또는 접촉 위치의 깊이 방향으로 입체 사진이 표시되어 있다고 판정해도 좋다.
이러한 방법으로 입체 사진이 표시되지 않고 있을 경우, 표시 제어부(44)는 제어 대상이 없다고 판단하여 즉시 처리를 종료한다. 한편, 이러한 방법으로 입체 사진이 표시되어 있을 경우, 표시 제어부(44)는 상술한 연산 방법에 의해 제어 대상인 입체 사진의 깊이(즉, 깊이 방향의 제1 변위)량을 산출한다(스텝 S615).
다음으로, 표시 제어부(44)는, 산출된 깊이량에 기초하여, 입체 사진으로부터 근접 위치 또는 접촉 위치까지의 거리(즉, 깊이 방향으로의 제2 변위)를 산출한다(스텝 S620). 산출 결과에 기초하여, 입체 사진을 조작체에 가깝게 하거나 일치시키도록 입체 사진의 깊이 방향의 위치를 변경한다(스텝 S625). 이러한 실시형태에서는, 도 4를 참조하여 상술된 바와 같이, 깊이 방향으로의 제1 공간 위치와 제1 표시 위치와의 변위는 제2 공간 위치와 제2 표시 위치와의 대응 변위를 초과한다. 즉, 입체 사진은 제2 공간 위치보다 조작체 부분에 가까이 배치된다.
상술된 바와 같이, 제1 실시 형태의 입체 표시 장치(10)에 따르면, 조작체가 표시면(24)에 근접하거나 터치했을 경우, 그 근접 위치 또는 접촉 위치를 검출한다. 이후, 근접 위치 또는 접촉 위치의 깊이 방향으로 표시된 입체 사진이 표시면(24)으로부터 돌출해 있을 경우, 입체 사진의 위치를 깊이 측으로 어긋나게 하여 조작체와 입체 사진이 서로 겹쳐지지 않도록 표시한다. 반대로, 입체 사진이 표시면(24)보다 움푹 패어져 표시되어 있을 경우, 입체 사진이 조작체 가까이 당겨져 조작체에 닿게 되도록 입체 사진의 위치를 앞으로 어긋나게 하여 표시한다. 이에 의해, 입체 공간에서 입체 사진의 요철을 조작체와 겹치지 않도록 하면서, 입체 사진을 조작체에 가깝게 하거나 일치시키면서 움직여서 표시시킬 수 있고, 탭이나 드래그, 플릭(flick) 조작과 같은 이차원 애플리케이션에서 행해지던 조작을, 입체 사진을 포함하는 3차원 애플리케이션에서도 위화감 없이 실현할 수 있다.
5. XY 좌표의 제어(제1 실시 형태)
입체 사진의 표시 위치를 움직이는 방향은, 상술한 바와 같이 깊이 방향이어도 좋고, 표시면(24)에 평행한 상하 좌우의 어느 방향이어도 좋다. 예를 들면, 도 7의 상부 도면에서는, 입체 사진 Ps, Pt가 표시면(24)으로부터 돌출해서 표시되어 있다. 도 7은 입체 사진이 서로 겹쳐져 표시되어 있는 경우를 나타낸다. 여기에서, 입체 사진 Pt에는 피사체 Pt'(표시물)이 포함되고, 입체 사진 Ps에는 피사체Ps'(표시물)이 포함된다. 입체 사진 Pt의 피사체 Pt'은 입체 사진 Ps의 뒤에 있고, 입체 사진 Ps의 피사체 Ps'는 입체 사진 Pt의 앞에 있기 때문에, 전체로 볼 때, 뒤에 있는 입체 사진 Pt의 피사체 Pt'는 앞에 있는 입체 사진 Ps의 피사체 Ps'(돌출 부분)의 일부를 가로막는 것으로 보인다. 이러한 입체 표시는 현실 공간에서는 일어날 수 없기 때문에 사용자에게 위화감을 초래한다.
이러한 표시 상태에서, 도 7의 상부 도면에 나타낸 바와 같이, 조작체를 입체 사진 Ps, Pt에 가깝게 한다. 그렇게 하면, 표시 제어부(44)는, 조작체의 동작에 따라, 입체 사진 Ps 및 입체 사진 Pt를 표시면(24)의 방향으로 밀어 넣는다. 다음으로, 도 7의 중간 도면에 나타낸 바와 같이, 조작체가 제어 대상인 입체 사진 Ps를 표시면(24)과 평행한 방향(여기서는, 좌측)으로 움직이면, 표시 제어부(44)는, 입체 사진 Ps의 위치를 표시면(24)과 평행한 방향으로 이동시켜, 입체 사진 Ps의 위치가 조작체의 근접 위치에 가깝게 되거나 일치하도록 제어한다. 이에 의해, 입체 사진 Ps는 입체 사진 Pt보다 좌측에 표시된다. 이 결과, 도 7의 하부 도면에 나타낸 바와 같이, 앞에 있는 입체 사진 Ps의 피사체 Ps'가 뒤에 있는 입체 사진 Pt의 피사체 Pt'에 의해 가로막혀진 상태를 해소할 수 있다. 또한, 도 7에 나타낸 바와 같이, 입체 사진 Ps의 깊이 방향을 변경하고 나서 입체 사진 Ps를 XY 방향(표시면(24)과 평행방향)으로 어긋나게 해도 좋고, 입체 사진 Ps의 깊이 방향을 변경함 없이 입체 사진 Ps를 XY 방향으로 어긋나게 해도 좋다.
6. 입체 표시 장치의 기능 구성(제2 실시 형태)
다음으로, 제2 실시 형태에 따른 입체 표시 장치(10)의 기능 구성에 대해서 도 8을 참조하여 설명한다. 제2 실시 형태의 입체 표시 장치(10)에 따르면, 제1 실시 형태에서 설명된 자동 깊이 제어와 함께 기입(writing) 등의 편집 제어가 실행된다.
제2 실시 형태에 따른 입체 표시 장치(10)는 입체 표시부(40), 예컨대 근접 검지부(42)인 판정부, 표시 제어부(44), 예컨대 깊이 조정부(46)인 규정부(definition unit), 예컨대 화상 편집부(48)인 생성부와 기억부(60)를 포함한다. 이 중, 제1 실시 형태의 기능 구성에 포함되지 않는 깊이 조정부(46) 및 화상 편집부(48)에 대해서 주로 설명한다. 일 실시 형태에서, 표시 제어부(44), 판정부, 규정부 및 생성부의 하나 이상의 기능은, 예컨대 도 1의 CPU(32)나 범용 또는 전용 하드웨어 또는 이들의 조합에 의한 컴퓨터에 의해 실행되는 모듈에 의해 제공되어도 좋다. 깊이 조정부(46)는 사용자에 의한 조작에 따라 제어 대상인 표시물의 깊이 방향의 위치를 조정한다. 화상 편집부(48)는, 입체 사진 또는 입체 사진상에 가상적으로 덮여 씌여진 시트면에 화상을 묘화(drawing)하는 것에 의해, 화상 콘텐츠가 입체적으로 표시된 입체 공간에 원하는 화상을 편집한다. 이때 묘화되어 넣어지는 시트(텍스쳐)는 사진 자체의 텍스쳐(표시면(24))이어도 좋고, 또는 사진 자체의 텍스쳐와 동일한 위치에 기입용의 텍스쳐(시트면)를 제공함으로써 오리지날인 입체 사진과 편집 내용을 별도로 관리할 수 있다. 여기에서는, 시트면에 화상을 묘화하는 경우에 대해서 설명한다.
7. 입체 표시 장치에 의한 깊이/편집 제어(제2 실시 형태)
도 9는 본 실시 형태에 따른 입체 표시 장치(10)에 의한 깊이/편집 제어의 일례를 나타낸다. 표시 제어부(44)는 최초로 자동 깊이 제어를 행한다. 구체적으로, 조작체가 표시면(24)에 접촉 또는 근접한 것을 검출했을 경우, 표시 제어부(44)는 접촉 위치 또는 근접 위치의 깊이 방향으로 표시된 입체 사진을 제어 대상으로 삼고, 그 입체 사진의 깊이 방향의 위치(깊이량)를 산출한다. 도 9의 좌측 도면에서, 표시 제어부(44)는 깊이량에 기초하여 입체 사진의 돌출 부분 WA가 표시면(24)에 이르도록 입체 사진을 앞으로 어긋나게 한다. 이러한 방식으로 자동 깊이 제어를 행한 결과, 입체 사진의 돌출 부분 WA의 표시 위치는 조작체에 접촉하거나 근접한 위치가 된다.
다음으로, 도 9의 중간 도면에서와 같이, 깊이 조정부(46)는 입체 사진을 표시하는 깊이를 조정한다. 여기에서, 입체 사진은 자동 제어 후의 위치보다 Z'의 양 만큼 깊은 위치로 표시되도록 조정된다. 이러한 방식으로 입체 공간에서의 깊이 방향의 위치를 조정함으로써, 입체 공간의 임의인 위치를 포인팅 할 수 있다. 도 9의 우측 도면에서는, 펜으로 지시된 입체 공간에서의 입체 사진의 시트면(입체 사진과 동일한 위치) 상의 기입 위치에 기입이 행하여진다. 이는, 입체 사진 앞의 입체 공간에 임의인 도형이나 문자를 기입함으로써 편집을 행하는 것을 의미한다.
사용자가 깊이 조정량 Z'을 입력하는 방법으로서는, 도 24의 우측 하단에 나타낸 바와 같이, 표시면(24)에 제공된 슬라이더(24a)를 조작해서 조정량 Z'을 입력하는 방법이 있다. 슬라이더(24a) 대신에 도시하지 않은 손잡이나 버튼 조작에서 조정량 Z'을 입력해도 좋다. 도 24의 좌측 하단에 나타낸 바와 같이, 사용자에 의한 핀치(pinch; 24b) 조작을 행함으로써도 조정량 Z'을 입력하는 것이 가능하다. 터치 패널(20)과의 조합에 의해, 손잡이를 공중에서 집어 그 근접 위치를 검출함으로써 조정량 Z'을 입력하는 것도 가능하다. 도 24의 좌측 상단에 나타낸 바와 같이, 사용자에 의해 로테이터(rotator; 24c)의 조작을 행함으로써도 조정량 Z'을 입력할 수 있다. 도 24의 우측 상단에 나타낸 바와 같이, 탭핑(tapping)이나 더블 탭핑에 의해, 탭핑하거나 더블 탭핑한 위치에 표시된 입체 사진(24d)의 표시 위치가 표시면(24)에 일치하도록 입체 사진(24d)의 깊이를 0으로 조정해도 좋다. 이러한 방식으로 사용자 조작에 의해 조정량 Z'을 입력함으로써, 입체 공간 내의 임의의 위치에 도형을 묘화할 수 있다.
예를 들면, 입체 공간의 입체 사진에 임의의 도형을 기입할 수 있다. 기입 위치는 아래와 같은 방식으로 산출된다. 상기와 마찬가지로, 입체 사진 자체가 2 시차를 포함하는 경우를 예로 든다. 도 10의 좌측 도면에 나타낸 바와 같이, 대상으로 삼는 눈의 위치 벡터를 Vc라 하고, 펜끝의 위치 벡터를 Vp라 하고, 눈과 표시면과의 거리를 Lc라 하고, 표시면과 입체 사진과의 거리를 Li라 했을 때, 기입 위치의 위치 벡터 Vw는 이하의 수학식 2로 나타내진다.
[수학식 2]
Vw = (Lc + Li) / Lc x (Vp - Vc) + Vc
표시면(24)의 뒤에 있는 입체 사진에 묘화하는 경우, 좌안의 가상 위치와 기입 위치를 연결한 직선이 입체 사진과 교차하는 위치의 좌안용 시트면(시트면으로서 도시)에 점을 기입한다. 마찬가지로, 우안의 가상 위치와 기입 위치를 연결한 직선이 입체 사진과 교차하는 위치의 우안용 시트면(시트면으로서 도시)에 점을 기입한다. 이를 동시에 행함으로써, 마치 입체 사진에 묘화한 것처럼 보인다.
도 10의 가운데 도면에 나타낸 바와 같이, 입체 사진이 표시면의 뒤에 표시되어 있을 경우, 입체 사진에 가상적으로 덮여 씌워진 시트면에 펜으로 기입하면, 화상이 입체 사진의 앞의 공간에 기입된 것이 된다. 한편, 도 10의 우측 도면에서와 같이, 입체 사진이 표시면의 앞에 표시되어 있을 경우, 펜으로 시트면에 기입하면, 화상이 입체 사진의 뒤의 공간에 기입된 것이 된다.
8. 입체 표시 장치에 의한 깊이/편집 제어(제2 실시 형태)
다음으로, 본 실시 형태에 따른 입체 표시 장치(10)의 동작에 대해서 설명한다. 도 11은 입체 표시 장치(10)의 동작에 대한 깊이/편집 제어 처리를 나타내는 순서도이다. 깊이/편집 제어 처리가 개시되면, 표시 제어부(44)는 도 6의 스텝S605 내지 S625에 의해 나타낸 깊이 제어 처리를 실행한다(스텝 S1105). 도 6의 깊이 제어 처리에 대해서는, 제1 실시 형태에서 설명했으므로, 여기에서는 설명을 생략한다. 도 12의 "a" 및 "b"는 깊이 제어 처리에서 실행되는 근접 검출 및 자동 깊이 제어가 나타나 있다. 여기에서, 입체 사진에는 깊이가 다른 피사체 m, n, o가 포함된다.
다음으로, 깊이 조정부(46)는 사용자로부터 깊이 조정의 지시가 있었는지를 판정한다(스텝 S1110). 사용자로부터 깊이 조정량 Z'에 관한 입력 조작이 없었을 경우, 깊이 조정부(46)는 스텝 S1115을 생략한다. 한편, 사용자로부터 깊이 조정량 Z'에 관한 입력 조작이 있었을 경우, 깊이 조정부(46)는 제어 대상의 입체 사진의 깊이를 조정한다(스텝 S1115). 도 12의 "c"에서는, 입체 사진이 보다 뒤에 표시되도록 깊이가 조정된다.
다음으로, 근접 검지부(42)는 미리 정해진 시간 내에 조작체(예컨대, 손가락, 다른 신체 부분 및 스타일러스(stylus))가 표시면에 접촉했는지를 검출한다(스텝 S1120). 접촉이 검출되지 않았을 경우, 본 처리를 종료한다. 한편, 접촉이 검출되었을 경우, 화상 편집부(48)는 스텝 S1125에서 시트면의 기입 위치(즉, 접촉에 대응하는 판정부의 표면 상의 위치)에 원하는 기입/편집을 행한다. 이러한 기입/편집 처리는 표시면(24)에 접촉하고 있었던 조작체가 표시면(24)으로부터 벗어날 때까지 실행된다(스텝 S1130 및 S1125의 반복). 이 결과, 도 12의 "d"에서는 피사체 m의 앞에 화상이 기입되고, "e"에서는 피사체 n의 뒤에 화상이 기입된다. 피사체 m 및 n은, 조작체의 근접 위치의 깊이 방향으로 표시되는 제어 대상인 표시물에 상당한다.
표시면(24)에 접촉하고 있었던 조작체가 표시면(24)으로부터 벗어나면, 처리는 스텝 S1110에 되돌아가고, 깊이 조정부(46)는 다시 사용자로부터 깊이 조정의 지시가 있었는지를 판정한다. 지시가 있었을 경우, 깊이 조정부(46)는 재차, 입체 사진의 깊이를 조정한다(스텝 S1115: 도 12의 "f" 참조). 이후, 재차, 조작체의 접촉을 검출했을 경우, 화상 편집부(48)는 다시, 시트면의 기입 위치에 원하는 기입/편집을 행한다(스텝 S1125). 도 12의 "g"에서는 입체 사진의 피사체 n의 우측의 시트면의 기입 위치에 화상이 기입된다.
조작체가 표시면(24)으로부터 벗어나(스텝 S1130), 깊이 조정의 지시가 없고(스텝 S1110 및 S1115), 조작체가 표시면(24)에 접촉함 없이 미리 정해진 시간이 경과했을 경우(스텝 S1120), 기입/편집 처리를 종료한다.
상술한 바와 같이, 제2 실시 형태에 따른 입체 표시 장치(10)에 따르면, 자동 깊이 제어에 의해 조작체가 지시하는 피사체를 표시면까지 부상시켜(즉, 피사체의 적어도 일부가 깊이 방향으로 판정부면과 일치), 그 입체 사진상에 임의의 도형이나 문자를 기입할 수 있다. 예를 들면, 도 13의 우측 도면에서는, 피사체의 일례인 배경의 산에 조작체가 근접하고, 그 결과, 산이 표시면에 일치한 상태로 자동 제어된다. 이는, 산의 도형에 어긋남(시차)이 없는 것으로 알 수 있다. 이러한 상태에서 산에 "Mt."라고 펜으로 기입하면, 산의 화상 상에서 손으로 쓴 "Mt."가 편집된다. 또한, 도 13의 우측 도면에는, 표시면에 대하여 앞 또는 뒤에 있는 피사체의 화상의 어긋남의 크기가 시차로서 2차원으로 표현되어 있다. 우측의 건물과 중앙의 황실 수호 견상(imperial guardian dog)의 화상에는 어긋남이 발생한다. 따라서, 이 건물과 황실 수호 견상은 앞 또는 뒤로 돌출해서 입체적으로 표시되어 있는 것을 알 수 있다.
예를 들면, 입체 사진의 앞의 공간에 기입하고 싶을 경우에는, 사용자로부터의 깊이 조정의 지시에 따라, 입체 사진 및 시트면을 표시면의 뒤에 표시하도록 깊이를 조정한다. 이러한 상태에서 시트면 상에 기입을 행하면, 입체 사진의 화상의 앞의 공간에 3차원적으로 기입을 행할 수 있다.
한편, 예를 들면, 그 입체 사진의 뒤의 공간에 기입하고 싶을 경우에는, 사용자로부터의 깊이 조정의 지시에 따라, 입체 사진을 표시면의 앞에 표시하도록 깊이를 조정한다. 이러한 상태에서 시트면에 기입을 행하면, 입체 사진의 화상의 뒤의 공간에 3차원적으로 기입을 행할 수 있다. 도 13의 좌측 도면에서는, 표시면의 앞 또는 뒤에 기입된 한 쌍의 곡선의 어긋남 크기를 시차로서 2차원으로 표현하고 있다. 여성에 가장 근접한 한 쌍의 곡선은, 도면으로부터는 알 수 없지만 앞에서의 기입이며 어긋남이 작다. 따라서, 이 한 쌍의 곡선은 여성의 앞에 조금 돌출해서 표시된다. 한편, 여성으로부터 멀리 있는 2개의 곡선은 도면으로부터는 알 수 없지만 뒤에서의 기입이며 어긋남이 크다. 따라서, 외측의 곡선일수록 안으로 들어간 위치에 표시되어 있다는 것을 알 수 있다. 이렇게 하여, 제2 실시 형태의 입체 표시 장치(10)에 따라, 입체 사진상이나 입체 사진의 앞 또는 뒤에 화상을 기입할 수 있고, 편집할 수 있다.
9. 예시적 깊이/편집 제어 처리(제2 실시 형태)
상술한 바와 같이, 입체 사진 내의 입체 공간에 자유롭게 묘화할 수 있게 되었을 경우, 오리지날 입체 사진의 시차와 기입 화상과의 표시에 위화감이 초래되는 경우가 있다. 예를 들면, 앞에 와 있는 입체 사진의 뒤에 기입을 할 수 있으면, 입체 표시에 위화감이나 불쾌감이 발생할 수 있다. 이러한 경우를 방지하기 위해서, 변형예 1에 따르면, 오리지날 입체 사진의 좌우의 화상의 픽셀 간의 어긋남을 미리 계산해 놓고, 기입 위치로부터 계산되는 좌우의 어긋남과 비교함으로써, 입체 사진의 깊이 방향의 위치와 화상의 기입 위치와의 위치 관계를 판정함으로써, 입체 사진의 뒤에 화상을 기입되지 않도록 한다. 이하에서는, 본 실시 형태의 변형예 1에 따른 입체 표시 장치(10)의 동작에 대해서, 도 14의 깊이/편집 제어 처리를 나타낸 순서도를 참조하여 설명한다.
깊이 제어 처리가 개시되면, 표시 제어부(44)는, 도 6에 나타낸 깊이 제어 처리를 실행한다(스텝 S1105). 깊이 제어 처리에 대해서는 제2 실시 형태와 동일한 처리이기 때문에, 여기에서는 그 설명을 생략한다.
다음으로, 사용자로부터 깊이 조정의 지시가 있었을 경우, 깊이 조정부(46)는 입체 사진의 깊이를 조정한다(스텝 S1110 및 S1115). 깊이 조정 처리에 대해서도 제2 실시 형태와 동일한 처리이기 때문에, 여기에서는 그 설명을 생략한다.
다음으로, 변형예 1의 기입 제어에 대해서 설명한다. 근접 검지부(42)는, 미리 정해진 시간 내에 조작체가 표시면(24)에 접촉했는지를 검출하며(스텝 S1120), 접촉이 검출되지 않았을 경우에는 처리를 종료한다. 한편, 접촉이 검출되었을 경우, 화상 편집부(48)는 시트면 상의 기입 위치가 입체 사진의 뒤에 위치하고 있는지를 판정한다(스텝 S1405). 시트면의 기입 위치가 입체 사진의 뒤에 위치하는지의 여부는, 상술한 바와 같이, 오리지널 입체 사진의 좌우 화상의 픽셀 어긋남을 미리 계산해 놓고, 기입 위치로부터 계산되는 좌우의 어긋남과 비교함으로써 판단한다. 기입 위치가 입체 사진의 뒤에 위치하지 않을 경우, 화상 편집부(48)는 통상대로, 기입 위치에 원하는 기입/편집을 행한다(스텝 S1125). 이러한 기입/편집 처리는, 표시면(24)에 접촉하고 있었던 조작체가 표시면(24)으로부터 벗어날 때까지 실행된다(스텝 S1130 및 S1125의 반복).
한편, 기입 위치가 입체 사진의 뒤에 위치하고 있을 경우, 앞에 와 있는 입체 사진의 뒤에 기입되어야 하기 때문에, 화상 편집부(48)는 그 기입 위치에서의 기입을 금지한다(스텝 S1410). 도 15의 "h"에서는, 표시면의 앞에 표시되어 있는 피사체 n의 뒤에 기입하는 것이 금지되어 있다.
표시면(24)에 접촉하고 있었던 조작체가 표시면(24)으로부터 벗어나거나(스텝 S1130), 기입이 금지되면(스텝 S1410), 스텝 S1110으로 되돌아가고, 깊이 조정부(46)는 다시 사용자로부터 깊이 조정의 지시가 있었는지를 판정한다. 지시가 있었을 경우, 깊이 조정부(46)는 입체 사진의 깊이를 재조정하고(도 15의 "j" 참조), 다시, 시트면의 기입 위치에 원하는 기입/편집을 행한다. 도 15의 "k"에는, 재조정후, 표시면(24)의 뒤에 표시되어 있는 피사체 n의 앞에 화상을 기입하는 상태가 나타나 있다.
조작체가 표시면(24)으로부터 벗어나(스텝 S1130), 깊이 조정의 지시가 없고(스텝 S1110 및 S1115), 조작체가 표시면(24)에 접촉함 없이 미리 정해진 시간이 경과했을 경우(스텝 S1120), 기입/편집 처리를 종료한다.
상술한 바와 같이, 제2 실시 형태의 변형예 1에 따르면, 입체 사진의 뒤에 화상을 기입하는 것을 금지함으로써, 오리지날 입체 사진의 시차와 기입 화상과의 표시에 위화감이 생기는 것을 방지할 수 있다.
10. 추가 예시적 깊이/편집 제어 처리(제2 실시 형태)
변형예 1에서는, 오리지날 입체 사진의 시차와 기입 사이에서 표시의 위화감을 방지하기 위해서, 입체 사진 뒤에의 기입을 금지했다. 한편, 변형예 2에서는, 입체 사진상에 화상이 기입되도록, 화상의 기입/편집과 함께 자동 깊이 제어가 행해진다. 이하에서는, 본 실시 형태의 변형예 2에 따른 입체 표시 장치(10)의 동작에 대해서, 도 16의 깊이/편집 제어 처리를 나타낸 순서도를 참조하여 설명한다.
깊이 제어 처리가 개시되면, 표시 제어부(44)는 도 6에 나타낸 깊이 제어 처리를 실행한다(스텝 S1105 및 도 17의 "p" 참조). 깊이 제어 처리(자동)에 대해서는 제2 실시 형태와 동일한 처리이기 때문에 여기에서는 그 설명을 생략한다.
다음으로, 변형예 2의 기입 제어에 대해서 설명한다. 근접 검지부(42)는 미리 정해진 시간 내에 조작체가 표시면(24)에 접촉했는지를 검출하고(스텝 S1120), 접촉이 검출되지 않았을 경우에는 본 처리를 종료한다. 한편, 접촉이 검출되었을 경우, 화상 편집부(48)는, 도 6의 자동 깊이 제어 처리를 실행하면서, 시트면의 기입 위치에 원하는 기입/편집을 행한다(스텝 S1605). 이러한 기입/편집 처리는, 표시면(24)에 접촉하고 있었던 조작체가 표시면(24)으로부터 벗어날 때까지 실행된다(스텝 S1130 및 S1605의 반복). 도 17의 "q"에서는, 피사체 m이 표시면에 일치하도록 깊이를 자동 제어하면서, 피사체 m 상에 기입이 행하여진다. 도 17의 "r"에서는, 피사체 n이 표시면에 일치하도록 깊이를 자동 제어하면서, 피사체 n 상에 기입이 행하여진다. 도 17의 "s"에서는, 피사체 o가 표시면에 일치하도록 깊이를 자동 제어하면서, 피사체 o상에 기입이 행하여진다.
표시면(24)에 접촉하고 있었던 조작체가 표시면(24)으로부터 벗어나면(스텝 S1130), 처리는 스텝 S1120에 되돌아가고, 조작체가 표시면(24)에 접촉함 없이 미리 정해진 시간이 경과했을 경우(스텝 S1120), 기입/편집 처리를 종료한다.
상술한 바와 같이, 제2 실시 형태의 변형예 2에 따르면, 입체 사진상에 화상이 기입되도록, 화상의 기입/편집과 함께 자동 깊이 제어가 행해진다. 이에 의해, 오리지널 입체 사진과 기입 화상 사이에서 표시에 위화감이 생기는 것을 방지할 수 있다. 또한, 제2 실시 형태 및 그 변형 예에서, 깊이 제어의 동안에는 근접 검지부(42)에 의해 검출되는 조작체는 제1 조작체에 상당하고, 편집 처리의 동안에는 근접 검지부(42)에 의해 검출되는 조작체는 제2 조작체에 상당한다.
11. 입체 표시 장치에 의한 축소/확대 제어(제3 실시 형태)
다음으로, 본 발명의 제3 실시 형태에 따른 입체 표시 장치(10)의 기능 및 동작에 대해서 설명한다. 제3 실시 형태에 따른 입체 표시 장치(10)의 기능은 도 8에 나타낸 기능 블록의 각 부에 의해 실행된다. 그러나, 제3 실시 형태의 표시 제어부(44)는, 조작체의 근접 또는 접촉이 검지되었을 경우, 입체 사진이 포함되는 화상 콘텐츠를 원하는 크기로 축소해서 표시한다. 이하에서는, 이러한 차이점을 중심으로, 제3 실시 형태에 따른 입체 표시 장치(10)에 의한 깊이 제어 처리에 대해서 설명한다.
도 18은 제3 실시 형태에 따른 입체 표시 장치(10)에 의한 축소/확대 제어 처리를 나타낸 순서도이다. 축소/확대 제어 처리가 개시되면, 표시 제어부(44)는 근접 검지부(42)에 의해 근접 또는 접촉이 검출되었는지를 판정한다(스텝 S605). 근접 및 접촉이 모두 검출되지 않을 경우, 처리를 종료한다. 한편, 근접 또는 접촉이 검출되었을 경우(즉, 조작체 부분의 제1 공간 위치가 표시면의 임계 거리 내에서 검출), 표시 제어부(44)는 표시면(24) 상에 표시된 화상 콘텐츠(입체 사진을 포함)를, 예컨대 제1 공간 위치에 연관된 미리 정해진 크기인 제1 크기로 축소한다(스텝 S1805). 도 19은 조작체의 근접이 검출되었을 때, 자동적으로 입체 사진이 축소되는 상태를 나타낸다.
다음으로, 표시 제어부(44)는, 근접 검지부(42)에 의해 근접이 검출되지 않는 제2 공간 위치까지 조작체가 벗어났는지(즉, 제2 공간 위치가 임계 거리 내에 있지 않음)를 판정한다(스텝 S1810). 조작체가 벗어나 있지 않을 경우, 화상 콘텐츠를 미리 정해진 크기로 축소한 채, 처리를 종료한다. 근접이 검출되지 않는 위치까지 조작체가 벗어났을 경우, 표시 제어부(44)는, 표시면(24)에 표시된 화상 콘텐츠를 원래의 크기로 되돌리고(스텝 S1815), 처리를 종료한다.
상술한 바와 같이, 제3 실시 형태의 입체 표시 장치(10)에 따르면, 입체 사진의 표시면으로부터 돌출한 부분과 조작체가 겹칠 경우 또는 겹칠 것 같을 경우에, 조작체가 입체 사진에 함몰되어 있는 것과 같은 부정합에 의한 위화감이 해소되도록 입체 사진의 외관상의 크기가 변경된다. 예를 들면, 도 20의 좌측 도면에 나타낸 화상 전체를 도 20의 우측 도면과 같이 축소하면, 여성의 양측에 기입한 곡선의 어긋남은 작아지게 된다. 이러한 방식으로 입체 사진의 외관상의 크기를 변경함으로써, 시차에 대해 상대적인 좌우 화상의 차분을 변화시키는 것에 의해, 입체 사진의 깊이감을 감소시킬 수 있다. 이에 의해, 조작체와 입체 사진과의 겹침을 감소시켜, 외관의 위화감을 경감시킬 수 있다.
예를 들면, 돌출량이 1cm인 입체 사진의 화상을 1/2배로 축소하면, 사진의 돌출량은 0.5cm가 된다. 이러한 방식으로 현실 공간의 조작체와 가상 공간상의 물체와의 겹침에 의한 표시의 위화감을 경감시킬 수 있다. 특히, 본 실시 형태에 따르면, 전체 화상을 축소/확대하기 위해서, 제1 실시 형태와 마찬가지로, 깊이량을 계산해서 입체 사진의 깊이를 제어할 필요가 없다. 따라서, 본 실시 형태에 따르면, 깊이 제어를 위한 계산이 불필요하게 되어 처리가 간소화될 수 있다.
또한, 표시 제어부(44)는, 화상 콘텐츠에 포함되는 1 이상의 입체 사진 중, 최대 깊이를 가지는 입체 사진의 깊이량에 따라서, 화상 콘텐츠의 축소 비율을 결정해도 좋다. 최대 돌출량이 클수록 조작체와 입체 사진이 서로 겹칠 때에 초래되는 위화감이 커진다. 따라서, 이러한 경우에는 축소 비율을 크게 함으로써, 사용자에 부여되는 위화감을 경감시킬 수 있다.
또한, 본 실시 형태의 화상의 축소/확대 처리와, 하나 이상의 실시 형태의 깊이 제어를 조합하는 것도 가능하다. 도 18의 축소/확대 제어 처리 외에, 사용자에 의한 조작에 따라서 깊이 조정부(46)에 의해 제어 대상인 입체 사진의 깊이 방향의 위치를 조정하도록 하여도 된다.
12. 추가 실시 형태들의 조합
상술된 실시 형태의 입체 표시 방법을 적절히 조합해서 적용할 수 있다. 예를 들면, 표시 제어부(44)는, 화상 편집부(48)에 의해 화상의 편집이 실행되기 전에, 제어 대상인 표시물의 깊이 방향의 위치를 표시면(터치면)에 일치시키거나 터치면의 뒤에 있도록 제어한 후, 화상 콘텐츠를 확대해서 표시하도록 제어해도 좋다.
또한, 예를 들면, 조작체의 근접이 검지되었을 경우, 표시 제어부(44)는, 화상 콘텐츠의 축소 및 표시와 함께, 조작체의 근접 위치의 깊이 방향으로 표시된 표시물을 제어 대상으로 삼고, 해당 표시물의 깊이 방향의 위치를 조작체의 근접 위치에 가깝게 하거나 일치시키도록 제어해도 좋다.
실시 형태의 조합의 일례를, 도 21 및 도 22를 참조하여 구체적으로 설명한다. 도 21의 좌측 상부 도면에서와 같이, 입체 표시 장치(10)의 표시면(24)의 뒤에 복수의 입체 사진의 썸네일 Ps가 나열되어 있을 경우, 조작체를 표시면(24) 상의 임의의 위치에 터치시킴으로써, 원하는 입체 사진이 선택된다. 도 21의 우측 상부 도면에서는, 2개의 입체 사진 Ps1 및 Ps2이 터치에 의해 선택되고, 제1 실시 형태의 깊이 제어에 의해, 입체 사진의 깊이량을 0으로 함으로써 입체 사진 Ps1 및 Ps2의 표시 위치가 표시면(24)과 일치하게 된다. 도 22에서는, 손을 표시면(24)에 가깝게 하면, 손의 위치에 가깝게 되도록 입체 사진의 깊이가 제어되고, 입체 사진Ps1이 떠올라 와(도 22의 우측 상부 도면), 손을 표시면(24)에 터치함으로써, 입체 사진 Ps1이 표시면(24)과 일치하는 위치에 표시된다(도 22의 좌측 하부 도면). 손을 벗어나게 하면 입체 사진 Ps1의 전화면 표시로 전환된다(도 22의 우측 하부 도면). 다른 제스처(gesture)로 원하는 입체 사진 Ps1을 전화면으로 확대해서 표시하게 하여도 좋다(도 21의 좌측 하부 도면). 이러한 상태에서, 제2 실시 형태에서 나타낸 바와 같이, 손을 입체 사진 Ps1에 접촉시킨 상태에서 기입을 개시한다(도 21의 우측 하부 도면).
입체 사진 Ps1이 확대 표시되어 있는 상태에서 표시면(24)을 손으로 터치하고자 하면, 손과 입체 사진 Ps1 간의 간섭이 일어나기 쉽지만, 입체 사진 Ps1의 화상을 깊이 방향으로 들어가게 하도록 깊이 조정함으로써 간섭을 감소시킬 수 있다. 또한, 깊이 조정과 함께 입체 사진 Ps1의 화상을 축소시킴으로써(도 21의 우측 하부 도면) 간섭을 감소시킬 수 있다.
또한, 화면 표시를 변경시키는 제스처로서는, 예를 들면, 도 23의 좌측 상부 도면에 나타낸 바와 같이 근접 손짓에 의해 전후의 사진으로 천이시키거나, 도 23의 우측 상부 도면에 나타낸 바와 같이 드래그에 의해 전후의 사진으로 천이시키는 것을 고려해 볼 수 있으며, 전후의 사진으로 천이 동안에, 사진의 크기를 축소 시킴으로써, 깊이감을 감소시켜, 입체적으로 표시된 표시물에 대한 거리감과 조작체에 대한 거리감 간의 부정합으로 인해 초래되는 위화감을 경감시킬 수 있다.
도 23의 좌측 하부 도면에 나타낸 바와 같이 하나의 입체 사진이 확대 표시되어 있는 상태로부터, 더블 탭에 의해 썸네일의 일람 표시로 천이시키는 것도 가능하다. 도 23의 우측 하부 도면에 나타낸 바와 같이, 핀칭(pinching)에 의해 줌(zoom) 하고, 입체 사진이 충분히 작아지면 썸네일의 일람 표시로 천이하도록 하여도 된다. 이들의 경우에도, 입체 사진이 확대 표시되어 있는 동안, 그 사진을 뒤에 들어가게 하도록 깊이 조정하여, 입체적으로 표시된 표시물에 대한 거리감과 조작체에 대한 거리감 간의 부정합으로 인해 초래된 위화감을 경감시킨다. 그 후, 썸네일의 일람 표시로 천이하면, 그 사진을 표시면(24)에 가깝게 하도록 깊이 조정함으로써, 사용자의 조작성을 향상시킨다.
이러한 방식으로, 조작체의 근접이 검지되었을 경우, 표시 제어부(44)는 화상 콘텐츠의 축소 표시와 함께, 조작체의 근접 위치의 깊이 방향으로 표시된 표시물을 제어 대상으로 삼고, 해당 표시물의 깊이 방향의 위치를 보다 뒤로 천이하여도 좋다. 또한, 표시 제어부(44)는 표시면(24)과 조작체의 근접 위치와의 거리가 가깝게 될수록 화상 콘텐츠를 축소 표시하고, 표시면(24)과 조작체와의 거리가 멀어질수록 화상 콘텐츠를 확대 표시해도 좋다.
이상, 본 발명의 실시 형태에 따르면, 조작체의 근접 또는 접촉에 따라 표시물의 표시 방법을 적절히 제어함으로써, 입체적으로 표시된 표시물과 조작체와의 거리감에 관한 부정합으로 인해 초래되는 위화감을 경감시킬 수 있다.
예를 들면, 제1 실시 형태에서는, 근접 검출이 가능한 터치 패널(20)을 이용하여, 조작체가 근접한 점에서의 좌우 화상의 어긋남(시차)으로부터, 입체 사진의 표시면(24)으로부터의 깊이량을 추정하고, 조작체의 근접 위치와 깊이량이 서로 일치하도록 입체 사진의 위치를 제어한다. 이에 의해, 표시물과 조작체와의 거리감에 관한 부정합으로 초래되는 위화감을 없앨 수 있고, 또한, 사용자의 조작성을 향상시킬 수 있다.
또한, 예를 들면, 제2 실시 형태에서는, 근접 검출이 가능한 터치 패널(20)을 이용하여, 기입하고 싶은 XY 좌표를 조작하고 Z 좌표를 표시면(터치면)에 맞추게 함으로써, 2차원의 위치를 지정하는 것과 마찬가지로 3차원의 위치를 지정하고, 입체 사진이 표시된 입체 공간의 임의인 위치에 문자나 도를 기입할 수 있다.
또한, 예를 들면, 제3 실시 형태에서는, 입체 사진이 터치 패널(20)의 표시면(24)으로부터 돌출한 위치에 형성되면서, 조작체의 근접을 검출하는 경우, 입체 사진의 크기를 축소한다. 이에 의해, 사용자의 조작성을 양호하게 유지하면서, 깊이 방향의 표시의 위화감을 용이하게 경감시킬 수 있다.
또한, 상기 실시 형태의 입체 표시 방법을 적절히 조합함으로써, 표시물과 조작체와의 거리감에 관한 부정합으로 초래되는 위화감을 효과적으로 경감시킬 수 있다.
상술된 제1 내지 제3 실시 형태 및 변형 예에서, 각 부의 동작은 서로 관련되며, 서로의 관련을 고려하면서, 일련의 동작 및 일련의 처리로서 치환될 수 있다. 이에 의해, 정보 처리 장치의 실시 형태가 입체 표시 방법을 실행하도록 할 수 있고, 정보 처리 장치의 프로세서가 유형의 영구적인 컴퓨터 판독 가능 매체에 저장된 명령어들을 실행할 수 있어, 프로세서로 하여금 정보 처리 장치의 기능을 실현하게 할 수 있다.
당업자라면, 다양한 변형, 조합, 하위 조합 및 대체가 첨부된 청구 범위 또는 이의 균등물의 범위 내에 있는 한, 설계 요건 또는 다른 요인에 따라 있을 수 있다는 것을 이해할 수 있다.
예를 들면, 상술된 각각의 실시 형태에서는, 터치 패널이 비근접, 근접 및 접촉과 같은 3 상태를 검지하고, 그 검지 결과에 따라서 표시물의 표시 방법을 제어하는 방법에 대해서 설명했지만, 본 발명에 따른 입체 표시 방법은 이에 한정되지 않는다. 예를 들면, 터치 패널에 의해 표시면과 표시물과의 사이의 거리가 단계적 또는 연속적으로 검지될 수 있을 경우에는, 그 거리에 따라서 단계적 또는 연속적으로 표시물을 깊이 방향으로 들어가게 하여도 좋다. 이러한 변형 또한 본 발명의 기술적 범위에 포함된다.
본 발명은 2010년 11월 11일에 일본 특허청에 출원된 일본 우선권 특허 출원 제2010-253152호에 개시된 관련 요지를 포함하며, 이의 전체 내용이 본 명세서에 참조로 원용된다.

Claims (20)

  1. 정보 처리 장치로서,
    조작체(operating tool)의 일부와 판정부면과의 접촉에 대응하는 상기 판정부면 상의 위치를 판정하도록 구성된 판정부(determination unit)와,
    제1 입체 화상의 제1 표시 위치를 규정하도록 구성된 규정부(definition unit)와,
    상기 접촉에 응답하여 제2 입체 화상을 생성하도록 구성된 생성부(generation unit)와,
    상기 제1 입체 화상을 상기 제1 표시 위치에 표시하고 상기 제2 입체 화상을 제2 표시 위치에 표시하기 위한 신호를 생성하도록 구성된 제어부 - 상기 제1 및 제2 표시 위치는 상기 접촉 위치의 미리 정해진 거리 내에 있음 - 를 포함하는, 정보 처리 장치.
  2. 제1항에 있어서,
    상기 미리 정해진 거리는 깊이 방향에 수직한 하나 이상의 방향에 대하여 규정되는, 정보 처리 장치.
  3. 제1항에 있어서,
    상기 생성부는 또한 상기 조작체의 일부와 상기 판정부면과의 접촉에 기초하여, 전자 콘텐츠를 생성하도록 구성되는, 정보 처리 장치.
  4. 제2항에 있어서,
    상기 전자 콘텐츠는 상기 조작체의 사용자로부터 수신된 기입(writing) 또는 묘화(drawing) 중 적어도 하나를 포함하는, 정보 처리 장치.
  5. 제2항에 있어서,
    상기 제2 입체 화상은 상기 전자 콘텐츠를 포함하는, 정보 처리 장치.
  6. 제1항에 있어서,
    상기 규정부는 또한 상기 접촉에 응답하여, 상기 제1 표시 위치가 깊이 방향으로의 상기 판정부면과 일치되는 것으로서 규정하도록 구성되는, 정보 처리 장치.
  7. 제6항에 있어서,
    상기 제어부는 또한 상기 제2 입체 화상의 적어도 일부가 상기 제1 입체 화상의 대응 부분 상에 중첩(superimpose)된다고 하는 사용자 인식을 생성하도록 구성되는, 정보 처리 장치.
  8. 제6항에 있어서,
    상기 제어부는 또한 상기 제1 표시 위치에 표시되는 상기 제1 입체 화상의 적어도 일부에 상기 조작체가 접촉한 것으로서 사용자 인식을 생성하도록 구성되는, 정보 처리 장치.
  9. 제8항에 있어서,
    상기 제어부는 또한 상기 제1 표시 위치에 표시되는 상기 제1 입체 화상의 일부 위에 상기 조작체 일부가 기입한 것으로서 사용자 인식을 생성하도록 구성되는, 정보 처리 장치.
  10. 제1항에 있어서,
    상기 규정부는 또한
    상기 제1 입체 화상의 상기 제1 표시 위치를 나타내는 정보를 사용자로부터 수신하고,
    적어도 수신된 상기 정보에 기초하여, 상기 제1 입체 화상의 상기 제1 표시 위치를 규정하도록 구성되는, 정보 처리 장치.
  11. 제1항에 있어서,
    상기 판정부는 또한 사용자의 제스처(gesture)를 검출하도록 구성되는, 정보 처리 장치.
  12. 제11항에 있어서,
    상기 규정부는 또한 적어도 검출된 상기 제스처에 기초하여, 상기 제1 표시 위치를 규정하도록 구성되는, 정보 처리 장치.
  13. 제1항에 있어서,
    상기 판정부는 또한 상기 판정부면의 임계 거리 내에 배치되는 상기 조작체 일부의 제1 공간 위치를 판정하도록 구성되는, 정보 처리 장치.
  14. 제13항에 있어서,
    상기 규정부는 또한 상기 제1 공간 위치에 기초하여 상기 제1 표시 위치를 규정하도록 구성되고, 상기 제1 표시 위치는 깊이 방향으로의 검지부면에 대하여 규정되는, 정보 처리 장치.
  15. 제13항에 있어서,
    상기 판정부는 또한 상기 임계 거리 내에 배치되는 상기 조작체 일부의 연속하는 공간 위치를 판정하도록 구성되며, 상기 연속하는 공간 위치의 판정은 깊이 방향으로의 상기 조작체의 움직임에 따르는, 정보 처리 장치.
  16. 제15항에 있어서,
    상기 규정부는 또한 적어도 상기 제1 입체 화상의 상기 제1 표시 위치와 상기 조작체 일부의 상기 연속하는 공간 위치에 기초하여, 상기 제1 입체 화상의 연속하는 표시 위치를 판정하도록 구성되며,
    상기 제어부는 또한 연속하는 상기 제1 표시 위치에 상기 제1 입체 화상을 표시하기 위한 신호를 생성하도록 구성되는, 정보 처리 장치.
  17. 제1항에 있어서,
    상기 신호에 응답하여, 상기 제1 입체 화상을 상기 제1 표시 위치에 표시하고 상기 제2 입체 화상을 상기 제2 표시 위치에 표시하도록 구성되는 표시부를 더 포함하는, 정보 처리 장치.
  18. 제17항에 있어서,
    상기 표시부는 표시면을 포함하고,
    상기 표시부면의 적어도 일부는 상기 판정부면과 일치하는, 정보 처리 장치.
  19. 화상 표시용 컴퓨터 구현 방법으로서,
    프로세서를 이용하여, 조작체 일부와 판정부면 간의 접촉에 대응하는 상기 판정부면 상의 위치를 판정하는 단계와,
    상기 프로세서를 이용하여, 제1 입체 화상의 제1 표시 위치를 규정하는 단계와,
    상기 프로세서를 이용하여, 상기 접촉에 응답하여 제2 입체 화상을 생성하는 단계와,
    상기 프로세서를 이용하여, 상기 제1 입체 화상을 상기 제1 표시 위치에 표시하고 상기 제2 입체 화상을 제2 표시 위치에 표시하기 위한 신호를 생성하는 단계 - 상기 제1 및 제2 표시 위치는 상기 접촉 위치의 미리 정해진 거리 내에 있음 - 를 포함하는, 화상 표시용 컴퓨터 구현 방법.
  20. 프로세서에 의해 실행되는 경우, 프로세서로 하여금
    조작체 일부와 판정부면과의 접촉에 대응하는 상기 판정부면 상의 위치를 판정하는 단계와,
    제1 입체 화상의 제1 표시 위치를 규정하는 단계와,
    상기 접촉에 응답하여 제2 입체 화상을 생성하는 단계와,
    상기 제1 입체 화상을 상기 제1 표시 위치에 표시하고 상기 제2 입체 화상을 제2 표시 위치에 표시하기 위한 신호를 생성하는 단계 - 상기 제1 및 제2 표시 위치는 상기 접촉 위치의 미리 정해진 거리 내에 있음 - 를 포함하는 방법을 수행하게 하는 명령어들을 저장한 유형의 비일시적인 컴퓨터 판독가능 매체.
KR1020110114180A 2010-11-11 2011-11-03 정보 처리 장치, 입체 표시 방법 및 프로그램 KR20120050901A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010253152A JP5640681B2 (ja) 2010-11-11 2010-11-11 情報処理装置、立体視表示方法及びプログラム
JPJP-P-2010-253152 2010-11-11

Publications (1)

Publication Number Publication Date
KR20120050901A true KR20120050901A (ko) 2012-05-21

Family

ID=45350625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110114180A KR20120050901A (ko) 2010-11-11 2011-11-03 정보 처리 장치, 입체 표시 방법 및 프로그램

Country Status (7)

Country Link
US (2) US9176624B2 (ko)
EP (1) EP2453340B1 (ko)
JP (1) JP5640681B2 (ko)
KR (1) KR20120050901A (ko)
CN (2) CN202738033U (ko)
BR (1) BRPI1107087A2 (ko)
RU (1) RU2011144884A (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5640681B2 (ja) * 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
WO2012162686A1 (en) * 2011-05-25 2012-11-29 Centric Software, Inc. Mobile app for design management framework
JP5989315B2 (ja) * 2011-09-22 2016-09-07 任天堂株式会社 表示制御プログラム、表示制御システム、表示制御装置、および、表示制御方法
CN104519331B (zh) * 2013-09-27 2019-02-05 联想(北京)有限公司 一种数据处理方法及电子设备
CN106572389A (zh) * 2015-10-08 2017-04-19 小米科技有限责任公司 调节显示图像方法及装置
JP6092446B1 (ja) * 2015-10-23 2017-03-08 デクセリアルズ株式会社 部分駆動型光源装置及びそれを用いた画像表示装置
TWI796022B (zh) * 2021-11-30 2023-03-11 幻景啟動股份有限公司 在立體影像上執行互動的方法與立體影像顯示系統

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816137A (ja) * 1994-06-29 1996-01-19 Nec Corp 3次元座標入力装置及びカーソル表示制御方式
JP3741764B2 (ja) * 1996-02-09 2006-02-01 シャープ株式会社 三次元画像作成装置
EP2357840A3 (en) * 2002-03-27 2012-02-29 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP3971694B2 (ja) * 2002-12-11 2007-09-05 日本電信電話株式会社 オブジェクト表示方法及びその実施装置
MXPA04005721A (es) 2003-08-21 2005-06-03 Microsoft Corp Proceso de recoleccion y transformacion de tinta.
JP4076090B2 (ja) * 2005-04-14 2008-04-16 日本電信電話株式会社 画像表示システム
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
GB2462579A (en) * 2008-06-10 2010-02-17 Sony Service Ct Touch screen display including proximity sensor
JP2010045584A (ja) 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
JP2010253152A (ja) 2009-04-28 2010-11-11 Asahi Kasei Kuraray Medical Co Ltd 成分献血装置、及び成分献血装置の作動方法
CN102714743B (zh) 2010-05-27 2016-08-03 任天堂株式会社 便携式电子设备
JP5640681B2 (ja) * 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム

Also Published As

Publication number Publication date
EP2453340A1 (en) 2012-05-16
US9176624B2 (en) 2015-11-03
CN102547333A (zh) 2012-07-04
US20160007004A1 (en) 2016-01-07
CN202738033U (zh) 2013-02-13
RU2011144884A (ru) 2013-05-10
CN102547333B (zh) 2016-03-16
EP2453340B1 (en) 2016-04-27
US20120120061A1 (en) 2012-05-17
JP2012103983A (ja) 2012-05-31
JP5640681B2 (ja) 2014-12-17
BRPI1107087A2 (pt) 2013-04-09
US9432652B2 (en) 2016-08-30

Similar Documents

Publication Publication Date Title
US10652515B2 (en) Information processing apparatus, stereoscopic display method, and program
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
EP2453660B1 (en) Information processing apparatus, stereoscopic display method, and program
US11057612B1 (en) Generating composite stereoscopic images usually visually-demarked regions of surfaces
JP6065908B2 (ja) 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
CN105867597B (zh) 3d交互方法及3d显示设备
JP2012103980A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011180690A (ja) 表示制御装置、表示制御方法、および表示制御プログラム
KR20120095139A (ko) 양안 카메라가 적용된 사용자 인터페이스 장치 및 매뉴얼 컨버전스 제어방법
JP2014116843A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid