KR102176217B1 - 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치 - Google Patents

3차원 컨텐츠를 생성 및 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR102176217B1
KR102176217B1 KR1020130168671A KR20130168671A KR102176217B1 KR 102176217 B1 KR102176217 B1 KR 102176217B1 KR 1020130168671 A KR1020130168671 A KR 1020130168671A KR 20130168671 A KR20130168671 A KR 20130168671A KR 102176217 B1 KR102176217 B1 KR 102176217B1
Authority
KR
South Korea
Prior art keywords
image
user terminal
content
photographing
guide
Prior art date
Application number
KR1020130168671A
Other languages
English (en)
Other versions
KR20150078873A (ko
Inventor
김광중
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020130168671A priority Critical patent/KR102176217B1/ko
Publication of KR20150078873A publication Critical patent/KR20150078873A/ko
Application granted granted Critical
Publication of KR102176217B1 publication Critical patent/KR102176217B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

3차원 컨텐츠를 생성하는 방법은 객체의 제 1 이미지를 촬영하는 단계, 촬영된 제 1 이미지를 기준으로 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 단계, 표시된 가이드를 수행하는 단계 및 표시된 가이드와 수행 결과가 대응하는 경우 객체의 제 2 이미지를 촬영하는 단계를 포함하고, 가이드는 객체의 제 2 이미지를 촬영하기 위한 사용자 단말의 위치를 결정할 수 있다.

Description

3차원 컨텐츠를 생성 및 제공하는 방법 및 장치{METHOD OF MAKING AND PROVIDING CONTENT IN 3D AND APPARATUS THEREFOR}
본 발명은 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치에 관한 것이다.
일반적으로, 3차원 컨텐츠는 2차원 컨텐츠에 깊이 정보를 부가하고, 부가된 깊이 정보를 이용하여 관찰자가 3차원의 생동감 및 현실감을 느낄 수 있도록 하는 기술이 결합된 컨텐츠이다.
3차원 컨텐츠를 생성하는 방법은 사람의 눈에 각기 좌우 방향에서 본 것과 동일한 컨텐츠를 제시하여, 사람의 두 눈에 시차를 주고, 이것을 합성하여 하나의 입체 컨텐츠로 보이게 하는 것이다. 이 때, 좌우 양방향의 컨텐츠를 분리하여 좌우 각각의 눈에 보이게 하는 방법으로 편광 안경, 색 필터 안경 또는 스크린 등이 이용된다.
객체의 복수의 이미지를 촬영하고, 촬영한 복수의 이미지를 이용하여 객체에 대한 3차원 컨텐츠를 생성하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 3차원 컨텐츠를 생성하는 방법은 객체의 제 1 이미지를 촬영하는 단계, 상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 단계, 상기 표시된 가이드를 수행하는 단계, 및 상기 표시된 가이드와 상기 수행 결과가 대응하는 경우 상기 객체의 제 2 이미지를 촬영하는 단계를 포함하는 것을 특징으로 하되, 상기 가이드는 상기 객체의 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정할 수 있다.
한편, 본 발명의 제 2 측면에 따른 3차원 컨텐츠를 제공하는 방법은 3차원 컨텐츠를 사용자 단말 위에 표시하는 단계, 상기 사용자 단말의 사용자의 시선을 인식하는 단계, 상기 인식된 시선의 변화를 감지하는 단계 및 상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 단계를 포함하는 것을 특징으로 하되, 상기 3차원 컨텐츠는 대응되는 객체에 대하여 촬영된 제 1 이미지 및 상기 제 1 이미지를 기준으로 상기 사용자 단말 위에 표시된 가이드를 수행하여 위치가 결정된 상기 사용자 단말에 의해 촬영된 제 2 이미지를 이용하여 생성될 수 있다.
본 발명의 제 3 측면에 따른 사용자 단말은 객체의 제 1 이미지를 촬영하는 이미지 촬영부 및 상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 인터페이스부를 포함하는 것을 특징으로 하되, 상기 이미지 촬영부는 상기 표시된 가이드를 이용하여 상기 객체의 제 2 이미지를 촬영하고, 상기 가이드는 상기 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말은 객체의 복수의 이미지를 촬영하고, 촬영한 복수의 이미지를 이용하여 객체에 대한 3차원 컨텐츠를 생성할 수 있다.
도 1은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 도면이다.
도 1을 참조하면, 사용자 단말(100)은 객체(10)의 제 1 이미지를 촬영할 수 있다. 여기서, 제 1 이미지는 객체(10)의 특정 영역을 촬영한 이미지로서, 사용자 단말(100)이 최초로 촬영한 이미지에 대응하는 것일 수 있다.
사용자 단말(100)은 촬영된 객체(10)의 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위해서, 사용자 단말(100)의 촬영 위치를 결정하고 사용자에게 촬영 위치를 안내하는 역할로서, 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100) 위치를 안내하는 안내 문구 및/또는 방향 기호 등을 포함할 수 있다.
예를 들어, 객체(10)의 제 2 이미지의 촬영 위치가 객체(10)의 제 1 이미지로부터 우측방향으로 30도 회전해야하는 위치일 경우, 사용자 단말(100)은 객체(10)의 제 2 이미지를 촬영하기 위한 가이드로서, ' => 30°회전' 문구를 사용자 단말(100) 위에 표시할 수 있다.
사용자 단말(100)은 사용자 단말(100) 위에 표시된 가이드에 기초하여, 가이드가 안내하는 객체(10)의 제 2 이미지의 촬영 위치에서 객체(10)의 제 2 이미지를 촬영할 수 있다.
구체적으로, 사용자 단말(100)은 촬영된 제 1 이미지를 기준으로 촬영을 하되, 가이드에서 제공된 객체(10)의 제 2 이미지의 촬영 위치와 사용자 단말(100)의 위치가 일치하는지 여부를 판단하고, 일치할 경우, 해당 촬영 위치에서 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 때, 사용자 단말(100)은 사용자 단말(100)의 자이로 센서를 통해 사용자 단말(100)의 위치를 감지할 수 있다. 사용자 단말(100)은 자이로 센서가 탑재되어 사용자 단말(100)의 움직임을 감지할 수 있다. 여기서, 자이로 센서는 각속도를 감지하는 센서로서, 곡선 방향으로 이동하는 사용자 단말(100)의 움직임을 감지할 수 있다.
사용자 단말(100)은 객체(10)를 중심으로 하는 구면 위의 제 1 이미지의 촬영 위치에 대하여, 구면 위의 기설정된 범위 내의 위치에서 상하좌우 방향으로 복수의 제 2 이미지를 촬영할 수 있다. 여기서, 구면 위의 기설정된 범위는 객체(10)를 중심으로 제 1 이미지의 촬영 위치와 제 2 이미지의 촬영 위치가 이루는 각도에 대응하는 것일 수 있다. 이 때, 각도는 3차원 컨텐츠를 생성할 수 있는 촬영 각도일 수 있다.
사용자 단말(100)은 객체(10)의 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있고, 사용자 단말(100)은 생성된 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다.
사용자 단말(100)은 무선 통신이 가능한 모바일 단말을 포함할 수 있고, 본 발명의 다양한 실시예들에 따르면, 사용자 단말(100)은 다양한 형태의 디바이스일 수 있다. 예를 들어, 사용자 단말(100)은 네트워크를 통해 원격지의 서버에 접속할 수 있는 휴대용 단말일 수 있다. 여기서, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다. 다만, 사용자 단말(100)은 도 1의 도시된 형태 또는 앞서 예시된 것들로 한정 해석되는 것은 아니다.
이하에서는 도 1의 사용자 단말(100)의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(100)의 구성도이다.
도 2를 참조하면, 사용자 단말(100)은 이미지 촬영부(210), 인터페이스부(220), 컨텐츠 생성부(230), 표시부(240), 탐지부(250), 및 DB(260)를 포함할 수 있다. 다만, 도 2에 도시된 사용자 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 사용자 단말(100)은 이용자로부터 어떤 명령 내지 정보를 입력 받기 위한 유저 인터페이스가 더 포함될 수 있다. 이 경우, 유저 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.
이미지 촬영부(210)는 객체(10)의 특정 영역에 대응하는 제 1 이미지를 촬영할 수 있다. 여기서, 제 1 이미지는 최초 촬영 시점에 대응하는 객체(10)에 대한 복수의 이미지 중 어느 하나에 대응될 수 있다.
이미지 촬영부(210)는 사용자 단말(100) 위에 표시된 가이드를 이용하여, 객체(10)의 제 2 이미지를 촬영할 수 있다. 여기서, 제 2 이미지는 제 1 이미지를 촬영한 위치로부터 기설정된 범위(예를 들어, 제 1 이미지의 촬영 위치와 제 2 이미지의 촬영 위치간의 거리 간격) 내의 위치에서 촬영된 것일 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위해서, 사용자 단말(100)의 촬영 위치를 결정하고 사용자에게 촬영 위치를 안내하는 역할을 할 수 있다.
구체적으로, 이미지 촬영부(210)는 촬영된 제 1 이미지를 기준으로, 사용자 단말(100)의 촬영 위치가 표시된 가이드를 이용하여 객체(10)의 제 2 이미지를 촬영할 수 있다. 또한, 이미지 촬영부(210)는 촬영된 제 1 이미지를 기준으로 촬영을 하되, 가이드에서 제공된 사용자 단말(100)의 촬영 위치와 사용자 단말(100)의 위치가 일치하는지 여부를 판단하고, 일치할 경우, 사용자 단말(100)의 촬영 위치에 대응하는 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 때, 이미지 촬영부(210)는 사용자 단말(100)의 자이로 센서를 통해 사용자 단말(100)의 위치를 감지할 수 있다.
이미지 촬영부(210)는 객체(10)를 중심으로 제 1 이미지로부터 기설정된 범위 내에서 제 2 이미지를 촬영할 수 있다. 구체적으로, 이미지 촬영부(210)는 객체(10)를 중심으로 하는 구면 위에 제 1 이미지를 촬영한 위치로부터 구면 위의 기설정된 범위에 대응하는 사용자 단말(100)의 촬영 위치에서 제 2 이미지를 촬영할 수 있다.
여기서, 구면 위의 기설정된 범위는 객체(10)를 중심으로 제 1 이미지 및 제 2 이미지가 이루는 각도에 대응하는 것일 수 있고, 이 때, 각도는 제 1 이미지의 촬영 위치로부터 정방향으로 기설정된 각도(예를 들어, 정방향으로 30도)에 있는 제 2 이미지의 촬영 위치에 대응하는 각도로서, 3차원 컨텐츠를 생성할 수 있는 촬영 각도일 수 있다.
이미지 촬영부(210)는 객체(10)를 중심으로 하는 구면 위의 제 1 이미지의 촬영 위치에 대하여, 구면 위의 기설정된 범위 내의 위치에서 상하좌우 방향으로 복수의 제 2 이미지를 촬영할 수 있다. 여기서, 촬영된 제 1 이미지 및 복수의 제 2 이미지는 DB(250)에 저장될 수 있다.
인터페이스부(220)는 촬영된 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지의 촬영 위치를 설명하기 위한 촬영 방향 또는 촬영 각도를 안내 기호로서 사용자 단말(100) 위에 표시될 수 있다. 예를 들어, 인터페이스부(220)는 제 1 이미지로부터 우측방향으로 30도 회전하여 촬영하라는 의미로 ' => 30°회전' 문구를 사용자 단말(100) 위에 표시할 수 있다.
본 발명의 다른 실시예로, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 촬영 방향 또는 촬영 각도를 결정하기 위하여, 해당 촬영 방향 또는 촬영 각도를 결정한 경우를 미리 예측하여, 예측된 객체(10)의 이미지를 블러(blur)처리하여 사용자 단말(100) 위에 표시할 수 있다. 이 경우, 예측된 객체(10)의 이미지의 테두리는 점선으로 표시될 수 있다.
본 발명의 또 다른 실시예로, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 촬영 방향 또는 촬영 각도를 안내하는 안내음성을 사용자에게 제공할 수 있다.
컨텐츠 생성부(230)는 객체(10)의 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있다. 또한, 컨텐츠 생성부(230)는 촬영된 객체(10)의 제 1 이미지를 기준으로 각기 다른 방향 즉, 객체(10)의 상하방향, 좌우방향, 전후방향에서 촬영된 복수의 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있다. 이 때, 컨텐츠 생성부(23)는 일정 방향으로 촬영된 복수의 이미지를 제 1 이미지와 연결하여 객체(10)의 전후, 상하, 좌우 방면에 대응하는 3차원 컨텐츠를 생성할 수 있다.
표시부(240)는 컨텐츠 생성부(230)에 의해 생성된 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다.
또한, 표시부(240)는 사용자 단말(100)의 사용자 시선의 변화에 대응하여 사용자 단말(100) 위에 표시된 3차원 컨텐츠를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 여기서, 시선의 변화는 제 1 방향에 대응하고, 3차원 컨텐츠의 회전 방향은 제 1 방향과 반대인 제 2 방향에 대응하는 것일 수 있다. 이 때, 3차원 컨텐츠의 회전 방향은 사용자 단말(100)의 사용자가 3차원 컨텐츠를 바라보는 방향에 대응될 수 있다. 예를 들어, 표시부(240)는 사용자의 시선이 사용자 단말(100)의 전면부를 향하다가 우측방향으로 바뀔 경우, 3차원 컨텐츠를 좌측 방향으로 회전시키고, 회전시킨 부분에 대응하는 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다.
표시부(240)는 사용자의 시선의 변화가 감지될 경우, 사용자의 시선 변화에 대한 계산된 각도 변화 및 사용자의 시선 변화 방향에 대응하여 3차원 컨텐츠를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 예를 들어, 표시부(240)는 사용자의 시선 변화에 대응하여 계산된 각도가 '30도'이고, 시선 변화 방향이 '오른쪽'일 경우, 3차원 컨텐츠를 '왼쪽 방향'으로 '30도' 회전시켜 사용자 단말(100) 위에 표시할 수 있다.
탐지부(250)는 사용자 단말(100)의 사용자 시선을 인식하고, 인식된 시선의 변화를 감지할 수 있다. 또한, 탐지부(250)는 3차원 컨텐츠를 바라보는 사용자 시선의 전과 후를 비교함으로써 시선의 변화를 감지할 수 있다. 구체적으로, 탐지부(250)는 3차원 컨텐츠를 중심으로, 사용자의 시선 변화에 대한 각도 변화를 계산하고, 전후의 각도 변화가 있을 경우, 사용자의 시선이 변화되었음을 판단할 수 있다.
예를 들어, 탐지부(250)는 3차원 컨텐츠를 바라보는 사용자의 시선이 사용자 단말(100)의 정면에서 오른쪽으로 옮겨질 경우, 3차원 컨텐츠를 중심으로 사용자 단말(100)의 정면을 바라보고 있던 시선에서 오른쪽으로 옮겨진 시선까지의 각도를 계산하고, 계산된 각도가 변화가 있을 경우, 사용자의 시선의 변화가 있었음을 감지할 수 있다.
DB(260)는 사용자 단말(100)로부터 수신한 데이터를 저장할 수 있다. 이 때, DB(260)는 사용자 단말(100) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터, 사용자 단말(100)와 사용자 단말(100) 외부의 구성요소들간에 입력 및 출력되는 데이터를 저장할 수 있다.
예를 들어, DB(260)는 이미지 촬영부(210)에서 촬영된 객체(10)의 복수의 이미지를 저장할 수 있다. 또한, DB(260)는 탐지부(250)에서 계산된 사용자의 시선 변화에 대한 각도 변화를 저장할 수 있다.
이러한 DB(260)의 일 예에는 사용자 단말(100) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.
당업자라면, 제 이미지 촬영부(210), 인터페이스부(220), 컨텐츠 생성부(230), 표시부(240), 탐지부(250), 및 DB(260) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다.
도 3은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 도면이다.
도 3을 참조하면, 사용자 단말(100)은 사용자 단말(100)에 장착된 이미지 센서를 통해 사용자 단말(100)의 사용자의 시선을 인식할 수 있고, 사용자의 시선의 변화를 감지할 수 있다. 구체적으로, 사용자 단말(100)은 3차원 컨텐츠(11)를 중심으로 사용자의 시선 변화 전후의 각도 변화를 계산하고, 계산된 각도 변화를 통해 사용자의 시선의 변화를 감지할 수 있다.
예를 들어, 사용자 단말(100)은 이미지 센서를 통해 사용자의 시선이 왼쪽(12)에서 오른쪽(13)으로 변화했음을 감지할 수 있다. 구체적으로, 사용자 단말(100)은 3차원 컨텐츠(11)를 중심으로, 사용자의 시선 변화(즉, 왼쪽(12)에서 오른쪽(13)으로 변화)에 대한 각도 변화를 계산할 수 있다.
사용자 단말(100)은 사용자 단말(100)의 사용자의 시선 변화에 대응하여 3차원 컨텐츠(11)를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 구체적으로, 사용자 단말(100)은 사용자의 시선 변화를 감지할 경우, 사용자의 시선 변화에 대한 계산된 각도 변화 및 사용자의 시선 변화 방향에 대응하여 3차원 컨텐츠(11)를 회전시켜 사용자 단말(100) 위에 표시할 수 있다.
예를 들어, 사용자 단말(100)은 사용자의 시선이 왼쪽(12)에서 오른쪽(13)으로 변화될 경우, 3차원 컨텐츠(11)를 오른쪽에서 왼쪽으로 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 이 때, 사용자 단말(100)은 사용자의 시선 변화(왼쪽(12)에서 오른쪽(13))에 따라, 객체(3차원 컨텐츠(11)에 대응하는 객체)가 보이는 부분에 대응하여 3차원 컨텐츠(11)를 회전시킴으로써, 사용자가 해당 객체를 실제로 바라보는 듯한 효과를 제공할 수 있다.
본 발명의 다른 실시예에서는 사용자의 시선만 이동하는 경우뿐만 아니라, 사용자의 머리가 이동하는 경우를 고려하여 객체(11)의 회전 각도 등이 결정될 수 있다.
도 4는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 동작 흐름도이다. 도 4에 도시된 실시예에 따른 3차원 컨텐츠를 생성하는 방법은 도 1 내지 도 3에 도시된 실시예에 따른 사용자 단말(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 3의 사용자 단말(100)에 관하여 기술된 내용은 도 4에 도시된 실시예에 따른 3차원 컨텐츠를 생성하는 방법에도 적용될 수 있다.
도 4를 참조하면, 단계 S401에서 사용자 단말(100)은 객체(10)의 제 1 이미지를 촬영할 수 있다.
단계 S403에서 사용자 단말(100)은 단계 S401에서 촬영된 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 위치를 결정하는 것일 수 있다.
여기서, 제 2 이미지는 제 1 이미지를 촬영한 위치에 대하여 기설정된 범위 내의 위치에서 촬영되는 것일 수 있다. 구체적으로, 제 2 이미지는 객체(10)를 중심으로 하는 구면 위의 제 1 이미지를 촬영한 위치에 대하여 구면 위의 기설정된 범위 내의 위치에서 촬영되는 것일 수 있다.
단계 S405에서 사용자 단말(100)은 단계 S403에서 표시된 가이드를 수행할 수 있다. 이 때, 사용자 단말(100)은 사용자 단말(100)의 자이로 센서를 이용하여 가이드를 수행할 수 있다.
단계 S407에서 사용자 단말(100)은 단계 S403에서 표시된 가이드와 단계 S405에서 수행한 결과가 대응하는 경우 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 경우, 사용자 단말(100)은 제 1 이미지 및 복수의 제 2 이미지를 이용하여 객체(10)에 대한 3차원 컨텐츠를 생성할 수 있다.
상술한 설명에서, 단계 S401 내지 S407은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 5는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.
도 5에 도시된 실시예에 따른 3차원 컨텐츠를 제공하는 방법은 도 1 내지 도 4에 도시된 실시예에 따른 사용자 단말(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4의 사용자 단말(100)에 관하여 기술된 내용은 도 5에 도시된 실시예에 따른 3차원 컨텐츠를 제공하는 방법에도 적용될 수 있다.
도 5를 참조하면, 단계 S501에서 사용자 단말(100)은 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 3차원 컨텐츠는 대응되는 객체(10)에 대하여 촬영된 제 1 이미지 및 제 1 이미지를 기준으로 사용자 단말(100) 위에 표시된 가이드를 수행하여 위치가 결정된 사용자 단말(100)에 의해 촬영된 제 2 이미지를 이용하여 생성된 것일 수 있다.
단계 S503에서 사용자 단말(100)은 사용자 단말(100)의 사용자의 시선을 인식할 수 있다.
단계 S505에서 사용자 단말(100)은 단계 S503에서 인식된 시선의 변화를 감지할 수 있다. 이 때, 사용자 단말(100)은 3차원 컨텐츠를 중심으로 사용자의 시선 변화 전후의 각도 변화를 계산할 수 있다.
단계 S507에서 사용자 단말(100)은 단계 S505에서 감지된 시선의 변화에 대응하여 사용자 단말(100) 위에 표시된 3차원 컨텐츠를 회전시킬 수 있다. 여기서, 시선의 변화는 제 1 방향에 대응하고, 3차원 컨텐츠의 회전 방향은 제 1 방향과 반대인 제 2 방향에 대응하는 것일 수 있다.
구체적으로, 사용자 단말(100)은 단계 S505에서 계산된 각도 변화에 대응하여 3차원 컨텐츠를 회전시킬 수 있다.
상술한 설명에서, 단계 S501 내지 S507은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 사용자 단말
10: 객체

Claims (14)

  1. 3차원 컨텐츠를 생성하는 방법에 있어서,
    객체의 제 1 이미지를 촬영하는 단계;
    상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위해 상기 객체에 대한 3차원 컨텐츠를 생성할 수 있도록 하는 사용자 단말의 촬영 방향 또는 촬영 각도를 안내하는 가이드를 상기 사용자 단말 위에 표시하는 단계;
    상기 표시된 가이드를 수행하는 단계;
    상기 표시된 가이드와 상기 수행 결과가 대응하는 경우 상기 객체의 제 2 이미지를 촬영하는 단계; 및
    상기 제 1 이미지 및 상기 제 2 이미지를 결합하여 상기 3차원 컨텐츠를 생성하는 단계를 포함하고,
    상기 가이드는 상기 객체의 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정하되,
    상기 가이드를 상기 사용자 단말 위에 표시하는 단계는
    상기 사용자 단말에 의해 상기 객체의 제 2 이미지가 촬영되기 이전에, 상기 사용자 단말의 촬영 방향 또는 촬영 각도에 따라 촬영이 예측되는 상기 객체의 예측 이미지를 상기 사용자 단말 위에 미리 더 표시하는 것인, 컨텐츠 생성 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 가이드 수행 단계는 상기 사용자 단말의 자이로 센서를 이용하여 수행되는 것인, 컨텐츠 생성 방법.
  4. 제 1 항에 있어서,
    상기 제 2 이미지는 상기 제 1 이미지를 촬영한 위치에 대하여 기설정된 범위 내의 위치에서 촬영되는 것인, 컨텐츠 생성 방법.
  5. 제 4 항에 있어서,
    상기 제 2 이미지는 상기 객체를 중심으로 하는 구면 위의 상기 제 1 이미지를 촬영한 위치에 대하여 상기 구면 위의 기설정된 범위 내의 위치에서 촬영되는 것인, 컨텐츠 생성 방법.
  6. 제 5 항에 있어서,
    상기 구면 위의 기설정된 범위는 상기 객체를 중심으로 상기 제 1 이미지 및 상기 제 2 이미지가 이루는 각도에 대응하는 것인, 컨텐츠 생성 방법.
  7. 제 6 항에 있어서,
    상기 각도는 30도이고, 상기 제 2 이미지는 상기 제 1 이미지의 상하좌우 방향에서 촬영되는 것인, 컨텐츠 생성 방법.
  8. 3차원 컨텐츠를 제공하는 방법에 있어서,
    3차원 컨텐츠를 사용자 단말 위에 표시하는 단계;
    상기 사용자 단말의 사용자의 시선을 인식하는 단계;
    상기 인식된 시선의 변화를 감지하는 단계; 및
    상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 단계를 포함하고,
    상기 3차원 컨텐츠는 대응되는 객체에 대하여 촬영된 제 1 이미지 및 상기 제 1 이미지를 기준으로 상기 사용자 단말 위에 표시된 가이드를 수행하여 위치가 결정된 상기 사용자 단말에 의해 촬영된 제 2 이미지가 결합되어 생성되고,
    상기 가이드는 상기 제 1 이미지를 기준으로 상기 객체의 상기 제 2 이미지를 촬영하기 위해 상기 객체에 대한 3차원 컨텐츠를 생성할 수 있도록 하는 상기 사용자 단말의 촬영 방향 또는 촬영 각도를 안내하는 가이드이고,
    상기 사용자 단말에 의해 상기 제 2 이미지가 촬영되기 이전에, 상기 사용자 단말의 촬영 방향 또는 촬영 각도에 따라 촬영이 예측되는 상기 객체의 예측 이미지를 상기 사용자 단말 위에 미리 더 표시하는 단계를 포함하는 것인, 컨텐츠 제공 방법.
  9. 제 8 항에 있어서,
    상기 시선의 변화는 제 1 방향에 대응하고, 상기 3차원 컨텐츠의 회전 방향은 상기 제 1 방향과 반대인 제 2 방향에 대응하는 것인, 컨텐츠 제공 방법.
  10. 제 8 항에 있어서,
    상기 시선 변화를 감지하는 단계는 상기 3차원 컨텐츠를 중심으로 상기 사용자의 시선 변화 전후의 각도 변화를 계산하는 것인, 컨텐츠 제공 방법.
  11. 제 10 항에 있어서,
    상기 3차원 컨텐츠는 상기 계산된 각도 변화에 대응하여 회전되는 것인, 컨텐츠 제공 방법.
  12. 사용자 단말에 있어서,
    객체의 제 1 이미지를 촬영하는 이미지 촬영부; 및
    상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위해 상기 객체에 대한 3차원 컨텐츠를 생성할 수 있도록 하는 상기 사용자 단말의 촬영 방향 또는 촬영 각도를 안내하는 가이드를 상기 사용자 단말 위에 표시하는 인터페이스부;
    상기 이미지 촬영부는 상기 표시된 가이드를 이용하여 상기 객체의 제 2 이미지를 촬영하고,
    상기 가이드는 상기 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정하되,
    상기 인터페이스부는 상기 사용자 단말에 의해 상기 객체의 제 2 이미지가 촬영되기 이전에, 상기 사용자 단말의 촬영 방향 또는 촬영 각도에 따라 촬영이 예측되는 상기 객체의 예측 이미지를 상기 사용자 단말 위에 미리 더 표시하고,
    상기 제 1 이미지 및 복수의 제 2 이미지를 결합하여 상기 3차원 컨텐츠를 생성하는 컨텐츠 생성부를 더 포함하는 것인, 사용자 단말.
  13. 제 12 항에 있어서,
    상기 생성된 3차원 컨텐츠를 상기 사용자 단말 위에 표시하는 표시부; 및
    상기 사용자 단말의 사용자의 시선을 인식하고, 상기 인식된 시선의 변화를 감지하는 탐지부를 더 포함하고,
    상기 표시부는 상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 것인, 사용자 단말.
  14. 사용자 단말에서 실행되어 3차원 컨텐츠의 생성 및 제공 방법을 수행하는 어플리케이션을 제공하는 방법에 있어서,
    상기 사용자 단말은 청구항 제 1 항 내지 청구항 제 11 항 중 어느 한 항에 기재된 방법을 실시하는 것을 특징으로 하는 어플리케이션 제공 방법.
KR1020130168671A 2013-12-31 2013-12-31 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치 KR102176217B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130168671A KR102176217B1 (ko) 2013-12-31 2013-12-31 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130168671A KR102176217B1 (ko) 2013-12-31 2013-12-31 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150078873A KR20150078873A (ko) 2015-07-08
KR102176217B1 true KR102176217B1 (ko) 2020-11-09

Family

ID=53791326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130168671A KR102176217B1 (ko) 2013-12-31 2013-12-31 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102176217B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170011190A (ko) 2015-07-21 2017-02-02 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070039641A (ko) * 2005-10-10 2007-04-13 주식회사 팬택 하나의 카메라를 이용하여 3차원 이미지를 생성하는 방법및 그 장치
KR101340797B1 (ko) * 2010-09-01 2013-12-11 주식회사 팬택 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
KR101723642B1 (ko) * 2011-01-31 2017-04-19 삼성전자주식회사 파노라마 이미지를 촬영하는 촬영 기기 및 그 파노라마 촬영 방법
KR20130134103A (ko) * 2012-05-30 2013-12-10 삼성전자주식회사 단말기의 이미지 제공 장치 및 방법

Also Published As

Publication number Publication date
KR20150078873A (ko) 2015-07-08

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
KR102038639B1 (ko) 증강 현실 및/또는 가상 현실에서의 터치 스크린 호버 검출
CN106716302B (zh) 用于显示图像的方法、设备和计算机可读介质
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US9857589B2 (en) Gesture registration device, gesture registration program, and gesture registration method
US11880956B2 (en) Image processing method and apparatus, and computer storage medium
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
US8388146B2 (en) Anamorphic projection device
KR20210113333A (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
EP2992507A1 (en) Methods for facilitating computer vision application initialization
KR20180005528A (ko) 영상 처리를 위한 디스플레이 장치 및 방법
CN111651051B (zh) 一种虚拟沙盘展示方法及装置
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
KR102450236B1 (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
KR102078198B1 (ko) 전자 장치 및 전자 장치의 3차원 모델링을 위한 촬영방법
CN111857461B (zh) 图像显示方法、装置、电子设备及可读存储介质
EP3316117A1 (en) Controlling content displayed in a display
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
US20140043445A1 (en) Method and system for capturing a stereoscopic image
KR102176217B1 (ko) 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치
EP3702008A1 (en) Displaying a viewport of a virtual space
JP6686319B2 (ja) 画像投影装置及び画像表示システム
EP2421272A2 (en) Apparatus and method for displaying three-dimensional (3D) object
US20160191804A1 (en) Methods and systems for displaying data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant