KR102082131B1 - 드론 동영상에 증강현실 정보를 삽입하는 방법 - Google Patents

드론 동영상에 증강현실 정보를 삽입하는 방법 Download PDF

Info

Publication number
KR102082131B1
KR102082131B1 KR1020180049780A KR20180049780A KR102082131B1 KR 102082131 B1 KR102082131 B1 KR 102082131B1 KR 1020180049780 A KR1020180049780 A KR 1020180049780A KR 20180049780 A KR20180049780 A KR 20180049780A KR 102082131 B1 KR102082131 B1 KR 102082131B1
Authority
KR
South Korea
Prior art keywords
augmented reality
reality information
video
drone
information
Prior art date
Application number
KR1020180049780A
Other languages
English (en)
Other versions
KR20190125680A (ko
Inventor
오광만
Original Assignee
(주)테슬라시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)테슬라시스템 filed Critical (주)테슬라시스템
Priority to KR1020180049780A priority Critical patent/KR102082131B1/ko
Publication of KR20190125680A publication Critical patent/KR20190125680A/ko
Application granted granted Critical
Publication of KR102082131B1 publication Critical patent/KR102082131B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20009Modifications to facilitate cooling, ventilating, or heating using a gaseous coolant in electronic enclosures
    • H05K7/20136Forced ventilation, e.g. by fans
    • H05K7/20154Heat dissipaters coupled to components
    • H05K7/20163Heat dissipaters coupled to components the components being isolated from air flow, e.g. hollow heat sinks, wind tunnels or funnels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Thermal Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 드론 영상에 증강 현실 정보를 삽입하는 방법에 관한 것이다.
본 발명은, 드론 동영상에 증강현실 정보를 삽입하는 방법에 있어서,
카메라가 장착된 드론으로 촬영된 원시 동영상을 통해 상기 카메라의 내부 파라메타와 외부 파라메타를 추출하는 단계;
상기 카메라의 내부 및 외부 파라메타를 이용하여 카메라의 3차원 기준 좌표계를 설정하고 촬영된 영상내의 지형의 평면들에 대한 정보를 획득하는 단계;
지형에 대한 평면들에 대한 정보를 통해 증간현실 정보를 삽입하고자 하는 평면을 선택하여 선택된 각 평면에 대한 3차원 좌표계를 설정하는 단계;
선택된 각 평면에 대한 3차원 좌표계를 기반으로 증강현실 정보를 삽입하는 단계;
증간 현실 정보와 원시 동영상을 합성하기 위하여 통합 랜더링하는 단계;
랜더링된 영상을 시간대별로 저장하여 증강현실 정보가 삽입된 동영상을 형성하는 단계를 포함하는 것을 특징으로 한다.
이상과 같은 본 발명을 이용하면, 드론 동영상에 증강현실 정보를 삽입하는 방법을 제공하게 된다.

Description

드론 동영상에 증강현실 정보를 삽입하는 방법{Inserting Method of Augment Reality Information in Drone Moving Picture}
본 발명은 드론 영상에 증강 현실 정보를 삽입하는 방법에 관한 것이다.
드론은 도1과 같이 소형 비행장치의 일종으로 주로 카메라를 탑재하여 방송용 또는 감시용 또는 측량용으로 사용되어 도2와 같은 항공 영상을 촬영하는데에 많이 활용되어 왔다.
또한, 최근에는 드론의 가격이 저렴해지고 소형화됨에 따라 개인들이 드론을 구매하여 드론을 이용하여 각종 동영상을 촬영하여 유튜브나 페이스북 등에 올려서 친구들과 동영상을 공유하는 사례들이 많이 늘어나고 있다.
그래서, 도3의 좌측 상부 및 하부 도면과 같이 드론 동영상에서 지형면에 존재하는 특정인에게 적색의 박스나 타원을 추가하여 동영상에서 이 특정인을 계속 추종하게 하거나, 도3의 우측 도면과 같이 골프장의 동영상에서 홀컵까지의 거리가 계속 표시되거나 특정 위치에 서클(골퍼의 타입(남자, 여자, 노약자 등)에 따라 출발 지점을 나타내는 흰색 서클, 적색 서클, 녹색 서클)이 계속 표시되게 하는 것과 같이, 촬영자의 의도를 표현하거나 타인에게 정보를 설명하기 위해 드론으로 촬영된 동영상에 다양한 증강현실 정보(예: 텍스트, 도형, 이미지 등)를 삽입해야 하는 필요성이 대두되고 있다.
그런데, 드론 동영상에 증강현실 정보를 삽입하는 것은 화면에서 연속적으로 위치가 변경되는 특정 타겟(예: 도3의 특정인, 도4의 특정 장소)을 추종하면서 이 타켓에 증강현실 정보를 추가하는 것이기에, 영화와 같은 동영상에서 자막을 추가하는 것처럼 화면의 고정된 특정 위치에 증강현실 정보를 표시하는 방법을 적용할 수가 없다.
이상과 같은 종래기술의 문제점을 감안하여 본 발명은 드론 동영상에 증강현실 정보를 삽입하는 방법을 제공한다.
이러한 과제를 해결하기 위한 본 발명은, 드론 동영상에 증강현실 정보를 삽입하는 방법에 있어서,
카메라가 장착된 드론으로 촬영된 원시 동영상을 통해 상기 카메라의 내부 파라메타와 외부 파라메타를 추출하는 단계;
상기 카메라의 내부 및 외부 파라메타를 이용하여 카메라의 3차원 기준 좌표계를 설정하고 촬영된 영상내의 지형의 평면들에 대한 정보를 획득하는 단계;
지형에 대한 평면들에 대한 정보를 통해 증간현실 정보를 삽입하고자 하는 평면을 선택하여 선택된 각 평면에 대한 3차원 좌표계를 설정하는 단계;
선택된 각 평면에 대한 3차원 좌표계를 기반으로 증강현실 정보를 삽입하는 단계;
증간 현실 정보와 원시 동영상을 합성하기 위하여 통합 랜더링하는 단계;
랜더링된 영상을 시간대별로 저장하여 증강현실 정보가 삽입된 동영상을 형성하는 단계를 포함하는 것을 특징으로 한다.
이상과 같은 본 발명을 이용하면, 드론 동영상에 증강현실 정보를 삽입하는 방법을 제공하게 된다.
도1은 일반적인 드론의 형상을 도시함.
도2는 드론에서 촬영한 영상을 도시함.
도3은 본 발명에서 부가 정보가 추가된 드론 영상을 나타냄.
도4는 본 발명에서 드론 촬영된 원시 영상과 편집 영상의 비교를 나타냄.
도5는 본 발명에서 드론 동영상에 증강현실 정보를 삽입시의 동영상을 재생하는 것을 나타냄.
도6은 본 발명에서 드론 영상에 증강현실 정보를 삽입하는 과정을 설명하는 순서도.
도7은 본 발명에서 선택된 지형들에 대한 평면들의 좌표계들을 나타냄.
이제 도면들을 참고로 하여 본 발명을 자세히 설명하기로 한다.
드론에서 촬영된 동영상의 경우, 지형 위에 존재하는 건물, 나무, 강, 각종 시설물 등을 촬영하는 경우가 대부분이기 때문에, 촬영된 영상 내에 정보를 표시할 때에 도3과 같이 지형면을 고려하여 다양한 정보를 삽입하는 것이 자연스럽다.
예를 들어, 도4의 좌측과 같은 골프장의 드론 촬영 원시영상에 증강현실 정보(홀컵까지의 거리, 골퍼의 타입(남자, 여자, 노약자 등) 따라 출발지점을 나타내는 흰색 서클(white tee, 일반 남자용)/적색 서클(red tee, 일반 여자용)/녹색 서클(green tee, 노약자용))를 삽입하면 도4의 우측과 같은 드론 촬영 편집 영상이 되고, 이러한 증강현실 삽입 방법을 드론 동영상 전체에 적용하면 도5와 같이 드론이 이동하면서 촬영한 동영상에 증강현실 정보들이 삽입되어 삽입된 동영상을 재생하면 동영상에서 화면이 연속적으로 진행하더라도 화면 상에는 특정 위치(예: 적색 서클 위치)에 지정된 시작 시간부터 종료 시간 동안 적색 서클이 나타나게 된다.
그래서, 예를 들어 기존의 골프장 안내 드론 촬영 동영상에서는 골프장에 대한 드론 동영상만이 나타나서 동영상에서 골퍼의 타입별 출발 지점이 어디인지 또는 그 지점에서 홀컵까지의 거리가 얼마나 되는지 등에 대한 정보를 알 수 없지만, 본 발명을 적용하면 골퍼의 타입에 따른 출발 위치 및 홀컵까지의 거리 등의 증강현실 정보가 삽입된 동영상이 재생되어 각 특정 위치에 특정 시간 동안 해당 증강현실 정보가 나타나게 되어, 골프장의 드론 동영상을 통해 전체적인 골프장의 전경을 파악하면서 증강현실 정보를 통해 다양한 정보(예: 골퍼의 타입별 출발 위치가 어디인지나 홀컵까지의 거리가 얼마인지에 대한 정보)를 용이하게 파악할 수 있게 된다.
다음으로 본 발명에서 드론 영상에 부가 정보를 삽입하는 방법에 대해 도6을 참고로 하여 자세히 설명하기로 한다.
먼저, 드론에 장착된 카메라를 이용하여 동영상을 촬영한다(S1).
다음으로, 이 드론 동영상을 통해 드론에 장착된 카메라의 내부 파라메타(초점 거리, 화각, 렌즈 곡률 등)와 외부 파라메타(카메라와 물체와의 거리, 카메라와 물체와의 촬영 각도 등)를 추출한다(S2).
이러한 내외부 파라메타 추출은 모든 촬영된 영상에는 촬영에 사용한 카메라 정보가 삽입되어 있고, 동일한 물체를 촬영한 다수의 영상을 조합하면 촬영에 사용된 카메라들의 내외부 파라메타와, 촬영대상인 물체의 3차원 정보를 복원할 수 있다는 기존의 연구를 기반으로 한다. 이러한 연구에서는 특징점(feature point)을 사용하게 되고, 각각의 카메라에 특정한 개수의 특징점을 설정하고, 대응되는 특징점들을 pairing하고 트레킹하는 과정을 포함한다. 또한 상기의 카메라의 내외부 파라메타에는 카메라를 중심으로 설정된 3차원 좌표계를 포함하고 있고, 촬영 대상의 표면의 특징점들은 카메라 좌표계를 원점으로 하여 측정된 거리정보를 나타내게 된다.
그리고 나서, 상기의 카메라와 물체를 모두 포함하는 새로운 월드 좌표계를 설정하고, 각 카메라 좌표계의 특징점들을 전부 월드 좌표계로 변환하여 통합하여 표시하면 촬영한 객체의 3차원 형태를 표현하는 포인트 클라우드(point cloud)가 생성된다. 이 포인트 클라우드를 다각형화(polygonization)과정을 거치면 표면의 점들과 삼각형 면들로 물체를 표현할 수 있다. 이러한 표현된 표면 중에서 Z-축(수직축) 에 근사하게 수직인 면을 지형면으로 가정하여 지형에 해당하는 평면을 추출한다(S3).
이제, 추출된 평면 중에서 증강현실 정보를 삽입하고자 하는 지형에 대한 평면들을 선택하고 이 선택된 평면들을 기반으로 도7과 같이 각 평면에 대한 3차원 좌표계를 설정한다(S4). 이때 각 평면은 각 평면의 Z-축(수직축)에 수직으로 설정된다.
그리고 나서, 각 선택된 평면에 대한 3차원 좌표계를 기반으로 도형 정보, 텍스트 정보, 이미지 정보 등의 증강현실적인 부가 정보를 삽입한다(S5). 이때, 시간적인 면을 고려하여 출현 시작과 종료 시간을 지정하여 동영상 플레이시에 이러한 증강현실 정보가 나타났다가 사라지게 한다.
다음으로, 이러한 증강현실적인 부가정보와 원래의 동영상을 합성시키기 위해서 통합 랜더링한다(S6).
마지막으로 통합 랜더링된 영상을 다시 시간대별로 저장하여 부가 정보가 삽입된 동영상을 재구성하게 된다(S7).
여기서 상기의 단계(S2) 내지 단계(S7)는 당업자에게 주지된 기술, 예를 들면 Adobe After Effect툴을 이용하면 되는데, 이 툴의 동작을 간단히 설명하기로 한다. 이 툴에 대한 자세한 동작은 https://www.youtube.com/watch?v=i7ierVkXYa8 에 있는 동영상을 참고하면 된다.
이 툴에서는 1초당 30장의 드론 동영상을 입력받아 30개의 상이한 위치의 카메라가 촬영한 것으로 간주하여 각 영상에서 특징점을 자동적으로 추출되고 각 영상에서의 동일 특징점들을 비교하여 각 카메라의 촬영 위치를 파악하여 카메라의 내부 및 외부 파라메타를 도출하며(단계S2), 이에 따라 각 카메라의 중심 좌표계가 만들어져서 이 특징점들을 다시 월드 좌표계로 변환하여 전체를 모으면 카메라와 물체 사이의 각 지점간의 거리를 나타내는 포인트 클라우드가 만들어지며, 이 포인트 클라우드를 통해 평면들에 대한 정보가 추출된다(단계S3).
이제, 사용자는 이 툴에서 이 평면들에 대한 정보를 통해 증강현실 정보를 삽입하고자 하는 평면들을 선택하여 이 선택된 평면들에 대한 기준 좌표계들을 설정하고(단계 S4), 증강현실적인 부가 정보를 삽입하고 출현 시작과 종료 시간을 지정하면(단계 S5) 동영상 재생시에 이러한 정보가 출현 시작 시간에 나타났다가 종료 시간에 사라지게 한다.
그리고, 이 툴을 통해 증강현실 정보와 원래 동영상들을 합성시키기 위해서 통합 랜더링하고(단계 S6), 이 렌더링된 영상을 다시 시간대별로 저장하면 증강 현실 정보가 포함된 동영상이 된다(단계 S7).
결국, Adobe After Effect툴을 이용하여 이상과 같은 단계를 수행하여 얻은 증강현실 정보 포함 동영상을 동영상 재생 소프트웨어(예: 네이버 동영상 재생 플레이어, 곰 풀레이어)에서 재생을 하게 되면, 사용자는 이 증강 현실 포함 동영상을 보면서 전경의 흐름을 확인하면서 특정 위치를 추종해 가면서 일정시간 나타나는 증강 현실 정보를 통해 특정 장소에 대한 정보를 용이하게 파악할 수 있게 된다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명은 이러한 실시예에 한정되는 것이 아니라 본 발명의 정신을 벗어나지 않는 범위 내에서 다양한 변형이나 변경이 가능하다는 점에 유의해야 한다.
예를 들면, 이상에서는 증강현실 정보의 예로서 거리 등의 숫자 정보, 텍스트 정보, 서클 등의 2차원 도형 정보를 설명하였으나, 3차원 도형 정보도 가능하고 그 위치 관련 이미지(예 : 홀컵 위치의 깃발 이미지나 우체국 위치에 우체국 이미지) 등의 다양한 증강 현실 정보가 가능하다.

Claims (8)

  1. 드론 동영상에 증강현실 정보를 삽입하는 방법에 있어서,
    카메라가 장착된 드론으로 촬영된 원시 동영상에서, 상이한 위치에서 촬영된 각각의 영상의 특징점을 추출하여 상기 각각의 영상에서의 동일 특징점들을 비교하여 상기 각각의 영상에서의 각 카메라의 촬영 위치를 파악하여 카메라의 내부 파라메타와 외부 파라메타를 추출하는 단계;
    상기 카메라의 내부 및 외부 파라메타를 이용하여 카메라의 3차원 기준 좌표계를 설정하고 촬영된 동영상 내의 지형의 평면들에 대한 정보를 획득하는 단계;
    지형에 대한 평면들을 추출하여 추출된 평면 중에서 증간현실 정보를 삽입하고자 하는 평면들을 선택하고 선택된 각 평면에 대한 3차원 좌표계를 설정하는 단계;
    선택된 각 평면에 대한 3차원 좌표계를 기반으로 증강현실 정보를 삽입하는 단계;
    증강 현실 정보와 원시 동영상을 합성하기 위하여 통합 랜더링하는 단계;
    랜더링된 영상을 시간대별로 저장하여 증강현실 정보가 삽입된 동영상을 형성하는 단계를 포함하는 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  2. 제1항에 있어서,
    상기 증강현실 정보를 삽입하는 단계시에 증강현실 정보가 나타나기 시작하는 시간과 사라지는 시간에 대한 정보를 지정하는 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  3. 제1항에 있어서,
    상기 내부 파라메타는 초점거리, 화각, 렌즈의 곡률을 포함하는 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  4. 제1항에 있어서,
    상기 외부 파라메타는 카메라와 물체의 거리, 카메라와 물체의 촬영 각도를 포함하는 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  5. 제1항에 있어서,
    상기 증강현실 정보는 이미지인 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  6. 제1항에 있어서,
    상기 증강현실 정보는 텍스트인 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  7. 제1항에 있어서,
    상기 증강현실 정보는 숫자인 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
  8. 제1항에 있어서,
    상기 증강현실 정보는 도형인 것을 특징으로 하는 드론 동영상에 증강현실 정보를 삽입하는 방법.
KR1020180049780A 2018-04-30 2018-04-30 드론 동영상에 증강현실 정보를 삽입하는 방법 KR102082131B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180049780A KR102082131B1 (ko) 2018-04-30 2018-04-30 드론 동영상에 증강현실 정보를 삽입하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180049780A KR102082131B1 (ko) 2018-04-30 2018-04-30 드론 동영상에 증강현실 정보를 삽입하는 방법

Publications (2)

Publication Number Publication Date
KR20190125680A KR20190125680A (ko) 2019-11-07
KR102082131B1 true KR102082131B1 (ko) 2020-02-27

Family

ID=68578933

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180049780A KR102082131B1 (ko) 2018-04-30 2018-04-30 드론 동영상에 증강현실 정보를 삽입하는 방법

Country Status (1)

Country Link
KR (1) KR102082131B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259401B1 (ko) * 2019-11-28 2021-06-01 (주)테슬라시스템 드론 동영상에 증강현실 부가정보를 합성하는 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101955368B1 (ko) * 2016-06-08 2019-03-08 (주)코아텍 증강현실을 이용한 가상 드론 경기장 제공 시스템 및 그 방법
KR102479360B1 (ko) * 2016-06-15 2022-12-20 삼성전자 주식회사 증강 현실 서비스 제공 방법 및 장치
KR20180029315A (ko) * 2016-09-12 2018-03-21 삼성전자주식회사 가상 현실 컨텐트의 영상을 투영하기 위한 영상 처리 방법 및 장치

Also Published As

Publication number Publication date
KR20190125680A (ko) 2019-11-07

Similar Documents

Publication Publication Date Title
US11798224B2 (en) Generation apparatus, system and method for generating virtual viewpoint image
US10685496B2 (en) Saving augmented realities
US20120013711A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
US20180227482A1 (en) Scene-aware selection of filters and effects for visual digital media content
CN105939481A (zh) 一种交互式三维虚拟现实视频节目录播和直播方法
JP6894962B2 (ja) 自由視点映像用画像データのキャプチャ方法及び装置、プログラム
Matsuyama et al. 3D video and its applications
US8922718B2 (en) Key generation through spatial detection of dynamic objects
CN106683195B (zh) 一种基于室内定位的ar场景渲染方法
EP2643972A1 (en) Improved method and system for creating three-dimensional viewable video from a single video stream
CN102918858A (zh) 立体全景图像创建设备、立体全景图像创建方法和立体全景图像创建程序,立体全景图像再现设备、立体全景图像再现方法和立体全景图像再现程序,以及记录介质
US12028507B2 (en) Augmented reality system with remote presentation including 3D graphics extending beyond frame
JP2020086983A (ja) 画像処理装置、画像処理方法、及びプログラム
CN108600729B (zh) 动态3d模型生成装置及影像生成方法
KR101198557B1 (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
WO2022047701A1 (zh) 图像处理方法和装置
KR20150105069A (ko) 혼합현실형 가상 공연 시스템을 위한 평면 영상 입체화 합성기법
JP4881178B2 (ja) 走行距離映像生成装置及び走行距離映像生成プログラム
CN108769755A (zh) 高分辨率全景视频直播拍照***与方法
KR20140023136A (ko) 골프방송중 퍼팅정보 디스플레이시스템 및 그 방법
CN108564654B (zh) 三维大场景的画面进入方式
KR102082131B1 (ko) 드론 동영상에 증강현실 정보를 삽입하는 방법
CN106713890A (zh) 一种图像处理方法及其装置
CN102118576B (zh) 一种虚拟体育***中的色键合成方法及装置
KR102130973B1 (ko) 드론 동영상에 증강현실 정보의 삽입시에 사용되는 메타 파일 구조

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)