WO2019216468A1 - Mobile viewing system - Google Patents

Mobile viewing system Download PDF

Info

Publication number
WO2019216468A1
WO2019216468A1 PCT/KR2018/005459 KR2018005459W WO2019216468A1 WO 2019216468 A1 WO2019216468 A1 WO 2019216468A1 KR 2018005459 W KR2018005459 W KR 2018005459W WO 2019216468 A1 WO2019216468 A1 WO 2019216468A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
file
module
motion capture
section
Prior art date
Application number
PCT/KR2018/005459
Other languages
French (fr)
Korean (ko)
Inventor
권정훈
윤선화
Original Assignee
재단법인 차세대융합기술연구원
(주) 두리시스템테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 차세대융합기술연구원, (주) 두리시스템테크놀로지 filed Critical 재단법인 차세대융합기술연구원
Priority to PCT/KR2018/005459 priority Critical patent/WO2019216468A1/en
Publication of WO2019216468A1 publication Critical patent/WO2019216468A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Definitions

  • the present invention relates to a mobile viewing system, which is the output of the "2017 Convergence Technology Industry Fostering Support” project (task unique number CT-2010) supported by Gyeonggi-do.
  • Motion capture refers to measuring the position, orientation, and speed of an object, such as a person, an animal, or a machine, in a three-dimensional space and recording the information in a form that can be used in a computer.
  • the acquired information is called motion capture data, and 3D visualization, editing, and analysis may be performed through a dedicated viewer and editor.
  • Each manufacturer's software is used for motion capture, and motion data is generated in a digital file format unique to each software manufacturer. This leads to data compatibility issues, storage waste and reduced scalability.
  • the standardized and flexible C3D file format stores 3D and analog data in one file, making it easy for anyone to access the data.
  • Mobile content is changing from 2D to 3D. Recently, with the launch of the 3D mobile game service, a service for reproducing a user's facial expression as a 3D character has appeared.
  • OpenGL is an open standard API for implementing 2D and 3D graphics on PCs, enabling cross-platform programming between platforms.
  • OpenGL ES is a mobile 3D graphics API that collects only the essential parts for embedded systems by eliminating low or unused parts based on OpenGL. Many mobile industries are accepting OpenGL ES to develop products.
  • a mobile viewing system comprising: a file loader for reading and storing motion capture data in a standardized file format received from the outside, and analyzing the motion data to store three-dimensional coordinates of the marker for each frame; And a renderer that renders a 3D object at a position on a screen corresponding to the 3D coordinates generated by the file loader to display motion data on the mobile terminal.
  • the file loader may further include a reader for reading the motion capture data; A parsing module for parsing information necessary for display by analyzing data read through the reader; And a coordinate module that stores coordinates to be positions of objects included in an image through the parsing module.
  • the standardized file format may also correspond to a C3D file.
  • the C3D file may further include a header section that provides a function of searching basic information about data included in the C3D file; A parameter section for storing information about 3D and analog data and providing information necessary for a software application to access and process data contained in the C3D file; And a data section in which 3D and analog information are stored.
  • the file loader may analyze the header section to find a start position of a parameter section and a data section, and read stored parameters and data.
  • the renderer may further include a modeling module that defines vertices of three-dimensional objects to be expressed in coordinates generated by the coordinate module; A geometry module for performing geometry operations on the vertices generated in the modeling module and generating primitives; It may include a rasterization module for determining the final color of the pixel filling the interior of the primitive subjected to the geometric operation.
  • the final result passed through the renderer is transmitted to the frame buffer and output to the screen.
  • the mobile viewing system has the effect of providing a mobile viewing system to visualize the motion data in a mobile environment without the constraints of time and space by reproducing the motion in three dimensions on the screen of the mobile device.
  • the mobile viewing system it is possible to analyze the motion data acquired as the result of the motion capture and visualize the 3D model on the screen of the mobile terminal.
  • FIG. 1 is a view showing a mobile viewing system according to an embodiment of the present invention.
  • FIG. 2 is a diagram for describing the file loader of FIG. 1 in detail.
  • FIG. 3 is a diagram for describing in detail the renderer of FIG. 1.
  • FIG. 3 is a diagram for describing in detail the renderer of FIG. 1.
  • FIG. 4 is a diagram illustrating a C3D file structure, which is one of standardized file formats.
  • FIG. 5 is a diagram illustrating a mobile viewing method for motion capture according to an embodiment of the present invention.
  • FIG. 6 is a diagram for more specifically illustrating S40 of FIG. 5.
  • first or second may be used to describe various components, but the components should not be limited by the terms. The terms are only for the purpose of distinguishing one component from another, for example, without departing from the scope of the rights according to the inventive concept, the first component may be named a second component, and similarly The second component may also be referred to as the first component.
  • the mobile viewing system 100 includes a file loader 110 and a renderer 120.
  • FIG. 2 is a diagram for describing in detail the file loader 110 of FIG. 1
  • FIG. 3 is a diagram for describing the renderer 120 of FIG. 1 in detail.
  • the mobile viewing system 100 may be installed or stored as a software application in a mobile terminal, but is not limited thereto.
  • the mobile viewing system 100 may also be configured in a hardware form.
  • the file loader 110 includes a reader 112, a parsing module 114, and a coordinate module 116, and the renderer 120 includes a modeling module 122, a processing module 124, and a rasterization module 126. It includes.
  • the mobile viewing system 100 may store motion capture data M_DATA in a standardized file format received from the outside, and may be stored through the reader 112 of the file loader 110. Read the motion capture data (M_DATA).
  • the standardized file format may correspond to a C3D file, and a structure thereof will be described in detail with reference to FIG. 4.
  • the parsing module 114 may parse the motion capture data M_DATA read through the reader 112 to parse information necessary for display.
  • the coordinate module 116 stores frame information and three-dimensional coordinates of the marker through the parsing module 114.
  • the three-dimensional coordinates become a position of an object corresponding to the actual marker on the screen, that is, the object.
  • 3D rendering is for processing 3D graphics, and consists of three-dimensional objects (or objects) in the form of vertices (or vertices) and triangle information, and processes and rasterizes the geometric operations for each vertex (or vertices) of the object It can mean a series of processes that determine each pixel value and output it to the screen.
  • the modeling module 122 generates three-dimensional coordinate data necessary to implement the marker as a sphere-shaped three-dimensional object on the screen.
  • the vertex of the sphere (angle) from the negative direction - ⁇ / 2 to the positive direction ⁇ / 2 when the horizontal axis on the plane x axis and the vertical axis y axis using a spherical coordinate system
  • a point formed by pairs of angles using overlapping loops for angles ⁇ from 0 to 2 ⁇ on the x-axis
  • the geometry module 124 performs geometric operations on the vertices generated by the modeling module.
  • Each vertex defined by the modeling may have properties such as position, color, normal, texture, and the like.
  • the coordinates of the vertices are object coordinates, which are object-specific coordinates.
  • the vertex shader set by the geometry module 124 is called as the number of vertices and converts an object coordinate system into a screen coordinate system through matrix transformation to determine a vertex position on the screen.
  • the geometry module 124 may generate primitives based on the vertices.
  • the primitive may mean a polygon formed using vertices.
  • primitives may represent triangles formed by connecting vertices.
  • the geometry module 124 indexes each vertex and connects three vertices from vertex 0 to create one triangle, and then connects all vertices by creating two triangles using the fourth vertex. ) Can be created.
  • the result of the operation performed in the geometry module is passed to the rasterization module 126.
  • the rasterization module 126 can rasterize primitives that have passed through the geometry module 124.
  • the primitive is divided into a plurality of fragments through rasterization.
  • the fragment may be a unit configuring a primitive and may be a basic unit for performing image processing.
  • the fragment is generated through interpolation of vertices, and may have properties such as color, normal, and texture coordinates of the vertices.
  • the information of the fragment is passed to a fragment shader to determine the final color of the fragment and to pass the result to the frame buffer (not shown) to prepare for display.
  • the program does not render directly to the front frame buffer, but to other frame buffers, including the rear frame buffer.
  • the result of the fragment whose final color is determined is transferred to the rear frame buffer, and when the image rendering is completed in the rear frame buffer, the result is exchanged with the front frame buffer to output the result on the screen of the terminal, and the previous front frame buffer becomes the rear frame buffer.
  • spheres can be rendered at the positions of all the markers stored in each frame and output to the screen, and the motion data can be implemented in 3D animation on the mobile terminal by extending them to all the frames.
  • FIG. 4 is a diagram illustrating a C3D file structure, which is one of standardized file formats.
  • the C3D file structure 300 is composed of a header section 310, a parameter section 320, and a data section 330.
  • the header section 310 provides a function for retrieving basic information about data included in a C3D file.
  • the parameter section 320 stores information about 3D and analog data, and a software application (eg, file loader 110 in FIG. 1) accesses data contained in the C3D file and also stores data. Provide the information necessary for processing.
  • a software application eg, file loader 110 in FIG. 1
  • the data section 330 stores the 3D point and analog information of the marker.
  • the file loader 110 analyzes the header section 310 to find the start position of the parameter section 320 and the data section 330 and reads the stored parameters and data. Specifically, information including the number of photographed frames, the number of markers, the label of the marker, and the 3D coordinates is read and stored in an array form.
  • FIG. 5 is a diagram illustrating a mobile viewing method for motion capture according to an embodiment of the present invention.
  • the mobile viewing method may be performed by the entire system including the mobile viewing system 100 and the motion capture system (not shown) shown in FIG.
  • Motion capture is performed by the motion capture system, and the motion capture data is stored in a standardized file format (S10).
  • the standardized file format may correspond to a C3D file.
  • the mobile viewing system 100 receives the motion capture data M_DATA in a standardized file format from the motion capture system (S20).
  • the file loader 110 is executed (S30) to parse the motion capture data (M_DATA) of the standardized file format to obtain three-dimensional coordinates of the marker for each frame, and the coordinates correspond to the actual markers on the screen of the terminal. It is used as the location of the objects being created.
  • M_DATA motion capture data
  • 3D rendering is performed through the renderer 120 (S40), and the motion data is displayed on the mobile terminal (S50).
  • FIG. 6 is a diagram for more specifically illustrating S40 of FIG. 5.
  • FIG. 6 is performed by the renderer 120 to model a sphere in order to implement a shape of a marker in a virtual three-dimensional space in a screen (S100).
  • vertex shading is performed on all vertices of the sphere to determine vertex positions on the screen (S200), rasterization (S300), and the surface of the sphere through fragment shading.
  • the color of the final pixel to be formed is determined (S400), and the 3D object is rendered (S500).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Generation (AREA)

Abstract

A mobile viewing system according to an embodiment of the present invention may comprise: a file loader for reading motion capture data of a standardized file format received from the outside and storing information of a marker and a frame; and a renderer for rendering a 3D object at a screen position of 3D coordinates of a marker acquired through the file loader, and allowing motion data to be displayed on a screen of a terminal.

Description

모바일 뷰잉 시스템Mobile viewing system
본 발명은 모바일 뷰잉 시스템에 관한 것으로, 경기도의 지원을 받은 "2017년 융합 기술산업 육성 지원" 사업(과제고유번호 CT-2010)의 산출물이다.The present invention relates to a mobile viewing system, which is the output of the "2017 Convergence Technology Industry Fostering Support" project (task unique number CT-2010) supported by Gyeonggi-do.
모션 캡쳐란 3차원 공간에서 사람, 동물 또는 기계 등의 관찰 대상의 위치, 방위, 속도 등을 측정하고 컴퓨터에서 사용할 수 있는 형태의 정보로 기록하는 것을 말한다. 이때 획득된 정보는 모션캡쳐 데이터라고 하며, 전용 뷰어 및 에디터를 통해 3차원 가시화, 편집, 분석 등이 이루어질 수 있다.Motion capture refers to measuring the position, orientation, and speed of an object, such as a person, an animal, or a machine, in a three-dimensional space and recording the information in a form that can be used in a computer. The acquired information is called motion capture data, and 3D visualization, editing, and analysis may be performed through a dedicated viewer and editor.
모션 캡쳐를 위해서 각각 다양한 제조사의 소프트웨어가 사용되었고, 모션 데이터는 소프트웨어 제조사마다의 고유한 디지털 파일 형식으로 생성되었다. 이 때문에 데이터 호환 문제가 있으며, 저장공간의 낭비 및 확장성 저하 문제가 발생했다. Each manufacturer's software is used for motion capture, and motion data is generated in a digital file format unique to each software manufacturer. This leads to data compatibility issues, storage waste and reduced scalability.
이러한 상황은 C3D 파일 형식이 개발되어 개선이 되었으며, 표준화되고 유연한 C3D 파일 형식은 3D 및 아날로그 데이터를 하나의 파일에 저장하여 누구나 쉽게 데이터에 접근할 수 있게 했다.This situation has been improved by the development of the C3D file format. The standardized and flexible C3D file format stores 3D and analog data in one file, making it easy for anyone to access the data.
모바일 단말 개발 기술의 발전과 보급 확산으로 국내 스마트 기기 보급률이 80퍼센트를 넘어서고 있으며, 모바일 단말의 성능이 발전함에 따라 모바일 3D 애니메이션, 모바일 3D 게임 및 모바일 멀티미디어 서비스 등의 고품질 콘텐츠에 대한 이용자들의 수요가 급증하고 있다.With the development and spread of mobile terminal development technology, the penetration rate of smart devices in Korea has exceeded 80 percent. As the performance of mobile terminals has developed, users' demand for high-quality contents such as mobile 3D animation, mobile 3D games and mobile multimedia services has increased. Soaring.
모바일 콘텐츠는 2D에서 3D로 변화하고 있으며, 최근에는 3D 모바일 게임 서비스 개시와 더불어 이용자의 표정을 3D 캐릭터로 재현해내는 서비스도 등장하고 있는 실정이다.Mobile content is changing from 2D to 3D. Recently, with the launch of the 3D mobile game service, a service for reproducing a user's facial expression as a 3D character has appeared.
OpenGL은 PC에서 2D 및 3D 그래픽을 구현하기 위한 공개 표준 API로 프로그래밍 언어 사이 플랫폼 간의 교차 응용 프로그래밍을 지원한다.OpenGL is an open standard API for implementing 2D and 3D graphics on PCs, enabling cross-platform programming between platforms.
OpenGL ES는 OpenGL을 기반으로 사용빈도가 낮거나 불필요한 부분을 제거하여 내장형 시스템을 위해 필수적인 부분만 따로 모아놓은 모바일 3D 그래픽 API이며, 많은 모바일 업계에서 OpenGL ES를 수용하여 제품을 개발하고 있는 실정이다.OpenGL ES is a mobile 3D graphics API that collects only the essential parts for embedded systems by eliminating low or unused parts based on OpenGL. Many mobile industries are accepting OpenGL ES to develop products.
선행기술문헌: 한국등록번호 10-1299840 (2013.08.19.)Prior Art Document: Korea Registration No. 10-1299840 (Aug.19, 2013)
본 발명의 목적은 모바일 기기 화면에 모션을 3차원으로 재현하여 시간과 공간의 제약 없이 모바일 환경에서 모션 데이터를 시각화하도록 하는 모바일 뷰잉 시스템을 제공하려는 것이다.It is an object of the present invention to provide a mobile viewing system that visualizes motion data in a mobile environment without limitation of time and space by reproducing motion in three dimensions on a screen of a mobile device.
본 발명의 일 예에 따른 모바일 뷰잉 시스템은, 외부로부터 수신한 표준화된 파일 포맷의 모션 캡쳐 데이터를 읽어와 저장하고, 모션 데이터를 분석하여 프레임별 마커의 3차원 좌표를 저장하는 파일 로더; 및 상기 파일 로더를 통해 생성된 3D 좌표에 대응하는 화면상의 위치에 3D 객체를 랜더링하여 모션 데이터를 모바일 단말에 디스플레이하도록 하는 렌더러;를 포함할 수 있다.According to an aspect of the present invention, there is provided a mobile viewing system comprising: a file loader for reading and storing motion capture data in a standardized file format received from the outside, and analyzing the motion data to store three-dimensional coordinates of the marker for each frame; And a renderer that renders a 3D object at a position on a screen corresponding to the 3D coordinates generated by the file loader to display motion data on the mobile terminal.
또한 상기 파일 로더는, 상기 모션 캡쳐 데이터를 읽어오는 리더; 상기 리더를 통해 읽어온 데이터를 분석하여 디스플레이에 필요한 정보를 파싱(parsing)하는 파싱모듈; 및 상기 파싱 모듈을 통해 영상에 포함된 오브젝트(object)들의 위치가 될 좌표를 저장하는 좌표 모듈을 포함할 수 있다.The file loader may further include a reader for reading the motion capture data; A parsing module for parsing information necessary for display by analyzing data read through the reader; And a coordinate module that stores coordinates to be positions of objects included in an image through the parsing module.
또한 상기 표준화된 파일 포맷은 C3D 파일에 상응할 수 있다.The standardized file format may also correspond to a C3D file.
또한 상기 C3D 파일은, 상기 C3D 파일에 포함되는 데이터에 관한 기본 정보를 검색하는 기능을 제공하는 헤더 섹션; 3D 및 아날로그 데이터(analog data)에 관한 정보를 저장하고, 소프트웨어 어플리케이션이 상기 C3D 파일에 포함된 데이터에 접근하고 또한 데이터를 처리하는데 필요한 정보를 제공하는 파라미터 섹션; 및 3D 및 아날로그 정보가 저장되는 데이터 섹션;을 포함하는 구조에 해당할 수 있다.The C3D file may further include a header section that provides a function of searching basic information about data included in the C3D file; A parameter section for storing information about 3D and analog data and providing information necessary for a software application to access and process data contained in the C3D file; And a data section in which 3D and analog information are stored.
또한 상기 파일 로더는, 상기 헤더 섹션을 분석하여 파라미터 섹션과 데이터 섹션의 시작 위치를 찾고 저장된 파라미터들과 데이터를 읽어 올 수 있다.In addition, the file loader may analyze the header section to find a start position of a parameter section and a data section, and read stored parameters and data.
또한 상기 렌더러는, 상기 좌표 모듈에 의해 생성된 좌표에 표현할 3차원 객체의 정점을 정의하는 모델링 모듈; 상기 모델링 모듈에서 생성된 정점(버텍스)에 대해 기하 연산을 수행하고 프리미티브를 생성하는 기하 모듈; 상기 기하 연산을 거친 프리미티브의 내부를 채우는 픽셀의 최종 색상을 결정하는 래스터화 모듈을 포함할 수 있다. 상기 렌더러를 거친 최종 결과물은 프레임 버퍼에 전송되어 화면에 출력된다.The renderer may further include a modeling module that defines vertices of three-dimensional objects to be expressed in coordinates generated by the coordinate module; A geometry module for performing geometry operations on the vertices generated in the modeling module and generating primitives; It may include a rasterization module for determining the final color of the pixel filling the interior of the primitive subjected to the geometric operation. The final result passed through the renderer is transmitted to the frame buffer and output to the screen.
본 발명에 따른 모바일 뷰잉 시스템에 의하면, 모바일 기기 화면에 모션을 3차원으로 재현하여 시간과 공간의 제약 없이 모바일 환경에서 모션 데이터를 시각화하도록 하는 모바일 뷰잉 시스템을 제공하는 효과를 가진다.According to the mobile viewing system according to the present invention, it has the effect of providing a mobile viewing system to visualize the motion data in a mobile environment without the constraints of time and space by reproducing the motion in three dimensions on the screen of the mobile device.
본 발명에 따른 모바일 뷰잉 시스템에 의하면, 모션 캡쳐 결과물로 획득한 모션 데이터를 분석하여 모바일 단말의 화면에 3D 모델로 시각화할 수 있는 효과를 가진다.According to the mobile viewing system according to the present invention, it is possible to analyze the motion data acquired as the result of the motion capture and visualize the 3D model on the screen of the mobile terminal.
도 1은 본 발명의 일 예에 따른 모바일 뷰잉 시스템을 나타내는 도면이다.1 is a view showing a mobile viewing system according to an embodiment of the present invention.
도 2는 도 1의 파일 로더를 구체적으로 설명하기 위한 도면이다.FIG. 2 is a diagram for describing the file loader of FIG. 1 in detail.
도 3은 도 1의 렌더러를 구체적으로 설명하기 위한 도면이다.FIG. 3 is a diagram for describing in detail the renderer of FIG. 1. FIG.
도 4는 표준화된 파일 포맷 중 하나인 C3D 파일 구조를 나타내는 도면이다. 4 is a diagram illustrating a C3D file structure, which is one of standardized file formats.
도 5는 본 발명의 일 예에 따른 모션 캡쳐를 위한 모바일 뷰잉 방법을 나타내는 도면이다.5 is a diagram illustrating a mobile viewing method for motion capture according to an embodiment of the present invention.
도 6은 도 5의 S40을 보다 구체적으로 나타내기 위한 도면이다.FIG. 6 is a diagram for more specifically illustrating S40 of FIG. 5.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the inventive concept disclosed herein are provided for the purpose of describing the embodiments according to the inventive concept only. It may be embodied in various forms and is not limited to the embodiments described herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the inventive concept may be variously modified and have various forms, so embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments in accordance with the concept of the invention to the specific forms disclosed, it includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The terms are only for the purpose of distinguishing one component from another, for example, without departing from the scope of the rights according to the inventive concept, the first component may be named a second component, and similarly The second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof that is described, and that one or more other features or numbers are present. It should be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and are not construed in ideal or excessively formal meanings unless expressly defined herein. Do not.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 예에 따른 모바일 뷰잉 시스템을 나타내는 도면이다. 상기 모바일 뷰잉 시스템(100)은 파일 로더(110) 및 렌더러(120)를 포함한다.1 is a view showing a mobile viewing system according to an embodiment of the present invention. The mobile viewing system 100 includes a file loader 110 and a renderer 120.
도 2는 도 1의 파일 로더(110)를 구체적으로 설명하기 위한 도면이고, 도 3은 도 1의 렌더러(120)를 구체적으로 설명하기 위한 도면이다.FIG. 2 is a diagram for describing in detail the file loader 110 of FIG. 1, and FIG. 3 is a diagram for describing the renderer 120 of FIG. 1 in detail.
상기 모바일 뷰잉 시스템(100)은 모바일 단말에 소프트웨어 어플리케이션으로 설치 또는 저장될 수 있으나, 이에 한정되는 것은 아니며, 하드웨어 형태로도 구성될 수 있다.The mobile viewing system 100 may be installed or stored as a software application in a mobile terminal, but is not limited thereto. The mobile viewing system 100 may also be configured in a hardware form.
상기 파일 로더(110)는 리더(112), 파싱 모듈(114) 및 좌표 모듈(116)을 포함하고, 렌더러(120)는 모델링 모듈(122), 처리 모듈(124) 및 래스터화 모듈(126)을 포함한다.The file loader 110 includes a reader 112, a parsing module 114, and a coordinate module 116, and the renderer 120 includes a modeling module 122, a processing module 124, and a rasterization module 126. It includes.
도 1 내지 도 3을 참고하면, 상기 모바일 뷰잉 시스템(100)은 외부로부터 수신한 표준화된 파일 포맷의 모션 캡쳐 데이터(M_DATA)를 저장할 수 있으며, 파일 로더(110)의 리더(112)를 통해 상기 모션 캡쳐 데이터(M_DATA)를 읽어온다. 여기서, 상기 표준화된 파일 포맷은 C3D 파일에 해당할 수 있으며, 이에 대한 구조는 도 4에서 더 구체적으로 설명하기로 한다.1 to 3, the mobile viewing system 100 may store motion capture data M_DATA in a standardized file format received from the outside, and may be stored through the reader 112 of the file loader 110. Read the motion capture data (M_DATA). Here, the standardized file format may correspond to a C3D file, and a structure thereof will be described in detail with reference to FIG. 4.
상기 파싱 모듈(114)은 상기 리더(112)를 통해 읽어온 모션 캡쳐 데이터(M_DATA)를 분석하여 디스플레이에 필요한 정보를 파싱(parsing)할 수 있다.The parsing module 114 may parse the motion capture data M_DATA read through the reader 112 to parse information necessary for display.
상기 좌표 모듈(116)은 상기 파싱 모듈(114)을 통해 프레임 정보와 마커의 3차원 좌표를 저장한다. 상기 3차원 좌표는 화면상에서 실제 마커에 대응되는 객체, 즉, 오브젝트(object)의 위치가 된다. The coordinate module 116 stores frame information and three-dimensional coordinates of the marker through the parsing module 114. The three-dimensional coordinates become a position of an object corresponding to the actual marker on the screen, that is, the object.
상기 파일 로더(110)의 리더(112), 파싱 모듈(114) 및 좌표 모듈(116)의 처리가 수행되면 상기 렌더러(120)가 3D 렌더링을 수행하여 모션 데이터를 모바일 단말에 디스플레이될 수 있게 한다. 이때, 3D 렌더링은 3D 그래픽 처리를 위한 것으로, 3차원 객체(또는 오브젝트)를 정점(또는 버텍스) 및 삼각형 정보 형태로 구성하고, 객체의 정점(또는 버텍스)마다 기하 연산을 처리하고 래스터화한 뒤 각 픽셀 값을 결정하여 화면에 출력하는 일련의 과정을 의미할 수 있다.When the processing of the reader 112, the parsing module 114, and the coordinate module 116 of the file loader 110 is performed, the renderer 120 performs 3D rendering to display motion data on the mobile terminal. . At this time, 3D rendering is for processing 3D graphics, and consists of three-dimensional objects (or objects) in the form of vertices (or vertices) and triangle information, and processes and rasterizes the geometric operations for each vertex (or vertices) of the object It can mean a series of processes that determine each pixel value and output it to the screen.
모델링 모듈(122)은 마커를 화면상에서 구(sphere)형의 3차원 객체로 구현하기 위해 필요한 3차원 좌표 데이터를 생성한다.The modeling module 122 generates three-dimensional coordinate data necessary to implement the marker as a sphere-shaped three-dimensional object on the screen.
구체적으로, 상기 구(sphere)의 정점은 구면좌표계를 활용하여 평면상의 가로축을 x축 그리고 세로축을 y축이라 할 때, y축 음의 방향 -π/2부터 양의 방향 π/2까지 각 θ와, x축의 0부터 2π까지 각 φ에 대하여 중첩 루프를 사용하여 각의 쌍이 이루는 점으로 정의된다.Specifically, the vertex of the sphere (angle) from the negative direction -π / 2 to the positive direction π / 2 when the horizontal axis on the plane x axis and the vertical axis y axis using a spherical coordinate system And a point formed by pairs of angles using overlapping loops for angles φ from 0 to 2π on the x-axis.
기하 모듈(124)은 상기 모델링 모듈에서 생성된 버텍스의 기하연산을 수행한다. 상기 모델링으로 정의된 각 버텍스들은 위치, 색상, 법선, 텍스쳐 등의 속성을 가질 수 있다. 상기 버텍스의 좌표는 오브젝트(object) 좌표로 이는 오브젝트 고유의 좌표이다. The geometry module 124 performs geometric operations on the vertices generated by the modeling module. Each vertex defined by the modeling may have properties such as position, color, normal, texture, and the like. The coordinates of the vertices are object coordinates, which are object-specific coordinates.
상기 기하 모듈(124)이 설정한 버텍스 쉐이더(Vertex shader)는 상기 버텍스 개수만큼 호출되어 행렬 변환을 통해 오브젝트 좌표계를 화면 좌표계로 변환하여 화면상에 버텍스의 위치를 결정해준다. The vertex shader set by the geometry module 124 is called as the number of vertices and converts an object coordinate system into a screen coordinate system through matrix transformation to determine a vertex position on the screen.
상기 기하 모듈(124)은 상기 버텍스들을 기반으로 프리미티브들(primitives)을 생성할 수 있다. 여기서, 상기 프리미티브는 버텍스를 이용하여 형성되는 다각형(polygon)을 의미할 수 있으며, 예컨대, 프리미티브들은 버텍스들을 연결하여 형성된 삼각형들을 나타낼 수 있다. The geometry module 124 may generate primitives based on the vertices. Here, the primitive may mean a polygon formed using vertices. For example, primitives may represent triangles formed by connecting vertices.
기하 모듈(124)은 각 버텍스를 인덱싱하여 0번 버텍스부터 3개의 버텍스를 연결하여 하나의 삼각형을 생성하고 다음 4번째 버텍스를 이용하여 두 개의 삼각형을 생성하는 방법으로 모든 버텍스를 연결하여 구(sphere)를 생성할 수 있다. The geometry module 124 indexes each vertex and connects three vertices from vertex 0 to create one triangle, and then connects all vertices by creating two triangles using the fourth vertex. ) Can be created.
상기 기하모듈에서 수행된 연산의 결과물은 래스터화 모듈(126)에 전달된다.The result of the operation performed in the geometry module is passed to the rasterization module 126.
래스터화 모듈(126)은 상기 기하 모듈(124)을 거친 프리미티브를 래스터화(rasterization)할 수 있다. 상기 프리미티브는 래스터화를 통해 복수의 프래그먼트들(fragments)로 분할된다. 상기 프래그먼트는 프리미티브를 구성하는 단위이며, 영상 처리를 수행하기 위한 기본 단위일 수 있다. 상기 프래그먼트는 버텍스의 보간을 통해 생성되며, 버텍스의 색상, 법선 및 텍스쳐 좌표와 같은 속성을 가질 수 있다. 상기 프래그먼트의 정보는 프래그먼트 쉐이더(fragment shader)로 넘겨져 프래그먼트의 최종 색상을 결정하고 결과물을 프레임버퍼(미도시)에 넘겨 디스플레이를 준비한다.The rasterization module 126 can rasterize primitives that have passed through the geometry module 124. The primitive is divided into a plurality of fragments through rasterization. The fragment may be a unit configuring a primitive and may be a basic unit for performing image processing. The fragment is generated through interpolation of vertices, and may have properties such as color, normal, and texture coordinates of the vertices. The information of the fragment is passed to a fragment shader to determine the final color of the fragment and to pass the result to the frame buffer (not shown) to prepare for display.
상기 프레임버퍼(미도시)는 다수 존재할 수 있다. 프로그램은 전면 프레임 버퍼에 직접 렌더링하지 않고 후면 프레임 버퍼를 포함한 다른 프레임 버퍼로 렌더링한다.There may be a plurality of frame buffers (not shown). The program does not render directly to the front frame buffer, but to other frame buffers, including the rear frame buffer.
상기 최종 색상이 결정된 프래그먼트의 결과물은 후면 프레임버퍼로 전달되며, 후면 프레임버퍼에 이미지 렌더링이 완료되면 전면 프레임버퍼와 교환되어 단말기의 화면에 결과물이 출력되며, 이전 전면 프레임버퍼는 후면 프레임버퍼가 된다.The result of the fragment whose final color is determined is transferred to the rear frame buffer, and when the image rendering is completed in the rear frame buffer, the result is exchanged with the front frame buffer to output the result on the screen of the terminal, and the previous front frame buffer becomes the rear frame buffer. .
이를 통해 각 프레임에 저장된 모든 마커의 위치에서 각각 구(sphere)를 렌더링하여 화면에 출력하고 이를 모든 프레임으로 확장하여 모션 데이터를 모바일 단말에 3차원 애니메이션으로 구현할 수 있다.Through this, spheres can be rendered at the positions of all the markers stored in each frame and output to the screen, and the motion data can be implemented in 3D animation on the mobile terminal by extending them to all the frames.
도 4는 표준화된 파일 포맷 중 하나인 C3D 파일 구조를 나타내는 도면이다. 4 is a diagram illustrating a C3D file structure, which is one of standardized file formats.
상기 C3D 파일 구조(300)는 헤더 섹션(header section, 310), 파라미터 섹션(parameter section, 320) 및 데이터 섹션(data section, 330)으로 구성된다.The C3D file structure 300 is composed of a header section 310, a parameter section 320, and a data section 330.
상기 헤더 섹션(310)은 C3D 파일에 포함되는 데이터에 관한 기본 정보를 검색하는 기능을 제공한다.The header section 310 provides a function for retrieving basic information about data included in a C3D file.
상기 파라미터 섹션(320)은 3D 및 아날로그 데이터(analog data)에 관한 정보를 저장하고, 소프트웨어 어플리케이션(예컨대, 도 1의 파일 로더(110))이 상기 C3D 파일에 포함된 데이터에 접근하고 또한 데이터를 처리하는데 필요한 정보를 제공한다.The parameter section 320 stores information about 3D and analog data, and a software application (eg, file loader 110 in FIG. 1) accesses data contained in the C3D file and also stores data. Provide the information necessary for processing.
상기 데이터 섹션(330)은 마커의 3D 포인트 및 아날로그 정보가 저장된다.The data section 330 stores the 3D point and analog information of the marker.
상기 파일 로더(110)는 상기 헤더 섹션(310)을 분석하여 파라미터 섹션(320)과 데이터 섹션(330)의 시작 위치를 찾고 저장된 파라미터들과 데이터를 읽어 온다. 구체적으로, 촬영된 프레임 수, 마커 수, 마커의 레이블 및 3D 좌표 등을 포함한 정보를 읽어와 배열 형태로 저장하도록 한다.The file loader 110 analyzes the header section 310 to find the start position of the parameter section 320 and the data section 330 and reads the stored parameters and data. Specifically, information including the number of photographed frames, the number of markers, the label of the marker, and the 3D coordinates is read and stored in an array form.
도 5는 본 발명의 일 예에 따른 모션 캡쳐를 위한 모바일 뷰잉 방법을 나타내는 도면이다. 상기 모바일 뷰잉 방법은 도 1에 도시된 모바일 뷰잉 시스템(100)과 모션 캡쳐 시스템(미도시)을 포함한 전체 시스템에 의해 수행될 수 있다.5 is a diagram illustrating a mobile viewing method for motion capture according to an embodiment of the present invention. The mobile viewing method may be performed by the entire system including the mobile viewing system 100 and the motion capture system (not shown) shown in FIG.
모션 캡쳐 시스템에 의해 모션 캡쳐가 수행되고, 모션 캡쳐 데이터는 표준화된 파일 포맷으로 저장이 이루어진다(S10). 여기서, 상기 표준화된 파일 포맷은 C3D 파일에 해당할 수 있다.Motion capture is performed by the motion capture system, and the motion capture data is stored in a standardized file format (S10). Here, the standardized file format may correspond to a C3D file.
모바일 뷰잉 시스템(100)은 상기 모션 캡쳐 시스템으로부터 표준화된 파일 포맷의 모션 캡쳐 데이터(M_DATA)를 전송 받는다(S20).The mobile viewing system 100 receives the motion capture data M_DATA in a standardized file format from the motion capture system (S20).
이후, 파일 로더(110)를 실행하여(S30), 상기 표준화된 파일 포맷의 모션 캡쳐 데이터(M_DATA)를 파싱하여 프레임별 마커의 3차원 좌표를 획득하며, 이 좌표는 단말기 화면상 실제 마커에 대응되는 오브젝트(object)들의 위치로 사용된다. Thereafter, the file loader 110 is executed (S30) to parse the motion capture data (M_DATA) of the standardized file format to obtain three-dimensional coordinates of the marker for each frame, and the coordinates correspond to the actual markers on the screen of the terminal. It is used as the location of the objects being created.
이후, 렌더러(120)를 통해 3D 렌더링을 수행하여(S40), 모션 데이터를 모바일 단말에 디스플레이시킨다(S50). Thereafter, 3D rendering is performed through the renderer 120 (S40), and the motion data is displayed on the mobile terminal (S50).
도 6은 도 5의 S40을 보다 구체적으로 나타내기 위한 도면이다. FIG. 6 is a diagram for more specifically illustrating S40 of FIG. 5.
도 6을 참고하면, 도 6은 상기 렌더러(120)에 의해서 수행되는데, 마커의 형상을 화면 속 가상의 3차원 공간에서 구현하기 위해 구(sphere)를 모델링한다(S100).Referring to FIG. 6, FIG. 6 is performed by the renderer 120 to model a sphere in order to implement a shape of a marker in a virtual three-dimensional space in a screen (S100).
이후 구(sphere)를 이루고 있는 모든 정점에 대하여 버텍스 쉐이딩을 수행하여 화면상 정점의 위치를 정해주며(S200), 래스터화(raterization)를 수행하고(S300), 프레그먼트 쉐이딩을 통해 구의 표면을 이루는 최종 픽셀의 색을 결정하여(S400), 3D 객체를 렌더링한다(S500).After that, vertex shading is performed on all vertices of the sphere to determine vertex positions on the screen (S200), rasterization (S300), and the surface of the sphere through fragment shading. The color of the final pixel to be formed is determined (S400), and the 3D object is rendered (S500).
이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The foregoing detailed description illustrates the present invention. In addition, the foregoing description shows and describes preferred embodiments of the present invention, and the present invention can be used in various other combinations, modifications, and environments. That is, changes or modifications can be made within the scope of the concept of the invention disclosed in this specification, the scope equivalent to the disclosures described above, and / or the skill or knowledge in the art. The described embodiments illustrate the best state for implementing the technical idea of the present invention, and various modifications required in the specific fields and applications of the present invention are possible. Thus, the detailed description of the invention is not intended to limit the invention to the disclosed embodiments. Also, the appended claims should be construed to include other embodiments.

Claims (6)

  1. 외부로부터 수신한 표준화된 파일 포맷의 모션 캡쳐 데이터를 읽어와 분석하고 프레임별 마커의 3차원 좌표를 저장하는 파일 로더; 및A file loader for reading and analyzing motion capture data in a standardized file format received from the outside and storing three-dimensional coordinates of the marker for each frame; And
    상기 파일 로더를 통해 추출한 마커의 3차원 좌표의 화면상 위치에 구(sphere)를 렌더링하여 모션데이터를 모바일 단말에 디스플레이 하도록 하는 렌더러; 를 포함하는 것을 특징으로 하는 모바일 뷰잉 시스템.A renderer configured to display a motion data on a mobile terminal by rendering a sphere at a position on a screen of three-dimensional coordinates of the marker extracted by the file loader; Mobile viewing system comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 파일 로더는,The file loader,
    상기 모션 캡쳐 데이터를 읽어오는 리더;A reader for reading the motion capture data;
    상기 리더를 통해 읽어온 모션 캡쳐 데이터를 파싱(parsing)하는 파싱 모듈; 및A parsing module for parsing motion capture data read through the reader; And
    상기 파싱 모듈을 통해 프레임별 마커들의 3차원 좌표를 저장하는 좌표 모듈을 포함하는 것을 특징으로 하는 모바일 뷰잉 시스템.And a coordinate module for storing three-dimensional coordinates of the frame-specific markers through the parsing module.
  3. 제2항에 있어서,The method of claim 2,
    상기 표준화된 파일 포맷은 C3D 파일에 상응하는 것을 특징으로 하는 모바일 뷰잉 시스템.And said standardized file format corresponds to a C3D file.
  4. 제3항에 있어서,The method of claim 3,
    상기 C3D 파일은,The C3D file,
    상기 C3D 파일에 포함되는 데이터에 관한 기본 정보를 검색하는 기능을 제공하는 헤더 섹션;A header section for providing a function of retrieving basic information about data included in the C3D file;
    3D 및 아날로그 데이터(analog data)에 관한 정보를 저장하고, 소프트웨어 어플리케이션이 상기 C3D 파일에 포함된 데이터에 접근하고 또한 데이터를 처리하는데 필요한 정보를 제공하는 파라미터 섹션; 및A parameter section for storing information about 3D and analog data and providing information necessary for a software application to access and process data contained in the C3D file; And
    마커의 3D 포인트 및 아날로그 정보가 저장되는 데이터 섹션;을 포함하는 구조인 것을 특징으로 하는 모바일 뷰잉 시스템.And a data section in which 3D points and analog information of the marker are stored.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 파일 로더는,The file loader,
    상기 헤더 섹션을 분석하여 파라미터 섹션과 데이터 섹션의 시작 위치를 찾고 저장된 파라미터들과 데이터를 읽어 오는 것을 특징으로 하는 모바일 뷰잉 시스템.And analyzing the header section to find a start position of a parameter section and a data section, and to read stored parameters and data.
  6. 제1항에 있어서,The method of claim 1,
    상기 렌더러는,The renderer,
    구(sphere)를 이루는 버텍스 정보를 생성하는 모델링 모듈;A modeling module for generating vertex information forming a sphere;
    버텍스들에 대한 기하연산으로 좌표계를 변환하고, 버텍스들을 순차적으로 연결하여 삼각형의 프리미티브를 생성하는 기하처리 모듈;A geometry module for transforming a coordinate system into geometric operations for vertices and sequentially connecting vertices to generate a primitive of a triangle;
    프리미티브들을 래스터화(rasterization)하여 복수의 프래그먼트로 분할하고, 각 프래그먼트마다 프래그먼트 쉐이더를 호출하여 픽셀의 최종 색상을 지정하는 래스터화(rasterization) 모듈;을 포함하는 것을 특징으로 하는 모바일 뷰잉 시스템.And a rasterization module for rasterizing the primitives to split them into a plurality of fragments, and calling a fragment shader for each fragment to specify the final color of the pixel.
PCT/KR2018/005459 2018-05-11 2018-05-11 Mobile viewing system WO2019216468A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/005459 WO2019216468A1 (en) 2018-05-11 2018-05-11 Mobile viewing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/005459 WO2019216468A1 (en) 2018-05-11 2018-05-11 Mobile viewing system

Publications (1)

Publication Number Publication Date
WO2019216468A1 true WO2019216468A1 (en) 2019-11-14

Family

ID=68466787

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/005459 WO2019216468A1 (en) 2018-05-11 2018-05-11 Mobile viewing system

Country Status (1)

Country Link
WO (1) WO2019216468A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200421496Y1 (en) * 2006-04-17 2006-07-14 이갑형 A mobile kokjijum dance teaching system
KR101299840B1 (en) * 2005-07-01 2013-08-23 소니 주식회사 Mobile motion capture cameras
KR20140051554A (en) * 2012-10-23 2014-05-02 이인택 Motion capture system for using ahrs
KR20170025099A (en) * 2015-08-27 2017-03-08 삼성전자주식회사 Method and apparatus for rendering

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101299840B1 (en) * 2005-07-01 2013-08-23 소니 주식회사 Mobile motion capture cameras
KR200421496Y1 (en) * 2006-04-17 2006-07-14 이갑형 A mobile kokjijum dance teaching system
KR20140051554A (en) * 2012-10-23 2014-05-02 이인택 Motion capture system for using ahrs
KR20170025099A (en) * 2015-08-27 2017-03-08 삼성전자주식회사 Method and apparatus for rendering

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TKACH, ANASTASIA ET AL.: "Sphere-meshes for real-time hand modeling and tracking", ACM TRANSACTIONS ON GRAPHICS (TOG, vol. 35, no. 6, 30 November 2016 (2016-11-30), Macao, XP058306325, DOI: 10.1145/2980179.2980226 *

Similar Documents

Publication Publication Date Title
US6664962B1 (en) Shadow mapping in a low cost graphics system
US6867781B1 (en) Graphics pipeline token synchronization
US7176919B2 (en) Recirculating shade tree blender for a graphics system
CN101061518B (en) Flexible antialiasing in embedded devices
US6700586B1 (en) Low cost graphics with stitching processing hardware support for skeletal animation
US6424348B2 (en) Application program interface for a graphics system
US9202303B2 (en) System and method for compositing path color in path rendering
US7663621B1 (en) Cylindrical wrapping using shader hardware
US6317137B1 (en) Multi-threaded texture modulation for axis-aligned volume rendering
CN101911125B (en) Multi-buffer support for off-screen surfaces in a graphics processing system
CN111161387B (en) Method and system for synthesizing images in stacked scene, storage medium and terminal equipment
US7061502B1 (en) Method and apparatus for providing logical combination of N alpha operations within a graphics system
KR20070011062A (en) Model 3d construction application program interface
WO2018004154A1 (en) Mixed reality display device
CN103489216A (en) 3d object scanning using video camera and tv monitor
EP1306810A1 (en) Triangle identification buffer
WO2012111864A1 (en) Ray tracing core and method for processing ray tracing
CN113822788B (en) Early release of resources in ray tracing hardware
US11270495B2 (en) Scattered geometry compression for ray tracing acceleration structures
CN113593027B (en) Three-dimensional avionics display control interface device
US6556198B1 (en) Polyhedron generating method and apparatus thereof, and storage medium for storing the method
US6756989B1 (en) Method, system, and computer program product for filtering a texture applied to a surface of a computer generated object
CN115701305A (en) Shadow screening
KR20180023856A (en) Graphics processing systems and graphics processors
Huang et al. Interactive illustrative rendering on mobile devices

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18918219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18918219

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 20/05/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18918219

Country of ref document: EP

Kind code of ref document: A1