WO2023128308A1 - 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템 - Google Patents

메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템 Download PDF

Info

Publication number
WO2023128308A1
WO2023128308A1 PCT/KR2022/018845 KR2022018845W WO2023128308A1 WO 2023128308 A1 WO2023128308 A1 WO 2023128308A1 KR 2022018845 W KR2022018845 W KR 2022018845W WO 2023128308 A1 WO2023128308 A1 WO 2023128308A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
user image
image data
metaverse
office environment
Prior art date
Application number
PCT/KR2022/018845
Other languages
English (en)
French (fr)
Inventor
김대욱
김대호
제성철
이도행
최용재
Original Assignee
주식회사 직방
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 직방 filed Critical 주식회사 직방
Publication of WO2023128308A1 publication Critical patent/WO2023128308A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting

Definitions

  • the present invention relates to a method for controlling user image data in a metaverse-based office environment, and more particularly, in constructing an office environment in a three-dimensional virtual space based on a metaverse, a character (avatar) connected to the office environment
  • a metaverse a character connected to the office environment
  • the present invention can intuitively check the distance to each user by adjusting the output size of the user image of the remote user based on the relative spatial information between the user (local user) and other users (remote user). , It is about a user image data control method in a metaverse-based office environment that can improve the degree of concentration for relatively close users.
  • Metabus is a compound word of the English word 'Meta', which means 'virtual' and 'transcendence', and 'Universe', which means the universe.
  • Metaverse is a concept that has evolved one step further from virtual reality (VR, a cutting-edge technology that allows people to experience the same as real life in a virtual world created by a computer). It is characterized by being able to do social and cultural activities between members (avatars) like in reality.
  • VR virtual reality
  • virtual reality refers to an interface between a human and a computer that creates a specific environment or situation with a computer and makes it as if a person using it is interacting with a real surrounding situation or environment.
  • This virtual reality is mainly intended to allow people to show and manipulate as if they are in an environment that is difficult to experience on a daily basis without directly experiencing it, and its application fields are games, education, advanced programming, remote control, and remote satellites These include surface exploration, exploration data analysis, and scientific visualization.
  • metaverse refers to creating a certain environment or situation by a computer, and making social ties between users more active in this environment or situation.
  • Korean Patent Laid-Open Publication No. 10-2019-0062045, 'Method and Apparatus for Implementing Virtual Conference' (hereinafter referred to as 'prior art'), which is a prior art document, overlaps a part of the user's body with a video in which a virtual conference is held. This is to implement a virtual conference space with increased realism by displaying the virtual conference room.
  • conversation which is one of the most important things in communication between members (people) in the real world, has a more accurate meaning by additionally confirming visual information such as facial expressions, tones, and gestures in addition to voice information of the conversation itself. will convey information.
  • the prior art remains at the level of simply communicating through text online, and has a problem in that it does not improve the bond between members like in the real world.
  • the present invention in building an office environment in a three-dimensional virtual space based on the metaverse, the current situation of the participant (user) corresponding to the character (avatar) connected to the office environment is displayed in real time.
  • the purpose is to provide a user image data control method in a metaverse-based office environment that can greatly improve social ties in virtual space that metaverse pursues by filming and overlapping virtual images.
  • the present invention can intuitively check the distance to each user by adjusting the output size of the user image of the remote user based on the relative spatial information between the user (local user) and other users (remote user).
  • the purpose of this study is to provide a user image data control method in a metaverse-based office environment that can improve the degree of concentration for relatively close users.
  • the present invention simply receives image data of an image camera captured at a remote location, places it in a two-dimensional shape at the character's head position in a three-dimensional virtual space, and replaces the character's face with real-time image data of a user.
  • the purpose of this study is to provide a user image data control method in a metaverse-based office environment that can simultaneously deliver additional information based on the other person's facial expression or behavior without limiting the conversation by text.
  • the method for controlling user image data in a metaverse-based office environment checks a camera viewpoint of a local user in a virtual space, and has a conversation with the local user in the virtual area of the camera viewpoint.
  • a user image matching step of matching a user image captured in real time with the avatar of each remote user included in the group;
  • a relationship information checking step of verifying relationship information including a relationship value between the local user and the remote user based on the relative spatial information of the local user and the remote user; and a user image adjusting step of adjusting a user image of a corresponding remote user based on the relationship information.
  • the relative spatial information includes a relative distance between a local user and a remote user
  • the relation value includes a distance coefficient according to the relative distance
  • the user image adjusting step is based on the distance coefficient between the local user and the remote user Based on this, it is possible to adjust the size of the user image of the corresponding remote user.
  • the size change of the user image by the distance coefficient may change at a rate smaller than the size change rate of the avatar matched with the remote user.
  • the minimum size of the user image may be greater than the minimum size that guarantees visibility.
  • the relative spatial information includes a relative direction between a local user and a remote user
  • the relation value includes a direction coefficient according to the relative direction. Based on this, it is possible to adjust the size of the user image of the corresponding remote user.
  • the size change of the user image by the direction coefficient may change at a rate smaller than the size change rate of the avatar matched with the remote user.
  • the maximum size of the user image may be smaller than the maximum size that ensures a balance between the virtual image and the user image.
  • the relative spatial information includes a relative direction between a local user and a remote user
  • the relation value includes a direction coefficient according to the relative direction. Based on this, it is possible to adjust the size of the user image of the corresponding remote user.
  • the relative spatial information includes camera location information
  • the relationship value includes camera coefficients according to the camera location information
  • the user image adjusting step is based on the camera coefficients between the local user and the remote user. The user image size of the corresponding remote user can be adjusted.
  • the relative spatial information includes the relative distance and direction between the local user and the remote user, and the location information of the camera. It is calculated based on at least two coefficients among camera coefficients according to the information, and in the adjusting of the user image, the size of the user image of the corresponding remote user may be adjusted based on the relational value.
  • the user image matching step may include a target coordinate checking step of confirming 2-dimensional coordinates on which the head position of the corresponding avatar is projected in the virtual image of the camera coordinate system onto which the virtual space of the 3-dimensional coordinate system is projected; and a user image overlapping step of overlapping the corresponding user image with the 2D coordinates of the corresponding virtual image.
  • the target coordinate checking step may include an avatar position checking step of checking the position of the corresponding avatar in a 3D virtual space; a relative positioning step of calculating the relative position of the head in the skeletal structure of the corresponding avatar; Head positioning step of calculating the 3D coordinates of the head by applying the relative position to the 3D coordinates of the corresponding avatar; and a projection coordinate checking step of checking the two-dimensional coordinates on which the avatar's head position is projected.
  • a chat group checking step of checking a camera viewpoint of a target user in a virtual space and checking whether or not a chat group for users included in the virtual image of the corresponding camera viewpoint is included is further included. can do.
  • the dialogue group checking step may include a space area checking step of checking a space area partitioned by setting in the virtual space; and a conversation group determination step of determining a user located in the same spatial area as the target user as a conversation group.
  • a conversation group participation limit is set in at least a part of the space area including the security area in the virtual space, and among users located in the space area, the right to participate in the conversation is removed, the conversation group participation permission is removed. can be excluded from the group.
  • the present invention includes a storage medium on which a program for executing the user image data control method in the metaverse-based office environment is recorded.
  • the present invention includes a user image data control system including the storage medium in a metaverse-based office environment.
  • the present invention in constructing an office environment in a three-dimensional virtual space based on the metaverse, displays the current situation of the participant (user) corresponding to the character (avatar) connected to the office environment in real time.
  • the present invention can intuitively check the distance to each user by adjusting the output size of the user image of the remote user based on the relative spatial information between the user (local user) and other users (remote user). , it has the advantage of improving the degree of concentration for relatively close users.
  • the present invention simply receives image data of a video camera photographed at a remote location, places it in a two-dimensional shape at the character's head position in a three-dimensional virtual space, and replaces the character's face with real-time image data of a user. It has the advantage of being able to simultaneously deliver additional information by the other person's facial expression or behavior without limiting the conversation by text.
  • the present invention has the advantage of being able to deliver information with a more accurate meaning by additionally confirming visual information such as expressions, tones, and gestures between users in addition to voice information of the conversation itself.
  • the present invention can provide the same level of conversation as when each member (user) connects online, but meets and talks in person in the real world, and through this, the relationship between members can be greatly improved. there is.
  • the present invention sets up a chat group that satisfies certain conditions among users accessing a virtual space and allows conversation only within the chat group, thereby solving problems such as information leakage that occur in the process of transmitting information. has the advantage of preventing
  • FIG. 1 is a flowchart illustrating an embodiment of a method for controlling user image data in a metaverse-based office environment according to the present invention.
  • FIG. 2 is a flowchart illustrating a specific embodiment of FIG. 1 .
  • FIG. 3 is a diagram explaining FIG. 2 .
  • FIG. 4 is a flowchart illustrating another specific embodiment of FIG. 1 .
  • FIG. 5 is a diagram explaining FIG. 4 .
  • FIG. 6 and 7 are flowcharts illustrating further specific embodiments of FIG. 1 .
  • step 'S100' shown in FIG. 1 .
  • step 'S110' shown in FIG. 8 .
  • FIG. 10 is a flowchart illustrating another embodiment of FIG. 1 .
  • FIG. 11 is a diagram illustrating an embodiment of a virtual image in which a user image is adjusted according to FIG. 1 .
  • the user image data control method in the metaverse-based office environment of the present invention can be operated in a server/client system on the Internet, and the configuration for executing the method is a desktop, workstation, or It can be any one of a fixed computing device such as a server, and in addition, a smart phone, a laptop, a tablet, a phablet, and a portable multimedia player. , PMPs), personal digital assistants (PDAs), or e-book readers.
  • PMPs personal digital assistants
  • e-book readers e-book readers.
  • the user image data control method in the metaverse-based office environment of the present invention can be executed in at least one configuration of a server or a client in a server/client system, and the process by the method while at least two configurations are linked. can be divided according to the operation method and distributed.
  • the client may include a user terminal used by the user as well as a manager terminal excluding the server.
  • first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
  • a component when referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. there is.
  • FIG. 1 is a flowchart illustrating an embodiment of a method for controlling user image data in a metaverse-based office environment according to the present invention.
  • the method for controlling user image data in a metaverse-based office environment includes a user image matching step (S100), a relationship information checking step (S200), and a user image adjusting step (S300).
  • the present invention goes through a process of identifying users (group users) who can interact with the target user (person), confirms the camera viewpoint of the target user in a virtual space, It is possible to check whether or not the chat group for the users included in the video is included.
  • the camera viewpoint may be based on the target user's avatar or the rear upper part of the target user's avatar
  • the virtual space may be formed based on the 3D coordinate system
  • the virtual image shown in FIG. 11 is based on the camera viewpoint. It is an image output to a user's terminal, as shown, and refers to an image in which three-dimensional coordinates of a virtual space are projected in two dimensions.
  • the conversation group confirmation step (S10) at least some users to be included in the conversation group can be identified according to a predetermined condition among the avatars displayed on the terminal of the target user.
  • the camera viewpoint of the local user (yourself) is confirmed in the virtual space, and the avatars of the local user and each remote user (other users) included in the conversation group in the virtual area of the corresponding camera viewpoint are mapped to each other.
  • a user image of a corresponding user may be matched to an avatar's head.
  • the relation information checking step (S200) is a process of checking relation information including a relation value between the local user and the remote user based on the relative spatial information of the local user and the remote user, which will be described in more detail below.
  • the user image adjusting step (S300) is a process of adjusting the user image of the corresponding remote user based on the relationship information.
  • the closeness (relationship value) is high, the user image can be enlarged, and when the closeness is low, the user image can be enlarged. can be scaled down
  • FIG. 2 is a flowchart illustrating a specific embodiment of FIG. 1
  • FIG. 3 is a diagram illustrating FIG. 2 .
  • the relative distance between the local user and the remote user is checked among the relative spatial information (S211), and a distance coefficient according to the relative distance among the relation values can be calculated (S212).
  • the distance coefficient for remote user 1 which is the maximum distance away from the local user
  • the distance coefficient for remote user 2 which is the minimum distance away from the local user, is 1. It can be.
  • the user image size of the corresponding remote user may be adjusted (S312). For example, when the distance coefficient is 0, the size of the user image can be minimized, and when the distance coefficient is 1, the size of the user image can be maximized.
  • the remote user's avatar may become excessively small, resulting in reduced visibility.
  • the visibility of the corresponding user image may also decrease, which means that communication between members, which is one of the objects of the present invention, is deteriorated.
  • the size change of the user image by the distance coefficient is changed at a rate smaller than the size change rate of the avatar matched with the remote user, and in particular, the minimum size of the user image is not smaller than the minimum size that guarantees visibility. By not doing so, visibility of the user image can be sufficiently guaranteed.
  • the size of the avatar changes in the range of 1 to 0.2 based on the maximum size according to the change in the distance coefficient .
  • the size of the user image can be set to change in the range of 1 to 0.7 based on the maximum size.
  • FIG. 4 is a flowchart illustrating another specific embodiment of FIG. 1
  • FIG. 5 is a diagram illustrating FIG. 4 .
  • the relative direction between the local user and the remote user is checked among the relative spatial information (S221), and the direction coefficient according to the relative direction among the relation values can be calculated (S222).
  • the similarity between the local user and the remote user may be -1.
  • the similarity between the local user and the remote user may be zero.
  • the similarity between the local user and the remote user may be zero.
  • the degree of similarity between the local user and the remote user may be 1.
  • the degree of similarity may include a cosine (Cos ⁇ ) value according to the location of the camera and the remote user based on the local user.
  • the user image size of the corresponding remote user can be adjusted (S322).
  • the size of the user image can be adjusted according to the corresponding cosine value by minimizing the similarity when the similarity is -1 and maximizing the similarity when the similarity is 1.
  • the size (ratio) occupied by the corresponding user image may be limited to maintain a balance with other user images or objects.
  • the size of the user image is made within a range in which visibility is guaranteed, so the minimum size of the user image, which decreases according to the change in the direction coefficient, guarantees visibility.
  • the minimum size of the user image which decreases according to the change in the direction coefficient, guarantees visibility.
  • it can be set to be larger than the minimum size required.
  • the size of the user image which decreases as the remote user moves away from the local user, is restricted so that it does not decrease below a certain size, and in FIG.
  • By limiting the size of the image so that it does not increase beyond a certain size it is possible to maintain the balance between the virtual image (full image) and the user image as well as securing visibility.
  • FIG. 6 to 8 are flowcharts illustrating further specific embodiments of FIG. 1 .
  • the position and movement of the camera among the relative spatial information may be checked (S231), and the camera coefficient according to the position and movement of the camera among the relational values may be calculated (S232). .
  • the size of the user image of the corresponding remote user may be adjusted based on the camera coefficient between the local user and the remote user (S331). For example, when the camera moves while being covered by a wall, etc., the user image can be minimized.
  • a relationship value may be calculated based on each coefficient (S341).
  • the relationship value may be calculated based on at least two coefficients among a distance coefficient, a direction coefficient, and a camera coefficient.
  • the user image size of the corresponding remote user may be adjusted (S342).
  • step 'S100' shown in FIG. 1 .
  • the user image matching step (S100) includes a target coordinate checking step (S110) and a user image overlapping step (S120).
  • the head position of the avatar is projected in the virtual image of the camera coordinate system in which the virtual space of the three-dimensional coordinate system in which the metaverse-based office environment is constructed is projected onto the display of the user terminal used by the user. Performs the process of checking the two-dimensional coordinates to be
  • a 3-dimensional image corresponding to the head of the avatar located in a 3-dimensional virtual space is obtained.
  • Two-dimensional coordinates obtained by converting the coordinates into the two-dimensional coordinate system of the virtual image, which is a projected flat image, are calculated.
  • the corresponding user image is overlapped with the two-dimensional coordinates of the corresponding virtual image.
  • step 'S110' shown in FIG. 8 .
  • the position of the avatar matched with the target user can be checked in the 3D virtual space (S111).
  • the initial location of the avatar upon login may be a location upon previous logout or may include a set fixed location (eg, the front door of a virtual office).
  • the reference position of the avatar and the relative position of the head are calculated (S112), and the 3D coordinates of the head can be calculated by applying the relative position to the 3D coordinates of the avatar (S113).
  • the avatar may be set in various forms by the target user.
  • the avatar setting information checking step of checking the setting information on the avatar of the corresponding group user confirmed in the conversation group checking step may be performed.
  • the setting information of the corresponding group user is checked to confirm the external characteristics (skeleton) of the matched avatar, and based on this, the avatar's head is checked.
  • a relative position for can be calculated (S112).
  • the three-dimensional coordinates of the avatar's head position are checked (S113), the two-dimensional coordinates on which the avatar's head position is projected are checked, and the head (target) position of the avatar displayed on the virtual image can be checked. (S114).
  • FIG. 10 is a flowchart illustrating another embodiment of FIG. 1 .
  • the method for controlling user image data in a metaverse-based office environment of the present invention may further include a conversation group check step (S10), which includes a space area check step (S11). ) and a conversation group determination step (S12).
  • a conversation group check step S10
  • S11 space area check step
  • S12 conversation group determination step
  • the space area checking step (S11) it is possible to check the space area partitioned for each setting in the virtual space.
  • space areas partitioned by purpose can be identified.
  • the space of the virtual office may be divided into an area included in the camera's point of view and an area not included.
  • the purpose of the metaverse-based office environment of the present invention is to build similarly to the real world, one company can use one building created in the virtual space, or in some cases a large number of companies or individuals can use it together.
  • the right to form a conversation group (the right to participate in a conversation) is basically given to all users belonging to the entire space (the entire building), and the conversation is performed by the method described above. You can have them join or leave the group.
  • a meeting room of a specific company grants permission to participate in conversations only to users who are employees of the company or to users who are business partners, thereby preventing the contents of the conversation from being leaked to users who are not related to work. This can be done to improve security.
  • conversation participation permission may be granted so that all users can participate in conversation, as in the real world.
  • the method for controlling user image data in a metaverse-based office environment according to the present invention described above may be implemented as computer-readable code on a computer-readable recording medium.
  • the computer-readable recording medium includes all types of recording devices storing data that can be read by a computer system.
  • the computer-readable recording medium may include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.
  • the computer-readable recording medium may be distributed to computer systems connected through a network, so that computer-readable codes may be stored and executed in a distributed manner.
  • the present invention can be utilized in metaverse fields, virtual reality fields, and virtual office fields, as well as similar or related fields, and can improve reliability and competitiveness in those fields.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Information Transfer Between Computers (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법에 관한 것으로, 보다 상세하게는 가상공간에서 로컬유저의 카메라시점을 확인하고, 로컬유저와 해당 카메라시점의 가상영역 내의 대화그룹에 포함된 각 원격유저의 아바타에, 해당 원격유저를 실시간으로 촬영한 유저영상을 매칭하는 유저영상 매칭단계; 상기 로컬유저와 원격유저의 상대적공간정보에 기초하여, 로컬유저와 원격유저간의 관계값을 포함하는 관계정보를 확인하는 관계정보 확인단계; 및 상기 관계정보에 기초하여 해당 원격유저의 유저영상을 조절하는 유저영상 조절단계;를 포함하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법에 관한 것이다.

Description

메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템
본 발명은 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법에 관한 것으로서, 보다 상세하게는 메타버스 기반으로 3차원 가상공간에 오피스환경을 구축함에 있어, 해당 오피스환경에 접속한 캐릭터(아바타)에 해당하는 참여자(유저)의 현재상황을 실시간으로 촬영하여 가상영상에 오버랩함으로써, 메타버스가 추구하는 가상공간에서의 사회적 유대관계를 크게 향상시킬 수 있도록 한 것이다.
특히, 본 발명은 본인(로컬유저)과 다른 유저(원격유저) 간의 상대적인 공간정보에 기초하여, 원격유저의 유저영상이 출력되는 크기를 조절함으로써, 각 유저들과의 거리를 직관적으로 확인할 수 있으며, 상대적으로 근접한 유저에 대한 집중도를 향상시킬 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법에 관한 것이다.
메타버스 '가상', '초월' 등을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회적활동이 이뤄지는 3차원의 가상세계를 말한다.
메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 구성원(아바타) 간의 사회적, 문화적 활동 등을 할 수 있다는 특징이 있다.
한편, 가상현실은 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 말한다.
이러한 가상현실은 주로 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고서도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 해주기 위한 것으로, 응용분야는 게임, 교육, 고급 프로그래밍, 원격조작, 원격위성 표면탐사, 탐사자료 분석, 과학적 시각화(Scientific visualization) 등이다.
결과적으로, 메타버스는 컴퓨터에 의해 어떤 특정한 환경이나 상황을 만들고, 이러한 환경이나 상황 속에서 유저들 간의 사회적 유대관계가 보다 적극적으로 이어질 수 있도록 한 것을 말한다고 볼 수 있다.
최근 들어, IT인프라와 사회적인 발전, 그리고 보건위기 등의 다양한 이유로 인해 재택근무가 활성화됨에 따라, 이러한 메타버스 기반의 가상오피스환경에서 업무를 수행하는 방법들이 개발되고 있다.
하기의 선행기술문헌인 대한민국 공개특허공보 제10-2019-0062045호 '가상 회의 구현 방법 및 장치'(이하 '선행기술'이라 한다)는, 가상회의가 진행되는 영상에 사용자의 신체 중 일부를 오버랩하여 디스플레이 함으로써, 현실감이 증가된 가상 회의 공간을 구현하기 위한 것이다.
그러나, 선행기술에서 오버랩되는 유저의 이미지는 정지상태의 사진과 같은 이미지이므로, 유저들이 대화하는 과정에서 텍스트 이상의 향상된 정보(표정이나 행동 등에 의한 정보)가 전달된다고 하기에는 무리가 있다.
일반적으로, 현실세계에서의 구성원(사람)간의 커뮤니케이션에 있어서 가장 중요한 것 중 하나인 대화는, 대화 자체의 음성정보에 더하여 표정이나, 성조, 몸짓 등의 시각정보를 추가적으로 확인함으로써, 보다 정확한 의미의 정보를 전달하게 된다.
이로 인해, 채팅과 같은 텍스트에 의한 대화에서, 문장 자체만으로 오해를 유발할 수 있기 때문에, 다양한 이모티콘 등을 함께 사용하여 대화하게 되지만, 이러한 이모티콘 만으로는 정확한 의미나 느낌을 충분히 전달하는데 한계가 있었다.
다시 말해, 선행기술은 온라인상에서 단순히 텍스트에 의해 대화하는 정도의 수준에 머무르는 것으로, 현실세계와 같은 구성원간의 유대감을 향상시키지는 못한다는 문제점이 있다.
더욱이, 선행기술은 단지 컴퓨터상에서 사무실이미지를 배경으로 하여, 각 유저들의 이미지를 단순히 오버랩한 것으로, 가상공간을 배경으로 하지는 않기 때문에, 그 기술분야가 가상현실을 기반으로 한다고 하기에는 무리가 있다.
상기와 같은 문제점을 해결하기 위해서, 본 발명은 메타버스 기반으로 3차원 가상공간에 오피스환경을 구축함에 있어, 해당 오피스환경에 접속한 캐릭터(아바타)에 해당하는 참여자(유저)의 현재상황을 실시간으로 촬영하여 가상영상에 오버랩함으로써, 메타버스가 추구하는 가상공간에서의 사회적 유대관계를 크게 향상시킬 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법을 제공하는데 목적이 있다.
특히, 본 발명은 본인(로컬유저)과 다른 유저(원격유저) 간의 상대적인 공간정보에 기초하여, 원격유저의 유저영상이 출력되는 크기를 조절함으로써, 각 유저들과의 거리를 직관적으로 확인할 수 있으며, 상대적으로 근접한 유저에 대한 집중도를 향상시킬 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법을 제공하는데 목적이 있다.
또한, 본 발명은 원격지점에서 촬영된 화상카메라의 영상데이터를 수신하여 3차원 가상공간의 캐릭터 머리위치에 2차원형상으로 위치시켜, 캐릭터의 얼굴을 실시간 촬영된 유저의 영상데이터로대체함으로써, 단순히 텍스트에 의한 대화에 제한하지 않고 상대방의 표정이나 행동에 의한 추가적인 정보를 동시에 전달할 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법을 제공하는데 목적이 있다.
상기와 같은 목적을 달성하기 위해서, 본 발명에 따른 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법은, 가상공간에서 로컬유저의 카메라시점을 확인하고, 로컬유저와 해당 카메라시점의 가상영역 내의 대화그룹에 포함된 각 원격유저의 아바타에, 해당 원격유저를 실시간으로 촬영한 유저영상을 매칭하는 유저영상 매칭단계; 상기 로컬유저와 원격유저의 상대적공간정보에 기초하여, 로컬유저와 원격유저간의 관계값을 포함하는 관계정보를 확인하는 관계정보 확인단계; 및 상기 관계정보에 기초하여 해당 원격유저의 유저영상을 조절하는 유저영상 조절단계;를 포함한다.
또한, 상기 상대적공간정보는 로컬유저와 원격유저 간의 상대적거리를 포함하고, 상기 관계값은 상대적거리에 따른 거리계수를 포함하며, 상기 유저영상 조절단계는, 상기 로컬유저와 원격유저 간의 거리계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절할 수 있다.
또한, 유저영상 조절단계는, 상기 거리계수에 의한 유저영상의 크기변화가, 원격유저와 매칭된 아바타의 크기변화비율보다 작은 비율로 변화할 수 있다.
또한, 상기 유저영상 조절단계에서, 상기 유저영상의 최소크기는 가시성을 보장하는 최소크기보다 클 수 있다.
또한, 상기 상대적공간정보는 로컬유저와 원격유저 간의 상대적방향을 포함하고, 상기 관계값은 상대적방향에 따른 방향계수를 포함하며, 상기 유저영상 조절단계는, 상기 로컬유저와 원격유저 간의 방향계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절할 수 있다.
또한, 상기 유저영상 조절단계는, 상기 방향계수에 의한 유저영상의 크기변화가, 원격유저와 매칭된 아바타의 크기변화비율보다 작은 비율로 변화할 수 있다.
또한, 상기 유저영상 조절단계에서, 상기 유저영상의 최대크기는 가상영상과 유저영상 간의 밸런스를 보장하는 최대크기보다 작을 수 있다.
또한, 상기 상대적공간정보는 로컬유저와 원격유저 간의 상대적방향을 포함하고, 상기 관계값은 상대적방향에 따른 방향계수를 포함하며, 상기 유저영상 조절단계는, 상기 로컬유저와 원격유저 간의 방향계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절할 수 있다.
또한, 상기 상대적공간정보는 카메라의 위치정보을 포함하고, 상기 관계값은 카메라의 위치정보에 따른 카메라계수를 포함하며, 상기 유저영상 조절단계는, 상기 로컬유저와 원격유저 간의 카메라계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절할 수 있다.
또한, 상기 상대적공간정보는, 로컬유저와 원격유저 간의 상대적거리 및 상대적방향, 카메라의 위치정보를 포함하며, 상기 관계값은, 상대적거리에 따른 거리계수, 상대적방향에 따른 방향계수, 카메라의 위치정보에 따른 카메라계수 중 적어도 두 개의 계수에 기초하여 산출되며, 상기 유저영상 조절단계는, 상기 관계값에 기초하여, 해당 원격유저의 유저영상 크기를 조절할 수 있다.
또한, 상기 유저영상 매칭단계는, 3차원좌표계의 가상공간이 투영되는 카메라좌표계의 가상영상에서, 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 타겟좌표확인단계; 및 해당 가상영상의 2차원좌표에 해당 유저영상을 오버랩하는 유저영상오버랩단계;를 포함할 수 있다.
또한, 상기 타겟좌표확인단계는, 3차원 가상공간에서 해당 아바타의 위치를 확인하는 아바타위치확인단계; 해당 아바타의 뼈대구조에서 머리의 상대위치를 계산하는 상대위치확인단계; 해당 아바타의 3차원좌표에 상대위치를 적용하여 머리의 3차원좌표를 계산하는 머리위치확인단계; 및 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 투영좌표확인단계;를 포함할 수 있다.
또한, 상기 유저영상 매칭단계 이전에, 가상공간에서 대상유저의 카메라시점을 확인하고, 해당 카메라시점의 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인하는 대화그룹 확인단계;를 더 포함할 수 있다.
또한, 상기 대화그룹 확인단계는, 상기 가상공간에서 설정별로 구획된 공간영역을 확인하는 공간영역확인단계; 및 상기 대상유저와 같은 공간영역에 위치한 유저를 대화그룹으로 판단하는 대화그룹판단단계;를 포함할 수 있다.
또한, 상기 대화그룹판단단계는, 상기 가상공간 중 보안영역을 포함하는 적어도 일부의 공간영역에 대화그룹참여제한을 설정하고, 해당 공간영역에 위치한 유저들 중 대화참여권한이 제거된 유저는 해당 대화그룹에서 제외할 수 있다.
또한, 본 발명은 상기의 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법을 실행하는 프로그램이 기록된 저장매체를 포함한다.
또한, 본 발명은 메타버스 기반의 오피스 환경에서 상기 저장매체를 포함하는 유저영상데이터 제어 시스템을 포함한다.
상기와 같은 해결수단에 의해, 본 발명은 메타버스 기반으로 3차원 가상공간에 오피스환경을 구축함에 있어, 해당 오피스환경에 접속한 캐릭터(아바타)에 해당하는 참여자(유저)의 현재상황을 실시간으로 촬영하여 가상영상에 오버랩함으로써, 메타버스가 추구하는 가상공간에서의 사회적 유대관계를 크게 향상시킬 수 있는 장점이 있다.
특히, 본 발명은 본인(로컬유저)과 다른 유저(원격유저) 간의 상대적인 공간정보에 기초하여, 원격유저의 유저영상이 출력되는 크기를 조절함으로써, 각 유저들과의 거리를 직관적으로 확인할 수 있으며, 상대적으로 근접한 유저에 대한 집중도를 향상시킬 수 있는 장점이 있다.
또한, 본 발명은 원격지점에서 촬영된 화상카메라의 영상데이터를 수신하여 3차원 가상공간의 캐릭터 머리위치에 2차원형상으로 위치시켜, 캐릭터의 얼굴을 실시간 촬영된 유저의 영상데이터로 대체함으로써, 단순히 텍스트에 의한 대화에 제한하지 않고 상대방의 표정이나 행동에 의한 추가적인 정보를 동시에 전달할 수 있는 장점이 있다.
이를 통해 본 발명은 대화 자체의 음성정보와 더불어, 유저들 간의 표정이나, 성조, 몸짓 등의 시각정보를 추가적으로 확인함으로써, 보다 정확한 의미의 정보를 전달할 수 있는 장점이 있다.
결과적으로, 본 발명은 각각의 구성원(유저)들이 온라인 상에서 접속하고 있으나, 실제 현실세계에서 직접 만나서 이야기 하는 것과 동일한 수준의 대화레벨을 제공할 수 있으며, 이를 통해 구성원 간의 유대관계를 크게 향상시킬 수 있다.
또한, 본 발명은 가상공간에 접속한 유저들 중 일정조건을 만족하는 대화그룹을 설정하고, 해당 대화그룹 내에서만 대화가 가능하도록 함으로써, 정보를 전달하는 과정에서 발생하는 정보유출 등의 문제를 미연에 방지할 수 있는 장점이 있다
특히, 현실세계에서도 대화의 내용을 다른 사람들이 듣는 경우가 발생하여 정보가 유출되고 확산되며, 심한 경우 루머 등을 만들게 되지만, 본 발명에서는 이러한 문제점을 원천적으로 방지할 수 있다.
도 1은 본 발명에 의한 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법의 일 실시예를 나타내는 흐름도이다.
도 2는 도 1의 구체적인 일 실시예를 나타내는 흐름도이다.
도 3은 도 2를 설명하는 도면이다.
도 4는 도 1의 구체적인 다른 일 실시예를 나타내는 흐름도이다.
도 5는 도 4를 설명하는 도면이다.
도 6 및 도 7은 도 1의 구체적인 또 다른 실시예들을 나타내는 흐름도이다.
도 8은 도 1에 나타난 단계 'S100'의 구체적인 일 실시예를 나타내는 흐름도이다.
도 9는 도 8에 나타난 단계 'S110'의 구체적인 일 실시예를 나타내는 흐름도이다.
도 10은 도 1의 다른 일 실시예를 나타내는 흐름도이다.
도 11은 도 1에 의해 유저영상이 조절된 가상영상의 일 실시예를 나타내는 도면이다.
본 발명에 따른 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시 예에 대해 설명하기로 한다.
먼저, 본 발명의 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법은, 인터넷 상의 서버/클라이언트 시스템에서 운용이 가능하며, 해당 방법을 실행하는 구성으로는 데스크탑(Desktop), 워크스테이션(Workstation) 또는 서버(Server)와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으며, 이 외에도 스마트폰(Smart phone), 랩탑(Laptaop), 태블릿(Tablet), 패블릿(Phablet), 휴대용 멀티미디어 재생장치(Portable Multimedia Player, PMP), 개인용 휴대 단말기(Personal Digital Assistants, PDA) 또는 전자책 단말기(E-book reader)과 같은 이동식 컴퓨팅 장치 중 어느 하나가 될 수도 있다.
또한, 본 발명의 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법은, 서버/클라인언트 시스템에서 서버 또는 클라이언트 중 적어도 하나의 구성에서 실행될 수 있으며, 적어도 두 개의 구성이 연동하면서 해당 방법에 의한 프로세스를 운용방식에 따라 분할하여 분산실행할 수 있다. 이때, 클라이언트는 사용자가 사용하는 사용자단말기는 물론 서버를 제외한 관리자단말기를 포함할 수 있음은 물론이다.
또한, 본 발명을 설명하는 과정에서 사용되는 기술적 용어는, 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 함은 당연하다.
또한, 본 발명을 설명하면서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 한다.
또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 발명을 설명하면서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
또한, '구성된다' 또는 '가지다' 등의 용어는 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 해당 구성 요소들은 해당 용어들에 의해 한정되어서는 안 되며, 해당 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용됨은 당연하다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
또한, 어떤 구성 요소가 다른 구성 요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다.
반면에, 어떤 구성요소가 다른 구성 요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명을 설명함에 있어, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략할 수 있다.
또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 되며, 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.
도 1은 본 발명에 의한 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법의 일 실시예를 나타내는 흐름도이다.
도 1을 참조하면, 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법은 유저영상 매칭단계(S100), 관계정보 확인단계(S200) 및 유저영상 조절단계(S300)을 포함한다.
먼저, 본 발명은 메타버스 기반의 오피스 환경에서, 대상유저(본인)과 대화가능한 유저(그룹유저)들을 확인하는 과정을 거치며, 가상공간에서 대상유저의 카메라시점을 확인하고, 해당 카메라시점의 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인할 수 있다.
여기서, 카메라시점은 대상유저의 아바타 또는 대상유저의 아바타의 후방상부를 기준으로 할 수 있고, 가상공간은 3차원좌표계를 기준으로 형성될 수 있으며, 가상영상은 카메라시점을 기준으로 도 11에 나타난 바와 같이 유저의 단말기에 출력되는 영상으로, 가상공간의 3차원좌표가 2차원으로 투영된 영상을 말한다.
결과적으로, 대화그룹 확인단계(S10)는 대상유저의 단말기에 디스플레이되는 아바타 중 일정한 조건에 의해 대화그룹에 포함될 적어도 일부의 유저들을 확인할 수 있다.
유저영상 매칭단계(100)는 가상공간에서 로컬유저(본인)의 카메라시점을 확인하고, 로컬유저와 해당 카메라시점의 가상영역 내의 대화그룹에 포함된 각 원격유저(다른 유저)의 아바타에, 해당 원격유저를 실시간으로 촬영한 유저영상을 매칭하는 과정으로, 보다 구체적으로는 도 11에 나타난 바와 같이 아바타의 머리에 해당 유저의 유저영상을 매칭할 수 있다.
관계정보 확인단계(S200)는 로컬유저와 원격유저의 상대적공간정보에 기초하여, 로컬유저와 원격유저간의 관계값을 포함하는 관계정보를 확인하는 과정이며, 이하에서 보다 구체적으로 살펴보기로 한다.
유저영상 조절단계(S300)는 관계정보에 기초하여 해당 원격유저의 유저영상을 조절하는 과정으로, 긴밀성(관계값)이 높은 경우에는 유저영상을 확대할 수 있고, 긴밀성이 낮은 경우에는 유저영상을 축소할 수 있다.
도 2는 도 1의 구체적인 일 실시예를 나타내는 흐름도이고, 도 3은 도 2를 설명하는 도면이다.
도 2를 참조하면, 관계정보 확인단계(S200)에서 상대적공간정보 중 로컬유저와 원격유저 간의 상대적거리를 확인하고(S211), 관계값 중 상대적거리에 따른 거리계수를 산출할 수 있다(S212). 예를 들어, 도 3에 나타난 바와 같이 로컬유저와 최대거리로 떨어져 있는 원격유저1에 대한 거리계수는 0이 될 수 있고, 로컬유저와 최소거리로 떨어져 있는 원격유저2에 대한 거리계수는 1이 될 수 있다.
이에, 유저영상 조절단계(S300)에서는, 로컬유저와 원격유저 간의 거리계수에 기초하여(S311), 해당 원격유저의 유저영상 크기를 조절할 수 있다(S312). 예를 들어, 거리계수가 0인 경우에는 유저영상의 크기를 최소화하고, 거리계수가 1인 경우에는 유저영상의 크기를 최대화할 수 있다.
한편, 로컬유저와 원격유저 간의 거리가 매우 먼 경우, 원격유저의 아바타가 과도하게 작아지면서 가시성이 저하되는 경우가 발생할 수 있다.
이때, 해당 아바타가 작아지는 비율에 대응하여 유저영상의 크기를 조절할 경우, 해당 유저영상의 가시성 또한 저하될 수 있으며, 이는 본 발명의 목적 중 하나인 구성원간의 커뮤니케이션이 저하된다는 것을 의미한다.
이에, 본 발명에서는 거리계수에 의한 유저영상의 크기변화가, 원격유저와 매칭된 아바타의 크기변화비율보다 작은 비율로 변화하도록 하며, 특히 유저영상의 최소크기는 가시성을 보장하는 최소크기보다 작아지지 않도록 함으로써, 유저영상에 대한 가시성을 충분히 보장하도록 할 수 있다.
예를 들어, 유저영상의 가시성을 보장하는 비율이 최대크기를 기준으로 0.7까지 작아진 상태인 경우, 거리계수의 변화에 따라 아바타의 크기가 최대크기를 기준으로 1 내지 0.2의 범위에서 변화하게 되면, 이에 대응하여 유저영상의 크기는 최대크기를 기준으로 1 내지 0.7의 범위에서 변화하도록 설정할 수 있다.
도 4는 도 1의 구체적인 다른 일 실시예를 나타내는 흐름도이고, 도 5는 도 4를 설명하는 도면이다.
도 4를 참조하면, 관계정보 확인단계(S200)에서 상대적공간정보 중 로컬유저와 원격유저 간의 상대적방향를 확인하고(S221), 관계값 중 상대적방향에 따른 방향계수를 산출할 수 있다(S222). 예를 들어, 도 5의 (a)에 나타난 바와 같이 원격유저가 로컬유저의 전방에 위치한 경우, 로컬유저와 원격유저의 유사도는 -1이 될 수 있다. 다른 예로, 도 5의 (b)에 나타난 바와 같이 로컬유저를 기준으로 원격유저와 카메라가 직각으로 위치한 경우, 로컬유저와 원격유저의 유사도는 0이 될 수 있다. 또 다른 예로, 도 5의 (c)에 나타난 바와 같이 로컬유저와 카메라 사이에 원격유저가 위치한 경우, 로컬유저와 원격유저의 유사도는 1이 될 수 있다. 여기서, 유사도는 로컬유저를 기준으로 원격유저와 카메라의 위치에 따른 코사인(Cosθ)값을 포함할 수 있다.
이에, 유저영상 조절단계(S300)에서는, 로컬유저와 원격유저 간의 방향계수에 기초하여(S321), 해당 원격유저의 유저영상 크기를 조절할 수 있다(S322). 예를 들어, 유저영상의 크기는 유사도가 -1인 경우를 최소로 하고 유사도가 1인 경우를 최대로 하여, 해당 코사인값에 따라 조절할 수 있다.
한편, 도 5와 같이 카메라의 시점에서 방향계수에 기초하여 유저영상의 크기를 조절하는 경우, 원격유저가 로컬유저와 카메라 사이에 위치하게 되면 해당 로컬유저의 유저영상의 크기가 증가하게 되는데, 이때 해당 유저영상이 과도하게 커지게 되면, 전체 가상영상에서 차지하는 영역이 넓어지고 그로 인해 다른 유저들이나 객체 등을 가리게 되는 문제가 발생할 수 있다.
이에, 도 5와 같이 방향계수에 의해 유저영상의 크기를 조절하는 경우에는, 도 5의 (c)와 같은 상황에서 해당 원격유저의 유저영상이 과도하게 커지는 것을 제한하는 것을 통해, 전체 가상영상에서 해당 유저영상이 차지하는 크기(비율)를 제한하여 다른 유저영상이나 객체들과의 밸런스를 유지하도록 조절할 수 있다.
또한, 도 5의 (a)의 경우에는, 앞서 살펴본 바와 같이 유저영상의 크기는 가시성이 보장되는 범위 내에서 이루어지는 것이 바람직하므로, 방향계수의 변화에 따라 작아지는 유저영상의 최소크기는 가시성을 보장하는 최소크기보다 크도록 설정할 수 있음은 물론이다.
결과적으로, 앞서 설명한 도 3에서는 원격유저가 로컬유저로부터 멀어짐에 따라 작아지는 유저영상의 크기가 일정크기 이하로 작아지지 않도록 제한하고, 도 5에서는 원격유저가 로컬유저의 후방으로 이동함에 따라 커지는 유저영상의 크기가 일정크기 이상으로 커지지 않도록 제한함으로써, 가시성의 확보와 더불어 가상영상(전체영상)과 유저영상 간의 밸런스를 유지할 수 있다.
도 6 내지 도 8은 도 1의 구체적인 또 다른 실시예들을 나타내는 흐름도이다.
도 6을 참조하면, 관계정보 확인단계(S200)에서 상대적공간정보 중 카메라의 위치 및 이동을 확인하고(S231), 관계값 중 카메라의 위치 및 이동에 따른 카메라계수를 산출할 수 있다(S232).
이에, 유저영상 조절단계(S300)에서는, 로컬유저와 원격유저 간의 카메라계수에 기초하여(S331), 해당 원격유저의 유저영상 크기를 조절할 수 있다(S332). 예를 들어, 카메라가 벽 등에 가려져 이동한 경우에는 유저영상을 최소화할 수 있다.
또한, 도 7에 나타난 바와 같이 앞서 설명한 로컬유저와 원격유저 간의 상대적거리 및 상대적방향, 카메라의 위치정보를 확인하고(S241), 거리계수, 방향계수, 카메라계수, 공간계수를 산출하며(S242), 각 계수들에 기초하여 관계값을 산출할 수 있다(S341). 예를 들어, 관계값은 거리계수, 방향계수, 카메라계수 중 적어도 두 개의 계수에 기초하여 산출될 수 있다.
이후, 산출된 관계값에 기초하여, 해당 원격유저의 유저영상 크기를 조절할 수 있다(S342).
도 8은 도 1에 나타난 단계 'S100'의 구체적인 일 실시예를 나타내는 흐름도이다.
도 8을 참조하면, 유저영상 매칭단계(S100)는 타겟좌표확인단계(S110) 및 유저영상오버랩단계(S120)를 포함한다.
타겟좌표확인단계(S110)는 메타버스 기반의 오피스 환경이 구축된 3차원좌표계의 가상공간이, 유저가 사용하는 유저단말기의 디스플레이로 투영되는 카메라좌표계의 가상영상에서, 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 과정을 수행한다.
예를 들어, 도 11에 나타난 바와 같이 아바타의 머리부분에 해당 유저의 유저영상을 오버랩할 경우, 타겟좌표확인단계(S110)에서는 3차원의 가상공간에 위치하는 아바타의 머리부분에 해당하는 3차원좌표를, 투영되는 평면영상인 가상영상의 2차원좌표계로 변환한 2차원좌표를 산출하게 된다.
이후, 유저영상오버랩단계(S120)에서, 해당 가상영상의 2차원좌표에 해당 유저영상을 오버랩하는 하게 된다.
예를 들어, 가상공간의 아바타 머리부분에 유저영상을 매칭한 후, 이를 디스플레이하게 되면, 아바타의 움직임에 따라 유저영상의 크기 등을 조절하는데 많은 연산을 필요로 하게 되는 바, 본 발명과 같이 3차원좌표를 2차원좌표로 변환하고 해당 2차원좌표에 유저영상을 매칭하게 되면, 해당 과정에서 좌표변환만 연산하면 되므로, 데이터의 연산량을 크게 줄일 수 있으며, 이를 통해 보다 쉽게 온라인상에서의 실시간처리가 가능하도록 할 수 있다.
이하에서는 3차원좌표를 2차원좌표로 변환하는 과정에 대해 보다 상세히 살펴보기로 한다.
도 9는 도 8에 나타난 단계 'S110'의 구체적인 일 실시예를 나타내는 흐름도이다.
먼저, 대상유저가 메타버스기반의 오피스 환경에 접속하게 되면, 3차원 가상공간에서 대상유저에 매칭된 아바타의 위치를 확인할 수 있다(S111).
이때, 로그인(Login)시 아바타의 처음 위치는 이전 로그아웃(Logout)시 위치이거나, 설정된 고정위치(예를 들어, 가상 오피스의 정문 등)를 포함할 수 있다.
그리고, 해당 아바타의 뼈대구조에서, 아바타의 기준위치와 머리의 상대위치를 계산하고(S112), 해당 아바타의 3차원좌표에 상대위치를 적용하여 머리의 3차원좌표를 계산할 수 있다(S113).
한편, 아바타는 대상유저에 의해 다양한 형태로 설정될 수 있다.
이에, 본 발명에서는 타겟좌표확인단계(S110) 이전에, 앞서 대화그룹 확인단계에서 확인된 해당 그룹유저의 아바타에 대한 설정정보를 확인하는 아바타설정정보확인단계를 수행할 수 있다.
다시 말해, 대화그룹 확인단계(S10)에서 대화그룹으로 확인된 그룹유저에 대하여, 해당 그룹유저의 설정정보를 확인하여 매칭된 아바타의 외형적 특징(골격)을 확인하고, 이에 기초하여 아바타의 머리에 대한 상대위치를 계산할 수 있다(S112).
이후, 해당 아바타의 머리위치에 대한 3차원좌표를 확인하고(S113), 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하여, 가상영상에 디스플레이되는 아바타의 머리(타겟) 위치를 확인할 수 있다(S114).
도 10은 도 1의 다른 일 실시예를 나타내는 흐름도이다.
도 10을 참조하면, 본 발명의 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법은 대화그룹 확인단계(S10)를 더 포함할 수 있으며, 대화그룹 확인단계(S10)는 공간영역확인단계(S11) 및 대화그룹판단단계(S12)을 포함할 수 있다.
먼저 공간영역확인단계(S11)에서는, 가상공간에서 설정별로 구획된 공간영역을 확인할 수 있다. 예를 들어, 가상 오피스의 공간에서 용도별(회의실, 복도, 휴게실 등)로 구획된 공간영역을 확인할 수 있다. 다른 예로, 가상 오피스의 공간에서 카메라시점에 포함되는 영역과 포함되지 않는 영역으로 구획할 수 있다.
이와 같이 대상유저가 위치하는 공간이 구분되어 확인되면, 대화그룹판단단계(S12)에서는 대상유저와 같은 공간영역에 위치한 유저를 대화그룹으로 판단할 수 있다.
한편, 본 발명의 메타버스 기반의 오피스 환경은 현실세계와 유사하게 구축하는 것이 목적이므로, 가상공간에 만들어진 하나의 건물을 하나의 업체가 이용하거나, 경우에 따라 많은 수의 업체나 개인들이 함께 이용할 수 있다.
이에, 본 발명에서는 대화그룹을 형성함에 있어, 기본적으로는 해당 공간 전체(건물 전체)에 속해 있는 모든 유저들에게 대화그룹을 형성할 권한(대화참여권한)을 부여하고, 앞서 살펴본 방법에 의해 대화그룹에 참여하거나 탈퇴하도록 할 수 있다.
다만, 특정 업체나 개인의 보안영역으로 설정된 영역에서는, 해당 보안영역을 이용하도록 허가된 유저들에게만 대화참여권한을 부여함으로써, 대화참여권한이 없는 유저가 해당 공간에 위치하더라도, 해당 보안영역에서의 대화에 참여하지 못하도록 할 수 있다.
예를 들어, 특정 업체의 회의실 등은 해당 업체의 직원에 해당하는 유저들, 또는 거래처에 해당하는 유저들에게만 대화참여권한을 부여함으로써, 업무와 무관한 유저들에게 대화의 내용이 유출되는 것을 방지할 수 있으며, 이를 통해 보안성을 향상시킬 수 있다.
이 외의 공용공간(예를 들어, 휴게실이나 복도 등)에서는 현실세계와 마찬가지로 모든 유저들이 대화에 참여할 수 있도록 대화참여권한을 부여할 수 있다.
다시 말해, 기본적으로 모든 공간에 대하여 모든 유저들에게 대화참여권한을 부여한 상태에서, 보안영역으로 설정된 영역에서는 대화그룹참여제한을 설정하고, 특정 팀이나 소속 등으로 매칭된 유저들을 제외한 나머지 유저들의 대화참여권한을 제거함으로써, 대상유저와 매칭된 팀의 유저들만이 대화에 참여하도록 할 수 있다.
이상에서 살펴본 본 발명에 의한 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법은, 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능할 수 있다.
여기서, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 예를 들어, 컴퓨터가 읽을 수 있는 기록 매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
그리고 본 발명을 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
또한, 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 한다.
본 발명은 메타버스 분야, 가상현실분야 및 가상오피스 분야는 물론 이와 유사 내지 연관된 분야에서 활용이 가능하며, 해당 분야에서의 신뢰성 및 경쟁력을 향상시킬 수 있다.

Claims (16)

  1. 가상공간에서 로컬유저의 카메라시점을 확인하고, 로컬유저와 해당 카메라시점의 가상영역 내의 대화그룹에 포함된 각 원격유저의 아바타에, 해당 원격유저를 실시간으로 촬영한 유저영상을 매칭하는 유저영상 매칭단계;
    상기 로컬유저와 원격유저의 상대적공간정보에 기초하여, 로컬유저와 원격유저간의 관계값을 포함하는 관계정보를 확인하는 관계정보 확인단계; 및
    상기 관계정보에 기초하여 해당 원격유저의 유저영상을 조절하는 유저영상 조절단계;를 포함하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  2. 제 1항에 있어서,
    상기 상대적공간정보는 로컬유저와 원격유저 간의 상대적거리를 포함하고,
    상기 관계값은 상대적거리에 따른 거리계수를 포함하며,
    상기 유저영상 조절단계는,
    상기 로컬유저와 원격유저 간의 거리계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  3. 제 2항에 있어서,
    상기 유저영상 조절단계는,
    상기 거리계수에 의한 유저영상의 크기변화가, 원격유저와 매칭된 아바타의 크기변화비율보다 작은 비율로 변화하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  4. 제 3항에 있어서,
    상기 유저영상 조절단계에서,
    상기 유저영상의 최소크기는 가시성을 보장하는 최소크기보다 큰 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  5. 제 1항에 있어서,
    상기 상대적공간정보는 로컬유저와 원격유저 간의 상대적방향을 포함하고,
    상기 관계값은 상대적방향에 따른 방향계수를 포함하며,
    상기 유저영상 조절단계는,
    상기 로컬유저와 원격유저 간의 방향계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  6. 제 5항에 있어서,
    상기 유저영상 조절단계는,
    상기 방향계수에 의한 유저영상의 크기변화가, 원격유저와 매칭된 아바타의 크기변화비율보다 작은 비율로 변화하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  7. 제 6항에 있어서,
    상기 유저영상 조절단계에서,
    상기 유저영상의 최대크기는 가상영상과 유저영상 간의 밸런스를 보장하는 최대크기보다 작은 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  8. 제 1항에 있어서,
    상기 상대적공간정보는 카메라의 위치정보을 포함하고,
    상기 관계값은 카메라의 위치정보에 따른 카메라계수를 포함하며,
    상기 유저영상 조절단계는,
    상기 로컬유저와 원격유저 간의 카메라계수에 기초하여, 해당 원격유저의 유저영상 크기를 조절하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  9. 제 1항에 있어서,
    상기 상대적공간정보는,
    로컬유저와 원격유저 간의 상대적거리 및 상대적방향, 카메라의 위치정보를 포함하며,
    상기 관계값은,
    상대적거리에 따른 거리계수, 상대적방향에 따른 방향계수, 카메라의 위치정보에 따른 카메라계수 중 적어도 두 개의 계수에 기초하여 산출되며,
    상기 유저영상 조절단계는,
    상기 관계값에 기초하여, 해당 원격유저의 유저영상 크기를 조절하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  10. 제 1항에 있어서,
    상기 유저영상 매칭단계는,
    3차원좌표계의 가상공간이 투영되는 카메라좌표계의 가상영상에서, 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 타겟좌표확인단계; 및
    해당 가상영상의 2차원좌표에 해당 유저영상을 오버랩하는 유저영상오버랩단계;를 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  11. 제 10항에 있어서,
    상기 타겟좌표확인단계는,
    3차원 가상공간에서 해당 아바타의 위치를 확인하는 아바타위치확인단계;
    해당 아바타의 뼈대구조에서 머리의 상대위치를 계산하는 상대위치확인단계;
    해당 아바타의 3차원좌표에 상대위치를 적용하여 머리의 3차원좌표를 계산하는 머리위치확인단계; 및
    해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 투영좌표확인단계;를 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  12. 제 1항에 있어서,
    상기 유저영상 매칭단계 이전에,
    가상공간에서 대상유저의 카메라시점을 확인하고, 해당 카메라시점의 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인하는 대화그룹 확인단계;를 더 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  13. 제 12항에 있어서,
    상기 대화그룹 확인단계는,
    상기 가상공간에서 설정별로 구획된 공간영역을 확인하는 공간영역확인단계; 및
    상기 대상유저와 같은 공간영역에 위치한 유저를 대화그룹으로 판단하는 대화그룹판단단계;를 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  14. 제 13항에 있어서,
    상기 대화그룹판단단계는,
    상기 가상공간 중 보안영역을 포함하는 적어도 일부의 공간영역에 대화그룹참여제한을 설정하고,
    해당 공간영역에 위치한 유저들 중 대화참여권한이 제거된 유저는 해당 대화그룹에서 제외하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법.
  15. 제 1항 내지 제 14항 중 어느 하나의 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법을 실행하는 프로그램이 기록된 저장매체.
  16. 제 15항의 저장매체를 포함하는 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 시스템.
PCT/KR2022/018845 2021-12-28 2022-11-25 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템 WO2023128308A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0189920 2021-12-28
KR1020210189920A KR102395940B1 (ko) 2021-12-28 2021-12-28 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템

Publications (1)

Publication Number Publication Date
WO2023128308A1 true WO2023128308A1 (ko) 2023-07-06

Family

ID=81583140

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/018845 WO2023128308A1 (ko) 2021-12-28 2022-11-25 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템

Country Status (2)

Country Link
KR (1) KR102395940B1 (ko)
WO (1) WO2023128308A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102395940B1 (ko) * 2021-12-28 2022-05-09 주식회사 직방 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템
KR20240054154A (ko) * 2022-10-18 2024-04-25 주식회사 페블러스 합성 데이터의 품질을 평가하여 기여도를 산정하기 위한 방법 및 그러한 방법을 수행하는 전자 장치 및 시스템
WO2024085442A1 (ko) * 2022-10-18 2024-04-25 삼성전자 주식회사 사용자 간 비공개 연결을 설정하는 방법 및 디스플레이 장치
KR102624171B1 (ko) * 2023-07-18 2024-01-11 주식회사 티지 사용자 개입형 아바타를 이용한 실시간 영상추적 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160095864A (ko) * 2015-02-04 2016-08-12 한국기술교육대학교 산학협력단 사용자의 3차원 아바타 구현 시스템 및 방법
JP2018106258A (ja) * 2016-12-22 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019197519A (ja) * 2018-05-07 2019-11-14 アップル インコーポレイテッドApple Inc. クリエイティブカメラ
KR102395940B1 (ko) * 2021-12-28 2022-05-09 주식회사 직방 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102111778B1 (ko) 2017-11-28 2020-05-15 제주대학교 산학협력단 수평유지장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160095864A (ko) * 2015-02-04 2016-08-12 한국기술교육대학교 산학협력단 사용자의 3차원 아바타 구현 시스템 및 방법
JP2018106258A (ja) * 2016-12-22 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019197519A (ja) * 2018-05-07 2019-11-14 アップル インコーポレイテッドApple Inc. クリエイティブカメラ
KR102395940B1 (ko) * 2021-12-28 2022-05-09 주식회사 직방 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AERI BU: "If you look at an apartment, go to work, and use VR, it's 'direct room' - Asia Economy", 15 June 2021 (2021-06-15), XP093076186, Retrieved from the Internet <URL:https://www.asiae.co.kr/article/2021061507023758876> *
CHANG, SEONG GEOL ET AL.: "3D Live Avatar Generation Technology for Immersive Remote Meetings", BROADCASTING AND MEDIA MAGAZINE, vol. 26, no. 3, 30 July 2021 (2021-07-30), pages 50 - 58, XP009547482 *
LEE JONGCHEOL: "Released the spatial web version of the metaverse collaboration tool that was forcibly turned into a metaverse - Byline Network", 20 May 2021 (2021-05-20), XP093076184, Retrieved from the Internet <URL:https://byline.network/2021/05/20-128/> *

Also Published As

Publication number Publication date
KR102395940B1 (ko) 2022-05-09

Similar Documents

Publication Publication Date Title
WO2023128308A1 (ko) 메타버스 기반의 오피스 환경에서 유저영상데이터 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 제어 시스템
WO2023128305A1 (ko) 메타버스 기반의 오피스 환경에서 유저영상데이터 매칭 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 매칭 시스템
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
Billinghurst et al. Experiments with face-to-face collaborative AR interfaces
US11743064B2 (en) Private collaboration spaces for computing systems
WO2023128310A1 (ko) 메타버스 기반의 오피스 환경에서 유저 그룹핑 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저 그룹핑 시스템
Cavazza et al. Multimodal acting in mixed reality interactive storytelling
CN109658040A (zh) 会议管理的方法、装置、设备及计算机存储介质
WO2023128307A1 (ko) 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 디스플레이 시스템
WO2015008932A1 (ko) 증강현실에서의 원격 협업을 위한 디지로그 공간 생성기 및 그를 이용한 디지로그 공간 생성 방법
WO2023128309A1 (ko) 메타버스 기반의 오피스 환경에서 디스플레이 제어 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 디스플레이 제어 시스템
WO2021187647A1 (ko) 가상 공간에서 사용자의 동작을 따라 하는 아바타를 표현하는 방법 및 시스템
WO2021187646A1 (ko) 아바타를 이용한 컨퍼런스 처리 방법 및 시스템
CN112785741B (zh) 签到***和方法、计算机设备和存储设备
Kumano et al. Collective first-person vision for automatic gaze analysis in multiparty conversations
JP2019175122A (ja) 情報処理システム、情報処理方法、およびプログラム
WO2024005472A1 (ko) 가상 공간에 있는 3d 오브젝트 상의 특정 위치와 연동된 메모를 공유할 수 있는 실시간 vr 회의시스템 및 방법
CN112035047A (zh) 跨平台多人在线交互方法、***以及存储介质
TWI809604B (zh) 視訊會議裝置與其操作方法
Billinghurst et al. The magazine archive includes every article published in Communications of the ACM for over the past 50 years.
KR102610299B1 (ko) 가상 현실 공간에서 사용자 가상 아바타의 신뢰도를 제공할 수 있는 가상 현실 서비스 제공 방법 및 장치
WO2024005473A1 (ko) 가상 공간에 있는 3d 오브젝트 상의 특정 위치 표시를 공유할 수 있는 실시간 vr 회의시스템 및 방법
WO2024101521A1 (ko) 화상회의 및 화상교육 서비스를 위한 시스템 과 화상회의 및 화상교육 서비스 제공방법
Murata et al. Proposition of VR-MR hybrid system for sharing living-in-room
WO2024080851A1 (ko) 가상 공간에서 다수의 이벤트에 동시에 참여하는 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22916458

Country of ref document: EP

Kind code of ref document: A1