KR102141740B1 - Apparatus and method for predicting virtual reality sickness - Google Patents
Apparatus and method for predicting virtual reality sickness Download PDFInfo
- Publication number
- KR102141740B1 KR102141740B1 KR1020180156048A KR20180156048A KR102141740B1 KR 102141740 B1 KR102141740 B1 KR 102141740B1 KR 1020180156048 A KR1020180156048 A KR 1020180156048A KR 20180156048 A KR20180156048 A KR 20180156048A KR 102141740 B1 KR102141740 B1 KR 102141740B1
- Authority
- KR
- South Korea
- Prior art keywords
- angular velocity
- image
- feature
- frame
- fatigue
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4884—Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 VR 콘텐츠로부터 사용자 헤드 각속도와 시각적 각속도 및 인지 각속도를 지각적 움직임 특징으로 추출하고, 텍스쳐 특징 및 모션 특징을 통계적 콘텐츠 특징으로 추출하여, 특징 벡터를 구성하고 시간적 풀링하여 VR 콘텐츠의 피로도를 예측함으로써, 개인적 편차가 크게 나타나는 VR 콘텐츠의 피로도를 객관적이고 정확하게 예측할 수 있는 VR 피로도 예측 장치 및 방법을 제공할 수 있다.The present invention extracts user head angular velocity, visual angular velocity and perceived angular velocity from VR contents as perceptual motion features, extracts texture features and motion features as statistical content features, constructs feature vectors and temporally pools to reduce fatigue of VR contents. By predicting, it is possible to provide an apparatus and method for predicting VR fatigue that can objectively and accurately predict fatigue of VR content in which personal deviation is large.
Description
본 발명은 가상현실 피로도 예측 장치 및 방법에 관한 것으로, 가상현실 콘텐츠 시청 시 사용자가 느끼는 피로도 예측 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for predicting virtual reality fatigue, and to an apparatus and method for predicting fatigue felt by a user when viewing virtual reality content.
가상 현실(virtual reality: 이하 VR)과 같은 콘텐츠들은 일반적으로 HMD (Head Mounted Display)를 통해 콘텐츠를 이용할 수 있도록 하여, 기존의 다른 디스플레이 방식에 비해 사용자에게 더 넓은 시야(field of view: 이하 FoV)를 제공한다. 따라서 VR은 사용자에게 콘텐츠에 더욱 몰입할 수 있는 체감 품질(Quality of Experience: 이하 QoE)를 제공한다.Contents such as virtual reality (hereinafter referred to as VR) generally allow content to be available through a head mounted display (HMD), thereby providing a wider field of view (FoV) to users compared to other existing display methods. Provides Therefore, VR provides users with a quality of experience (QoE) that allows them to be more immersed in the content.
그러나 VR 환경은 QoE를 저하시키는 피로도(sickness)를 동반할 수 있으며, 피로도는 VR을 이용하는 사용자의 안전 및 건강에 영향을 미치기 때문에, 피로도를 유발하는 요인에 대해 다양한 연구가 진행되어 왔다.However, the VR environment may be accompanied by a fatigue that degrades QoE, and since fatigue affects the safety and health of users using VR, various studies have been conducted on factors causing fatigue.
이에 피로도를 유발하는 요인으로는 넓은 FoV, 시간 지연(time latency), 낮은 프레임율(low frame rate), 렌더링 속도(rendering speed) 등이 확인되었으나, 피로도를 유발하는 가장 중요한 요인은 VR 콘텐츠에 의해 시각적으로 인식되는 동작과 사용자의 실제 동작의 충돌(conflict)로 인한 시각적 전정 감각 충돌(visual-vestibular sensory conflict)이다.As a result, fatigue factors such as wide FoV, time latency, low frame rate, and rendering speed were identified as factors causing fatigue, but VR content is the most important factor causing fatigue. It is a visual-vestibular sensory conflict due to a conflict between a visually recognized motion and a user's actual motion.
도1 은 시각적 전정 감각 충돌을 설명하기 위한 도면이다.1 is a view for explaining a visual vestibular sensory collision.
도1 에 도시된 바와 같이, 사용자가 HMD를 착용하여 VR 콘텐츠를 이용하는 경우, 사용자는 전정기관(vestibular system)을 통해 자신의 움직임(특히 머리의 움직임)을 느끼지만, 시각기관(visual system)은 HMD를 통해 제공되는 콘텐츠의 선형 동작을 인지한다. 즉 VR 콘텐츠는 사용자의 위치가 실질적으로 고정되어 있는 동안, 시각적으로는 이동하고 있는 것으로 느끼게 하는 자기 착시(visually induced self-illusion of motion: vection 이라 함)를 유발한다. 이러한 시각적 전정 감각 충돌은 메스꺼움, 안구 운동 장애, 방향 감각 상실, 눈의 피로, 시각 감각의 민감도 감소, 두통, 목의 통증과 같은 여러가지 부작용을 유발할 수 있다.As shown in FIG. 1, when a user wears HMD and uses VR content, the user feels his movement (especially head movement) through the vestibular system, but the visual system is HMD Recognize the linear motion of the content provided through. In other words, VR content causes a visually induced self-illusion of motion (called a section) that makes the user feel as if they are moving while the user's location is substantially fixed. These visual vestibular sensory collisions can cause various side effects such as nausea, eye movement disorders, loss of direction, eye fatigue, decreased sensitivity of visual sensations, headaches, and sore throat.
따라서 사용자의 안전을 보장하고 쾌적한 콘텐츠 이용 환경을 제공하기 위해서는 VR 환경에 의해 야기되는 VR 피로도를 예측할 수 있어야 한다.Therefore, in order to guarantee the user's safety and provide a comfortable content use environment, it is necessary to be able to predict VR fatigue caused by the VR environment.
기존에 VR 피로도를 예측하기 위한 연구는 주관적 피로도 설문(subjective sickness questionnaires: SSQ)에 의해 수행되거나, 뇌전도(electrosphalogram: EEG), 갈바닉 피부 반응(galvanic skin response: GSR), 위전도(electrogastrogram; EGG) 및 심장 박동수 등의 생리학적 검사에 의해 수행되었다.Previous studies to predict VR fatigue have been performed by subjective sickness questionnaires (SSQ), electrosphalogram (EGG), galvanic skin response (GSR), and electrogastrogram (EGG) And physiological tests such as heart rate.
그러나 주관적 피로도 설문은 검증 프로토콜이 복잡하고, 생리학적 검사의 경우, 생체 신호 센서에 많은 노이즈가 포함되기 때문에 대량의 VR 콘텐츠를 테스트하는 것은 매우 어렵다. 따라서 주관적 피로도 설문 또는 생리학적 검사 없이 VR 콘텐츠의 피로도를 객관적으로 예측할 수 있는 방법이 요구되고 있다.However, the subjective fatigue questionnaire is very difficult to test a large amount of VR content because the verification protocol is complicated and the physiological test contains a lot of noise in the biosignal sensor. Therefore, there is a need for a method for objectively predicting fatigue of VR content without subjective fatigue questionnaire or physiological examination.
본 발명의 목적은 VR 콘텐츠의 피로도를 정확하게 예측할 수 있는 VR 피로도 예측 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an apparatus and method for predicting VR fatigue that can accurately predict fatigue of VR content.
본 발명의 다른 목적은 VR 콘텐츠의 피로도를 예측할 수 있는 다수의 특징을 추출하고, 추출된 특징을 이용하여 피로도를 예측하는 VR 피로도 예측 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide a VR fatigue prediction apparatus and method for extracting a plurality of features capable of predicting fatigue of VR content and predicting fatigue using the extracted features.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 VR 피로도 예측 장치는 VR 영상과 상기 VR 영상의 카메라 회전 행렬 및 HMD(Head Mounted Display)에서 감지된 회전 속도를 획득하는 VR 입력 획득부; 상기 VR 영상의 각 프레임에서 카메라 회전 행렬 및 회전 속도로부터 사용자 헤드 각속도와 시각적 각속도 및 인지 각속도를 지각적 움직임 특징으로 추출하는 지각적 움직임 특징 추출부; 상기 VR 영상의 각 프레임에서 텍스쳐 특징과 모션 특징을 통계적 콘텐츠 특징으로 추출하는 통계적 콘텐츠 특징 추출부; 상기 지각적 움직임 특징과 상기 통계적 콘텐츠 특징을 배열하여 특징 벡터를 획득하고, 상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터를 시간적 풀링하는 풀링부; 및 미리 학습된 패턴 추정 방식에 따라 시간적 풀링된 특징 벡터로부터 피로도를 추정하여 출력하는 피로도 예측부; 를 포함한다.VR fatigue prediction apparatus according to an embodiment of the present invention for achieving the above object is a VR input acquiring unit for acquiring a VR image, a camera rotation matrix of the VR image, and a rotation speed sensed by a head mounted display (HMD); A perceptual motion feature extraction unit that extracts the user's head angular velocity, visual angular velocity, and perceived angular velocity from the camera rotation matrix and rotation speed in each frame of the VR image as perceptual motion features; A statistical content feature extraction unit that extracts texture features and motion features from each frame of the VR image as statistical content features; A pooling unit configured to obtain a feature vector by arranging the perceptual motion feature and the statistical content feature, and temporally pooling a plurality of feature vectors for multiple frames of the VR image; And a fatigue prediction unit that estimates and outputs fatigue from temporally pooled feature vectors according to a previously learned pattern estimation method. It includes.
상기 지각적 움직임 특징 추정부는 상기 VR 영상의 각 프레임에서 상기 회전 속도에 따라 상기 사용자 헤드 각속도를 계산하고, 상기 VR 영상의 각 프레임에서 상기 카메라 회전 행렬을 이용하여 계산되는 카메라 각속도와 상기 사용자 헤드 각속도의 차에 따라 상기 시각적 각속도를 계산하며, 상기 사용자 헤드 각속도와 상기 시각적 각속도로부터 상기 인지 각속도를 획득할 수 있다.The perceptual motion feature estimator calculates the user head angular velocity according to the rotation speed in each frame of the VR image, and the camera angular velocity and the user head angular velocity calculated using the camera rotation matrix in each frame of the VR image. The visual angular velocity may be calculated according to a difference of, and the perceived angular velocity may be obtained from the user head angular velocity and the visual angular velocity.
상기 지각적 움직임 특징 추정부는 사용자의 머리 움직임과 시각적으로 감지한 움직임을 두뇌가 인지하는 방식으로 모델링된 Telban 모델에 상기 사용자 헤드 각속도와 상기 시각적 각속도를 입력하여 상기 인지 각속도를 획득할 수 있다.The perceptual motion feature estimator may acquire the cognitive angular velocity by inputting the angular velocity of the user's head and the visual angular velocity into a Telban model modeled in such a way that the brain perceives the user's head movement and visually sensed movement.
상기 통계적 콘텐츠 특징 추출부는 상기 VR 영상의 각 프레임을 이산 푸리에 변환하여, 변환된 프레임의 에너지를 계산하여 상기 텍스쳐 특징을 획득하고, 상기 변환된 프레임에 옵티컬 플로우를 적용하여, 각 프레임에서 다수의 픽셀 각각의 수직 속도와 수평 속도를 획득하며, 획득된 다수의 픽셀의 수직 속도와 수평 속도로부터 평균 속도를 계산하여 상기 모션 특징을 추출할 수 있다.The statistical content feature extractor converts each frame of the VR image into a discrete Fourier, calculates the energy of the transformed frame to obtain the texture feature, applies an optical flow to the transformed frame, and multiple pixels in each frame Each of the vertical speed and the horizontal speed is obtained, and the motion characteristics can be extracted by calculating an average speed from the vertical and horizontal speeds of the obtained multiple pixels.
상기 풀링부는 상기 VR 영상의 각 프레임에 대한 상기 사용자 헤드 각속도, 상기 시각적 각속도, 상기 인지 각속도, 상기 텍스쳐 특징 및 상기 모션 특징을 포함하는 상기 특징 벡터를 구성하고, 상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터의 평균, 분산과 함께 최대값 및 최저값의 p-백분위수를 계산하여 풀링된 특징 벡터를 획득할 수 있다.The pooling unit configures the feature vector including the user head angular velocity, the visual angular velocity, the perceived angular velocity, the texture feature, and the motion feature for each frame of the VR image, and for multiple frames of the VR image A pooled feature vector can be obtained by calculating the p-percentile of the maximum and minimum values along with the mean and variance of multiple feature vectors.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 VR 피로도 예측 방법은 VR 영상과 상기 VR 영상의 카메라 회전 행렬 및 HMD(Head Mounted Display)에서 감지된 회전 속도가 포함된 VR 입력을 획득하는 단계; 상기 VR 영상의 각 프레임에서 카메라 회전 행렬 및 회전 속도로부터 사용자 헤드 각속도와 시각적 각속도 및 인지 각속도를 지각적 움직임 특징으로 추출하는 단계; 상기 VR 영상의 각 프레임에서 텍스쳐 특징과 모션 특징을 통계적 콘텐츠 특징으로 추출하는 단계; 상기 지각적 움직임 특징과 상기 통계적 콘텐츠 특징을 배열하여 특징 벡터를 획득하고, 상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터를 시간적 풀링하는 단계; 및 미리 학습된 패턴 추정 방식에 따라 시간적 풀링된 특징 벡터로부터 피로도를 추정하는 단계; 를 포함한다.A VR fatigue prediction method according to another embodiment of the present invention for achieving the above object is to obtain a VR input including a VR image, a camera rotation matrix of the VR image, and a rotation speed detected by a head mounted display (HMD). ; Extracting a user head angular velocity, a visual angular velocity, and a perceived angular velocity from the camera rotation matrix and rotation speed in each frame of the VR image as perceptual motion features; Extracting texture features and motion features from each frame of the VR image as statistical content features; Arranging the perceptual motion feature and the statistical content feature to obtain a feature vector, and temporally pooling a plurality of feature vectors for multiple frames of the VR image; And estimating fatigue from temporally pooled feature vectors according to a previously learned pattern estimation method. It includes.
따라서, 본 발명의 실시예에 따른 VR 피로도 예측 장치 및 방법은 VR 콘텐츠로부터 사용자 헤드 각속도와 시각적 각속도 및 인지 각속도를 지각적 움직임 특징으로 추출하고, 텍스쳐 특징 및 모션 특징을 통계적 콘텐츠 특징으로 추출하여, 특징 벡터를 구성하고 시간적 풀링하여 VR 콘텐츠의 피로도를 예측함으로써, 개인적 편차가 크게 나타나는 VR 콘텐츠의 피로도를 객관적이고 정확하게 예측 할 수 있도록 한다.Accordingly, the apparatus and method for predicting VR fatigue according to an embodiment of the present invention extract user head angular velocity, visual angular velocity, and cognitive angular velocity from VR contents as perceptual motion features, and extract texture and motion features as statistical content features, By constructing the feature vector and predicting the fatigue of VR contents by temporally pooling, it is possible to objectively and accurately predict the fatigue of VR contents in which personal deviation is large.
도1 은 시각적 전정 감각 충돌을 설명하기 위한 도면이다.
도2 는 본 발명의 일 실시예에 따른 VR 피로도 예측 장치의 개략적 구조를 나타낸다.
도3 은 도2 의 지각적 움직임 특징 추출부의 상세 구성을 나타낸다.
도4 는 공간적 질감 및 운동 분포에 의한 피로도를 설명하기 위한 도면이다.
도5 는 도2 의 피로도 예측부를 학습시키기 위한 학습 VR 영상의 예를 나타낸다.
도6 는 본 발명의 일 실시예에 따른 VR 피로도 예측 방법을 나타낸다.
도7 은 본 실시예에 따라 예측된 피로도와 MOS 및 개인별 피로도 점수의 상관 관계를 나타낸다.1 is a view for explaining a visual vestibular sensory collision.
2 shows a schematic structure of a VR fatigue prediction device according to an embodiment of the present invention.
3 shows a detailed configuration of the perceptual motion feature extraction unit of FIG. 2.
4 is a view for explaining fatigue due to spatial texture and motion distribution.
FIG. 5 shows an example of a learning VR image for training the fatigue predictor of FIG. 2.
6 shows a VR fatigue prediction method according to an embodiment of the present invention.
Figure 7 shows the correlation between the predicted fatigue and MOS and individual fatigue scores according to this embodiment.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the contents described in the accompanying drawings, which illustrate preferred embodiments of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention can be implemented in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part “includes” a certain component, this means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary. In addition, terms such as "... unit", "... group", "module", and "block" described in the specification mean a unit that processes at least one function or operation, which is hardware or software or hardware. And software.
도2 는 본 발명의 일 실시예에 따른 VR 피로도 예측 장치의 개략적 구조를 나타내고, 도3 은 도2 의 지각적 움직임 특징 추출부의 상세 구성을 나타내며, 도4 는 공간적 질감 및 운동 분포에 의한 피로도를 설명하기 위한 도면이다. 그리고 도5 는 도2 의 피로도 예측부를 학습시키기 위한 학습 VR 영상의 예를 나타낸다.2 shows a schematic structure of a VR fatigue prediction apparatus according to an embodiment of the present invention, FIG. 3 shows a detailed configuration of the perceptual motion feature extraction unit of FIG. 2, and FIG. 4 shows fatigue due to spatial texture and motion distribution It is a figure for illustration. And FIG. 5 shows an example of a learning VR image for training the fatigue predictor of FIG. 2.
도2 를 참조하면, 본 실시예에 따른 VR 피로도 예측 장치는 VR 입력 획득부(100), 특징 추출부(200), 풀링부(300) 및 피로도 예측부(400)를 포함한다.Referring to FIG. 2, the apparatus for predicting VR fatigue according to the present embodiment includes a VR
VR 입력 획득부(100)는 피로도를 예측하기 위한 VR 입력을 획득한다. 여기서 VR 입력 획득부(100)는 VR 콘텐츠를 인가받아, VR 콘텐츠에 포함된 VR 영상을 추출하여 획득할 수도 있다. 이때 VR 입력 획득부(100)는 HMD에 입력되는 VR 영상과 함께 VR 영상 내의 카메라 회전 행렬 및 HMD에서 감지된 회전 속도를 함께 획득한다.The VR
한편, VR 입력 획득부(100)는 피로도 예측부(400)를 학습하기 위한 학습 과정에서는 학습 VR 영상을 획득한다. 여기서 학습 VR 영상은 피로도가 주관적 피로도 설문(SSQ)의 통계값 등으로 이미 획득된 VR 영상을 의미한다.Meanwhile, the VR
특징 추출부(200)는 지각적 움직임 특징 추출부(210)와 통계적 콘텐츠 특징 추출부(230)를 구비하여, VR 입력 획득부(100)에서 인가되는 VR 영상을 기지정된 방식으로 분석하여, 지각적 움직임 특징과 통계적 콘텐츠 특징을 각각 추출한다.The
지각적 움직임 특징 추출부(210)는 VR 영상의 각 프레임에서 HMD의 자이로스코프에서 감지된 회전 속도에 따라 사용자의 머리의 움직임에 의한 사용자 헤드 각속도(User head angular velocity: wvest)를 추출하고, VR 영상의 각 프레임에서 회전 속도와 카메라 회전 행렬로부터 VR 시나리오에 의해 연출되는 시각적 각속도(Visual angular velocity: wvis)를 추출하여 차이를 비교한다.The perceptual motion
이때 지각적 움직임 특징 추출부(210)는 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis) 각각의 롤(roll)(r), 피치(pitch)(p) 및 요(yaw)(y)의 각 회전축에 따라 서로 다른 수준의 피로도를 유발한다는 점을 고려하여 각 회전축(r, p, y)에 대해 독립적으로 지각적 움직임 특징을 추출한다.At this time, the perceptual motion
그리고 지각적 움직임 특징 추출부(210)는 추출된 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis)의 차에 의해 사용자가 인지하는 인지 각속도(Perceived angular velocity: wper)를 획득한다.In addition, the perceptual motion
우선 사용자 헤드 각속도(ωvest)는 VR 영상의 t번째 프레임(t)에서의 헤드 위치 (Pt vest)로부터 연속되는 프레임들의 헤드 위치 차이를 이용하여 수학식 1에 따라 계산될 수 있다.First, the user head angular velocity ω vest may be calculated according to
여기서 t는 VR 영상의 t번째 프레임을 나타내고, t번째 프레임에서의 헤드 위치(Pt vest)는 롤(r), 피치(p) 및 요(y)의 각 회전축에 따라 Pt vest = [rt vest, pt vest, yt vest]이며, HMD에 장착된 자이로스코프 센서에 의해 획득된 값이다. 그리고 γ는 VR 영상의 프레임율(frame rate)을 나타낸다.Here, t denotes the t-th frame of the VR image, and the head position (P t vest ) in the t-th frame is P t vest = [r according to each axis of rotation of the roll (r), pitch (p), and yaw (y). t vest , p t vest , y t vest ], and the value obtained by the gyroscope sensor mounted on the HMD. And γ represents the frame rate of the VR image.
한편, VR 환경에서 시각적 움직임은 사용자의 머리 회전과 VR 시나리오에 의해 제어되는 카메라 회전 양측에 의해 영향을 받는다. 예를 들면, 사용자의 헤드가 왼쪽으로 향하는 동시에 VR 시나리오에 따른 카메라 회전이 머리회전과 동일한 속도로 오른쪽으로 이동하면, 시각적으로 감지되는 속도는 2배가 된다. 즉 시각적 각속도(ωvis)는 사용자 헤드 각속도(ωvest)와 카메라 행렬에 의해 획득되는 카메라 각속도(ωcam)의 상대 속도로서 계산된다.Meanwhile, in the VR environment, visual movement is affected by both the user's head rotation and the camera rotation controlled by the VR scenario. For example, if the user's head moves to the left and the camera rotation according to the VR scenario moves to the right at the same speed as the head rotation, the visually perceived speed is doubled. That is, the visual angular velocity ω vis is calculated as the relative velocity of the user angular velocity ω vest and the camera angular velocity ω cam obtained by the camera matrix.
카메라 각속도(ωcam)는 t번째 프레임에서의 카메라 위치(Pt cam)로부터 수학식 2에 따라 계산된다.The camera angular velocity ω cam is calculated according to
여기서 t번째 프레임에서의 카메라 위치(Pt cam)는 롤(r), 피치(p) 및 요(y)의 각 회전축에 따라 Pt cam = [rt cam, pt cam, yt cam]이다.Here, the camera position (P t cam ) in the t-th frame is P t cam = [r t cam , p t cam , y t cam ] according to the rotation axis of roll (r), pitch (p), and yaw (y). to be.
그리고 카메라 각속도(ωcam)가 획득되면, VR 영상의 t번째 프레임에서 시각적 각속도(ωvis)를 수학식 3과 같이, 사용자 헤드 각속도(ωvest)와 카메라 각속도(ωcam) 사이의 차로 계산한다.Then, when the camera angular velocity (ω cam ) is obtained, the visual angular velocity (ω vis ) in the t-th frame of the VR image is calculated as the difference between the user's head angular velocity (ω vest ) and the camera angular velocity (ω cam ) as shown in Equation 3. .
지각적 움직임 특징 추출부(210)는 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis)가 획득되면, 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis)로부터 인지 각속도(ωper)를 획득한다.Perceptual motion
지각적 움직임 특징 추출부(210)는 일예로 도3 에 도시된 Telban 모델(Robert Telban and Frank Cardullo. An integrated model of human motion perception with visual-vestibular interaction. In AIAA Modeling and Simulation Technologies Conference and Exhibit, page 4249, 2001.)을 이용하여 인지 각속도(ωper)를 획득할 수 있다.The perceptual motion
Telban 모델은 vection 현상의 신경 반응을 모델링 한 것으로, 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis)를 인가받아 사람의 두뇌가 인지하는 움직임인 인지 각속도(ωper)를 출력한다.The Telban model is a model of the neural response of the vection phenomenon, and receives the user's head angular velocity (ω vest ) and the visual angular velocity (ω vis ) and outputs the cognitive angular velocity (ω per ), which is the movement perceived by the human brain.
도3 을 참조하면, Telban 모델에서 전정 지각 모델(211)은 사람의 전정 기관에 따라 모델링되어 사용자 헤드 각속도(ωvest)를 인가받아 기지정된 방식으로 실질 전정 신호(Actual vestibular signal: avs)를 출력한다.Referring to FIG. 3, in the Telban model, the
그리고 시각 수용 모델(212)은 사람의 시각 기관에 따라 모델링되어 시각적 각속도(ωvis)를 움직임에 의한 각속도 형태로 전환하여, 시각 전정 신호(Visual vestibular signal: vvs)를 출력한다. 모의 전정 지각 모델(213)은 전정 지각 모델(211)과 동일하게 모델링되어, 시각 전정 신호(vvs)를 인가받아 기대 전정 신호(Expected vestibular signal: evs)를 출력한다. 즉 시각 수용 모델(212)과 모의 전정 지각 모델(213)은 사용자의 시각에서 감지되는 움직임을 전정 기관에서 감지한 전정 신호의 형태로 변환한다.Then, the
제1 가산기(214)는 실질 전정 신호(avs)와 기대 전정 신호(evs) 사이의 차로부터 오차 신호(e)를 획득한다. 즉 사용자의 두뇌가 실제 헤드 움직임에 따라 감지하는 움직임에 대한 전정 신호와, 시각을 통해 감지하는 움직임에 대한 전정 신호 사이의 차이를 계산한다. 그리고 적응 연산부(215)는 사람의 두뇌의 인지적 특성을 모델링한 구성으로, 오차 신호(e)에 대응하는 오차 각속도(ωerr)를 출력한다.The
신경 응답 모델(216)은 인간 두뇌의 신경 응답 방식을 모델링한 코사인 벨 함수(Cosine Bell Function)로 구현되어, 오차 각속도(ωerr)로부터 신경 필터 이득(K)을 획득한다.The
한편, 제2 가산기(217)는 시각 전정 신호(vvs)와 실질 전정 신호(avs) 사이의 차를 계산한다. 즉 제2 가산기(217)는 제1 가산기(214)와 상이하게 인간 두뇌의 시각적 입력으로부터 헤드 움직임에 의한 전정 기관 입력 사이의 차이를 계산하여 인지 입력 오차(pie)를 전달한다. 증폭부(218)는 신경 응답 모델(216)에서 인가되는 신경 필터 이득(K)에 따라 제2 가산기(217)의 출력을 증폭하여 출력한다.Meanwhile, the
안구 운동 적용부(219)는 증폭부(218)에서 증폭되어 출력되는 인지 입력 오차(pie)를 인가받아 안구 운동 영향(optokinetic influence)을 반영하여 안구 움직임에 의한 시선 이동 시각 신호(ovs)를 출력한다.The eye
사람의 시각은 머리의 움직임뿐만 아니라 안구의 움직임에 의해서도 회전될 수 있다. 따라서 시각의 움직임이 머리의 움직임과 반드시 일치하지 않으며, 인간의 두뇌는 머리의 움직임과 안구의 움직임을 함께 고려하여 사용자의 움직임을 인지한다. 이에 Telban 모델에서 제2 가산기(217)와 증폭부(218) 및 안구 운동 적용부(219)는 시각적 움직임을 나타내는 시각 전정 신호(vvs)에서 사용자의 헤드 움직임에 의한 감각을 제외하고, 이득(K)에 따라 안구 움직임의 반영 비를 조절한 후, 안구 운동의 형태로 전환하여 출력한다.A person's vision can be rotated not only by head movement but also by eye movement. Therefore, the movement of the vision does not necessarily match the movement of the head, and the human brain recognizes the user's movement by considering both the movement of the head and the movement of the eyeball. Accordingly, in the Telban model, the
제3 가산기(220)는 사용자의 실제 헤드 움직임에 대한 실질 전정 신호(avs)와 시선 이동에 대한 시선 이동 시각 신호(ovs)를 가산하여 인지 각속도(ωper)를 획득한다.The
Telban 모델은 공지된 기술이므로, 여기서는 더 이상 상세하게 설명하지 않는다. 또한 경우에 따라서, 본 실시예에 따른 지각적 움직임 특징 추출부(210)는 Telban 모델이 아닌 다른 모델을 적용하여 인지 각속도(ωper)를 획득할 수도 있다.The Telban model is a well-known technology, and is not described in detail here. Also, in some cases, the perceptual motion
한편, 통계적 콘텐츠 특징 추출부(230)는 통계적 콘텐츠 특징으로 VR 영상의 텍스쳐 특징(Texture feature) 및 모션 특징(Motion feature)을 추출한다.Meanwhile, the statistical content
VR 영상에 포함된 시각적 콘텐츠는 피로도와 밀접한 관계가 있음이 기존의 연구들에서 확인된 바 있다. 그리고 VR 영상에 포함된 시각적 내용에서 피로도를 유발하는 시각적 콘텐츠의 특징으로는 텍스쳐 특징 및 모션 특징이 있다.It has been confirmed in previous studies that visual content included in VR images is closely related to fatigue. In addition, texture characteristics and motion characteristics are characteristics of visual contents that cause fatigue in the visual contents included in the VR image.
VR 영상에서 공간적 텍스쳐는 사람의 움직임 인지에 큰 영향을 미친다. 예를 들어, 도4 의 (a)와 같이 단조로운 배경이나 피사체는 동작을 감지하기 위한 중요 포인트가 없기 때문에 움직임에 덜 민감하다. 이는 일예로 하늘이나 바다 등이 배경으로 포함된 콘텐츠에 해당한다.In VR video, spatial texture has a great influence on human perception of movement. For example, a monotonous background or subject as shown in Fig. 4(a) is less sensitive to movement because there is no important point for detecting motion. This corresponds to content that includes, for example, the sky or the sea as a background.
그에 반해, (b)에서는 많은 양의 텍스쳐 정보 성분이 VR 영상의 공간에 포함되어 있으므로, 피사체의 움직임에 보다 민감하다. 이는 일예로 숲이나 도시와 같은 배경으로 포함된 콘텐츠에 해당한다.On the other hand, in (b), since a large amount of texture information components are included in the space of the VR image, it is more sensitive to the movement of the subject. This corresponds to content included in a background such as a forest or a city, for example.
이에 통계적 콘텐츠 특징 추출부(230)는 VR 영상의 프레임에서 공간 에너지를 텍스쳐 특징으로 추출한다. t번째 프레임(t)을 이산 푸리에 변환(Discrete Fourier Transform: DFT)하여 획득된 변환 프레임(It)에서 DTF 계수는 Bt(Ω)이고, Ω는 공간 주파수를 나타낸다. 그리고 변환 프레임(It)의 에너지(Et)는 수학식 4로 주어진다.Accordingly, the statistical content
여기서 CSF(Ω)는 주파수에 따른 시각 지각 감도를 모델링한 콘트라스트 감도 함수(Contrast Sensitivity Function)를 나타내며, 수학식 5 에 의해 정의된다.Here, CSF(Ω) represents a contrast sensitivity function modeling visual perception sensitivity according to frequency, and is defined by Equation (5).
여기서 Ω는 공간 주파수(cycles/degree)를 나타내고, c0 = 2.6, c1 = 010192, c2 = 0.114, c3 = 1.1이다.Here, Ω represents the spatial frequency (cycles/degree), and c 0 = 2.6, c 1 = 010192, c 2 = 0.114, and c 3 = 1.1.
통계적 콘텐츠 특징 추출부(230)는 수학식 4에 따라 VR 영상에서 텍스쳐 특징을 가중 함수의 관점에서 사용자의 시각 지각 감도를 측정한다.The statistical content
한편, VR 영상에서 운동의 분포, 즉 모션 특징 또한 피로도에 큰 영향을 미친다는 것이 알려져 있다. 예를 들어, VR 영상에서 움직임이 현저한 영역에서는 안구의 운동이 증가하여 피로도가 크게 높아지게 된다. 이에 통계적 콘텐츠 특징 추출부(230)는 피로도를 예측하기 위해 모션 정보를 추출한다.On the other hand, it is known that the distribution of motion in the VR image, that is, the motion characteristic also greatly affects fatigue. For example, in a region where movement is remarkable in a VR image, the movement of the eyeball increases, and fatigue is greatly increased. Accordingly, the statistical content
통계적 콘텐츠 특징 추출부(230)는 변환 프레임(It)에 옵티컬 플로우를 적용하여 t번째 프레임의 각 픽셀의 수직 속도(ut)와 수평 속도(vt)를 획득하고, 수학식 6에 따라 평균 속도(Vt)를 계산하여 모션 특징으로 출력한다.The statistical content
여기서 Nx, Ny 는 x와 y 픽셀 수를 의미한다.Here, N x and N y mean the number of x and y pixels.
풀링부(300)는 특징 추출부(200)에서 획득된 특징들에 대해 시간적으로 풀링(pooling)한다. 일반적으로 영상 콘텐츠에 대한 인간의 지각은 프레임 단위가 아닌 시간 축에서 연속되는 다수 프레임의 흐름으로 인지한다. 따라서 VR 콘텐츠로부터 인간의 피로도를 예측하기 위해서는 시간적 풀링 과정이 필요하다.The
특징 추출부(200)의 지각적 움직임 특징 추출부(210)에서 사용자 헤드 각속도(ωvest), 시각적 각속도(ωvis) 및 인지 각속도(ωper)가 특징으로 획득되고, 통계적 콘텐츠 특징 추출부(230)에서 변환 프레임(It)의 에너지(Et), 평균 속도(Vt)가 특징으로 획득되면, 풀링부(300)는 우선 t번째 프레임(t)에 대해 획득된 특징들을 M차원 특징 벡터(Ft = {f1 t, f2 t, ..., fM t})로 나타낸다. 여기서 M차원 특징 벡터(Ft)에는 사용자 헤드 각속도(ωvest), 시각적 각속도(ωvis) 및 인지 각속도(ωper) 각각의 롤(r), 피치(p) 및 요(y) 성분이 독립적으로 반영될 수 있다. 즉 M은 일예로 11일 수 있다.The perceptual motion
그리고 풀링부(300)는 VR 영상에 T개의 프레임이 포함된 경우, T개의 M차원 특징 벡터(Ft = {f1 t, f2 t, ..., fM t})에 대해 평균, 분산과 최대값 및 최저값의 p-백분위수 풀링을 각각 수학식 7 내지 10과 같이 각각 계산한다.And, when the VR image includes T frames, the
여기서 fm t은 t프레임의 m번째 특징 벡터를 나타내고, d(n)은 순위(rank-ordered)에 따른 n번째 특징값을 나타낸다. 그리고 N은 전체 프레임 수이며, Np l과 Np h 는 각각 하위 및 상위 p-백분위수(p-percentiles)(실험에 따른 일예에서 p는 10% 이다.)에 해당하는 프레임 수이다.Here, f m t represents the m-th feature vector of the t-frame, and d(n) represents the n-th feature value according to rank. And N is the total number of frames, N p l and N p h are the number of frames corresponding to the lower and upper p-percentiles (p-percentiles) (p is 10% in one example according to the experiment), respectively.
수학식 7 및 8 은 영상의 전체적인 경향을 감지하는 인간의 성향을 반영하는 수학식으로, 사용자는 급격한 변화가 발생하는 영상을 시청할 때 더 많은 주의를 기울이는 특성을 반영한다. 그리고 수학식 9 및 10 은 각각 특징값의 최대값과 최저값의 평균을 계산하여 특징을 반영한다.Equations 7 and 8 are equations that reflect the human tendency to sense the overall tendency of the image, and reflect the characteristic that the user pays more attention when watching the image in which a sudden change occurs. In addition,
결과적으로 풀링부(300)에서 시간적 풀링된 특징 벡터는 수학식 11로 정의된다.As a result, the feature vector temporally pooled in the
피로도 예측부(400)는 미리 학습된 인공 신경망(artificial neural network)으로 구현되어, 풀링부(300)에서 인가된 풀링된 특징 벡터(F)에 응답하여 피로도를 예측하여 출력한다.The
피로도 예측부(400)는 학습 과정에서 미리 획득된 다수의 VR 학습 영상에 대해 풀링된 특징 벡터(F)를 인가받아 피로도를 예측하고, 예측된 피로도를 다수의 피험자가 해당 학습 VR 영상에 대해 평가한 피로도와 비교하여 오차를 역전파(backpropagation)하여 학습될 수 있다.The
일예로 학습 VR 영상은 다수의 영상 각각에 표1 에 따른 파라미터를 가변하여 획득될 수 있다.As an example, the learning VR image may be obtained by varying parameters according to Table 1 for each of a plurality of images.
표1 에 따르면, 각 학습 VR 영상에서 파라미터는 크게 객체 이동과 카메라 이동 및 콘텐츠 구성 요소에 따라 구분될 수 있다.According to Table 1, in each learning VR image, parameters may be largely classified according to object movement, camera movement, and content components.
도4 를 참조하여, 피로도 예측을 위한 학습 VR 영상의 파라미터를 살펴보면, (a)는 파라미터가 반영되지 않은 기준 영상을 나타내고, (b)는 객체 이동 파라미터가 가변되는 영상을 나타내며, (c)는 카메라 이동 파라미터가 가변되는 영상을 나타낸다. 그리고 (d)는 콘텐츠 구성 요소가 가변되는 영상의 일예를 나타낸다.Referring to FIG. 4, when looking at the parameters of the learning VR image for predicting fatigue, (a) represents a reference image in which parameters are not reflected, (b) represents an image in which object movement parameters are variable, and (c) is Shows an image in which the camera movement parameters are variable. And (d) shows an example of an image in which the content component is variable.
사용자는 VR 공간 내의 가상의 객체와 상호 작용을 통해 VR 콘텐츠를 경험하므로, (a)에 도시된 바와 같이, VR 영상에서 객체가 이동하는 경우, 사용자는 VR 영상으로부터 피로도를 느낄 수 있다. 객체는 표1 에 나타난 바와 같이, VR 영상의 가상의 VR 공간에서 수평 방향, 수직 방향, 대각선 방향, 전방 및 후방으로 이동할 수 있으며, 이에 기준 VR 영상에서 객체가 각 방향으로 이동하는 다수의 학습 VR 영상을 생성할 수 있다. 또한 각 방향으로 이동하는 객체의 속도를 다양하게 가변하여 다수의 학습 VR 영상을 생성할 수 있다.Since the user experiences VR content through interaction with a virtual object in the VR space, as illustrated in (a), when the object moves in the VR image, the user may feel fatigue from the VR image. As shown in Table 1, the object can move horizontally, vertically, diagonally, forwardly and backwardly in the virtual VR space of the VR image, whereby multiple learning VRs in which the object moves in each direction in the reference VR image You can create an image. In addition, multiple learning VR images can be generated by varying the speed of objects moving in each direction.
한편, VR 영상에서 카메라 움직임은 (c)와 같이 배경의 변화로서 사용자의 머리 움직임과 독립적으로 변화할 수 있으며, 여기서는 롤, 피치, 요 움직임과 함께 수평 방향, 수직 방향, 전방 및 후방 움직임 각각에 대한 다수의 학습 VR 영상을 생성할 수 있으며, 각 방향의 카메라 움직임 속도를 가변하여 다수의 학습 VR 영상을 생성할 수 있다.On the other hand, in the VR image, the camera movement can be changed independently from the user's head movement as a background change as shown in (c). Here, in the horizontal, vertical, forward and backward movements, respectively, along with roll, pitch, and yaw movements Multiple learning VR images can be generated, and multiple learning VR images can be generated by varying the camera movement speed in each direction.
또한 콘텐츠 구성 요소에 따른 파라미터로는 콘텐츠의 텍스쳐와 FoV 및 시각적 가이드가 포함될 수 있다. (d)에서는 FoV에 대한 파라미터의 변화를 도시하였으나, 도4 에 도시한 바와 같이, 텍스쳐 또한 피로도에 영향을 미칠 수 있다. 뿐만 아니라, VR 콘텐츠를 경험할 때 시각적으로 제공되는 다양한 가이드 또한 사용자의 시각에 영향을 미치게 되므로, 피로도에 영향을 미칠 수 있다.In addition, parameters according to content components may include texture of content, FoV, and visual guidance. (d) shows the change of the parameter for FoV, but as shown in FIG. 4, texture can also affect fatigue. In addition, various guides provided visually when experiencing VR content also affect the user's perspective, and thus may affect fatigue.
이렇게 다수의 VR 영상에서 표1 에 따른 다양한 매개 변수를 가변하여 학습 VR 영상을 생성할 수 있으며, 생성된 다수의 학습 VR 영상을 다수의 피험자에게 경험하도록 하고, 각 피험자가 주관적으로 기록한 피로도의 통계 값(예를 들면 평균)을 이용하여 피로도 예측부(400)를 학습 시킬 수 있다.In this way, it is possible to generate a learning VR image by varying various parameters according to Table 1 in a plurality of VR images, and to have the generated multiple learning VR images experienced by a plurality of subjects, and statistics of fatigue subjectively recorded by each subject. The
그리고 학습된 피로도 예측부(400)는 용이하게 풀링된 특징 벡터(F)로부터 피로도를 예측하여 출력한다.Then, the learned
도6 은 본 발명의 일 실시예에 따른 VR 피로도 예측 방법을 나타낸다.6 shows a VR fatigue prediction method according to an embodiment of the present invention.
도2 내지 도5 를 참조하여, 도6 의 VR 피로도 예측 방법을 설명하면, 우선 피로도를 예측할 VR 영상을 획득한다(S10). 이때, 피로도 예측 장치는 VR 영상과 함께 VR 영상 내의 카메라 회전 행렬 및 HMD에서 감지된 회전 속도를 함께 획득한다.Referring to FIGS. 2 to 5, when the VR fatigue prediction method of FIG. 6 is described, first, a VR image for predicting fatigue is obtained (S10 ). At this time, the fatigue prediction apparatus acquires the rotational speed detected by the camera rotation matrix and the HMD in the VR image together with the VR image.
그리고 획득된 VR 영상의 지각적 움직임 및 통계적 콘텐츠 특징을 추출한다(S20). 피로도 예측 장치는 VR 영상의 지각적 움직임 특징과 통계적 콘텐츠 특징을 독립적으로 추출할 수 있다. 지각적 움직임 특징을 추출하기 위해, 피로도 예측 장치는 VR 영상의 각 프레임에서 HMD의 자이로스코프에서 감지된 회전 속도에 따라 사용자 헤드 각속도(ωvest)를 수학식 1에 따라 계산한다(S21). 그리고 카메라 회전 행렬로부터 수학식 2에 따라 계산되는 카메라 각속도(ωcam)와 사용자 헤드 각속도(ωvest)를 이용하여 수학식 3 에 따라 시각적 각속도(ωvis)를 계산한다(S22). 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis)가 계산되면, 피로도 예측 장치는 사용자의 머리 움직임과 시각적으로 감지한 움직임을 두뇌가 인지하는 방식을 모델링한 Telban 모델 등을 이용하여, 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis)로부터 인지 각속도(ωper)를 획득한다(S23). 여기서 사용자 헤드 각속도(ωvest)와 시각적 각속도(ωvis) 및 인지 각속도(ωper)는 각각 롤(r), 피치(p) 및 요(y) 성분을 포함한다.Then, perceptual motion and statistical content characteristics of the obtained VR image are extracted (S20). The fatigue prediction apparatus can independently extract perceptual motion characteristics and statistical content characteristics of VR images. In order to extract the perceptual motion feature, the fatigue prediction apparatus calculates the user head angular velocity (ω vest ) according to
한편, 피로도 예측 장치는 VR 영상의 각 프레임을 이산 푸리에 변환하고, 변환 프레임(It)의 에너지(Et)를 수학식 4 에 따라 계산하여 텍스쳐 특징으로 추출한다(S25). 또한 변환 프레임(It)에 대해 옵티컬 플로우를 적용하여, 각 프레임에서 다수의 픽셀의 평균 속도(Vt)를 수학식 6 에 따라 계산하여 VR 영상 내의 모션 특징을 추출한다(S26).Meanwhile, the fatigue prediction apparatus converts each frame of the VR image into a discrete Fourier, calculates the energy E t of the transform frame I t according to Equation 4 and extracts it as a texture feature (S25). In addition, by applying an optical flow to the transform frame I t , the average velocity V t of a plurality of pixels in each frame is calculated according to Equation 6 to extract motion characteristics in the VR image (S26 ).
지각적 움직임 특징으로 사용자 헤드 각속도(ωvest), 시각적 각속도(ωvis) 및 인지 각속도(ωper)가 획득되고, 통계적 콘텐츠 특징으로 에너지(Et)와 평균 속도(Vt)가 획득되면, 획득된 특징들을 지정된 방식으로 배열하여 특정 프레임에 대한 특징 벡터(Ft)를 각각 획득한다(S30). 그리고 VR 영상을 구성하는 다수의 프레임에 대한 다수의 특징 벡터(Ft)에 대해 평균, 분산과 최대값 및 최저값의 p 백분위수를 수학식 7 내지 10에 따라 계산하여, 다수의 특징 벡터(Ft)를 시간적으로 풀링함으로써, 시간적 풀링된 특징 벡터()를 획득한다(S40).When the user's head angular velocity (ω vest ), visual angular velocity (ω vis ) and perceived angular velocity (ω per ) are obtained as perceptual motion features, and energy (E t ) and average velocity (V t ) are acquired as statistical content features, The acquired features are arranged in a designated manner to obtain feature vectors F t for specific frames, respectively (S30 ). Then, for a plurality of feature vectors F t for a plurality of frames constituting a VR image, the p percentiles of the mean, variance, and the maximum and minimum values are calculated according to Equations 7 to 10, and the multiple feature vectors (F) By pooling t ) temporally, the temporally pooled feature vector ( ) Is obtained (S40 ).
시간적 풀링된 특징 벡터(F)가 획득되면, 피로도 예측 장치는 미리 학습된 인공 신경망(artificial neural network)으로 구현된 피로도 예측부(400)에 시간적 풀링된 특징 벡터(F)를 입력하여 피로도를 예측하여 출력한다(S50).When the temporally pooled feature vector F is obtained, the fatigue prediction apparatus predicts fatigue by inputting the temporally pooled feature vector F into the
표 2 및 표 3 은 80명의 피실험자를 대상으로 하여, 공통의 피로도 경향을 특징 벡터의 평균 견해 점수(mean opinion scores: MOS)를 선형 상관 계수(linear correlation coefficient: 이하 LCC)와 Spearman rank-order correlation coefficient(이하 SROCC)로 평가한 결과를 나타낸다.Table 2 and Table 3, for 80 subjects, show common fatigue tendency, mean opinion scores (MOS) of feature vectors, linear correlation coefficient (LCC) and Spearman rank-order correlation. The result of evaluation by coefficient (hereinafter referred to as SROCC) is shown.
표2 에서 사용자 헤드 각속도(ωvest)에 의한 특징(Fvest)만을 이용한 LCC와 SROCC는 각각 평균이 0.484 및 0.434이나, 인지 각속도(ωper)를 결합한 경우, LCC와 SROCC의 평균이 각각 0.682 및 0.643으로 개선되었음을 알 수 있다.In Table 2, the LCC and SROCC using only the feature (F vest ) by the user's head angular velocity (ω vest ) have an average of 0.484 and 0.434, respectively, but when the cognitive angular velocity (ω per ) is combined, the average of LCC and SROCC is 0.682 and It can be seen that the improvement has been made to 0.643.
한편, 통계적 특징(Fcon)만을 이용한 LCC와 SROCC는 각각 평균이 0.421, 0.439인 반면, 본 실시예에 따른 VR 피로도 예측 장치(VR sickness predictor: VRSP)로부터 획득되는 LCC와 SROCC는 각각 평균이 0.724 및 0.710으로 크게 개성되어 VR 피로도를 예측하는데 합리적이라는 것을 확인할 수 있다.On the other hand, LCC and SROCC using only the statistical feature (F con ) have an average of 0.421 and 0.439, respectively, whereas LCC and SROCC obtained from a VR sickness predictor (VRSP) according to the present embodiment have an average of 0.724, respectively. And it can be confirmed that it is reasonable to predict VR fatigue as it is highly individualized at 0.710.
한편, 표 4 및 표 5 는 개인별 피로도 점수(Individual sickness Score)의 LCC와 SROCC로 평가한 결과를 나타낸다.On the other hand, Table 4 and Table 5 show the results of the evaluation of the individual fatigue score (Individual sickness Score) by LCC and SROCC.
표4 및 표5 에 나타난 바와 같이, 추출된 특징에 따른 개인별 피로도 점수의 상관 관계는 표2 및 표2 에 나타난 MOS와의 상관관계보다 낮음을 알 수 있다. 이는 VR 영상의 피로도가 비록 개개인과 상관관계가 있으나, 개인별로 크게 차이가 날 수 있기 때문이다.As shown in Table 4 and Table 5, it can be seen that the correlation of the individual fatigue scores according to the extracted characteristics is lower than the correlation with the MOSs shown in Tables 2 and 2. This is because the fatigue of the VR image may be significantly different for each individual, although it is correlated with the individual.
도7 은 본 실시예에 따라 예측된 피로도와 MOS 및 개인별 피로도 점수의 상관 관계를 나타낸다.Figure 7 shows the correlation between the predicted fatigue and MOS and individual fatigue scores according to this embodiment.
도7 에서 (a)는 MOS와 예측된 피로도 사이의 상관 관계를 나타내고, (b)는 개인별 피로도와 예측된 피로도 사이의 상관관계를 나타낸다.In FIG. 7, (a) shows a correlation between MOS and predicted fatigue, and (b) shows a correlation between individual fatigue and predicted fatigue.
도7 의 (a)와 (b)를 비교하면, 본 실시예에서 추출된 측징들은 개인별 피로도와도 높은 상관 관계가 있으나, MOS 피로도와 더 높은 상관 관계를 갖는다는 것을 알 수 있다. 즉 본 실시예에서 추출하는 특징 들이 인간의 일반적인 특성을 반영함을 알 수 있다. When comparing (a) and (b) of FIG. 7, it can be seen that the measurements extracted in this embodiment have a high correlation with individual fatigue, but a higher correlation with MOS fatigue. That is, it can be seen that the features extracted in this embodiment reflect general human characteristics.
본 발명에 따른 방법은 컴퓨터에서 실행 시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention may be implemented as a computer program stored in a medium for execution on a computer. Computer readable media herein can be any available media that can be accessed by a computer, and can also include any computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data, and ROM (readable) Dedicated memory), RAM (random access memory), CD (compact disk)-ROM, DVD (digital video disk)-ROM, magnetic tape, floppy disk, optical data storage, and the like.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, these are merely exemplary, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom.
따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.
Claims (10)
상기 VR 영상의 각 프레임에서 카메라 회전 행렬 및 회전 속도로부터 사용자 헤드 각속도와 시각적 각속도 및 인지 각속도를 지각적 움직임 특징으로 추출하는 지각적 움직임 특징 추출부;
상기 VR 영상의 각 프레임에서 텍스쳐 특징과 모션 특징을 통계적 콘텐츠 특징으로 추출하는 통계적 콘텐츠 특징 추출부;
상기 지각적 움직임 특징과 상기 통계적 콘텐츠 특징을 배열하여 특징 벡터를 획득하고, 상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터를 시간적 풀링하는 풀링부; 및
미리 학습된 패턴 추정 방식에 따라 시간적 풀링된 특징 벡터로부터 피로도를 추정하여 출력하는 피로도 예측부; 를 포함하는 피로도 예측 장치.A VR input acquiring unit for acquiring a VR image, a camera rotation matrix of the VR image, and a rotation speed sensed by a head mounted display (HMD);
A perceptual motion feature extraction unit that extracts the user's head angular velocity, visual angular velocity, and perceived angular velocity from the camera rotation matrix and rotation speed in each frame of the VR image as perceptual motion features;
A statistical content feature extraction unit that extracts texture features and motion features from each frame of the VR image as statistical content features;
A pooling unit configured to obtain a feature vector by arranging the perceptual motion feature and the statistical content feature, and temporally pooling a plurality of feature vectors for multiple frames of the VR image; And
A fatigue prediction unit that estimates and outputs fatigue from temporally pooled feature vectors according to a previously learned pattern estimation method; Fatigue prediction device comprising a.
상기 VR 영상의 각 프레임에서 상기 회전 속도에 따라 상기 사용자 헤드 각속도를 계산하고,
상기 VR 영상의 각 프레임에서 상기 카메라 회전 행렬을 이용하여 계산되는 카메라 각속도와 상기 사용자 헤드 각속도의 차에 따라 상기 시각적 각속도를 계산하며,
상기 사용자 헤드 각속도와 상기 시각적 각속도로부터 상기 인지 각속도를 획득하는 피로도 예측 장치.The method of claim 1, wherein the perceptual motion feature estimator
The angular velocity of the user head is calculated according to the rotational speed in each frame of the VR image,
The visual angular velocity is calculated according to the difference between the camera angular velocity and the user head angular velocity calculated using the camera rotation matrix in each frame of the VR image,
Fatigue prediction apparatus for acquiring the perceived angular velocity from the user head angular velocity and the visual angular velocity.
사용자의 머리 움직임과 시각적으로 감지한 움직임을 두뇌가 인지하는 방식으로 모델링된 Telban 모델에 상기 사용자 헤드 각속도와 상기 시각적 각속도를 입력하여 상기 인지 각속도를 획득하는 피로도 예측 장치.The method of claim 2, wherein the perceptual motion feature estimator
A fatigue prediction apparatus for acquiring the cognitive angular velocity by inputting the user's head angular velocity and the visual angular velocity into a Telban model modeled in such a way that the brain perceives the user's head movement and visually detected movement.
상기 VR 영상의 각 프레임을 이산 푸리에 변환하여, 변환된 프레임의 에너지를 계산하여 상기 텍스쳐 특징을 획득하고,
상기 변환된 프레임에 옵티컬 플로우를 적용하여, 각 프레임에서 다수의 픽셀 각각의 수직 속도와 수평 속도를 획득하며, 획득된 다수의 픽셀의 수직 속도와 수평 속도로부터 평균 속도를 계산하여 상기 모션 특징을 추출하는 피로도 예측 장치.The method of claim 1, wherein the statistical content feature extraction unit
Discrete Fourier transform of each frame of the VR image to calculate the energy of the transformed frame to obtain the texture feature,
By applying an optical flow to the converted frame, the vertical velocity and horizontal velocity of each of a plurality of pixels are obtained in each frame, and the motion characteristics are extracted by calculating an average velocity from the vertical and horizontal velocity of the obtained multiple pixels Fatigue prediction device.
상기 VR 영상의 각 프레임에 대한 상기 사용자 헤드 각속도, 상기 시각적 각속도, 상기 인지 각속도, 상기 텍스쳐 특징 및 상기 모션 특징을 포함하는 상기 특징 벡터를 구성하고,
상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터의 평균, 분산과 함께 최대값 및 최저값의 p-백분위수를 계산하여 풀링된 특징 벡터를 획득하는 피로도 예측 장치.The method of claim 1, wherein the pulling portion
Construct the feature vector including the user head angular velocity, the visual angular velocity, the perceived angular velocity, the texture feature, and the motion feature for each frame of the VR image,
A fatigue prediction apparatus for obtaining a pooled feature vector by calculating the p-percentile of the maximum and minimum values along with the average and variance of the multiple feature vectors for the multiple frames of the VR image.
상기 VR 영상의 각 프레임에서 카메라 회전 행렬 및 회전 속도로부터 사용자 헤드 각속도와 시각적 각속도 및 인지 각속도를 지각적 움직임 특징으로 추출하는 단계;
상기 VR 영상의 각 프레임에서 텍스쳐 특징과 모션 특징을 통계적 콘텐츠 특징으로 추출하는 단계;
상기 지각적 움직임 특징과 상기 통계적 콘텐츠 특징을 배열하여 특징 벡터를 획득하고, 상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터를 시간적 풀링하는 단계; 및
미리 학습된 패턴 추정 방식에 따라 시간적 풀링된 특징 벡터로부터 피로도를 추정하는 단계; 를 포함하는 피로도 예측 방법.Obtaining a VR input including a VR image, a rotation matrix detected by a camera rotation matrix of the VR image, and a head mounted display (HMD);
Extracting a user head angular velocity, a visual angular velocity, and a perceived angular velocity from the camera rotation matrix and rotation speed in each frame of the VR image as perceptual motion features;
Extracting texture features and motion features from each frame of the VR image as statistical content features;
Arranging the perceptual motion feature and the statistical content feature to obtain a feature vector, and temporally pooling a plurality of feature vectors for multiple frames of the VR image; And
Estimating fatigue from temporally pooled feature vectors according to a previously learned pattern estimation method; Fatigue prediction method comprising a.
상기 VR 영상의 각 프레임에서 상기 회전 속도에 따라 상기 사용자 헤드 각속도를 계산하는 단계;
상기 VR 영상의 각 프레임에서 상기 카메라 회전 행렬을 이용하여 카메라 각속도를 계산하는 단계;
상기 사용자 헤드 각속도와 상기 카메라 각속도의 차에 따라 상기 시각적 각속도를 계산하는 단계; 및
상기 사용자 헤드 각속도와 상기 시각적 각속도로부터 상기 인지 각속도를 획득하는 단계; 를 포함하는 피로도 예측 방법.The method of claim 6, wherein the step of extracting the perceptual motion feature is
Calculating the angular velocity of the user head according to the rotational speed in each frame of the VR image;
Calculating a camera angular velocity using the camera rotation matrix in each frame of the VR image;
Calculating the visual angular velocity according to a difference between the user head angular velocity and the camera angular velocity; And
Obtaining the perceived angular velocity from the user head angular velocity and the visual angular velocity; Fatigue prediction method comprising a.
사용자의 머리 움직임과 시각적으로 감지한 움직임을 두뇌가 인지하는 방식으로 모델링된 Telban 모델에 상기 사용자 헤드 각속도와 상기 시각적 각속도를 입력하여 상기 인지 각속도를 획득하는 피로도 예측 방법.The method of claim 7, wherein the step of obtaining the cognitive angular velocity is
Fatigue prediction method for acquiring the cognitive angular velocity by inputting the user's head angular velocity and the visual angular velocity into a Telban model modeled in such a way that the brain perceives the user's head movement and visually detected movement.
상기 VR 영상의 각 프레임을 이산 푸리에 변환하는 단계;
변환된 프레임의 에너지를 계산하여 상기 텍스쳐 특징을 획득하는 단계;
상기 변환된 프레임에 옵티컬 플로우를 적용하는 단계;
상기 변환된 프레임에서 다수의 픽셀 각각의 수직 속도와 수평 속도를 획득하는 단계; 및
다수의 픽셀의 수직 속도와 수평 속도로부터 평균 속도를 계산하여 상기 모션 특징을 추출하는 단계; 를 포함하는 피로도 예측 방법.The method of claim 6, wherein the step of extracting the statistical content features
A discrete Fourier transform of each frame of the VR image;
Calculating the energy of the converted frame to obtain the texture feature;
Applying an optical flow to the converted frame;
Acquiring a vertical velocity and a horizontal velocity of each of a plurality of pixels in the converted frame; And
Extracting the motion feature by calculating an average speed from vertical and horizontal speeds of a plurality of pixels; Fatigue prediction method comprising a.
상기 VR 영상의 각 프레임에 대한 상기 사용자 헤드 각속도, 상기 시각적 각속도, 상기 인지 각속도, 상기 텍스쳐 특징 및 상기 모션 특징을 포함하는 상기 특징 벡터를 구성하는 단계; 및
상기 VR 영상의 다수의 프레임에 대한 다수의 특징 벡터의 평균, 분산과 함께 최대값 및 최저값의 p-백분위수를 계산하여 풀링된 특징 벡터를 획득하는 단계; 를 포함하는 피로도 예측 방법.The method of claim 6, wherein the pooling step
Constructing the feature vector including the user head angular velocity, the visual angular velocity, the perceived angular velocity, the texture feature, and the motion feature for each frame of the VR image; And
Obtaining a pooled feature vector by calculating a p-percentile of a maximum value and a minimum value along with the average and variance of a plurality of feature vectors for a plurality of frames of the VR image; Fatigue prediction method comprising a.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180156048A KR102141740B1 (en) | 2018-12-06 | 2018-12-06 | Apparatus and method for predicting virtual reality sickness |
PCT/KR2019/009329 WO2020116739A1 (en) | 2018-12-06 | 2019-07-26 | Device and method for predicting sickness experienced by user when viewing virtual reality content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180156048A KR102141740B1 (en) | 2018-12-06 | 2018-12-06 | Apparatus and method for predicting virtual reality sickness |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200069002A KR20200069002A (en) | 2020-06-16 |
KR102141740B1 true KR102141740B1 (en) | 2020-08-05 |
Family
ID=70973726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180156048A KR102141740B1 (en) | 2018-12-06 | 2018-12-06 | Apparatus and method for predicting virtual reality sickness |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102141740B1 (en) |
WO (1) | WO2020116739A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230029193A (en) | 2021-08-24 | 2023-03-03 | 연세대학교 산학협력단 | Apparatus and Method for Predicting Motion Sickness and Dizziness in Virtual Reality Content |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101564964B1 (en) | 2015-02-05 | 2015-11-02 | 계명대학교 산학협력단 | Electrical stimulating head mounted display device reducing motion sickness in virtual reality |
KR101845972B1 (en) | 2016-10-24 | 2018-05-18 | 성균관대학교 산학협력단 | Measurement method and system of visual fatigue level based depth image and bio signal |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012160741A1 (en) * | 2011-05-20 | 2012-11-29 | パナソニック株式会社 | Visual fatigue-measuring apparatus, method thereof, visual fatigue-measuring system and three-dimensional glasses |
US20160364915A1 (en) | 2015-06-15 | 2016-12-15 | Google Inc. | Virtual reality content presentation including viewpoint transitions to prevent simulator sickness |
KR101802062B1 (en) * | 2016-03-14 | 2017-11-27 | 한국과학기술원 | Method and system to measure stereoscopic 3d content-induced visual discomfort based facial expression recognition for sensitivity tv |
KR20180005528A (en) * | 2016-07-06 | 2018-01-16 | 삼성전자주식회사 | Display apparatus and method for image processing |
-
2018
- 2018-12-06 KR KR1020180156048A patent/KR102141740B1/en active IP Right Grant
-
2019
- 2019-07-26 WO PCT/KR2019/009329 patent/WO2020116739A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101564964B1 (en) | 2015-02-05 | 2015-11-02 | 계명대학교 산학협력단 | Electrical stimulating head mounted display device reducing motion sickness in virtual reality |
KR101845972B1 (en) | 2016-10-24 | 2018-05-18 | 성균관대학교 산학협력단 | Measurement method and system of visual fatigue level based depth image and bio signal |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230029193A (en) | 2021-08-24 | 2023-03-03 | 연세대학교 산학협력단 | Apparatus and Method for Predicting Motion Sickness and Dizziness in Virtual Reality Content |
Also Published As
Publication number | Publication date |
---|---|
WO2020116739A1 (en) | 2020-06-11 |
KR20200069002A (en) | 2020-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102489677B1 (en) | System to comprehensively measure clinical parameters of visual function | |
Chardonnet et al. | Features of the postural sway signal as indicators to estimate and predict visually induced motion sickness in virtual reality | |
Kim et al. | Virtual reality sickness predictor: Analysis of visual-vestibular conflict and vr contents | |
Kim et al. | Vrsa net: Vr sickness assessment considering exceptional motion for 360 vr video | |
Garcia-Agundez et al. | Development of a classifier to determine factors causing cybersickness in virtual reality environments | |
KR102055481B1 (en) | Method and apparatus for quantitative evaluation assessment of vr content perceptual quality using deep running analysis of vr sickness factors | |
Kim et al. | VR sickness versus VR presence: A statistical prediction model | |
KR102055486B1 (en) | Apparatus for sickness assessment of vr contents using deep learning based analysis of visualvestibular mismatch and the method thereof | |
US11699072B2 (en) | Method for VR sickness assessment considering neural mismatch model and the apparatus thereof | |
JP2003189219A (en) | Method and system for displaying digital picture sequence | |
US10817057B2 (en) | Information processing device, information processing method, and program | |
JP7177224B2 (en) | Facial visual impression discrimination method, facial impression analysis device, facial impression analysis program, facial visual impression analysis method, and makeup effect discrimination method | |
US11366520B2 (en) | Method for analyzing element inducing motion sickness in virtual-reality content and apparatus using the same | |
Wellner et al. | Virtual competitors influence rowers | |
Kim et al. | Deep objective assessment model based on spatio-temporal perception of 360-degree video for VR sickness prediction | |
KR102141740B1 (en) | Apparatus and method for predicting virtual reality sickness | |
Elwardy et al. | Evaluation of simulator sickness for 360 videos on an hmd subject to participants’ experience with virtual reality | |
Wellner et al. | Does a virtual audience influence rowing? | |
JP6509712B2 (en) | Impression estimation device and program | |
Wolf et al. | Does distance matter? Embodiment and perception of personalized avatars in relation to the self-observation distance in virtual reality | |
Balasubramanian et al. | Prediction of discomfort due to egomotion in immersive videos for virtual reality | |
US10755088B2 (en) | Augmented reality predictions using machine learning | |
Lee et al. | A study on virtual reality sickness and visual attention | |
JP6445418B2 (en) | Impression estimation device, impression estimation method, and program | |
KR20200065834A (en) | System and method for evaluating user response of vr contents, and system and method for executing the vr contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |