WO2016086493A1 - 一种智能移动终端的浸入式视频呈现方法 - Google Patents

一种智能移动终端的浸入式视频呈现方法 Download PDF

Info

Publication number
WO2016086493A1
WO2016086493A1 PCT/CN2015/000223 CN2015000223W WO2016086493A1 WO 2016086493 A1 WO2016086493 A1 WO 2016086493A1 CN 2015000223 W CN2015000223 W CN 2015000223W WO 2016086493 A1 WO2016086493 A1 WO 2016086493A1
Authority
WO
WIPO (PCT)
Prior art keywords
video file
brightness information
ambient brightness
mobile terminal
image
Prior art date
Application number
PCT/CN2015/000223
Other languages
English (en)
French (fr)
Inventor
钱晓炯
张仝辉
林霞
Original Assignee
钱晓炯
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 钱晓炯 filed Critical 钱晓炯
Publication of WO2016086493A1 publication Critical patent/WO2016086493A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the invention relates to an immersive video presentation method for an intelligent mobile terminal.
  • the technical problem to be solved by the present invention is to provide an immersive video presentation method capable of interactively sensing light of a viewing environment and a video shooting environment for the above prior art.
  • an immersive video presentation method for an intelligent mobile terminal characterized in that: when a user opens a video file in the smart mobile terminal, the image is extracted according to the content of the video file.
  • the ambient brightness information of the video file, and the ambient brightness information when the user views the video file is collected, and the ambient brightness information when the video file is captured is compared with the ambient brightness information when the user views the video file.
  • the match is made, the video file is played, otherwise the video file is paused.
  • the ambient brightness information when the video file is captured is extracted by: when the user opens the video file in the smart mobile terminal, selecting a picture with rich image information in the video file as a freeze picture of the video file, and then The brightness information of the freeze frame is extracted, and the brightness information of the freeze frame is used as the ambient brightness information when the video file is captured.
  • freeze frame is selected by the following steps:
  • Step 1 Decoding the video file to decode the video file into multiple images of the YUV color format
  • Step 2 the image obtained in step 1 is reduced by 2 to 16 times;
  • Step 3 The threshold image method is used to divide the image obtained in step 2 into several subgraphs with large differences, and the image obtained by dividing the number of subgraphs larger than the set value is selected as the candidate image;
  • Step 4 Perform the face detection on the candidate image obtained in step 3, and select the image with the face as the freeze frame. Face, if there are multiple images with faces, select the image with the most balanced histogram as the freeze frame.
  • the ambient brightness information of the user when viewing the video file is obtained by:
  • Y represents brightness
  • R, G, and B represent environments respectively.
  • the matching scene design strategy is as follows:
  • the ambient brightness information when the video file is captured and the ambient brightness information when the user views the video file are used, and the matching degree between the two is represented by a sliding bar, and the leftmost end of the sliding bar indicates the case where the brightness is the lowest.
  • the rightmost end of the slider bar indicates the brightest condition; the right triangle below the slider bar indicates the ambient brightness information when the video file is captured, and the inverted triangle above the slider bar indicates the ambient brightness information when the video file is viewed.
  • condition that the ambient brightness information when the video file is captured matches the ambient brightness information when the user views the video file is designed as follows:
  • the way viewers turn on the video is to increase the fun of opening the video by collecting ambient light.
  • FIG. 1 is a schematic diagram of a user prompting a brightness of a viewing environment and a video shooting environment according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram of a video mismatch caused by a darkness of a viewing environment according to an embodiment of the present invention
  • FIG. 3 is a schematic diagram of a situation in which a brightness of a viewing environment is too bright and a video is not matched according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram of a situation in which a viewing environment and a video brightness are completely matched according to an embodiment of the present invention.
  • the present invention provides an immersive video presentation method for an intelligent mobile terminal.
  • the ambient brightness information when the video file is captured is extracted according to the content of the video file, and the user's viewing location is collected.
  • the ambient brightness information in which the video file is located is played when the ambient brightness information when the video file is captured matches the ambient brightness information when the user views the video file, otherwise the video file is paused.
  • the video file is a video file in the smart mobile terminal.
  • the ambient brightness information when the video file is captured is extracted by: when the user opens the video file in the smart mobile terminal, select a picture with rich image information in the video file as a freeze frame of the video file, and then extract the freeze frame.
  • the brightness information of the screen, the brightness information of the freeze frame is used as the ambient brightness information when the video file is captured.
  • the freeze frame is selected by the following steps:
  • Step 1 Decoding the video file to decode the video file into multiple images of the YUV color format
  • Step 2 the image obtained in step 1 is reduced by 2 to 16 times;
  • Step 3 The threshold image method is used to divide the image obtained in step 2 into several subgraphs with large differences, and the image obtained by dividing the number of subgraphs larger than the set value is selected as the candidate image; the threshold method used here is written by Yin Guofu. "Image Segmentation Technology Based on Threshold Method", published in Modern Electronic Technology, published at 2007 (23): 107-108;
  • Step 4 Perform the face detection on the candidate image obtained in step 3, select the image with the face as the freeze frame, and if there are multiple images with the face, select the image with the most balanced histogram.
  • the face detection technology is a conventional technique
  • the technique used to select the image with the most balanced histogram is a comparison of several illumination preprocessing methods applied to face recognition by Meng Fangbing and Wu Lei. ", published by the Journal of Wuhan University of Technology, published at 2010 (32): 542-546.
  • the freeze screen is the first screen displayed by the video file, which gives the user the initial impression. Since the first frame of the video is usually simple or almost free of any screen information, it is equally easy to find any frame in the video file. The picture is selected, and the selection of a suitable freeze frame can achieve a better effect on the user, so it is preferable to freeze the frame.
  • the ambient brightness information of the user when viewing the video file is obtained by:
  • RGB Red (R), green (G), and blue (B)
  • RGB Representing the colors of the three channels of red, green and blue, this standard includes almost all colors that human vision can perceive, and is one of the most widely used color formats.
  • Another widely used YUV color format refers to a pixel format in which the luminance parameter Y and the chrominance parameter UV are separately represented, and the advantage of such separation is that not only mutual interference can be avoided, but also the sampling rate of the chromaticity can be reduced without Image quality has too much impact.
  • Y represents the brightness, that is, the grayscale value: and "U” and “V” represent the chromaticity, which is used to describe the color and saturation of the image, and is used to specify the color of the pixel.
  • RGB RGB input signals by superimposing specific parts of the RGB signal together.
  • Chroma defines two aspects of color, hue and saturation, represented by Cr and Cb, respectively.
  • Cr reflects the difference between the red part of the RGB input signal and the brightness value of the RGB signal.
  • Cb reflects the difference between the blue portion of the RGB input signal and the luminance value of the RGB signal.
  • the luminance value of the entire image can be obtained by averaging the Y components representing the luminance information in the respective pixel values of the entire image.
  • the Y component value is converted by using a suitable conversion formula, such as RGB to YUV format.
  • a matching scene of the ambient brightness information when the video file is captured and the ambient brightness information when the user views the video file is designed.
  • the matching scene design strategy is as follows:
  • the ambient brightness information when the video file is captured and the ambient brightness information when the user views the video file are used, and the matching degree between the two is represented by a sliding bar, and the leftmost end of the sliding bar indicates the case where the brightness is the lowest.
  • the rightmost end of the slider bar indicates the brightest brightness, as shown in FIG. 1.
  • the regular triangle below the slider bar indicates the ambient brightness information when the video file is captured, and the inverted triangle above the slider bar indicates when the video file is viewed.
  • the conditions for matching the ambient brightness information when the video file is captured with the ambient brightness information when the user views the video file are designed as follows:

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Abstract

一种智能移动终端的浸入式视频呈现方法,在用户打开智能移动终端中的视频文件时,根据视频文件内容,提取拍摄所述视频文件时的环境亮度信息,同时采集用户观看所述视频文件时所处的环境亮度信息,当拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配时,才播放所述视频文件,否则暂停播放所述视频文件。与现有技术相比,本发明让观看者观看视频时的体验能够尽量接近拍摄者环境,产生浸入式的感觉;观看者打开视频的方式是通过采集环境光线,提升了打开视频的趣味性。

Description

一种智能移动终端的浸入式视频呈现方法 技术领域
本发明涉及一种智能移动终端的浸入式视频呈现方法。
背景技术
随着智能手机和pad等智能移动终端的广泛应用,该类产品已经成为了人们不可缺少的观看视频的工具。一般情况下用户用智能移动终端观看视频是不关心自身所处的环境的,观看者可能在强烈的阳光下去观看一段拍摄夜景的视频,也可能在晚上光线很暗的地方观看光线明亮的视频。对于这类情况,视频观看用户和视频拍摄者所处的环境有较大差异,因而观看视频的体验往往会有不协调感,或者看不清,或者会非常刺眼,从而导致观看的视频缺乏沉浸感和真实感。简而言之,就是和拍摄者不能产生共鸣,无法获得较好的视频体验。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种能对观看环境和视频拍摄环境的光线进行互动感知的浸入式视频呈现方法。
本发明解决上述技术问题所采用的技术方案为;一种智能移动终端的浸入式视频呈现方法,其特征在于:在用户打开智能移动终端中的视频文件时,根据视频文件内容,提取拍摄所述视频文件时的环境亮度信息,同时采集用户观看所述视频文件时所处的环境亮度信息,当拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配时,才播放所述视频文件,否则暂停播放所述视频文件。
作为改进,拍摄所述视频文件时的环境亮度信息通过以下方式提取;在用户打开智能移动终端中的视频文件时,选取视频文件中图像信息较为丰富的一幅画面作为视频文件的定格画面,然后提取该定格画面的亮度信息,将该定格画面的亮度信息作为拍摄所述视频文件时的环境亮度信息。
再改进,所述定格画面采用如下步骤选取:
步骤1、视频文件解码,使得视频文件解码成多张YUV颜色格式的图像;
步骤2、将步骤1得到的图像缩小2~16倍;
步骤3、采用阈值法将步骤2得到的图像分割成差异性较大的若干子图,选取分割所得子图数量大于设定值的图像作为备选图像;
步骤4、将步骤3所得到的备选图像做人脸检测,选取具有人脸的图像作为定格画 面,如果有多张具有人脸的图像,则选取直方图最均衡的一张具有人脸的图像作为定格画面。
再改进,用户观看所述视频文件时所处的环境亮度信息通过以下方式获取:
步骤(a);开启智能移动终端摄像头获取环境图像:检测到智能移动终端不存在摄像头时提示无法获取环境亮度;当智能移动终端存在两个摄像头时,首先开启前置摄像头采集环境图像,如果前置摄像头被遮挡则关闭前置摄像头并开启后置摄像头采集环境图像,如果智能移动终端存在的摄像头都被遮挡时,则提示用户请勿遮挡摄像头;
步骤(b):提取解析步骤(a)获取的环境图像的亮度信息作为用户观看所述视频文件时所处的环境亮度信息。
如果智能移动终端摄像头获取环境图像格式是RGB格式,利用转换公式Y=0.299R+0.587G+0.1114B获得该环境图像的亮度信息,其中“Y”表示明亮度,R、G、B分别代表环境图像的红、绿、蓝三个通道的颜色信息。
再改进,设计一个拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息的匹配场景,匹配场景设计策略如下:
策略(a):以定格画面为封面图,在封面图上标记拍摄所述视频文件时的环境亮度信息和用户观看所述视频文件时所处的环境亮度信息,并且采用正三角形和倒三角形分别表示拍摄所述视频文件时的环境亮度信息和用户观看所述视频文件时所处的环境亮度信息,利用滑动条来表征两者之间的匹配程度,滑动条的最左端表示亮度最低时的情况,滑动条的最右端表示亮度最亮的情况;滑动条下方的正三角形表示拍摄所述视频文件时的环境亮度信息,滑动条上方的倒三角表示观看所述视频文件时所处的环境亮度信息;当两者匹配时,视频文件解锁开始播放;
策略(b):对定格画面做模糊处理,用户观看所述视频文件时所处的环境亮度信息和拍摄所述视频文件时的环境亮度信息差距越大定格画面越模糊,反之定格画面越清晰,当两者完全匹配时不做模糊处理;
策略(c):定格画面的亮度值随着用户观看所述视频文件时所处的环境亮度信息的改变而改变,当用户观看所述视频文件时所处的环境亮度变暗时,定格画面变暗,反之定格画面变亮。
再改进,拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配的条件设计如下:
条件(a):拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息之间的误差值小于预设误差阈值时,即认为拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配;误差阈值为5%~15%;
条件(b):拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息在一段时间内均匹配时,才认为拍摄所述视频文件时的环境亮度信息与用户 观看所述视频文件时所处的环境亮度信息相匹配。
与现有技术相比,本发明的优点在于:
通过提取拍摄所述视频文件时的环境亮度信息,同时采集用户观看所述视频文件时所处的环境亮度信息,只有当拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配时,才播放所述视频文件,否则暂停播放所述视频文件,让观看者观看视频时的体验能够尽量接近拍摄者环境,产生浸入式的感觉;
观看者打开视频的方式是通过采集环境光线,提升了打开视频的趣味性。
附图说明
图1为本发明实施例中观看环境和视频拍摄环境亮度用户提示示意图;
图2为本发明实施例中观看环境亮度过暗导致视频不匹配情况示意图;
图3为本发明实施例中观看环境亮度过亮导致视频不匹配情况示意图;
图4为本发明实施例中观看环境与视频亮度完全匹配情况示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提供了一种智能移动终端的浸入式视频呈现方法,在用户打开智能移动终端中的视频文件时,根据视频文件内容,提取拍摄所述视频文件时的环境亮度信息,同时采集用户观看所述视频文件时所处的环境亮度信息,当拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配时,才播放所述视频文件,否则暂停播放所述视频文件。
由于本发明对硬件和软件的依赖度较小,具有一定的广泛性,因而具体实施项可使用在绝大多数视频消息类软件中。
拍摄所述视频文件时的环境亮度信息通过以下方式提取:在用户打开智能移动终端中的视频文件时,选取视频文件中图像信息较为丰富的一幅画面作为视频文件的定格画面,然后提取该定格画面的亮度信息,将该定格画面的亮度信息作为拍摄所述视频文件时的环境亮度信息。
所述定格画面采用如下步骤选取:
步骤1、视频文件解码,使得视频文件解码成多张YUV颜色格式的图像;
步骤2、将步骤1得到的图像缩小2~16倍;
步骤3、采用阈值法将步骤2得到的图像分割成差异性较大的若干子图,选取分割所得子图数量大于设定值的图像作为备选图像;这里使用的阈值法采用阴国富撰写的《基于阈值法的图像分割技术》,公布于现代电子技术,公布时间为2007(23):107-108;
步骤4、将步骤3所得到的备选图像做人脸检测,选取具有人脸的图像作为定格画面,如果有多张具有人脸的图像,则选取直方图最均衡的一张具有人脸的图像作为定格画面。本步骤中,人脸检测技术为常规技术,选取直方图最均衡的一张具有人脸的图像所采用的技术为孟芳兵和吴雷撰写的《几种应用于人脸识别的光照预处理方法对比》,由武汉理工大学学报公布,公布时间为2010(32):542-546。
定格画面是视频文件最初显示的画面,会给用户最初始的印象,由于视频首帧通常画面较为简单甚至几乎没有任何画面信息,而且选取视频文件中的任意一帧也同样容易找到晃动模糊不清的画面,而选择合适的定格画面则能够达到更好地吸引用户的效果,因此优选定格画面是必要的。
用户观看所述视频文件时所处的环境亮度信息通过以下方式获取:
步骤(a):开启智能移动终端摄像头获取环境图像;检测到智能移动终端不存在摄像头时提示无法获取环境亮度;当智能移动终端存在两个摄像头时,首先开启前置摄像头采集环境图像,如果前置摄像头被遮挡则关闭前置摄像头并开启后置摄像头采集环境图像,如果智能移动终端存在的摄像头都被遮挡时,则提示用户请勿遮挡摄像头:
步骤(b):提取解析步骤(a)获取的环境图像的亮度信息作为用户观看所述视频文件时所处的环境亮度信息。
图像中具有多种颜色编码格式,最常见的两种格式为RGB和YUV格式。RGB格式是工业界的一种颜色标准,是通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各种颜色,RGB即是代表红、绿、蓝三个通道的颜色,这个标准几乎包括了人类视力所能感知的所有颜色,是目前运用最广的颜色格式之一。
而另一种广泛应用的YUV颜色格式是指亮度参量Y和色度参量UV分开表示的像素格式,而这样分开的好处就是不但可以避免相互干扰,还可以降低色度的采样率而不会对图像质量影响太大。
其中“Y”表示明亮度,也就是灰阶值:而“U”和“V”表示的则是色度,作用是描述影像色彩及饱和度,用于指定像素的颜色。
“亮度”是透过RGB输入信号来建立的,方法是将RGB信号的特定部分叠加到一起。“色度”则定义了颜色的两个方面一色调与饱和度,分别用Cr和Cb来表示。
其中,Cr反映了RGB输入信号红色部分与RGB信号亮度值之间的差异。而Cb反映的是RGB输入信号蓝色部分与RGB信号亮度值之间的差异。
因此,通过将整幅图像的各个点像素值中的表征亮度信息的Y分量取平均即可得到整幅图像的亮度值。当图像格式不是YUV颜色格式时则采用合适的转换公式进行转换得到Y分量值,比如RGB转YUV格式等。为了减少计算量,当所获取的颜色格式不是YUV格式时,转换分量只需要Y分量。比如颜色格式RGB转YUV时,只需要利用转换公式Y=0.299R+0.587G+0.114B即可。
为了让用户能够直观地感受到当前环境和视频场景之间的亮度值差异,设计一个拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息的匹配场景,匹配场景设计策略如下:
策略(a):以定格画面为封面图,在封面图上标记拍摄所述视频文件时的环境亮度信息和用户观看所述视频文件时所处的环境亮度信息,并且采用正三角形和倒三角形分别表示拍摄所述视频文件时的环境亮度信息和用户观看所述视频文件时所处的环境亮度信息,利用滑动条来表征两者之间的匹配程度,滑动条的最左端表示亮度最低时的情况,滑动条的最右端表示亮度最亮的情况,如图1所示:滑动条下方的正三角形表示拍摄所述视频文件时的环境亮度信息,滑动条上方的倒三角表示观看所述视频文件时所处的环境亮度信息;当两者匹配时,视频文件解锁开始播放;
策略(b):对定格画面做模糊处理,用户观看所述视频文件时所处的环境亮度信息和拍摄所述视频文件时的环境亮度信息差距越大定格画面越模糊,反之定格画面越清晰,当两者完全匹配时不做模糊处理;如图2所示中两者之间的亮度值差异较大,画面模糊程度较高,图3中亮度值差异相对较小模糊程度降低,图4中两者匹配画面清晰
策略(c):定格画面的亮度值随着用户观看所述视频文件时所处的环境亮度信息的改变而改变,当用户观看所述视频文件时所处的环境亮度变暗时,定格画面变暗,如图2所示,反之定格画面变亮,如图3所示。
拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配的条件设计如下:
条件(a):拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息之间的误差值小于预设误差阈值时,即认为拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配;误差阈值为5%~15%;
条件(b):拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息在一段时间内均匹配时,才认为拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配。

Claims (7)

  1. 一种智能移动终端的浸入式视频呈现方法,其特征在于:在用户打开智能移动终端中的视频文件时,根据视频文件内容,提取拍摄所述视频文件时的环境亮度信息,同时采集用户观看所述视频文件时所处的环境亮度信息;
    当拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配时,才播放所述视频文件,否则暂停播放所述视频文件。
  2. 根据权利要求1所述的智能移动终端的浸入式视频呈现方法,其特征在于:拍摄所述视频文件时的环境亮度信息通过以下方式提取:在用户打开智能移动终端中的视频文件时,选取视频文件中图像信息较为丰富的一幅画面作为视频文件的定格画面,然后提取该定格画面的亮度信息,将该定格画面的亮度信息作为拍摄所述视频文件时的环境亮度信息。
  3. 根据权利要求2所述的智能移动终端的浸入式视频呈现方法,其特征在于:所述定格画面采用如下步骤选取:
    步骤1、视频文件解码,使得视频文件解码成多张YUV颜色格式的图像;
    步骤2、将步骤1得到的图像缩小2~16倍;
    步骤3、采用阈值法将步骤2得到的图像分割成差异性较大的若干子图,选取分割所得子图数量大于设定值的图像作为备选图像;
    步骤4、将步骤3所得到的备选图像做人脸检测,选取具有人脸的图像作为定格画面,如果有多张具有人脸的图像,则选取直方图最均衡的一张具有人脸的图像作为定格画面。
  4. 根据权利要求1所述的智能移动终端的浸入式视频呈现方法,其特征在于:用户观看所述视频文件时所处的环境亮度信息通过以下方式获取:
    步骤(a):开启智能移动终端摄像头获取环境图像:检测到智能移动终端不存在摄像头时提示无法获取环境亮度;当智能移动终端存在两个摄像头时,首先开启前置摄像头采集环境图像,如果前置摄像头被遮挡则关闭前置摄像头并开启后置摄像头采集环境图像,如果智能移动终端存在的摄像头都被遮挡时,则提示用户请勿遮挡摄像头;
    步骤(b):提取解析步骤(a)获取的环境图像的亮度信息作为用户观看所述视频文件时所处的环境亮度信息。
  5. 根据权利要求4所述的智能移动终端的浸入式视频呈现方法,其特征在于:如果智能移动终端摄像头获取环境图像格式是RGB格式,利用转换公式Y=0.299R+0.587G+0.114B获得该环境图像的亮度信息,其中“Y”表示明亮度,R、G、B分别代表环境图像的红、绿、蓝三个通道的颜色信息。
  6. 根据权利要求2所述的智能移动终端的浸入式视频呈现方法,其特征在于;设 计一个拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息的匹配场景,匹配场景设计策略如下:
    策略(a):以定格画面为封面图,在封面图上标记拍摄所述视频文件时的环境亮度信息和用户观看所述视频文件时所处的环境亮度信息,并且采用正三角形和倒三角形分别表示拍摄所述视频文件时的环境亮度信息和用户观看所述视频文件时所处的环境亮度信息,利用滑动条来表征两者之间的匹配程度,滑动条的最左端表示亮度最低时的情况,滑动条的最右端表示亮度最亮的情况;滑动条下方的正三角形表示拍摄所述视频文件时的环境亮度信息,滑动条上方的倒三角表示观看所述视频文件时所处的环境亮度信息;当两者匹配时,视频文件解锁开始播放;
    策略(b):对定格画面做模糊处理,用户观看所述视频文件时所处的环境亮度信息和拍摄所述视频文件时的环境亮度信息差距越大定格画面越模糊,反之定格画面越清晰,当两者完全匹配时不做模糊处理;
    策略(c):定格画面的亮度值随着用户观看所述视频文件时所处的环境亮度信息的改变而改变,当用户观看所述视频文件时所处的环境亮度变暗时,定格画面变暗,反之定格画面变亮。
  7. 根据权利要求2所述的智能移动终端的浸入式视频呈现方法,其特征在于:拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配的条件设计如下:
    条件(a):拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息之间的误差值小于预设误差阈值时,即认为拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配;误差阈值为5%~15%;
    条件(b):拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息在一段时间内均匹配时,才认为拍摄所述视频文件时的环境亮度信息与用户观看所述视频文件时所处的环境亮度信息相匹配。
PCT/CN2015/000223 2014-12-05 2015-03-31 一种智能移动终端的浸入式视频呈现方法 WO2016086493A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410738472.7A CN104469239B (zh) 2014-12-05 2014-12-05 一种智能移动终端的浸入式视频呈现方法
CN201410738472.7 2014-12-05

Publications (1)

Publication Number Publication Date
WO2016086493A1 true WO2016086493A1 (zh) 2016-06-09

Family

ID=52914520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2015/000223 WO2016086493A1 (zh) 2014-12-05 2015-03-31 一种智能移动终端的浸入式视频呈现方法

Country Status (2)

Country Link
CN (1) CN104469239B (zh)
WO (1) WO2016086493A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469239B (zh) * 2014-12-05 2018-08-03 宁波菊风***软件有限公司 一种智能移动终端的浸入式视频呈现方法
CN106604103A (zh) * 2016-12-21 2017-04-26 青岛海信电器股份有限公司 一种电视开机广告的显示方法和装置
CN111738887B (zh) * 2020-07-19 2020-12-04 平安国际智慧城市科技股份有限公司 线上实时数据交互方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101753851A (zh) * 2008-12-17 2010-06-23 华为终端有限公司 背景更换的方法、虚拟场景合成的方法及相关***和设备
CN102665062A (zh) * 2012-03-16 2012-09-12 华为技术有限公司 一种使视频中目标物体图像稳定的方法及装置
CN103957345A (zh) * 2014-04-08 2014-07-30 京东方科技集团股份有限公司 一种图像信号处理方法、***及显示器
CN104093069A (zh) * 2014-06-13 2014-10-08 北京奇艺世纪科技有限公司 一种视频播放方法和播放器装置
CN104469239A (zh) * 2014-12-05 2015-03-25 宁波菊风***软件有限公司 一种智能移动终端的浸入式视频呈现方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101626424B (zh) * 2009-07-22 2012-05-23 华为终端有限公司 一种自动调节背光亮度的方法及移动终端
CN201976222U (zh) * 2011-03-17 2011-09-14 广东九联科技股份有限公司 一种根据环境调节输出亮度的机顶盒
US9442562B2 (en) * 2011-05-27 2016-09-13 Dolby Laboratories Licensing Corporation Systems and methods of image processing that adjust for viewer position, screen size and viewing distance
CN103809843B (zh) * 2012-11-08 2018-08-24 腾讯科技(深圳)有限公司 一种在浏览器中调节显示屏亮度的方法和装置
CN102981741B (zh) * 2012-11-14 2016-08-03 广东欧珀移动通信有限公司 一种移动终端控制音频播放的方法及***
CN103325355B (zh) * 2013-06-18 2016-01-20 华南理工大学 一种基于图像内容动态调节背光亮度的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101753851A (zh) * 2008-12-17 2010-06-23 华为终端有限公司 背景更换的方法、虚拟场景合成的方法及相关***和设备
CN102665062A (zh) * 2012-03-16 2012-09-12 华为技术有限公司 一种使视频中目标物体图像稳定的方法及装置
CN103957345A (zh) * 2014-04-08 2014-07-30 京东方科技集团股份有限公司 一种图像信号处理方法、***及显示器
CN104093069A (zh) * 2014-06-13 2014-10-08 北京奇艺世纪科技有限公司 一种视频播放方法和播放器装置
CN104469239A (zh) * 2014-12-05 2015-03-25 宁波菊风***软件有限公司 一种智能移动终端的浸入式视频呈现方法

Also Published As

Publication number Publication date
CN104469239A (zh) 2015-03-25
CN104469239B (zh) 2018-08-03

Similar Documents

Publication Publication Date Title
CN105654471B (zh) 应用于互联网视频直播的增强现实ar***及方法
CN107079083B (zh) 一种拍照方法、拍照装置和终端
CN107038680B (zh) 自适应光照的美颜方法及***
CN103971351B (zh) 使用多光谱滤光器阵列传感器的图像融合方法和设备
KR101985880B1 (ko) 디스플레이 장치 및 이의 제어 방법
TR201808347T4 (tr) Dinamik erim eşleştirmelerine yönelik doyma işleminin belirtimi.
CN103716547A (zh) 一种智能模式的拍照方法
CN106570850B (zh) 一种图像融合方法
CN108965647B (zh) 一种前景图像获得方法及装置
CN108717691B (zh) 一种图像融合方法、装置、电子设备及介质
US9426385B2 (en) Image processing based on scene recognition
KR101765428B1 (ko) 이미지 기록 또는 표시 전에 장면 의존적 이미지 수정을 가능하게 하는 라이브 장면 인식
CN108961299B (zh) 一种前景图像获得方法及装置
CN113824913A (zh) 视频处理方法、装置、电子设备和存储介质
CN106506950A (zh) 一种图像处理方法及装置
CN106027886A (zh) 一种全景视频实现同步帧的方法及***
CN106550227B (zh) 一种图像饱和度调整方法及装置
WO2016086493A1 (zh) 一种智能移动终端的浸入式视频呈现方法
CN113301384B (zh) 一种背景的替换方法、装置、电子设备及可读存储介质
JP6977483B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN107564073B (zh) 肤色识别方法及装置、存储介质
US7876364B2 (en) False color suppression method for digital image
KR102338877B1 (ko) 딥러닝을 이용한 자가 촬영 영상의 화질 개선 방법
CN107454318A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN108205795A (zh) 一种直播过程中人脸图像处理方法及***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15866081

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15866081

Country of ref document: EP

Kind code of ref document: A1