CN104767980A - 一种实时情绪演示方法、***、装置和智能终端 - Google Patents
一种实时情绪演示方法、***、装置和智能终端 Download PDFInfo
- Publication number
- CN104767980A CN104767980A CN201510216709.XA CN201510216709A CN104767980A CN 104767980 A CN104767980 A CN 104767980A CN 201510216709 A CN201510216709 A CN 201510216709A CN 104767980 A CN104767980 A CN 104767980A
- Authority
- CN
- China
- Prior art keywords
- head portrait
- mood
- expression
- imitation
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种实时情绪演示方法,包括:A.获取使用者选定的模仿头像组;B.通过摄像装置实时识别人脸的表情及表情变化;C.通过模仿头像组演示表情及表情变化。使用者可以选定自己喜欢的头像例如喜欢的明星、萌娃等作为演示对象,在自身表情变化时,明星头像或萌娃头像等可以实时模仿演示使用者的表情及表情变化情况,能够个性化的针对不同使用者提供情绪演示,给每个使用者带来乐趣,提高用户体验。对应的,本发明还提供了实时情绪演示***、装置和移动终端。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种实时情绪演示方法、***、装置和智能终端。
背景技术
随着通讯技术的发展,手机、Pad和笔记本电脑等智能终端已经成为人们工作中所必不可少的工具,同时,这些智能终端也给人们的生活带来了很多乐趣。
然而,当前行业内提供的技术,在娱乐性方面不能够有针对性的给每个使用者带来乐趣,用户体验不好。
发明内容
本发明的目的在于提供一种实时情绪演示方法、***、装置和智能终端,能够个性化的针对不同使用者提供情绪演示,给每个使用者带来乐趣,提高用户体验。
本发明通过以下技术方案实现:
一种实时情绪演示方法,包括:A.获取使用者选定的模仿头像组;B.通过摄像装置实时识别人脸的表情及表情变化;C.通过模仿头像组演示表情及表情变化。
优选的,模仿头像组包括:***内置的动漫头像、明星头像、萌娃头像或使用者自定义的头像。
优选的,模仿头像组以静态图片或静态图片组成的过程图片组的形式存储;过程图片组由多张表达表情变化的静态图片组成。
优选的,还包括静态图片的特征信息的提取;特征信息包括头像的局部特征信息;实时情绪演示方法还包括:根据局部特征信息合成模仿头像。
优选的,步骤A之前,还包括:A1.通过摄像装置判断摄像区内是否有人脸存在,如果有人脸存在,则进入步骤A。
优选的,步骤A1之后,步骤B之前还包括:采用跟踪对焦技术,对人脸进行连续追焦。
优选的,还包括语音信息的模仿,语音信息的模仿包括:D.获取使用者选定的模仿语音源;E.通过语音获取装置实时获取人的语音信息;F.通过模仿语音源演示人的语音信息。
本发明还提供了一种智能终端。
一种智能终端,智能终端采用实时情绪演示方法进行情绪演示。
优选的,实时情绪演示方法,包括:A.获取使用者选定的模仿头像组;B.通过摄像装置实时识别人脸的表情及表情变化;C.通过模仿头像组演示表情及表情变化。
优选的,模仿头像组包括:***内置的动漫头像、明星头像、萌娃头像或使用者自定义的头像。
优选的,模仿头像组以静态图片或静态图片组成的过程图片组的形式存储;过程图片组由多张表达表情变化的静态图片组成。
优选的,还包括静态图片的特征信息的提取;特征信息包括头像的局部特征信息;实时情绪演示方法还包括:根据局部特征信息合成模仿头像。
优选的,步骤A之前,还包括:A1.通过摄像装置判断摄像区内是否有人脸存在,如果有人脸存在,则进入步骤A。
优选的,步骤A1之后,步骤B之前还包括:采用跟踪对焦技术,对人脸进行连续追焦。
优选的,还包括语音信息的模仿:D.获取使用者选定的模仿语音源;E.通过语音获取装置实时获取人的语音信息;F.通过模仿语音源演示人的语音信息。
本发明还提供了一种实时情绪演示***。
一种实时情绪演示***,包括:获取单元,用于获取使用者选定的模仿头像组;识别单元,用于通过摄像装置实时识别人脸的表情及表情变化;演示单元,用于通过模仿头像组演示表情及表情变化。
本发明还提供了一种实时情绪演示装置。
一种实时情绪演示装置,包括:获取模块,用于获取使用者选定的模仿头像组;识别模块,用于通过摄像装置实时识别人脸的表情及表情变化;演示模块,用于通过模仿头像组演示表情及表情变化。
本发明的有益效果为:一种实时情绪演示方法,包括:A.获取使用者选定的模仿头像组;B.通过摄像装置实时识别人脸的表情及表情变化;C.通过模仿头像组演示表情及表情变化。使用者可以选定自己喜欢的头像例如喜欢的明星、萌娃等作为演示对象,在自身表情变化时,明星头像或萌娃头像等可以实时模仿演示使用者的表情及表情变化情况,能够个性化的针对不同使用者提供情绪演示,给每个使用者带来乐趣,提高用户体验。对应的,本发明还提供了实时情绪演示***、装置和移动终端。
附图说明
为了更清楚、有效地说明本发明实施例的技术方案,将实施例中所需要使用的附图作简单介绍,不言自明的是,下面描述中的附图仅仅是本发明的一些实施例,对于本领域中的普通技术人员来讲,无需付出创造性劳动的前提下,还可以根据这些附图做出其它附图。
图1是本发明一种实时情绪演示方法的流程图。
图2是本发明一种实时情绪演示方法的动漫头像眨眼前后的示意图。
图3是本发明一种实时情绪演示方法的动漫头像眨眼及撇嘴前后的示意图。
图4是本发明一种实时情绪演示方法的非获取语音、获取语音及语音模仿状态下触屏的显示示意图。
具体实施方式
本发明提供了一种实时情绪演示方法、***、装置和智能终端,为了使本领域中的技术人员更清楚的理解本发明方案,并使本发明上述的目的、特征、有益效果能够更加明白、易懂,下面结合附图1~4和具体实施方式对本发明作进一步详细的说明。
一种实时情绪演示方法
一种实时情绪演示方法,包括:
步骤101.获取使用者选定的模仿头像组。
步骤102.通过摄像装置实时识别人脸的表情及表情变化。
步骤103.通过模仿头像组演示表情及表情变化。
使用者可以选定自己喜欢的头像例如喜欢的明星、萌娃等作为演示、对话对象,在自身表情变化时,明星头像或萌娃头像等可以实时模仿演示使用者的表情及表情变化情况,能够个性化的针对不同使用者提供情绪演示,给每个使用者带来乐趣,提高用户体验。
本实施例中,模仿头像组包括:***内置的动漫头像、明星头像、萌娃头像或使用者自定义的头像。
本实施例中,模仿头像组以静态图片或静态图片组成的过程图片组的形式存储;过程图片组由多张表达表情变化的静态图片组成。
本实施例中,还包括静态图片的特征信息的提取;特征信息包括头像的局部特征信息;实时情绪演示方法还包括:根据局部特征信息合成模仿头像。
本实施例中,步骤101之前,还包括:步骤100.通过摄像装置判断摄像区内是否有人脸存在,如果有人脸存在,则进入步骤101。
本实施例中,步骤100之后,步骤101之前还包括:采用跟踪对焦技术,对人脸进行连续追焦。
本实施例中,还包括语音信息的模仿,语音信息的模仿包括:
步骤104.获取使用者选定的模仿语音源。
步骤105.通过语音获取装置实时获取人的语音信息。
步骤106.通过模仿语音源演示人的语音信息。
本发明还提供了一种智能终端。
一种智能终端,智能终端采用实时情绪演示方法进行情绪演示。
本实施例中,实时情绪演示方法包括:
步骤100.通过摄像装置判断摄像区内是否有人脸存在,如果有人脸存在,则进入步骤101。
步骤101.获取使用者选定的模仿头像组。
步骤102.通过摄像装置实时识别人脸的表情及表情变化。
步骤103.通过模仿头像组演示表情及表情变化。
使用者可以选定自己喜欢的头像例如喜欢的明星头像、萌娃头像等作为演示、对话对象,在自身表情变化时,明星头像或萌娃头像等可以实时模仿演示使用者的表情及表情变化情况,能够个性化的针对不同使用者提供情绪演示,给每个使用者带来乐趣,提高用户体验。
本实施例中,模仿头像组包括:***内置的动漫头像、明星头像、萌娃头像或使用者自定义的头像。
本实施例中,模仿头像组以静态图片或静态图片组成的过程图片组的形式存储;过程图片组由多张表达表情变化的静态图片组成。
本实施例中,还包括静态图片的特征信息的提取;特征信息包括头像的局部特征信息;实时情绪演示方法还包括:根据局部特征信息合成模仿头像。
本实施例中,步骤100之后,步骤101之前还包括:采用跟踪对焦技术,对人脸进行连续追焦。对于触控面板,使用Touch-To-Track追踪对焦技术进行跟踪对焦,轻轻一划选定追踪并锁定对象,跟随移动路线连续对焦,动态调整焦点并计算曝光,这样可对人脸进行动态追焦,锁定所指人物,不会因为随着人物的移动而找不到焦点。比如说玩家往左移动时,摄像装置的焦点也会相应的向左移动。
本实例中,步骤101中,当使用者需要使用某个特定的应用表情时,使用者可以从***内置的动漫头像、明星头像或萌娃头像中选择自己喜欢的头像;使用者也可以从网上下载一组某个明星的表情图片组数据包,作为模仿头像组。
本实例中,步骤102中通过摄像装置实时识别人脸的表情及表情变化时,采用基于两步降维和并行特征融合的人脸表情识别方法进行表情识别,其主要包括以下步骤:①、对原始人脸表情图像进行裁剪及图像预处理;②、分别利用对人睑表情分别提取局部二值模式(LBP)和Gabor小波两类特征提取方法对经过与处理的人脸表情图像进行特征提取;③、在实数域内利用主成分分析法(PCA)分别对两组特征数据分别进行第一次降维;④、将经过第一次降维处理后的两组特征数据进行特征融合;⑤、利用基于酉空间的混合判别分析方法(unitary-space HDA方法)在酉空间内对并行融合特征进行第二次降维;⑥、利用支持向量机进行数据分类和预测,同时以向量形式进行保存(关于基于两步降维和并行特征融合的人脸识别方法详见文献《一种基于两步降维和并行特征融合的人脸表情识别方法》(中国专利申请号:201410756812.9)。
本实例中,由上可知人脸表情将会由向量形式存储并且每个表情都得到标记,实现对人类基本情感表情:高兴、悲伤、愤怒、厌恶害怕,惊讶,睁闭眼的有效识别,并存入数据库中。
本实例中,***内部的数据库中存放整套的表达表情的模仿头像组,模仿头像组中的每张图片都标记有特征信息,并且每两种表情相互之间都以向量的方式连接,并标记为一种动作过程图片组(例如存在由高兴到悲伤,和由悲伤到高兴的动作过程图片组向量,由睁眼到闭眼,由闭眼到睁眼的动作过程图片组向量)。
由人脸识别技术即可实时检测到脸部表情的变化过程,实时记录过程,例如检测到脸部动作是由高兴到悲伤即可播放数据库中模仿头像组(图片数据包)中的由高兴到悲伤的图片组;当检测到由闭眼到睁眼的过程时,即可播放图片数据包中的由睁眼到闭眼的图片组,以此种方式,建立特征信息与图片组的映射关系。
本实施例中,步骤100之后还包括步骤000。
步骤000.判断是否有语音输入,如果有语音输入,则进行语音信息的模仿。
语音信息的模仿包括:
步骤104.获取使用者选定的模仿语音源。
步骤105.通过语音获取装置实时获取人的语音信息。
步骤106.通过模仿语音源演示人的语音信息。
在表情模仿界面底部中间,有一语音录音按钮图标,长按该键,你将可以对自己的语音进行录音,并把用户的录音无损的压缩成流,然后传给数据处理中心对数据进行处理后,把数据返回给手机APP(App,Application,指的是智能终端的第三方应用程序。),然后对其进行播报。在进行播报时,录音按钮图标会自动转换成喇叭图标,播报完毕后又自动换成录音图标。
本发明还提供了一种实时情绪演示***。
一种实时情绪演示***,包括:
获取单元,用于获取使用者选定的模仿头像组;
识别单元,用于通过摄像装置实时识别人脸的表情及表情变化;
演示单元,用于通过模仿头像组演示表情及表情变化。
本发明还提供了一种实时情绪演示装置。
一种实时情绪演示装置,包括:
获取模块,用于获取使用者选定的模仿头像组。
识别模块,用于通过摄像装置实时识别人脸的表情及表情变化。
演示模块,用于通过模仿头像组演示表情及表情变化。
以上结合具体实施例描述了本发明的技术原理。这些描述只是为了解释本发明的原理,而不能以任何方式解释为对本发明保护范围的限制。基于此处的解释,本领域的技术人员不需要付出创造性的劳动即可联想到本发明的其它具体实施方式,这些方式都将落入本发明的保护范围之内。
Claims (10)
1.一种实时情绪演示方法,其特征在于,包括:
A. 获取使用者选定的模仿头像组;
B. 通过摄像装置实时识别人脸的表情及表情变化;
C. 通过所述模仿头像组演示所述表情及表情变化。
2.如权利要求1所述的实时情绪演示方法,其特征在于,所述模仿头像组包括:***内置的动漫头像、明星头像、萌娃头像或使用者自定义的头像。
3.如权利要求2所述的实时情绪演示方法,其特征在于,所述模仿头像组以静态图片或静态图片组成的过程图片组的形式存储;所述过程图片组由多张表达表情变化的静态图片组成。
4.如权利要求3所述的实时情绪演示方法,其特征在于,还包括静态图片的特征信息的提取;所述特征信息包括头像的局部特征信息;所述实时情绪演示方法还包括:根据所述局部特征信息合成模仿头像。
5.如权利要求1所述的实时情绪演示方法,其特征在于,所述步骤A之前,还包括:
A1. 通过摄像装置判断摄像区内是否有人脸存在,如果有人脸存在,则进入步骤A。
6.如权利要求5所述的实时情绪演示方法,其特征在于,所述步骤A1之后,所述步骤B之前,还包括:采用跟踪对焦技术,对所述人脸进行连续追焦。
7.如权利要求1所述的实时情绪演示方法,其特征在于,还包括语音信息的模仿,所述语音信息的模仿包括:
D. 获取使用者选定的模仿语音源;
E. 通过语音获取装置实时获取人的语音信息;
F. 通过所述模仿语音源演示所述人的语音信息。
8.一种智能终端,其特征在于,所述智能终端采用权利要求1~7任一项所述的实时情绪演示方法进行情绪演示。
9.一种实时情绪演示***,其特征在于,包括:
获取单元,用于获取使用者选定的模仿头像组;
识别单元,用于通过摄像装置实时识别人脸的表情及表情变化;
演示单元,用于通过所述模仿头像组演示所述表情及表情变化。
10.一种实时情绪演示装置,其特征在于,包括:
获取模块,用于获取使用者选定的模仿头像组;
识别模块,用于通过摄像装置实时识别人脸的表情及表情变化;
演示模块,用于通过所述模仿头像组演示所述表情及表情变化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510216709.XA CN104767980B (zh) | 2015-04-30 | 2015-04-30 | 一种实时情绪演示方法、***、装置和智能终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510216709.XA CN104767980B (zh) | 2015-04-30 | 2015-04-30 | 一种实时情绪演示方法、***、装置和智能终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104767980A true CN104767980A (zh) | 2015-07-08 |
CN104767980B CN104767980B (zh) | 2018-05-04 |
Family
ID=53649551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510216709.XA Active CN104767980B (zh) | 2015-04-30 | 2015-04-30 | 一种实时情绪演示方法、***、装置和智能终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104767980B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919899A (zh) * | 2017-01-18 | 2017-07-04 | 北京光年无限科技有限公司 | 基于智能机器人的模仿人脸表情输出的方法和*** |
US11858118B2 (en) | 2016-12-31 | 2024-01-02 | Huawei Technologies Co., Ltd. | Robot, server, and human-machine interaction method |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050147292A1 (en) * | 2000-03-27 | 2005-07-07 | Microsoft Corporation | Pose-invariant face recognition system and process |
CN1794265A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 基于视频的面部表情识别方法及装置 |
CN101098241A (zh) * | 2006-06-26 | 2008-01-02 | 腾讯科技(深圳)有限公司 | 虚拟形象实现方法及其*** |
CN101149840A (zh) * | 2006-09-20 | 2008-03-26 | 清华大学 | 一种复杂表情仿真***及其实现方法 |
US20090116684A1 (en) * | 2007-11-01 | 2009-05-07 | Sony Ericsson Mobile Communications Ab | Generating music playlist based on facial expression |
CN101615245A (zh) * | 2009-07-30 | 2009-12-30 | 上海交通大学 | 基于avr和增强lbp的表情识别方法 |
CN101944163A (zh) * | 2010-09-25 | 2011-01-12 | 德信互动科技(北京)有限公司 | 通过捕捉人脸表情实现游戏角色表情同步的方法 |
CN102058983A (zh) * | 2010-11-10 | 2011-05-18 | 无锡中星微电子有限公司 | 基于视频分析的智能玩具 |
CN102470273A (zh) * | 2009-07-09 | 2012-05-23 | 微软公司 | 基于玩家表情的视觉表示表情 |
CN103035022A (zh) * | 2012-12-07 | 2013-04-10 | 大连大学 | 基于特征点的人脸表情合成方法 |
CN103268623A (zh) * | 2013-06-18 | 2013-08-28 | 西安电子科技大学 | 一种基于频域分析的静态人脸表情合成方法 |
TW201403536A (zh) * | 2012-04-09 | 2014-01-16 | Intel Corp | 頭像管理和選擇的系統及方法 |
CN103886632A (zh) * | 2014-01-06 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 用户表情头像的生成方法及通信终端 |
CN104408440A (zh) * | 2014-12-10 | 2015-03-11 | 重庆邮电大学 | 一种基于两步降维和并行特征融合的人脸表情识别方法 |
CN104463109A (zh) * | 2014-11-24 | 2015-03-25 | 苏州福丰科技有限公司 | 一种基于玩具的三维人脸识别方法 |
CN104461525A (zh) * | 2014-11-27 | 2015-03-25 | 韩慧健 | 一种可自定义的智能咨询平台生成*** |
-
2015
- 2015-04-30 CN CN201510216709.XA patent/CN104767980B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050147292A1 (en) * | 2000-03-27 | 2005-07-07 | Microsoft Corporation | Pose-invariant face recognition system and process |
CN1794265A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 基于视频的面部表情识别方法及装置 |
CN101098241A (zh) * | 2006-06-26 | 2008-01-02 | 腾讯科技(深圳)有限公司 | 虚拟形象实现方法及其*** |
CN101149840A (zh) * | 2006-09-20 | 2008-03-26 | 清华大学 | 一种复杂表情仿真***及其实现方法 |
US20090116684A1 (en) * | 2007-11-01 | 2009-05-07 | Sony Ericsson Mobile Communications Ab | Generating music playlist based on facial expression |
CN102470273A (zh) * | 2009-07-09 | 2012-05-23 | 微软公司 | 基于玩家表情的视觉表示表情 |
CN101615245A (zh) * | 2009-07-30 | 2009-12-30 | 上海交通大学 | 基于avr和增强lbp的表情识别方法 |
CN101944163A (zh) * | 2010-09-25 | 2011-01-12 | 德信互动科技(北京)有限公司 | 通过捕捉人脸表情实现游戏角色表情同步的方法 |
CN102058983A (zh) * | 2010-11-10 | 2011-05-18 | 无锡中星微电子有限公司 | 基于视频分析的智能玩具 |
TW201403536A (zh) * | 2012-04-09 | 2014-01-16 | Intel Corp | 頭像管理和選擇的系統及方法 |
CN103035022A (zh) * | 2012-12-07 | 2013-04-10 | 大连大学 | 基于特征点的人脸表情合成方法 |
CN103268623A (zh) * | 2013-06-18 | 2013-08-28 | 西安电子科技大学 | 一种基于频域分析的静态人脸表情合成方法 |
CN103886632A (zh) * | 2014-01-06 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 用户表情头像的生成方法及通信终端 |
CN104463109A (zh) * | 2014-11-24 | 2015-03-25 | 苏州福丰科技有限公司 | 一种基于玩具的三维人脸识别方法 |
CN104461525A (zh) * | 2014-11-27 | 2015-03-25 | 韩慧健 | 一种可自定义的智能咨询平台生成*** |
CN104408440A (zh) * | 2014-12-10 | 2015-03-11 | 重庆邮电大学 | 一种基于两步降维和并行特征融合的人脸表情识别方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11858118B2 (en) | 2016-12-31 | 2024-01-02 | Huawei Technologies Co., Ltd. | Robot, server, and human-machine interaction method |
CN106919899A (zh) * | 2017-01-18 | 2017-07-04 | 北京光年无限科技有限公司 | 基于智能机器人的模仿人脸表情输出的方法和*** |
CN106919899B (zh) * | 2017-01-18 | 2020-07-28 | 北京光年无限科技有限公司 | 基于智能机器人的模仿人脸表情输出的方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN104767980B (zh) | 2018-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810409B2 (en) | Identifying facial expressions in acquired digital images | |
US20160134840A1 (en) | Avatar-Mediated Telepresence Systems with Enhanced Filtering | |
Pham et al. | Generative adversarial talking head: Bringing portraits to life with a weakly supervised neural network | |
CN110309254A (zh) | 智能机器人与人机交互方法 | |
US11860925B2 (en) | Human centered computing based digital persona generation | |
US10755087B2 (en) | Automated image capture based on emotion detection | |
Dahmani et al. | Conditional variational auto-encoder for text-driven expressive audiovisual speech synthesis | |
Hajarolasvadi et al. | Generative adversarial networks in human emotion synthesis: A review | |
CN114359517A (zh) | 虚拟形象生成方法、虚拟形象生成***和计算设备 | |
CN108595012A (zh) | 基于虚拟人的视觉交互方法及*** | |
CN116704085B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN112190921A (zh) | 一种游戏交互方法及装置 | |
Marshall et al. | 4D Cardiff Conversation Database (4D CCDb): A 4D database of natural, dyadic conversations | |
López-Gil et al. | Do deepfakes adequately display emotions? a study on deepfake facial emotion expression | |
CN104767980A (zh) | 一种实时情绪演示方法、***、装置和智能终端 | |
CN112149599A (zh) | 表情追踪方法、装置、存储介质和电子设备 | |
Roberto et al. | Toward the automatic retrieval and annotation of outsider art images: A preliminary statement | |
CN108628454A (zh) | 基于虚拟人的视觉交互方法及*** | |
Dodić et al. | The Picture World of the Future: AI Text-to-image as a New Era of Visual Content Creation | |
Chen et al. | VAST: Vivify your talking avatar via zero-shot expressive facial style transfer | |
Lee | Virtual representation of facial avatar through weighted emotional recognition | |
Buddhika et al. | Smart photo editor for differently-abled people using assistive technology | |
Vandeventer | 4D (3D Dynamic) statistical models of conversational expressions and the synthesis of highly-realistic 4D facial expression sequences | |
Punj et al. | Detection of emotions with deep learning | |
KR20120063273A (ko) | 동영상 카투닝을 위한 프레임 추출 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220125 Address after: 610101 Room 301, No. 9, west section of Gangyuan Avenue, Lingang Economic Development Zone, Yibin City, Sichuan Province Patentee after: Yibin Dongfang tuoyu Technology Co.,Ltd. Address before: 518000 South Block 4, Building B, Jindi Software Park, No. 2 Science and Technology South 12 Road, Nanshan Science and Technology Park, Shenzhen City, Guangdong Province Patentee before: SHENZHEN EASTAEON TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |