CN109830236A - 一种双视位口型合成方法 - Google Patents
一种双视位口型合成方法 Download PDFInfo
- Publication number
- CN109830236A CN109830236A CN201910238403.2A CN201910238403A CN109830236A CN 109830236 A CN109830236 A CN 109830236A CN 201910238403 A CN201910238403 A CN 201910238403A CN 109830236 A CN109830236 A CN 109830236A
- Authority
- CN
- China
- Prior art keywords
- mouth
- speaks
- shape
- double vision
- library
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种双视位口型合成方法,用于解决现有的口型合成技术复现部分发音口型的逼真度较低的技术问题。本发明实施例包括将汉语普通话中的发音进行视位归类,共分为13类;根据视位归类录制相应口型视频;根据原始的口型视频建立基本口型视位库;对基本口型视位库进行双视位处理,从而获得基本口型双视位库;利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列。
Description
技术领域
本发明涉及人物动画领域和仿人机器人技术领域,尤其涉及一种双视位口型合成方法。
背景技术
口型动作是人脸面部动作的重要组成部分,在日常生活中,口型动作除了传递信息外,还可以表达感情。在人物动画领域,为了让人物的形象更加逼真,需要花费大量的时间来制作人物的口型动作,而人工合成的发音口型逼真度较低,工作量较大,采用口型自动合成的方法可以大大减少合成口型动作的工作量;随着服务型机器人的发展,现在的仿人机器人除了外观像人外,还需要机器人的动作更加像人,所以对机器人的面部动作提出了更高的要求,而口型动作又是面部动作中较为重要的一块。
现有的口型合成技术复现部分发音口型的逼真度较低,这主要是由于现有方案的语料库中每一类发音口型只对应一个视位,视位在MPEG-4中的定义是与某一音位相对应的嘴、舌头、下颚等可视发音器官所处的状态,该方法虽然简单实用,但是在口型复现上存在复现效果不够逼真的问题,比如复现“b\p\m”一类的发音口型时,现有方法采用一个视位进行复现,无法表现出这一类***音所需要的闭嘴到张嘴的动作过程。
因此,为解决上述的技术问题,寻找一种双视位口型合成方法成为本领域技术人员所研究的重要课题。
发明内容
本发明实施例公开了一种双视位口型合成方法,用于解决现有的口型合成技术复现部分发音口型的逼真度较低的技术问题。
本发明实施例提供了一种双视位口型合成方法,包括:将汉语普通话中的发音进行视位归类,共分为13类;
根据视位归类录制相应口型视频;
根据原始的口型视频建立基本口型视位库;
对基本口型视位库进行双视位处理,从而获得基本口型双视位库;
利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列。
可选地,将汉语普通话中的发音进行视位归类,共分为13类,具体包括:
将汉语普通话中的21个声母和6个单韵母根据口型视位的相似度进行分类,对于复韵母和鼻韵母,根据发音时的口型视位,拆分成21个声母和6个单韵母的组合,从而完成对汉语普通话中所有声母和韵母的归类,归类情况如下:
第一类:[a];第二类:[b\p\m];第三类:[d\t\n\l];第四类:[e];第五类:[f];第六类:[g\k\h];第七类:[i];第八类:[j\q\x];第九类:[o];第十类:[u];第十一类:[ü];第十二类:[z\c\s];第十三类:[zh\ch\sh\r]。
可选地,根据视位归类录制相应口型视频具体包括:
使用摄像支架固定相机,调整摄像头正对着人脸,录制时,只允许人脸中的嘴唇和下巴运动,采用录像的方式录制13种发音口型对应的口型视频。
可选地,根据视位归类录制相应口型视频,还包括将录制的口型视频进行矫正和消抖处理;
所述矫正和消抖处理包括:
利用开源的人脸对齐技术OpenFace识别嘴唇和下巴的特征点,得到每一个特征点在实际坐标系中运动的坐标;
从OpenFace识别结果中获取每一帧人脸的翻滚角度,对识别出来的嘴唇和下巴的特征点的三维坐标做矫正处理,让嘴唇的特征点基本保持在水平位置上;
对特征点进行抖动消除处理,以距离嘴唇最近的面部静止特征点作为抖动消除的基准,其它所有的嘴部特征点与该基准做差值,从而消除口型录制对象的微小抖动。
可选地,对基本口型视位库进行双视位处理,从而获得基本口型双视位库具体包括:
在第二类(b\p\m)的口型视位前增加一个闭嘴动作的口型视位作为这第二类发音前的口型视位,其他十二类的口型视位不变,得到基本口型双视位库。
可选地,利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,即可形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列具体包括:
对新输入的语音进行降噪处理,将利用语音识别技术识别出来的文本材料进行声韵母提取分割,并且根据口型视位的相似度将其中的复韵母和鼻韵母拆分成21个声母和6个单韵母的排列组合,在基本口型双视位库中查找每一个声韵母对应的口型视位***到对应的时间点当中,形成一段离散的口型序列,最后通过平滑处理的方法对该段口型序列进行平滑处理合成一段连续的口型序列。
可选地,所述平滑处理的方法包括线性插值、二次插值、三次插值。
可选地,所述新输入的语音为汉语普通话。
从以上技术方案可以看出,本发明实施例具有以下优点:
本实施例中,将汉语普通话中的发音进行视位归类,共分为13类;根据视位归类录制相应口型视频;根据原始的口型视频建立基本口型视位库;对基本口型视位库进行双视位处理,从而获得基本口型双视位库;利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列。本实施例中,利用上述的方法步骤从而实现能够更加逼真的复现口型动作,能够很好地解决现有的口型合成技术复现部分发音口型的逼真度较低的技术问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例中提供的一种双视位口型合成方法的流程示意图;
图2为本发明实施例中提供的一种双视位口型合成方法的详细流程示意图;
图3为本发明实施例中提供的一种双视位口型合成方法中的人脸对齐识别结果的示意图;
图4为本发明实施例中提供的一种双视位口型合成方法中的口型视频消除抖动过程的示意图。
具体实施方式
本发明实施例公开了一种双视位口型合成方法,用于解决现有的口型合成技术复现部分发音口型的逼真度较低的技术问题。
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1至图4,本发明实施例中提供的一种双视位口型合成方法的一个实施例包括:
步骤S101、将汉语普通话中的发音进行视位归类,共分为13类;
步骤S102、根据视位归类录制相应口型视频;
步骤S103、根据原始的口型视频建立基本口型视位库;
步骤S104、对基本口型视位库进行双视位处理,从而获得基本口型双视位库;
步骤S105、利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列。
进一步地,将汉语普通话中的发音进行视位归类,共分为13类,具体包括:
将汉语普通话中的21个声母和6个单韵母根据口型视位的相似度进行分类,对于复韵母和鼻韵母,根据发音时的口型视位,拆分成21个声母和6个单韵母的组合,从而完成对汉语普通话中所有声母和韵母的归类,归类情况如下:
第一类:[a];第二类:[b\p\m];第三类:[d\t\n\l];第四类:[e];第五类:[f];第六类:[g\k\h];第七类:[i];第八类:[j\q\x];第九类:[o];第十类:[u];第十一类:[ü];第十二类:[z\c\s];第十三类:[zh\ch\sh\r]。
进一步地,根据视位归类录制相应口型视频具体包括:
使用摄像支架固定相机,调整摄像头正对着人脸,录制时,只允许人脸中的嘴唇和下巴运动,保证获取数据的可靠性,采用录像的方式录制13种发音口型对应的口型视频。
需要说明的是,用摄像支架固定相机,防止相机抖动,调整摄像头正对着人脸,能够完整的拍摄整个头部即可,拍摄范围过大会降低人脸特征点识别的准确率,过小会造成信息不全,采用录像的方式录制13种发音口型对应的口型视频。
进一步地,根据视位归类录制相应口型视频,还包括将录制的口型视频进行矫正和消抖处理;
所述矫正和消抖处理包括:
利用开源的人脸对齐技术OpenFace识别嘴唇和下巴的特征点,得到每一个特征点在实际坐标系中运动的坐标;识别结果如图3所示;
从OpenFace识别结果中获取每一帧人脸的翻滚角度,对识别出来的嘴唇和下巴的特征点的三维坐标做矫正处理,让嘴唇的特征点基本保持在水平位置上;
对特征点进行抖动消除处理,以距离嘴唇最近的面部静止特征点作为抖动消除的基准,其它所有的嘴部特征点与该基准做差值,从而消除口型录制对象的微小抖动,进一步降低口型数据的误差,消抖结果如图4所示。
进一步地,对基本口型视位库进行双视位处理,从而获得基本口型双视位库具体包括:
在第二类(b\p\m)的口型视位前增加一个闭嘴动作的口型视位作为这第二类发音前的口型视位,其他十二类的口型视位不变,得到基本口型双视位库。
进一步地,利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,即可形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列具体包括:
对新输入的语音进行降噪处理,提高语音识别的准确率,然后对语音内容进行文字识别和对应的时间点识别,或者人为输入文本内容和设置每个字的时间点,将利用语音识别技术识别出来的文本材料进行声韵母提取分割,并且根据口型视位的相似度将其中的复韵母和鼻韵母拆分成21个声母和6个单韵母的排列组合,在基本口型双视位库中查找每一个声韵母对应的口型视位***到对应的时间点当中,形成一段离散的口型序列,最后通过平滑处理的方法对该段口型序列进行平滑处理合成一段连续的口型序列。
需要说明的是,现提供一种拆分方案如下:'ueng':'u'+'e'+'n';'iong':'i'+'o'+'n';'iang':'i'+'a'+'n';'uang':'u'+'a'+'n';'ian':'i'+'a';'uan':'u'+'a';'ang':'a'+'n';'eng':'e'+'n';'ing':'i'+'n';'ong':'o'+'n';'uai':'u'+'a';'uei':'u'+'e';'iou':'i'+'o';'iao':'i'+'a';'ia':'i'+'a';'ua':'u'+'a';'uo':'u'+'o';'ie':'i'+'e';'ue':'u'+'e';'ai':'a'+'i';'ei':'e'+'i';'ao':'a'+'o';'ou':'o'+'u';'an':'a'+'n';'en':'e'+'n';'in':'i'+'n';'un':'u'+'n';
对于一些其它未分类的拼音,同样根据口型视位的相似度进行分类,其中一种处理方式如下:
'y':'i';'w':'u';'v':'f';'er':'r';
上面提到的口型视位相似度可查询汉语拼音的发音方法,如’y’:’发音时,嘴微张成扁平状,舌尖抵住下齿龈,舌面抬高,靠近上硬腭,声带颤动’,’i’:‘嘴微张成扁平状,舌尖抵住下齿龈,舌面抬高,靠近上硬腭,声带颤动’,故将’y’归为’i’所属的一类口型视位。
进一步地,所述平滑处理的方法包括线性插值、二次插值、三次插值。
需要说明的是,平滑处理的方法可采用线性插值或二次插值或三次插值,建议使用二次插值进行平滑处理,这是由于二次插值过渡的口型变化曲线比线性插值更为平滑和接近真实的口型变化曲线。
进一步地,所述新输入的语音为汉语普通话。
以上对本发明所提供的一种双视位口型合成方法进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种双视位口型合成方法,其特征在于,包括:
将汉语普通话中的发音进行视位归类,共分为13类;
根据视位归类录制相应口型视频;
根据原始的口型视频建立基本口型视位库;
对基本口型视位库进行双视位处理,从而获得基本口型双视位库;
利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列。
2.根据权利要求1所述的双视位口型合成方法,其特征在于,将汉语普通话中的发音进行视位归类,共分为13类,具体包括:
将汉语普通话中的21个声母和6个单韵母根据口型视位的相似度进行分类,对于复韵母和鼻韵母,根据发音时的口型视位,拆分成21个声母和6个单韵母的组合,从而完成对汉语普通话中所有声母和韵母的归类,归类情况如下:
第一类:[a];第二类:[b\p\m];第三类:[d\t\n\l];第四类:[e];第五类:[f];第六类:[g\k\h];第七类:[i];第八类:[j\q\x];第九类:[o];第十类:[u];第十一类:[ü];第十二类:[z\c\s];第十三类:[zh\ch\sh\r]。
3.根据权利要求1所述的双视位口型合成方法,其特征在于,根据视位归类录制相应口型视频具体包括:
使用摄像支架固定相机,调整摄像头正对着人脸,录制时,只允许人脸中的嘴唇和下巴运动,采用录像的方式录制13种发音口型对应的口型视频。
4.根据权利要求1所述的双视位口型合成方法,其特征在于,根据视位归类录制相应口型视频,还包括将录制的口型视频进行矫正和消抖处理;
所述矫正和消抖处理包括:
利用开源的人脸对齐技术OpenFace识别嘴唇和下巴的特征点,得到每一个特征点在实际坐标系中运动的坐标;
从OpenFace识别结果中获取每一帧人脸的翻滚角度,对识别出来的嘴唇和下巴的特征点的三维坐标做矫正处理,让嘴唇的特征点基本保持在水平位置上;
对特征点进行抖动消除处理,以距离嘴唇最近的面部静止特征点作为抖动消除的基准,其它所有的嘴部特征点与该基准做差值,从而消除口型录制对象的微小抖动。
5.根据权利要求2所述的双视位口型合成方法,其特征在于,对基本口型视位库进行双视位处理,从而获得基本口型双视位库具体包括:
在第二类(b\p\m)的口型视位前增加一个闭嘴动作的口型视位作为这第二类发音前的口型视位,其他十二类的口型视位不变,得到基本口型双视位库。
6.根据权利要求1所述的双视位口型合成方法,其特征在于,利用语音识别技术对新输入的语音进行识别,得到文本材料,对文本材料经过声韵母识别后,在基本口型双视位库中查找每一个声韵母所对应的口型视位,并将所述口型视位***到对应的时间点当中,即可形成一段离散的口型序列,并将该离散的口型序列经过平滑处理得到连续的口型序列具体包括:
对新输入的语音进行降噪处理,将利用语音识别技术识别出来的文本材料进行声韵母提取分割,并且根据口型视位的相似度将其中的复韵母和鼻韵母拆分成21个声母和6个单韵母的排列组合,在基本口型双视位库中查找每一个声韵母对应的口型视位***到对应的时间点当中,形成一段离散的口型序列,最后通过平滑处理的方法对该段口型序列进行平滑处理合成一段连续的口型序列。
7.根据权利要求6所述的双视位口型合成方法,其特征在于,所述平滑处理的方法包括线性插值、二次插值、三次插值。
8.根据权利要求1所述的双视位口型合成方法,其特征在于,所述新输入的语音为汉语普通话。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910238403.2A CN109830236A (zh) | 2019-03-27 | 2019-03-27 | 一种双视位口型合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910238403.2A CN109830236A (zh) | 2019-03-27 | 2019-03-27 | 一种双视位口型合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109830236A true CN109830236A (zh) | 2019-05-31 |
Family
ID=66872313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910238403.2A Pending CN109830236A (zh) | 2019-03-27 | 2019-03-27 | 一种双视位口型合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109830236A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112002301A (zh) * | 2020-06-05 | 2020-11-27 | 四川纵横六合科技股份有限公司 | 一种基于文本的自动化视频生成方法 |
CN114581813A (zh) * | 2022-01-12 | 2022-06-03 | 北京云辰信通科技有限公司 | 视觉语言识别方法以及相关设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826216A (zh) * | 2010-03-31 | 2010-09-08 | 中国科学院自动化研究所 | 一个角色汉语口型动画自动生成*** |
CN102819856A (zh) * | 2012-07-10 | 2012-12-12 | 广东工业大学 | 一种根据中文对白生成连贯嘴型动画的方法 |
CN104361620A (zh) * | 2014-11-27 | 2015-02-18 | 韩慧健 | 一种基于综合加权算法的口型动画合成方法 |
CN104574477A (zh) * | 2014-12-22 | 2015-04-29 | 北京像素软件科技股份有限公司 | 动画角色汉语口型生成的方法及装置 |
KR20160028868A (ko) * | 2014-09-04 | 2016-03-14 | 이규원 | 안면부 영상 인식 및 외부 입력 장비를 이용한 음성 합성 시스템 및 음성 합성 방법 |
CN106328163A (zh) * | 2016-08-16 | 2017-01-11 | 新疆大学 | 维吾尔语音位‑视位参数的转换方法和*** |
CN108830786A (zh) * | 2018-06-12 | 2018-11-16 | 北京新唐思创教育科技有限公司 | 计算机可读存储介质、视频替换合成方法及*** |
CN109461437A (zh) * | 2018-11-28 | 2019-03-12 | 平安科技(深圳)有限公司 | 唇语识别的验证内容生成方法及相关装置 |
-
2019
- 2019-03-27 CN CN201910238403.2A patent/CN109830236A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826216A (zh) * | 2010-03-31 | 2010-09-08 | 中国科学院自动化研究所 | 一个角色汉语口型动画自动生成*** |
CN102819856A (zh) * | 2012-07-10 | 2012-12-12 | 广东工业大学 | 一种根据中文对白生成连贯嘴型动画的方法 |
KR20160028868A (ko) * | 2014-09-04 | 2016-03-14 | 이규원 | 안면부 영상 인식 및 외부 입력 장비를 이용한 음성 합성 시스템 및 음성 합성 방법 |
CN104361620A (zh) * | 2014-11-27 | 2015-02-18 | 韩慧健 | 一种基于综合加权算法的口型动画合成方法 |
CN104574477A (zh) * | 2014-12-22 | 2015-04-29 | 北京像素软件科技股份有限公司 | 动画角色汉语口型生成的方法及装置 |
CN106328163A (zh) * | 2016-08-16 | 2017-01-11 | 新疆大学 | 维吾尔语音位‑视位参数的转换方法和*** |
CN108830786A (zh) * | 2018-06-12 | 2018-11-16 | 北京新唐思创教育科技有限公司 | 计算机可读存储介质、视频替换合成方法及*** |
CN109461437A (zh) * | 2018-11-28 | 2019-03-12 | 平安科技(深圳)有限公司 | 唇语识别的验证内容生成方法及相关装置 |
Non-Patent Citations (4)
Title |
---|
ARIPIN ET AL.: "A Realistic Visual Speech Synthesis for Indonesian Using a Combination of Morphing Viseme and Syllable Concatenation Approach to Support Pronunciation Learning", 《IJET》 * |
ROSNIZA ROSLAN ET AL.: "Face and Mouth Localization of Viseme", 《IEEE》 * |
吴志明: "具有真实感的人脸口型动画研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
林智能: "一种鲁棒的长期人脸特征点跟踪***", 《电脑知识与技术》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112002301A (zh) * | 2020-06-05 | 2020-11-27 | 四川纵横六合科技股份有限公司 | 一种基于文本的自动化视频生成方法 |
CN114581813A (zh) * | 2022-01-12 | 2022-06-03 | 北京云辰信通科技有限公司 | 视觉语言识别方法以及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447474B (zh) | 一种虚拟人物语音与口型同步的建模与控制方法 | |
US20210142818A1 (en) | System and method for animated lip synchronization | |
Taylor et al. | A deep learning approach for generalized speech animation | |
Graf et al. | Visual prosody: Facial movements accompanying speech | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
Bennett et al. | An ultrasound study of Connemara Irish palatalization and velarization | |
CN113383384A (zh) | 语音动画的实时生成 | |
Benoit et al. | Audio-visual and multimodal speech systems | |
Naert et al. | A survey on the animation of signing avatars: From sign representation to utterance synthesis | |
Gibbon et al. | Audio-visual and multimodal speech-based systems | |
Beskow | Trainable articulatory control models for visual speech synthesis | |
CN109830236A (zh) | 一种双视位口型合成方法 | |
Massaro et al. | A multilingual embodied conversational agent | |
Kettebekov et al. | Prosody based audiovisual coanalysis for coverbal gesture recognition | |
Taylor et al. | A mouth full of words: Visually consistent acoustic redubbing | |
Kröger et al. | Movements and holds in fluent sentence production of American Sign Language: The action-based approach | |
Wolfe et al. | Exploring localization for mouthings in sign language avatars | |
Verma et al. | Animating expressive faces across languages | |
Smid et al. | Autonomous speaker agent | |
EP0982684A1 (en) | Moving picture generating device and image control network learning device | |
Brahme et al. | Phoneme visem mapping for Marathi language using linguistic approach | |
Vatikiotis‐Bateson et al. | Auditory‐Visual Speech Processing: Something Doesn't Add Up | |
Barve et al. | Synchronized Speech and Video Synthesis | |
d’Alessandro et al. | Reactive statistical mapping: Towards the sketching of performative control with data | |
Campr et al. | Automatic fingersign to speech translator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190531 |
|
RJ01 | Rejection of invention patent application after publication |