CN110149508B - 一种基于一维集成成像***的阵列图生成及填补方法 - Google Patents
一种基于一维集成成像***的阵列图生成及填补方法 Download PDFInfo
- Publication number
- CN110149508B CN110149508B CN201910448420.9A CN201910448420A CN110149508B CN 110149508 B CN110149508 B CN 110149508B CN 201910448420 A CN201910448420 A CN 201910448420A CN 110149508 B CN110149508 B CN 110149508B
- Authority
- CN
- China
- Prior art keywords
- image
- original
- depth
- value
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种基于一维集成成像***的阵列图生成及填补方法属裸眼3D显示技术领域,本发明根据几何光学及DIBR的思想,利用深度图模拟了任意位置的视点图像,先利用光流法对图像内部大块空洞进行填充,再用Criminisi图像修复算法对其他空洞进行填补;本发明结合光流法与Criminisi图像修复算法这两种算法的优势对图像进行填补,既参考了视频中不同帧的图像信息,又提高了Criminisi图像修复算法的运算速度,比起只用Criminisi图像修复算法进行空洞填补,在相同参数的设置下,本发明平均节省45.448%的时间,且填补效果更佳。
Description
技术领域
本发明属裸眼3D显示技术领域,具体涉及一种基于一维集成成像***的阵列图生成及填补方法。
背景技术
1908年,诺贝尔奖获得者Lippmann首先提出了集成成像。它是一种利用微透镜阵列记录和再现三维空间场景的立体显示技术。集成成像具有连续视点、全视差、无视疲劳以及无需辅助设备等优点从而受到各国的广泛关注。但是,集成成像本身也存在一些缺点与不足。集成成像造价高昂,不适用于大屏幕显示,并且对屏幕分辨率的要求更高,对存储空间及数据处理能力都有较高要求。一维集成成像在一定程度上解决了上述问题。一维集成成像舍弃了集成成像的垂直立体感,只在水平方向上有立体感,大大减少了数据量,增加了对屏幕分辨率的利用率。故而一维集成成像技术可以较快的处理速度在集成成像的实现方法之中脱颖而出。
但目前,基于一维集成成像的立体片源并不常见。若要生成适合一维集成成像的立体片源,就需要进行空洞填补。criminisi算法是目前常用的图像修复算法。该修复算法的算法复杂度与图片大小与像素块大小有关,图片越大,该算法运行时间越长;单位像素块越小,该算法运行时间越长,但修复越细致,修复效果越好。在实践中发现该算法能较好地对位于图像边缘的空洞进行修复且花费时间少,而在对图片内部的大块空洞区域修补时,修复时间长,且修复效果欠佳。
由于以上算法的缺陷,在实际应用中很难取得理想的效果,有待改进。
发明内容
为解决以上算法的缺陷,本发明旨在提供一种Criminisi算法与光流法相结合的空洞填补算法,结合光流法与Criminisi算法与光流法的优势,最大限度的提高空洞填补的准确率和效率。
本发明的基于一维集成成像***的阵列图生成及填补方法,包括下列步骤:
1.1设原图像为Ioriginal-k,深度图为Hk,生成的带有空洞的视点图为Wk-r,
其中:k表示视频中第k帧图像;r表示第r个视点,r的取值范围是1~2*N,N为半视点数;
1.1.1根据所需要的深度效果,预设人眼能感受到的出屏深度和入屏深度,由几何光学得到:
M/B=P/(P+D)
其中:B为双眼间距;M为视差,表示左右眼像之间的水平距离,设其最大值为maxM;P为人眼能感受到的景物深度,设其最大值为maxP;D为观察者与屏幕之间的距离;
之后,将人眼能感受到的景物深度P进行单位变换,由毫米变成像素:设经单位转换后的最大正视差为maxPM,该视差将产生入屏效果:maxPM=maxM*(α/A);设经单位转换后的最大负视差为maxNM,该视差将导致出屏效果:maxNM=-abs(maxM)*(α/A)
其中:abs(maxM)=maxP*B/(D-maxP);α为屏幕的水平分辨率;A为屏幕的水平宽度;
1.1.2将深度值均匀量化到人眼能感受到的景物深度上,将其转化为视差值,转换公式为:
d(i,j)=(maxNM-maxPM)/255*H(i,j)+maxPM
其中:d(i,j)为坐标(i,j)点所对应的视差值;H(i,j)为点(i,j)所对应的深度值;
由此可知,当深度值为0时,对应正视差maxPM;当深度值为255时,对应负视差maxNM;
1.1.3对原视频图像中的每个像素点根据视差值进行平移,即可获取任意视点图像:
IN-x+1(i,j-d(i,j)*x/2N)=Ioriginal-k(i,j)、IN+x(i,j+d(i,j)*x/2N)=Ioriginal-k(i,j)
将视点按照相对原图像从左至右的方向编号,视点总数为2*N个,该视点图像为第x个视点图像;
1.2统计在图Wk-r中,由Ioriginal-k映射到Wk-r(i,j)的点的个数n和它们的坐标Ioriginal-k(x1,y1)、Ioriginal-k(x2,y2)、...Ioriginal-k(xn,yn);
当n=0时,令Wk-r(i,j)=0,即为空洞点;
当n=1时,令Wk-r(i,j)=Ioriginial-k(x,y);
当n>2时,取Ioriginal-k(x1,y1)、Ioriginal-k(x2,y2)、...Ioriginal-k(xn,yn)中的深度最大值对
应的像素点坐标为(i,j),令Wk-r(i,j)=Ioriginal-k(xp,yp)(1≤p≤n);
1.3将n=0的点,即空洞点的像素值设为0,其它为255,得到maskk-r图像;maskk-r图像将直观地反映出Wk-r图像中空洞的分布情况;
1.4.利用光流法对初步生成的视点图进行空洞填补包括下列步骤:
1.4.1提取出图像maskk-r内部大面积空洞的边缘,设第i行空洞的边缘点分别为(i,a)和(i,b),设a<b,设参考帧图片为原视频中的第三帧,即图像Ioriginal-3,利用LK光流法即稀疏光流法对Wk-r和图Ioriginal-3进行计算,得到每个像素点在水平和垂直两个方向上的运动速度,分别为ofv和ofh;
1.4.2将(i,a)左侧与(i,b)右侧的深度值进行比较,若(i,a)左侧的深度值小,则说明其与观察者的距离更远,是图像的背景部分;
1.4.3估算空洞部分的光流值,取(i,a)左侧7个像素的水平运动速度与垂直运动速度,求其平均值,作为该行空洞的水平运动速度和垂直运动速度;设q为计数参数,取值范围为[0,6],即:
1.4.4设对应像素点的位移为Δx、Δy,当a<j<b时,空洞处的水平位移为:Δx=ofh(i,j)×10,竖直位移为:Δy=ofv(i,j)×10,求得空洞处在Ioriginal-3的映射块:Wk-r(i,j)=Ioriginal-3(i+Δx,j+Δy);
1.5利用Criminisi图像修复算法处理图像包括下列步骤:
1.5.1用Criminisi图像修复算法处理Wk-r图像,由于原图像大小为436*1024像素,根据原图像大小设定Criminisi图像修复算法中的单位像素块为半径为12-20像素的单位块。
本发明采用一种光流法与Criminisi图像修复算法结合的方式来填补空洞。首先,根据几何光学及DIBR的思想,利用深度图模拟了任意位置的视点图像。在该过程中,对映射到视点图上的点进行了分类,使生成的视点图更加准确。其次,在进行空洞填补时,先利用光流法对图像内部大块空洞进行填充。提取出空洞边缘,比较边缘两侧的深度值,取较大一侧的光流值估测空洞部分的光流值,从而计算出空洞部分在参考帧上的映射块。最后,再用Criminisi图像修复算法对其他空洞进行填补。
本发明结合光流法与Criminisi图像修复算法这两种算法的优势对图像进行填补,既参考了视频中不同帧的图像信息,又提高了Criminisi图像修复算法的运算速度,比起只用Criminisi图像修复算法进行空洞填补,在相同参数的设置下,本发明平均节省时间45.448%,且填补效果更佳。
表1原Criminisi图像修复算法与本发明方法用时比较
附图说明
图1为基于一维集成成像***的阵列图生成及填补方法的流程图
图2为生成的带有空洞的初步视点图
图3为由光流法处理后的视点图
图4为由Criminisi算法处理后的视点图
图5为仅由Criminisi算法处理后的视点图
具体实施方式
本发明的核心内容在于:在进行空洞填补时,利用视频中的光流信息,事先填补图像中央部分的大面积空洞,再利用Criminisi图像修复算法进行空洞填补。相比于Criminisi图像修复算法,该方法平均节省45.448%的时间,且修复效果更好。如图4、图5所示。
为使本发明的目的,技术方案和优点更加清楚,下面结合附图及实例做进一步的详细叙述:
一种基于一维集成成像***的阵列图生成及填补方法,如图1,包括下列步骤:
1.1设原图像为Ioriginal-k,深度图为Hk,生成的带有空洞的视点图为Wk-r,
其中:k表示视频中第k帧图像;r表示第r个视点,r的取值范围是1~2*N,N为半视
点数;
1.1.1根据所需要的深度效果,预设人眼能感受到的出屏深度和入屏深度,由几何光学得到:
M/B=P/(P+D)
其中:B为双眼间距;M为视差,表示左右眼像之间的水平距离,设其最大值为maxM;P为人眼能感受到的景物深度,设其最大值为maxP;D为观察者与屏幕之间的距离;
之后,将人眼能感受到的景物深度P进行单位变换,由毫米变成像素:设经单位转换后的最大正视差为maxPM,该视差将产生入屏效果:maxPM=maxM*(α/A);设经单位转换后的最大负视差为maxNM,该视差将导致出屏效果:maxNM=-abs(maxM)*(α/A)
其中:abs(maxM)=maxP*B/(D-maxP);α为屏幕的水平分辨率;A为屏幕的水平宽度;
1.1.2将深度值均匀量化到人眼能感受到的景物深度上,将其转化为视差值,转换公式为:
d(i,j)=(maxNM-maxPM)/255*H(i,j)+maxPM
其中:d(i,j)为坐标(i,j)点所对应的视差值;H(i,j)为点(i,j)所对应的深度值;
由此可知,当深度值为0时,对应正视差maxPM;当深度值为255时,对应负视差maxNM;
1.1.3对原视频图像中的每个像素点根据视差值进行平移,即可获取任意视点图像:
IN-x+1(i,j-d(i,j)*x/2N)=Ioriginal-k(i,j)、IN+x(i,j+d(i,j)*x/2N)=Ioriginal-k(i,j)
将视点按照相对原图像从左至右的方向编号,视点总数为2*N个,该视点图像为第x个视点图像;
1.2统计在图Wk-r中,由Ioriginal-k映射到Wk-r(i,j)的点的个数(n)和它们的坐标Ioriginal-k
(x1,y1)、Ioriginal-k(x2,y2)、...Ioriginal-k(xn,yn);
当n=0时,令Wk-r(i,j)=0,即为空洞点;
当n=1时,令Wk-r(i,j)=Ioriginial-k(x,y);
当n>2时,取Ioriginal-k(x1,y1)、Ioriginal-k(x2,y2)、...Ioriginal-k(xn,yn)中的深度最大值所
在的像素点的坐标为(i,j),令Wk-r(i,j)=Ioriginal-k(xp,yp)(1≤p≤n);
1.3将n=0的点,即空洞点的像素值设为0,其它为255,得到maskk-r图像;maskk-r图像将直观地反映出Wk-r图像中空洞的分布情况;
2.1利用光流法对初步生成的视点图进行空洞填补包括下列步骤:
2.1.1提取出图像maskk-r内部大面积空洞的边缘,设第i行空洞的边缘点分别为(i,a)和(i,b),不妨设a<b,设参考帧图片为原视频中的第三帧,即图像Ioriginal-3,利用LK光流法即稀疏光流法对Wk-r和图Ioriginal-3进行计算,得到每个像素点在水平和垂直两个方向上的运动速度,分别为ofv和ofh;
2.1.2将(i,a)左侧与(i,b)右侧的深度值进行比较,若(i,a)左侧的深度值小,则说明其距离观察者更远,是图像的背景部分;
2.1.3估算空洞部分的光流值,取(i,a)左侧7个像素的水平运动速度与垂直运动速度,求其平均值,作为该行空洞的水平运动速度和垂直运动速度;设q为计数参数,取值范围为[0,6],即:
2.1.4设对应像素点的位移为Δx、Δy,当a<j<b时,空洞处的水平位移为:Δx=ofh(i,j)×10,竖直位移为:Δy=ofv(i,j)×10,求得空洞处在Ioriginal-3的映射块:Wk-r(i,j)=Ioriginal-3(i+Δx,j+Δy);
3.1利用Criminisi图像修复算法处理图像包括下列步骤:
3.1.1用Criminisi修复算法处理Wk-r图像。由于本发明中原图像大小为436*1024像素,根据原图像大小设定Criminisi图像修复算法中的单位像素块为半径为12-20像素的单位块。
Claims (1)
1.一种基于一维集成成像***的阵列图生成及填补方法,其特征在于包括下列步骤:
1.1设原图像为Ioriginal-k,深度图为Hk,生成的带有空洞的视点图为Wk-r,
其中:k表示视频中第k帧图像;r表示第r个视点,r的取值范围是1~2*N,N为半视点数;
1.1.1根据所需要的深度效果,预设人眼能感受到的出屏深度和入屏深度,由几何光学得到:
M/B=P/(P+D)
其中:B为双眼间距;M为视差,表示左右眼像之间的水平距离,设其最大值为maxM;P为人眼能感受到的景物深度,设其最大值为maxP;D为观察者与屏幕之间的距离;
之后,将人眼能感受到的景物深度P进行单位变换,由毫米变成像素:设经单位转换后的最大正视差为maxPM,该视差将产生入屏效果:maxPM=maxM*(α/A);设经单位转换后的最大负视差为maxNM,该视差将导致出屏效果:
maxNM=-abs(maxM)*(α/A)
其中:abs(maxM)=maxP*B/(D-maxP);α为屏幕的水平分辨率;A为屏幕的水平宽度;
1.1.2将深度值均匀量化到人眼能感受到的景物深度上,将其转化为视差值,转换公式为:
d(i,j)=(maxNM-maxPM)/255*H(i,j)+maxPM
其中:d(i,j)为坐标(i,j)点所对应的视差值;H(i,j)为点(i,j)所对应的深度值;
由此可知,当深度值为0时,对应正视差maxPM;当深度值为255时,对应负视差maxNM;
1.1.3对原视频图像中的每个像素点根据视差值进行平移,即可获取任意视点图像:
IN-x+1(i,j-d(i,j)*x/2N)=Ioriginal-k(i,j)、IN+x(i,j+d(i,j)*x/2N)=Ioriginal-k(i,j)
将视点按照相对原图像从左至右的方向编号,视点总数为2*N个,该视点图像为第x个视点图像;
1.2统计在图Wk-r中,由Ioriginal-k映射到Wk-r(i,j)的点的个数n和它们的坐标Ioriginal-k(x1,y1)、Ioriginal-k(x2,y2)、...Ioriginal-k(xn,yn);
当n=0时,令Wk-r(i,j)=0,即为空洞点;
当n=1时,令Wk-r(i,j)=Ioriginial-k(x,y);
当n>2时,取Ioriginal-k(x1,y1)、Ioriginal-k(x2,y2)、...Ioriginal-k(xn,yn)中的深度最大值所在的像素点的坐标为(i,j),令Wk-r(i,j)=Ioriginal-k(xp,yp)(1≤p≤n);
1.3将n=0的点,即空洞点的像素值设为0,其它为255,得到maskk-r图像;maskk-r图像将直观地反映出Wk-r图像中空洞的分布情况;
1.4.利用光流法对初步生成的视点图进行空洞填补包括下列步骤:
1.4.1提取出图像maskk-r内部大面积空洞的边缘,设第i行空洞的边缘点分别为(i,a)和(i,b),设a<b,设参考帧图片为原视频中的第三帧,即图像Ioriginal-3,利用LK光流法即稀疏光流法对Wk-r和图像 Ioriginal-3进行计算,得到每个像素点在水平和垂直两个方向上的运动速度,分别为ofv和ofh;
1.4.2将(i,a)左侧与(i,b)右侧的深度值进行比较,若(i,a)左侧的深度值小,则说明其与观察者的距离更远,是图像的背景部分;
1.4.3估算空洞部分的光流值,取(i,a)左侧7个像素的水平运动速度与垂直运动速度,求其平均值,作为该行空洞的水平运动速度和垂直运动速度;设q为计数参数,取值范围为[0,6],即:
1.4.4设对应像素点的位移为Δx、Δy,当a<j<b时,空洞处的水平位移为:Δx=ofh(i,j)×10,竖直位移为:Δy=ofv(i,j)×10,求得空洞处在Ioriginal-3的映射块:Wk-r(i,j)=Ioriginal-3(i+Δx,j+Δy);
1.5利用Criminisi图像修复算法处理图像包括下列步骤:
1.5.1用Criminisi图像修复算法处理Wk-r图像,由于原图像大小为436*1024像素,根据原图像大小设定Criminisi图像修复算法中的单位像素块为半径为12-20像素的单位块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448420.9A CN110149508B (zh) | 2019-05-28 | 2019-05-28 | 一种基于一维集成成像***的阵列图生成及填补方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910448420.9A CN110149508B (zh) | 2019-05-28 | 2019-05-28 | 一种基于一维集成成像***的阵列图生成及填补方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110149508A CN110149508A (zh) | 2019-08-20 |
CN110149508B true CN110149508B (zh) | 2021-01-12 |
Family
ID=67593392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910448420.9A Active CN110149508B (zh) | 2019-05-28 | 2019-05-28 | 一种基于一维集成成像***的阵列图生成及填补方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110149508B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111198448B (zh) * | 2020-01-10 | 2021-07-30 | 吉林大学 | 一种基于异形柱透镜光栅的一维集成成像显示方法 |
CN111193921B (zh) * | 2020-01-10 | 2021-07-30 | 吉林大学 | 一种基于组合离散光栅的led屏一维集成成像显示方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101312542B (zh) * | 2008-07-07 | 2010-09-08 | 浙江大学 | 一种自然三维电视*** |
CN101610423B (zh) * | 2009-07-13 | 2010-09-08 | 清华大学 | 一种渲染图像的方法和装置 |
CN102413332B (zh) * | 2011-12-01 | 2013-07-24 | 武汉大学 | 基于时域增强的视点合成预测多视点视频编码方法 |
US9762890B2 (en) * | 2013-11-08 | 2017-09-12 | Samsung Electronics Co., Ltd. | Distance sensor and image processing system including the same |
-
2019
- 2019-05-28 CN CN201910448420.9A patent/CN110149508B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110149508A (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102034265B (zh) | 一种三维视图获取方法 | |
CN101605270B (zh) | 生成深度图的方法和装置 | |
WO2017156905A1 (zh) | 一种将二维图像转化为多视点图像的显示方法及*** | |
CN104574432B (zh) | 一种自动多视角人脸自拍图像的三维人脸重建方法及*** | |
EP3251346A1 (en) | Digital multi-dimensional image photon platform system and methods of use | |
CN102325259A (zh) | 多视点视频中虚拟视点合成方法及装置 | |
CN106875437A (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
US10178247B2 (en) | Digital multi-dimensional image photon platform system and methods of use | |
CN104506872B (zh) | 一种平面视频转立体视频的方法及装置 | |
US8577202B2 (en) | Method for processing a video data set | |
Yang et al. | Toward the light field display: Autostereoscopic rendering via a cluster of projectors | |
CN110149508B (zh) | 一种基于一维集成成像***的阵列图生成及填补方法 | |
CN102447925A (zh) | 一种虚拟视点图像合成方法及装置 | |
CN101702781A (zh) | 基于光流法的2d转3d方法 | |
US10033990B2 (en) | Digital multi-dimensional image photon platform system and methods of use | |
CN111047709A (zh) | 一种双目视觉裸眼3d图像生成方法 | |
CN104869386A (zh) | 一种基于分层处理虚拟视点合成方法 | |
CN109358430A (zh) | 一种基于二维led风扇屏的实时三维显示方法 | |
CN115171096A (zh) | 一种基于rgb图像与激光点云融合的3d目标检测方法 | |
Yamaguchi et al. | Computer generated hologram from full-parallax 3D image data captured by scanning vertical camera array | |
CN102026012B (zh) | 平面视频立体化转换深度图生成方法和装置 | |
CN105979241B (zh) | 一种柱面立体全景视频快速反变换方法 | |
CN109345444B (zh) | 深度感知增强的超分辨率立体图像构建方法 | |
CN112927348B (zh) | 一种基于多视点rgbd相机高分辨率人体三维重建方法 | |
CN103945209B (zh) | 一种基于分块投影的dibr方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |