JP7345654B2 - ビデオコーディングのための変形可能な畳み込みによる予測フレーム生成 - Google Patents
ビデオコーディングのための変形可能な畳み込みによる予測フレーム生成 Download PDFInfo
- Publication number
- JP7345654B2 JP7345654B2 JP2022530792A JP2022530792A JP7345654B2 JP 7345654 B2 JP7345654 B2 JP 7345654B2 JP 2022530792 A JP2022530792 A JP 2022530792A JP 2022530792 A JP2022530792 A JP 2022530792A JP 7345654 B2 JP7345654 B2 JP 7345654B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- dnn
- feature
- deformable
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本開示は、2020年7月15日に出願された米国仮出願第63/052,231号である「変形可能な畳み込みによる予測フレーム生成」に対する優先権の利益を主張する、2021年5月13日に出願された米国特許出願第17/319,932号である「ビデオコーディングのための変形可能な畳み込みによる予測フレーム生成」に対する優先権の利益を主張する。先行出願の開示内容は、その全体が参照により本明細書に組み込まれる。
850 グラフィックスアダプタ
854 ネットワークインタフェース
Claims (17)
- ビデオコーディング装置におけるビデオコーディングの方法であって、
変形可能な畳み込みディープニューラルネットワーク(DNN)を介して変形可能な畳み込みを行って、1つ又は複数の以前に再構成された参照フレームのセットに基づいて1つ又は複数の第1特徴マップを生成するステップと、
前記1つ又は複数の第1特徴マップに基づいて、予測フレームを生成するステップと、
前記予測フレームに基づいて、現在フレームを再構成するステップと、を含み、
前記1つ又は複数の以前に再構成された参照フレームの前記セットによって形成された4次元(4D)テンソルの入力で特徴抽出DNNを用いて、4D特徴テンソルを生成するステップをさらに含み、
前記4Dテンソルは、各参照フレームのそれぞれに基づいて個別に算出された特徴マップを連結することによって得られる、方法。 - 特徴抽出DNNに基づいて、前記1つ又は複数の以前に再構成された参照フレームに対応する1つ又は複数の第2特徴マップのセットを生成するステップと、
オフセット生成DNNを用いて、前記1つ又は複数の第2特徴マップに対応する1つ又は複数のオフセットマップをそれぞれ生成するステップであって、
各オフセットマップは、
生成される前記オフセットマップに対応する前記第2特徴マップ、及び、
前記1つ又は複数の以前に再構成された参照フレームのうちの1つであるターゲットフレームに対応する前記第2特徴マップ、
との前記オフセット生成DNNへの入力に基づいて生成され、前記1つ又は複数のオフセットマップは、同一のターゲットフレームを有する、ステップと、をさらに含む、請求項1に記載の方法。 - 前記現在フレームと前記1つ又は複数の以前に再構成された参照フレームとが表示順に配置される場合、前記ターゲットフレームは前記現在フレームに隣接する、請求項2に記載の方法。
- 前記現在フレームがPフレームである場合、前記ターゲットフレームは、前記1つ又は複数の以前に再構成された参照フレームの最後のフレームであり、
前記現在フレームがBフレームである場合、前記ターゲットフレームは、前記1つ又は複数の以前に再構成された参照フレームのうち、表示順で前記現在フレームより前にあるフレームの最後のフレームである、請求項2に記載の方法。 - 前記変形可能な畳み込みDNNを介して前記変形可能な畳み込みを行って、前記1つ又は複数の第1特徴マップを生成するステップは、
前記1つ又は複数の第2特徴マップを前記変形可能な畳み込みDNNへの入力として受け付けるステップと、
前記1つ又は複数の第2特徴マップに対応する前記1つ又は複数の第1特徴マップをそれぞれ生成するステップと、を含む、請求項2に記載の方法。 - 前記変形可能な畳み込みDNNは、各々が変形可能な畳み込みカーネルに関連付けられる1つ又は複数の変形可能な畳み込み層を含み、
前記1つ又は複数の変形可能な畳み込み層のうちの1つで、各第2特徴マップに対応して、それぞれの前記変形可能な畳み込みカーネルとそれぞれの前記第2特徴マップの前記オフセットマップとに基づいて、変形可能な畳み込みが行われる、請求項5に記載の方法。 - 前記1つ又は複数の第1特徴マップに基づいて、前記予測フレームを生成するステップは、
前記1つ又は複数の第1特徴マップと前記1つ又は複数の以前に再構成された参照フレームとに基づいて、フレーム再構成DNNを用いて1つ又は複数のアライメントフレームを再構成するステップと、
前記1つ又は複数のアライメントフレームに基づいて、フレーム合成DNNを用いて前記予測フレームを生成するステップと、を含む、請求項1に記載の方法。 - 前記参照フレームの前記セットの各フレームは、多数のチャネルを含む、請求項1に記載の方法。
- 前記変形可能な畳み込みDNNを介して前記変形可能な畳み込みを行って、前記1つ又は複数の第1特徴マップを生成するステップは、
前記4D特徴テンソルを前記変形可能な畳み込みDNNへの入力として受け付けるステップと、
融合されたアライメントされた特徴マップを生成するステップと、を含む、請求項8に記載の方法。 - 前記変形可能な畳み込みDNNは、各々が3D変形可能な畳み込みカーネル及び3Dオフセットマップに関連付けられる1つ又は複数の3D変形可能な畳み込み層を含み、
前記1つ又は複数の3D変形可能な畳み込み層の1つで、それぞれの前記3D変形可能な畳み込みカーネルとそれぞれの前記3Dオフセットマップとに基づいて、3D変形可能な畳み込みが行われる、請求項9に記載の方法。 - 前記融合されたアライメントされた特徴マップをフレーム再構成DNNへの入力として、前記フレーム再構成DNNを用いて前記予測フレームを生成するステップをさらに含む、請求項9に記載の方法。
- 参照フレームのセットを予測フレーム生成モジュールに入力して、予測フレームを生成するステップであって、前記予測フレーム生成モジュールは、最適化されるべきパラメータを有するニューラルネットワークを含み、前記ニューラルネットワークは、変形可能な畳み込みディープニューラルネットワーク(DNN)を含む、ステップと、
損失関数の損失を決定するステップであって、前記損失関数は、
前記予測フレームとグラウンドトゥルースフレームとの間の差に基づいて推定されたビットレートを示す圧縮損失と、
前記グラウンドトゥルースフレームに対する前記予測フレームの品質を示す再構成品質損失と、
を含む、ステップと、
前記損失関数の前記損失に基づいてバックプロパゲーションを行って、前記予測フレーム生成モジュール内の前記ニューラルネットワークの前記パラメータを更新するステップと、
をさらに含む、請求項1から11のいずれか一項に記載の方法。 - 前記参照フレームは、時間的ダウンサンプリング操作に基づいてビデオ内のフレームのシーケンスから選択され、前記フレームのシーケンス内の、前記ダウンサンプリング操作によって選択されないフレームは、前記グラウンドトゥルースフレームとして使用される、請求項12に記載の方法。
- 前記損失関数は、アライメント誤差を示すアライメント損失をさらに含み、
前記方法は、
前記予測フレーム生成モジュール内の特徴抽出ディープニューラルネットワーク(DNN)を用いて、前記参照フレームに対応する第1特徴マップをそれぞれ生成するステップと、
前記予測フレーム生成モジュール内の前記変形可能な畳み込みDNNを用いて、前記第1特徴マップに対応する第2特徴マップをそれぞれ生成するステップと、
前記第2特徴マップの1つと、前記予測フレーム生成モジュールに入力された前記参照フレームの1つであるターゲットフレームに対応する前記第1特徴マップとの差を決定するステップであって、前記差は、前記アライメント損失の一部である、ステップと、をさらに含む請求項12に記載の方法。 - 前記ターゲットフレームは、前記グラウンドトゥルースフレームと前記参照フレームとが表示順に配置される場合、前記グラウンドトゥルースフレームに隣接する前記参照フレームである、請求項14に記載の方法。
- 前記グラウンドトゥルースフレームと前記予測フレームとの間の残差信号を生成するステップと、
続いて前記残差信号に対して残差エンコード及びデコードを行って、再構成された残差信号を生成するステップと、
前記グラウンドトゥルースフレームを前記再構成された残差信号と組み合わせて、再構成された参照フレームを生成するステップと、
前記再構成された参照フレームを前記参照フレームのセットに含めるステップと、をさらに含む、請求項12に記載の方法。 - コンピュータに、請求項1乃至11のいずれか一項に記載の方法を実行させるように構成される、コンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063052231P | 2020-07-15 | 2020-07-15 | |
US63/052,231 | 2020-07-15 | ||
US17/319,932 | 2021-05-13 | ||
US17/319,932 US11689713B2 (en) | 2020-07-15 | 2021-05-13 | Predicted frame generation by deformable convolution for video coding |
PCT/US2021/036764 WO2022015435A1 (en) | 2020-07-15 | 2021-06-10 | Predicted frame generation by deformable convolution for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023502535A JP2023502535A (ja) | 2023-01-24 |
JP7345654B2 true JP7345654B2 (ja) | 2023-09-15 |
Family
ID=79293632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022530792A Active JP7345654B2 (ja) | 2020-07-15 | 2021-06-10 | ビデオコーディングのための変形可能な畳み込みによる予測フレーム生成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11689713B2 (ja) |
EP (1) | EP4032287A4 (ja) |
JP (1) | JP7345654B2 (ja) |
KR (1) | KR20220070326A (ja) |
CN (1) | CN114503576A (ja) |
WO (1) | WO2022015435A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11829450B2 (en) * | 2021-03-26 | 2023-11-28 | Siemens Healthineers International Ag | Dual domain tracking of target structures |
US20230186525A1 (en) * | 2021-12-13 | 2023-06-15 | Tencent America LLC | System, method, and computer program for content adaptive online training for multiple blocks in neural image compression |
CN114554213B (zh) * | 2022-02-21 | 2023-04-18 | 电子科技大学 | 一种运动自适应和关注细节的压缩视频质量增强方法 |
CN114449280B (zh) * | 2022-03-30 | 2022-10-04 | 浙江智慧视频安防创新中心有限公司 | 一种视频编解码方法、装置及设备 |
CN114827616B (zh) * | 2022-04-28 | 2023-03-10 | 电子科技大学 | 一种基于时空信息平衡的压缩视频质量增强方法 |
CN115239551A (zh) * | 2022-07-22 | 2022-10-25 | 三星电子(中国)研发中心 | 视频增强方法和装置 |
CN115103188B (zh) * | 2022-08-24 | 2022-12-30 | 中南大学 | Svc的错误隐藏方法、模型训练方法、***及设备 |
CN116437089B (zh) * | 2023-06-08 | 2023-09-05 | 北京交通大学 | 一种基于关键目标的深度视频压缩方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100703772B1 (ko) | 2005-04-13 | 2007-04-06 | 삼성전자주식회사 | 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치 |
US9928213B2 (en) * | 2014-09-04 | 2018-03-27 | Qualcomm Incorporated | Event-driven spatio-temporal short-time fourier transform processing for asynchronous pulse-modulated sampled signals |
CN110892723B (zh) * | 2017-07-06 | 2024-04-12 | 三星电子株式会社 | 用于编码或解码图像的方法和装置 |
US10672164B2 (en) | 2017-10-16 | 2020-06-02 | Adobe Inc. | Predicting patch displacement maps using a neural network |
US10924755B2 (en) | 2017-10-19 | 2021-02-16 | Arizona Board Of Regents On Behalf Of Arizona State University | Real time end-to-end learning system for a high frame rate video compressive sensing network |
US10841577B2 (en) | 2018-02-08 | 2020-11-17 | Electronics And Telecommunications Research Institute | Method and apparatus for video encoding and video decoding based on neural network |
CN109862208B (zh) * | 2019-03-19 | 2021-07-02 | 深圳市商汤科技有限公司 | 视频处理方法、装置、计算机存储介质以及终端设备 |
CN110913219A (zh) * | 2019-11-29 | 2020-03-24 | 合肥图鸭信息科技有限公司 | 一种视频帧预测方法、装置及终端设备 |
US10713493B1 (en) | 2020-02-06 | 2020-07-14 | Shenzhen Malong Technologies Co., Ltd. | 4D convolutional neural networks for video recognition |
-
2021
- 2021-05-13 US US17/319,932 patent/US11689713B2/en active Active
- 2021-06-10 EP EP21841471.2A patent/EP4032287A4/en active Pending
- 2021-06-10 KR KR1020227015329A patent/KR20220070326A/ko active Search and Examination
- 2021-06-10 WO PCT/US2021/036764 patent/WO2022015435A1/en unknown
- 2021-06-10 JP JP2022530792A patent/JP7345654B2/ja active Active
- 2021-06-10 CN CN202180005733.2A patent/CN114503576A/zh active Pending
Non-Patent Citations (3)
Title |
---|
Hyomin Choi, and Ivan V. Bajic,Deep Frame Prediction for Video Coding,IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,IEEE,2020年07月,Vol. 30, No. 7,pp.1843-1855 |
Jianing Deng, Li Wang, Shiliang Pu, and Cheng Zhuo,Spatio-Temporal Deformable Convolution for Compressed Video Quality Enhancement,The Thirty-Fourth AAAI Conference on Artificial Intelligence (AAAI-20),Vol.34,No.07: AAAI-20 Technical Tracks 7,AAAI,2020年06月18日,pp.10696-10703 |
Jifeng Dai, et al.,Deformable Convolutional Networks,arXiv:1703.06211v3,2017年06月05日,pp.1-12 |
Also Published As
Publication number | Publication date |
---|---|
CN114503576A (zh) | 2022-05-13 |
WO2022015435A1 (en) | 2022-01-20 |
US11689713B2 (en) | 2023-06-27 |
EP4032287A4 (en) | 2022-11-30 |
KR20220070326A (ko) | 2022-05-30 |
JP2023502535A (ja) | 2023-01-24 |
US20220021870A1 (en) | 2022-01-20 |
EP4032287A1 (en) | 2022-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7345654B2 (ja) | ビデオコーディングのための変形可能な畳み込みによる予測フレーム生成 | |
JP7416490B2 (ja) | ビデオコーディングにおけるディープ・ニューラル・ネットワークに基づくフレーム間予測のための方法及び装置、およびコンピュータプログラム | |
JP7482232B2 (ja) | 時間変形可能畳み込みによるディープループフィルタ | |
Liu et al. | Reconstruction of compressed-sensed multiview video with disparity-and motion-compensated total variation minimization | |
BR102021001287A2 (pt) | Método para comprimir dados de light-field | |
Chien et al. | Efficient stereo video coding system for immersive teleconference with two-stage hybrid disparity estimation algorithm | |
US11727536B2 (en) | Method and apparatus for geometric smoothing | |
JP7504533B2 (ja) | ビデオ符号化および復号化の方法、装置およびコンピュータプログラム | |
US11979606B2 (en) | Conditional recolor for video based point cloud coding | |
JP7508709B2 (ja) | 動的メッシュ圧縮のための2d uvアトラスサンプリングベースの方法、装置及びプログラム | |
US20240007670A1 (en) | Dynamic mesh vertex displacements coding | |
US20220394295A1 (en) | Fast recolor for video based point cloud coding | |
Mukati | Light field coding and processing for view sequences | |
Hung | Super-resolution study via interpolation techniques | |
CN117201796A (zh) | 视频编码方法、装置、计算设备和存储介质 | |
CN117178294A (zh) | 使用具有一般拓扑结构的图进行基于图集采样的网格压缩 | |
MAITRE | “TRAVELLING WITHOUT MOVING”: A STUDY ON THE RECONSTRUCTION, COMPRESSION, AND RENDERING OF 3D ENVIRONMENTS FOR TELEPRESENCE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220525 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7345654 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |