JP6379186B2 - ビデオピクチャを符号化および復号する方法および装置 - Google Patents
ビデオピクチャを符号化および復号する方法および装置 Download PDFInfo
- Publication number
- JP6379186B2 JP6379186B2 JP2016520075A JP2016520075A JP6379186B2 JP 6379186 B2 JP6379186 B2 JP 6379186B2 JP 2016520075 A JP2016520075 A JP 2016520075A JP 2016520075 A JP2016520075 A JP 2016520075A JP 6379186 B2 JP6379186 B2 JP 6379186B2
- Authority
- JP
- Japan
- Prior art keywords
- matching
- prediction region
- picture
- prediction
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 157
- 230000009466 transformation Effects 0.000 claims description 58
- 230000002146 bilateral effect Effects 0.000 claims description 55
- 238000004590 computer program Methods 0.000 claims description 34
- 238000010008 shearing Methods 0.000 claims description 15
- 230000011664 signaling Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims 1
- 239000000523 sample Substances 0.000 description 46
- 239000013598 vector Substances 0.000 description 36
- 230000015654 memory Effects 0.000 description 17
- 238000000844 transformation Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 12
- 238000013519 translation Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 8
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 7
- 101150095908 apex1 gene Proteins 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 239000013074 reference sample Substances 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241001122767 Theaceae Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000010791 quenching Methods 0.000 description 1
- 230000000171 quenching effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/567—Motion estimation based on rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
zvcur=zv0*s=zv0’=zv1/s=zv1’ (10)
ここで、zvcurは現在のピクチャ11のズーム中心までの距離であり、zv0は前の参照ピクチャ12についてのズーム中心までの距離であり、sはスケーリング因子であり、zv1は後の参照ピクチャ13についてのズーム中心までの距離であり、zv0’は前の参照ピクチャ12についてのズーム中心までのスケールされた距離であり、zv1’は後の参照ピクチャ13についてのズーム中心までのスケールされた距離である。
tv0=mv0+zvo−zvcur (11)
tv1=mv1+zv1−zvcur (12)
tv’0=s*mv0+zvcur−zv’0=s*mv0=mv’0
および
tv’1=mv1/s+zvcur−zv’1=mv1/s=mv’1
mv’1=−mv’0
for each block
for each angle
rotate reference picture using angle
for each motion vector
check match of template between current picture and rotated reference picture
if best match
store prediction block
M=RST
ここで、Rは回転行列、Sはスケーリング行列、Tは並進行列である。
− 第2のピクチャ13、12が、第2の取得された参照ピクチャ13、12または第2の取得された参照ピクチャ13、12の変換されたバージョン13’、12’を含み、方法20が、ブロック14の符号化23中に、
− 第2の参照ピクチャ13、12の第2の参照マッチング領域に少なくとも部分的に重複する第3の参照予測領域、または第2の参照ピクチャ13、12の変換されたバージョン13’、12’の第2の参照マッチング領域に少なくとも部分的に重複する第4の予測領域を選択することと、
− 選択された第1の予測領域および選択された第3の予測領域または選択された第2の予測領域および選択された第4の予測領域に基づいて第5の予測領域を導き出すことと、
− 現在のピクチャ11のブロック14の符号化23のために第5の予測領域を選択することとを含む。
− 参照ピクチャ2;12、13の変換されたバージョン2’;12’、13’を、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用して取得すること31と、
− 参照ピクチャ2;12、13の参照マッチング領域6;15、16を第2のピクチャ1;13、12のマッチング領域4;16、15にマッチさせることと、変換されたバージョン2’;12’、13’の参照マッチング領域6’;15’、16’を第2のピクチャ1;13、12のマッチング領域4;16、15にマッチさせることとを含むマッチング手続きを、少なくとも1回実行すること32と、
− 現在のピクチャ1;11のブロック3;14を、ブロック3;14に対して、参照マッチング領域6;15、16に基づく第1の予測領域5;15、16または変換された参照マッチング領域6’;15’、16’に基づく第2の予測領域5’;15’、16’を選択することにより復号すること33であり、第1の予測領域および第2の予測領域が、それぞれの参照マッチング領域6;6’;15、16、15’、16’に少なくとも部分的に重複し、第2のピクチャ1;13、12の対応するマッチング領域4;16、15に対するマッチング誤差が最小である予測領域がブロックの予測として選択される、復号すること33とを含む。
− 第2の参照ピクチャ13、12の第3の参照予測領域、または第2の参照ピクチャ13、12の変換されたバージョン13’、12’の第4の予測領域を選択することと、
− 選択された第1の予測領域および選択された第3の予測領域または選択された第2の予測領域および選択された第4の予測領域に基づいて、第5の予測領域を導き出すことと、
− 現在のピクチャ11のブロック14の復号33のために第5の予測領域を選択することとを含む。
− 参照ピクチャ2;12、13の変換されたバージョン2’;12’、13’を、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用することにより取得し、
− 参照ピクチャ2;12、13の参照マッチング領域6;15、16を第2のピクチャ1;13、12のマッチング領域4;16、15にマッチさせることと、変換されたバージョン2’;12’、13’の参照マッチング領域6’;15’、16’を第2のピクチャ1;13、12のマッチング領域4;16、15にマッチさせることとを含むマッチング手続きを、少なくとも1回実行し、
− 現在のピクチャ1;11のブロック3;14を、ブロック3;14に対して、参照マッチング領域6;15、16に基づく第1の予測領域5;15;16または変換された参照マッチング領域6’;15’、16’に基づく第2の予測領域5’;15’、16’を選択することにより符号化し、第1の予測領域および第2の予測領域が、それぞれの参照マッチング領域6;6’;15、16、15’、16’に少なくとも部分的に重複し、第2のピクチャ1;13、12の対応するマッチング領域4;16、15に対するマッチング誤差が最小である予測領域がブロックの予測として選択される。
− 第2の参照ピクチャ13、12の第3の参照予測領域、または第2の参照ピクチャ13、12の変換されたバージョン13’、12’の第4の予測領域を選択し、
− 選択された第1の予測領域および選択された第3の予測領域または選択された第2の予測領域および選択された第4の予測領域に基づいて、第5の予測領域を導き出し、
− 現在のピクチャ11のブロック14の符号化23のために第5の予測領域を選択するように構成される。
− 参照ピクチャ2;12、13の変換されたバージョン2’;12’、13’を、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用して取得し、
− 参照ピクチャ2;12、13の参照マッチング領域6;15、16を第2のピクチャ1;13、12のマッチング領域4;16、15にマッチさせることと、変換されたバージョン2’;12’、13’の参照マッチング領域6’;15’、16’を第2のピクチャ1;13、12のマッチング領域4;16、15にマッチさせることとを含むマッチング手続きを、少なくとも1回実行し、
− 現在のピクチャ1;11のブロック3;14を、ブロック3;14に対して、参照マッチング領域6;15、16に基づく第1の予測領域5;15;16または変換された参照マッチング領域6’;15’、16’に基づく第2の予測領域5’;15’、16’を選択することにより復号し、第1の予測領域および第2の予測領域が、それぞれの参照マッチング領域6;6’;15、16、15’、16’に少なくとも部分的に重複し、第2のピクチャ1;13、12の対応するマッチング領域4;16、15に対するマッチング誤差が最小である予測領域がブロックの予測として選択される。
− 第2の参照ピクチャ13、12の第3の参照予測領域、または第2の参照ピクチャ13、12の変換されたバージョン13’、12’の第4の予測領域を選択し、
− 選択された第1の予測領域および選択された第3の予測領域または選択された第2の予測領域および選択された第4の予測領域に基づいて、第5の予測領域を導き出し、
− 現在のピクチャ11のブロック14の復号33のために第5の予測領域を選択するように構成される。
Claims (40)
- ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)で実行される方法(20)であって、
参照ピクチャの変換されたバージョンを、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用して取得すること(21)と、
前記参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、前記変換されたバージョンの参照マッチング領域を前記第2のピクチャの前記マッチング領域にマッチさせることとを含むマッチング手続きを、少なくとも1回実行すること(22)と、
現在のピクチャのブロックを、前記ブロックに対して、前記参照ピクチャの前記参照マッチング領域に基づく第1の予測領域または前記変換された参照マッチング領域に基づく第2の予測領域を選択することにより符号化すること(23)であり、前記第1の予測領域および前記第2の予測領域が、それぞれの参照マッチング領域と少なくとも部分的に重複し、前記第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である前記予測領域が前記ブロックの予測として選択される、符号化すること(23)と、
デコーダ(50)に対し、マッチング手続き中に前記デコーダ(50)で導き出された選択済み予測候補のセットの中の、ブロックの復号に使用する予測領域候補のインデックスをシグナリングすること
を含む方法(20)。 - 前記参照ピクチャの変換されたバージョンを取得すること(21)が、前記参照ピクチャの前記参照マッチング領域および前記予測領域のみを変換することを含む、請求項1に記載の方法(20)。
- 前記マッチング手続きを、前記符号化すること(23)よりも低い解像度で実行すること(22)を含む、請求項1または2に記載の方法(20)。
- 前記マッチング手続きを実行することが、第1の標本精度を使用して前記参照ピクチャの前記参照マッチング領域に対するマッチの第1のセットを取得することと、第2の標本精度を使用して前記第1のセットの前記マッチを絞り込むこととを含み、前記符号化すること(23)が、前記第2の標本精度が使用された前記第1のセットのマッチの中から前記予測領域を選択することを含む、請求項1ないし3のいずれか一項に記載の方法(20)。
- デコーダ(50)に対し、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングすることを含む、請求項4に記載の方法(20)。
- デコーダ(50)に対し、前記マッチング手続きで使用する前記幾何変換に関する情報であって、前記マッチング手続きで使用する組み合わせの数、示唆された予測領域候補のセット、使用するスケーリング因子、および使用する角度の1つまたは複数を含む情報をシグナリングすることを含む、請求項1ないし5のいずれか一項に記載の方法(20)。
- 前記マッチング手続きがバイラテラルマッチングを含み、
前記第2のピクチャが、第2の取得された参照ピクチャまたは前記第2の取得された参照ピクチャの変換されたバージョンを含み、前記方法(20)が、前記ブロックの前記符号化(23)中に、
前記第2の参照ピクチャの第3の参照予測領域、または前記第2の参照ピクチャの前記変換されたバージョンの第4の予測領域を選択することと、
選択された前記第1の予測領域および選択された前記第3の参照予測領域または選択された前記第2の予測領域および選択された前記第4の予測領域に基づいて、第5の予測領域を導き出すことと、
前記現在のピクチャの前記ブロックの符号化(23)のために前記第5の予測領域を選択することと
を含む、請求項1ないし6のいずれか一項に記載の方法(20)。 - 前記マッチング手続きがテンプレートマッチングを含み、前記第2のピクチャが前記現在のピクチャを含み、前記第2のピクチャの前記マッチング領域が前記現在のピクチャのテンプレート領域を含む、請求項1ないし6のいずれか一項に記載の方法(20)。
- 前記現在のピクチャの前記ブロックの少なくとも一部のピクセルが、イントラ符号化を使用して符号化され、前記ブロックの前記一部が、前記参照ピクチャの、前記参照マッチング領域と前記参照予測領域とが重複する部分に対応する、請求項7または8に記載の方法(20)。
- ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)用のコンピュータプログラム(43)であって、前記エンコーダ(40)の少なくとも1つのプロセッサで実行されたときに、前記エンコーダ(40)に請求項1ないし9のいずれか一項に記載の方法(20)を実行させるコンピュータプログラムコードを含むコンピュータプログラム(43)。
- 請求項10に記載のコンピュータプログラム(43)が格納されるコンピュータ可読手段。
- ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)であって、
参照ピクチャの変換されたバージョンを、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用して取得し、
前記参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、前記変換されたバージョンの参照マッチング領域を前記第2のピクチャの前記マッチング領域にマッチさせることとを含むマッチング手続きを、少なくとも1回実行し、
現在のピクチャのブロックを、前記ブロックに対して、前記参照ピクチャの前記参照マッチング領域に基づく第1の予測領域または前記変換された参照マッチング領域に基づく第2の予測領域を選択することにより符号化し、前記第1の予測領域および前記第2の予測領域が、それぞれの参照マッチング領域と少なくとも部分的に重複し、前記第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である予測領域が前記ブロックの予測として選択され、
デコーダ(50)に対し、マッチング手続き中に前記デコーダ(50)で導き出された選択済み予測候補のセットの中の、ブロックの復号に使用する予測領域候補のインデックスをシグナリングするように構成されたエンコーダ(40)。 - 前記参照ピクチャの変換されたバージョンを、前記参照ピクチャの前記参照マッチング領域および前記予測領域のみを変換することにより取得するように構成された、請求項12に記載のエンコーダ(40)。
- 前記マッチング手続きを、前記符号化(23)よりも低い解像度で実行するように構成された、請求項12または13に記載のエンコーダ(40)。
- 第1の標本精度を使用して前記参照ピクチャの前記参照マッチング領域に対するマッチの第1のセットを取得し、第2の標本精度を使用して前記第1のセットのマッチを絞り込むことにより、前記マッチング手続きを実行するように構成され、前記第2の標本精度が使用された前記第1のセットのマッチの中から前記予測領域を選択することにより、符号化するように構成された、請求項12ないし14のいずれか一項に記載のエンコーダ(40)。
- デコーダ(50)に対し、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングするように構成された、請求項15に記載のエンコーダ(40)。
- デコーダ(50)に対し、前記マッチング手続きで使用する幾何変換に関する情報であって、前記マッチング手続きで使用する組み合わせの数、示唆された予測領域候補のセット、使用するスケーリング因子、および使用する角度の1つまたは複数を含む情報をシグナリングするように構成された、請求項12ないし16のいずれか一項に記載のエンコーダ(40)。
- 前記マッチング手続きがバイラテラルマッチングを含み、
前記第2のピクチャが、第2の取得された参照ピクチャまたは前記第2の取得された参照ピクチャの変換されたバージョンを含み、前記エンコーダ(40)が、前記ブロックの前記符号化中に、
前記第2の参照ピクチャの第3の参照予測領域、または前記第2の参照ピクチャの前記変換されたバージョンの第4の予測領域を選択し、
選択された前記第1の予測領域および選択された前記第3の参照予測領域または選択された前記第2の予測領域および選択された前記第4の予測領域に基づいて、第5の予測領域を導き出し、
前記現在のピクチャの前記ブロックの符号化(23)のために前記第5の予測領域を選択する
ように構成された、請求項12ないし17のいずれか一項に記載のエンコーダ(40)。 - 前記マッチング手続きがテンプレートマッチングを含み、前記第2のピクチャが前記現在のピクチャを含み、前記第2のピクチャの前記マッチング領域が前記現在のピクチャのテンプレート領域を含む、請求項12ないし17のいずれか一項に記載のエンコーダ(40)。
- 前記現在のピクチャの前記ブロックの少なくとも一部のピクセルが、イントラ符号化を使用して符号化され、前記ブロックの前記一部が、前記参照ピクチャの、前記参照マッチング領域と前記参照予測領域とが重複する部分に対応する、請求項18または19に記載のエンコーダ(40)。
- ビデオビットストリームからビデオピクチャを復号するデコーダ(50)で実行される方法(30)であって、
参照ピクチャの変換されたバージョンを、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用して取得すること(31)と、
前記参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、前記変換されたバージョンの参照マッチング領域を前記第2のピクチャの前記マッチング領域にマッチさせることとを含むマッチング手続きを、少なくとも1回実行すること(32)と、
現在のピクチャのブロックを、前記ブロックに対して、前記参照ピクチャの前記参照マッチング領域に基づく第1の予測領域または前記変換された参照マッチング領域に基づく第2の予測領域を選択することにより復号すること(33)であり、前記第1の予測領域および前記第2の予測領域が、それぞれの参照マッチング領域と少なくとも部分的に重複し、前記第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である前記予測領域が前記ブロックの予測として選択される、復号すること(33)と、
エンコーダ(40)から、マッチング手続き中に導き出された選択済み予測候補のセットの中の、ブロックの復号に使用する予測領域候補のインデックスを受け取ることと、
を含む方法(30)。 - 前記参照ピクチャの変換されたバージョンを取得すること(31)が、前記参照ピクチャの前記参照マッチング領域および前記予測領域のみを変換することを含む、請求項21に記載の方法(30)。
- 前記マッチング手続きを、前記復号すること(33)よりも低い解像度で実行すること(32)を含む、請求項21または22に記載の方法(30)。
- 前記マッチング手続きを実行することが、第1の標本精度を使用して前記参照ピクチャの前記参照マッチング領域に対するマッチの第1のセットを取得することと、第2の標本精度を使用して前記第1のセットの前記マッチを絞り込むこととを含み、前記復号すること(33)が、前記第2の標本精度が使用された前記第1のセットのマッチの中から前記予測領域を選択することを含む、請求項21ないし23のいずれか一項に記載の方法(30)。
- エンコーダ(40)から、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取ることを含む、請求項24に記載の方法(30)。
- エンコーダ(40)から、前記マッチング手続きで使用する前記幾何変換に関する情報であって、前記マッチング手続きで使用する組み合わせの数、示唆された予測領域候補のセット、使用するスケーリング因子、および使用する角度の1つまたは複数を含む情報を受け取ることを含む、請求項21ないし25のいずれか一項に記載の方法(30)。
- 前記マッチング手続きがバイラテラルマッチングを含み、
前記第2のピクチャが、第2の取得された参照ピクチャまたは前記第2の取得された参照ピクチャの変換されたバージョンを含み、前記方法(30)が、前記ブロックの前記復号(33)中に、
前記第2の参照ピクチャの第3の参照予測領域、または前記第2の参照ピクチャの前記変換されたバージョンの第4の予測領域を選択することと、
選択された前記第1の予測領域および選択された前記第3の参照予測領域または選択された前記第2の予測領域および選択された前記第4の予測領域に基づいて、第5の予測領域を導き出すことと、
前記現在のピクチャの前記ブロックの復号(33)のために前記第5の予測領域を選択することと
を含む、請求項21ないし26のいずれか一項に記載の方法(30)。 - 前記マッチング手続きがテンプレートマッチングを含み、前記第2のピクチャが前記現在のピクチャを含み、前記第2のピクチャの前記マッチング領域が前記現在のピクチャのテンプレート領域を含む、請求項21ないし26のいずれか一項に記載の方法(30)。
- 前記現在のピクチャの前記ブロックの少なくとも一部のピクセルが、イントラ符号化を使用して復号され、前記ブロックの前記一部が、前記参照ピクチャの、前記参照マッチング領域と前記参照予測領域とが重複する部分に対応する、請求項27または28に記載の方法(30)。
- ビデオビットストリームからビデオピクチャを復号するデコーダ(50)用のコンピュータプログラム(53)であって、前記デコーダ(50)の少なくとも1つのプロセッサで実行されたときに、前記デコーダ(50)に請求項21ないし29のいずれか一項に記載の方法(30)を実行させるコンピュータプログラムコードを含むコンピュータプログラム(53)。
- 請求項30に記載のコンピュータプログラム(53)が格納されるコンピュータ可読手段。
- ビデオビットストリームからビデオピクチャを復号するデコーダ(50)であって、
参照ピクチャの変換されたバージョンを、スケーリング、回転、せん断、反射、および投影の少なくとも1つを含む幾何変換を使用して取得し、
前記参照ピクチャの参照マッチング領域を第2のピクチャのマッチング領域にマッチさせることと、前記変換されたバージョンの参照マッチング領域を前記第2のピクチャの前記マッチング領域にマッチさせることとを含むマッチング手続きを、少なくとも1回実行し、
現在のピクチャのブロックを、前記ブロックに対して、前記参照ピクチャの前記参照マッチング領域に基づく第1の予測領域または前記変換された参照マッチング領域に基づく第2の予測領域を選択することにより復号し、前記第1の予測領域および前記第2の予測領域が、それぞれの参照マッチング領域と少なくとも部分的に重複し、前記第2のピクチャの対応するマッチング領域に対するマッチング誤差が最小である前記予測領域が前記ブロックの予測として選択され、
エンコーダ(40)から、マッチング手続き中に導き出された選択済み予測候補のセットの中の、ブロックの復号に使用する予測領域候補のインデックスを受け取るように構成されたデコーダ(50)。 - 前記参照ピクチャの変換されたバージョンを、前記参照ピクチャの前記参照マッチング領域および前記予測領域のみを変換することにより取得するように構成された、請求項32に記載のデコーダ(50)。
- 前記マッチング手続きを、前記復号よりも低い解像度で実行するように構成された、請求項32または33に記載のデコーダ(50)。
- 第1の標本精度を使用して前記参照ピクチャの前記参照マッチング領域に対するマッチの第1のセットを取得し、第2の標本精度を使用して前記第1のセットのマッチを絞り込むことにより、前記マッチング手続きを実行するように構成され、前記第2の標本精度が使用された前記第1のセットのマッチの中から前記予測領域を選択することにより、復号するように構成された、請求項32ないし34のいずれか一項に記載のデコーダ(50)。
- エンコーダ(40)から、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取るように構成された、請求項35に記載のデコーダ(50)。
- エンコーダ(40)から、前記マッチング手続きで使用する前記幾何変換に関する情報であって、前記マッチング手続きで使用する組み合わせの数、示唆された予測領域候補のセット、使用するスケーリング因子、および使用する角度の1つまたは複数を含む情報を受け取るように構成された、請求項32ないし36のいずれか一項に記載のデコーダ(50)。
- 前記マッチング手続きがバイラテラルマッチングを含み、
前記第2のピクチャが、第2の取得された参照ピクチャまたは前記第2の取得された参照ピクチャの変換されたバージョンを含み、前記デコーダ(50)が、前記ブロックの前記復号中に、
前記第2の参照ピクチャの第3の参照予測領域、または前記第2の参照ピクチャの前記変換されたバージョンの第4の予測領域を選択し、
選択された前記第1の予測領域および選択された前記第3の参照予測領域または選択された前記第2の予測領域および選択された前記第4の予測領域に基づいて、第5の予測領域を導き出し、
前記現在のピクチャの前記ブロックの復号(33)のために前記第5の予測領域を選択する
ように構成された、請求項32ないし37のいずれか一項に記載のデコーダ(50)。 - 前記マッチング手続きがテンプレートマッチングを含み、前記第2のピクチャが前記現在のピクチャを含み、前記第2のピクチャの前記マッチング領域が前記現在のピクチャのテンプレート領域を含む、請求項32ないし37のいずれか一項に記載のデコーダ(50)。
- 前記現在のピクチャの前記ブロックの少なくとも一部のピクセルが、イントラ符号化を使用して復号され、前記ブロックの前記一部が、前記参照ピクチャの、前記参照マッチング領域と前記参照予測領域とが重複する部分に対応する、請求項38または39に記載のデコーダ(50)。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/SE2016/050122 WO2017142448A1 (en) | 2016-02-17 | 2016-02-17 | Methods and devices for encoding and decoding video pictures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018509005A JP2018509005A (ja) | 2018-03-29 |
JP6379186B2 true JP6379186B2 (ja) | 2018-08-22 |
Family
ID=59561890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016520075A Expired - Fee Related JP6379186B2 (ja) | 2016-02-17 | 2016-02-17 | ビデオピクチャを符号化および復号する方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10200715B2 (ja) |
EP (1) | EP3417617A4 (ja) |
JP (1) | JP6379186B2 (ja) |
WO (1) | WO2017142448A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11620733B2 (en) * | 2013-03-13 | 2023-04-04 | Kofax, Inc. | Content-based object detection, 3D reconstruction, and data extraction from digital images |
US10783615B2 (en) | 2013-03-13 | 2020-09-22 | Kofax, Inc. | Content-based object detection, 3D reconstruction, and data extraction from digital images |
CN107872671B (zh) * | 2016-09-26 | 2022-01-14 | 华为技术有限公司 | 一种图片编码方法及终端 |
US20190045213A1 (en) * | 2017-08-03 | 2019-02-07 | Intel Corporation | Reference frame reprojection for improved video coding |
US10986360B2 (en) * | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
FR3072850B1 (fr) | 2017-10-19 | 2021-06-04 | Tdf | Procedes de codage et de decodage d'un flux de donnees representatif d'une video omnidirectionnelle |
US11062176B2 (en) | 2017-11-30 | 2021-07-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
KR20210016581A (ko) | 2018-06-05 | 2021-02-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
JP7060802B2 (ja) * | 2018-06-11 | 2022-04-27 | 日本電信電話株式会社 | バッファ装置 |
TWI739120B (zh) | 2018-06-21 | 2021-09-11 | 大陸商北京字節跳動網絡技術有限公司 | 合併仿射模式與非合併仿射模式的統一拘束 |
CN113115046A (zh) * | 2018-06-21 | 2021-07-13 | 北京字节跳动网络技术有限公司 | 分量相关的子块分割 |
CN110662059B (zh) | 2018-06-29 | 2021-04-20 | 北京字节跳动网络技术有限公司 | 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置 |
CA3105330C (en) | 2018-06-29 | 2023-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
WO2020003283A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Conditions for updating luts |
CN114466197A (zh) | 2018-06-29 | 2022-05-10 | 北京字节跳动网络技术有限公司 | 用于查找表更新的编码的运动信息的选择 |
CN110662053B (zh) | 2018-06-29 | 2022-03-25 | 北京字节跳动网络技术有限公司 | 使用查找表的视频处理方法、装置和存储介质 |
CN110662064B (zh) * | 2018-06-29 | 2022-06-14 | 北京字节跳动网络技术有限公司 | Lut中的运动候选的检查顺序 |
EP3794825A1 (en) | 2018-06-29 | 2021-03-24 | Beijing Bytedance Network Technology Co. Ltd. | Update of look up table: fifo, constrained fifo |
CN110662054B (zh) | 2018-06-29 | 2023-01-06 | 北京字节跳动网络技术有限公司 | 用于视频处理的方法、装置、计算机可读存储介质 |
TWI734133B (zh) | 2018-07-02 | 2021-07-21 | 大陸商北京字節跳動網絡技術有限公司 | 更新查找表的規則 |
TW202025760A (zh) | 2018-09-12 | 2020-07-01 | 大陸商北京字節跳動網絡技術有限公司 | 要檢查多少個hmvp候選 |
CN110944193B (zh) | 2018-09-24 | 2023-08-11 | 北京字节跳动网络技术有限公司 | 视频编码和解码中的加权双向预测 |
WO2020088689A1 (en) * | 2018-11-02 | 2020-05-07 | Beijing Bytedance Network Technology Co., Ltd. | Usage of hmvp candidates in geometry partition prediction mode |
WO2020094151A1 (en) | 2018-11-10 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Rounding in pairwise average candidate calculations |
FI3879835T3 (fi) * | 2018-12-19 | 2023-09-01 | Lg Electronics Inc | Sekundääriseen muunnokseen perustuva videonkoodausmenetelmä sekä sitä varten tarkoitettu laite |
JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
WO2020181474A1 (zh) * | 2019-03-11 | 2020-09-17 | Oppo广东移动通信有限公司 | 预测值的确定方法、编码器以及计算机存储介质 |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
CN116389765B (zh) * | 2019-04-25 | 2024-01-30 | 北京达佳互联信息技术有限公司 | 对视频数据编码的利用光流的预测细化方法、设备和介质 |
TWI781416B (zh) * | 2019-06-14 | 2022-10-21 | 弗勞恩霍夫爾協會 | 具有基於尺度之改良變換之編碼器、解碼器、方法及電腦程式 |
JP7471399B2 (ja) | 2019-09-27 | 2024-04-19 | オッポ広東移動通信有限公司 | 予測値の確定方法、復号器及びコンピュータ記憶媒体 |
EP3958566A1 (en) | 2020-08-17 | 2022-02-23 | Axis AB | Wearable camera and a method for encoding video captured by the wearable camera |
CN112468815B (zh) * | 2021-01-28 | 2021-06-15 | 浙江智慧视频安防创新中心有限公司 | 视频编解码的方法、装置、电子设备及存储介质 |
EP4371301A1 (en) * | 2021-07-15 | 2024-05-22 | Google LLC | Warped motion compensation with explicitly signaled extended rotations |
EP4346200A1 (en) * | 2022-09-27 | 2024-04-03 | Beijing Xiaomi Mobile Software Co., Ltd. | Encoding/decoding video picture data |
JP2024057980A (ja) * | 2022-10-13 | 2024-04-25 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3277111B2 (ja) * | 1995-10-18 | 2002-04-22 | シャープ株式会社 | 動画像符号化装置および動画像復号化装置 |
TW257924B (en) * | 1995-03-18 | 1995-09-21 | Daewoo Electronics Co Ltd | Method and apparatus for encoding a video signal using feature point based motion estimation |
EP1094669B1 (en) * | 1999-10-19 | 2008-06-04 | Thomson Licensing | Method of motion estimation for a digital input video signal |
KR100703283B1 (ko) | 2004-03-15 | 2007-04-03 | 삼성전자주식회사 | 회전 매칭을 통해 움직임을 예측하는 영상 부호화 장치 및방법 |
US20070268964A1 (en) * | 2006-05-22 | 2007-11-22 | Microsoft Corporation | Unit co-location-based motion estimation |
JP2008217526A (ja) * | 2007-03-06 | 2008-09-18 | Canon Inc | 画像処理装置、画像処理プログラム及び画像処理方法 |
GB0707192D0 (en) * | 2007-04-13 | 2007-05-23 | Mitsubishi Electric Inf Tech | Generalized statistical template matching |
KR101493325B1 (ko) * | 2008-09-03 | 2015-02-16 | 삼성전자주식회사 | 정밀 움직임 예측을 기반으로 한 프레임 보간 장치 및 그 방법 |
JP2012080151A (ja) * | 2009-02-09 | 2012-04-19 | Toshiba Corp | 幾何変換動き補償予測を用いる動画像符号化及び動画像復号化の方法と装置 |
US8873626B2 (en) | 2009-07-02 | 2014-10-28 | Qualcomm Incorporated | Template matching for video coding |
EP2621174A3 (en) | 2009-12-08 | 2014-02-26 | Thomson Licensing | Methods and apparatus for adaptive template matching prediction for video encoding and decoding |
US20110176611A1 (en) | 2010-01-15 | 2011-07-21 | Yu-Wen Huang | Methods for decoder-side motion vector derivation |
CN102804774B (zh) | 2010-01-19 | 2016-08-24 | 汤姆逊许可证公司 | 用于视频编解码的降低了复杂度的模板匹配预测方法和装置 |
CN103039075B (zh) | 2010-05-21 | 2015-11-25 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、以及图像解码装置、图像解码方法 |
JP5686018B2 (ja) | 2010-05-21 | 2015-03-18 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法および画像符号化プログラム |
US20120092329A1 (en) * | 2010-10-13 | 2012-04-19 | Qualcomm Incorporated | Text-based 3d augmented reality |
US20120106638A1 (en) | 2010-10-29 | 2012-05-03 | Yeping Su | Decoder-Side Motion Derivation with Motion Vector Predictors |
EP2656610A4 (en) | 2010-12-21 | 2015-05-20 | Intel Corp | SYSTEM AND METHOD FOR EXTENDED DMVD PROCESSING |
WO2016176592A1 (en) * | 2015-04-29 | 2016-11-03 | Arris Enterprises Llc | Reference picture selection for inter-prediction in video coding |
-
2016
- 2016-02-17 JP JP2016520075A patent/JP6379186B2/ja not_active Expired - Fee Related
- 2016-02-17 EP EP16890799.6A patent/EP3417617A4/en not_active Withdrawn
- 2016-02-17 WO PCT/SE2016/050122 patent/WO2017142448A1/en active Application Filing
- 2016-02-17 US US15/027,749 patent/US10200715B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018509005A (ja) | 2018-03-29 |
US20170238011A1 (en) | 2017-08-17 |
EP3417617A4 (en) | 2019-02-27 |
EP3417617A1 (en) | 2018-12-26 |
WO2017142448A1 (en) | 2017-08-24 |
US10200715B2 (en) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6379186B2 (ja) | ビデオピクチャを符号化および復号する方法および装置 | |
TWI714565B (zh) | 視訊寫碼中運動向量推導 | |
RU2683165C1 (ru) | Внутреннее предсказание блочного копирования с асимметричными разделами и схемами поиска на стороне кодера, диапазоны поиска и подходы к разделению | |
RU2683495C1 (ru) | Нововведения в предсказание блочных векторов и оценку восстановленных значений отсчетов в области перекрытия | |
JP7171770B2 (ja) | 動きベクトル精密化および動き補償のためのメモリアクセスウィンドウおよびパディング | |
JP6419170B2 (ja) | ビデオピクチャを符号化および復号する方法および装置 | |
KR102527169B1 (ko) | 모션 벡터 리파인먼트를 위한 제한된 메모리 액세스 윈도우 | |
TW202041002A (zh) | 解碼器側運動向量精緻化之限制 | |
US11153595B2 (en) | Memory access window and padding for motion vector refinement | |
US20210092390A1 (en) | Methods and apparatuses for prediction refinement with optical flow in reference picture resampling | |
JP5367097B2 (ja) | 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム | |
WO2011099428A1 (ja) | 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム | |
TW202017385A (zh) | 從仿射運動預測的非仿射塊 | |
US20230291932A1 (en) | Method and apparatus for intra prediction using block copy based on geometric transform | |
US11087500B2 (en) | Image encoding/decoding method and apparatus | |
Ates | Enhanced low bitrate H. 264 video coding using decoder-side super-resolution and frame interpolation | |
JP2022066678A (ja) | イントラ予測装置、符号化装置、復号装置、及びプログラム | |
CN116671104A (zh) | 利用基于几何变换的块复制的帧内预测的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6379186 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |