TWI311297B - Method for motion search between video pictures with multiple blocks - Google Patents

Method for motion search between video pictures with multiple blocks Download PDF

Info

Publication number
TWI311297B
TWI311297B TW095115548A TW95115548A TWI311297B TW I311297 B TWI311297 B TW I311297B TW 095115548 A TW095115548 A TW 095115548A TW 95115548 A TW95115548 A TW 95115548A TW I311297 B TWI311297 B TW I311297B
Authority
TW
Taiwan
Prior art keywords
search
block
center point
point
points
Prior art date
Application number
TW095115548A
Other languages
English (en)
Other versions
TW200743057A (en
Inventor
Tsung Han Tsai
yu nan Pan
Original Assignee
Nat Central Universit
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nat Central Universit filed Critical Nat Central Universit
Priority to TW095115548A priority Critical patent/TWI311297B/zh
Priority to US11/566,241 priority patent/US8090021B2/en
Publication of TW200743057A publication Critical patent/TW200743057A/zh
Application granted granted Critical
Publication of TWI311297B publication Critical patent/TWI311297B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/557Motion estimation characterised by stopping computation or iteration based on certain criteria, e.g. error magnitude being too large or early exit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

i J 11 -a6€4etwf.d〇c/g 九、發明說明: 【發明所屬之技術4員域】 本發明是有關於一種視訊壓縮的方法,且特別是有關 於種運用於多種區塊組態之視訊畫面間動態搜尋的方 法。 【先前技術】 近年來由於網路的普及和多媒體傳輸技術的進步,影 音資料的交流已成為生活中不可獲缺的一部份。為了有效 • 利用有限的傳輸頻寬,以傳送最多、品質最佳的影音資料, 採用更先進的影音與資料壓縮方法是絕對必要的。其中 H.264是目前最先進的影像壓縮技術,此技術是由國際電 仏聯合會(International Telecommunication Union, ITU)視 訊編碼專豕群(Video Coding Experts Group,VCEG)聯盟 和國際標準組織(Internati〇nal 〇rganizati〇n f〇r Standardization, ISO ) / 國際電氣技術委員會(Internati〇nal
Electrotechnical Commission,IEC )的動晝專家群(Moving φ Picture Experts Group,MPEG)聯盟所合作制訂的。 H.264的主要目的是有效提高視訊資料的壓縮率以使 其在網路的傳輸上具有更好的效果,與之前的H.263+或是 MPEG-4等技術相比,h.264大約節省了 50%的壓縮率, ‘並且具有較鬲的品質。雖然H.264具有非常好的壓縮率及 、壓縮品質,但因其支援了多種區塊組態,以及多重參考, 使得其所需的運算量非常龐大,而其中動態評估(Motion f.doc/g
Estl_Gn)❸運算量健體 需要;=的動態評估演算法以減少其運g。因此 FS)是去搜尋在搜尋範圍 ^ (Fuil Searc^ 圍所有的點,而利用全域搜尋可 付到取小的块差區塊’但相 = 為了要克服這個缺點,許多的,因此 型搜尋與六肖麵尋等。〜4提出’如鑽石 圖丄所、.日不為/、角型搜尋演算法的搜尋 括-個中心點⑽、距離中心 個:: 左下、右上、右下等4個=:二?為細左上、 !50及搜尋點⑽。此演算^^\搜哥點14◦、搜尋點 P ^ ^ ^ # Μ AU '、刀別计算此7個搜尋點所屬 =的4以值,從吨W有最少誤 = 差區塊所對應的搜尋點做為 點重稷搜尋,直到中心點區塊獨中〜 六角型搜尋演算法的搜尋點數 。:°»鬼為止。此 ,, 二 占數雖然比全域搜尋來的少,徊
t匕起目前觀《的解析度及容量增加崎度 =,如何能有效提升視訊晝面間的動態搜尋 H 今視訊壓縮技術極待解決的重要課題之一。 风馮現 【發明内容】 旦面間動㈣W的方法,#由—種小 中,辨別動態向量分佈的方向,進而選擇使用-種 1311嫩 f.doc/g t型i減少搜尋最小誤差區塊所需要的搜尋點數,從而 達到增加搜尋速度的目的。 士發明提出—種運用於多種區塊組態之視訊晝面間動 的,,包括下列步驟:首先,計算視訊晝面中多 二f之,值’接著判斷這些區塊之邊界值是否小於一 二:若有區塊的邊界值祕臨界值,麻用此區塊作 ::二搜哥區塊;若沒有任何區塊的邊界值小於臨界值,則 塊之邊界值與臨界㈣-邊界差值大小,而取 之區塊作為搜尋區塊,最後則依據此搜尋 區塊進仃一動悲搜尋步驟。 本發明的較佳實施例所述制於多種區塊組態之 ”間動態搜尋的方法,其中計算視訊晝面中各個區 iii界值的步驟包括先計算視訊晝面中所有4x4區塊之 區塊及祕區塊之料值&塊之邊界值計鼻所有8X8 ^照本發_較佳實施例所述運歸多麵塊組態之 視:晝面_態搜尋的方法,其中_區塊之邊界值 =,界_步驟包括H _此16區塊之邊界值 之臨界值’若小於該臨界值,則取用 = 作為該搜尋區塊;若不小於臨界值,則繼續 所有8x8區塊之邊界值皆小於8χ8區塊之臨界 值:右白小於臨界值,則計算祕及16χ8區塊之邊界值 與臨界值之邊界差值大小’取用邊界差值最小之㈣ 16X8區塊作為搜尋區塊;若有—個以上的8x8區塊之邊界 131 twf.doc/g -值不小於臨界值,則逐-判斷這些8x8區塊之邊界值是否 .小於8x8區塊之臨界值。此時,若有8x8區塊之邊界值小 .於臨界值’則取用8x8區塊作為搜尋區塊;若皆不小於臨 界值’則繼續判斷是否所有4χ4區塊之邊界值皆小於4χ4 區,之界值。若所有4χ4區塊之邊界值皆小於4χ4區塊 之臨界值,則取用知4區塊作為搜尋區塊;若有知4區塊 之臨界值不小於臨界值,則計算4χ8區塊與8χ4區塊之邊 卩值與臨界值之邊界差值大小’取用邊界差值最小之4χ8 零 ㊣塊或8x4區塊作為搜尋區塊。 、依照本發明的較佳實施例所述運用於多種區塊組態之 視訊晝面間動態搜尋的方法,其中每一個16χ16區塊之邊 界值為16x16區塊中所包含之μ個4χ4區塊之邊界值的總 合’而每一個8x8區塊之邊界值為8x8區塊中所包含之4 個4x4區塊之邊界值的總合。 依照本發明的較佳實施例所述運用於多種區塊組態之 視訊晝面間動態搜尋的方法,其中動態搜尋步驟包括下列 • 步驟··首先使用一個小範圍模型搜尋一個最小誤差區塊, 其中此小範圍模型包括搜尋一個中心點及位於此中心點周 圍上、下、左、右的4個搜尋點,若此中心點區塊為最小 誤差區塊,則判定此中心點區塊為最後區塊,並結束搜尋; ‘ 若此中心點區塊不為最小誤差區塊,則移動此中心點至具 . 有最小誤差區塊之搜尋點,並根據移動的方向,選擇一種 大範圍模型,接著再次使用此小範圍模型搜尋最小誤差區 塊’其中此小範圍模型包括中心點及位於中心點周圍新增 oc/g i3H?2Ld 之3個搜尋點,若此中心點區塊為最小誤差區塊,則判定 此中心點區塊為最後區塊,並結束搜尋;若此中心點區塊 不為最小誤差區塊,則移動此中心點至具有最小誤差區塊 之搜尋點,然後使用上述步驟所選出之大範圍模型搜尋最 小誤差區塊,若此大範圍模型為一種垂直大範圍模型時, 且最小誤差區塊為上/下其中一點的區塊時,則在此中心點 周圍上/下、左、右新增3個搜尋點;若此大範圍模型為一 種垂直大範圍模型時,且最小誤差區塊不為上/下其中一點 的區塊時,則在此中心點周圍左上/右上、左下/右下、上、 下新增4個搜尋點;若此大範圍模型為一種水平大範圍模 型時,且最小誤差區塊為左/右其中一點的區塊時,則在此 中心點周圍左/右、上、下新增3個搜尋點;若此大範圍模 型為一種水平大範圍模型時,且最小誤差區塊不為左/右其 中一點的區塊時,則在此中心點周圍左上/右上、左下/右 下、左、右新增4個搜尋點,最後若最小誤差區塊不位於 中心點’則重複使用大範圍模型搜尋最小誤差區塊;以及 若最小誤差區塊位於中心點,則轉為使用小範圍模型搜尋 最小誤差區塊,而判定此最小誤差區塊為最後區塊,並結 束搜尋。 依照本發明的較佳實施例所述運用於多種區塊組態之 視訊畫面間動態搜尋的方法,上述之垂直大範圍搜尋係包 括7個搜尋點,包括中心點、距離中心點為2的上、下2 個搜尋點,以及距離中心點為力的左上、左下、右上,及 右下等4個搜尋點。 i3ii?ai twf.doc/g 依照本發明的較佳實施例所述運用於多種區塊电能之 視訊畫面_態搜尋的方法,上述之水平大朗搜尋係包 括7個搜尋點,包括巾㈣、距離巾处為2的左、右2 個搜尋點,以及距離中心點為^的左上、左下、右上,及 右下等4個搜尋點。 ,依照本發明的較佳實施例所述運用於多種區塊組態之 視说晝面間動態搜尋的方法,±述之小範隨朗新 3個搜尋點為若中心、點為原巾心點之上的搜尋點,則取中 心點上、左及右距離為1的位置新增3個搜尋點;若中心 點為原中娜之下的搜尋點,則取中㈣下、左及右距離 為1的位置新增3個搜尋點;若中心點為原中心點之左的 搜,點,則取中心點左、上及下距離為1的位置新增^個 搜尋點;以及若中心點為原中心點之右的搜尋點,則取中 心點右、上及下距離為1的位置新增3個搜尋點。 依照本發明的較佳實施例所述運用於多種區塊組態之 祝訊晝面間動態搜尋的方法,上述之垂直大範圍模型所新 增的搜尋點為若中心點為原中心點之上的搜尋點,取中心 ,點上距離為2、左上及右上距離為上的位置新增3個搜尋 ,黏,若中心點為原中心點之下的搜尋點,取中心點下距離 為2、左下及右下距離為力的位置新增3個搜尋點;若中 心點為原中心點之左的搜尋點,則取中心點上及下距離為 2、左上及左下距離為力的位置新增4個搜尋點;以及 中心點為原中心點之右的搜尋點,則取中心點上及下距離 為2、右上及右下距離為上的位置新增4個搜尋點。 10 Ι311?2Ζ twf.doc/g _ 依照本發明的較佳實施例所述運用於多種區塊組態之 -視訊晝面間動態搜尋的方法’上述之水平大範圍模型所新 增的搜尋點為若中心點為原中心點之左的搜尋點,取中心 點左距離為2、左上及左下距離為^^的位置新增3個搜尋 點,若中心點為原中心點之右的搜尋點,取中心點右距離 為2、右上及右下距離為力的位置新增3個搜尋點;若中 心點為原中心點之上的搜尋點,則取中心點左及右距離為 2、左上及右上距離為力的位置新增4個搜尋點;以及若 ® 中心點為原中心點之下的搜尋點,則取中心點左及右距離 為2、左下及右下距離為力的位置新增4個搜尋點。 依照本發明的較佳實施例所述運用於多種區塊組態之 視efL晝面間動態搜尋的方法,上述之重複使用垂直大範圍 模型所新增的3個搜尋點的方法為若中心點為原中心點之 上的搜尋點,則取中心點上距離為2、左上及右上距離為力 的位置新增3個搜尋點;若中心點為原中心點之下的搜尋 點,則取中心點下距離為2、左下及右下距離為力的位置 _ 新增3個搜尋點;若中心點為原中心點之左上的搜尋點, 則取中心點上距離為2、左上及左下距離為上的位置新增 3個搜哥點,若中心點為原中心點之右上的搜尋點,則取 中心點上距離為2、右上及右下距離為上的位置新增3個 ' 搜尋點;若中心點為原中心點之左下的搜尋點,則取中心 - 點下距離為2、左上及左下距離為V5的位置新增3個搜尋 點,以及若令心點為原中心點之右下的搜尋點,則取中心 131129^ wf.doc/g 點下距離為2、右上及右下距離為力的位置新增3個搜尋 點0 …依照本發明的較佳實施例所述運用好種區塊組態之 ,晝面_力態搜尋的方法,上狀重複使用水平大範圍 模里所新i曰的3個搜尋點的方法為若中心點為原中心點之 左的搜尋點,難中心點左距離為2、左上及左下距離為V5 的位置新增3個搜尋點;若中心點為原中心點之右的搜尋 點則取中心點右距離為2、右上及右下距離為力的位置 新a 3個搜哥點,若中心點為原中心點之左上的搜尋點, 則取中=點左距離為2、左上及右上距離為^的位置新增 3個搜哥點;若中心點為原中心點之右上的搜尋點,則取 ㈡=點右距離為2、左上及右上距離為力的位置新增3個 技尋點,右中心點為原中心點之左下的搜尋點,則取中心 =占左距離為2、左下及右下距離為力的位置新增3個搜尋 ’’、、占,以及若中心點為原中心點之右下的搜尋點,則取中心 點右距離為2、左下及右下距離為力的位置新增3個搜 ,點。 、依照本發明的較佳實施例所述運用於多種區塊組態之 $訊晝面間動態搜尋的方法,上述之選擇大範圍模型的步 =匕括.若敢小誤差區塊的中心點為原中心點之上/下的搜 '二點,則判斷物件移動的方式為上下移動,而選擇垂置大 ' :型做為大範圍模型;以及若最小誤差區塊的中心點 二^中心點之左/右的搜尋點,則判斷物件移動的方式為左 右私動,而選擇水平大範圍模型做為大範圍模型。 131 wf.doc/g ㈣金’、、、本电明的較佳實施例所述運用於多種區塊組態之 5旦面間動態搜尋的方法,上由纽 ^ 範圍模型的步噃盔^1轉為小 1的= 中心、點周圍上、下、左、右距離為 、,、置新杧4個搜尋點,計算誤差值,取具有最小 差值之搜尋點區塊做為最後區塊,並結束搜尋。 °、 本發明因藉由邊界值來判斷所使用之區塊組態 用動恶向量的分佈特性,進角型宙首” :由$使用大範圍模型,加速搜尋最小誤差區塊的目標 尋速S = t搜尋所需要的搜尋點數’從而達到增加搜 一為讓本發明之上述和其他目的、賴和優點能更 易懂,下文特舉較佳實施例,並配合所附圖式,作詳細說 【實施方式】 =是^本發明較佳實施綱繪示的^視訊晝面 之这,I值之一犯例,而圖3是依照本發明較隹實施例所繪 示的運用於多種區塊組態之視訊晝面間動態搜尋的方法流 程圖。請同時參照圖2及圖3,本實施例之視二畫面共: 括有16個4x4區塊(如圖2(a)所示)。以下即介紹本實施 例運用於多種區塊組態之視訊晝面間動態搜尋方=的^細 步驟: / 口 首先’計算此視訊晝面中所有4x4區塊之邊界值(步 驟S301 ),而邊界值的計算例如是透過索貝爾渡、、皮、去( Filter),其計算公式如下: '/ 13 1311· f.doc/g dx ij + 2xP.
dyu =pi-u^+2xp^j+F M,y-1 i+lj+\
Au-1 F +1,7-1 其中,办/J.及办Q分別代表一個視訊畫面的4x4區塊 中’第/行請之像素在x轴方向及少轴方向上的像素差 值,而一個4x4區塊的邊界值即為: EdgeValueM=^^,
圖2(a)所示之母個區塊中記錄的數字即為該4χ4區塊 的邊界值,而將圖2(a)的左上、左下、右上、右下等4個 4x4區塊累加之後,即可得到8幼區塊的邊界值(如圖2(b) 所示),而將4個8x8區塊的邊界值累加後即可獲得16xl6 區塊的邊界值(如圖2(c)所示)。 圖4是依照本發明較佳實施例所繪示的計算區塊邊界 值及邊界差值之一範例。請先參照圖4(a),其中包括16個 4x4區塊,且每個區塊皆已按照其位置給予編號,而根據 此編號,可歸納其16x16區塊及8x8區塊的計算公式如下: 15
EdgeValuel6x]6 =YEdgeValueM 0 3
EdgeVcdueM((y) ^^EdgeValuew 0
EdgeValueM{\)=j^EdgeValueAx4 4
EdgeValuem(2) = f^EdgeValue^ δ
EdgeVa!ueM(T) = fEdgeV—e4x4 其中’上述公式中括弧内的編號即為8x8區塊的編號 (如圖4(b)所示)。此外,在本實施例中,亦需計算J6X8 14 wf.doc/g I31im 及8x16區塊之邊界差值(Edge Difference, ED),以及8χ4 . 及4x8區塊之邊界差值,茲列舉其計算公式如下: 16x8區塊之邊界差值: £Αβχ8 = \Edge Valuem (〇) _ Edge ValueSxS (1)| + \Edge Value,xS (2) - Edge Value^, (3)| 8x16區塊之邊界差值: ⑼ ~ £如 F—e8x8 (2)| +1 騎e J/—e8x8 (1) — £如 8x4區塊之邊界差值: £Ax4 (0) = \Edge Value4x4 (〇) _ Edge Value^ (I)| + \Edge ValueM (2) - Edge Value,^ (3)| Φ ^Ax4 (1) = \Edge Value ^ (4) _ Edge VaiueM (5)| + ]^Edge VaiUeM (6) _ Edge Value (7)| EDixi (2) = [Edge Value4x4 (8) - Edge ValueM (9)| + \Edge Value4x4 (10) - Edge ValueM (11)| EDm (3) - \Edge ValueAM (l 2) _ Edge ValueAx4 (13)| + \Edge ValueM (14) - Edge ValueM (15)| 4x8區塊之邊界差值: ED^ (°) = \Edge Value^ (〇) _ Edge Vaiue^ (2)| + ^Edge VaiUeM (j) _ Edge Value^ (3)| ED4xS (1) = \Edge Value (4) - Edge Vaiue^ (6)| + \Edge γαιη&Μ (5) _ Edge Value,x4 (7)| ^•〇4x8 (2) = \EdgeValue4x4 (8) _ Edge ValueM (1 〇)|+\Edge Value(9) - Edge Value (11)| ^4xs (3) = \Edge Value4x4 (12) _ Edge ValueAxA (14)| + \Edge ValueM (13) - Edge Value4x4 (15)| • 接著’先判斷所有16x16區塊之邊界值是否小於i6xl6 區塊臨界值(步驟S302)。若小於16x16區塊臨界值,則取用 此16x16區塊作為搜尋區塊(步驟S3〇3);若不小於16χ16區 塊臨界值,則繼續判斷是否所有8χ8區塊之邊界值皆小於大區 • 塊臨界值(步驟S304)。其中,本實施例假設16x16區塊臨界 值為30000,大區塊(即ι6χ8或8χ16區塊)的臨界值為1〇〇〇〇, 8x8區塊臨界值為15000,4x4區塊臨界值為5000。 由圖2(c)中可知,16Χ16區塊之邊界值大於16x16區塊臨 15 13113¾ twf.d〇c/g 此可接著判斷是頻有8x8區塊之邊界值皆小於大區 .1 此時’若所有8x8區塊之邊界值皆小於大區塊臨界 t吉厂計算8x16及16x8區塊之邊界差值大小,並取用邊界 4 =小之區塊作為搜尋區塊(步驟S305)。 :有個以上之8x8區塊之邊界值不小於大區塊臨界值, 判斷8x8區塊之邊界值是否小於8χ8區塊臨界值(步 6 由圖2⑼中可知,在本實施例中,有兩個8x8區塊 值大於大區塊臨界值,因此可接著逐-判斷8x8區塊之 遭界值是否小於8x8區塊臨界值。 此時’若此8x8區塊之邊界值小於8χ8區塊臨界值,則取 用HX8區塊作為搜尋區塊(步驟S3〇7);若此μ區塊之邊 界值不小於8X8轉臨界值,則繼續判斷是否所有4x4區塊之 邊界值皆小於8x8區塊臨界值(步驟S308)。 接著,便開始逐-判斷4個8χ8區塊之邊界值是否小於 8x8區塊臨界值,首先判斷第⑽8χ8區塊(即圖剛左上角》 其邊界值小於8χ8區塊臨界值,因此可判定其最佳組態為 8x8,而取用8χ8區塊作為搜尋區塊。 弟2個8x8區塊之邊界值大於8χ8區塊臨界值,因此必須 再比較其所包含之4x4區塊的邊界值。此時,若此8x8區塊中 所包括之所有4χ4區塊之邊界值皆小於切區塊臨界值,則取 用此4x4區塊作為搜尋區塊(步驟S309 );若有一個以上之4χ4 區塊之邊界值不小於㈣區塊臨界值,則接著計 區塊之邊界差值大小,並取用邊界差值最小之區塊作為搜尋區 塊(步驟S310)。 16 i3m2z twf.doc/g 然而,由於第2個8x8區塊中之4個4x4區塊的臨界值皆 小於4x4區塊臨界值,因此我們將再比較其臨界差值。由之前 所提出之臨界差值的算法可得到8x4區塊的臨界差值為474, 而4x8區塊的臨界差值為1338,因此可判定此8x8區塊的最 佳組態為8x4 ’而取用8x4區塊作為搜尋區塊。 第3個8x8區塊之邊界值小於㈣區塊臨界值,因此可判 定其最佳組態為8x8,而取用8x8區塊作為搜尋區塊。第4個 8x8區塊之邊界值大於8x8臨界值,因此必須再比較4χ4區塊 的邊界值。然而,其4個4x4區塊的臨界值並非全都小於4χ4 區塊g品界值(即此8x8區塊中右上角之4χ4區塊的邊界值6114 大於4x4區塊臨界值5000),因此可判定此區塊的最佳組態為 4x4 ’而取用4x4區塊作為搜尋區塊。 最後,則判斷是否所有8x8區塊皆判斷完畢(步驟 S311),若仍有8x8區塊未判斷,則返回步騾s3〇6,繼續 判斷下一個8x8區塊;若所有8χ8區塊皆已判斷,則可開 始對此搜尋區塊進行動態搜尋(步驟S312)。 在本實施例中,利用各種區塊的邊界值來判斷所使用 對區塊組態,並利用周圍的區域去預測六角型形狀以及物 移動的方向,因此可有效提升影像壓縮系統中,圖片與圖 ^間動態評估之搜尋速度,以下即介紹卿上述求得的搜 尋區塊,進行動態搜尋的詳細流程。 =5是依照本發明較佳實關所緣示的利於多種區 塊組恶之視訊畫面間動態搜尋的方法流程圖。本實施例係 採用連續使用兩:欠小範關型,並接著使用大範圍模型, 131 im twf.doc/g 最後轉換回使用小範圍模型的演算法,並 a 塊經比較後為最小誤差區塊時^判^若中心點的區 後區塊,並結束搜尋動作,使用、=中心點區塊為最 點的數目,進而加快搜尋的過程。々异〉可大幅減少搜尋 首先,使用小範圍模型搜尋 —,如圖賴小範心 點外,還包含此中心點上、 占除了中心 尋點。 二、右距離為1的4個搜 接著,判斷中心點是否為最小 若中心點的區塊經計算而得為最小誤差區塊: :點區塊為最後區塊(步驟 定 若中心點的區塊經計算而得並 ^動作’· 中心點移到為最小誤差區塊的搜糾,則將 然後,判斷是否第—ZL· /± m ^ I r .吏用小乾圍模型(步驟S530), 右僅使用一人小靶圍模型時,則返回舟驟$ l ; 小範圍模型搜尋最小誤差區塊,y在二人使用 的方法為:若中心點而決疋這些搜尋點位置 右點為原中心點 點上、左及右距離為!的位置射^的W點’則取中心 為原中心點之下的搜尋點,則二冒3::尋點;若中心點 “⑽輸個搜尋點;若中=中左二= 尋點,則取中心點卢、μ丁』為原中心點之左的搜 尋點;以及若中心:為原中置新增3個搜 點右、上及下距離為!的位置;點,則取中心 川立罝新增3個搜尋點。 18 131 df.d()c/g 另外,若已經使用兩次小範圍模型時,則同樣將中心 =移到為最小誤差區塊的搜尋點上,並根據移動的方向, 選擇-種大範關型。其中,A範圍模魏㈣直大範圍 ,型及水平大範圍模型,而H直大範關㈣包括7個搜 ,點,如圖6(b)的垂直大範圍模型所示,包括中心點、距 離中心點為2的上、下2個搜尋點,以及距離中心點為^ ,左上:左下、右上,及右下等4個搜尋點;水平大範圍 模i則係包括7個搜哥點,如圖6(c)的水平大範圍模型所 示,包括中心點、距離中心點為2的左、右2個搜尋點’ 以及距離中心點為7^的左上、左下、右上,及右下等4個 搜尋點。 此外,上述選擇大範圍模型的方法為:若最小誤差區 塊的中心點為原中心點之上/下的搜尋點,則判斷物件移動 的方式為上下移動,而選擇垂置大範圍模型做為大範圍模 型;以及若最小誤差區塊的中心點為原中心點之左/右的搜 哥點,則判斷物件移動的方式為左右移動,而選擇水平大 範圍模型做為大範圍模型。 再者,使用上個步驟所選出的大範圍模型用以搜尋最 小誤差區塊(步驟S540),若使用垂直大範圍模型搜尋時, 將新增3〜4個搜尋點,而決定這些搜尋點位置的方法為: 若中心點為原中心點之上的搜尋點,取中心點上距離為 2、左上及右上距離為上的位置新增3個搜尋點;若中心 點為原中心點之下的搜尋點,取中心點下距離為2、左下 及右下距離為V5的位置新增3個搜尋點;若中心點為原中 19 1311¾¾. :twf.doc/g 心點之左的搜尋點,則取中心點上及下距離為2、左上及 左下距離為的位置新增4個搜尋點;以及若中心點為原 中心點之右的搜尋點’則取中心點上及下距離為2、右上 及右下距離為力的位置新增4個搜尋點。 若使用水平大範圍模型搜尋時,也將新增3〜4個搜尋 點,而決定這些搜尋點位置的方法為:若中心點為原中心 點之左的搜尋點,取中心點左距離為2、左上及左下距離 為力的位置新增3個搜尋點;若中心點為原中心點之右的 搜尋點,取中心點右距離為2、右上及右下距離為力的位 置新增3個搜尋點;若中心點為原中心點之上的搜尋點, 則取中心點左及右距離為2、左上及右上距離為力的位置 新增4個搜尋點;以及若中心點為原中心點之下的 點,則取中心點左及右距離為2、左下及右下距 位置新增4個搜尋點。 然後,分別計算這些搜尋點的誤差值, 是否為最小誤差區塊(步驟S550),若中心戥 二點 算而得並非為最小誤差區塊日寺,則將中心 :塊的搜尋點上’並重複使用大範圍模型搜尋最 此時若是重複使㈣直大範關型時。 尋點,而決定這些搜尋點位置的方法為:若/ W個搜 心點之上的搜尋點,則取中心點上距離為2、^點為原中 距離為νϊ的位置新增3個搜尋點;若中 Α工上及右上 下的搜尋點,則取中心點下距離為2、左另二、原中心點之 工卜及右下距離為上 20 131129¾ twf.doc/g =位置新增3個搜尋點;若中心點為原令心點之左上的搜 尋點,,則取中心點上距離為2、左上及左下距離為力的位 置新增3個搜尋點;若中心點為原中心點之右上的搜尋 點,則取中心點上距離為2、右上及右下距離為力的位置 新增3個搜尋點;若中心點為原中心點之左下的搜尋點, 則取中心點下距離為2、左上及左下距離為^的位置新增 3個搜尋點;以及若巾心、點為原巾^點之右下的搜尋點, 則取中心點下距離為2、右上及右下距離為^的位置新增 3個搜尋點。 此日守若疋重複使用水平大範圍模型時,也將新增3個 搜尋點,而決定這些搜尋齡置的方法為:若巾心點為原 中〜點之左的搜尋點,則取中心點左距離為2、左上及左 下距離為^的位置新增3個搜尋點;若中心點為原中心點 之^搜尋點,則取巾㈣右距離為2、右上及右下距離 為力的位置新增3個搜尋點;若中心點為原中心點之左上
的搜尋點,則取中心點左距離為2、左上及右上距離為W =位置新增3個搜*點;若中心點為原中心、點之右上的搜 尋點,、,則取中心點右距離為2、左上及右上距離為々的位 置新牦3個搜尋點;若中心點為原中心點之左下的搜尋 點’則取中心點左距離為2、左下及右下距離為力的位置 新4 3個搜哥點’以及若中心點為原中心點之右下的搜尋 點,則取中心點右距離為2、左下及右下距離為力的位置 新增3個搜尋點。 B i mi twf.doc/g 另外,在步驟S550的判斷中, 算而得為最小誤差區塊時,則 右中心點的區塊經計 圍模型(步驟S560),並在μ 範圍杈型轉而使用小範 他It匕中心點同円 距離為1的位置新增4個揩聋 ° 下、左、右 最小之該誤差值之該搜尋算該f差值,取具有 S570),並結束搜尋。 m 4為该最後區塊(步驟 圖7是依照本發明較佳訾 大範圍模型間轉換的範例。;示,^ 型轉換為小範圍模型的範例不為小範圍模 時,經計算而得中心點711 小範圍模型 上方的搜号點712的區塊為最 =差£塊’而將中心點移往搜尋點712
乾圍模型,而新增的撞晷 安者便用J 712卜B 士士风寸點如圖所示為位於新的中心點 搜尋點。I 距離中心點712為1之位置上的3個 ⑹二ΐ!?福®模雜縣垂鼓細莫型的 上方的L : *使則、範15模型時,經計算而得中心點7 21 往:3= 722的區塊為最小誤差區塊’而將中心點移 二=點722,並接著使用小範圍模型,而新增的搜尋點 口圖所不為位於新的中心點722上、左及右方且距離中心 22為1之位置上的3個搜尋點,並經計算而得中心點 上方的搜哥點723的區塊為最小誤差區塊,而將中心 點移^搜尋點723。然後’使用垂直大範圍模型,而新增 的搜尋點如圖所示為位於新的中心點71◦上方且距離中心 22 13 c/g "、710為2、左上及右上方且距離中心點710為力之位置 上的3個搜尋點。
,7(C)所1g7F為小範圍模型轉換為垂直大範圍模型的 範例田第—次使用小範圍模型時,經計算而得中心 上方2技尋點731的區塊為最小誤差區塊,而將中心點 私往搜尋點732,並接著使則、_模型,而新增的搜尋 點如圖所示為位於新的中心、點732上、左及右方且距離中 ^’’’、占732為1之位置上的3個搜尋點,並經計算而得中心 點732右方的搜尋點733的區塊為最小誤差區塊,而將中 二點移f搜尋點733。紐’使㈣直大範隨型,而新 增的搜尋點如圖所示為位於新的中心‘點71〇上及下方且距 離中U 410為2、右上及右下方且距離中心點7川為w 之位置上的4個搜尋點。
圖7(d)所緣示為垂直大範圍模型轉 範例,當使_直大範關型時,經計算而得中心點^ =塊即為最小誤差區塊’則接著轉換為小範圍模型,並 们^點741周圍上、下、左、右距離為1的位置新增4 個搜尋點。 丘丁丨曰叶 圖1依=本發明較佳實施例所綠示的運用 塊組悲之視訊畫面間動態搜尋的方法之範例。 用小範圍模型時,在中心點81〇周圍上、下、左 為1的位置新增4個搜尋點(編缺η 、,工 、'、屏唬1),並經計算而得中 心點810右方的搜尋點820的區換 中心點移往搜尋點820。 小^區塊’而將 23 1311¾ 奴 twf.doc/g 按者’使用小範園模型, 位於新的令心點82〇 4 θ的技T點如圖所示為 m L ±, 上及下方且距離中心點屯 之位置上的3個搜尋點(編號2)。 :為 右方的搜尋點830的區塊為最小 中心點820 往搜尋點830。 、差£塊,而將中心點移 然後,使用水平大範圍模型,始 為位於新的尹心點8 由曰、技哥”、、占如圖所示 u 右方且距離中心點830為2、士 μ 及右下方且距離中心點83〇為^之位 '、、、右 (編號3)。再崚外管 的3個搜尋點 的區塊為最小「:點830右方的搜尋點840 塊’而將中心點移往搜尋點_。 者使用水平大範圍模型,新增的搏君 一 為位於新的中心點點如圖所示 芬士」 右方且距離中心點840為2、右上 及右下方且距離中心點840為心 二5上 (編號4)。最後铖舛曾A 上的3個搜哥點 * 十异而得中心點840右上方的搜尋點 勺區鬼為最小誤差區塊,而將中 ' 大範關型,而新增的搜尋點如_ 不為位於新的中心點㈣左及右方且距離中心點㈣斤 搜尋工點且距離中心點⑽為^之位置上的4個 最小誤差區塊。 于^點謂的區塊即為 最後,使用小範圍模型,並在中心點㈣周圍上 左、右距離為1的位置新增4個搜尋點。經計算而 點,的區塊即為最小誤差區塊,則判定中心u的: 塊為最後區塊,並結束搜尋動作。 、 24 rf.doc/g 表1是依照本發明較佳實施例所繪示的以各種搜尋方 法搜尋多組視訊晝面之搜尋點數量表’其中搜尋的範圍為 離中心點正負16個畫素的區域’參考的晝面為連續5張’ 而搜尋是以4x4大小的區塊實施,由表中可知,本發明之 搜尋點數均較其它的搜尋方法減少約75%〜98%。另外, 本發明與其它方法的速度比較表則繪示於表2,由表中可 知,本發明的搜尋速度較其它的搜尋方法快約70%至98 %左右。
Night (720x480) Sailormen (720x480) Crew (720x480) Harbour (720x480) Coastguard (352x288) Stefan (352x288) Silent (352x288) Weather (352x288) Tennis (176x144) Foreman (176x144) Salesman (176x144) Mobile (176x144) FS 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 241997.58 DS 4282.722 4594.312 4627.141 3945.963 3918.376 3804.037 3212.921 2895.779 3487.197 3742.133 2931.016 3432.631 HEXBS 3258.385 3745.198 3521.157 3274.705 3225.094 3136.55 2732.830 2603.785 2992.038 3113.066 2648.269 2996.991 PHS 2352.327 2796.472 2711.830 2263.762 2196.878 2167.096 1503.139 1236.635 1794.210 2148.029 1229.164 1845.757 EDPHS 120.898 152.968 63.916 287.28 237.08 404.45 61,86 185.54 374.42 623.52 139.99 746.44
表1
Night Sailormen Crew Harbour Coastguard Stefan Silent Weather Tennis Foreman Salesman Mobile EDPHS (%) 97.2 96.7 98.7 92.8 94 89.4 98.2 93.7 89.3 83.4 95,3 79 EDPHS (%) 96.4 96 98.3 91.3 92.7 87.2 97.8 92.9 87.5 80 94.8 75.2 EDPHS (°/〇) 94.9 94.6 97.7 91.3 90.3 81.4 96 85.1 80 71 88.7 60
表2 綜亡所述,在本發明之運用於多種區塊組態之視訊晝 面間動紐尋的方法’ U由邊界值來判斷職用之區塊組 態,而以周m的區域去預測六角型形狀及物件移動方向, :利:ΐίϊ:的分佈特性,進而改進六角型演算法的缺 使,、在技号時能夠擁有較低的搜尋點數,並經由實驗 25 13112默 :wf.doc/g =貝,本發明與鑽石型演算法比較大約可以減少58%的搜 哥Ά數而與六角型演算法比較可減少大約53°/。的搜尋點 數,而不會影響壓縮過後的品質,此優點將使得本發 用在實現及時影像壓縮上。 、 …雖然本發明已以較佳實施例揭露如上,然其並非用以 限=本發明,任何熟習此技藝者,在不脫離本發明之精 和範圍内’當可作些許之更動與潤飾,因此本發明謹 範圍當視後附之中請專鄕圍所界定者鱗。 …又 【圖式簡單說明】 圖1,繪示為六角型搜尋演算法的搜尋模型。 圖2是賊本發賴佳實關猶示料算視訊晝面 之邊界值之一範例。 ^ 3是依照本發賴佳實施例着示的獅於多種區 塊組態之視訊晝面_紐尋的方法流程圖。 值二是:照本Ϊ明較佳實施例所繪示的計算區塊邊界 值及邊界差值之一範例。 ,5是紐本發明較佳實施例轉賴 態搜尋的方法流程圖。 一w间動 圖6是舰本糾触實施_纟^的 垂直大範圍模型及水平大範圍模型。 固衩孓 圖7是依照本發明較佳實施 大範圍模侧轉 圖8是依照本發明較伟管^ , 態搜尋的方法之範^; ^例所♦示的視訊晝面間動 26 'twf.doc/g 【主要元件符號說明】 100、711、72卜 73 卜 741、810、820、830、840、850 : 中心點 110、120、130、140、150、160、712、722、723、732、 733 :搜尋點 S301〜S3U :本發明較佳實施例之運用於多種區塊組 態之視訊晝面間動態搜尋方法之各步驟 S510〜S580 :本發明較佳實施例之視訊晝面間動態搜 尋方法之各步驟
27

Claims (1)

13112鼢 twf.doc/g 十、申請專利範圍: •種運用於多種區塊組態之視訊 方法,包括T列步驟·· 如搜哥的 計异該視訊畫面中多個區塊之邊界值; 判斷=些區塊之邊界值是否小於-臨界值; ^有該些區塊其中之一的邊界值小於該奸界 值,則取用該區塊作為一搜尋區塊; 界
若沒有任何區塊的邊界值小於該臨界值, 該些區塊之邊界值與該臨界值的—邊界差值大小,取用= 邊界差值最小之該區塊作為該搜尋區塊;以及 依據該搜尋區塊進行一動態搜尋步驟。 、2.如申請專利範圍第丨項所述之運用於多種區塊組態 之運用於多觀塊組態之視訊晝關動態搜尋的方法,^ 中計算該視訊晝面中該些區塊之邊界值的步驟包括:^ 計异該視訊晝面中所有4x4區塊之邊界值;以及
利用該些4x4區塊之邊界值計算所有8χ8區塊及 16x16區塊之邊界值。 3.如申請專利範圍第2項所述之運用於多種區塊組態 之運用於多種區塊組態之視訊晝面間動態搜尋的方法,其 中判斷該些區塊之邊界值是否小於該臨界值的步驟包括: 判斷該16x16區塊之邊界值是否小於〗6χΐ6區塊之該 臨界值; 若小於該臨界值,則取用該16x16區塊作為該搜尋區 塊; 28 Itwf.doc/g 右不小於該臨界值,則繼續判斷是否所有8χ8區塊之 邊界值皆小於8x8區塊之該臨界值; 右皆小於該臨界值,則計算8χ16及16χ8區塊之邊 界值與δ玄g品界值之該邊界差值大小,取用該邊界差值最小 之該8x16或16x8區塊作為該搜尋區塊; 若有一個以上的該些8X8區塊之邊界值不小於該臨 界值’則逐一判斷該些8x8區塊之邊界值是否小於該8χ8 區塊之該臨界值; 若有該8x8區塊之邊界值小於該臨界值,則取用 該8x8區塊作為該搜尋區塊; 若皆不小於該臨界值,則繼續判斷是否所有4χ4 區塊之邊界值皆小於4x4區塊之該臨界值; 若所有4x4區塊之邊界值皆小於4x4區塊之該 臨界值,則取用該4x4區塊作為該搜尋區塊;以及 〜 若有4x4區塊之該臨界值不小於該臨界值,則 計算該些4x8區塊與8χ4區塊之邊界值與該臨界值之該邊 界差值大小’取用該邊界差值最小之該4χ8區塊或8χ4區 塊作為該搜尋區塊。 、4.如㈣翻制第3項所述之·於多觀塊組態 之運用於多種區塊組態之視訊畫面間動態搜尋的方法,其 中每一該些16x16區塊之邊界值為該16χ16區塊中所包^ 之16個4x4區塊之邊界值的總合。 、5.如申請專利範圍帛3項所述之運用於多種區塊組態 之運用於多種區塊組態之視訊畫面間動態搜尋的方法,其 29 f.doc/g . 中每一該些8x8區塊之邊界值為該8x8區塊中所包含之4 個4x4區塊之邊界值的總合。 6.如申請專利範圍第1項所述之運用於多種區塊組態 ' 之運用於多種區塊組態之視訊晝面間動態搜尋的方法,其 中該動態搜尋步驟包括: a. 使用一小範圍模型搜尋一最小誤差區塊,其中該小 範圍模型包括搜尋一中心點及位於該中心點周圍上、下、 左、右的4個搜尋點: • a 1.若該中心點區塊為該最小誤差區塊,則判定該 中心點區塊為一最後區塊,並結束搜尋; a2.若該中心點區塊不為該最小誤差區塊’則移動 該中心點至具有該最小誤差區塊之該搜尋點,並根據移動 的方向,選擇一大範圍模型; b. 使用該小範圍模型搜尋該最小誤差區塊,其中該小 範圍模型包括該中心點及位於該中心點周圍新增之3個該 些搜尋點: b 1.若該中心點區塊為該隶小决差區塊’則判定§亥 中心點區塊為該最後區塊,並結束搜尋; b2.若該中心點區塊不為該最小誤差區塊,則移 動該中心點至具有該最小誤差區塊之該搜尋點; c. 使用步驟a2.所選出之該大範圍模型搜尋該最小誤 差區塊: 30 131129¾ twf.doc/g cl·若該大範圍模型為一垂直大範圍模型時,且該 最小誤差區塊為上/下其中一點的區塊時,則在該中心點周 圍上/下、左、右新增3個該些搜尋點;
c2.若該大範圍模型為一垂直大範圍模型時,且該 最小誤差區塊不為上/下其中一點的區塊時,則在該中心點 周圍左上/右上、左下/右下、上、下新增4個該些搜尋點; c3.若該大範圍模型為一水平大範圍模型時,且該 最小έ吳差區塊為左/右其中一點的區塊時,則在該中心點周 圍左/右、上、下新增3個該些搜尋點; 认若該大範圍模型為一水平大範圍模型時,且該 最小誤差區塊不為左/右其中一點的區塊時 周圍左上/右上、左下/右下、左、太報I, ^ H I ^ ¥r-. 右新增4個該些搜尋點; d.右该取小#差區塊不位於該中心點 大範圍模型搜尋該最小誤差區塊;以及J垔複使用4 e_若該最小誤差區齡於該巾心點 範圍模型搜尋該最小誤差區塊,㈣ ㈣使用该小
該最後區塊,並結束搜尋。I知小縣區塊為 7. 如申請專利_第6項所述之運 之視訊晝面_態搜尋的方法,A中 =&塊組悲 包括7個該些搜尋點,包㈣中:m大^搜尋係 上、左下、右上,的左 8. 如申料纖目帛6項所述之運料 之視訊晝面間動態搜尋的方法,並中 伞區鬼、、且心 ”甲。亥水千大範圍搜尋係 13112¾ iwf.d〇c/g -3气7個搜咢點’包括該中心點、距離該中心點為2的左、 • 個該些搜軸,以及轉該巾心點為而纟左上、左 下右上,及右下等4個該些搜尋點。 、:‘如申凊專利範圍第6項所述之運用於多種區塊組態 ,視心面間動_尋的方法’其中該步驟匕之該小範圍 模型所新增的3個搜尋點包括: 、、若該k點為原該中心點之上的該搜尋點,則取該中 〜點上、左及纽料1的位置新增3健些搜尋點; • 、、,若該中心點為原該中心點之下的該搜尋點,則取該中 〜.、、占:、左及右距離為丨的位置新增3個該些搜尋點; 、、若該中心點為原該中心點之左的該搜尋點,則取該中 心點左、上及下距離為丨的位置新增3個該些搜尋點;以 及 若該中心點為原該中心點之右的該搜尋點,則取該 心點右、上及下距㈣丨的位置新增3個該純尋點二 10.如申請專利範圍第6項職之運用於多種區 • 態、之視訊晝面間動態搜尋的方法’其中該步驟c 1 ·及該牛驟 ¢2•之該垂直大範圍模型包括: 右该中心點為原該中心點之上的該搜尋點,取該中心 點上距離為2、左上及右上距離為力的位置新增3個兮此 搜尋點; 若該中心點為原該中心點之下的該搜尋點,取該中心 點下距離為2、左下及右下距離為上的位置新增3個該此 搜尋點; 32 :twf.doc/g 若該中心點為原該中心點之左的該搜尋點,則取該中 心點上及下距離為2、左上及左下距離為VI的位置新增4 個該些搜尋點;以及 若該中心點為原該中心點之右的該搜尋點,則取該中 心點上及下距離為2、右上及右下距離為力的位置新增4 個該些搜尋點。
11.如申請專利範圍第6項所述之運用於多種區塊組 態之視訊晝面間動態搜尋的方法,其中該步驟c3•及該步驟 c4.之該水平大範圍模型包括: 若該中心點為原該中心點之左的該搜尋點,取該中心 點左距離為2、左上及左下距離為力的位置新增3個該些 搜尋點; 若該中心點為原該中心點之右的該搜尋點,取該中心 點右距離為2、右上及右下轉為^的位韻增3個該些 搜尋點; 若該中心點為原該中心點之上的該搜尋點,則取該中
心點左及:距離為2、左上及右上距離為細位置新增4 個該些搜尋點;以及 若該中心點為原該中心點之下的該搜尋點,則取該中 =ίί距離為2、左下及右下距離為為位置新增4 個該些搜尋點。 曰 12.如申請專利範圍第6項所述之運用 紅ff面間動態搜尋的方法,其中該步驟d.之重i使 用該垂直大制模_新增的3個 33 fe42twf_doc/g 右該中心點為原該中心點之上的該搜尋點,則取該中 心點上距離為2、左上及右上距離為力的位置新增3個該 些搜尋點; 右該中心點為原該中心點之下的該搜尋點,則取該中 心點下距離為2、左下及右下距離為^的位置新增3個該 些搜尋點; 若該中心點為原該中心點之左上的該搜尋點,則取該 中心點上距離為2、左上及左下距離為的位置新增3個 該些搜尋點; 若该中心點為原該中心點之右上的該搜尋點,則取該 中心點上距離為2、右上及右下距離為^的位置新增3個 該些搜尋點; 右该中心點為原該中心點之左下的該搜尋點,則取該 中心點下距離為2、左上及左下輯為的位置新增3個 該些搜尋點;以及 右该中心點為原該中心點之右下的該搜尋點,則取該 中心點下距離為2、右上及右下距離為7^的位置新增3個 該些搜尋點。 13.如申請專利範圍第6項所述之運用於多種區塊組 悲之視訊4面間動態搜尋的方法,其中該步驟d•之重複使 用該^平大範圍模賴新增的3個該些搜尋點包括: 方遠中心點為原該中心點之左的該搜尋點,則取該中 心點左距離為2、左上及左下距離為上的位置新增3個該 些搜尋點; 13112驭 2twf.doc/g 若該中心點為原該中心點之右的該搜尋點,則取該申 心點右距離為2、右上及右下距離為力的位置新增3個該 些搜尋點; 若該中心點為原該中心點之左上的該搜尋點,則取該 中心點左距離為2、左上及右上距離為^的位置新增3個 該些搜尋點; 若該中心點為原該中心點之右上的該搜尋點,則取該
中心點右距離為2、左上及右上距離為^的位置新增3個 該些搜尋點; 若該中心點為原該中心點之左下的該搜尋點,則取該 中心點左距離為2、左下及右下距離為VI的位置新增3個 該些搜尋點;以及 若5亥中心點為原該中心點之右下的該搜尋點,則取該 中心點右距離為2、左下及右下距離為W的位置新增3個 該些搜尋點。
14」如申晴專利範圍第6項所述之運用於多種區塊組 L、之視旦面間動g搜尋的方法,其中該 大範圍模型的步驟包括: . 若该取小誤差區塊的該中心點為原該中心點之上/下 判斷物件移動的方式為上下移動,而選擇 a亥垂置大耗圍抵型做為該大範圍模型;以及 尋:,j:差區塊的該中心點為原該中心點之左/右 範圍Γ请物件移動的方式為左右移動,而選擇 δ亥水千大犯圍祕型做為該大範圍模型。 35 13 1 1 29^2twf.doc/g 15.如申請專利範圍第6項所述之運用於多種區塊組 態之視訊晝面間動態搜尋的方法,其中該步驟e.包括: 在該中心點周圍上、下、左、右距離為1的位置新增 4個該些搜尋點,計算該誤差值,取具有最小之該誤差值 之該搜尋點區塊做為該最後區塊,並結束搜尋。
36
TW095115548A 2006-05-02 2006-05-02 Method for motion search between video pictures with multiple blocks TWI311297B (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW095115548A TWI311297B (en) 2006-05-02 2006-05-02 Method for motion search between video pictures with multiple blocks
US11/566,241 US8090021B2 (en) 2006-05-02 2006-12-04 Method for motion search between video frames with multiple blocks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW095115548A TWI311297B (en) 2006-05-02 2006-05-02 Method for motion search between video pictures with multiple blocks

Publications (2)

Publication Number Publication Date
TW200743057A TW200743057A (en) 2007-11-16
TWI311297B true TWI311297B (en) 2009-06-21

Family

ID=38661158

Family Applications (1)

Application Number Title Priority Date Filing Date
TW095115548A TWI311297B (en) 2006-05-02 2006-05-02 Method for motion search between video pictures with multiple blocks

Country Status (2)

Country Link
US (1) US8090021B2 (zh)
TW (1) TWI311297B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498493B1 (en) 2009-06-02 2013-07-30 Imagination Technologies Limited Directional cross hair search system and method for determining a preferred motion vector
ES2362776B1 (es) 2009-11-24 2012-05-22 Telefonica,S.A. Procedimiento de comunicación de est�?mulos f�?sicos mediante dispositivos móviles.
KR102131326B1 (ko) * 2013-08-22 2020-07-07 삼성전자 주식회사 영상 프레임 움직임 추정 장치, 그것의 움직임 추정 방법
CN114727114B (zh) 2018-09-21 2024-04-09 华为技术有限公司 运动矢量的确定方法和装置
CN110944209B (zh) * 2018-09-21 2022-03-04 华为技术有限公司 运动矢量的确定方法和装置
CN110545424B (zh) * 2019-08-21 2021-05-11 浙江大华技术股份有限公司 基于mmvd模式的帧间预测方法、视频编码方法及相关装置、设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2618916B2 (ja) * 1987-09-10 1997-06-11 富士通株式会社 動き補償のブロックサイズ決定方法
US7471725B2 (en) * 2003-03-26 2008-12-30 Lsi Corporation Segmented motion estimation with no search for small block sizes

Also Published As

Publication number Publication date
US8090021B2 (en) 2012-01-03
TW200743057A (en) 2007-11-16
US20070258521A1 (en) 2007-11-08

Similar Documents

Publication Publication Date Title
TWI311297B (en) Method for motion search between video pictures with multiple blocks
JP4509104B2 (ja) 高度動画像符号化におけるイントラ予測のための高速モード決定アルゴリズム
TWI253002B (en) Video stabilization method, and computer readable medium thereof
CN110087087A (zh) Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
CN107071417B (zh) 一种用于视频编码的帧内预测方法
CN110290388A (zh) 帧内预测方法、视频编码方法、计算机设备及存储装置
CN107277509A (zh) 一种基于屏幕内容的快速帧内预测方法
EP2070333A2 (en) Geometric intra prediction
IL229715A (en) Method and device for directional enteric prediction
KR100951301B1 (ko) 비디오 부호화에서의 화면간/화면내 예측 부호화 방법
JP2007068165A (ja) 向上した動き推定方法、該方法を利用したビデオエンコーディング方法及び装置
CN106254719B (zh) 一种基于线性变换和图像插值的光场图像压缩方法
TW201919400A (zh) 用於圖像和視訊編解碼的畫面內預測融合的方法和裝置
CN112601082B (zh) 一种基于视频的快速动态点云编码方法及***
CN115118977A (zh) 针对360度视频的帧内预测编码方法、***及介质
JP3426092B2 (ja) 動画像符号化装置における動き補償フレーム間予測方法
CN102214362A (zh) 基于块的快速图像混合方法
JP4669517B2 (ja) 動き推定の実現方法
CN107786874A (zh) 双向的帧内方向性预测方法和装置
CN106162175A (zh) 帧内预测模式选择方法及装置
Zhang et al. An efficient coding algorithm for 360-degree video based on improved adaptive QP Compensation and early CU partition termination
CN103139561A (zh) 半像素与四分之一像素插值滤波器
TW201031213A (en) Low-power and high-performance video coding method for performing motion estimation
JP2006166308A (ja) 復号化装置及び復号化方法
CN107071474B (zh) 基于satd复用的hevc帧内预测方法

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees