JP6391694B2 - ビデオ符号化方法及びシステム - Google Patents

ビデオ符号化方法及びシステム Download PDF

Info

Publication number
JP6391694B2
JP6391694B2 JP2016535716A JP2016535716A JP6391694B2 JP 6391694 B2 JP6391694 B2 JP 6391694B2 JP 2016535716 A JP2016535716 A JP 2016535716A JP 2016535716 A JP2016535716 A JP 2016535716A JP 6391694 B2 JP6391694 B2 JP 6391694B2
Authority
JP
Japan
Prior art keywords
video
video frame
uav
less
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016535716A
Other languages
English (en)
Other versions
JP2017526193A (ja
Inventor
ウー,ヤンナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017526193A publication Critical patent/JP2017526193A/ja
Application granted granted Critical
Publication of JP6391694B2 publication Critical patent/JP6391694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Description

無人航空機(UAV)によって取得されるビデオ等の取得されるビデオは、様々な方法によって符号化し得る。しかし、UAVのビデオ符号化方法及びシステムは理想に満たないことがある。例えば、UAVからの取得ビデオが符号化され送信される場合、特にビデオが大量の移動を含むとき、パケット損失が生じるおそれがある。
UAV等の航空車両は、監視動作、捜索動作、及び救護動作、探索、及び他の分野を含む広範囲の用途のために開発された。そのようなUAVは多くの場合、ビデオ取得のために搭載されたカメラモジュールを担持し得る。UAVによって取得されたビデオは、大量の移動を含み得る。
一定ビットレート(CBR)の維持は、近代のビデオ符号化技術の重要な側面である。CBRは、デコーダに供給されるビット数が、経時にわたり、例えば、所定の閾値内の定数に維持される場合に維持し得る。CBRの維持は、ネットワークを介してビデオ等のデータを送信するために重要である。特に、送信データのビットレートが変動する場合、パケット損失及び/又は信号損失が生じるおそれがある。一定ビットレートの維持は、ビデオ符号化プロセスの復号化側で符号化ピクチャバッファ(CPB)を使用してビデオ等のデータを処理する場合にも重要である。特に、処理中のデータのビットレートが変動する場合、デコーダバッファはオーバーフローし得る。したがって、最初にデータを符号化する際にビットレートを制御することは、符号化プロセッサを使用する場合に重要な技である。
したがって、ビデオデータが復号化される際にCBRを維持するように、ビデオ取得デバイスから取得されたビデオを符号化する改善された方法及びシステムが必要とされる。ビデオ取得デバイスは、無人航空機(UAV)等の無人車両によって担持し得る。UAVに関連付けられたセンサからの情報を利用することにより、UAV上のビデオ取得デバイス等のビデオ取得デバイスによって取得されたビデオを符号化する方法が提供される。幾つかの実施形態では、ビデオ取得デバイスは、動きデータを含むビデオを取得し得る。さらに、UAVは、UAVに関連付けられたセンサを使用して、オプティカルフロー場の生成に使用し得る情報を取得し得る。取得ビデオが、ビデオと同様の時刻に取得されたセンサ情報に基づく対応するオプティカルフロー場と位置合わせされる場合、その結果生成される情報を使用して、ビデオデータを効率的に符号化し得る。特に、位置合わせされたビデオ及びオプティカルフロー場データを使用して、効率的に、ビデオフレーム構成要素の部分の符号化にビットを割り振り、且つ/又は量子化ステップを選び得る。特に、本明細書に記載されるシステム及び方法を使用して、高度の動きを有するビデオフレームのエリアを識別し得、高度の移動に関連付けられたビデオフレーム構成要素の部分を符号化する場合、より多数のビットを割り振り、且つ/又はより高い量子化ステップを利用し得る。例えば、より高い量子化ステップを使用して、高度の動きが関連付けられた第1のビデオフレームを符号化し得、より低い量子化ステップを使用して、高度の動きではない移動度が関連付けられた第2のビデオフレームを符号化し得る。高度の動きは、ビデオフレーム内の移動度が閾値移動度を超える場合に決定され得る。さらに、移動度は、ビデオフレーム内の移動度に基づいて査定し得る。さらに、ビデオフレーム構成要素に関連付けられた動きデータは、ビデオフレーム構成要素に関連付けられたオプティカルフロー場に基づいて特定し得る。したがって、方法は、オプティカルフロー場からの情報に基づいて、ビデオデータの符号化にビットを割り振り、且つ/又は量子化ステップを選択することに関し得る。特に、オプティカルフロー場をビデオデータと位置合わせして、ビデオ符号化プロセスの効率を改善し得る。
UAVからのセンサデータを使用して生成されるオプティカルフロー場を使用して、生成されたオプティカルフロー場と位置合わせされたビデオデータを効率的に符号化し得る。ビデオデータは、UAVにおける1つ又は複数のプロセッサ、ビデオ取得デバイス、又はUAV搭載の支持機構によって符号化し得る。ビデオデータは、UAVに通信可能に接続されるユーザ端末等のUAV外部の1つ又は複数のプロセッサによって符号化し得る。さらに、オプティカルフロー場はUAVにおいて生成し得る。代替的には、オプティカルフロー場は、UAVに通信可能に接続される外部ロケーションにおいて生成し得る。オプティカルフロー場の生成に使用されるセンサ情報は、UAVにおいて検出し得る。追加又は代替として、オプティカルフロー場の生成に使用されるセンサ情報は、UAVに通信可能に接続される外部ソースからUAVに提供し得る。したがって、ビデオ取得デバイスによって取得されるビデオデータは、UAVに関連付けられたセンサデータに基づいて生成されるオプティカルフロー場を使用して、効率的に符号化し得る。
特に、ビデオ取得デバイスによって取得されたビデオデータに対応するオプティカルフロー場を使用して、効率的にビデオデータの部分を符号化するビットを割り振り、且つ/又は量子化ステップを選択し得る。例えば、ビデオフレームを符号化する際、オプティカルフロー場データを使用して、フレーム単位で、ビデオデータの符号化に割り振るべきビット数を決定し得る。ビデオフレームに関連付けられたオプティカルフロー場によって特定されるように、取得ビデオが極わずかな移動を有する例では、符号化プロセッサは、フレーム単位で低移動ビデオデータの符号化により少数のビットを割り振ることを選び得る。さらに、ビデオフレームに関連付けられたオプティカルフロー場によって示されるように、ビデオフレームの部分が移動を殆ど有さない場合、ビデオエンコーダは、ビデオフレームのそれらの低移動部分の符号化により少数のビットを割り振ることを選び得る。
さらに、ビデオデータを符号化する際、ビデオデータをビデオフレーム構成要素に分割し、各フレームを何度も符号化するのではなく、ビデオフレーム構成要素間の認識された類似性を符号化することが有益である。この手法は、ブロック等のビデオフレーム構成要素が幾つかのフレームにわたって類似するか、又は複製である場合(例えば、遠く離れた山脈に向かって運転している場合、山脈は幾つかのビデオフレーム構成要素にわたって比較的同じに見える)に特に有益であり得る。特に、類似するか、又は複製であるブロックは、ブロック間の差又は残差に基づいて符号化し得る。この残差に必要なビット数は、同様又は複製である各ブロックを再び符号化するよりもはるかに少数であり得る。
しかし、幾つかのビデオデータは大きな移動を有し得るため、2つのビデオフレームの少なくとも幾つかのブロック間に大量の類似性がある場合であっても、ビデオフレーム間のブロックに関連付けることが難しいことがある。これは、大きな移動に伴い、ビデオフレーム内の類似要素のバイアスがビデオフレームにわたってシフトし得るためである。例えば、カメラが右にシフトすると、前はビデオフレームの右縁部にあったビデオの物体は左にシフトすることになる。しかし、ビデオデータを符号化する従来の方法は、第1のビデオフレーム上の特定のロケーションにあるブロックが、第2のビデオフレーム上の同じ特定のロケーションにあるブロックに関連するという仮定に基づく。これらの例では、オプティカルフロー場データを使用して、レート分布最適化(RDO)とバランスして使用されるアルゴリズムを再査定し得る。特に、ビデオデータに関連付けられたオプティカルフロー場データは、符号化プロセッサによって使用されて、ビデオフレーム構成要素間の係数の符号化により多数のビットを割り振ることにフォーカスし得る。代替的には、ビデオデータに関連付けられたオプティカルフロー場データは、符号化プロセッサによって使用されて、ビデオフレーム構成要素内の動きベクトルの検索により多数のビットを割り振ることにフォーカスし得る。
ビデオデータを符号化する従来の方法のこの欠点に基づいて、本発明の態様は、ビデオデータをコンテキスト化するためにオプティカルフロー場データを使用することを提供する。特に、ビデオデータと位置合わせされたオプティカルフロー場は、符号化プロセッサによって使用されて、ビデオフレーム構成要素の符号化にビットを割り振り、且つ/又は量子化ステップを選択し得る。
本発明の態様は、動きデータに基づいてビデオを符号化する量子化ステップを決定する方法を含み得る。本方法は、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオはビデオフレーム構成要素を含む、ビデオを受信するステップを含み得る。本方法は、ビデオフレーム構成要素に関連付けられた動きデータを受信するステップを含むこともできる。さらに、本方法は、動きデータに基づいて、ビデオフレーム構成要素を符号化する量子化ステップを決定するステップを含み得る。
幾つかの実施形態では、本発明の態様は、動きデータに基づいてビデオを符号化する量子化ステップを決定するプログラム命令を含む非一時的コンピュータ可読媒体を含み得る。本コンピュータ可読媒体は、画像取得デバイスによって取得されたビデオを受信するプログラム命令であって、ビデオはビデオフレーム構成要素を含む、ビデオを受信するプログラム命令を含み得る。さらに、本コンピュータ可読媒体は、ビデオフレーム構成要素に関連付けられた動きデータを受信するプログラム命令を含み得る。本コンピュータ可読媒体は、動きデータに基づいて、ビデオフレーム構成要素を符号化する量子化ステップを決定するプログラム命令を含むこともできる。
本発明の態様は、動きデータに基づいてビデオを符号化する量子化ステップを決定するシステムを更に含み得る。本システムは、ビデオを取得するように構成された画像取得デバイスを含み得る。本システムは、個々に又は集合的に、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオはビデオフレーム構成要素を含む、ビデオを受信するステップを行うように構成された1つ又は複数のプロセッサを含むこともできる。1つ又は複数のプロセッサは、ビデオフレーム構成要素に関連付けられた動きデータを受信するステップを行うようにも構成し得る。さらに、1つ又は複数のプロセッサは、動きデータに基づいて、ビデオフレーム構成要素を符号化する量子化ステップを決定するステップを行うように構成し得る。
幾つかの他の実施形態では、本発明の態様は、動きデータに基づいてビデオを符号化する量子化ステップを決定する方法を含み得る。本方法は、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオは第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、ビデオを受信するステップを含み得る。さらに、本方法は、第2のビデオフレーム構成要素に関連付けられた動きデータを受信するステップを含み得る。本方法は、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて、第1のビデオフレーム構成要素を符号化する量子化ステップを決定するステップを含むこともできる。
本発明の態様は、動きデータに基づいてビデオを符号化する量子化ステップを決定するプログラム命令を含む非一時的コンピュータ可読媒体を含むこともできる。本非一時的コンピュータ可読媒体は、画像取得デバイスによって取得されたビデオを受信するプログラム命令であって、ビデオは第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、ビデオを受信するプログラム命令を含み得る。本非一時的コンピュータ可読媒体は、第2のビデオフレーム構成要素に関連付けられた動きデータを受信するプログラム命令を含むこともできる。さらに、本非一時的コンピュータ可読媒体は、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて、第1のビデオフレーム構成要素を符号化する量子化ステップを決定するプログラム命令を含み得る。
本発明の更なる態様は、動きデータに基づいてビデオを符号化する量子化ステップを決定するシステムを含み得る。本システムは、ビデオを取得するように構成される画像取得デバイスを含み得る。本システムは、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオは第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、ビデオを受信するステップを行うように個々に又は集合的に構成された1つ又は複数のプロセッサを含むこともできる。1つ又は複数のプロセッサは、第2のビデオフレーム構成要素に関連付けられた動きデータを受信するステップを行うようにも構成し得る。さらに、1つ又は複数のプロセッサは、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて、第1のビデオフレーム構成要素を符号化する量子化ステップを決定するステップを行うように構成し得る。
本発明の別の態様は、動きデータに基づいてビデオを符号化するビットを割り振る方法を含み得る。本方法は、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオはビデオフレーム構成要素を含む、ビデオを受信するステップを含み得る。さらに、本方法は、ビデオフレーム構成要素に関連付けられた動きデータを受信するステップを含み得る。本方法は、動きデータに基づいて、ビデオフレーム構成要素の符号化に関連付けられたビットを割り振るステップを含むこともできる。
本発明の更なる態様は、動きデータに基づいてビデオを符号化するビットを割り振るプログラム命令を含む非一時的コンピュータ可読媒体を含み得る。本非一時的コンピュータ可読媒体は、画像取得デバイスによって取得されたビデオを受信するプログラム命令であって、ビデオはビデオフレーム構成要素を含む、ビデオを受信するプログラム命令を含み得る。本非一時的コンピュータ可読媒体は、ビデオフレーム構成要素に関連付けられた動きデータを受信するプログラム命令を含むこともできる。さらに、本非一時的コンピュータ可読媒体は、動きデータに基づいて、ビデオフレーム構成要素の符号化に関連付けられたビットを割り振るプログラム命令を含み得る。
本発明の態様は、動きデータに基づいてビデオを符号化するビットを割り振るシステムを含むこともできる。本システムは、ビデオを取得するように構成される画像取得デバイスを含み得る。さらに、本システムは、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオはビデオフレーム構成要素を含む、ビデオを受信するステップを行うように構成された1つ又は複数のプロセッサを含み得る。1つ又は複数のプロセッサは、ビデオフレーム構成要素に関連付けられた動きデータを受信するステップを行うようにも構成し得る。さらに、1つ又は複数のプロセッサは、動きデータに基づいて、ビデオフレーム構成要素の符号化に関連付けられたビットを割り振るステップを行うように構成し得る。
さらに、本発明の更なる態様は、動きデータに基づいてビデオを符号化するビットを割り振る方法を含み得る。本方法は、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオは第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、ビデオを受信するステップを含み得る。本方法は、第2のビデオフレーム構成要素に関連付けられた動きデータを受信するステップを含むこともできる。さらに、本方法は、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて、第1のビデオフレーム構成要素の符号化に関連付けられたビットを割り振るステップを含み得る。
本発明の態様は、動きデータに基づいてビデオを符号化するビットを割り振るプログラム命令を含む非一時的コンピュータ可読媒体を含むこともできる。本非一時的コンピュータ可読媒体は、画像取得デバイスによって取得されたビデオを受信するプログラム命令であって、ビデオは第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、ビデオを受信するプログラム命令を含み得る。さらに、本非一時的コンピュータ可読媒体は、第2のビデオフレーム構成要素に関連付けられた動きデータを受信するプログラム命令を含み得る。本非一時的コンピュータ可読媒体は、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて、第1のビデオフレーム構成要素の符号化に関連付けられたビットを割り振るプログラム命令を含むこともできる。
さらに、本発明の態様は、動きデータに基づいてビデオを符号化するビットを割り振るシステムを含み得る。本システムは、ビデオを取得するように構成された画像取得デバイスを含み得る。本システムは、画像取得デバイスによって取得されたビデオを受信するステップであって、ビデオは第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、ビデオを受信するステップを行うように構成された1つ又は複数のプロセッサを含むこともできる。さらに、1つ又は複数のプロセッサは、第2のビデオフレーム構成要素に関連付けられた動きデータを受信するステップを行うように構成し得る。1つ又は複数のプロセッサは、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて、第1のビデオフレーム構成要素の符号化に関連付けられたビットを割り振るステップを行うようにも構成し得る。
本発明の異なる態様が個々に、集合的に、又は互いに組み合わせて理解され得ることが理解されるものとする。本明細書に記載される本発明の様々な態様は、以下に記載される任意の特定の用途又は任意の他のタイプの移動可能物体に適用し得る。無人航空機等の航空車両の本明細書での任意の説明は、任意の車両等の任意の移動可能物体に適用し得、使用され得る。さらに、ビデオ取得デバイスが航空移動(例えば、飛行)のビデオデータを取得している間にビデオを符号化する文脈の中で本明細書に開示されるシステム、デバイス、及び方法は、ビデオ取得デバイスが地上又は水上、水中の移動、又は宇宙空間での移動等の他のタイプの移動のビデオ取得を取得している間にビデオを符号化する文脈でも適用し得る。
本発明の他の目的及び特徴は、本明細書、特許請求の範囲、及び添付図の検討により明白になろう。
本明細書において言及される全ての公開物、特許、及び特許出願は、まるで個々の各公開物、特許、又は特許出願が特に個々に、参照により援用されるものとして示されるかのような程度まで、参照により本明細書に援用される。
本発明の新規の特徴は、特に添付の特許請求の範囲に記載される。本発明の特徴及び利点のよりよい理解は、本発明の原理が利用される例示的な実施形態を記載する以下の詳細な説明及び添付図面を参照することによって得られよう。
本発明の実施形態による、ビデオ取得に使用されるビデオ取得デバイスを担持する無人航空機(UAV)の概略図を示す。 本発明の実施形態によるビデオ符号化の一般的なプロセスを示す。 本発明の実施形態による、ビデオ内の移動に基づいてビデオデータ圧縮を決定するプロセスを示す。 本発明の実施形態による、異なる動き成分を有するビデオフレーム間のビットレート及び量子化ステップ分布の概略を示す。 本発明の実施形態による、ビデオフレームを符号化する上からの回転図に関連付けられたオプティカルフロー場を示す。 本発明の実施形態による、ビデオフレームを符号化する異なる物体移動度を有する大域的オプティカルフロー場を示す。 本発明の実施形態による、ビデオフレームを符号化する超高速大域的カメラ移動に関連付けられたオプティカルフロー場を示す。 本発明の実施形態による、斜め大域的移動に関連付けられたオプティカルフロー場内の符号化すべき2つのビデオフレーム構成要素を示す。 本発明の実施形態による、カメラに関連付けられたズームイン特徴に関連付けられたオプティカルフロー場内の符号化すべき2つのビデオフレーム構成要素を示す。 本発明の実施形態による、上からの回転図に関連付けられたオプティカルフロー場内の符号化すべき2つのビデオフレーム構成要素を示す。 本発明の実施形態による、異なる物体移動度を有する大域的オプティカルフロー場内の符号化すべき3つのビデオフレーム構成要素を示す。 本発明の実施形態による、ビデオフレーム構成要素におけるブロック内のイントラ符号化の例を示す。 本発明の実施形態による、ビデオフレームにわたる同じロケーションにあるブロックをリンクする動きベクトルを示す。 本発明による、動きベクトルを検索するのではなくむしろ、フレーム間の係数の優先度を計算する構造を示す。 本発明の実施形態による、動きデータに基づいてビデオを符号化する量子化ステップを決定する方法を示すフローチャートである。 本発明の実施形態による、動きデータに基づいてビデオを符号化する量子化ステップを決定する別の方法を示すフローチャートである。 本発明の実施形態による、動きデータに基づいてビデオを符号化するビットを割り振る方法を示すフローチャートである。 本発明の実施形態による、動きデータに基づいてビデオを符号化するビット割り振りの別の方法を示すフローチャートである。 本発明の実施形態によるUAVの外観を示す。 本発明の実施形態による支持機構及び搭載物を含む移動可能物体を示す。 本発明の実施形態による、移動可能物体を制御するシステムのブロック図による概略図である。
本明細書に記載される方法、デバイス、及び端末は、UAV等のビデオ取得デバイスによって取得されたビデオを効率的に符号化する効率的な手法を提供する。本明細書に記載される方法、デバイス、及び端末を使用して、ビデオデータを取得し、UAVに関連付けられたセンサデータに基づいてオプティカルフロー場を生成し、生成されたオプティカルフロー場に基づいてビデオデータを符号化する量子化ステップ及び/又はビット割り振りを決定することができる。本明細書に開示される方法、デバイス、及び端末は、任意の適する移動可能物体又は静止物体に適用することができる。移動可能物体は、自己推進移動可能であり得(例えば、車両)、一方、静止物体は、自己推進移動可能でなくてよい。幾つかの実施形態では、移動可能物体は無人航空機(UAV)であり得る。
ビデオデータを効率的に符号化するために使用し得る方法を提供することに加えて、ビデオが復号化される場合に一定ビットレート(CBR)を維持するようにデータを符号化する方法が提供される。このようにして、符号化されたビデオデータは、復号化されたビデオをユーザにシームレスに提供するように送信し、処理し得る。さらに、ビデオデータがより効率的に符号化される場合、設定量の記憶空間を所与として、より大量のビデオデータを記録し得る。代替的には、容量を増大したビデオが、従来では同量の一般ビデオデータのみを記録可能であった同量の記憶空間内に記録可能である。これらの態様は、高精細ビデオの記録、高い移動度を有するビデオの記録、及びCBRを維持しながらのビデオの提供において有益である。
ビデオフレーム構成要素の符号化に向けてある量のビットを効率的に割り振ることによる、本発明の方法がビデオデータを効率的に符号化し、復号化ビデオのCBRを維持することが可能な方法。特に、高い移動度を有するビデオの部分は、移動の少ないビデオの部分よりも多くのビットを使用して符号化し得る。さらに、ビデオの部分の符号化に向けて割り振るのに十分なビットがない場合、ビデオの圧縮を変更し得る。例では、ビデオフレームの部分を符号化する場合、増大された量子化ステップが選ばれて、ビデオを圧縮し、ビデオを符号化する場合により少数のビットを使用し得る。そして、これは、一定ビットレートを維持するためにビデオの符号化に割り振られるビット量を維持するのに役立つ。特に、処理されているデータのビットレートが変動する場合、ビデオを復号化する場合、デコーダバッファがオーバーフローし得る。したがって、データを最初に符号化する場合にビットレートを制御することは、符号化プロセッサを使用する場合に重要な考慮事項である。
図1は、本発明の実施形態による、ビデオ取得に使用されるビデオ取得デバイス140を担持する無人航空機(UAV)100の概略図を示す。UAVは、UAV本体110と、UAVの移動を行い得る1つ又は複数の推進ユニット120とを有し得る。UAVは1つ又は複数のセンサを有し得る。1つ又は複数のセンサは、オプティカルフロー場を生成するためにUAVによって使用されるデータの収集に使用し得る。UAVは任意選択的に、オンボードオプティカルフロー場生成器130を有し得る。そして、UAVによって生成されるオプティカルフロー場は、UAVによって取得されるビデオの効率的な符号化に使用し得る。符号化プロセッサ150は任意選択的に、UAVによって担持され、ビデオの符号化に使用し得る。
ビデオは、ビデオ取得デバイス140を使用して取得し得る。ビデオ取得デバイスは、静止物体又はUAV等の移動可能物体上に支持し得る。UAVの本明細書での任意の説明は、ビデオ取得デバイスの任意の支持構造を含み得るUAV100の本明細書での任意の説明は、航空車両等の任意のタイプの移動可能物体に適用し得る。UAVの説明は、任意のタイプの無人移動可能物体(例えば、空中、陸上、水中、又は空間を移動し得る)に適用し得る。UAVは、リモートコントローラからのコマンドに応答可能であり得る。リモートコントローラは、UAVに接続されなくてもよく、むしろ、リモートコントローラは、遠くのUAVと無線で通信し得る。幾つかの場合、UAVは、自律的又は半自律的に動作可能であり得る。UAVは、1組の予めプログラムされた命令に従うことが可能であり得る。幾つかの場合、UAVは、リモートコントローラからの1つ又は複数のコマンドに応答し、その他の場合には自律的に動作することにより、半自律的に動作し得る。例えば、リモートコントローラからの1つ又は複数のコマンドは、1つ又は複数のパラメータに従ってUAVによる一連の自律動作又は半自律動作を開始し得る。幾つかの実施形態では、UAVの本明細書での任意の説明は、ビデオ取得デバイスの支持体(例えば、スタンド、支柱、フェンス、建物、壁、天井、屋根、床、地面、家具、照明器具、木、植物、石、又は任意の他の静止物体)等の任意の静止物体に適用し得る。
ビデオ取得デバイスは、ビデオ取得デバイスによって取得される視野(FOV)を変更可能であり得る。ビデオ取得デバイスは、並進移動(例えば、左右、前後、上下、又はそれらの任意の組合せ)を有して、ビデオ取得デバイスのFOVを変更し得る。ビデオ取得デバイスは、回転移動(例えば、ビデオ取得デバイスのヨー軸、ピッチ軸、又はロール軸回り)を有して、ビデオ取得デバイスのFOVを変更し得る。幾つかの場合、ビデオ取得デバイスは、回転移動なしで並進移動のみを有し得、並進移動なしで回転移動のみを有し得、又は並進移動及び回転移動の両方を有し得る。ビデオ取得デバイスからのビデオによって取得された移動は、ビデオ取得デバイスFOVの変更を示し得る。ビデオ符号化システム及び方法を使用して、本明細書の他の箇所に更に詳細に説明するように、ビデオ取得デバイスによって取得されたビデオを符号化し得る。
ビデオ取得デバイスは任意選択的に、UAV100又は任意の他の支持構造体によって支持し得る。UAVは本体110を有し得る。幾つかの場合、本体は、1つ又は複数の分岐部材又は「アーム」を有し得る中央体であり得る。アームは、半径方向に本体から外側に延び、本体を介して結合し得る。アームの数は、UAVの推進ユニット又はロータの数に一致し得る。本体は筐体を備え得る。筐体は、筐体内にUAVの1つ又は複数の構成要素を囲み得る。幾つかの場合、UAVの1つ又は複数の電気構成要素を筐体内に提供し得る。例えば、UAVの飛行コントローラが、筐体内に提供され得る。飛行コントローラは、UAVの1つ又は複数の推進ユニット120の動作を制御し得る。推進ユニットは各々、ロータ及び/又はモータを含み得る。さらに、1つ又は複数の推進ユニットは、UAVが空中であちこち移動できるようにし得る。1つ又は複数の推進ユニットは、UAVのアームに提供し得る。アームは、アームの基端部でUAVの本体に接続し得る。1つ又は複数の推進ユニットは、アームの先端部に接続し得る。1つ又は複数の推進ユニットは、UAVが1つ又は複数、2つ以上、3つ以上、4つ以上、5つ以上、6つ以上の自由度で動き回れるようにし得る。幾つかの場合、UAVは、1つ、2つ、3つ以上の回転軸の回りで回転可能であり得る。回転軸は、互いに直交し得る。回転軸は、UAVの飛行の過程全体を通して互いに直交した状態を保ち得る。回転軸は、ピッチ軸、ロール軸、及び/又はヨー軸を含み得る。UAVは、1つ又は複数の次元に沿って移動可能であり得る。例えば、UAVは、1つ又は複数のロータによって生成される揚力に起因して、上方に移動可能であり得る。幾つかの場合、UAVは、Z軸(UAVの向きに相対して上であり得る)、X軸、及び/又はY軸(横方向であり得る)に沿って移動可能であり得る。UAVは、互いに直交し得る1つ、2つ、又は3つの軸に沿って移動可能であり得る。
UAVはロータクラフトであり得る。幾つかの場合、UAVは、複数のロータを含み得るマルチロータクラフトであり得る。複数のロータは、回転してUAVの揚力を生成することが可能であり得る。ロータは、UAVが、空中を自在にあちこち移動できるようにし得る推進ユニットであり得る。ロータは、同じ速度で回転得、且つ/又は同量の揚力又は推進力を生成し得る。ロータは任意選択的に、可変速度で回転し得、可変速度は異なる量の揚力又は推進力を生成し、且つ/又はUAVが回転できるようにし得る。幾つかの場合、1つ、2つ、3つ、4つ、5つ、6つ、7つ、8つ、9つ、10、又は11以上のロータをUAVに提供し得る。ロータは、回転軸が互いに平行するように構成し得る。幾つかの場合、ロータは、互いに相対して任意の角度の回転軸を有し得、これはUAVの移動に影響し得る。
示されるUAVは複数のロータを有し得る。ロータはUAVの本体に接続し得、UAVの本体は、制御ユニットと、1つ又は複数のセンサと、プロセッサと、電源とを備え得る。センサは、UAV環境についての情報を収集し得る視覚センサ及び/又は他のセンサを含み得る。センサからの情報を使用して、UAVのロケーションを特定し得る。ロータは、本体の中央部から分岐し得る1つ又は複数のアーム又は延長部を介して本体に接続し得る。例えば、1つ又は複数のアームは、UAVの中央本体から半径方向に延び得、アームの端部又はその近傍にロータを有し得る。
UAVの垂直位置及び/又は速度は、UAVの1つ又は複数の推進ユニットへの出力を維持及び/又は調整することによって制御し得る。例えば、UAVの1つ又は複数のロータの回転速度の増大は、UAVに高度を増大させること、又はより高速で高度を増大させることを支援し得る。1つ又は複数のロータの回転速度の増大は、ロータの推進力を増大させ得る。UAVの1つ又は複数のロータの回転速度の低減は、UAVに高度を低減させること、又はより高速で高度を低減させることを支援し得る。1つ又は複数のロータの回転速度の低減は、1つ又は複数のロータの推進力を低減させ得る。UAVが離陸中の場合、推進ユニットに提供される出力は、前の地上状態から増大させ得る。UAVが着陸中の場合、推進ユニットに提供される出力は、前の飛行状態から低減させ得る。UAVは、略垂直に離陸及び/又は着陸するように構成し得る。
UAVの横方向位置及び/又は速度は、UAVの1つ又は複数の推進ユニットへの出力を維持及び/又は調整することによって制御し得る。UAVの高度及びUAVの1つ又は複数のロータの回転速度は、UAVの横方向移動に影響を及ぼし得る。例えば、UAVは、特定の方向に傾斜して、その方向に移動し得、UAVのロータの速度は、横方向移動の速度及び/又は移動の軌道に影響を及ぼし得る。UAVの横方向位置及び/又は速度は、UAVの1つ又は複数のロータの回転速度を変更又は維持することによって制御し得る。
UAVのアームは管又はロッドであり得る。UAVのアームは、円形断面を有し得る。UAVのアームは、正方形又は矩形断面を有し得る。UAVのアームは、楕円形断面を有し得る。UAVのアームは中空管であり得る。UAVのアームは中実管であり得る。UAVのアームは、金属、プラスチック、又は複合材料から形成し得る。UAVのアームは、軽量材料から形成し得る。UAVのアームは、炭素繊維から形成し得る。UAVのアームは、UAVの中央本体と一体形成し得る。代替的には、UAVのアームは、UAVと別個に形成されてもよく、又はUAVとは別個であってもよい。
UAVは、100cm以下の最大寸法(例えば、長さ、幅、高さ、対角線、直径)を有し得る。幾つかの場合、最大寸法は、1mm以下、5mm以下、1cm以下、3cm以下、5cm以下、10cm以下、12cm以下、15cm以下、20cm以下、25cm以下、30cm以下、35cm以下、40cm以下、45cm以下、50cm以下、55cm以下、60cm以下、65cm以下、70cm以下、75cm以下、80cm以下、85cm以下、90cm以下、95cm以下、100cm以下、110cm以下、120cm以下、130cm以下、140cm以下、150cm以下、160cm以下、170cm以下、180cm以下、190cm以下、200cm以下、220cm以下、250cm以下、又は300cm以下であり得る。任意選択的に、UAVの最大寸法は、本明細書に記載される任意の値以上であり得る。UAVは、本明細書に記載される値の任意の2つ間の範囲内の最大寸法を有し得る。UAVは軽量UAVであり得る。例えば、UAVは、1mg以下、5mg以下、10mg以下、50mg以下、100mg以下、500mg以下、1g以下、2g以下、3g以下、5g以下、7g以下、10g以下、12g以下、15g以下、20g以下、25g以下、30g以下、35g以下、40g以下、45g以下、50g以下、60g以下、70g以下、80g以下、90g以下、100g以下、120g以下、150g以下、200g以下、250g以下、300g以下、350g以下、400g以下、450g以下、500g以下、600g以下、700g以下、800g以下、900g以下、1kg以下、1.1kg以下、1.2kg以下、1.3kg以下、1.4kg以下、1.5kg以下、1.7kg以下、2kg以下、2.2kg以下、2.5kg以下、3kg以下、3.5kg以下、4kg以下、4.5kg以下、5kg以下、5.5kg以下、6kg以下、6.5kg以下、7kg以下、7.5kg以下、8kg以下、8.5kg以下、9kg以下、9.5kg以下、10kg以下、11kg以下、12kg以下、13kg以下、14kg以下、15kg以下、17kg以下、又は20kg以下の重量であり得る。UAVは、本明細書に記載される任意の値以上の重量を有し得る。UAVは、本明細書に記載される値の任意の2つ間の範囲内の重量を有し得る。
UAVは、ビデオ取得デバイス140を担持し得る。ビデオ取得デバイスは、移動する(例えば、UAV)か、又は静止した任意の支持構造体によって支持し得る。幾つかの実施形態では、ビデオ取得デバイスはカメラであり得る。本明細書でのカメラの任意の説明は、任意のタイプのビデオ取得デバイスに適用し得る。カメラは、支持構造体にしっかりと結合し得る。代替的には、カメラは、最大で自由度6まで支持構造体に相対して移動可能であり得る。カメラは、支持構造体に直接搭載されてもよく、又は支持構造体に搭載された支持機構に結合してもよい。幾つかの実施形態では、支持機構はジンバルであり得る。幾つかの実施形態では、カメラは、UAV等の支持構造体の搭載物の要素であり得る。
カメラは、UAVの環境の画像(例えば、ビデオ等の動的画像又はスナップショット等の静止画像)を取得し得る。カメラは、画像(例えば、ビデオ)を連続して取得し得る。代替的には、カメラは、指定された頻度で画像(例えば、ビデオ)を取得して、時間の経過に伴う一連の画像データ(例えば、ビデオデータ)を生成し得る。本明細書でのビデオの任意の説明は、動的画像、静止画像等、時間の経過に伴って取得される一連の画像等の任意のタイプの画像に適用し得る。画像は、ビデオレート(例えば、25Hz、50Hz、75Hz、100Hz、150Hz、200Hz、又は250Hz)で取得し得る。幾つかの実施形態では、ビデオは、環境音の録音と同時に取得し得る。
幾つかの実施形態では、取得されたビデオはUAV搭載のメモリに記憶し得る。メモリは、1つ又は複数のメモリユニット(例えば、セキュアデジタル(SD)カード等のリムーバブル媒体若しくは外部記憶装置又はランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、若しくはフラッシュメモリ)を含み得る非一時的コンピュータ可読媒体であり得る。代替的には、取得されるビデオ及び/又は画像はリモート端末に送信し得る。取得されるビデオ及び/又は画像の送信は、無線周波数(RF)リンク、WiFiリンク、ブルートゥース(登録商標)リンク、2Gリンク、3Gリンク、又はLTEリンクを含むが、これらに限定されない無線リンクを介して実施し得る。メモリは、UAVによって担持されるカメラ、UAVの支持機構、及び/又はUAVそれ自体(例えば、UAV本体内又はUAVのアーム)に存在し得る。メモリは、UAV、支持機構、又はカメラから取り外し可能又は分離可能であってもよく、又はなくてもよい。
カメラは、画像センサと、1つ又は複数のレンズとを備え得る。1つ又は複数のレンズは、画像センサに光を向けるように構成し得る。画像センサは、光学画像を電子信号に変換するデバイスである。カメラの画像センサは、電荷結合デバイス(CCD)型、相補形金属酸化物半導体(CMOS)型、N型金属酸化物半導体(NMOS)型、又は背面照明CMOS(BSI−CMOS)型であり得る。
カメラは、焦点距離又は焦点距離範囲を有し得る。光学系の焦点距離は、システムがどの程度強く光を集中又は拡散させるかの尺度であり得る。カメラに関連付けられた焦点距離は、カメラによって取得されたビデオを使用して生成される、結果として生成されるオプティカルフロー場に影響を及ぼし得る。レンズの焦点距離は、最初にコリメートされた光線が焦点に集められる距離であり得る。カメラは、固定焦点レンズ又はズームレンズ等の任意のタイプのレンズを有し得る。固定焦点レンズは固定焦点距離を有し得、焦点距離は単一の焦点距離を包み得る。ズームレンズは可変焦点距離を有し得、焦点距離は複数の焦点距離を含み得る。
ビデオ取得デバイスは、経時変化し得るFOVを有し得る。視野(FOV)は、空間中で特定の位置及び特定の向きでカメラを通して見える世界の部分であり得、写真撮影時にFOV外部の物体は、ビデオデータに記録されない。これは、ビューコーンの角度サイズ、視角として表現されることが最も多い。通常のレンズの場合、視野はFOV=2arctan(d/2f)として計算し得、式中、dは画像センササイズであり、fはレンズの焦点距離である。固定サイズを有する画像センサの場合、単焦点レンズは固定FOVを有し得、FOVは単一のFOV角度を含み得る。固定サイズを有する画像センサの場合、ズームレンズは可変FOV角度範囲を有し得、FOV角度範囲は複数のFOV角度を含み得る。FOVのサイズ及び/又はロケーションは変更し得る。ビデオ取得デバイスのFOVは、FOVのサイズを増減(例えば、ズームイン又はアウト)し、且つ/又はFOVの中心点を変更する(例えば、ビデオ取得デバイスを並進移動及び/又は回転移動させる)ように変更し得る。FOVの変更は、ビデオ内に移動を生じさせ得る。
カメラに関連付けられたセンサからのデータを使用して、カメラによって取得されるビデオデータの符号化に有用なオプティカルフロー場の生成を支援し得る。カメラに関連付けられたセンサは、カメラ、カメラの支持構造体(例えば、UAV)、及び/又は支持構造体上のカメラを支持する支持機構(例えば、ジンバル)に搭載し得る。代替的には、カメラに関連付けられたセンサは、カメラ、支持機構、及び/又はカメラの支持構造体からリモートであり得る。
例えば、カメラの支持構造体は1つ又は複数のセンサを支持し得る。例では、支持構造体はUAVであり得る。UAVのセンサの任意の説明は、カメラの任意のタイプの支持構造体に適用し得る。UAVは、画像センサ等の1つ又は複数の視角センサを備え得る。例えば、画像センサは、単眼カメラ、立体視カメラ、レーダ、ソナー、又は赤外線カメラであり得る。UAVは、全地球測位システム(GPS)センサ、慣性測定ユニット(IMU)の一部又は別個に使用し得る慣性センサ(例えば、加速度計、ジャイロスコープ、磁力計)、ライダー、超音波センサ、音響センサ、WiFiセンサ等のUAVのロケーションの特定に使用し得るか、又はオプティカルフロー場情報の生成に有用であり得る他のセンサを更に備え得る。UAVは、追加の情報又は処理のためにUAVからオフボードの追加構成要素と交信せずに、環境から直接情報を収集するUAV搭載のセンサを有し得る。例えば、環境で直接データを収集するセンサは、視覚センサ又は聴覚センサであり得る。
代替的には、UAVは、UAV搭載であるが、UAVオフボードの1つ又は複数の構成要素と交信して、環境についてのデータを収集するセンサを有し得る。例えば、UAVオフボードの構成要素と交信して、環境についてのデータを収集するセンサは、衛星、塔、ルータ、サーバ、又は他の外部デバイス等の別のデバイスへの接続に頼るGPSセンサ又は別のセンサであり得る。センサの様々な例は、ロケーションセンサ(例えば、全地球測位システム(GPS)センサ、ロケーション三角測量を可能にするモバイルデバイス送信器)、視覚センサ(例えば、カメラ等の可視光、赤外線光、又は紫外線光を検出可能な撮像デバイス)、近接又は距離センサ(例えば、超音波センサ、ライダー、飛行時間又はデプスカメラ)、慣性センサ(例えば、加速度計、ジャイロスコープ、慣性測定ユニット(IMU))、高度センサ、姿勢センサ(例えば、コンパス)、圧力センサ(例えば、気圧計)、聴覚センサ(例えば、マイクロホン)、又はフィールドセンサ(例えば、磁力計、電磁センサ)を含み得るが、これらに限定されない。1つ、2つ、3つ、4つ、5つ、又は6つ以上のセンサ等の任意の適する数及び組合せのセンサを使用し得る。任意選択的に、データは、異なるタイプ(例えば、2つ、3つ、4つ、5つ、又は6つ以上のタイプ)のセンサから受信し得る。異なるタイプのセンサは、異なるタイプの信号又は情報(例えば、位置、向き、速度、加速度、近接度、圧力等)を測定し、且つ/又は異なるタイプの測定技法を利用して、データを取得し得る。
これらの任意のセンサは、UAVからオフボードで提供することもできる。センサにはUAVを関連付け得る。例えば、センサは、UAVの位置、UAVの速度、UAVの加速度、UAVの向き、UAVによって生成されるノイズ、UAVから発せられるか、又は反射される光、UAVによって生成される熱、又はUAVの任意の他の特性等のUAVの特性を検出し得る。センサはデータを収集し得、このデータを単独又はUAV搭載のセンサからのセンサデータと組み合わせて使用して、オプティカルフロー場情報を生成し得る。
センサは、能動センサ(例えば、エネルギーを生成し、各自のエネルギー源からのエネルギーを測定するセンサ)と受動センサ(例えば、利用可能なエネルギーを検出するセンサ)との任意の適する組合せを含み得る。別の例として、幾つかのセンサは、グローバル座標システムに関して提供される絶対測定データ(例えば、GPSセンサによって提供される位置データ、コンパス又は磁力計によって提供される姿勢データ)を生成し得、一方、他のセンサは、ローカル座標系に関して提供される相対測定データ(例えば、ジャイロスコープによって提供される相対角速度、加速度計によって提供される相対並進移動加速度、視覚センサによって提供される相対姿勢情報、超音波センサ、ライダー、又は飛行時間カメラによって提供される相対距離情報)を生成し得る。UAV搭載又はUAVオフボードのセンサは、UAVのロケーション、他の物体のロケーション、UAV100の向き、又は環境情報等の情報を収集し得る。単一のセンサが、環境内の情報一式を収集することが可能であり得る、又は一群のセンサが一緒に機能して、環境内の情報一式を収集し得る。センサは、ロケーションのマッピング、ロケーション間のナビゲーション、障害物の検出、又はターゲットの検出に使用し得る。さらに、本発明によれば、センサを使用して、UAVによって取得されたビデオデータの効率的な符号化に使用されるオプティカルフロー場の生成に使用されるデータを収集し得る。
したがって、UAVはオプティカルフロー場生成器130を有することもできる。オプティカルフロー場生成器は、UAVに搭載して(例えば、UAV本体若しくはアーム、カメラ上、又は支持機構上)提供し得る。代替的には、生成されたオプティカルフロー場は、UAVにオフロードで(例えば、リモートサーバ、クラウド計算基盤、リモート端末、又は陸上局に)提供し得る。オプティカルフロー場生成器は、UAVに関連付けられたセンサデータに基づいてオプティカルフロー場を生成するように個々に又は集合的に構成される1つ又は複数のプロセッサを有し得る。オプティカルフロー場は、ビデオフレーム内で光がどのように流れるかを示す。この光の流れは、取得物体がビデオフレーム間でいかに移動しているかを示す。特に、オプティカルフロー場は、可動物体の方向及び速度を含む、ビデオ取得デバイスによって取得される物体がいかに移動しているかの特徴を記述することが可能である。例えば、ビデオ取得デバイスのFOV内で取得されたビデオは、1つ又は複数の静止物体又は可動物体を含み得る。例では、オプティカルフロー場を使用して、ビデオで移動中の物体の速度又は加速度を特定し得る。オプティカルフロー場を使用して、ビデオ内にある物体の移動方向を示すこともできる。ビデオ内で移動中の物体を記述するオプティカルフロー場の例については、図5〜図11に関して以下に説明する。
オプティカルフロー場の生成に使用されるセンサデータは、UAVに関連付けられた1つ又は複数のセンサによって取得し得る。追加又は代替として、センサデータは、外部モニタシステム等の外部ソースによって取得し得る。外部センサデータは、通信チャネルを使用してUAVに提供し得る。したがって、オプティカルフロー場はUAVにおいて生成し得る。代替的には、オプティカルフロー場は、UAV外部で生成し得る。特に、UAVは、UAVに関連付けられたセンサ情報を1つ又は複数の外部プロセッサに提供し得る。次に、1つ又は複数の外部プロセッサは、UAVに関連付けられたセンサデータを使用して、オプティカルフロー場を生成し得る。さらに、1つ又は複数の外部プロセッサは、生成されたオプティカルフロー場をUAVに提供し得る。オプティカルフロー場生成器は、UAV搭載であるか、それともオフボードであるかに関係なく、UAVに関連付けられたセンサからデータを受信し得(センサが搭載されるか、オフボードであるか、それともそれらの任意の組合せであるかに関係なく)、そのデータを使用してオプティカルフロー場を生成し得る。
センサデータは任意選択的に、カメラの空間配置(例えば、座標、並進移動位置、高さ、向き)又はカメラの移動(例えば、線形速度、角速度、線形加速度、角加速度)についての情報を含み得る。センサデータは、カメラのズーム状態(例えば、焦点距離、どのくらいズームイン又はアウトするか)を検出可能であり得る。センサデータは、カメラのFOVをいかに変更し得るかの計算に有用であり得る。
本発明の実施形態により、符号化プロセッサ150を提供し得る。符号化プロセッサを使用して、ビデオ取得デバイスによって取得されたビデオの符号化し得る。エントロピー符号化ツールの例としては、ハフマン符号化、ランレベル符号化、及び算術符号化が挙げられる。本明細書で考察される例では、CAVLC及びCABACをH264において使用し得る。
さらに、符号化プロセッサは、ビデオに関連付けられたオプティカルフロー場を使用し得る。オプティカルフロー場を使用して、ビデオを効率的に符号化し得る。ビデオはビデオフレーム構成要素を含み得る。ビデオフレーム構成要素はビデオフレームを含み得る。代替的には、ビデオフレーム構成要素は、ブロック等のビデオフレームの部分を含み得る。ブロックは、円形、正方形、八角形、三角形、又は他の形状等の形状を有し得る。さらに、ビデオフレーム内のブロックは2つ以上の形状を含み得る。
符号化プロセッサは、オプティカルフロー場情報を受信し、オプティカルフロー場情報を使用して、ビデオを符号化し得る。例では、符号化プロセッサは、オプティカルフロー場情報を使用して、ビデオフレーム構成要素の符号化をビットを割り振り得る。特に、符号化プロセッサは、より多くの移動を有するエリアにより多数のビットを割り振り、符号化プロセスにおいてビデオフレーム間の分布を取得し得る。さらに、符号化プロセッサは、オプティカルフロー場情報を使用して、ビデオフレーム構成要素の符号化の量子化ステップを選択し得る。特に、符号化プロセッサは、高い移動度を有するビデオフレーム構成要素の符号化により高い量子化ステップを選択し得る。代替的には、符号化プロセッサは、略同様のビデオフレーム構成要素の符号化により低い量子化ステップを選択し得る。例では、符号化プロセッサは、本質的に同一のビデオフレーム構成要素の符号化に低い量子化ステップを選択し得る。
符号化プロセッサは、ビデオを符号化し得る1つ又は複数のプロセッサを含み得る。符号化プロセッサは、オプティカルフロー場生成器とは別個であってもよく、又はオプティカルフロー場生成器と同じ構成要素内にあってもよい。符号化プロセッサは、オプティカルフロー場生成器の1つ又は複数のプロセッサに重複しない1つ又は複数のプロセッサを含み得る。代替的には、符号化プロセッサの1つ又は複数のプロセッサは、オプティカルフロー場生成器の1つ又は複数のプロセッサと同じであり得る。幾つかの場合、符号化プロセッサの全てのプロセッサは、オプティカルフロー場生成器のプロセッサと同じであり得る。
符号化プロセッサは任意選択的に、UAVに搭載して提供し得る。例えば、符号化プロセッサは、UAV本体若しくはアーム内にあってもよく、カメラ搭載であってもよく、又はカメラを支持する支持機構搭載であってもよい。代替的には、符号化プロセッサは、UAVオフボードで提供し得る。例えば、符号化プロセッサは、リモートサーバ、クラウド計算基盤、リモート端末、又は陸上局に提供し得る。符号化プロセッサは、オプティカルフロー場生成器と同じ又は異なるロケーションに提供し得る。
図2は、本発明の実施形態によるビデオ符号化の一般的なプロセス200を示す。ビデオデータを符号化する場合、ビデオデータのビデオフレームはまず、ブロックに分割し得る(202)。次に、これらのブロックは、イントラフレームデータ及び/又はインターフレームデータに基づいて圧縮し得る。イントラフレームデータは、フレーム内のブロック間の空間関係に向けられる。逆に、インターフレームデータは、ビデオフレームにわたるブロック間の時間関係に向けられる。さらに、イントラ符号化フレームのビット消費は、再構築ピクチャが同じ品質のものである場合、時間的に関連するフレームにわたるインター符号化フレームによるビットコストの5倍を超える。さらに、一連のビデオフレームにわたって高速で移動している幾つかの物体と、ビデオフレーム内外に移動している他の物体とを有するビデオフレーム等のビデオフレーム内に高度の移動がある場合、時間的に関連するフレームのインター符号化のビットコストは大きく増大し得る。
図2に示されるように、入力ビデオ信号が受信される。入力ビデオ信号は、ビデオ取得デバイスから受信し得る。ビデオ取得デバイスは、UAV等の支持構造体によって支持し得る。追加又は代替として、入力ビデオ信号は、UAVオフボードの外部デバイスから受信し得る。受信したビデオはマクロブロック202に分割し得る。マクロブロックは、任意の重複部分を有してもよく、又は有さなくてもよい。ビデオは、任意の数のマクロブロックに分割し得る。例えば、ビデオは、m×nマクロブロックアレイに分割し得、ここで、mは、1以上、2以上、3以上、4以上、5以上、6以上、7以上、8以上、9以上、10以上、12以上、15以上、16以上、18以上、20以上、25以上、30以上、40以上、50以上、60以上、70以上、80以上、90以上、100以上、120以上、150以上、200以上、250以上、又は300以上の値を有し、nは、1以上、2以上、3以上、4以上、5以上、6以上、7以上、8以上、9以上、10以上、12以上、15以上、16以上、18以上、20以上、25以上、30以上、40以上、50以上、60以上、70以上、80以上、90以上、100以上、120以上、150以上、200以上、250以上、又は300以上の値を有する。マイクロブロックは、矩形、正方形、円形、又は任意の他の形状を有し得る。一実施形態では、マクロブロックは16×16ピクセルの寸法を有し得る。マクロブロックは、p×qピクセル等の任意の寸法を有し得、ここで、pは、1以上、2以上、3以上、4以上、5以上、6以上、7以上、8以上、9以上、10以上、12以上、15以上、16以上、18以上、20以上、25以上、30以上、32以上、40以上、50以上、60以上、64以上、70以上、80以上、90以上、100以上、120以上、128以上、150以上、200以上、250以上、256以上、又は300以上の値を有し、qは、1以上、2以上、3以上、4以上、5以上、6以上、7以上、8以上、9以上、10以上、12以上、15以上、16以上、18以上、20以上、25以上、30以上、32以上、40以上、50以上、60以上、64以上、70以上、80以上、90以上、100以上、120以上、128以上、150以上、200以上、250以上、256以上、又は300以上の値を有する。近代のビデオ符号化規格では、720P又は1080Pの解像度を有するビデオフレームは、まず、ビデオフレームを小さなブロックに分割することによって符号化し得る。H264の場合、ブロックサイズは16×16ピクセルであり得、HEVCの場合、ブロックサイズは64×64であり得る。各マクロブロックは、同じ寸法及び/又は形状を有し得る。例では、マクロブロックは、正方形、矩形、円形、三角形、台形、菱形、楕円形、又は他の形状であり得る。代替的には、2つ以上のマクロブロックは異なる寸法及び/又は形状を有し得る。マクロブロックは「ブロック」と呼ばれることもある。
符号化プロセッサを使用して、空間的及び/又は時間的なブロックの相関を除去し得る。したがって、ビデオフレームが小さなブロックに分割された後、ビデオデータのブロックは、図2に提供されるようなビデオ符号化アーキテクチャを通過し得る。
特に、ビデオデータは符号化制御装置204に進み得る。符号化制御装置を使用して、ビデオデータを直接、例えば、いかなる追加の変換ステップもなく変換するか、それともデータを変換/スケーリング/量子化(TSQ)構成要素に送信するかを判断し得る。例では、符号化制御装置は、ビデオデータをエントロピー符号化構成要素206に直接渡し得る。他の例では、符号化制御装置は、変換データをエントロピー符号化構成要素に提供する前に、ビデオデータをTSQ構成要素208に渡し得る。TSQ構成要素において、ビデオデータは、ブロック等の空間及び時間的に関連するビデオフレーム構成要素間での類似性を圧縮するように変換し得る。このプロセスは、元々の入力ビデオ信号からのビデオを使用し得る。さらに、このプロセスは、前に符号化されたビデオデータを利用して、変換プロセスをより効率的にし得る。さらに、この圧縮プロセスは量子化及び変換係数210を生成し得、この係数は次に、エントロピー符号化構成要素に提供し得る。係数は、離散コサイン変換(DCT)に基づいて計算し得、ビデオフレーム又はビデオフレーム内のブロック等のビデオフレーム構成要素間の差を表すために使用し得る。
ビデオデータを変換する場合、ビデオデータは、デコーダ212において再評価され、フィードバックとしてTSQ構成要素に提供される前に変換されたビデオデータに鑑みて処理し得る。特に、変換されたビデオデータをTSQ構成要素からスケーリング及び反転変換(SIT)構成要素214に提供することにより、ビデオ圧縮フィードバックを生成し得る。SIT構成要素において、ビデオデータの変換プロセスを逆にし得る。次に、このビデオデータは非ブロック化フィルタ216に提供し得、このフィルタ216を使用して、出力ビデオ信号218を生成し得る。次に、出力ビデオ信号は、動き補償構成要素220において動き補償係数を生成するための構成要素として使用し得る。
例では、動き補償構成要素は、出力ビデオ信号からの動きデータ及び動き推定構成要素222から生成される動きデータを使用し得る。特に、動き推定構成要素は、初期入力ビデオ信号から入力ビデオデータを受信し得る。次に、動き推定構成要素は、ビデオデータに基づいて動きデータを生成し得る。次に、この動きデータは、動き補償構成要素及びエントロピー符号化構成要素に提供し得る。
復号化ビデオデータが提供され、動き補償構成要素からの動きデータに基づいてコンテキスト化されると、ビデオデータは、イントラフレーム予測構成要素224を使用してイントラフレーム予測について評価され得る。インターフレーム予測について、追加の予測を生成することもできる。これらの予測は、フィードバックとしてTSQ構成要素及び非ブロック化フィルタに提供し得る。したがって、TSQ構成要素から生成される量子化係数及び変換係数並びに非ブロック化フィルタによって生成される出力信号は、処理されたビデオデータからのフィードバックに基づいて改善し得る。
したがって、ビデオエンコーダを使用して、異なるビデオフレームのブロック間(時間的圧縮)及び同じビデオフレーム内のブロック間(空間的圧縮)の両方で重複する情報を簡略化して、情報を凝縮し得る。ビデオデータが凝縮されると、図2のアーキテクチャを利用して符号化されたビデオフレームは、1Dビットストリームに形成され得る。
図3は、本発明の実施形態による、ビデオ内の移動に基づいてビデオフレーム構成要素のビデオデータ圧縮を決定するプロセス300を示す。ステップ310において、ビデオフレーム構成要素を符号化する符号化コストが、レート歪み最適化のアルゴリズムに基づいて特定される。レート歪み最適化は、再構成ビデオフレームの特定のビットレート及び歪みを提供するように変更されるパラメータの最適化である。レート歪み最適化は、動き情報、ブロックサイズ情報、及びブロック係数情報を使用して特定することができる。符号化コストは、特定のビデオフレーム構成要素の符号化に割り振り得るビットの範囲であり得る。特に、符号化コストは、レート歪み最適化のパラメータを査定し、再構築フレームのビットレートがCBR内にあることを保証するように、符号化に使用し得るビットを決定することによって特定される。本明細書で考察される実施形態では、符号化コストは提供され得、本明細書において提供される方法を使用して、提供された符号化コストのパラメータ内でビデオデータを効率的に符号化するように、ビットを割り振り、且つ/又は量子化ステップを選択し得る。
ステップ320において、ビデオフレーム構成要素に関連付けられた動き情報が受信される。例では、動き情報は、ビデオフレーム構成要素に関連付けられたオプティカルフロー場に基づき得る。動き情報は、ビデオフレーム構成要素に関連付けられた動きデータを含み得る。さらに、動き情報は、ビデオフレーム構成要素に隣接するビデオフレーム構成要素に関連付けられた動きデータを含み得る。さらに、オプティカルフロー場は、ビデオ取得デバイスの移動及び/又はUAVの移動によって生成される動きデータを含み得る。動きデータは、並進移動及び/又は回転移動を含み得る。例では、動きデータは、ロール軸の回りでビデオ取得デバイスを回転させることによって生成し得る。動きデータは、カメラロールに自句の回りでUAVを回転させることによって生成することもできる。例では、動きデータは、ピッチ及びヨー等の他の軸の回りでビデオ取得デバイス及び/又はUAVを移動させることによって生成し得る。さらに、動きデータは、ビデオ取得デバイス及び/又はUAVを横、上、下、ズームイン、ズームアウト、斜め移動、又はそれらの組合せで移動させることによって生成し得る。追加の例では、生成されたオプティカルフロー場は、移動物体の速度、ビデオ取得デバイスからの移動物体の距離、移動物体の湾曲移動、移動物体の方向性、及びオプティカルフロー場内の物体移動の他の特徴に関連する動きアスペクトを含み得る。
ステップ330において、ビデオフレーム構成要素の少なくとも一部分は、閾値移動量と突き合わせて査定される。例では、閾値移動量を超えると判断されたビデオフレーム構成要素の部分は、高度の移動を有するものとして査定し得る。さらに、閾値移動量未満であると判断されたビデオフレーム構成要素の部分は、低度の移動を有するものとして査定し得る。さらに、高度又は低度の移動を有さないビデオフレーム構成要素の部分は、標準度の移動を有すると判断し得る。
ステップ340において、ビットは、動きデータに基づいて、ビデオフレーム構成要素の少なくとも一部分に割り振られる。幾つかの場合、これは、閾値移動査定に基づいてビットを割り振ることを含み得る。特に、標準ビット量が、標準度の移動を有すると判断されたビデオフレーム構成要素の少なくとも一部分に割り振られ得る。さらに、より多量のビット量が、高度の移動を有すると判断されたビデオフレーム構成要素の少なくとも一部分に割り振られ得る。さらに、より小量のビット量が、低度の移動を有すると判断されたビデオフレーム構成要素の少なくとも一部分に割り振られ得る。例えば、より高度の移動を有するビデオフレーム構成要素の部分は、より低度の移動を有するビデオフレーム構成要素の部分よりも高いビット割り振りを受け取り得る。より高度の移動を有するビデオフレーム構成要素の部分の符号化により高いビット割り振りを割り振ることにより、ビデオフレーム間の差をより正確に反映し得る。特に、高度の移動を有するビデオは、より低度の移動を有するビデオよりも、ビデオフレーム内外に移動する多数の物体を有し得る。したがって、より多数のビットをこれらの差の符号化に割り振り得る。
利用可能な場合、高い移動度を有すると判断されたビデオフレーム構成要素の少なくとも一部分に増大したビット量を割り振り得るが、ビット量が制限され得る例がある。これらの例では、符号化プロセッサは、量子化ステップを使用して、ビデオデータを圧縮することを選び得る。量子化は、2つ以上の値を単一の量子値に圧縮することによって達成される不可逆的圧縮技法である。画像処理では、量子化は特に、輝度変動の周波数間の差であるが、人間の目では容易に区別できない差を圧縮することにおいて有用であり得る。例えば、人間の目は、大きな周波数にわたる輝度の差を知覚することに長け得るが、知覚可能な差の閾値よりも累積的に小さい変動周波数を区別することができないことがある。したがって、ビデオデータは、輝度に関連付けられたビデオデータ内の周波数をとり、標準値によって周波数を分割し、次に、結果として生成された周波数の計算を最も近い整数に切り上げる(又は下げる)ことによって圧縮し得る。周波数の変動がなお、周波数間の差の人間知覚閾値未満である限り、再構築されたビデオを見ているユーザは、元のビデオデータと変更されたビデオデータとの差異に気付かない。しかし、元々取得された範囲よりも小さな範囲の周波数を参照する能力により、再構築ビデオを提供するCBRに関連付けられた符号化コストに一致したビット量にビデオデータを圧縮することが可能であり得る。
ビデオフレーム構成要素内のデータに対して量子化ステップを実行することを選ぶことに加えて、符号化プロセッサは、使用される量子化の程度を選ぶこともできる。特に、量子化の程度は、上述した輝度周波数等のデータセットの分割に使用される標準値の大きさを指す。データの分割に使用される標準値が増大するにつれて、圧縮量も増大し得る。したがって、標準値及び圧縮の程度は正比例し得る。例では、標準値及び圧縮の程度は線形正比例し得る。
ステップ350において、量子化ステップをビデオフレーム構成要素を圧縮するために必要であるか否かが判断される。この判断は、提供される符号化コスト及びビデオフレーム構成要素内の移動度に基づいて行い得る。特に、ビデオフレーム構成要素の少なくとも一部分に関連付けられた高度の移動があるが、高度の移動を有するビデオフレーム構成要素の少なくとも一部分に割り振るために利用可能なビットがない場合、ビデオフレーム構成要素のその少なくともオン部分に量子化ステップを選択すると判断し得る。さらに、使用し得る量子化の程度は、判断ステップ350中に計算し得る。特に、量子化の程度はやはり、ビデオフレーム構成要素の符号化コストと、再構成されたフレームがCBR内にあることを保証するために低減する必要があるデータ量とに基づいて計算し得る。
さらに、ステップ360において、ビデオフレーム構成要素の少なくとも一部分の量子化ステップが決定される。特に、選択された量子化ステップは、ビデオフレーム構成要素の少なくとも一部分のサイズに基づき得る。選択される量子化ステップは、ビデオフレーム構成要素の少なくとも一部分内の動き情報に基づくこともできる。さらに、選択される量子化ステップは、ビデオフレーム構成要素の少なくとも一部分に関連付けられたブロック係数情報に基づき得る。
したがって、ビデオフレーム構成要素を符号化して、再構築ビデオのCBRに関連付けられた符号化コストの閾値内に留まり得る。特に、ビデオフレーム構成要素は、ビット割り振り及び/又は量子化ステップ選択を使用することにより、符号化プロセッサによって符号化して、符号化コスト内に留まり得る。しかし、ビデオフレーム構成要素は、様々な移動度を有し得るため、符号化プロセッサがビット割り振り対量子化ステップ選択を使用する程度も、ビデオフレーム構成要素内の移動に基づいて変化し得る。特に、ビデオフレーム構成要素を符号化する場合、ビデオフレーム構成要素内の移動に基づいて、特定のビット割り振り及び/又は量子化ステップを選択して、ビデオフレーム構成要素を符号化し得る。例では、選択される特定のビット割り振り及び/又は量子化ステップは、ビデオフレーム構成要素の符号化に関連付けられた符号化コストの閾値に基づき、それにより、符号化されたビデオが復号化される歳にCBRを維持し得る。
ビデオフレーム構成要素にわたるこの不一致を示すために、図4は、本発明の実施形態による、異なる動き成分を有するビデオフレーム構成要素間のビットレート及び量子化ステップ分布の概略400を示す。特に、分布410〜430は、フレーム単位でのビット割り振り及び/又は量子化ステップ選択を示し、分布440〜470は、ブロック単位でのビット割り振り及び/又は量子化ステップ選択を示す。
図4に見られるように、分布410は、ビット割り振りでの増大を示す。ビット割り振りを増大させて、ビデオフレーム構成要素の部分の符号化に割り振られるビット量を増大し得る。ビットは、ビデオフレーム構成要素内の移動量に基づいて、スライド制で増大し得る。ビットは、符号化するビデオフレーム構成要素に割り振られたビット量に関連付けられたカテゴリに基づいて増大し得る。特に、分布410は、ビデオフレームにわたるビット割り振りの増大を示す。ビット割り振りは、ビデオフレームが閾値移動量を超える移動量を含む場合、増大し得る。閾値移動量を超える移動量が存在する場合、より多量の移動を有するエリアの符号化により多数のビットを割り振り得、それにより、移動を正確に符号化し得る。特に、符号化プロセッサは、ビデオフレームが閾値移動量を超える移動量を有する部分を含む場合、ビット割り振りを増大し得る。分布410と同様の分布に関連付けられ得るオプティカルフロー場の例は、図5に提供される。
さらに、分布420は、ビット割り振りの低減を示す。ビット割り振りを低減して、ビデオフレーム構成要素の部分を符号化するために割り振られるビット量を低減し得る。ビットは、ビデオフレーム構成要素内の移動量に基づいて、スライド制で低減し得る。ビットは、符号化するビデオフレーム構成要素に割り振られたビット量に関連付けられたカテゴリに基づいて低減し得る。特に、分布420は、ビデオフレームにわたるビット割り振りの低減を示す。ビット割り振りは、ビデオフレームが閾値移動量未満の移動量を含む場合、低減し得る。特に、ビデオフレームが略同様である例では、同様のフレーム間の差を正確に表すために必要なビットはより少数のビットでよい。分布420と同様の分布に関連付けられ得るオプティカルフロー場の例は、図6に提供される。さらに、分布430は量子化ステップの増大を示す。特に、量子化ステップは、例えば、低量子化、中量子化、又は高量子化という異なるカテゴリを有し得る。量子化の程度は、異なる量子化カテゴリに鑑みて客観的又は相対的に査定され得る。量子化ステップは、ビデオフレーム内に閾値を超える移動量があり、且つビデオフレーム内の移動を符号化するために割り振られる十分なビットがない場合、増大され得る。したがって、符号化プロセッサは、閾値移動量を超える移動量を有するビデオフレームのエリアを特定し得、これらのエリアに割り振る十分なビットがあるか否かを査定し得る。
十分なビットがない場合、符号化プロセッサは、量子化ステップを増大させて、ビデオデータが復号化される際にCBRを維持しながら、ビデオを符号化し得る。特に、分布430は、ビデオフレームにわたる量子化ステップの増大を示す。量子化ステップを増大させて、ビデオフレーム構成要素の圧縮の程度を増大させ、それにより、符号化するビデオフレーム構成要素に使用されるビット量を低減し得る。量子化ステップは、ビデオフレーム構成要素内の移動量に基づいてスライド制で増大し得る。量子化ステップは、符号化するビデオフレーム構成要素内の移動量に関連付けられたカテゴリに基づいて増大し得る。分布430と同様の分布に関連付けられ得るオプティカルフロー場の例は、図7に提供される。
量子化ステップは、分布430において示されるように増大し得るが、量子化ステップは低減することもできる。量子化ステップを低減して、ビデオフレーム構成要素の圧縮の程度を低減し得る。ビデオフレーム構成要素の符号化に向けて割り振るために十分なビットがある場合、量子化ステップを低減することが有益であり得る。特に、量子化ステップは不可逆的であり得、それにより、ビデオフレーム構成要素を符号化する際に潜在的に誤差を生じさせる。量子化ステップは、ビデオフレーム構成要素内の移動量に基づいて、スライド制で低減し得る。量子化ステップは、符号化するビデオフレーム構成要素内の移動量に関連付けられたカテゴリに基づいて低減し得る。さらに、量子化ステップは、ビデオフレーム内の動きが特定の量子化ステップに関連付けられた閾値未満であり、且つビデオフレーム内のビデオフレーム構成要素の符号化に割り振られる十分なビットがある場合、低減し得る。
さらに、図4に見られるように、分布440は標準ビット割り振りを示す。特に、分布440は、ビデオフレーム内のブロックにわたる標準ビット割り振りを示す。これは、同じサイズであり、同量のビットが割り振られることを示すブロック1及びブロック2として、分布440に示される。分布440と同様の分布に関連付けられ得るオプティカルフロー場の例は、図8に提供される。さらに、分布450は、不均等なビット割り振りを示す。特に、分布450は、ビデオフレーム内のブロックにわたる不均等ビット割り振りを示す。これは、ブロック1がブロック2よりも大きく、ブロック2よりもブロック1に多数のビットが割り振られることを示すように、分布450に示される。分布450と同様の分布に関連付けられ得るオプティカルフロー場の例は、図9に提供される。
これも図4に見られるように、分布460は、不均等相互増大ビット割り振りを示す。特に、分布460は、ビデオフレーム内のブロックにわたる不均等相互増大ビット割り振りを示す。これは、ブロック1及びブロック2の両方に、分布440のブロック1及び2に提供される標準割り振りよりも多数のビットが割り振られるように、分布460に示される。ビットの標準割り振りとは対照的に、分布460は、ブロック2に増大した量のビットが割り振られ、ブロック1にブロック2よりも多数のビットが割り振られることを提供する。分布460と同様の分布に関連付けられ得るオプティカルフロー場の例が、図10に提供される。さらに、分布470は複数カテゴリビット割り振りを示す。特に、分布470は、ビデオフレーム内のブロックにわたる複数カテゴリビット割り振りを示す。これは、ブロック1に増大された量のビットが割り振られ、ブロック2に標準量のビットが割り振られ、ブロック3に低減された量のビットが割り振られるように、分布470に示される。分布470と同様の分布に関連付けられ得るオプティカルフロー場の例は、図11に提供される。
ビデオフレーム当たりの一定符号化レートを所与として、異なるビット割り振りの程度対量子化ステップ選択を有し得るビデオフレームの例が、図5〜図7に提供される。例では、オプティカルフロー場を提供して、符号化プロセッサによって符号化されているビデオデータをコンテキスト化し得る。オプティカルフロー場は画像データに基づいて生成し得る。追加又は代替として、オプティカルフロー場はセンサデータに基づいて生成し得る。例では、オプティカルフロー場は、図1で考察されたように生成されるオプティカルフロー場を使用して生成し得る。幾つかの例では、オプティカルフロー場は、ビデオデータのコンテキスト化に役立つことができ、それにより、フレーム単位での符号かプロセッサによるビデオデータ符号化に役立つ。特に、フレーム単位で、符号化プロセッサは、ビデオフレーム上の物体が非常に高速で移動していることをそのフレームに関連付けられたオプティカルフロー場が示す場合、より多数のビットをフレームに割り振り得る。多量の移動を有するビデオフレームに割り振るために利用可能なビットがない例では、符号化プロセッサは代わりに、量子化ステップ(又はより高い量子化ステップ)を選び、何もしなければ生じるビデオフレーム内の高い移動度に起因するビットレートの増大を相殺し得る。さらに、符号化プロセッサは、ビデオフレームの大部分が比較的静止している場合、ビデオフレームに割り振られるビット数を低減し得る。代わりに、符号化プロセッサは、高い移動度を有し得る別のビデオフレームにビット割り振りを提供し得る。
図5は、本発明の実施形態による、ビデオフレームを符号化する上からの回転図に関連付けられたオプティカルフロー場500を示す。オプティカルフロー場500は上からであるが、カメラの光軸の回りを回転させるために使用される他の方法を使用して、回転図を生成することもできる。オプティカルフロー場内の動きは矢印を使用して示される。矢印の長さは、オプティカルフロー場にわたって生じている動きの量を示し、矢印の湾曲は、オプティカルフロー場にわたって生じている動きの方向を示す。例では、図5のビデオフレームは、ビデオフレーム全体を通して比較的通常量の動きを有し得る。図5のビデオフレームの中央部分には、そのエリアでの動きが密であるため、わずかに増大されたビット割り振りを割り振り得るが、図5に示されるビデオフレームの周縁部分の各々には、周縁部分での動きが中央領域よりも密ではないため、標準ビット量が割り振られ得る。したがって、図5は、図4の調整410と同様に、単に増大されたビット割り振りを有し得る。さらに、上述したように、図5に提供されるような増大されたビットの割り振りは、再構築ビデオのCBRに関連付けられた符号化コストの閾値内にあり得る。
さらに、図6は、本発明の実施形態による、ビデオフレームを符号化するために異なる程度の物体移動を有する大域的オプティカルフロー場600を示す。図6に見られるように、オプティカルフロー場の上部に近い幾つかの物体は比較的静止している。特に、同じ速度で移動している物体は、ビデオ取得デバイスからの物体の距離に基づいて異なる知覚速度を有するため、比較的静止して見える物体は画像取得デバイスから遠くにあり得る。代替的には、一定速度で移動している物体は、ビデオ取得デバイスが物体と同じ速度で同じ方向に移動している場合、比較的静止して見え得る。例では、ビデオ取得デバイスは、ビデオ取得デバイスに取り付けられるUAVの移動に基づいて特定の速度で移動中であり得る。代替的には、ビデオ取得デバイスは、取り付けられたUAVに相対してビデオ取得デバイスそれ自体の移動に基づいて特定の速度で移動中であり得る。
ビデオフレームに関連付けられたオプティカルフロー場内の相当量のエリアが、比較的静止して見える場合、符号化プロセッサは、ビデオフレームに割り振られるビット量を低減することを選び得る。特に、符号化プロセッサは、静止エリアを有するビデオフレームに割り振られ得る幾つかのビットをシフトし得、より多量の動きを有するエリアを有するビデオフレームにそれらのビットを割り振り得る。
図6のオプティカルフロー場の上部とは対照的に、オプティカルフロー場の中央部及び下部にある幾つかの物体は、比較的高速で移動している。特に、物体は、ビデオ取得デバイスに相対する移動に基づいて比較的高速で移動するように見え得る。特に、ビデオ取得デバイスが静止物体を超えて高速で移動している場合、静止物体は、ビデオ取得デバイスの移動に基づいて高速で移動しているように見え得る。例では、物体の知覚される移動は、ビデオ取得デバイスの移動に関連付けられた動き成分を有し得、且つ/又はビデオ取得デバイスが取り付けられる、UAV等の移動可能物体の移動に関連付けられた動き成分を有し得る。
しかし、比較的静止したビデオフレーム内の大量のエリアを所与として、図6のビデオフレームへの全体的なビット割り振りは更に低減し得る。したがって、図6に提供されるビデオフレームは、図4の調整420と同様に、低減されたビット割り振りを有し得る。
別の例では、図7は、本発明の実施形態による、ビデオフレームを符号化するための超高速大域的カメラ移動に関連付けられたオプティカルフロー場700を示す。特に、図7に提供されるオプティカルフロー場700は、均一に下向きの方向を有する。さらに、動き矢印の下向き方向は、矢印の密度により高速であるものとして示される。例では、オプティカルフロー場の下向き方向は、ビデオ取得デバイスを通り越して素早く移動している1つ又は複数の物体に基づいて、ビデオデータにおいて高速であるように見え得る。他の例では、オプティカルフロー場の下向き方向は、取得されたビデオデータ内の物体に相対するビデオ取得デバイスの移動に基づいて、ビデオデータにおいて高速であるように見え得る。更なる例では、オプティカルフロー場内の動き矢印の下向きの方向は、ビデオ取得デバイスを通り過ぎて素早く移動している物体と、ビデオ取得デバイスそれ自体の高速移動との組合せに基づいて、ビデオデータにおいて高速に見え得る。
オプティカルフロー場の方向性は、均一に下向きの方向を有するため、ビデオフレームにわたって同量のビットを割り振り得る。しかし、大量の移動を所与として、高い移動度を取得するために利用可能な不十分なビットがあり得る。したがって、ビデオフレームに関連付けられたオプティカルフロー場内の相当量のエリアが、比較的高速に移動して見える場合、符号化プロセッサは、量子化ステップを選択すること(又は増大した量子化ステップを選択すること)を選び、ビデオフレームに関連付けられたビデオデータを符号化する際に使用し得る。したがって、図7に提供されるビデオフレームは、図4の調整430と同様に、符号化プロセッサによって選択される増大された量子化ステップを有し得る。
ビデオフレーム当たりの一定符号化レートを所与として、異なるビット割り振りの程度対量子化ステップ選択を有し得るビデオフレームの更なる例は、図8〜図11に提供される。例では、オプティカルフロー場は、ビデオデータのコンテキスト化に役立つことができ、それにより、符号化プロセッサがブロック単位でビデオフレーム内のビデオデータを符号化するのに役立つ。特に、ビデオフレーム内の異なるブロックの中で、オプティカルフロー場は、ビデオフレームの幾つかの部分が他の部分よりも高速で移動しているか否かを示すことができる。ビデオフレームのこれらの部分は、ビデオフレーム内のブロックによって表され得る。したがって、ブロック単位で、符号化プロセッサは、ビデオフレーム内のブロックにわたり大域的且つ差別的にフレーム内のビットレートを割り振り得る。特に、符号化プロセッサは、ブロックを通して移動している物体が非常に高速に移動していることをオプティカルフロー場が示す場合、より多数のビットをブロックに割り振り得る。大量の動きに関連付けられたブロックに割り振るために利用可能な十分なビットがない例では、符号化プロセッサは代わりに、量子化ステップ(又はより高い量子化ステップ)を選び、普通ならばブロック内の高度の動きによって生じるビットレートの増大を相殺し得る。さらに、符号化プロセッサは、比較的静止しているブロックに割り振られるビット数を低減し得る。代わりに、符号化プロセッサは、高度の動きを有し得る別のブロックにビット割り振りを提供し得る。
例では、図8は、本発明の実施形態による、斜めの大域的動きに関連付けられたオプティカルフロー場800内の符号化すべき2つのビデオフレーム構成要素を示す。特に、図8に提供されるオプティカルフロー場は、オプティカルフロー場の右下隅に向かって均一に傾斜する方向を有する。例では、オプティカルフロー場内の動き矢印の方向は、ビデオ取得デバイスを通り過ぎて斜めに移動している1つ又は複数の物体に基づいて、ビデオデータにおいて傾斜して見え得る。他の例では、オプティカルフロー場内の動き矢印の方向は、取得されたビデオデータ内の物体に相対するビデオ取得デバイスの斜め移動に基づいて、ビデオデータにおいて傾斜して見え得る。更なる例では、オプティカルフロー場内の動き矢印の方向は、ビデオ取得デバイスを通り過ぎて斜めに移動している物体と、ビデオ取得デバイスそれ自体の移動との組合せに基づいて、ビデオデータにおいて傾斜して見え得る。
図8は、ビデオフレームのビデオフレーム構成要素である2つのブロック:ブロック810及びブロック820も提供する。例では、ブロック810及び820を有するビデオフレームを符号化している符号化プロセッサは、ビデオフレームにわたってビットを均等又は不均等に割り振り得る。特に、ビデオフレームにわたるビットの分布は、ビデオフレームに関連付けられた動きデータに基づき得る。図8に見られるように、オプティカルフロー場によって提供される動きデータは、ビデオフレームにわたって均一な動きがあることを示す。したがって、符号化プロセッサは、ブロック810及び820にわたって等量のビットを割り振り得る。このようにして、図8は、図4の調整440と同様に、標準ビット割り振りを有し得る。
さらに、図9は、本発明の実施形態による、カメラに関連付けられたズームイン特徴に関連付けられたオプティカルフロー場内の符号化すべき2つのビデオフレーム構成要素を示す。例では、ズームイン特徴は、物体へのビデオ取得デバイスのズームイン、カメラがより近くに移動できるようにする航空車両のサポートエリア、又はこれらの2つの組合せに基づいて行われ得る。図9に見られるように、オプティカルフロー場の縁部での移動は、オプティカルフロー場の中間での移動よりも大きい。さらに、ズームインの方向性は、オプティカルフロー場にわたって等しい。換言すれば、垂直距離又は水平距離において明確なバイアスがなく、その理由は、各方向が同様に移動してるためである。しかし、方向性バイアスはないが、図9内の動きは、中央エリアの近くでより集中し、図9内の動きは周縁エリアの近くでより疎である。
図9は、ビデオフレームのビデオフレーム構成要素である2つのブロック:ブロック910及び920も提供する。例では、ブロック910及び920を有するビデオフレームを符号化している符号化プロセッサは、ビデオフレームにわたってビットを均等又は不均等に割り振り得る。特に、ビデオフレームにわたるビットの分布は、ビデオフレームに関連付けられた動きデータに基づき得る。図9に見られるように、オプティカルフロー場によって提供される動きデータは、ビデオフレームの周縁部よりもビデオフレームの中央部に大きな集中があることを示す。さらに、ブロック910は比較的中央に配置され、一方、ブロック920はビデオフレームの周縁部のより近くに配置される。したがって、符号化プロセッサは、ブロック910が高い移動度を有するビデオフレームの中央ロケーションを有するため、ブロック910により多数のビットを割り振り得る。逆に、ブロック920には、標準量のビット及び/又はブロック910よりも小量のビットを割り振り得る。したがって、符号化プロセッサは、ブロック910及び920にわたり不等量のビットを割り振り得る。したがって、図9は、図4の調整450と同様に、不均衡なビット割り振りを有し得る。
オプティカルフロー場内の物体の知覚されるサイズの関係は、オプティカルフロー場内の物体のロケーションに基づいて様々であり得る。例えば、オプティカルフロー場がズームイン動作に基づいて生成される場合、現実世界で同じサイズの物体は、オプティカルフロー場の縁部にあるほど大きく見え得る。これは図9に示され、図9は、オプティカルフロー場の中心にある正規化最小近傍にある第1のボール930と、オプティカルフロー場の周縁近傍にある第2のボール940とを示す。第1のボール930及び第2のボール940は等しいサイズであるが、オプティカルフロー場に関連して見る場合、異なるサイズに見える。したがって、物体の知覚されるサイズは、オプティカルフロー場にわたって変化し得る。特に、物体の知覚されるサイズは、線形に正比例若しくは反比例するように、又は物体がオプティカルフロー場にわたって異なるロケーションに配置される場合、別の式によってモデリングされるように変化し得る。
更なる例では、図10は、本発明の実施形態による、上からの回転図に関連付けられたオプティカルフロー場1000内の符号化すべき2つのビデオフレーム構成要素を示す。図5に見られるように、オプティカルフロー場内の動きは矢印を使用して示される。矢印の長さは、オプティカルフロー場にわたって生じている動きの量を示し、矢印の湾曲は、オプティカルフロー場にわたって生じている動きの方向を示す。図10は、ビデオフレームのビデオフレーム構成要素である2つのブロック:ブロック1010及びブロック1020も提供する。符号化プロセッサがビデオフレームを符号化する場合、ビデオフレームにわたるビットの分布は、ビデオフレームに関連付けられた動きデータに基づき得る。図10に見られるように、オプティカルフロー場によって提供される動きデータは、ビデオフレーム内の回転に関連付けられた相対移動が一般に一定であることを示す。しかし、図9と同様に、図10内のオプティカルフロー場は、ビデオフレームの周縁部よりもビデオフレームの中央部により大きな動きの集中があることも示す。さらに、ブロック1010は比較的中央に配置され、一方、ブロック1020は、ビデオフレームの周縁部のより近くに配置される。したがって、符号化プロセッサは、ブロック1010が、より多量の動きを有するビデオフレームの中央場所を有するため、ブロック1010により多数のビットを割り振り得る。符号化プロセッサは、ブロック1020に追加のビットを割り振ることもできるが、ブロック1020の増大されたビットは、ブロック1010に割り振られるビット量未満であり得る。したがって、符号化プロセッサは、ブロック1010及び1020にわたり不等量のビットを割り振り得る。このようにして、図10は、図4の調整460と同様に、不等であるが、相互に増大されたビット割り振りを有し得る。
さらに、図11は、本発明の実施形態による、異なる程度の物体移動を有する大域的オプティカルフロー場1100内の符号化すべき3つのビデオフレーム構成要素を示す。特に、図11は、ビデオフレーム内の物体に関連付けられた異なる移動レートを有するオプティカルフロー場の例を提供する。図11に見られるように、オプティカルフロー場の上部に近い幾つかの物体は比較的静止している。これとは対照的に、オプティカルフロー場の中央下部にある幾つかの物体は、比較的高速で移動している。特に、物体は、ビデオ取得デバイスに相対する移動に基づいて比較的高速に移動するように見え得る。
図11に提供されるビデオフレームを符号化する符号化プロセッサは、ビデオフレームに関連付けられた動きデータに基づき得るビデオフレームにわたる少なくとも3つのビット分布カテゴリを提供し得る。例では、符号化プロセッサは、1以上、2以上、3以上、4以上、5以上、6以上、7以上、8以上、9以上、10以上、11以上、12以上、13以上、14以上、15以上、16以上、17以上、18以上、19以上、20以上、21以上、22以上、23以上、24以上、25以上、30以上、35以上、40以上、45以上、50以上、60以上、70以上、80以上、90以上、100以上、又は100を超えるビット分布のカテゴリを提供し得る。エンコーダによるビット分布に利用可能な全てのカテゴリが、任意の所与のビデオフレームに存在するわけではない。しかし、例では、少なくとも1つのビット分布カテゴリが、符号化プロセッサによりエンコーダである各ビデオフレームに提供し得る。図11に見られるように、オプティカルフロー場によって提供される動きデータは、ビデオフレーム内の回転に関連付けられた相対移動が、少なくとも3つのカテゴリ:高速、標準、及び比較的静止に入ることを示す。特に、ブロック1110は高速であり、ブロック1120は標準であり、ブロック1130は比較的静止している。したがって、符号化プロセッサは、ブロック1110はブロック1120よりも多量の動きを有するため、ブロック1110にブロック1120よりも多数のビットを割り振り得る。さらに、符号化プロセッサは、ブロック1120がブロック1130よりも多量の動きを有するため、ブロック1120にブロック1130よりも多数のビットを割り振り得る。ブロック1130の静止性が移動閾値未満である例では、符号化プロセッサは、ブロック1130に割り振られるビット量を低減し得る。したがって、符号化プロセッサは、ブロック1110、1120、及び1130にわたり不等量のビットを割り振り得る。このようにして、図11は、図4の調整470と同様に、複数のカテゴリに関連付けられたビット割り振りを有し得る。
ビデオフレーム当たりの一定の符号化コストを所与として、異なる程度のビット割り振り対量子化ステップ選択を有し得るビデオフレームの更なる例は、図12〜図14に提供される。例では、オプティカルフロー場は、ビデオデータのコンテキスト化に役立つことができ、それにより、符号化プロセッサによるビデオフレーム構成要素内又は間のビデオフレーム内のビデオデータの符号化に役立つ。特に、ブロック構成要素内又は間で、オプティカルフロー場を使用して、1)動きベクトルの識別及び2)係数の計算に割り振られるビットを調整し得る。例では、ビデオフレーム内の動きが激しく、それにより、ビデオフレームに関連付けられた動き情報の総量が増大する場合、調整戦略の例は、動きベクトルの識別よりも係数の計算により多数のビットを割り振り得る。特に、より多数のビットが係数の計算に割り振られる場合、一貫した動きベクトル場の保全性を維持し得る。この戦略下では、動きベクトル場の維持は、動きベクトルの検索よりも優先され、その理由は、ビデオフレーム構成要素間の動きが動きの特定の閾値を超える場合、一般に、動きベクトルの検索へのビット割り振りに関して非常に高コストであるためである。さらに、ビデオフレームに関連付けられた動きデータが活動の特定の閾値を超える場合、符号化プロセッサは動きベクトルの識別をより誤りやすい。さらに、動きベクトルの誤識別は、一連の誤差を伝搬し得、これらは一般にトレースバックすることが容易ではない。したがって、幾つかの戦略下では、ビットは、動きベクトルの識別よりも正確な係数の計算に優先的に割り振られる。
例では、動きベクトルの識別にわたる係数を計算する優先度は、現在のブロックの量子化ステップの決定及び動き検索でのRDOへの寄与の両方に適用し得る。したがって、ビデオフレーム内の動きが激しい(例えば、特定の閾値を超える)場合、RDO費用関数は、より正確な動きベクトルを識別し得るように調整し得る。このようにして、ビデオフレーム構成要素間の残差データの符号化に割り振り得るビットを節減し得る。追加又は代替として、より小さな量子化ステップを適用して、決定されたRDOに関連付けられた閾値を超える再構成フレームの視覚的品質を生み出し得る。
したがって、ビデオデータを符号化する際の係数の計算は、ビデオフレーム内の動きが激しい場合、動きベクトルの識別よりも優先し得る。特に、係数の計算は、符号化プロセッサがイントラ符号化及び/又はインター符号化を利用する場合等、ビデオデータを符号化する際のビデオフレーム間の残差データに基づき得る。したがって、図12は、本発明の実施形態による、ビデオフレーム構成要素におけるブロック内のピクセルのイントラ符号化の例を示す。
イントラ符号化を使用して、空間相関を凝縮し得る。ビデオフレーム内のブロックの場合、ブロック内のピクセル値の予測子は隣接ピクセルから推定し得る。例えば、ピクセル値の予測値は、左上、右上、及び左下の隣接ピクセル等の隣接ピクセルから推定し得る。これらの予測の例は、ピクセルブロック内のパターンに対応するように方向性を有し得る。H.264方向性イントラ予測の実証を図12に提供する。
図12は、本発明の実施形態による、ビデオフレーム構成要素におけるブロック内のピクセルのイントラ符号化の例を示す。図12に見られるように、ブロックに隣接するピクセルを使用して、ブロック内のピクセルの動きを予測し得る。特に、イントラ符号化が使用される場合、ブロックに隣接ピクセルが、動きデータについて査定される。図12では、査定されるピクセルは、ブロックの左側の列及びブロックの上の列にある。ブロックの査定される動きには、符号化プロセッサによって使用される特定のモードが関連付けられ得る。隣接ピクセルの全てが同じ動き情報を有するわけではないため、隣接ピクセルが、特定のモードに関連付けられた閾値数のピクセルを有する場合、査定動きのモードをブロックに割り当て得る。例では、隣接ピクセルの100%、95%、90%、85%、80%、75%、70%、65%、60%、55%、50%超え、50%、又は大部分のうちの任意の割合が特定のモードに関連付けられる場合、隣接ピクセルにその特定のモードを割り当て得る。
さらに、隣接ピクセルに割り当てられるモードを使用して、ブロック内のピクセルの予測動きを特定し得る。例えば、モード0において、ブロックに隣接するピクセルは、下向きの動きを有するものとして査定され得る。図12に示されるように、下向きの動きを使用して、予測ピクセルを通して下向きの動きを予測し得る。図12に提供されるように、予測ピクセルを通しての下向きの動きは全体的に、ブロックの上の隣接ピクセルの上列の査定動きに基づく。
モード1において、ブロックに隣接するピクセルは、横向きの動きを有するものとして査定し得る。図12に示されるように、この横向きの動きを使用して、予測ピクセル全体を通して右への動きを予測し得る。図12に提供されるように、予測ピクセルを通しての横向きの動きは全体的に、ブロックの隣の隣接ピクセルの左列の査定動きに基づく。モード2では、ブロックに隣接するピクセルは、通常又は中性の動きを有するものとして査定され得る。この査定に基づいて、ブロック内のピクセルは、中性移動を有するものとして同様にされ得る。
モード3では、ブロックに隣接し、ブロックの上部に近いピクセルは、斜め左の動きを有するものとして査定され得る。図12に見られるように、この斜め左の動きを使用して、予測ピクセル全体を通しての斜め左への動きを予測し得る。図12に提供されるように、予測ピクセルを通しての斜め下への動きは全体的に、ブロックの隣の隣接ピクセルの上列及びブロックの近傍にあるピクセルの上列の査定動きに基づく。同様に、モード7では、ブロックに隣接するピクセルはまた、斜め左下の動きを有するものとして査定され得る。しかし、モード7で見られる斜め左下の動きの角度は、モード3で見られる斜め下の動きよりも急であり得る。
モード4では、ブロックに隣接するピクセルは、斜め右の動きを有するものとして査定され得る。図12に見られるように、斜め右の動きを使用して、予測ピクセル全体を通して右下への動きを予測し得る。同様に、モード5では、ブロックに隣接するピクセルはまた、斜め右の動きを有するものとして査定され得るが、モード5に示される斜めの動きは、モード4での斜めの動きよりも急である。さらに、モード6では、ブロックに隣接するピクセルはまた、斜め右の動きを有するものとして査定され得るが、モード6に示される斜めの動きは、モード4又は5の斜めの動きよりも浅い。
さらに、モード8は、隣接ピクセルを上向き且つ右側への動きを示すブロックに提供する。しかし、モード8は、ブロックの一部のみを予測可能であるという点で前のモードとは異なる。ブロック内の追加の予測ピクセルを査定するために、他の補助方法を使用し得る。
イントラ符号化は、現在ブロックの左列及び上行のピクセル等のブロックの隣接ピクセルを利用するが、ブロックの中央ピクセル内に含まれる相当量の残差情報が存在し得る。例では、ブロックの中央ピクセルは、イントラ符号化を使用して容易に予測することができないことがあるテクスチャ、オブジェクト、及び他の情報を含み得る。この情報を取得するために、フレーム間の情報(例えば、時間的圧縮)を凝縮し符号化し得る。
インター符号化を使用して、時間的相関を凝縮し得る。ビデオフレーム内のブロックについて、ブロック内のピクセル値の予測子は、前のフレーム内の相関付けブロックから推定し得る。ビデオフレームは数百万分の1秒しか隔てられていないことがあるため、フレーム間のブロックは一般に、あまり違わない。しかし、インター符号化の使用は、イントラフレーム符号化を使用して取得されないブロック内の細部の予測に有用であり得る。特に、これらの細部は、近傍のビデオフレームからのブロックを参照することによって予測される。特に、フレーム間で相関するブロックは、動きベクトルを使用してリンクし得る。
インター符号化を実施する場合、まず、インターフレーム動き推定を符号化ブロックに対して実行し得る。動き推定プロセスは、現在ブロックに最も類似し、且つ最もコストがかからないと見なし得るピクセルのグリッドを特定し得る。特に、動き推定は、ビデオフレームの検索エリア内で検索を行うことにより、最も類似すると見なされるピクセルのグリッドを特定し得る。現在ブロックに最も類似し、且つ最もコストがかからないと見なされるピクセルのグリッドが特定されると、動きベクトルを計算し得る。特に、動きベクトルは、第1のフレームの現在ブロックと、第1のフレームに時間的に関連するビデオフレームの参照ブロックとの間に2Dピクセルロケーション差を含むものとして計算し得る。例では、2Dピクセルロケーション差がサブピクセル補間を使用して、整数ピクセル、半ピクセル、1/4ピクセル等によりフレーム間の動きを定義し得る。動きベクトルを計算する図を図13に示す。
したがって、図13は、本発明の実施形態による、ビデオフレームにわたり同じ場所にあるブロックをリンクする動きベクトルの図1300を提供する。特に、図13は、本発明の実施形態による、ビデオフレームにわたり同じ場所にあるブロックをリンクする動きベクトルを示す。図13に見られるように、動きベクトル1310は、ビデオフレームにわたるブロック1320〜1340をリンクし得る。動きベクトルを使用して、計算動きベクトルは、計算される逆方向動きベクトル(MV)1312及び計算される順方向MV1314によって示されるように、隣接するビデオフレームが時間的に先行する場合であっても、それらの隣接するビデオフレーム及び/又は近傍のビデオフレームから予測し得る。これは、インター符号化間の情報の圧縮に起因し得る。特に、インター符号化中、時間情報は、特に、動きベクトル及び他の関連情報を使用してブロックを一緒にリンクすることにより圧縮し得る。
動きベクトルが特定されると、動きベクトルは符号化システム内のデコーダ側に提供し得る。デコーダがこの情報を受信すると、デコーダは、処理中のブロックにリンクし得る参照フレーム上の第1のブロックの対応するロケーションを見つけ得る。このようにして、デコーダは動きベクトルを使用して、参照を見つけ得る。続けて、参照と現在ブロックとの差(例えば、動きベクトル)を処理し、送信し得る。
ヘッダ情報符号化は、ビデオデータの効率的な符号化に使用することもできる。特に、動きベクトルに関連するヘッダ情報及びスキップモードに関連するヘッダ情報を使用して、UAVによって取得されるビデオデータを符号化し得る。
動きベクトルに関して、同じビデオフレーム内の現在ブロック及び空間的に隣接するブロックは、同じ動きベクトルを共有する高い確率を有し得る。さらに、現在ブロックに時間的に対応する動きベクトルは、現在ブロックの動きベクトルの予測子としても機能し得る。したがって、現在ブロックの動きベクトル予測子(MVP)は、現在ブロックの空間的に隣接するブロック及び時間的に隣接するブロックに基づいて計算し得る。MVPの計算は、符号化プロセッサの規格に依存し得る。
さらに、スキップモードに関して、現在ブロックのヘッダ内にある追加情報を隣接ブロックから予測することもできる。さらに、現在ブロックを隣接ブロックから完全に予測し得る例では、現在ブロックのヘッダはスキップブロックとして記され得る。特に、スキップブロックを使用して、残差情報が送信されないことを示し得る。例では、現在ブロックの隣接ブロックの情報に基づいて、現在ブロック内の情報を計算し得る場合、スキップを使用し得る。
図14は、本発明の実施形態による、動きベクトルを検索するよりもフレーム間の係数の計算を優先する構造を示す。特に、図14は、UAVによって取得されたビデオ内の2つのビデオフレームの図1400を提供する。2つのビデオフレームは、木々、海岸、及びボート等の物体を含む。特に、第1のフレーム1410は現在符号化フレームであり、第2の隣接するフレーム1420は予測フレームである。係数の計算に関して、第1のフレーム1410と第2のフレーム1420との差を査定し得る。図14に提供されるように、残差量は、木々の追加の部分及びピクチャ間のボードの部分の除去からなる。例では、2つのフレームの残差量は2つのフレーム間の差を含む。さらに、現在符号化フレームのブロック1415には特定の動きベクトルが関連付けられる。
ビデオフレーム内の動きデータが激しい例では、ビットは、好ましくは、係数の計算に向けて割り振られ得る。例えば、ビットは、第2のフレーム内の新しい木々を記述する残差及びボートの除去を説明する残差に向けて割り振り得る。特に、元のブロックとその予測ブロックとの差を残余と呼ぶことができ、このブロック間の残差は係数として表すことができる。さらに、ビデオフレーム内の動きデータは、ビデオフレームに関連付けられた動きデータ量の特定の閾値を超える場合、激しいと判断し得る。これは、ビデオフレーム内で位置合わせされるオプティカルフロー場に基づいて判断し得る。追加又は代替として、ビデオフレームに関連付けられた動きデータは、隣接及び/又は付近のビデオフレームの動きデータを査定することによって計算し得る。
ビデオフレーム内の動きデータが、「激しい」と見なされる動きデータの閾値を超えない場合等の他の例では、ビットは、ビデオフレームに関連付けられた係数の計算と、ビデオフレーム内の動きベクトルの識別とに等しく割り振り得る。特に、動きベクトルは、ビデオフレーム内に検索エリアを提供することによって識別し得る。ビデオフレーム内の動きが激しくなるにつれて、ビデオフレーム内の検索エリアのサイズを増大し得る。例では、検索エリアのサイズは、ビデオフレーム内の動きの強度が増大するにつれて増大し得る。さらに、ビデオフレーム内の動きの強度が増大するにつれて、検索エリアの形状を変更し得る。特に、ビデオフレーム内の動きの強度が増大するにつれて、検索エリアは正方形から円形に変更し得る。検索エリアの形状は、オプティカルフロー場に基づいて変更することもできる。特に、オプティカルフロー場が高度の垂直移動があることを示す場合、ビデオフレーム内の検索エリアは、その検索エリアの形状を正方形から垂直バイアスされた矩形に変更するなど、垂直成分を増大させ得る。隣接フレーム1420のブロックに関連付けられた検索エリア変更の図が提供される。特に、検索エリアは、第2のフレーム内のブロックに対応する動きベクトルを識別する動き推定予測評価の機会を増大するように変更される。ブロック1425を符号化ブロック1415にリンクする動きベクトルについてフレーム1420を評価する場合、検索エリア1430を査定し得る。
図15は、本発明の実施形態による、動きデータに基づいてビデオを符号化する量子化ステップを決定する方法1500を示すフローチャートである。ブロック1510において、画像取得デバイスによって取得されたビデオが受信される。特に、ビデオはビデオフレーム構成要素を含む。画像取得デバイスは、無人航空機等の移動可能物体に設置し得る。さらに、取得されるビデオは、UAVが飛行中、画像取得デバイスによって取得し得る。ブロック1520において、ビデオフレーム構成要素に関連付けられた動きデータが受信される。例では、動きデータはオプティカルフロー場データを含み得る。代替的には、動きデータはセンサデータを含み得る。例では、オプティカルフロー場データは、センサデータから生成し得る。更なる例では、動きデータは、ビデオフレームの第1の部分がビデオフレームの第2の部分よりも高度の移動を有することを示し得る。さらに、ブロック1530において、動きデータに基づいてビデオフレーム構成要素を符号化する量子化ステップが決定される。例では、量子化ステップを決定することは、符号化プロセッサが、ビデオフレームの第1の部分を符号化する第1の量子化ステップを選ぶことと、ビデオフレームの第2の部分を符号化する第2の、あまり大域的ではない量子化ステップを選ぶこととを含み得る。
図16は、本発明の実施形態による、動きデータに基づいてビデオを符号化する量子化ステップを決定する別の方法1600を示すフローチャートである。ブロック1610において、第1のビデオフレーム構成要素及び第2のビデオフレーム構成要素を含む、画像取得デバイスによって取得されたビデオが受信される。ビデオはビデオフレームを含む。ビデオは、画像取得デバイスによって取得し得る。ブロック1620において、第2のビデオフレーム構成要素に関連付けられた動きデータが受信される。例では、動きデータは、1つ又は複数のセンサを使用して取得し得る。更なる例では、センサは、光学センサ、超音波センサ、MVO、ジャイロスコープ、GPS、及び高度計のうちのオン又は複数を含み得る。さらに、ブロック1630において、第1のビデオフレーム構成要素を符号化する量子化ステップが、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて決定される。特に、量子化ステップを決定することは、第1のビデオフレームと第2のビデオフレームとの間の係数を符号化するための損失を最小化する、第1のビデオフレームを符号化する量子化ステップを選ぶことを含み得る。追加の例では、量子化ステップは、ビデオフレーム内のブロック毎に決定され得る。
図17は、本発明の実施形態による、動きデータに基づいてビデオを符号化するビットを割り振る方法1700を示すフローチャートである。ブロック1710において、画像取得デバイスによって取得されたビデオが受信される。画像取得デバイスは移動可能物体に設置し得る。特に、画像取得デバイスはUAVに設置し得る。さらに、ビデオはビデオフレーム構成要素を含む。
ブロック1720において、ビデオフレーム構成要素に関連付けられた動きデータが受信される。動きデータはオプティカルフロー場データを含み得る。さらに、動きデータは、ブロックが所定の閾値を超える移動を有することを示し得る。ブロック1730において、ビデオフレーム構成要素の符号化に関連付けられたビットは、動きデータに基づいて割り振られる。例では、ブロックを符号化するビット量は、所定の閾値を超える移動を有するブロックに相応するように割り振り得る。他の例では、ビットの割り振りは、割り振りビット量を選ぶことを含み得、動きデータがより高度の移動を示す場合、動きデータがより低度の移動を示す場合に選ばれるより低い割り振りビット量と比較して、より多量の割り振りビットが選ばれる。
図18は、本発明の実施形態による、動きデータに基づいてビデオを符号化するビットを割り振る別の方法1800を示すフローチャートである。ブロック1810において、画像取得デバイスによって取得されたビデオが受信される。ビデオは、第1及び第2のビデオフレーム構成要素を含む。例では、画像取得デバイスはカメラである。追加の例では、第1のビデオ構成要素は第1のビデオフレームであり得、第2のビデオ構成要素は第2のビデオフレームであり得る。さらに、第1のビデオフレームは、第2のビデオフレームに時間的に隣接し得る。ブロック1820において、第2のビデオフレーム構成要素に関連付けられた動きデータが受信される。例では、動きデータは、1つ又は複数のセンサを使用して取得し得る。さらに、ブロック1830において、第1のビデオフレーム構成要素の符号化に関連付けられたビットは、第2のビデオフレーム構成要素に関連付けられた動きデータに基づいて割り振られる。例では、ビットは、第1のビデオフレームと第2のビデオフレームとの間の係数を符号化するための損失を最小化するように、第1のビデオフレームの符号化に割り振られ得る。他の例では、第1のブロックと第2のブロックとの間の係数を符号化するための損失を最小化するビットが、第1のブロックの符号化に割り振られ得る。
ビデオ符号化に関して本明細書に記載されるシステム、デバイス、及び方法は、様々な物体によって支持されるビデオ取得デバイスによって取得される任意のビデオに適用し得る。特に、ビデオは、航空車両によって支持されるビデオ取得デバイスによって取得し得る。上述したように、UAV等の航空車両の本明細書での任意の説明は、任意の移動可能物体に適用し得、使用し得る。航空車両の本明細書での任意の説明は、特にUAVに適用し得る。本発明の移動可能物体は、空中(例えば、固定翼機、回転翼機、又は固定翼若しくは回転翼の何れも有さない航空機)、水中(例えば、船又は潜水艦)、陸上(例えば、車、トラック、バス、バン、オートバイ、自転車等の動力車、スティック、釣り竿等の移動可能構造若しくはフレーム、又は列車)、地中(例えば、地下鉄)、宇宙空間(例えば、宇宙飛行機、衛星、又は宇宙探査機)、又はこれらの環境の任意の組合せ等の任意の適する環境内で移動するように構成し得る。移動可能物体は、本明細書の他の箇所で記載される車両等の車両であり得る。幾つかの実施形態では、移動可能物体は、人間又は動物等の生体によって携帯されるか、又は生体から離陸し得る。適する動物は、アビネス(avines)、イヌ科、ネコ科、ウマ科、ウシ科、ヒツジ科、ブタ科、イルカ科、齧歯類、又は昆虫を含み得る。
移動可能物体は、自由度6に関して環境内で自在に移動可能であり得る(例えば、並進移動での自由度3及び回転での自由度3)。代替的には、移動可能物体の移動は、所定の経路、トラック、又は向きになるなど、1つ又は複数の自由度に関して制限され得る。移動は、エンジン又はモータ等の任意の適する作動機構によって作動し得る。移動可能物体の作動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風力、重力エネルギー、化学エネルギー、核エネルギー、又はそれらの任意の適する組合せ等の任意の適するエネルギー源によってエネルギー供給し得る。移動可能物体は、本明細書の他の箇所に記載のように、推進システムを介して自己推進し得る。推進システムは任意選択的に、電気エネルギー、磁気エネルギー、太陽エネルギー、風力、重力エネルギー、化学エネルギー、核エネルギー、又はそれらの任意の適する組合せ等のエネルギー源を燃料とし得る。代替的には、移動可能物体は生体によって運ばれ得る。
幾つかの場合、移動可能物体は航空車両であり得る。例えば、航空車両は、固定翼航空機(例えば、飛行機、グライダー)、回転翼航空機(例えば、ヘリコプター、ロータクラフト)、固定翼及び回転翼の両方を有する航空機、又は何れも有さない航空機(例えば、小型飛行船、熱気球)であり得る。航空車両は、空気を通しての自己推進等の自己推進式であり得る。自己推進式航空車両は、1つ又は複数のエンジン、モータ、車輪、車軸、磁石、ロータ、プロペラ、ブレード、ノズル、又はそれらの任意の適する組合せを含む推進システム等の推進システムを利用し得る。幾つかの場合、推進システムを使用して、移動可能物体が表面から離陸し、表面に着陸し、現在位置及び/又は向きを維持し(例えば、ホバリング)、向きを変更し、且つ/又は位置を変更できるようにし得る。
移動可能物体は、ユーザによってリモートに、又は移動可能物体内又は上の占有者によってローカルに制御し得る。移動可能物体は、別個の車両内の占有者を介してリモートに制御し得る。幾つかの実施形態では、移動可能物体は、UAV等の無人移動可能物体である。UAV等の無人移動可能物体は、移動可能物体に搭乗する占有者を有さなくてもよい。移動可能物体は、人間、自律制御システム(例えば、コンピュータ制御システム)、又はそれらの任意の適する組合せによって制御し得る。移動可能物体は、人工知能が構成されたロボット等の自律又は半自律ロボットであり得る。
移動可能物体は、任意の適するサイズ及び/又は寸法を有し得る。幾つかの実施形態では、移動可能物体は、車両内又は車両上に人間の占有者を有するサイズ及び/又は寸法のものであり得る。代替的には、移動可能物体は、車両内又は車両上に人間の占有者を有することが可能なものより小さなサイズ及び/又は寸法であり得る。移動可能物体は、人間により持ち上げられるか、又は運ばれるのに適するサイズ及び/又は寸法のものであり得る。代替的には、移動可能物体は、人間によって持ち上げられるか、又は運ばれるのに適するサイズ及び/又は寸法よりも大きなものであり得る。幾つかの場合、移動可能物体は、約2cm以下、約5cm以下、約10cm以下、約50cm以下、約1m以下、約2m以下、約5m以下、又は約10m以下の最大寸法(例えば、長さ、幅、高さ、直径、対角線)を有し得る。最大寸法は、約2cm以上、約5cm以上、約10cm以上、約50cm以上、約1m以上、約2m以上、約5m以上、又は約10m以上であり得る。例えば、移動可能物体の対向するロータのシャフト間の距離は、約2cm以下、約5cm以下、約10cm以下、約50cm以下、約1m以下、約2m以下、約5m以下、又は約10m以下であり得る。代替的には、対向するロータ間の距離は、約2cm以上、約5cm以上、約10cm以上、約50cm以上、約1m以上、約2m以上、約5m以上、又は約10m以上であり得る。
幾つかの実施形態では、移動可能物体は、100cm×100cm×100cm未満、50cm×50cm×30cm未満、又は5cm×5cm×3cm未満の容積を有し得る。移動可能物体の総容積は、約1cm、約2cm、約5cm、約10cm、約20cm、約30cm、約40cm、約50cm、約60cm、約70cm、約80cm、約90cm、約100cm、約150cm、約200cm、約300cm、約500cm、約750cm、約1000cm、約5000cm、約10,000cm、約100,000cm3、約1m、又は約10m以下であり得る。逆に、移動可能物体の総容積は、約1cm、約2cm、約5cm、約10cm、約20cm、約30cm、約40cm、約50cm、約60cm、約70cm、約80cm、約90cm、約100cm、約150cm、約200cm、約300cm、約500cm、約750cm、約1000cm、約5000cm、約10,000cm、約100,000cm、約1m、又は約10m以上であり得る。
幾つかの実施形態では、移動可能物体は、約32,000cm以下、約20,000cm以下、約10,000cm以下、約1,000cm以下、約500cm以下、約100cm以下、約50cm以下、約10cm以下、又は約5cm以下のフットプリント(移動可能物体により包含される横方向断面積と呼ばれ得る)を有し得る。逆に、フットプリントは、約32,000cm以上、約20,000cm以上、約10,000cm以上、約1,000cm以上、約500cm以上、約100cm以上、約50cm以上、約10cm以上、又は約5cm以上であり得る。
幾つかの場合、移動可能物体は1000kg以下の重量であり得る。移動可能物体の重量は、約1000kg以下、約750kg以下、約500kg以下、約200kg以下、約150kg以下、約100kg以下、約80kg以下、約70kg以下、約60kg以下、約50kg以下、約45kg以下、約40kg以下、約35kg以下、約30kg以下、約25kg以下、約20kg以下、約15kg以下、約12kg以下、約10kg以下、約9kg以下、約8kg以下、約7kg以下、約6kg以下、約5kg以下、約4kg以下、約3kg以下、約2kg以下、約1kg以下、約0.5kg以下、約0.1kg以下、約0.05kg以下、又は約0.01kg以下であり得る。逆に、重量は、約1000kg以上、約750kg以上、約500kg以上、約200kg以上、約150kg以上、約100kg以上、約80kg以上、約70kg以上、約60kg以上、約50kg以上、約45kg以上、約40kg以上、約35kg以上、約30kg以上、約25kg以上、約20kg以上、約15kg以上、約12kg以上、約10kg以上、約9kg以上、約8kg以上、約7kg以上、約6kg以上、約5kg以上、約4kg以上、約3kg以上、約2kg以上、約1kg以上、約0.5kg以上、約0.1kg以上、約0.05kg以上、又は約0.01kg以上であり得る。
幾つかの実施形態では、移動可能物体は、移動可能物体によっては込まれる負荷に相対して小さなものであり得る。負荷は、本明細書の他の箇所で更に詳細に記載されるように、搭載物及び/又は支持機構を含み得る。幾つかの例では、移動可能物体の重量と負荷の重量との比は、約1:1超、約1:1未満、又は約1:1に等しいものであり得る。幾つかの場合、移動可能物体の重量と負荷の重量との比は、約1:1超、約1:1未満、又は約1:1に等しいものであり得る。任意選択的に、支持機構の重量と負荷の重量との比は、約1:1超、約1:1未満、又は約1:1に等しいものであり得る。所望の場合、移動可能物体の重量と負荷の重量との比は、約1:2以下、約1:3以下、約1:4以下、約1:5以下、約1:10以下、又は約1:10未満であり得る。逆に、移動可能物体の重量と負荷の重量との比は、約約2:1以上、約3:1以上、約4:1以上、約5:1以上、約10:1以上、又は約10:1超であり得る。
幾つかの実施形態では、移動可能物体は低いエネルギー消費を有し得る。例えば、移動可能物体は、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満を使用し得る。幾つかの場合、移動可能物体の支持機構は低いエネルギー消費を有し得る。例えば、支持機構は、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満を使用し得る。任意選択的に、移動可能物体の搭載物は、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満等の低いエネルギー消費を有し得る。
図19は、本発明の実施形態による無人航空機(UAV)1900を示す。UAVは、本明細書に記載される移動可能物体の例であり得る。UAV1900は、4つのロータ1902、1904、1906、及び1908を有する推進システムを含み得る。任意の数のロータを提供し得る(例えば、1つ、2つ、3つ、4つ、5つ、6つ、又は7つ以上)。無人航空機のロータ、ロータ組立体、又は他の推進システムは、無人航空機が、ホバリング/位置を維持し、向きを変更し、且つ/又はロケーションを変更できるようにし得る。対向するロータのシャフト間の距離は、任意の適する長さ1910であり得る。例えば、長さ1910は2m以下又は5m以下であり得る。幾つかの実施形態では、長さ1910は、40cm〜1m、10cm〜2m、又は5cm〜5mの範囲内であり得る。UAVの本明細書での任意の説明は、異なるタイプの移動可能物体等の移動可能物体に適用し得、この逆も同様である。UAVは、本明細書に記載される補助装置付き離陸システム又は方法を使用し得る。
幾つかの実施形態では、移動可能物体は負荷を搬送するように構成し得る。負荷は、乗客、貨物、機器、器具等の1つ又は複数を含み得る。負荷は境界内に提供し得る。筐体は、移動可能物体の筐体とは別個であってもよく、又は移動可能物体の筐体の部分であってもよい。代替的には、負荷に筐体を提供し得、一方、移動可能物体は筐体を有さない。代替的には、負荷の部分又は負荷全体は、筐体なしで提供し得る。負荷は、移動可能物体にしっかりと固定し得る。任意選択的には、負荷は、移動可能物体に対して移動可能(例えば、移動可能物体に対して並進移動可能又は回転可能)であり得る。負荷は、本明細書の他の箇所に記載されるように、搭載物及び/又は支持機構を含み得る。
幾つかの実施形態では、固定参照枠(例えば、周囲環境)及び/又は互いに対する移動可能物体、支持機構、及び搭載物の移動は、端末によって制御し得る。端末は、移動可能物体、支持機構、及び/又は搭載物から離れたロケーションにあるリモート制御デバイスであり得る。端末は、支持プラットフォームに配置されてもよく、又は支持プラットフォームに固定されてもよい。代替的には、端末はハンドヘルドデバイス又はウェアラブルデバイスであり得る。例えば、端末は、スマートフォン、タブレット、ラップトップ、コンピュータ、眼鏡、手袋、ヘルメット、マイクロホン、又はそれらの任意の適する組合せを含み得る。端末は、キーボード、マウス、ジョイスティック、タッチスクリーン、又はディスプレイ等のユーザインターフェースを含み得る。手動入力コマンド、音声制御、ジェスチャ制御、又は位置制御(例えば、端末の移動、ロケーション、又は傾斜を介する)等の任意の適するユーザ入力を使用して、端末を対話し得る。
端末を使用して、移動可能物体、支持機構、及び/又は搭載物の任意の適する状態を制御し得る。例えば、端末を使用して、互いから及び/又は互いへの固定参照に対する移動可能物体、支持機構、及び/又は搭載物の位置及び/又は向きを制御し得る。幾つかの実施形態では、端末を使用して、支持機構の作動組立体、搭載物のセンサ、又は搭載物のエミッタ等の移動可能物体、支持機構、及び/又は搭載物の個々の要素を制御し得る。端末は、移動可能物体、支持機構、又は搭載物の1つ又は複数と通信するように構成される無線通信デバイスを含み得る。
端末は、可動物体、支持機構、及び/又は搭載物の情報の閲覧に適する表示ユニットを含み得る。例えば、端末は、位置、並進移動速度、並進移動加速度、向き、角速度、角加速度、又はそれらの任意の適する組合せに関して可動物体、支持機構、及び/又は搭載物の情報を表示するように構成し得る。幾つかの実施形態では、端末は、機能搭載物によって提供されるデータ等の搭載物によって提供される情報(例えば、カメラ又は他の画像取得装置によって記録される画像)を表示し得る。
任意選択的に、同じ端末が、可動物体、支持機構、及び/又は搭載物又は可動物体、支持機構、及び/又は搭載物の状態を制御するとともに、可動物体、支持機構、及び/又は搭載物から情報を受信し、且つ/又は表示し得る。例えば、端末は、搭載物によって取得された画像データ又は搭載物の位置についての情報を表示しながら、環境に相対する搭載物のポジショニングを制御し得る。代替的には、異なる端末を異なる機能に使用し得る。例えば、第1の端末は、可動物体、支持機構、及び/又は搭載物の移動又は状態を制御し得、一方、第2の端末は、可動物体、支持機構、及び/又は搭載物から情報を受信し、且つ/又は表示し得る。例えば、第1の端末を使用して、環境に対する搭載物のポジショニングを制御し得、一方、第2の端末は、搭載物によって取得された画像データを表示する。様々な通信モードが、両方とも可動物体を制御し、データを受信する可動物体と統合された端末との間、又は両方とも可動物体を制御し、データを受信する可動物体と複数の端末との間に利用可能である。例えば、少なくとも2つの異なる通信モードが、両方とも可動物体を制御し、可動物体からデータを受信する可動物体と端末との間に形成し得る。
図20は、本発明の実施形態による、支持機構2002と搭載物2004とを含む可動物体2000を示す。可動物体2000は航空機として示されるが、この図は限定を意図せず、本明細書において上述したように、任意の適するタイプの可動物体を使用し得る。航空機システムの文脈で本明細書に記載される任意の実施形態を任意の適する可動物体(例えば、UAV)に適用し得ることを当業者は理解する。幾つかの場合、搭載物2004は、支持機構2002を必要とせずに、可動物体2000に提供し得る。可動物体2000は、推進機構2006、検知システム2008、及び通信システム2010を含み得る。
推進機構2006は、上述したように、ロータ、プロペラ、ブレード、エンジン、モータ、車輪、車軸、磁石、又はノズルの1つ又は複数を含み得る。可動物体は、1つ又は複数、2つ以上、3つ以上、又は4つ以上の推進機構を有し得る。推進機構は全て同じタイプであり得る。代替的には、1つ又は複数の推進機構は、異なるタイプの推進機構であり得る。推進機構2006は、本明細書の他の箇所に記載のように、支持要素(例えば、駆動シャフト)等の任意の適する手段を使用して、可動物体2000に搭載し得る。推進機構2006は、上部、下部、前部、後部、側部、又はそれらの任意の適する組合せ等の可動物体2000の任意の適する部分に搭載し得る。
幾つかの実施形態では、推進メカニズム2006は、可動物体2000が、可動物体2000の任意の水平移動を必要とせずに(例えば、滑走路を下って移動せずに)、表面から垂直に離陸するか、又は表面に垂直に着陸できるようにし得る。任意選択的に、推進機構2006は、可動物体2000が特定の位置及び/又は向きで空中でホバリングできるようにするように動作可能であり得る。推進機構200の1つ又は複数は、その他の推進機構から独立して制御し得る。代替的には、推進機構200は、同時に制御されるように構成し得る。例えば、可動物体2000は、揚力及び/又は推進力を可動物体に提供し得る複数の水平を向いたロータを有し得る。複数の水平を向いたロータを作動させて、垂直離陸機能、垂直直立機能、ホバリング機能を可動物体2000に提供し得る。幾つかの実施形態では、水平を向いたロータの1つ又は複数は、時計回り方向にスピンし得、一方、水平を向いたロータの1つ又は複数は反時計回り方向にスピンし得る。例えば、時計回りロータの数は、反時計回りロータの数に等しいことができる。水平を向いたロータのそれぞれの回転率は、独立して変更して、各ロータによって生成される余力及び/又は推進力を制御し、それにより、可動物体2000の空間配置、速度、及び/又は加速度を調整し得る(例えば、最高で3度の並進移動及び最高で3度の回転に関して)。
検知システム2008は、可動物体2000の空間配置、速度、及び/又は加速度を検知し得る(例えば、最高で3度の並進移動及び最高で3度の回転に関して)1つ又は複数のセンサを含み得る。1つ又は複数のセンサは、全地球測位システム(GPS)センサ、移動センサ、慣性センサ、近接度センサ、又は画像センサを含み得る。検知システム2008によって提供される検知データを使用して、可動物体2000の空間配置、速度、及び/又は向きを制御し得る(例えば、後述するように、適する処理ユニット及び/又は制御モジュールを使用して)。代替的には、検知システム2008を使用して、天候状況、潜在的な障害物への近接度、地理的特徴のロケーション、人造物のロケーション等の可動物体を取り巻く環境に関するデータを提供し得る。
通信システム2010は、無線信号2016を介して通信システム2014を有する端末2012と通信できるようにする。通信システム2010、2014は、無線通信に適する任意の数の送信器、受信器、及び/又は送受信器を含み得る。通信は、データを一方向でのみ送信し得るように、単方向通信であり得る。例えば、単方向通信は、可動物体2000のみがデータを端末2012に送信するか、又はこの逆を含み得る。データは、通信システム2010の1つ又は複数の送信器から通信システム201の1つ又は複数の受信器に送信し得、又はその逆であり得る。代替的には、通信は、データを可動物体2000と端末2012との間で両方向で送信し得るように、双方向通信であり得る。双方向通信は、通信システム2010の1つ又は複数の送信器から通信システム2014の1つ又は複数の受信器にデータを送信すること、又はその逆を含み得る。

幾つかの実施形態では、端末2012は、可動物体2000、支持機構2002、及び搭載物2004の1つ又は複数に制御データを提供し、可動物体2000、支持機構2002、及び搭載物2004の1つ又は複数から情報(例えば、可動物体、支持機構、又は搭載物の位置及び/又は移動情報、搭載物カメラによって取得される画像データ等の搭載物によって検知されるデータ)を受信し得る。幾つかの場合、端末からの制御データは、可動物体、支持機構、及び/又は搭載物の相対位置、移動、作動、又は制御についての命令を含み得る。例えば、制御データは、可動物体のロケーション及び/又は向きを変更させるか(例えば、推進機構2006の制御を介して)、又は可動物体に関する搭載物を移動させる(例えば、支持機構2002の制御を介して)。端末からの制御データは、カメラ又は他の画像取得装置の動作の制御(例えば、静止画又は動画の撮影、ズームイン又はアウト、電源オンオフ、画像モードの切り換え、画像解像度の変更、フォーカスの変更、被写界深度の変更、露光時間の変更、視野角又は視野の変更)等の搭載物の制御を生じさせ得る。幾つかの場合、可動物体、支持機構、及び/又は搭載物からの通信は、1つ又は複数のセンサ(例えば、検知システム2008又は搭載物2004の)からの情報を含み得る。通信は、1つ又は複数の異なるタイプのセンサ(例えば、GPSセンサ、移動センサ、慣性センサ、近接度センサ、又は画像センサ)からの検知情報を含み得る。そのような情報は、可動物体、支持機構、及び/又は搭載物の位置(例えば、ロケーション、向き)、移動、又は加速度に関連し得る。搭載物からのそのような情報は、搭載物によって取得されたデータ又は搭載物の検知状態を含み得る。端末2012によって提供され送信される制御データは、可動物体2000、支持機構2002、又は搭載物2004の1つ又は複数の状態を制御するように構成し得る。代替的又は組み合わせて、支持機構2002及び搭載物2004もそれぞれ、端末2012と通信するように構成される通信モジュールを含み得、それにより、端末は、可動物体2000、支持機構2002、及び搭載物2004のそれぞれと独立して通信し制御し得る。
幾つかの実施形態では、可動物体2000は、端末2012に加えて、又は端末2012の代わりに、別のリモート装置と通信するように構成し得る。端末2012は、別のリモート装置及び可動物体2000と通信するように構成することもできる。例えば、可動物体2000及び/又は端末2012は、別の可動物体又は別の可動物体の支持機構若しくは搭載物と通信し得る。所望の場合、リモート装置は第2の端末又は他の計算装置(例えば、コンピュータ、ラップトップ、タブレット、スマートフォン、又は他のモバイル装置)であり得る。リモート装置は、可動物体2000にデータを送信し、可動物体2000からデータを受信し、データを端末2012に送信し、且つ/又はデータを端末2012から受信するように構成し得る。任意選択的に、リモート装置は、インターネット又は他の電気通信ネットワークに接続し得、それにより、可動物体2000及び/又は端末2012から受信されるデータは、ウェブサイト又はサーバにアップロードし得る。
図21は、実施形態による可動物体を制御するシステム2100のブロック図による概略図である。システム2100は、本明細書に開示されるシステム、装置、及び方法の任意の適する実施形態と組み合わせて使用し得る。システム2100は、検知モジュール2102、処理ユニット2104、非一時的コンピュータ可読媒体2106、制御モジュール2108、及び通信モジュール2110を含み得る。
検知モジュール2102は、可動物体に関連する情報を異なる方法で収集する異なるタイプのセンサを利用し得る。異なるタイプのセンサは、異なるタイプの信号又は異なるソースからの信号を検知し得る。例えば、センサは、慣性センサ、GPSセンサ、近接度センサ(例えば、ライダー)、又はビジョン/画像センサ(例えば、カメラ)を含み得る。検知モジュールは、複数のプロセッサを有する処理ユニット2104に動作可能に結合し得る。幾つかの実施形態では、検知モジュール2102は、適する外部装置又はシステムに検知データを直接送信するように構成された送信モジュール2112(例えば、WiFi画像送信モジュール)に動作可能に結合し得る。例えば、送信モジュール2112を使用して、検知モジュール2102のカメラによって取得された画像をリモート端末に送信し得る。
処理ユニット2104は、プログラマブルプロセッサ等の1つ又は複数のプロセッサ(例えば、中央演算処理装置(CPU))を有し得る。処理ユニット2104は、非一時的コンピュータ可読媒体2106に動作可能に結合し得る。非一時的コンピュータ可読媒体2106は、処理ユニット2104によって実行可能であり、1つ又は複数のステップを実行する論理、コード、及び/又はプログラム命令を記憶し得る。非一時的コンピュータ可読媒体は、1つ又は複数のメモリユニット(例えば、SDカード又はランダムアクセスメモリ(RAM)等のリムーバブル媒体又は外部記憶装置)を含み得る。幾つかの実施形態では、検知モジュール2102からのデータは、非一時的コンピュータ可読媒体2106のメモリユニットに直接伝達され、記憶し得る。非一時的コンピュータ可読媒体2106のメモリユニットは、処理ユニット2104によって実行可能であり、本明細書に記載の方法の任意の適する実施形態を実行する論理、コード、及び/又はプログラム命令を記憶し得る。例えば、処理ユニット2104は、処理ユニット2104の1つ又は複数のプロセッサに、検知モジュールによって生成される検知データを分析させる命令を実行するように構成し得る。メモリユニットは、処理ユニット2104によって処理される検知モジュールからの検知データを記憶し得る。幾つかの実施形態では、非一時的コンピュータ可読媒体2106のメモリユニットを使用して、処理ユニット2104によって生成される処理結果を記憶し得る。
幾つかの実施形態では、処理ユニット2104は、可動物体の状態を制御するように構成される制御モジュール2108に動作可能に結合し得る。例えば、制御モジュール2108は、可動物体の推進機構を制御して、自由度6に関して可動物体の空間配置、速度、及び/又は加速度を調整し得る。代替的には、又は組み合わせて、制御モジュール2108は、支持機構、搭載物、又は検知モジュールの1つ又は複数を制御し得る。
処理ユニット2104は、1つ又は複数の外部装置(例えば、端末、表示装置、又は他のリモートコントローラ)からのデータを送信し、且つ/又は受信するように構成される通信モジュール2110に動作可能に結合し得る。優先通信又は無線通信等の任意の適する通信手段を使用し得る。例えば、通信モジュール2110は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、赤外線、電波、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等のうちの1つ又は複数を利用し得る。任意選択的に、タワー、衛星、又は移動局塔の中継局を使用し得る。無線通信は、近接度に依存してもよく、又は依存しなくてもよい。幾つかの実施形態では、視線が通信に必要であってもよく、又はなくてもよい。通信モジュール2110は、検知モジュール2102からの検知データ、処理ユニット2104によって生成される処理結果、所定の制御データ、端末又はリモートコントローラからのユーザコマンド等の1つ又は複数を送信し、且つ/又は受信し得る。
システム2100の構成要素は、任意の適する構成で配置し得る。例えば、システム2100の構成要素の1つ又は複数は、可動物体、支持機構、搭載物、端末、検知システム、又は上記の1つ若しくは複数と通信する追加の外部装置に配置し得る。さらに、図21は単一の処理ユニット2104及び単一の非一時的コンピュータ可読媒体2106を示すが、これは限定を意図せず、システム2100が複数の処理ユニット及び/又は非一時的コンピュータ可読媒体を含み得ることを当業者は理解する。幾つかの実施形態では、複数の処理ユニット及び/又は非一時的コンピュータ可読媒体の1つ又は複数は、可動物体、支持機構、搭載物、端末、検知モジュール、上記の1つ又は複数と通信する追加の外部装置、又はそれらの適する組合せ等の異なるロケーションに配置し得、したがって、システム2100によって実行される処理及び/又はメモリ機能の任意の適する態様は、上記ロケーションの1つ又は複数で行われ得る。
本発明の好ましい実施形態を本明細書に示し説明したが、そのような実施形態が単なる例として提供されることが当業者には明らかであろう。ここで、本発明から逸脱せずに、多くの変形、変更、及び置換を当業者は思い付くであろう。本発明を実施するに当たり、本明細書に記載された本発明の実施形態への様々な代替を利用し得ることを理解されたい。以下の請求項が本発明の範囲を規定し、これらの請求項及びそれらの均等物の範囲内の方法及び構造がそれにより包含されることが意図される。

Claims (12)

  1. 動きデータに基づいてビデオを符号化する量子化ステップを決定する方法であって、
    1つ又は複数の回転軸を有する支持機構を介して支持される、1つ又は複数の回転軸を有する画像取得デバイス及び、前記支持機構に搭載された1つ又は複数のセンサを備えた無人航空機の飛行中において、前記画像取得デバイスによって取得されたビデオを受信するステップであって、前記ビデオはビデオフレーム構成要素を含む、ビデオを受信するステップと、
    前記1つ又は複数のセンサからのデータであり、前記ビデオフレーム構成要素に関連付けられ、前記画像取得デバイス又は前記無人航空機のロール軸の周り、ピッチ軸の周り、及びヨー軸の周りの少なくとも一つの回転による動きデータを受信するステップと、
    前記動きデータに基づいて、前記ビデオフレーム構成要素を符号化する量子化ステップを決定するステップと
    を含む、方法。
  2. 前記画像取得デバイスはビデオ取得デバイスである、請求項1に記載の方法。
  3. 前記画像取得デバイスはビデオカメラである、請求項1に記載の方法。
  4. 前記1つ又は複数のセンサは、光学センサ、超音波センサ、MVO、ジャイロスコープ、GPS、高度計のうちの少なくとも1つを含む、請求項1乃至請求項3の何れか1項に記載の方法。
  5. 前記動きデータはオプティカルフロー場データを含む、請求項1乃至請求項4の何れか1項に記載の方法。
  6. 前記ビデオフレーム構成要素は第1のビデオフレームである、請求項1乃至請求項5の何れか1項に記載の方法。
  7. 前記動きデータは、前記第1のビデオフレームが、閾値移動度を超える移動度を有することを示す、請求項6に記載の方法。
  8. 前記閾値移動度を超える移動度を有する前記第1のビデオフレームに基づいて、前記第1のビデオフレームを符号化する第1の量子化ステップを選ぶステップを更に含む、請求項7に記載の方法。
  9. 前記ビデオは、第2のビデオフレーム構成要素を更に含む、請求項6乃至請求項8の何れか1項に記載の方法。
  10. 前記第2のビデオフレーム構成要素は、閾値移動度よりも小さな移動度を有する第2のビデオフレームである、請求項9に記載の方法。
  11. 前記閾値移動度よりも小さな移動度を有する前記第2のビデオフレームに基づいて、前記第2のビデオフレームを符号化する第2の量子化ステップを選ぶステップを更に含む、請求項10に記載の方法。
  12. 請求項1乃至請求項11の何れか1項に記載の方法を実行するプロセッサを備える、システム。
JP2016535716A 2015-07-31 2015-07-31 ビデオ符号化方法及びシステム Active JP6391694B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/085759 WO2017020181A1 (en) 2015-07-31 2015-07-31 Method of sensor-assisted rate control

Publications (2)

Publication Number Publication Date
JP2017526193A JP2017526193A (ja) 2017-09-07
JP6391694B2 true JP6391694B2 (ja) 2018-09-19

Family

ID=57942161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016535716A Active JP6391694B2 (ja) 2015-07-31 2015-07-31 ビデオ符号化方法及びシステム

Country Status (5)

Country Link
US (2) US10834392B2 (ja)
EP (1) EP3225026A4 (ja)
JP (1) JP6391694B2 (ja)
CN (1) CN107852491B (ja)
WO (1) WO2017020181A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102121829B (zh) 2010-08-09 2013-06-12 汪滔 一种微型惯性测量***
EP3060882A4 (en) * 2014-04-25 2017-01-25 SZ DJI Technology Co., Ltd. Inertial sensing device
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
CN107924567A (zh) * 2015-07-31 2018-04-17 深圳市大疆创新科技有限公司 构建光流场的***和方法
JP2017529710A (ja) 2015-07-31 2017-10-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 検索エリアを評価する方法
DE102015122183B4 (de) * 2015-12-18 2018-12-06 Antony Pfoertzsch Vorrichtung und Verfahren für ein unbemanntes Flugobjekt
US10435176B2 (en) 2016-05-25 2019-10-08 Skydio, Inc. Perimeter structure for unmanned aerial vehicle
US10520943B2 (en) 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
US10717198B2 (en) * 2017-04-12 2020-07-21 Marble Robot, Inc. Method for sensor data processing
US10612951B2 (en) * 2017-05-31 2020-04-07 Pixart Imaging Inc. Optical flow sensor, methods, remote controller device, and rotatable electronic device
US11202088B2 (en) * 2018-03-15 2021-12-14 Sony Corporation Image processing apparatus and method
CN112673634A (zh) * 2018-09-11 2021-04-16 深圳市大疆创新科技有限公司 用于支持渐进式视频比特流切换的***和方法
WO2020061857A1 (en) * 2018-09-26 2020-04-02 SZ DJI Technology Co., Ltd. Autofocusing camera and systems
JP2021034800A (ja) * 2019-08-20 2021-03-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 圧縮装置、移動体、圧縮方法、及びプログラム
JP2021170728A (ja) * 2020-04-15 2021-10-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 装置、画像処理装置、撮像装置、移動体、プログラム及び方法
JP2021170727A (ja) * 2020-04-15 2021-10-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 装置、画像処理装置、撮像装置、移動体、プログラム及び方法
JP7009697B2 (ja) * 2020-06-25 2022-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 装置、撮像装置、移動体、プログラム及び方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2514115B2 (ja) * 1991-02-15 1996-07-10 株式会社グラフィックス・コミュニケーション・テクノロジーズ 画像信号符号化装置
JPH06233270A (ja) * 1993-02-03 1994-08-19 Hitachi Ltd 画像符号化方法およびその装置
GB9519923D0 (en) * 1995-09-29 1995-11-29 Philips Electronics Nv Motion estimation for predictive image coding
US6192075B1 (en) * 1997-08-21 2001-02-20 Stream Machine Company Single-pass variable bit-rate control for digital video coding
US6741282B1 (en) 1998-05-05 2004-05-25 Intel Corporation Method and apparatus for processing a photocurrent in both discrete and continuous time
JP4289727B2 (ja) * 1999-07-06 2009-07-01 キヤノン株式会社 画像符号化装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2001086512A (ja) * 1999-09-14 2001-03-30 Nec Corp 可変ビットレート符号化装置
AU2003280512A1 (en) * 2002-07-01 2004-01-19 E G Technology Inc. Efficient compression and transport of video over a network
JP2004221757A (ja) 2003-01-10 2004-08-05 Renesas Technology Corp 動き検出装置及び探索領域形状可変動き検出器
US20050024487A1 (en) * 2003-07-31 2005-02-03 William Chen Video codec system with real-time complexity adaptation and region-of-interest coding
KR20050090841A (ko) * 2004-03-10 2005-09-14 엘지전자 주식회사 비트율 제어 방법
US20050213662A1 (en) * 2004-03-29 2005-09-29 James Owens Method of compression and digital imaging device employing compression algorithm
JP2005323021A (ja) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd 車載撮像システム、および撮像方法
US7447337B2 (en) 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
KR100606140B1 (ko) * 2004-11-09 2006-08-01 (주)씨앤에스 테크놀로지 적응적 모드 결정에 의한 움직임 예측방법
JP5318561B2 (ja) * 2005-03-10 2013-10-16 クゥアルコム・インコーポレイテッド マルチメディア処理のためのコンテンツ分類
US7733380B1 (en) * 2005-07-19 2010-06-08 Maxim Integrated Products, Inc. Method and/or architecture for controlling encoding parameters using integrated information from camera ISP
US8031777B2 (en) 2005-11-18 2011-10-04 Apple Inc. Multipass video encoding and rate control using subsampling of frames
JP4651103B2 (ja) * 2005-11-24 2011-03-16 キヤノン株式会社 画像処理装置、画像処理方法
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
CN100508608C (zh) * 2006-06-02 2009-07-01 清华大学 一种无预测循环的抗误码视频编解码方法
EP1921867B1 (en) * 2006-10-17 2016-05-25 Harman Becker Automotive Systems GmbH Sensor assisted video compression
US7653130B2 (en) * 2006-12-27 2010-01-26 General Instrument Corporation Method and apparatus for bit rate reduction in video telephony
US8630346B2 (en) 2007-02-20 2014-01-14 Samsung Electronics Co., Ltd System and method for introducing virtual zero motion vector candidates in areas of a video sequence involving overlays
KR101366244B1 (ko) 2007-04-24 2014-02-21 삼성전자주식회사 레지듀얼 데이터를 이용한 영상의 에러 은닉 방법 및 장치
JP4636064B2 (ja) 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8374388B2 (en) 2007-12-28 2013-02-12 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
JP5181733B2 (ja) * 2008-03-05 2013-04-10 日本電気株式会社 無人移動体のデータ伝送装置および方法
CN101325711A (zh) * 2008-07-16 2008-12-17 上海大学 基于时空掩盖效应的自适应码率控制方法
US20100079605A1 (en) 2008-09-29 2010-04-01 William Marsh Rice University Sensor-Assisted Motion Estimation for Efficient Video Encoding
JP2010199656A (ja) * 2009-02-23 2010-09-09 Panasonic Corp 動画撮像装置
US8363721B2 (en) * 2009-03-26 2013-01-29 Cisco Technology, Inc. Reference picture prediction for video coding
EP2419881B1 (en) 2009-04-15 2016-03-30 Toyota Jidosha Kabushiki Kaisha Object detection device
JP4788798B2 (ja) 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
US20100305857A1 (en) * 2009-05-08 2010-12-02 Jeffrey Byrne Method and System for Visual Collision Detection and Estimation
US9307251B2 (en) 2009-08-19 2016-04-05 Sharp Laboratories Of America, Inc. Methods and systems for determining data-adaptive weights for motion estimation in a video sequence
KR101377530B1 (ko) * 2009-08-21 2014-03-27 에스케이텔레콤 주식회사 적응적 움직임 벡터 해상도를 이용한 영상 부호화/복호화 방법 및 장치
US9118912B2 (en) * 2009-12-14 2015-08-25 Thomson Licensing Object-aware video encoding strategies
WO2011123758A1 (en) 2010-04-03 2011-10-06 Centeye, Inc. Vision based hover in place
US20110249959A1 (en) * 2010-04-09 2011-10-13 Korea Electronics Technology Institute Video storing method and device based on variable bit allocation and related video encoding and decoding apparatuses
US8406506B2 (en) 2010-05-18 2013-03-26 Honda Motor Co., Ltd. Fast sub-pixel optical flow estimation
EP2591354B1 (en) 2010-07-07 2016-09-07 Ardelyx, Inc. Compounds and methods for inhibiting phosphate transport
US8736767B2 (en) 2010-09-29 2014-05-27 Sharp Laboratories Of America, Inc. Efficient motion vector field estimation
BR112013022577A2 (pt) 2011-03-09 2016-12-06 Nippon Telegraph & Telephone dispositivo de codificação de vídeo, método de codificação de vídeo e programa de codificação de vídeo
JP2012257198A (ja) 2011-05-17 2012-12-27 Canon Inc 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置
JP2013081101A (ja) * 2011-10-04 2013-05-02 Nikon Corp 画像処理装置、撮像装置およびプログラム
US8660374B1 (en) * 2011-12-23 2014-02-25 Massachusetts Institute Of Technology Selecting transform paths for compressing visual data
EP2823461A1 (en) 2012-03-05 2015-01-14 Thomson Licensing Method and apparatus for performing super-resolution
JP5867273B2 (ja) 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
US9451163B2 (en) 2012-05-11 2016-09-20 Qualcomm Incorporated Motion sensor assisted rate control for video encoding
CN102724502B (zh) * 2012-06-11 2015-08-19 华为技术有限公司 一种视频编码中码率的控制方法及装置
US20140029664A1 (en) * 2012-07-27 2014-01-30 The Hong Kong University Of Science And Technology Frame-level dependent bit allocation in hybrid video encoding
US20140044197A1 (en) * 2012-08-10 2014-02-13 Yiting Liao Method and system for content-aware multimedia streaming
US20140177706A1 (en) 2012-12-21 2014-06-26 Samsung Electronics Co., Ltd Method and system for providing super-resolution of quantized images and video
JP2014132706A (ja) * 2013-01-04 2014-07-17 Mitsubishi Electric Corp 監視カメラおよび監視カメラ用プログラム
US9171213B2 (en) 2013-03-15 2015-10-27 Xerox Corporation Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles
JP6114990B2 (ja) 2013-03-27 2017-04-19 株式会社メガチップス 動画像符号化処理装置、プログラムおよび集積回路
KR101450645B1 (ko) * 2013-04-26 2014-10-15 주식회사 코아로직 비디오 비트율 제어 방법 및 장치
CN103281530B (zh) * 2013-05-07 2016-05-25 西安电子科技大学 基于率失真优化的hevc码率控制方法
CN103347185B (zh) * 2013-06-28 2016-08-10 北京航空航天大学 基于选择性块变换的无人机侦察图像综合压缩编码方法
US20150030208A1 (en) 2013-07-29 2015-01-29 Irida Labs S.A. System and a method for motion estimation based on a series of 2d images
CN103533359B (zh) * 2013-10-16 2016-06-15 武汉大学 一种h.264码率控制方法
ITTO20130971A1 (it) * 2013-11-29 2015-05-30 Protodesign S R L Sistema di codifica video per immagini e video da piattaforma aerea o satellitare assistita da sensori e da modello geometrico della scena
US9158971B2 (en) 2014-03-03 2015-10-13 Xerox Corporation Self-learning object detectors for unlabeled videos using multi-task learning
KR102156410B1 (ko) 2014-04-14 2020-09-15 삼성전자주식회사 오브젝트 움직임을 고려한 영상 처리 장치 및 방법
US9681150B2 (en) 2014-06-13 2017-06-13 Texas Instruments Incorporated Optical flow determination using pyramidal block matching
CN106537918B (zh) 2014-08-12 2019-09-20 英特尔公司 用于视频编码的运动估计的***和方法
JP6394876B2 (ja) 2014-09-17 2018-09-26 株式会社ソシオネクスト 符号化回路、符号化方法
CN104333761B (zh) * 2014-11-20 2017-10-03 富春科技股份有限公司 一种hevc基本单元级码率分配方法
US10462480B2 (en) * 2014-12-31 2019-10-29 Microsoft Technology Licensing, Llc Computationally efficient motion estimation
EP3054685A1 (en) 2015-02-04 2016-08-10 Thomson Licensing Hierarchical motion estimation and video segmentation in presence of more than one moving object in a block
JP6648701B2 (ja) * 2015-02-06 2020-02-14 ソニー株式会社 画像符号化装置および方法
JP6086619B2 (ja) * 2015-03-27 2017-03-01 株式会社日立国際電気 符号化装置および符号化方法
US20160327389A1 (en) * 2015-05-06 2016-11-10 Gopro, Inc. Calibration Transfer Between Two Devices
US10582259B2 (en) * 2015-06-30 2020-03-03 Gopro, Inc. Pipelined video interface for remote controlled aerial vehicle with camera
JP2017529710A (ja) 2015-07-31 2017-10-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 検索エリアを評価する方法

Also Published As

Publication number Publication date
WO2017020181A1 (en) 2017-02-09
US20170180729A1 (en) 2017-06-22
JP2017526193A (ja) 2017-09-07
US10834392B2 (en) 2020-11-10
CN107852491A (zh) 2018-03-27
CN107852491B (zh) 2021-09-14
EP3225026A1 (en) 2017-10-04
US20210058614A1 (en) 2021-02-25
EP3225026A4 (en) 2017-12-13

Similar Documents

Publication Publication Date Title
JP6391694B2 (ja) ビデオ符号化方法及びシステム
US20200329254A1 (en) Methods of modifying search areas
US10936894B2 (en) Systems and methods for processing image data based on region-of-interest (ROI) of a user
US20210065400A1 (en) Selective processing of sensor data
US11019280B2 (en) Systems and methods for video processing and display
US10599149B2 (en) Salient feature based vehicle positioning
US11288824B2 (en) Processing images to obtain environmental information
US20170012697A1 (en) Method, apparatus and system of providing communication coverage to an unmanned aerial vehicle
US20200036944A1 (en) Method and system for video transmission

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160601

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160601

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180821

R150 Certificate of patent or registration of utility model

Ref document number: 6391694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113