JP6746607B2 - パンニングショットの自動生成 - Google Patents

パンニングショットの自動生成 Download PDF

Info

Publication number
JP6746607B2
JP6746607B2 JP2017553001A JP2017553001A JP6746607B2 JP 6746607 B2 JP6746607 B2 JP 6746607B2 JP 2017553001 A JP2017553001 A JP 2017553001A JP 2017553001 A JP2017553001 A JP 2017553001A JP 6746607 B2 JP6746607 B2 JP 6746607B2
Authority
JP
Japan
Prior art keywords
image
target object
images
series
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017553001A
Other languages
English (en)
Other versions
JP2018513640A5 (ja
JP2018513640A (ja
Inventor
アチャリヤ、ヘマント
バヘティ、パワン・クマー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018513640A publication Critical patent/JP2018513640A/ja
Publication of JP2018513640A5 publication Critical patent/JP2018513640A5/ja
Application granted granted Critical
Publication of JP6746607B2 publication Critical patent/JP6746607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Description

[0001] 本出願は、一般にパンニングショット(panning shot)の生成(generation)に関し、より詳細には、シーン(scene)にわたって移動する対象オブジェクト(subject object)の複数の画像(image)からパンニングショットを自動的に生成するためのシステム、方法、およびデバイスに関する。
[0002] パンニングショットは、動いている対象オブジェクトの画像である。対象オブジェクトは、画像キャプチャデバイス(image capture device)によってキャプチャされたシーン内の任意の関心オブジェクト(object of interest)である。パンニングショット内で、対象オブジェクトは鮮鋭であるが、シーンの背景(たとえば、対象オブジェクト以外のシーンのアスペクト)はぼやけている。対象オブジェクトの方向(direction)にあるぼけ(blur)は、パンニングショット中の動きの視覚効果をもたらす。パンニングショットは、一般に、経験を積んだ撮影者によって撮られる。たとえば、パンニングショットは、対象オブジェクトの鮮鋭な画像をキャプチャ(capture)するために較正された値よりも小さい値までシャッター速度/露光時間を低減することによって撮られ得る。そのような状況では、最適露光時間は、対象オブジェクトの動きならびに周辺光の関数であることにより、決定する(determine)のが困難であり得る。別の例として、パンニングショットは、対象オブジェクトと同じ、動きの方向に画像キャプチャデバイスを動かすことによって撮られ得る。しかしながら、そのようなパンニングショットは、対象オブジェクトを追跡するために安定した手または三脚を必要とするであろう。また、画像キャプチャデバイスの移動速度および動きの方向は、移動する対象オブジェクトのそれに一致するように制御されることになり、さもないと、パンニングショットは過度にぼけ得る。したがって、パンニングショットの生成を可能にするための改善されたシステムおよび方法が有益である。
[0003] 本発明のシステム、方法、およびデバイスは、それぞれいくつかの態様を有し、それらのうちの単一の態様が単独で本発明の望ましい属性を担当するとは限らない。次に、以下の特許請求の範囲によって表される本発明の範囲を限定することなしに、様々な実施形態のいくつかの特徴が手短に説明される。この説明を考察すれば、特に「発明を実施するための形態」と題されたセクションを読めば、本発明の様々な実施形態の特徴が、より容易に、または自動的にパンニングショットを生成することを含む利点をどのように提供するかが理解されよう。いくつかの実施形態は追加の特徴を含み得、いくつかの実施形態は「発明の概要」セクションの実施形態で説明されるあらゆる特徴を含むとは限らない。
[0004] 本開示で説明される主題の1つの革新は、パンニング画像を生成するためのシステムである。いくつかの実施形態では、本システムは、シーンの少なくとも2つの画像の一連の画像(a series of images)を記憶するように構成されたメモリ構成要素(memory component)を含む。一連の画像は、シーン内で移動する少なくとも1つのオブジェクトを含む。本システムは、メモリ構成要素と通信している少なくとも1つのプロセッサ(processor)を含む。プロセッサは、メモリ構成要素に記憶された一連の画像にアクセスするように構成される。プロセッサは、シーン中で移動し、一連の画像中に示された対象オブジェクトを決定するようにさらに構成される。プロセッサは、一連の画像のうちの少なくとも1つから対象オブジェクトを示す(depict)画像データ(image data)をコピーするようにさらに構成される。プロセッサは、一連の画像の第1の画像中の対象オブジェクトの位置(position)に対する一連の画像の第2の画像中の対象オブジェクトの位置に基づいて対象オブジェクトの動きデータ(motion data)を決定するようにさらに構成される。第2の画像は第1の画像の後にキャプチャされる。プロセッサは、第1の画像と、第2の画像と、動きデータとを使用することによって背景画像(background image)を生成するようにさらに構成される。プロセッサは、背景画像上に対象オブジェクトの画像を加算することによって最終画像(final image)を生成するようにさらに構成される。
[0005] 本開示で説明される主題の別の態様は、パンニング画像を生成するための方法である。いくつかの実施形態では、本方法は、シーンの一連の画像を受信することを含み、一連の画像は、シーン内で移動する少なくとも1つのオブジェクトと背景情報(background information)とを含む。本方法は、一連の画像中の動いている少なくとも1つのオブジェクトの対象オブジェクトを示す画像データをコピーすることをさらに含む。本方法は、一連の画像のうちの第2の画像中の対象オブジェクトの第2のロケーション(location)を一連の画像のうちの第1の画像中の対象オブジェクトの第1のロケーションと比較することによって対象オブジェクトの動きデータを決定することをさらに含み、第2の画像は第1の画像の後にキャプチャされる。本方法は、第1の画像と第2の画像と動きデータとを使用することによって背景画像を生成することをさらに含む。本方法は、背景画像上に対象オブジェクトを示す画像を重畳することによって最終画像を生成することをさらに含む。本方法は、第1の画像と第2の画像と動きデータとを使用することを使用することによって背景画像を生成し得る。背景画像を生成するために、本方法は、第1の画像と第2の画像と動きデータとを使用するぼけプロセス(blur process)を実装し得る。
[0006] 本開示で説明される主題の別の革新は、パンニング画像を生成するためのシステムである。いくつかの実施形態では、本システムは、コンピュータ実行可能命令(computer-executable instruction)を少なくとも記憶するように構成されたメモリを含む。本システムは、1つまたは複数のプロセッサを含むコンピューティングデバイス(computing device)をさらに含み、コンピューティングデバイスは、メモリと通信しており、シーンの一連の画像を受信するように構成された画像収集モジュール(image collection module)を実装するためにコンピュータ実行可能命令を実行するように構成され、一連の画像は、シーン内で移動する少なくとも1つのオブジェクトを含む。コンピューティングデバイスは、一連の画像中の動いている少なくとも1つのオブジェクトから選択された対象オブジェクトを示す画像データをコピーするように構成された対象オブジェクトキャプチャモジュール(subject object capture module)を実装するようにさらに構成される。コンピューティングデバイスは、一連の画像の第2の画像中の対象オブジェクトの第2の位置を一連の画像の第1の画像中の対象オブジェクトの第1の位置と比較することによって対象オブジェクトの動きデータを決定するように構成された動きデータキャプチャモジュール(motion data capture module)を実装するようにさらに構成され、第2の画像は第1の画像の後にキャプチャされる。コンピューティングデバイスは、第1の画像と、第2の画像と、動きデータとを使用して背景画像を生成するように構成されたぼけプロセス適用モジュール(blur process application module)を実装するようにさらに構成される。コンピューティングデバイスは、背景画像上に対象オブジェクトを示す画像データを重畳することによって最終画像を生成するように構成された画像ファイナライズモジュール(image finalization module)を実装するようにさらに構成される。
[0007] 本開示で説明される主題の別の革新は、1つまたは複数のコンピュータシステムによって実行されたとき、パンニング画像を生成するための動作を実行するように1つまたは複数のコンピュータシステムを構成するコンピュータ実行可能命令を記憶するコンピュータ可読、非一時的記憶媒体(computer-readable, non-transitory storage medium)である。動作は、シーンの一連の画像を受信することを含み、一連の画像は、シーン内で移動する少なくとも1つのオブジェクトと背景情報とを含む。動作はまた、一連の画像中の動いている少なくとも1つのオブジェクトの対象オブジェクトを示す画像データをコピーすることを含む。動作はまた、一連の画像の第2の画像中の対象オブジェクトを一連の画像の第1の画像中の対象オブジェクトと比較することによって対象オブジェクトの動きデータを決定することを含み、第2の画像は第1の画像の後にキャプチャされる。動作はまた、第1の画像と、第2の画像と、動きデータとを使用することによって背景画像を生成することを含む。動作はまた、背景画像上に対象オブジェクトを示す画像を重畳することによって最終画像を生成することを含む。
[0008] 次に、上述の態様、ならびに本技術の他の特徴、態様、および利点が、添付の図面を参照しながら様々な実施形態に関して説明される。しかしながら、図示の実施形態は、例にすぎず、限定するものではない。図面全体にわたって、同様のシンボルは、一般に、コンテキストが別段に規定しない限り、同様の構成要素を識別する(identify)。以下の図の相対寸法(relative dimension)は一定の縮尺で描かれていないことがあることに留意されたい。
[0009] 本明細書で説明される実施形態のために使用され得る画像キャプチャデバイスの実施形態のブロック図。 [0010] パンニングショットを表す画像を生成するための、図1の画像キャプチャデバイス中で利用され得る例示的な方法を示すフローチャート。 [0011] 第1の画像と第2の画像とを使用してパンニングショットを表し、図1の画像キャプチャデバイス中で利用され得る画像を生成するための例示的な方法を示すフローチャート。 [0012] (たとえば、図1の)画像キャプチャデバイスによる画像によってキャプチャされた動いている複数のオブジェクトをもつシーンの一例を示す図。 (たとえば、図1の)画像キャプチャデバイスによる画像によってキャプチャされた動いている複数のオブジェクトをもつシーンの一例を示す図。 [0013] パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 パンニングショットを生成するために図3Aのシーンの一連の画像にわたって実装されるぼけプロセスを示す図。 [0014] 図1の画像キャプチャデバイス中で利用され得るパンニングモジュール(panning module)のブロック図。
[0015] 添付の図面を参照しながら、新規のシステム、装置、および方法の様々な態様が以下でより十分に説明される。ただし、本開示は、多くの異なる形態で実施され得、本開示全体にわたって提示される任意の特定の構造または機能に限定されるものと解釈されるべきではない。むしろ、これらの態様は、本開示が周到で完全になり得、本開示の範囲を当業者に十分に伝え得るように与えられる。本明細書の教示に基づいて、本開示の範囲は、本発明の他の態様とは無関係に実装されるにせよ、本発明の他の態様と組み合わせられるにせよ、本明細書で開示される新規のシステム、装置、および方法のいかなる態様をもカバーするものであることを、当業者は諒解されたい。たとえば、本明細書に記載される態様をいくつ使用しても、装置は実装され得、または方法は実施され得る。さらに、本発明の範囲は、本明細書に記載される本発明の様々な態様に加えてまたはそれらの態様以外に、他の構造、機能、または構造および機能を使用して実施されるそのような装置または方法をカバーするものとする。本明細書で開示されるどの態様も請求項の1つまたは複数の要素によって実施され得ることを理解されたい。
[0016] 本明細書では特定の態様が説明されるが、これらの態様の多くの変形および置換は本開示の範囲内に入る。好適な態様のいくつかの利益および利点が説明されるが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、様々なワイヤレス技術、システム構成、ネットワーク、および送信プロトコルに広く適用可能であるものとし、それらのうちのいくつかが例として、図および好適な態様についての以下の説明において示される。発明を実施するための形態および図面は、本開示を限定するものではなく説明するものにすぎず、本開示の範囲は添付の特許請求の範囲およびそれの均等物によって定義される。
[0017] 概して、本開示の態様は、画像キャプチャデバイスによってパンニングショットを生成することに関する。画像キャプチャデバイスは、以下で説明されるように、シーンの視覚画像をキャプチャするように構成された任意のデバイスであり得る。パンニングショットは、シーン内で移動する対象オブジェクトの一連の画像から、メモリ中の命令で構成されたプロセッサを使用して、自動的に生成され得る。対象オブジェクトは、任意の方向にシーンにわたって、画像キャプチャデバイスに向かってまたは画像キャプチャデバイスから離れて、を含む、シーン内で任意の方向に移動し得る。パンニングショットは、周辺光およびシーン内の対象オブジェクトの動きを含む様々なファクタに基づいて、画像キャプチャデバイスの露光時間、移動速度および動きの方向を決定する経験を積んだ撮影者によって行われ得る。しかしながら、パンニングショットの自動(または実質的に自動)生成は、シーン内で移動する対象オブジェクトの複数の画像をキャプチャすること以外は、画像キャプチャデバイスの手動調整(manual adjustment)をほとんどまたはまったく用いずにパンニングショットを生成する。パンニングショットを自動的に生成することは、パンニングショットの作成のために使用される技能の量を低減することによって、経験を積んだ撮影者以外により広い層のユーザにとってパンニングショット作成を利用可能にするであろう。さらに、パンニングショットの自動(または実質的に自動)生成は、同じロケーションにおいておよび/または単一の電子デバイス内でリアルタイムでパンニングショットの作成を可能にするために、画像キャプチャ能力とともに処理能力を含み得る(プロセッサをもつカメラを含む)統合画像キャプチャデバイスに有利に適用され得る。さらに、パンニングショットの自動(または実質的に自動)生成はまた、パンニングショットを生成するためのプロセスを実行するように構成された専用ハードウェアで実装されることによって、デスクトップおよび/または従来の汎用コンピューティングデバイスと比較してより高い携帯性および限定された処理能力をもつ(カメラをもつスマートフォンを含む)家庭用電子機器デバイスにおいて利用され得る。
[0018] 一実施形態では、パンニングショットを生成することは、シーンの一連の画像を受信するように構成された少なくとも1つのプロセッサを含むシステムによって実行され得る。一連の画像は、時間の隣接する増分においてキャプチャされた複数の画像であり得る。一連の画像は、シーン内で移動する少なくとも1つのオブジェクトと背景情報とをキャプチャし得る。背景情報は、対象オブジェクトの一部でないシーンからキャプチャされた情報であり得る。シーン内で移動する複数のオブジェクトのうちの1つのオブジェクトが、対象オブジェクトとして指定され得、一連の画像のうちの1つからコピーされ得る。対象オブジェクトの指定は、以下でさらに説明されるように、(たとえば、ユーザ入力(user input)から)手動で、または(たとえば、オブジェクト検出アルゴリズムに基づいて)自動的に行われ得る。また、動きデータが、一連の画像の少なくとも一部から決定され得、方向値(direction value)と大きさ値(magnitude value)とを定義し得る。たとえば、一実施形態では、動きデータは、一連の画像の初期画像(initial image)および現在画像(current image)から、2つの画像を比較することによって決定され得る。別の実施形態では、動きデータは、図4A〜図4Hに関して説明されるように、新しい現在画像と前の「現在画像」とを比較することから決定され得る)。いくつかの実施形態では、動きデータは、3つ以上および/または一連の画像全体から決定され得る。
[0019] 背景画像が、一連の画像のうちの画像の2つを使用するぼけプロセスを実装することによって生成され得る。たとえば、背景画像は、初期画像を現在画像と比較することによって決定された動きデータに基づいて初期画像と現在画像とを使用するぼけプロセスを実装することによって生成され得る。いくつかの実施形態では、ぼけプロセスは、現在画像を初期画像上にオーバーレイする(overlay)ことを表す計算を実行することと、動きデータの大きさ値だけ動きデータの方向に現在画像をシフトする(shift)こと(すなわち、図4A〜図4Hで説明されるように、初期画像のピクセルを現在画像中のピクセルにマッピング(mapping)すること)とを含み得るオーバーレイプロセスによって実装され得る。シフトされた現在画像のピクセル値(pixel value)は、背景画像のためのピクセル値を生成するために初期画像に加算され得る。背景画像は、背景画像のピクセル値を正規化する(normalize)ことによって(たとえば、ピクセル値の各々を2で除算する(divide)ことによって)生成され得る。いくつかの実施形態では、ぼけプロセスは、動きデータの大きさ値だけ動きデータの方向に初期画像、または現在画像をぼかすためにぼけカーネル(または関数)を使用し、次いで、背景画像を生成するためにぼけた画像を使用することによって達成され得る。ぼけプロセスの例は、図4A〜図4Hに関してさらに詳細に説明される。最終的に、パンニングショットは、現在画像中の対象オブジェクトのロケーションに背景画像中の対象オブジェクトの画像を含めることによって生成され得る。
[0020] 図1は、たとえば、カメラの視野(FOV:field of view)中のオブジェクトがFOV中のほぼ同じロケーションにとどまり、鮮鋭なオブジェクトとぼけた背景とをもつ画像を生成するようにカメラを動かすことによって、手動パンニング技法を使用して生成されたように見える画像を生成するために使用され得る画像キャプチャデバイス100の一実施形態のブロック図を示す。画像キャプチャデバイス100は、カメラモジュール(camera module)115と通信している画像プロセッサ120を含み得る。画像プロセッサ120はまた、ワーキングメモリ(working memory)105、メモリ130、およびデバイスプロセッサ150と通信していることがあり、デバイスプロセッサ150は、電子ストレージモジュール110および電子ディスプレイ125と通信していることがある。いくつかの実施形態では、2つの別個のプロセッサではなく、単一のプロセッサが使用され得る。いくつかの実施形態は、3つまたはそれ以上のプロセッサを含み得る。いくつかの実施形態では、上記で説明された構成要素のうちのいくつかが、画像キャプチャデバイス100中に含まれないことがある。いくつかの実施形態では、上記で説明されていない追加の構成要素が、画像キャプチャデバイス100中に含まれ得る。たとえば、いくつかの実施形態では、カメラモジュール115および/またはディスプレイ(display)125が画像キャプチャデバイス100中に含まれないことがあり、またはワーキングメモリ105とメモリ130とが単一のメモリ構成要素として組み合わせられ得る。
[0021] 図1に示されている画像キャプチャデバイス100の実施形態は、セルフォン、デジタルカメラ、タブレットコンピュータ、スマートフォン、携帯情報端末などであり得、またはそれらの一部であり得る。画像キャプチャデバイス100はまた、固定コンピューティングデバイス、またはパンニングショットの自動生成が有利であろう任意のデバイスであり得る。パンニングショットの自動生成を与えるように構成されたプロセスに加えて、複数のプロセスが、画像キャプチャされたデバイス100上でユーザにとって利用可能であり得る。これらのプロセスは、旧来の写真およびビデオキャプチャプロセス、高ダイナミックレンジイメージングプロセス、パノラマ写真キャプチャプロセス、または立体視イメージングプロセスを含み得る。本明細書で使用される、「パンニングショットの自動生成」の様々な実施形態は、自動処理の様々なレベルを含み得、たとえば、オブジェクトを選択するおよび/または背景画像の特性を選択する、少なくとも1つのユーザ入力を含み得る。背景画像の特性を選択する例では、背景画像中のぼけの量を選択することを含む。
[0022] 画像キャプチャデバイス100は、外部画像をキャプチャするためのカメラモジュール115を含む。カメラモジュール115は、限定はしないが、センサー、レンズシステム、およびオートフォーカスアセンブリを含む、意図される明快のために図示されていない様々な構成要素を含み得る。単一のカメラモジュール115が示されているが、(センサーまたはレンズシステムを含む)任意の数のカメラモジュールおよび/またはカメラモジュール構成要素が、本明細書で説明されるパンニングショットの自動パンニング生成のために使用され得る。たとえば、カメラまたはオプティクスの数が、所与の視野のためのより高い深度決定能力(depth determining capabilities)またはより良い解像度(resolution)を実現するために増加させられ得る。カメラモジュール115は、キャプチャされた画像を画像プロセッサ120に送信するために画像プロセッサ120に結合され得る。画像プロセッサ120またはデバイスプロセッサ150は、パンニングショットの自動生成に関連する様々なプロセスを実行するために(1つまたは複数の)キャプチャされた画像を受信するように構成され得る。
[0023] 画像プロセッサ120は、本明細書で説明されるパンニングショットの生成のための様々な処理動作を実行するように構成され得る。画像プロセッサ120は、イメージングアプリケーションのために特別に設計されたプロセッサであり得る。画像処理動作の例としては、クロッピング(cropping)、(たとえば、異なる解像度への)スケーリング(scaling)、画像スティッチング(image stitching)、画像フォーマット変換、色補間、色処理、画像フィルタ処理(たとえば、空間画像フィルタ処理)、レンズアーティファクト(lens artifact)または欠陥補正、レンズ光ロールオフ(light roll-off)またはビネット(vignette)によって引き起こされた光源レベルの低減などがある。画像プロセッサ120は、いくつかの実施形態では、複数のプロセッサを備え得る。たとえば、以下でさらに説明されるように、複数のプロセッサの各々は、メモリ130に記憶された様々なモジュールによって決定された様々な機能を実行するように構成され得る。画像プロセッサ120は、1つまたは複数の専用の画像信号プロセッサ(ISP:image signal processor)またはプロセッサのソフトウェア実装形態であり得る。
[0024] まだ図1に示されている実施形態を参照すると、図示のように、画像プロセッサ120は、メモリ130とワーキングメモリ105とに接続される。メモリ130は、様々な機能を実装するために画像プロセッサ120が実行する(いくつかの実施形態ではモジュールとしてグループ化される)コンピュータプログラム命令を含んでいることがある。メモリ120は、RAM、ROMおよび/または他の永続的、補助または非一時的コンピュータ可読媒体を含み得る。メモリ130は、画像キャプチャデバイス100の一般的なアドミニストレーションおよび動作における画像プロセッサ120および/またはデバイスプロセッサ150による使用のためにコンピュータプログラム命令を与えるオペレーティングシステムモジュール145を記憶し得る。たとえば、オペレーティングシステムモジュール145は、デバイス100のワーキングメモリ105と処理リソースとを管理するように画像プロセッサ120を構成し得る。また、オペレーティングシステムモジュール145は、ハードウェアリソースを管理するためのデバイスドライバ、たとえば、カメラモジュール115を含み得る。したがって、いくつかの実施形態では、上記で説明された画像処理モジュール中に含まれている命令は、これらのハードウェアリソースと直接対話しないが、代わりに、オペレーティングシステムモジュール145中にある標準サブルーチンまたはAPIを通して対話し得る。オペレーティングシステムモジュール145内の命令は、次いで、これらのハードウェア構成要素と直接対話し得る。オペレーティングシステムモジュール145は、デバイスプロセッサ150と情報を共有するために画像プロセッサ120をさらに構成し得る。
[0025] メモリ130は、本開示の態様を実装するためのコンピュータプログラム命令および他の情報をさらに含み得る。たとえば、一実施形態では、メモリ130は、ディスプレイ125上での表示のためのユーザインターフェース(および/またはそのための命令)を生成するユーザインターフェースモジュール140を含む。メモリ130はまた、パンニングモジュール(panning module)155を記憶し得る。パンニングモジュール155は、図5に関して説明されるように画像収集モジュールと、対象オブジェクトキャプチャモジュールと、動きデータキャプチャモジュールと、ぼけプロセス適用モジュールと画像ファイナライズモジュールとを含む追加のモジュールを含み得る。いくつかの実施形態では追加モジュールが含まれ得、またはいくつかの実施形態ではより少ないモジュールが含まれ得る。ワーキングメモリ105は、メモリ130のモジュール中に含まれているプロセッサ命令のワーキングセットを記憶するために、画像プロセッサ120によって使用され得る。ワーキングメモリ105はまた、画像キャプチャデバイス100の動作中に生成された動的データ(たとえば、パンニングショットの自動生成のために使用される情報)を記憶するために、画像プロセッサ120によって使用され得る。追加のモジュール、あるいは外部デバイスまたはハードウェアへの接続が、この図に示されていないことがあるが、パンニングショットを生成することに関係する他の動作を与えるために存在し得る。
[0026] デバイスプロセッサ150は、画像キャプチャデバイスによって処理された画像(たとえば、パンニングショット)をユーザに対して表示するようにディスプレイ125を制御するように構成され得る。ディスプレイ125は、画像キャプチャデバイス100の外部にあり得るか、または画像キャプチャデバイス100の一部であり得る。ディスプレイ125はまた、ユーザ入力のために(たとえば、シーン内の複数のオブジェクトの中からの対象オブジェクトの選択のために)メモリに記憶されたまたはユーザによって最近キャプチャされたキャプチャされた画像を表示するように構成され得る。ディスプレイ125は、パネルディスプレイ、たとえば、LCDスクリーン、LEDスクリーン、または他のディスプレイ技術を含み得、タッチセンシティブ技術を実装し得る。デバイスプロセッサ150はまた、ユーザからの入力を受信するように構成され得る。たとえば、ディスプレイ125はまた、タッチスクリーンであるように構成され得、したがって、ユーザからの入力を受信するように構成され得る。ユーザは、プロセッサがパンニングショットを生成するために使用し得る情報を入力するためにディスプレイ125を使用し得る。たとえば、ユーザは、ディスプレイ125上に示された視野から対象オブジェクトを選択するためにタッチスクリーンを使用し得る。
[0027] デバイスプロセッサ150は、データ、たとえば、キャプチャされた画像を表すデータを記憶構成要素(storage component)110に書き込み得る。記憶構成要素110は旧来のディスクデバイスとして図式的に表されているが、記憶構成要素110は任意の記憶媒体デバイスとして構成され得ることを当業者は理解されよう。たとえば、記憶構成要素110は、ディスクドライブ、たとえば、フロッピー(登録商標)ディスクドライブ、ハードディスクドライブ、光ディスクドライブまたは光磁気ディスクドライブ、あるいはフラッシュメモリ、RAM、ROM、および/またはEEPROM(登録商標)などの固体メモリを含み得る。記憶構成要素110はまた、複数のメモリユニットを含むことができ、メモリユニットのいずれか1つが、画像キャプチャデバイス100内にあるように構成され得るか、または画像キャプチャデバイス100の外部にあり得る。記憶構成要素110はまた、カメラから取外し可能であり得る、キャプチャされた画像を記憶するように構成されたメモリカードまたは高速メモリを含み得る。
[0028] 図1は、プロセッサとイメージングセンサーとメモリとを含むように別個の構成要素を有するデバイスを示しているが、これらの別個の構成要素は、特定の設計目標を達成するために様々な方法で組み合わせられ得ることを当業者は認識されよう。たとえば、代替実施形態では、メモリ構成要素は、コストを節約し、性能を改善するためにプロセッサ構成要素と組み合わせられ得る。
[0029] さらに、図1は、いくつかのモジュールを備えるメモリ構成要素130と別個のワーキングメモリ105とを含むいくつかのメモリ構成要素を示しているが、異なるメモリアーキテクチャを使用するいくつかの実施形態が当業者には認識されよう。たとえば、設計は、メモリ130中に含まれているモジュールを実装するプロセッサ命令の記憶のためにROMまたはスタティックRAMメモリを使用し得る。プロセッサ命令は、画像プロセッサ120による実行を可能にするためにRAMにロードされ得る。たとえば、ワーキングメモリ105はRAMメモリを備え得、命令は、画像プロセッサ120による実行の前にワーキングメモリ105にロードされる。
[0030] 図2Aは、一連の画像を使用してパンニングショットを生成するためのプロセス200の一例のフローチャートを示す。プロセス200は、いくつかの実施形態によれば、図1中のパンニングモジュール155中に組み込まれ得る。プロセス200は、ブロック202において開始し得る。
[0031] ブロック202において、プロセス200は、「初期画像(initial image)」と呼ばれることがある画像にアクセスする。初期画像は、画像キャプチャデバイス100によってキャプチャされた一連の画像の第1の画像であり得る。
[0032] ブロック204において、プロセス200は、「現在画像(current image)」と呼ばれることがある画像にアクセスする。現在画像は、初期画像がキャプチャされた後にキャプチャされた画像、たとえば、初期画像の後の一連の画像中の次の(連続する)画像であり得る。いくつかのプロセスでは、現在画像は、(一連の画像中の)初期画像から数画像後の画像であり、これは、対象オブジェクトが、初期画像中に示されているそれの位置から(所望の)距離を移動することを可能にし得る。
[0033] ブロック206において、プロセス200は、たとえば、ワーキングメモリ105(図1)中に、対象オブジェクトを示す現在画像の一部分を記憶する。対象オブジェクトは、ユーザ入力なしに現在画像および/または初期画像から自動的に識別され得る。いくつかの実施形態では、対象オブジェクトは、図3Bに関してさらに詳細に説明されるように、ユーザ入力に基づいて手動で識別され得る。たとえば、対象オブジェクトは、ある基準を満たす画像中に示されたオブジェクトを識別するために一連の画像を処理することによって自動的に識別され得る。この基準は、限定はしないが、いくつかの画像にわたって焦点が合っていること、ある形状、サイズおよび/または色のものであること、初期画像のある領域中にあること、または特定のマークを採用することを含み得る。
[0034] ブロック208において、プロセス200は、対象オブジェクトに関係する動きデータを決定する。いくつかの実施形態では、動きデータは、図4A〜図4Hに関してさらに詳細に説明されるように、一連の画像のうちの異なる画像間の差、たとえば、現在画像および初期画像中の対象オブジェクトの位置、または一連の画像のうちの3つ以上の画像に示されている対象オブジェクトの位置における差の分析に基づいて決定され得る。動きデータは方向値と大きさ値とを含み得る。方向値は、初期画像と現在画像との間の対象オブジェクトの移動の方向(または図4A〜図4Hに関して説明される新しい現在画像と前の現在画像との間の動きの方向)を指定し得る。大きさ値は、初期画像と現在画像との間の対象オブジェクトの移動の量を表し得る。
[0035] ブロック210において、プロセス200は、決定された動きデータに基づいてぼけプロセスを実行する。いくつかの実施形態では、ぼけプロセスは、図4A〜図4Hに関してさらに詳細に説明されるように、第1の画像と、第2の画像と、動きデータとを使用して実行され得る。
[0036] ブロック212において、プロセス200は、パンニングショットを生成するために使用されるために、一連の画像中で、追加の現在画像が利用可能であるかどうかを決定する。利用可能な追加の現在画像がある場合、プロセス200はブロック204に戻る。また、ぼけプロセス(ブロック210)の後に生成された背景画像は新しい初期画像として指定され、追加の現在画像は新しい現在画像としてアクセスされる。追加の現在画像がない場合、プロセス100はブロック214に進む。3つの画像を使用することと比較してすべての画像(たとえば、30個の画像)を使用することから有意な利益を得ないことがあるので、様々な実施形態では、使用される画像の最大数のための値があり得、それは、ユーザ設定される、デフォルト値として設定される、および/または動的に設定される、のいずれかであり得る。
[0037] ブロック214において、プロセス200は、対象オブジェクトをぼけプロセス(ブロック210)から生成された背景画像と組み合わせることによってパンニングショットを生成する。いくつかの実施形態では、対象オブジェクトは、(ワーキングメモリ105に保存された)対象オブジェクトを取り出し、対象オブジェクトをぼけプロセス(ブロック210)から生成された画像に入れることによって組み合わせられ得る。たとえば、対象オブジェクトのピクセルは、ぼけプロセスから生成された画像のいくつかのピクセルと入れ替わる。加算された対象オブジェクトのロケーションは、現在画像中の対象オブジェクトのロケーション(たとえば、一連の画像内の対象オブジェクトの最新の既知のロケーション)に対応するロケーションであり得る。
[0038] 図2Bは、いくつかの実施形態による、第1の画像および第2の画像からパンニングショットを生成するためのプロセス250の一例のフローチャートを示す。これは、たとえば、パンニングモジュール155(図1)によって行われ得る。プロセス250は、ブロック252において開始し得る。
[0039] ブロック252において、プロセス250は、シーンの一連の画像を受信するか、またはそれにアクセスする。一連の画像は、シーン内で移動する少なくとも1つのオブジェクトと背景情報とを含み得る。背景情報は、移動するオブジェクトに関係しない情報であり得る。
[0040] ブロック254において、プロセス250は、一連の画像中の動いている少なくとも1つのオブジェクトの対象オブジェクトを示す画像データを生成する。画像データは、一連の画像のうちの画像のうちの1つから画像データをコピーすることによって生成され得る。
[0041] ブロック256において、プロセス250は動きデータを決定する。動きデータは、一連の画像に示されている対象オブジェクトの移動に基づく。シーンは、第1の画像と、第1の画像の後にキャプチャされた第2の画像とを含み得る。動きデータは、一連の画像のうちの第2の画像中の対象オブジェクトの第2のロケーションを一連の画像のうちの第1の画像中の対象オブジェクトの第1のロケーションと比較することによって決定され得る。
[0042] ブロック258において、プロセス250は背景画像を生成する。背景画像は、第1の画像と、第2の画像と、動きデータとを使用するぼけプロセスを実装することによって生成され得る。ぼけプロセスは、図4A〜図4Hに関してさらに詳細に説明されるように実行され得る。
[0043] ブロック260において、プロセス250は最終画像を生成する。最終画像は、背景画像中に対象オブジェクトを示す画像データを含めることによって生成され得る。画像データは、第2の(または最終)画像中の対象オブジェクトのロケーションに対応するロケーションに含められ得る。
[0044] 図3Aは、図1の画像キャプチャデバイスによってキャプチャされ得る動いている(in motion)複数のオブジェクトをもつシーン300を示す。オブジェクトは、(様々なオブジェクトに続く矢印で示されるように)シーン内で異なる方向に移動する、円320と、長方形340と、楕円330とを含む。
[0045] 図3Bは、図3Aのシーン300の画像350を示す。画像350は、円320、長方形340、および楕円330の各々を含む。いくつかの実施形態では、画像350は、パンニングショットの生成に関係するプロセスのために使用され得る。たとえば、画像350は、シーン300内の対象オブジェクトを決定するために使用され得る。いくつかの実施形態では、対象オブジェクトは、ユーザ入力によって、たとえば、画像350内のオブジェクトの中からの対象オブジェクトのユーザ選択によって決定され得る。画像キャプチャデバイス100は、たとえば、ユーザがディスプレイ125(図1)上で関心オブジェクトを直接選択し得る場合(ディスプレイ125がタッチスクリーン機能を含む場合)、ディスプレイ125からユーザ入力を受信するように構成され得る。画像キャプチャデバイス100はまた、表示された画像から関心オブジェクトを選択するためにユーザにカーソル(cursor)を与えることによってユーザ入力を可能にするように構成され得る。いくつかの実施形態では、対象オブジェクトの決定のために使用される画像は、参照画像(reference image)と呼ばれることがある。いくつかの実施形態では、画像キャプチャデバイス100は、対象オブジェクトを、ユーザ入力なしに自動的に決定するように構成され得る。たとえば、画像キャプチャデバイスは、ある基準を満たすことに基づいて対象オブジェクトを決定し得る。この基準は、(限定はしないが)いくつかの画像にわたって焦点が合っていること、ある形状、サイズまたは色のものであること、初期画像のある領域中にあること、または特定のマークを採用することを含み得る。
[0046] 図4A〜図4Hは、ぼけプロセスのいくつかの実施形態の態様を示す。ぼけプロセスは、パンニングショットを生成するためにシーン300(図3A)の一連の画像にわたって実行され得る。図4Aに示されているように、画像350の円320が、対象オブジェクトとして選択され得る。画像350は、対象オブジェクトを示す一連の画像中の初期画像として指定され得、図4A〜図4Hの残りの説明において初期画像350と呼ばれる。図4Bを参照すると、シーン300の一連の画像中の次の画像が、現在画像404として指定される。初期画像350と現在画像404との間の差に基づいて、動き方向と動きの大きさとを特徴づける動きデータが決定され得る。たとえば、動きデータは、対象オブジェクト320が初期画像350と現在画像404との間で行った移動の量(または以下で説明される新しい現在画像と前の現在画像との間の差)を特徴づけることによって決定され得る。図4Cは、明快のために、初期画像350が垂直線を有するものとして、および現在画像404が水平線を有することを有するを示す。
[0047] 図4A〜図4Cに示されているように、現在画像404は、動きデータによって規定された大きさおよび方向において初期画像350に対してオーバーレイおよびシフトされ得る。オーバーレイすることは、ある画像の各ロケーションにおける各ピクセルを別の画像の別のピクセルにマッピングすることを指す。シフトすることは、ある画像の各ロケーションにおける各ピクセルを異なるロケーションにおける別の画像の別のピクセルにマッピングすることを指す。たとえば、図4Aの初期画像350中のピクセル360A、360B、360Cおよび360Dは、図4Bの現在画像404中のピクセル402A、402B、402C、および402Dにマッピングされ得る。したがって、図4Aの初期画像350中のピクセル360A、360B、360Cおよび360Dは、図4Bの現在画像404中のピクセル402A、402B、402C、および402Dによってオーバーレイされる。また、図4Aの初期画像350中のピクセル360A、360B、360Cおよび360Dは、動きデータから決定された大きさおよび方向だけ、図4Bの現在画像404中のピクセル402A、402B、402C、および402Dのロケーションからオフセットされたロケーションにあり得る。したがって、ピクセルの各々は、図4Aの初期画像350中のピクセル360A、360B、360Cおよび360Dが、図4Bの現在画像404中の402A、402B、402C、および402Dのロケーションに対して異なるロケーション中にオーバーレイされるようにシフトされる。
[0048] さらに、図4Cに示されているように、オーバーレイおよびシフトされた画像を加算することによって、背景画像407が生成され得る。背景画像は、明快のために、水平線と垂直線とを有するものとして図4Cに示されている。加算することは、各画像のオーバーレイおよびシフトされたピクセル値を互いに加算することを指す。たとえば、ピクセル360A、360B、360Cおよび360Dの各々が40のピクセル値を有し、ピクセル402A、402B、402C、および402Dの各々が60のピクセル値を有する場合、ピクセル値を加算することは、非正規化された背景画像に対応する各ピクセルにおいて100のピクセル値を生じる。これらの加算されたピクセル値は、ピクセルデータが画像350および画像404中に存在するピクセルロケーション(pixel location)にある。言い換えれば、ここで、画像350と画像404とは重複する。背景画像407は、画像350と画像404との重複に対応するロケーションにおけるピクセル値の集合として生成され得る。
[0049] 背景画像407は、背景画像を正規化することによってファイナライズされ得る。正規化することは、背景画像を生じるために、加算されたピクセル値を2で除算し、加算されたピクセルを一連の画像中の画像の標準寸法(standard dimension)にスケーリングすることを指す。図4Cに示されているように、背景画像407はぼけた対象オブジェクト406を生成するが、初期画像350および現在画像404のあるエリアが重複しないことがあるので解像度(resolution)を失う。言い換えれば、解像度は、現在画像404のピクセルが初期画像350の対応するピクセルを有しないところ、または初期画像350のピクセルが現在画像404の対応するピクセルを有しないところ(たとえば、初期画像350の領域403中、または現在画像404の領域405中)を生じるヌル値により失われ得る。加算されたピクセル値は、加算されたピクセル値を2で除算し、解像度において一連の画像中の画像の標準寸法にスケールアップされることによって正規化され得る。スケーリングされた背景画像407は、図4E中で新しい初期画像406として使用されるファイナライズされた背景画像407であり得る。
[0050] 図4Eでは、図4Dに示されているファイナライズされた背景画像は新しい初期画像408として指定され、シーンの一連の画像中の次の画像が新しい現在画像408として指定される。図2のブロック208に関して説明されたように、前の現在画像404と新しい現在画像410との間の差に基づいて、動きの方向と動きの大きさとを特徴づける動きデータが決定される。前の現在画像は、新しい現在画像が使用されるときに現在画像として前に使用された画像である。次いで、新しい現在画像410は、新しい初期画像408上にオーバーレイされ、動きデータによって規定された大きさおよび方向においてシフトされる。オーバーレイされた新しい初期画像408および新しい現在画像410のピクセル値は、背景画像413を生成するために加算される。この背景画像413は、次いで、図4D中で新しい初期画像414として使用されるファイナライズされた背景画像を生成するために正規化される。
[0051] 図4Fでは、図4C中で生成された背景画像は新しい初期画像414として指定され、シーンの一連の画像中の次の画像が新しい現在画像416として指定される。図2のブロック208に関して説明されたように、前の現在画像410と新しい現在画像416との間の差に基づいて、動きの方向と動きの大きさとを特徴づける動きデータが決定される。次いで、新しい現在画像416は、新しい初期画像414上にオーバーレイされ、動きデータによって規定された大きさおよび方向においてシフトされる。オーバーレイされた新しい初期画像414および新しい現在画像416のピクセル値は、背景画像419を生成するために加算される。この背景画像419は、次いで、図4E中で新しい初期画像420として使用されるファイナライズされた背景画像を生じるために正規化される。
[0052] 図4Gでは、図4D中で生成されたものとして示されている背景画像419は新しい初期画像420として指定され、シーンの一連の画像中の次の画像が新しい現在画像422として指定される。図2のブロック208に関して説明されたように、前の現在画像416と新しい現在画像422との間の差に基づいて、動きの方向と動きの大きさとを特徴づける動きデータが決定される。次いで、新しい現在画像422は、新しい初期画像420上にオーバーレイされ、動きデータによって規定された大きさおよび方向においてシフトされる。オーバーレイされた新しい初期画像420および新しい現在画像422のピクセル値は、新しい背景画像425を生成するために加算される。この背景画像425は、次いで、図4E中で新しい初期画像426として使用されるファイナライズされた背景画像を生じるために正規化される。
[0053] 図4Hでは、図4E中で生成されたものとして示されている背景画像425は新しい初期画像426として指定され、シーンの一連の画像中の次の画像が新しい現在画像428として指定される。この新しい現在画像428が一連の画像のうちの最後の画像であるので、新しい現在画像428内の対象オブジェクトは、背景画像が生成された後に使用のために抽出される。図2のブロック208に関して説明されたように、前の現在画像422と新しい現在画像428との間の差に基づいて、動きの方向と動きの大きさとを特徴づける動きデータが決定される。次いで、新しい現在画像428は、新しい初期画像426上にオーバーレイされ、動きデータによって規定された大きさおよび方向においてシフトされる。オーバーレイされた新しい初期画像426および新しい現在画像428のピクセル値は、背景画像431を生成するために加算され、次いで、正規化される。この背景画像431は、次いで、解像度において一連の画像中の画像の標準サイズにスケールアップされ、対象オブジェクトのくっきりした画像が、パンニングショットを生成するために新しい現在画像428中の対象オブジェクトの最後の位置上にオーバーレイされる。
[0054] 図5は、図1の画像キャプチャデバイス中で使用され得るパンニングモジュール155のブロック図を示す。パンニングモジュール155は、画像収集モジュール502と、対象オブジェクトキャプチャモジュール504と、動きデータキャプチャモジュール506と、ぼけプロセス適用モジュール508と、画像ファイナライズモジュール510とを含む。図1に関して説明されたように、モジュールの各々は、異なる適用例のために適宜に、同じ画像プロセッサ120または異なる画像プロセッサとともに使用され得る。たとえば、いくつかの実施形態では、モジュールの各々は、割り当てられたモジュールをサービスする、異なる画像プロセッサに割り当てられ得る。
[0055] 画像収集モジュール502は、初期画像と現在画像とにアクセスし、初期画像と現在画像とを対象オブジェクトキャプチャモジュール504に受け渡し得る。対象オブジェクトキャプチャモジュール504は、図3Bに関してさらに詳細に説明されたように、初期画像または現在画像から対象オブジェクトをユーザ入力なしに自動的に、あるいはユーザ入力を用いて手動で決定するために使用され得る。たとえば、現在画像中の対象オブジェクトは、コピーされ、ワーキングメモリ105(図1)に記憶され得る。対象オブジェクトキャプチャモジュールは、対象オブジェクトを動きデータキャプチャモジュール506に対して識別し得る。動きデータキャプチャモジュール506は、図4A〜4Hに関して説明されたように、一連の画像の異なる画像間の差、たとえば、現在画像と初期画像との間の差、(または図4A〜図4Hに関して説明されたような新しい現在画像と前の現在画像との間の差)、または一連の画像のうちの3つ以上の画像にわたる差の分析に基づいて、動きデータを決定し得る。
[0056] いくつかの実施形態では、動きデータは方向値と大きさ値とを含み得る。方向値は、初期画像と現在画像との間の(または図4A〜図4Hに関して説明されたような新しい現在画像と前の現在画像との間の)対象オブジェクトの移動の方向を指定し得る。大きさ値は、初期画像と現在画像との間で行われた移動の量を指定し得る。ぼけプロセス適用モジュール508は、動きデータキャプチャモジュール506からのキャプチャされた動きデータに基づいてぼけプロセスを実装することによって、背景画像を生成し得る。ぼけプロセスは、図4A〜図4Hに関して説明されたように、初期画像と現在画像とを互い上にオーバーレイおよび加算するオーバーレイプロセスによって実装され得る。一連の画像中に別の現在画像がある場合、ぼけプロセス適用モジュール508は、図2中のブロック212において説明されたように、新しい初期画像として新しい背景画像を指定し、新しい初期画像と新しい現在画像とを処理し続けるように画像収集モジュールに示し得る。一連の画像中に追加の現在画像がない場合、背景画像は画像ファイナライズモジュールに受け渡され、画像ファイナライズモジュールは、背景画像上に対象オブジェクトを重畳することによってパンニングショットを生成する。重畳のロケーションは、現在画像中の対象オブジェクトのロケーション(たとえば一連の画像内の対象オブジェクトの最新の既知のロケーション)に対応するロケーションであり得る。
[0057] 本明細書で使用される「決定すること(determining)」という用語は、多種多様なアクションを包含する。たとえば、「決定すること」は、計算すること(calculating)、計算すること(computing)、処理すること、導出すること、調査すること、ルックアップすること(たとえば、テーブル、データベース、または別のデータ構造においてルックアップすること)、確認することなどを含み得る。また、「決定すること」は、受信すること(たとえば、情報を受信すること)、アクセスすること(たとえば、メモリ中のデータにアクセスすること)などを含み得る。また、「決定すること」は、解決すること、選択すること、選定すること、確立することなどを含み得る。さらに、本明細書で使用される「チャネル幅」は、いくつかの態様では帯域幅を包含することがあるか、または帯域幅と呼ばれることもある。
[0058] 本明細書で使用される、項目のリスト「のうちの少なくとも1つ」を指す句は、単一のメンバーを含む、それらの項目の任意の組合せを指す。一例として、「a、b、またはcのうちの少なくとも1つ」は、a、b、c、a−b、a−c、b−c、およびa−b−cを包含するものとする。
[0059] 上記で説明された方法の様々な動作は、(1つまたは複数の)様々なハードウェアおよび/またはソフトウェア構成要素、回路、および/または(1つまたは複数の)モジュールなど、それらの動作を実行することが可能な任意の好適な手段によって実行され得る。概して、図に示されているどの動作も、その動作を実行することが可能な対応する機能的手段によって実行され得る。
[0060] 本明細書で使用されるインターフェースという用語は、2つまたはそれ以上のデバイスを一緒に接続するように構成されたハードウェアまたはソフトウェアを指すことがある。たとえば、インターフェースは、プロセッサまたはバスの一部であり得、デバイス間での情報またはデータの通信を可能にするように構成され得る。インターフェースは、チップまたは他のデバイスに組み込まれ得る。たとえば、いくつかの実施形態では、インターフェースは、あるデバイスからの情報または通信を別のデバイスにおいて受信するように構成された受信機を備え得る。(たとえば、プロセッサまたはバスの)インターフェースは、フロントエンドまたは別のデバイスによって処理された情報またはデータを受信し得るか、あるいは受信された情報を処理し得る。いくつかの実施形態では、インターフェースは、情報またはデータを別のデバイスに送信または通信するように構成された送信機を備え得る。したがって、インターフェースは、情報またはデータを送信し得るか、あるいは(たとえば、バスを介した)送信のために出力するための情報またはデータを準備し得る。
[0061] 本開示に関連して説明された様々な例示的な論理ブロック、モジュールおよび回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ信号(FPGA)または他のプログラマブル論理デバイス(PLD)、個別ゲートまたはトランジスタ論理、個別ハードウェア構成要素、あるいは本明細書で説明された機能を実行するように設計されたそれらの任意の組合せを用いて実装または実行され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の市販のプロセッサ、コントローラ、マイクロコントローラまたは状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、または任意の他のそのような構成として実装され得る。
[0062] 1つまたは複数の態様では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され得る。コンピュータ可読媒体は、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む、コンピュータ記憶媒体と通信媒体の両方を含む。記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気記憶デバイス、あるいは命令またはデータ構造の形態の所望のプログラムコードを搬送または記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)およびBlu−ray(登録商標)ディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。したがって、いくつかの態様では、コンピュータ可読媒体は非一時的コンピュータ可読媒体(たとえば、有形媒体)を備え得る。
[0063] 本明細書で開示された方法は、説明された方法を達成するための1つまたは複数のステップまたはアクションを備える。本方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなく、互いに交換され得る。言い換えれば、ステップまたはアクションの特定の順序が指定されていない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく変更され得る。
[0064] 本明細書で説明された機能は、1つまたは複数の命令としてプロセッサ可読媒体またはコンピュータ可読媒体上に記憶され得る。「コンピュータ可読媒体(computer-readable medium)」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の利用可能な媒体を指す。限定ではなく例として、そのような媒体は、RAM、ROM、EEPROM、フラッシュメモリ、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備え得る。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)およびBlu−rayディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。コンピュータ可読媒体は有形で非一時的であり得ることに留意されたい。「コンピュータプログラム製品(computer-program product)」という用語は、コンピューティングデバイスまたはプロセッサによって実行、処理または計算され得るコードまたは命令(たとえば、「プログラム(program)」)と組み合わせたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用される「コード(code)」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能であるソフトウェア、命令、コードまたはデータを指すことがある。送信(または通信)手段は、2つのデバイス間で通信するために使用され得る。たとえば、情報が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから生成される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、送信(または通信)手段の定義に含まれる。
[0065] したがって、いくつかの態様は、本明細書で提示された動作を実行するためのコンピュータプログラム製品を備え得る。たとえば、そのようなコンピュータプログラム製品は、本明細書で説明された動作を実行するために1つまたは複数のプロセッサによって実行可能である命令を記憶した(および/または符号化した)コンピュータ可読媒体を備え得る。
[0066] さらに、本明細書で説明された方法および技法を実行するためのモジュールおよび/または他の適切な手段は、適用可能な場合にユーザ端末および/または基地局によってダウンロードされ、および/または他の方法で取得され得ることを諒解されたい。たとえば、そのようなデバイスは、本明細書で説明された方法を実行するための手段の転送を可能にするためにサーバに結合され得る。代替的に、本明細書で説明された様々な方法は、ユーザ端末および/または基地局が記憶手段(たとえば、RAM、ROM、コンパクトディスク(CD)またはフロッピーディスクなどの物理記憶媒体など)をデバイスに結合するかまたは与えると様々な方法を得ることができるように、記憶手段によって提供され得る。その上、本明細書で説明された方法および技法をデバイスに与えるための任意の他の好適な技法が利用され得る。
[0067] 特許請求の範囲は、上記で示された厳密な構成および構成要素に限定されないことを理解されたい。上記で説明された方法および装置の構成、動作および詳細において、特許請求の範囲から逸脱することなく、様々な改変、変更および変形が行われ得る。
[0068] 上記は本開示の態様を対象とするが、本開示の他の態様およびさらなる態様は、それの基本的範囲から逸脱することなく考案され得、それの範囲は以下の特許請求の範囲によって決定される。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
シーンの少なくとも2つの画像の一連の画像を記憶するように構成されたメモリ構成要素と、前記一連の画像が、前記シーン内で移動する少なくとも1つのオブジェクトを含む、
前記メモリ構成要素と通信している少なくとも1つのプロセッサと
を備え、前記プロセッサが、
前記少なくとも2つの画像中の対象オブジェクトを決定することと、
前記少なくとも2つの画像のうちの少なくとも1つから前記対象オブジェクトを示す画像データを生成することと、
前記少なくとも2つの画像中の前記対象オブジェクトの位置に基づいて前記対象オブジェクトの動きデータを決定することと、
前記少なくとも2つの画像と前記動きデータとを使用することによって背景画像を生成することと、
前記背景画像中に前記対象オブジェクトを示す前記画像データを含めることによって最終画像を生成することと
を行うように構成された、システム。
[C2]
前記動きデータが方向と大きさ値とを備え、前記少なくとも2つの画像が、第1の画像と前記第1の画像の後にキャプチャされた第2の画像とを備え、前記背景画像が、
前記動きデータの前記大きさ値だけ前記動きデータの方向に前記第2の画像をシフトすることと、
前記第1の画像上に前記シフトされた第2の画像をオーバーレイすることと、
前記背景画像のためのピクセル値を生成するために前記シフトされた第2の画像のピクセル値を前記第1の画像に加算することと、
前記背景画像の前記ピクセル値を正規化することと
を備えるぼけプロセスを使用することによって生成される、C1に記載のシステム。
[C3]
前記ピクセル値を正規化することが、前記背景画像を前記第2の画像の寸法にスケーリングすることを備える、C2に記載のシステム。
[C4]
前記ピクセル値を前記正規化することが、前記背景画像の前記ピクセル値の各々を2で除算することを備える、C2に記載のシステム。
[C5]
前記第1の画像上に前記シフトされた第2の画像をオーバーレイすることが、前記第1の画像の第1のピクセル値を前記第2の画像の第2のピクセル値にマッピングする、C2に記載のシステム。
[C6]
前記少なくとも2つの画像が、第1の画像と前記第1の画像の後にキャプチャされた第2の画像とを備え、ここにおいて、前記少なくとも1つのプロセッサが、
前記一連の画像の第3の画像中の前記対象オブジェクトのロケーションを前記第2の画像中の対象オブジェクトのロケーションと比較することによって前記対象オブジェクトの第2の動きデータを決定することと、前記第3の画像が、前記第2の画像の後にキャプチャされる、
前記背景画像と前記第2の動きデータとを使用することによって前記背景画像を更新する(update)ことと
を行うようにさらに構成された、C1に記載のシステム。
[C7]
前記少なくとも1つのプロセッサが、前記第2の画像中の前記対象オブジェクトのロケーションにおいて前記背景画像上に前記対象オブジェクトを示す前記画像データを含めることによって、前記最終画像を生成するようにさらに構成された、C1に記載のシステム。
[C8]
前記少なくとも1つのプロセッサが、前記第2の画像からの前記一連の画像中の動いている前記少なくとも1つのオブジェクトの対象オブジェクトの画像を生成するようにさらに構成された、C7に記載のシステム。
[C9]
前記少なくとも1つのプロセッサが、ユーザ入力を受信し、前記対象オブジェクトを識別するために前記ユーザ入力を使用するようにさらに構成された、C1に記載のシステム。
[C10]
前記少なくとも1つのプロセッサが、前記シーンにわたって移動する少なくとも2つのオブジェクトをディスプレイ上に表示し、前記少なくとも2つのオブジェクトのうちのどちらが前記対象オブジェクトであるかを識別するためのユーザ入力を受信するようにさらに構成された、C9に記載のシステム。
[C11]
前記少なくとも1つのプロセッサが、前記一連の画像のうちの1つを、前記対象オブジェクトを識別するために使用するための参照画像として決定するようにさらに構成された、C1に記載のシステム。
[C12]
少なくとも1つのプロセッサが、前記一連の画像のうちのいずれが前記参照画像であるかを起訴する(indicting)ユーザ入力を受信するようにさらに構成された、C11に記載のシステム。
[C13]
前記シーンの前記一連の画像をキャプチャするように構成されたカメラモジュールと、
前記シーンにわたって移動する少なくとも2つのオブジェクトを表示するように構成されたディスプレイと、
前記メモリ、前記少なくとも1つのプロセッサ、前記カメラモジュールおよび前記ディスプレイを包囲するように構成されたハウジング(housing)と
をさらに備え、ここにおいて、前記ディスプレイおよび前記カメラモジュールが、前記ハウジングの表面の一部を形成するようにさらに構成された、
C1に記載のシステム。
[C14]
パンニングショットを生成するための方法であって、
シーンの一連の画像を受信することと、前記一連の画像が、少なくとも1つのオブジェクトと背景情報とを含む、
前記一連の画像中の動いている前記少なくとも1つのオブジェクトの対象オブジェクトを示す画像データを生成することと、
前記一連の画像のうちの第2の画像中の前記対象オブジェクトの第2のロケーションを前記一連の画像のうちの第1の画像中の前記対象オブジェクトの第1のロケーションと比較することによって前記対象オブジェクトの動きデータを決定することと、前記第2の画像が前記第1の画像の後にキャプチャされる、
前記第1の画像と、前記第2の画像と、前記動きデータとを使用することによって背景画像を生成することと、
前記背景画像中に前記対象オブジェクトを示す前記画像データを含めることによって最終画像を生成することと
を備える、方法。
[C15]
前記動きデータが方向と大きさ値とを備え、背景画像を生成することが、
前記動きデータの前記大きさ値だけ前記動きデータの方向に前記第2の画像をシフトすることと、
前記第1の画像上に前記シフトされた第2の画像をオーバーレイすることと、
前記背景画像のためのピクセル値を生成するために前記シフトされた第2の画像のピクセル値を前記第1の画像に加算することと、
前記背景画像の前記ピクセル値を正規化することと
を備えるぼけプロセスを実装することをさらに備える、C14に記載の方法。
[C16]
前記一連の画像の第3の画像を前記第2の画像と比較することによって前記対象オブジェクトの第2の動きデータを決定することと、前記第3の画像が、前記第2の画像の後にキャプチャされる、
前記背景画像と前記第2の動きデータとを使用することによって前記背景画像を更新することと
をさらに備える、C14に記載の方法。
[C17]
前記最終画像を前記生成することが、前記第2の画像中の前記対象オブジェクトのロケーションにおいて前記背景画像上に前記対象オブジェクトの前記画像を含めることを備える、C14に記載の方法。
[C18]
前記一連の画像中の動いている前記少なくとも1つのオブジェクトの前記対象オブジェクトが前記第2の画像からコピーされる、C14に記載の方法。
[C19]
前記ピクセル値を正規化することが、前記背景画像を前記第2の画像の寸法にスケーリングすることを備える、C14に記載の方法。
[C20]
前記ピクセル値を正規化することが、前記背景画像の前記ピクセル値の各々を2で除算することを備える、C14に記載の方法。
[C21]
前記シフトされた第2の画像のピクセル値を前記第1の画像に前記加算することから得られたピクセル値をもつピクセルの数が、前記第2の画像中のピクセルの数よりも少ない、C14に記載の方法。
[C22]
コンピュータ実行可能命令を少なくとも記憶するように構成されたメモリと、
1つまたは複数のプロセッサを含むコンピューティングデバイスと
を備えるシステムであって、前記コンピューティングデバイスは、前記メモリと通信しており、
シーンの一連の画像を受信するように構成された画像収集モジュールと、前記一連の画像が、前記シーン内の少なくとも1つのオブジェクトをキャプチャする、
前記少なくとも1つのオブジェクトから選択された対象オブジェクトを示す画像データを生成するように構成された対象オブジェクトキャプチャモジュールと、
前記一連の画像中の前記対象オブジェクトの位置に基づいて前記対象オブジェクトの動きデータを決定するように構成された動きデータキャプチャモジュールと、
前記一連の画像と前記動きデータとを使用することによって背景画像を生成するように構成されたぼけプロセス適用モジュールと、
前記背景画像中に前記対象オブジェクトを示す前記画像データを含めることによって最終画像を生成するように構成された画像ファイナライズモジュールと
を実装するために前記コンピュータ実行可能命令を実行するように構成された、システム。
[C23]
前記対象オブジェクトキャプチャモジュールが、ユーザ入力を受信し、前記対象オブジェクトを識別するために前記ユーザ入力を使用するようにさらに構成された、C22に記載のシステム。
[C24]
前記対象オブジェクトキャプチャモジュールが、前記シーンにわたって移動する少なくとも2つのオブジェクトをディスプレイ上に表示し、前記少なくとも2つのオブジェクトのうちのどちらが前記対象オブジェクトであるかを識別するためのユーザ入力を受信するようにさらに構成された、C23に記載のシステム。
[C25]
前記対象オブジェクトキャプチャモジュールが、前記一連の画像のうちの1つを、前記対象オブジェクトを識別するために使用するための参照画像として決定するようにさらに構成された、C23に記載のシステム。
[C26]
前記対象オブジェクトキャプチャモジュールが、前記一連の画像のうちのいずれが前記参照画像であるかを起訴する(indicting)ユーザ入力を受信するようにさらに構成された、C25に記載のシステム。
[C27]
1つまたは複数のコンピュータシステムによって実行されたとき、
シーンの一連の画像を受信することと、前記一連の画像が、前記シーン内の少なくとも1つのオブジェクトと背景情報とを含む、
前記少なくとも1つのオブジェクトに基づいて対象オブジェクトを示す画像データを生成することと、
前記一連の画像にわたって前記対象オブジェクトを比較することによって前記対象オブジェクトの動きデータを決定することと、
前記一連の画像と前記動きデータとを使用することによって背景画像を生成することと、
前記背景画像中に前記対象オブジェクトを示す前記画像データを含めることによって最終画像を生成することと
を備える動作を実行するように前記1つまたは複数のコンピュータシステムを構成するコンピュータ実行可能命令を記憶するコンピュータ可読、非一時的記憶媒体。
[C28]
前記動きデータが方向と大きさ値とを備え、前記一連の画像が、第1の画像と前記第1の画像の後にキャプチャされた第2の画像とを備え、最終画像を生成することが、
前記動きデータの前記大きさ値だけ前記動きデータの方向に前記第2の画像をシフトすることと、
前記第1の画像上に前記シフトされた第2の画像をオーバーレイすることと、
前記背景画像のためのピクセル値を生成するために前記シフトされた第2の画像のピクセル値を前記第1の画像に加算することと、
前記背景画像の前記ピクセル値を正規化することと
を備える、C27に記載のコンピュータ可読、非一時的記憶媒体。
[C29]
前記ピクセル値を前記正規化することが、前記背景画像を前記第2の画像のサイズにスケーリングすることを備える、C28に記載のコンピュータ可読、非一時的記憶媒体。
[C30]
前記ピクセル値を前記正規化することが、前記背景画像の前記ピクセル値の各々を2で除算することを備える、C28に記載のコンピュータ可読、非一時的記憶媒体。

Claims (15)

  1. シーンの少なくとも2つの画像の一連の画像を記憶するように構成されたメモリ構成要素と、前記少なくとも2つの画像が、第1の画像と前記第1の画像の後にキャプチャされた第2の画像とを備え、前記一連の画像が、前記シーン内で移動する少なくとも1つのオブジェクトを含む、
    前記メモリ構成要素と通信している少なくとも1つのプロセッサとを備え、前記プロセッサが、
    前記少なくとも2つの画像中の対象オブジェクトを決定することと、前記対象オブジェクトが、前記シーン内で移動する前記少なくとも1つのオブジェクトのうちの1つである、
    前記少なくとも2つの画像のうちの少なくとも1つから前記対象オブジェクトを示す画像データを生成することと、
    前記少なくとも2つの画像中の前記対象オブジェクトの位置に基づいて前記対象オブジェクトの動きデータを決定することと、前記動きデータが、前記第1の画像と前記第2の画像との間の前記対象オブジェクトの前記移動を示す大きさ値と方向値とを含む、
    前記動きデータの前記大きさ値だけ、前記対象オブジェクトの前記決定された動きデータの方向に前記第2の画像をシフトすること、前記第1の画像上に前記シフトされた第2の画像をオーバーレイすること、背景画像のためのピクセル値を生成するために前記シフトされた第2の画像のピクセル値を前記第1の画像に加算すること、および、前記背景画像の前記ピクセル値を正規化すること、を備えるぼけプロセスを使用して前記背景画像を生成することと、
    前記第2の画像中の前記対象オブジェクトのロケーションにおいて前記背景画像中に前記対象オブジェクトを示す前記画像データを含めることによって最終画像を生成することと
    を行うように構成された、システム。
  2. 前記ピクセル値を正規化することが、前記背景画像を前記第2の画像の寸法にスケーリングすることを備えるか、
    前記ピクセル値を正規化することが、前記背景画像の前記ピクセル値の各々を2で除算することを備えるか、または
    前記第1の画像上に前記シフトされた第2の画像をオーバーレイすることが、前記第1の画像の第1のピクセル値を前記第2の画像の第2のピクセル値にマッピングする、請求項1に記載のシステム。
  3. 前記少なくとも2つの画像が、第1の画像と前記第1の画像の後にキャプチャされた第2の画像とを備え、ここにおいて、前記少なくとも1つのプロセッサが、
    前記一連の画像の第3の画像中の前記対象オブジェクトのロケーションを前記第2の画像中の対象オブジェクトのロケーションと比較することによって前記対象オブジェクトの第2の動きデータを決定することと、前記第3の画像が、前記第2の画像の後にキャプチャされる、
    前記背景画像と前記第2の動きデータとを使用することによって前記背景画像を更新する(update)こととを行うようにさらに構成された、請求項1に記載のシステム。
  4. 前記背景画像を解像度において前記一連の画像中の前記画像のサイズにスケールアップすることをさらに備える、請求項1に記載のシステム。
  5. 前記少なくとも1つのプロセッサが、前記第2の画像からの前記一連の画像中の動いている前記少なくとも1つのオブジェクトの対象オブジェクトの画像を生成するようにさらに構成された、請求項4に記載のシステム。
  6. 前記少なくとも1つのプロセッサが、ユーザ入力を受信し、前記対象オブジェクトを識別するために前記ユーザ入力を使用するようにさらに構成された、請求項1に記載のシステム。
  7. 前記少なくとも1つのプロセッサが、前記シーンにわたって移動する少なくとも2つのオブジェクトをディスプレイ上に表示し、前記少なくとも2つのオブジェクトのうちのどちらが前記対象オブジェクトであるかを識別するためのユーザ入力を受信するようにさらに構成された、請求項6に記載のシステム。
  8. 前記少なくとも1つのプロセッサが、前記一連の画像のうちの1つを、前記対象オブジェクトを識別するために使用するための参照画像として決定するようにさらに構成された、請求項1に記載のシステム。
  9. 少なくとも1つのプロセッサが、前記一連の画像のうちのいずれが前記参照画像であるかを選択するユーザ入力を受信するようにさらに構成された、請求項8に記載のシステム。
  10. 前記シーンの前記一連の画像をキャプチャするように構成されたカメラモジュールと、
    前記シーンにわたって移動する少なくとも2つのオブジェクトを表示するように構成されたディスプレイと、
    前記メモリ構成要素、前記少なくとも1つのプロセッサ、前記カメラモジュールおよび前記ディスプレイを包囲するように構成されたハウジング(housing)と
    をさらに備え、ここにおいて、前記ディスプレイおよび前記カメラモジュールが、前記ハウジングの表面の一部を形成するようにさらに構成された、請求項1に記載のシステム。
  11. パンニングショットを生成するための方法であって、
    シーンの一連の画像を受信することと、前記一連の画像が、前記シーン内で移動する少なくとも1つのオブジェクトと背景情報とを含む、
    前記一連の画像中の動いている対象オブジェクトを示す画像データを生成することと、前記対象オブジェクトが、前記シーン内で移動する前記少なくとも1つのオブジェクトのうちの1つである、
    前記一連の画像のうちの第2の画像中の前記対象オブジェクトの第2のロケーションを前記一連の画像のうちの第1の画像中の前記対象オブジェクトの第1のロケーションと比較することによって前記対象オブジェクトの動きデータを決定することと、前記第2の画像が前記第1の画像の後にキャプチャされ、ここにおいて、前記動きデータが、前記第1の画像と前記第2の画像との間の前記対象オブジェクトの移動を示す方向と大きさ値とを備える、
    背景画像を生成することと、ここにおいて、前記背景画像を生成することが、前記動きデータの前記大きさ値だけ、前記対象オブジェクトの前記決定された動きデータの方向に前記第2の画像をシフトすること、前記第1の画像上に前記シフトされた第2の画像をオーバーレイすること、前記背景画像のためのピクセル値を生成するために前記シフトされた第2の画像の前記ピクセル値を前記第1の画像に加算すること、および、前記背景画像の前記ピクセル値を正規化すること、を備えるぼけプロセスを実装することを備える、
    前記第2の画像中の前記対象オブジェクトのロケーションにおいて前記背景画像中に前記対象オブジェクトを示す前記画像データを含めることによって最終画像を生成することと
    を備える、方法。
  12. 前記一連の画像の第3の画像を前記第2の画像と比較することによって前記対象オブジェクトの第2の動きデータを決定することと、前記第3の画像が、前記第2の画像の後にキャプチャされる、
    前記背景画像と前記第2の動きデータとを使用することによって前記背景画像を更新することとをさらに備える、請求項11に記載の方法。
  13. 前記最終画像を前記生成することが、前記第2の画像中の前記対象オブジェクトのロケーションにおいて前記背景画像上に前記対象オブジェクトの前記画像を含めることを備えるか、または
    前記一連の画像中の動いている前記少なくとも1つのオブジェクトの前記対象オブジェクトが前記第2の画像からコピーされる、請求項11に記載の方法。
  14. 前記ピクセル値を正規化することが、前記背景画像を前記第2の画像の寸法にスケーリングすることを備えるか、
    前記ピクセル値を正規化することが、前記背景画像の前記ピクセル値の各々を2で除算することを備えるか、または
    前記シフトされた第2の画像のピクセル値を前記第1の画像に前記加算することから得られたピクセル値をもつピクセルの数が、前記第2の画像中のピクセルの数よりも少ない、請求項11に記載の方法。
  15. 1つまたは複数のコンピュータシステムによって実行されたとき、請求項11乃至14のいずれかに記載の方法を実行するように前記1つまたは複数のコンピュータシステムを構成するコンピュータ実行可能命令を記憶するコンピュータ可読、非一時的記憶媒体。
JP2017553001A 2015-04-10 2016-03-22 パンニングショットの自動生成 Active JP6746607B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/684,227 US9591237B2 (en) 2015-04-10 2015-04-10 Automated generation of panning shots
US14/684,227 2015-04-10
PCT/US2016/023581 WO2016164166A1 (en) 2015-04-10 2016-03-22 Automated generation of panning shots

Publications (3)

Publication Number Publication Date
JP2018513640A JP2018513640A (ja) 2018-05-24
JP2018513640A5 JP2018513640A5 (ja) 2019-04-11
JP6746607B2 true JP6746607B2 (ja) 2020-08-26

Family

ID=55650749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017553001A Active JP6746607B2 (ja) 2015-04-10 2016-03-22 パンニングショットの自動生成

Country Status (6)

Country Link
US (1) US9591237B2 (ja)
EP (1) EP3281400A1 (ja)
JP (1) JP6746607B2 (ja)
KR (1) KR102480245B1 (ja)
CN (1) CN107409166B (ja)
WO (1) WO2016164166A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101757101B1 (ko) 2013-07-04 2017-07-12 코어포토닉스 리미티드 소형 망원 렌즈 조립체
CN108718376B (zh) 2013-08-01 2020-08-14 核心光电有限公司 具有自动聚焦的纤薄多孔径成像***及其使用方法
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
KR102159910B1 (ko) 2015-08-13 2020-10-23 코어포토닉스 리미티드 비디오 지원 및 스위칭/비스위칭 동적 제어 기능이 있는 듀얼-애퍼처 줌 카메라
CN107925717B (zh) 2016-05-30 2020-10-27 核心光电有限公司 旋转滚珠引导音圈电动机
CN107924064B (zh) 2016-07-07 2020-06-12 核心光电有限公司 用于折叠式光学装置的线性滚珠引导音圈电动机
WO2018116322A1 (en) * 2016-12-20 2018-06-28 Indian Institute Of Technology Madras System and method for generating pan shots from videos
EP3789810B1 (en) 2017-01-12 2022-09-28 Corephotonics Ltd. Compact folded camera
KR102317624B1 (ko) * 2017-03-27 2021-10-26 삼성전자 주식회사 전자 장치 및 그의 이미지 처리 방법
CN106791456A (zh) * 2017-03-31 2017-05-31 联想(北京)有限公司 一种拍照方法及电子设备
US10499042B2 (en) * 2017-04-01 2019-12-03 Intel Corporation Barreling and compositing of images
WO2019040068A1 (en) * 2017-08-24 2019-02-28 Sony Mobile Communications Inc. EFFECTIVE SPEED FLOW DETECTION IMAGE PROCESSING DEVICES AND METHODS OF OPERATING THE SAME
JP6806919B2 (ja) 2017-11-23 2021-01-06 コアフォトニクス リミテッド コンパクト屈曲式カメラ構造
US10600157B2 (en) 2018-01-05 2020-03-24 Qualcomm Incorporated Motion blur simulation
JP7030534B2 (ja) * 2018-01-16 2022-03-07 キヤノン株式会社 画像処理装置および画像処理方法
KR102242452B1 (ko) 2018-02-05 2021-04-20 코어포토닉스 리미티드 폴디드 카메라에 대한 감소된 높이 페널티
CN114153107B (zh) 2018-04-23 2024-07-02 核心光电有限公司 相机及致动器
WO2020039302A1 (en) 2018-08-22 2020-02-27 Corephotonics Ltd. Two-state zoom folded camera
KR102061867B1 (ko) * 2018-09-10 2020-01-02 한성욱 이미지 생성 장치 및 그 방법
CN110782459B (zh) * 2019-01-08 2021-02-19 北京嘀嘀无限科技发展有限公司 一种图像处理方法及装置
CN110223245B (zh) * 2019-05-16 2021-07-16 华南理工大学 基于深度神经网络的模糊图片清晰化处理方法及***
US11368631B1 (en) * 2019-07-31 2022-06-21 Corephotonics Ltd. System and method for creating background blur in camera panning or motion
CN113315903B (zh) * 2020-02-26 2023-08-22 北京小米移动软件有限公司 图像获取方法和装置、电子设备、存储介质
US11164299B1 (en) * 2020-04-06 2021-11-02 Gopro, Inc. Systems and methods for generating panning images
CN113630545B (zh) * 2020-05-07 2023-03-24 华为技术有限公司 一种拍摄方法及设备
CN117518313A (zh) 2020-05-30 2024-02-06 核心光电有限公司 用于获得超微距图像的***
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
US11308586B2 (en) * 2020-09-08 2022-04-19 Unity Technologies Sf Method for applying a vignette effect to rendered images
US11328437B2 (en) 2020-09-08 2022-05-10 Weta Digital Limited Method for emulating defocus of sharp rendered images
KR20240025049A (ko) 2021-06-08 2024-02-26 코어포토닉스 리미티드 슈퍼-매크로 이미지의 초점면을 틸팅하기 위한 시스템 및 카메라

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254071A (ja) * 1994-03-15 1995-10-03 Matsushita Electric Ind Co Ltd アニメーション表示平滑化方法およびアニメーション表示平滑化装置
JP4067138B2 (ja) * 1994-06-07 2008-03-26 株式会社セガ ゲーム装置
JP2003228735A (ja) * 2002-02-05 2003-08-15 Shinnichi Electronics Kk パチンコ機の画像表示装置、パチンコ機の画像表示装置に於ける画像表示方法及び画像表示プログラム
JP2006025312A (ja) 2004-07-09 2006-01-26 Konica Minolta Photo Imaging Inc 撮像装置、及び画像取得方法
JP2006050070A (ja) * 2004-08-02 2006-02-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006080844A (ja) * 2004-09-09 2006-03-23 Nikon Corp 電子カメラ
JP4639965B2 (ja) * 2005-05-31 2011-02-23 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
JP2007074031A (ja) * 2005-09-02 2007-03-22 Canon Inc 撮像装置、及び、画像処理装置及び方法
JP4818987B2 (ja) * 2007-05-21 2011-11-16 オリンパスイメージング株式会社 撮像装置、表示方法、及びプログラム
US20080309770A1 (en) 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
JP4561845B2 (ja) 2008-02-29 2010-10-13 カシオ計算機株式会社 撮像装置と画像処理プログラム
JP5210198B2 (ja) * 2009-02-13 2013-06-12 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム
JP2010268441A (ja) * 2009-04-16 2010-11-25 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び画像再生装置
JP2011114823A (ja) * 2009-11-30 2011-06-09 Sanyo Electric Co Ltd 画像処理装置及び撮像装置
WO2011074049A1 (ja) 2009-12-18 2011-06-23 富士通株式会社 画像選別装置及び画像選別方法
JP5581728B2 (ja) * 2010-02-24 2014-09-03 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム
JP5018937B2 (ja) * 2010-07-16 2012-09-05 カシオ計算機株式会社 撮像装置と画像処理プログラム
US8736704B2 (en) 2011-03-25 2014-05-27 Apple Inc. Digital camera for capturing an image sequence
WO2013021767A1 (ja) 2011-08-10 2013-02-14 富士フイルム株式会社 動体検出装置及び方法
CN104205803A (zh) * 2012-04-03 2014-12-10 索尼公司 图像处理设备,图像处理设备的控制方法和程序
KR20140132568A (ko) 2013-05-08 2014-11-18 삼성전자주식회사 움직이는 물체를 하나의 이미지에 합성하기 위한 장치 및 방법
JP6261205B2 (ja) * 2013-06-28 2018-01-17 キヤノン株式会社 画像処理装置
US9432575B2 (en) 2013-06-28 2016-08-30 Canon Kabushiki Kaisha Image processing apparatus
JP2015012482A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20160301868A1 (en) 2016-10-13
JP2018513640A (ja) 2018-05-24
CN107409166B (zh) 2021-04-20
US9591237B2 (en) 2017-03-07
KR102480245B1 (ko) 2022-12-21
WO2016164166A1 (en) 2016-10-13
CN107409166A (zh) 2017-11-28
EP3281400A1 (en) 2018-02-14
KR20170135855A (ko) 2017-12-08

Similar Documents

Publication Publication Date Title
JP6746607B2 (ja) パンニングショットの自動生成
US11756223B2 (en) Depth-aware photo editing
KR102278776B1 (ko) 이미지 처리 방법, 기기, 및 장치
US11978225B2 (en) Depth determination for images captured with a moving camera and representing moving features
KR102338576B1 (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
KR102565513B1 (ko) 다중 기술 심도 맵 취득 및 융합을 위한 방법 및 장치
CN108833785B (zh) 多视角图像的融合方法、装置、计算机设备和存储介质
CN108668093B (zh) Hdr图像的生成方法及装置
CN109565551B (zh) 对齐于参考帧合成图像
CN106713755B (zh) 全景图像的处理方法及装置
CN112311965B (zh) 虚拟拍摄方法、装置、***及存储介质
JP2014520298A (ja) 拡張現実表現のための二次元画像取込み
US11449968B2 (en) System and method for synthetic depth-of-field effect rendering for videos
WO2015156149A1 (ja) 画像処理装置および画像処理方法
CN115359105B (zh) 景深扩展图像生成方法、设备及存储介质
JP6261205B2 (ja) 画像処理装置
JP2024504270A (ja) 複数の深度のオブジェクトがあるシーンの画像融合
US10715743B2 (en) System and method for photographic effects
US20210400192A1 (en) Image processing apparatus, image processing method, and storage medium
JP2011135227A (ja) 被写体追跡装置及びその制御方法
JP6762779B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN113890984B (zh) 拍照方法、图像处理方法和电子设备
CN118247319A (zh) 图像对齐方法及装置、计算机可读介质和电子设备
JP2008311906A (ja) 画像データ照合装置、画像合成装置及びプログラム
JP2009038670A (ja) フリッカ補正装置及びフリッカ補正方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200805

R150 Certificate of patent or registration of utility model

Ref document number: 6746607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250