JP6870728B2 - 画像処理装置、画像形成装置及び画像処理方法 - Google Patents

画像処理装置、画像形成装置及び画像処理方法 Download PDF

Info

Publication number
JP6870728B2
JP6870728B2 JP2019501159A JP2019501159A JP6870728B2 JP 6870728 B2 JP6870728 B2 JP 6870728B2 JP 2019501159 A JP2019501159 A JP 2019501159A JP 2019501159 A JP2019501159 A JP 2019501159A JP 6870728 B2 JP6870728 B2 JP 6870728B2
Authority
JP
Japan
Prior art keywords
image data
image
unit
still image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019501159A
Other languages
English (en)
Other versions
JPWO2018155087A1 (ja
Inventor
田中 邦彦
邦彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Publication of JPWO2018155087A1 publication Critical patent/JPWO2018155087A1/ja
Application granted granted Critical
Publication of JP6870728B2 publication Critical patent/JP6870728B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画像データから静止画像データを抽出する画像処理技術に関し、特にアルバムの作成等に利用可能な技術に関する。
近年、ビデオカメラやスマートフォンの性能向上や画質向上に伴い、動画像データから抽出可能な静止画像データを生成することが行われている。
また、動画像データから所望の静止画を抽出し、抽出された前記静止画のアルバムなどを作成可能とする技術も提案されている。たとえば特許文献1は、動画中から所定の人物の画像を検出し、その人物の画像が写りこんでいる複数のフレームから代表的な一部を選択することでアルバムを自動的に作成する技術を提案している。
特開2009−88687号公報
ところで、従来は、前記動画像データが単に複数のフレーム画像データの集合として捉えられている。そのため、前記動画像データの特性である時間的な連続性を活かして静止画像データを抽出するという観点での十分な検討が行われていなかった。
本開示は、このような状況に鑑みてなされたものであり、前記動画像データの特性である時間的な連続性を活かして静止画像データを抽出する技術を提供することを目的とする。
本開示の一の局面に係る画像処理装置は、静止画像データ生成部と、連続静止画像データ抽出部と、を備える。前記静止画像データ生成部は、動画像データから複数の静止画像データを生成する。前記連続静止画像データ抽出部は、生成された前記複数の静止画像データから、同一の被写体の画像を含むとともに所定の周期で時間的に連続している静止画像データであり、かつ、前記同一の被写体の画像の動きが予め設定されている条件を満たしている連続静止画像データを抽出する。
本開示の他の局面に係る画像形成装置は、前記画像処理装置と、印刷媒体に画像を形成する画像形成部と、を備える。
本開示の他の局面に係る画像処理方法は、動画像データから複数の静止画像データを生成することと、前記生成された複数の静止画像データから、同一の被写体の画像を含むとともに所定の周期で時間的に連続している静止画像データであり、かつ、前記同一の被写体の画像の動きが予め設定されている条件を満たしている連続静止画像データを抽出することと、を含む。
本開示によれば、動画像データの特性である時間的な連続性を活かした静止画像データの抽出を実現する技術を提供することが可能である。
本開示の一実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。 一実施形態に係る静止画像取得処理の内容を示すフローチャートである。 一実施形態に係る人物登録処理の内容を示すフローチャートである。 一実施形態に係るフレーム画像データ生成処理の内容を示すデータフローダイアグラムである。 同一人物の画像を含む複数のフレーム画像データの内容を示す説明図である。 同一人物の画像を含む2枚のフレーム画像データF1,F2の内容を示す説明図である。 被写体が遠近方向において移動しているフレーム画像データの内容を示す説明図である。
以下、本開示の実施形態を、図面を参照して説明する。なお、前記実施形態は、本開示を実施するための形態である。
図1に示されるように、本開示の一実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。画像形成装置100は、制御部110と、画像形成部120と、操作表示部130と、記憶部140と、通信インターフェース部150とを備えている。通信インターフェース部150は、通信I/F部とも呼ばれる。
制御部110、画像形成部120、操作表示部130、記憶部140および通信インターフェース部150は、それぞれ画像処理装置、印刷処理装置、操作表示装置、記憶装置および通信インターフェース装置の一例である。
画像形成装置100は、通信インターフェース部150を介して近距離無線通信でスマートフォン200と接続される。これにより、画像形成装置100は、スマートフォン200で撮像して生成された動画像データを受信することができる。
近距離無線通信は、本実施形態では、BLUETOOTH(登録商標)のCLASS2を使用している。BLUETOOTH(登録商標)のCLASS2は、出力2.5mWの通信であり、画像形成装置100とスマートフォン200との距離が10m以内程度での通信が可能な近距離無線通信である。
制御部110は、RAMやROM等の記憶手段、及びMPU(Micro Processing Unit)又はCPU(Central Processing Unit)等のプロセッサーを備えている。前記プロセッサーは、制御手段の一例である。
また、制御部110は、各種I/O、USB(ユニバーサル・シリアル・バス)、バス、その他ハードウェア等のインターフェースに関連するコントローラの機能を備えている。制御部110は、画像形成装置100の全体を制御する。
制御部110は、さらに、フレーム抽出部111と、人物照合部112と、速度検出部113と、高速移動区間抽出部114と、静止画像出力部115と、周期設定部116とを備えている。人物照合部112は、人物登録部112aを備えている。
なお、前記プロセッサーは、前記ROM等に記憶されたプログラムを実行する。これにより、制御部110は、フレーム抽出部111、人物照合部112、速度検出部113、高速移動区間抽出部114、静止画像出力部115および周期設定部116として機能する。
フレーム抽出部111、人物照合部112、速度検出部113、高速移動区間抽出部114、静止画像出力部115および周期設定部116は、それぞれフレーム抽出装置、人物照合装置、速度検出装置、高速移動区間抽出装置、静止画像出力装置および周期設定装置の一例である。
画像形成部120は、紙その他のシート状の印刷媒体上に画像を形成する。操作表示部130は、操作部及び表示部を含むタッチパネルとして機能する。操作表示部130は、様々なメニュー画面を入力画面として前記表示部に表示し、さらに前記操作部を通じてユーザーの操作入力を受け付ける。
記憶部140は、非一時的な記録媒体であるハードディスクドライブやフラッシュメモリー等からなる記憶装置である。
記憶部140は、それぞれ制御部110が実行する処理に対応する制御プログラム及びデータを記憶する。記憶部140は、フレーム画像データを一時的に格納するためのフレームメモリ141と、静止画像格納領域142と、人物登録データ格納領域143とを有している。なお、格納領域とは、記憶部140におけるデータ記憶部の一部である。
フレームメモリ141、静止画像格納領域142および人物登録データ格納領域143が、1つの記憶装置におけるデータ記憶部の一部であることが考えられる。一方、静止画像格納領域142および人物登録データ格納領域143が、それぞれ個別の記憶装置であることも考えられる。
制御部110は、一実施形態に係る静止画像取得処理を実行可能である。図2におけるS10,S20,S30,・・・は、前記静止画像取得処理における複数のステップの識別符号である。
図2に示されるように、一実施形態に係る静止画像取得処理の内容を示すフローチャートである。前記静止画像取得処理のステップS10では、人物照合部112が、ユーザーによる操作表示部130の使用を伴う人物登録処理を実行する。前記人物登録処理では、人物登録部112aが、動画像データから静止画像データを抽出する際の条件の一つとして、抽出対象となる静止画像で検出されるべき人物の情報を登録することができる。
図3におけるS11,S12,S13,・・・は、前記静止画像取得処理における複数のステップの識別符号である。
図3に示されるように、一実施形態に係る人物登録処理の内容を示すフローチャートである。前記人物登録処理のステップS11では、人物登録部112aが、動画像データ取込処理を実行する。動画像データ取込処理では、人物登録部112aは、ユーザーによる操作表示部130の操作に従って、動画像データMDを選択する。さらに、人物登録部112aは、動画像データMDを、たとえば不図示のワイヤレス通信装置又は不図示の可搬記憶媒体を通じて、画像形成装置100に取り込むことが可能である。
ステップS12では、制御部110の人物照合部112が、人物検出処理を実行する。人物検出処理では、人物照合部112は、動画像データMDからフレーム画像データを生成する。さらに、人物照合部112は、フレーム画像データファイルによって表される静止画像中から人物の特徴を有する画像領域である人物検出領域を抽出する。
人物照合部112は、たとえばHOG(Histograms of Oriented Gradients)特徴量に基づいて、SVM(Support Vector Machine)などの機械学習を利用して人物検出領域を抽出することができる。
ステップS13では、人物照合部112は、人物分類処理を実行する。人物分類処理では、人物照合部112は、たとえば人物検出領域中の人物の画像が予め登録されている家族の画像のいずれに該当するかを判定することにより、人物検出領域中の人物を分類する。
例えば、家族の情報は、父親A、母親B、息子C及び娘Dの情報を含む。人物登録部112aは、ユーザーによる操作表示部130に対する操作に応じて、前記家族の情報を予め記憶部140に登録する。
人物照合部112は、予め設定されている画像サイズよりも大きなサイズの顔の画像を含むフレーム画像データを選択する。さらに、人物照合部112は、選択したフレーム画像データを、人物分類処理の分類結果に従って、複数のグループに分類して操作表示部130に表示させる。
さらに、人物照合部112は、ユーザーによる操作表示部130への入力操作に応じて、複数のグループのそれぞれが父親A、母親B、息子C及び娘Dあるいは他人の何れに該当するかの分類結果を修正可能である。
ユーザーは、たとえば息子Cのグループに父親Aの静止画像が含まれているといった誤認識を修正する操作を行うことができる。これにより、人物照合部112は、機械学習の精度を向上させることができる。
人物照合部112は、父親A、母親B、息子C及び娘Dをレコードとしてデータベースを生成する。データベースには、父親A、母親B、息子C及び娘Dの顔画像のHOG特徴量が登録される。
ステップS14では、人物照合部112は、服装選択処理を実行する。服装選択処理では、人物照合部112は、父親A、母親B、息子C及び娘Dのそれぞれが着ている服装についてのHOG特徴量をフレーム画像データから抽出する。これにより、人物照合部112は、父親A、母親B、息子C及び娘Dの顔画像のHOG特徴量に加えて、その服装画像のHOG特徴量を使用して人物を特定することができる。各人物は、同一の服装を着ることが多く、相違する人物は、相違する服装を着る傾向があるからである。
ステップS15では、人物照合部112の人物登録部112aは、データベース登録処理を実行する。データベース登録処理では、人物登録部112aは、父親A、母親B、息子C及び娘Dについてのデータベースを記憶部140の人物登録データ格納領域143に格納する。
データベースにおいて、父親A、母親B、息子C及び娘Dがレコードである。データベースには、顔画像それぞれのHOG特徴量、服装画像のHOG特徴量、顔画像の機械学習データ、服装画像の機械学習データに加え、身長その他のユーザー入力可能な属性データが含まれる。
さらに、人物登録部112aは、ユーザーによる操作に従って、デジタルカメラで撮像した静止画像データを使用して各人物の顔画像や服装画像のデータを登録することもできる。人物登録部112aは、このような画像データを使用して、顔画像のHOG特徴量及び服装画像のHOG特徴量を生成して、データベースに登録することができる。なお、本実施形態では、HOG特徴量は、画像認識における計算負荷の小さいYUV画像データに基づいて生成されているものとする。
図2に示されるように、ステップS20では、ユーザーは、操作表示部130を介して静止画像抽出モードを設定する。静止画像抽出モードには、たとえば人物の顔のアップ写真を抽出するモードおよび集合写真を抽出するモードといった各種のモードに加えて、躍動感のある連続写真が抽出される連続写真モードが含まれている。静止画像抽出モードの設定では、制御部110は、操作表示部130に各モードの選択を受け付ける画面(図示せず)を表示させる。
例えば、連続写真モードが選択された場合、周期設定部116は、周期設定入力を受け付ける操作表示画面(図示せず)を操作表示部130に表示させる。前記周期設定入力は、フレーム画像の時間的な間隔である周期を設定する入力操作である。周期は、静止画像としてのフレーム画像の抽出周期の設定に使用される。ただし、ユーザー入力がなされなかった場合には、初期設定として0.2秒が使用されるものとする。
ステップS30では、人物照合部112が、ユーザーによる操作表示部130の操作を通じて、人物を選択する。人物の選択では、人物照合部112は、操作表示部130に父親A、母親B、息子C及び娘Dの選択を受け付ける画面を表示させる。この例では、息子Cが選択されたものとする。
ステップS40では、フレーム抽出部111は、フレーム画像生成処理を実行する。フレーム抽出部111は、静止画像データ生成部とし機能する装置の一例である。フレーム画像生成処理では、フレーム抽出部111は、たとえば30fpsのフレームレートの動画像データMDから所定の周期のフレーム画像データを生成する。所定の周期は、たとえばユーザーによって予め設定される。例えば、初期設定の所定の周期が、0.2秒であることが考えられる。
図4は、一実施形態に係るフレーム画像データ生成処理の内容を示すデータフローダイアグラムである。図4には、上側にデータフローダイアグラムが示され、下側にGOP(Group of Pictures)が示されている。データフローダイアグラムは、動画像データMDからフレーム画像データが抽出され、抽出されたデータが変換および保存されるまでの流れを示している。フレーム画像データは、YUV画像データとして構成されている。フレーム画像データ生成処理は、動画像データMDから複数のフレーム画像データを抽出する処理であり、フレーム抽出部111によって実行される。
フレーム画像データ生成処理には、たとえばMPEG−4(ISO/IEC 14496)やH.264に規定される処理が含まれる。フレーム画像データ生成処理では、フレーム抽出部111は、Iフレーム(Intra−coded Frame)、Pフレーム(Predicted Frame)及びBフレーム(Bi−directional Predicted Frame)からフレーム画像データを生成する。
Iフレームは、フレーム間予測を用いずに符号化されるフレームである。Iフレームは、イントラフレームやキーフレームとも呼ばれる。Iフレームは、Pフレーム(Predicted Frame)およびBフレーム(Bi−directional Predicted Frame)とともにGOPを構成する。
Pフレームが、Iフレームとのフレーム間処理を施されることによって、フレーム画像データを生成することが可能である。Bフレームが、Iフレーム、Pフレーム及び他のBフレームとのフレーム間処理を施されることによって、フレーム画像データを生成することが可能である。
動画像データは、時系列順に配列されている複数のフレーム画像データから生成される。複数のフレーム画像データは、時系列の前後のフレーム間で近似していることが多い。フレーム間予測は、このような動画像データの性質を利用した処理である。フレーム間予測は、時系列的に前のフレーム画像から現在のフレーム画像を予測する処理である。
具体的には、フレーム間予測において、画素ブロック毎の移動が推定され、さらに、移動後のフレーム間での画素ブロックの差分が、DCT変換されるとともに量子化される。これにより、GOP単位での圧縮率が高まる。Pフレームは、動きベクトルを使用することによりIフレームから再現される。動きベクトルは、各画素ブロックの移動ベクトルである。
フレーム抽出部111は、Iフレームに対して逆離散コサイン変換(逆DCT変換とも呼ばれる。)を行うことによって、輝度データと色差データとを含むYUV画像データとしてのフレーム画像データを生成する。逆DCT変換は、たとえば8×8画素あるいは16×16の画素ブロック毎に実行される。フレーム抽出部111は、再現されたフレーム画像データをフレームメモリ141に格納する。
フレーム抽出部111は、Pフレーム及びBフレームに対して逆離散コサイン変換を行うことによって差分データを生成する。フレーム抽出部111は、差分データと動きベクトルとを使用してフレーム間処理を実行することによりフレーム画像データを生成する。動きベクトルは、動画像データMDのエンコード時に生成されるデータである。本処理は、MPEG−4やH.264に規定される通常の復号化処理である。
フレーム抽出部111は、制御部110のRAM(図示せず)上でPフレームおよびBフレームに基づくフレーム画像データ生成処理を実行する。フレーム抽出部111は、予め設定されている周期のフレーム画像データをフレームメモリ141に格納する。具体的には、動画像データMDのフレームレートが30fpsである場合、周期が0.2秒に設定されている。この場合、フレーム抽出部111は、6フレーム毎にフレーム画像データをフレームメモリ141に格納する。一方、フレーム抽出部111は、他のフレーム画像データを廃棄する。これにより、フレーム抽出部111は、フレームメモリ141の過剰な消費を低減させることができる。
フレーム抽出部111は、フレーム画像データをフレームメモリ141に格納する際に、一緒にフレーム画像データの生成で使用された動きベクトルを各フレーム画像データに紐づけて格納する。
ステップS50では、人物照合部112が、人物検出処理を実行する。人物検出処理では、人物照合部112は、フレームメモリ141に格納されている複数のフレーム画像データのそれぞれについてステップS30で選択された人物が含まれているか否かを判断する。
例えば、ステップS30で選択された人物が息子Cであることが考えられる。この場合、人物照合部112は、輝度データと色差データとを含むYUV画像データとしてのフレーム画像データから息子Cの検出を試みる。
人物照合部112は、たとえば周知のOpenCV(Open Source Computer Vision Library)を使用して人物の検出や特定を実行することができる。まず、人物照合部112は、フレーム画像データの中から人物を検出する。さらに、人物照合部112は、息子Cの顔画像のHOG特徴量を使用して検出された人物の顔が息子Cの顔であるか否かを判断する。
人物照合部112は、息子Cの顔であるか否かの判断の確度が低い場合に、息子Cの服装画像のHOG特徴量を使用して、人物の顔が息子Cの顔であるか否かを判断する。特に、息子Cが横方向から撮影されており、かつ、顔画像のサイズが小さい場合等に、服装画像のHOG特徴量を補助的に使用することができる。一般に、躍動感のある連続画像が撮影される場合、アップで顔画像を安定的に捉えることが難しいからである。
ステップS60では、制御部110の速度検出部113は、被写体である人物の移動速度を検出する。この例では、人物は息子Cである。速度検出部113は、時間的に連続している複数のフレーム画像データにおいて同一の被写体の画像が含まれる時間的な区間を特定する。
速度検出部113は、同一の被写体の画像、すなわち同一人物の画像を含む画像領域を構成する画素ブロックの動きベクトルを使用して被写体の画像の速度を推定することができる。息子Cの画像を含む画像領域を構成する画素ブロックは、息子Cの併進移動速度に対応する動きベクトルを有しているからである。
図5に示される例では、同一人物として息子Cが撮影されている9枚のフレーム画像データF1〜F9の画像が示されている。フレーム画像データF1〜F9は、静止している3本の樹木を背景として、息子Cが疾走している躍動感のある一連の連続画像を表している。
図6は、同一人物が表されている2枚のフレーム画像データF1,F2の内容を示す説明図である。図6における2枚のフレーム画像データF1,F2において、息子Cの画像は、図6に向かって右側に併進移動している。息子Cの画像の併進移動量は、2枚のフレーム画像データF1,F2のフレーム間の移動量である。併進移動量を周期で除することによって、併進移動速度を算出することができる。ただし、本実施形態では、併進移動速度は、30fpsを想定する動きベクトルから推定される。
ステップS70では、制御部110の高速移動区間抽出部114は、息子Cの画像の移動速度が予め設定されている閾値以上であるか否かを判断する。高速移動区間抽出部114は、息子Cの画像の移動速度が閾値以上である場合には、処理をステップS80に進め、息子Cの画像の移動速度が閾値未満である場合には、処理をステップS90に進める。
ステップS80では、高速移動区間抽出部114は、フレーム画像データグループ化処理を実行する。フレーム画像データグループ化処理は、2枚のフレーム画像データF1,F2の前後に所定の周期で時間的に連続し、息子Cの画像を含むフレーム画像データである。
図5は、フレーム画像データF1で息子Cの撮影が開始され、フレーム画像データF9まで息子Cの撮影が継続している例を示す。
高速移動区間抽出部114は、9枚のフレーム画像データF1〜F9をグループ化し、静止画像格納領域142に格納する。これにより、9枚のフレーム画像データF1〜F9は、一つの連続画像データファイルとしての管理および取り扱いが可能である。静止画像格納領域142には、9枚のフレーム画像データF1〜F9が、それぞれDCT変換されてJPEG静止画像データとして格納される。
なお、高速移動区間抽出部114は、連続静止画像データ抽出部の一例である。9枚のフレーム画像データF1〜F9は、連続静止画像データの一例である。
また、本実施形態では、被写体(息子C)の画像の移動速度が閾値以上である状態が、一つの連続画像データファイルにおいて一瞬でもよい。即ち、被写体の画像の移動速度が閾値以上である状態が、一つの連続画像データファイルにおいて1回生じていればよい。画像の移動速度が一つの連続画像データファイルの全体において閾値を超えている必要はない。ただし、高速移動区間抽出部114が、一つの連続画像データファイルの全区間において移動速度が閾値を超えていることを必要条件として判断することも考えられる。
制御部110は、ステップS40乃至ステップS80の処理を、複数のフレーム画像データについて、最終フレーム画像データが処理対象となるまで繰り返して実行する(ステップS90)。
ステップS100では、静止画像出力部115は、フレーム画像データ出力処理を実行する。フレーム画像データ出力処理では、静止画像出力部115は、一つの連続画像データファイルを操作表示部130に9枚のサムネイル画像として表示する。ここでは、一つの連続画像データファイルは、グループ化された9枚のフレーム画像データF1〜F9を含む。
なお、制御部110は、ユーザーによるサムネイル画像をタッチする操作に従って、9枚のフレーム画像データF1〜F9から任意のフレーム画像を処理対象として選択すること、及び、一括して全てのフレーム画像を処理対象として選択することもできる。
静止画像出力部115は、ユーザーの指示に応じて、選択されたフレーム画像データに基づいて画像形成部120を制御することにより、印刷媒体上に画像を形成する処理を、画像形成部120に実行させることができる。
画像形成部120により出力された印刷物は、躍動感のある連続写真としてアルバムなどに利用可能である。一方、静止画像出力部115は、ユーザーによる指示操作に応じて、通信インターフェース部150を介してスマートフォン200又は図示しないパーソナルコンピュータに連続画像データファイルを送信することもできる。
このように、本実施形態に係る画像形成装置100によれば、動画像データの特性である時間的な連続性を活かして、躍動感のある連続画像(連続写真)として、所定の周期で時間的に連続する複数の静止画像データ(フレーム画像データ)を抽出することができる。
本開示は、上記実施形態だけでなく、以下のような変形例でも実施することができる。
[変形例1]
上記実施形態では、躍動感のある連続画像として、被写体としての人物の画像の並進移動速度が閾値を超えたフレーム画像データが抽出されている。しかしながら、躍動感のある連続画像は、並進移動速度が速い画像に限定されない。
具体的には、たとえば図7に示されるように、被写体が遠近方向において近づいてくるようなシーンを示す画像も躍動感のある連続画像に含まれる。
図7に示される例では、検出対象としての人物が検出された領域のサイズが、検出領域Fr1のサイズから検出領域Fr2のサイズに変化している。ステップS70において、速度検出部113が、被写体の画像サイズの変化率が予め設定されている閾値以上であるか否かに基づいて判断することが考えられる。被写体の画像サイズの変化率は、単位時間あたりの縮小率または拡大率である。
Pフレーム又はBフレームにおいて、被写体としての人物の画像を構成する画素ブロックに紐づけられている動きベクトルは、検出対象としての人物が近づいてくる場合には発散方向の成分を多く有する。一方、動きベクトルは、検出対象としての人物が遠ざかる場合には収束方向の成分を多く有する。
並進移動、遠近移動及びその組合せは、動きベクトルの並進成分と、発散成分と、収束成分とを解析することによって検出することができる。速度検出部113は、被写体としての人物の画像の移動速度に伴う動きベクトルの並進成分、発散成分及び収束成分の少なくとも1つに基づいて躍動感のある連続画像であるか否かを判断することができる。
[変形例2]
上記実施形態では、躍動感のある連続画像として、被写体としての人物の画像の移動速度に基づいてフレーム画像データが抽出されている。しかしながら、躍動感のある連続画像は、移動速度が速い画像に限定されない。
具体的には、たとえば被写体としての人物が体操をしているような場合が考えられる。この場合、被写体としての人物の画像は、移動を伴わずに、人物の手足が動いている場合又は回転している場合の画像である。このような場合に、制御部110が、手足が動いている場合又は回転している人物の画像を含む連続画像を、躍動感のある連続画像として抽出してもよい。
このように、検出対象としての人物の手足が動いている場合又は回転している場合が考えられる。この場合、被写体としての人物の画像を構成する画素ブロックに紐づけられている動きベクトルが、ランダムな方向と大きさとを有することがある。この場合、速度検出部113は、被写体としての人物の画像を構成する画素ブロックの動きベクトルがランダムな方向と大きさとを有する場合に、その動きベクトルに対応する連続画像が躍動感のある連続画像であると判断することができる。
[変形例3]
上記実施形態では、躍動感のある連続画像であるか否かの判断に使用するデータとして、動きベクトルが使用されている。しかしながら、必ずしも動きベクトルが使用される必要はなく他のデータが採用されてもよい。
具体的には、速度検出部113は、たとえば各フレーム画像に存在する人物領域の位置又は大きさを参照し、人物の移動速度を検知するように構成されていてもよい。たとえば、速度検出部113は、時間的に隣接するフレーム画像間での人物領域の位置の差を移動距離として計算し、その距離が所定の閾値より大きければ、動画中の人物が高速で移動していると判断することができる。ここで、人物領域は、人物の画像を含む領域である。
速度検出部113は、さらに、人物領域の位置だけでなく人物領域の大きさを比較し、大きさの差が所定の閾値より大きい場合にも動画中の人物の画像が高速で移動していると判断してもよい。
上記実施形態における動きベクトルを使用する方法は、計算負荷が小さく処理を高速化することができるという利点を有している。一方、本変形例における方法は、躍動感のある連続画像であるか否かの判断のための処理の設計自由度が高いという利点を有している。
さらに、たとえば人物領域の位置の差及び人物領域の大きさの差の一方を主として利用し、他方を補完的に利用することによって、両者を組み合わせてもよい。このように、速度検出部113は、同一の被写体の画像の動きが予め設定されている条件を満たしているか否かを判断するものであればよい。
[変形例4]
上記実施形態では、画像形成装置に本発明が適用されている。しかしながら、本発明を、たとえばスマートフォンやパーソナルコンピュータといった画像処理装置として機能する装置に適用することもできる。

Claims (4)

  1. 動画像データから複数の静止画像データを生成する静止画像データ生成部と、
    生成された前記複数の静止画像データから、同一の被写体の画像を含むとともに所定の周期で時間的に連続している静止画像データであり、かつ、前記同一の被写体の画像の動きが予め設定されている条件を満たしている連続静止画像データを抽出する連続静止画像データ抽出部と、を備え
    前記静止画像データ生成部は、前記動画像データに含まれている動きベクトルを使用して前記動きベクトルが紐づけられている複数の画素ブロックの画像を再現して前記複数の静止画像データを生成し、
    前記連続静止画像データ抽出部は、前記被写体の画像を構成する少なくとも1つの前記画素ブロックに紐づけられている前記動きベクトルの並進成分、発散成分及び収束成分に基づいて、前記被写体の並進移動および遠近移動の組み合わせの動きが予め設定されている条件を満たしているか否かを判断する、画像処理装置。
  2. 請求項1に記載の画像処理装置であって、さらに、
    画面を表示し、ユーザーからの入力を受け付ける操作表示部と、
    前記所定の周期の設定である周期設定入力を受け付ける画面を前記操作表示部に表示させる周期設定部と、を備える画像処理装置。
  3. 請求項1に記載の画像処理装置と、
    印刷媒体に画像を形成する画像形成部と、を備える画像形成装置。
  4. 動画像データから複数の静止画像データを生成することと、
    前記生成された複数の静止画像データから、同一の被写体の画像を含むとともに所定の周期で時間的に連続している静止画像データであり、かつ、前記同一の被写体の画像の動きが予め設定されている条件を満たしている連続静止画像データを抽出することと、
    を含み、
    前記複数の静止画像データは、前記動画像データに含まれている動きベクトルを使用して前記動きベクトルが紐づけられている複数の画素ブロックの画像を再現することにより生成され、
    前記連続静止画像データが抽出される際に、前記被写体の画像を構成する少なくとも1つの前記画素ブロックに紐づけられている前記動きベクトルの並進成分、発散成分及び収束成分に基づいて、前記被写体の並進移動および遠近移動の組み合わせの動きが予め設定されている条件を満たしているか否かが判断される、画像処理方法。
JP2019501159A 2017-02-23 2018-01-29 画像処理装置、画像形成装置及び画像処理方法 Active JP6870728B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017032729 2017-02-23
JP2017032729 2017-02-23
PCT/JP2018/002735 WO2018155087A1 (ja) 2017-02-23 2018-01-29 画像処理装置、画像形成装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2018155087A1 JPWO2018155087A1 (ja) 2019-11-07
JP6870728B2 true JP6870728B2 (ja) 2021-05-12

Family

ID=63252626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019501159A Active JP6870728B2 (ja) 2017-02-23 2018-01-29 画像処理装置、画像形成装置及び画像処理方法

Country Status (2)

Country Link
JP (1) JP6870728B2 (ja)
WO (1) WO2018155087A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4240098B2 (ja) * 2006-09-26 2009-03-18 カシオ計算機株式会社 画像処理装置及び画像処理方法
JP2008167220A (ja) * 2006-12-28 2008-07-17 Canon Inc 画像処理装置及び方法、並びにプログラム及び記録媒体
WO2009122720A1 (ja) * 2008-04-02 2009-10-08 パナソニック株式会社 表示制御装置、撮像装置および印刷装置
JP5359343B2 (ja) * 2009-02-16 2013-12-04 株式会社ニコン 電子カメラ
JP6512897B2 (ja) * 2015-03-30 2019-05-15 キヤノン株式会社 ズーム制御装置、ズーム制御装置の制御方法

Also Published As

Publication number Publication date
WO2018155087A1 (ja) 2018-08-30
JPWO2018155087A1 (ja) 2019-11-07

Similar Documents

Publication Publication Date Title
JP7317919B2 (ja) 外観検索のシステムおよび方法
KR102122348B1 (ko) 얼굴 생체 내 검출 방법 및 장치
JP4775306B2 (ja) 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
US8675065B2 (en) Video monitoring system
US10582211B2 (en) Neural network to optimize video stabilization parameters
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
US20120106837A1 (en) Foreground background separation in a scene with unstable textures
TW201701187A (zh) 手勢檢測識別方法及系統
US9805267B2 (en) Video processing system with photo generation and methods for use therewith
KR20140045897A (ko) 시각적 이미지 매칭을 기반으로 한 미디어 스트림 식별 장치 및 방법
US10657407B2 (en) Image processing apparatus, image processing method, and recording medium
TWI521473B (zh) 影像分析裝置、方法及電腦可讀取媒體
CN110381247B (zh) 摄像装置以及摄像装置的控制方法
US20120237089A1 (en) Image processing apparatus and image processing method
JP5156982B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP6870728B2 (ja) 画像処理装置、画像形成装置及び画像処理方法
JP7211373B2 (ja) 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム
JP6737247B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6768222B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6756311B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6768223B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6624106B2 (ja) 画像読取装置、画像形成システム、画像読取方法及び画像読取プログラム
JP6778398B2 (ja) 画像形成装置、画像形成方法及び画像形成プログラム
JP6841181B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Jetsiktat et al. A comparison study of image descriptors on low-resolution face image verification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210329

R150 Certificate of patent or registration of utility model

Ref document number: 6870728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150