JP7370769B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7370769B2
JP7370769B2 JP2019158057A JP2019158057A JP7370769B2 JP 7370769 B2 JP7370769 B2 JP 7370769B2 JP 2019158057 A JP2019158057 A JP 2019158057A JP 2019158057 A JP2019158057 A JP 2019158057A JP 7370769 B2 JP7370769 B2 JP 7370769B2
Authority
JP
Japan
Prior art keywords
image
background image
captured
background
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019158057A
Other languages
English (en)
Other versions
JP2021036647A (ja
Inventor
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019158057A priority Critical patent/JP7370769B2/ja
Publication of JP2021036647A publication Critical patent/JP2021036647A/ja
Application granted granted Critical
Publication of JP7370769B2 publication Critical patent/JP7370769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理技術に関する。
監視目的とした撮像装置の設置が広まる一方で、撮像装置により撮像された画像に映る人物のプライバシーを保護する重要性が高まっている。特許文献1では、入力画像と背景画像とを比較することで動体領域を抽出し、抽出した動体領域を所定のパターンに変換することで前景マスク画像を生成し、当該前景マスク画像を背景画像に重畳することで出力画像を生成する旨の技術が記載されている。
一般に、撮像画像に基づいて背景画像を生成する場合、椅子に座るなどして撮像画像上の人物が長時間静止すると、時間の経過と共に当該人物の画像が背景画像に含まれてしまうことがある。当該人物が含まれる背景画像と当該人物が含まれる撮像画像とを比較しても当該人物の領域が動体領域として抽出されず、当該人物の領域に対応する前景マスク画像が生成されなくなる。そして、当該人物が含まれる背景画像に重畳する前景マスク画像が生成されていないため、結果的に生成される出力画像において当該人物のプライバシーを保護できなくなってしまう。この課題を解決するために特許文献1では、次のような内容が開示されている。すなわち、最初に生成された背景画像である初期背景画像において人物が静止すると考えられる領域(抑制領域)を指定し、初期背景画像の抑制領域の画像を背景マスク画像とし、新たに生成された背景画像に当該背景マスク画像を重畳して出力画像を生成する。
特開2018-148368号公報
しかしながら特許文献1では、初期背景画像における抑制領域の画像に人物が含まれず、入力画像上の当該抑制領域に対応する領域の画像に人物が含まれる場合、初期背景画像上の人物が含まれない抑制領域の画像が重畳された出力画像が生成される。すなわち、特許文献1では、プライバシーの保護はできるものの、撮像画像における状況を反映した出力画像が生成されない。
そこで、本発明は、プライバシーの保護を行いつつ、撮像画像における状況を反映した出力画像を生成する技術の提供を目的としている。
上記課題を解決するために、本発明に係る画像処理装置は、例えば、以下の構成を備え
る。すなわち、撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得手段と、前記取得手段により取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、当該背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成手段と、前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出手段と、前記抽出手段により抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成手段とを有し、前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得手段により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成する
本発明によれば、プライバシーの保護を行いつつ、撮像画像における状況を反映した出力画像を生成することができる。
システム構成の一例を示す図である。 出力画像を生成する画像処理の機能ブロックを示す図である。 背景画像を生成する画像処理を説明するための図である。 背景画像を生成する画像処理の流れを示すフローチャートである。 出力画像を生成する画像処理の流れを示すフローチャートである。 出力画像を生成する画像処理の機能ブロックを示す図である。 各装置のハードウェア構成を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。なお、本実施形態では、画像処理装置100と撮像装置110はネットワーク140を介して接続されるが、画像処理装置100および撮像装置110は単一の筐体に設けられていてもよい。
撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した撮像画像の画像データと、撮像画像を撮像した撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
記録装置120は、撮像装置110が撮像した撮像画像の画像データと、撮像画像を撮像した撮像時刻の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(撮像画像、識別情報など)を画像処理装置100へ送信する。
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100の画像処理の結果や、撮像装置110が撮像した撮像画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した撮像画像や、後述する画像処理による結果等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。
なお、画像処理装置100の画像処理の結果や、撮像装置110により撮像された撮像画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、本実施形態の場合、図7を参照して後述するROM(Read Only Memory)720とCPU(Central Processing Unit)700とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行することにより実現される。
通信部200は、図7を参照して後述するI/F(Interface)740によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した撮像画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンド、または、撮像画像を送信するよう要求する送信要求であって送信対象となる撮像画像の撮像時刻の指定を含む送信要求のコマンドなどである。送信要求のコマンドを受け取った撮像装置110は、送信要求に含まれる撮像時刻に対応する撮像画像の画像データを画像処理装置100に送信する。
記憶部201は、図7を参照して後述するRAM(Random Access Memory)710やHDD(Hard Disk Drive)730等によって実現でき、例えば、通信部200が取得した撮像画像を記憶(保持)する。
操作受付部202は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。例えば、操作受付部202は、背景画像上の部分領域であって撮像画像に基づく背景画像の生成(更新)が実行されない部分領域を指定する操作を受け付ける。
背景管理部203は、撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる複数の候補背景画像を記憶(保持)する。また、操作受付部202が候補背景画像を指定するユーザ操作を受け付けた場合、背景管理部203は、当該候補背景画像の輝度を変換させることで当該候補背景画像から複数の候補背景画像を生成および保持するようにしてもよい。また、操作受付部202が複数の候補背景画像を指定するユーザ操作を受け付けた場合、背景管理部203は、当該複数の候補背景画像を保持するようにしてもよい。なお、候補背景画像は、隠蔽対象とする特定の物体(人物)が含まれない画像であるものとする。
設定部204は、撮像画像に基づく背景画像の生成(更新)が行われない部分領域を背景画像に対して設定する。本実施形態における設定部204は、操作受付部202が受け付けたユーザによる部分領域を指定する操作に基づき、部分領域を背景画像に対して設定する。
選択部205は、現在処理対象とする撮像画像の輝度に基づき、背景管理部203が保持する複数の候補背景画像のうち背景画像の生成に用いる候補背景画像を選択(取得)する。本実施形態に係る選択部205は、例えば、次のような処理を実行することで候補背景画像を選択(取得)する。すなわち、選択部205は、候補背景画像の各画素の輝度値の平均値を算出する処理を複数の候補背景画像の各々について実行する。更に、選択部205は、現在処理対象とする撮像画像の各画素の輝度値の平均値を算出する。そして、選択部205は、処理対象の撮像画像の輝度値の平均値と、候補背景画像の輝度値の平均値の各々とを比較し、複数の候補背景画像から、当該撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を選択(取得)する。すなわち、選択部205は、複数の候補背景画像から現在処理対象とする撮像画像の状況に近しい候補背景画像を選択(取得)する。
背景生成部206は、選択部205により取得された候補背景画像を用いて背景画像における部分領域の画像を生成し、背景画像における当該部分領域以外の領域の画像を撮像画像に基づき生成する第1生成処理を実行する。また、背景生成部206は、選択部205により取得された候補背景画像を背景画像とする第2生成処理を実行する。すなわち、第2生成処理は、選択部205により取得された候補背景画像を最新の背景画像とする処理である。なお、背景生成部206の詳細な説明については後述する。
抽出部207は、背景生成部206における第1生成処理または第2生成処理により生成された背景画像を用いて現在処理対象とする撮像画像から前景物体の領域を抽出する。具体的には、本実施形態に係る抽出部207は、処理対象とする撮像画像と、背景生成部206における第1生成処理または第2生成処理により生成された背景画像とを比較することで(背景差分法)、処理対象とする撮像画像から前景物体の領域を抽出する。
なお、本実施形態に係る抽出部207による前景物体の領域を抽出する方法として、次のような処理が実行される。すなわち、抽出部207は、生成された背景画像に対する差分の領域を示す前景領域を「1」とし、その他の領域を「0」とする2値画像を生成する。このとき、抽出部207は、背景画像の各画素と処理対象とする撮像画像の各画素とで差分値を算出し、算出した差分値が閾値以上の画素については前景領域を表す「1」を設定し、閾値未満の場合は「0」を設定することで、2値画像を生成する。
合成部208は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像を生成し、当該マスク画像と、所定の画像とを合成した出力画像を生成する。本実施形態に係る合成部208は、例えば、生成したマスク画像と、選択部205により取得された候補背景画像とを合成する。また、合成部208は、例えば、生成したマスク画像と、第1生成処理または第2生成処理により生成された背景画像とを合成するようにしてもよい。
なお、合成部208による前景物体の領域を抽象化(Anonymization)する処理として、合成部208は、例えば、次のような処理を実行する。すなわち、合成部208は、撮像画像から抽出した前景物体の領域を、任意の色(RGB値)で塗りつぶすことで抽象化(Anonymization)したマスク画像を生成する。なお、前景物体の領域を抽象化(Anonymization)したマスク画像としては、例えば、当該領域に対しモザイク処理を施したモザイク画像、当該領域にぼかし処理を施したぼかし画像などであってもよい。
出力制御部209は、合成部208により生成された出力画像を外部装置(記録装置120、ディスプレイ130等)へ出力する。このとき、出力制御部209は、例えば、合成部208により生成された出力画像をディスプレイ130に表示させる。
次に、図3および図4を参照して、本実施形態に係る画像処理装置100のプライバシー保護がなされた出力画像を生成する画像処理についてより詳細に説明する。
図3は本実施形態に係る画像処理を説明するための図である。まず、図3(a)~図3(c)を参照して、出力画像を生成する処理について説明する。図3(a)に示す撮像画像300aは、撮像装置110により撮像された撮像画像であり、人物301がベッドに横になっている。また、図3(b)に示す背景画像300bは、隠蔽対象とする人物が含まれていない背景画像を示す。本実施形態に係る抽出部207は、撮像画像300aと背景画像300bとを比較することで、撮像画像300aに含まれる人物301の領域を前景物体の領域として抽出する。そして、合成部208は、抽出した前景物体の領域を抽象化(Anonymization)したマスク画像302と背景画像300bと合成することで出力画像300cを生成する。
従来技術として、取得される複数の撮像画像に基づき背景画像を生成する処理がある。例えば、直近のNフレーム(Nは整数)の撮像画像の各画素値の平均値を算出することで背景画像を生成する技術がある。また、撮像画像からフレーム間差分等により動体を検出し、当該撮像画像における当該動体以外の領域の画像を用いて背景画像を生成(更新)する技術がある。これらの技術では、例えば、撮像画像300aに映るベッドに横たわる人物のように一定時間にわたって静止し続ける人物がいる場合、当該人物の画像が背景化してしまい、背景画像300dのような背景画像が生成されることがある。このとき、撮像画像300aと背景画像300dとを比較した場合、人物301が前景領域として抽出されないため、人物301に対応するマスク画像が生成されなくなる。すなわち背景画像300dと合成されるマスク画像が生成されないため、結果的に生成される出力画像では人物301が表示されてしまいプライバシーの保護がなされなくなる。
そこで、本実施形態に係る画像処理において、上述した第1生成処理または第2生成処理により背景画像を生成する処理を実行する。ここではまず第1生成処理について説明する。
本実施形態において、出力制御部209は、例えば、最初に生成された(設定された)背景画像をディスプレイ130に表示させる。そして、操作受付部202は、表示された背景画像において人物が一定時間にわたり静止すると考えられる領域を指定するユーザ操作を受け付け、設定部204は、操作受付部202が受け付けた当該ユーザ操作に基づき、背景画像に対し部分領域を設定する。図3(e)に示す背景画像300eには設定部204により設定された部分領域303が示されている。
第1生成処理において、背景画像300eにおける部分領域303以外の領域の画像については随時入力される撮像画像に基づき生成(更新)される。例えば、背景画像300eにおける部分領域303以外の領域の画像は、直近Nフレームの撮像画像における当該領域に対応する画像の各画素の平均値を算出することで生成(更新)される。一方、第1生成処理において、背景画像300eにおける部分領域の画像については選択部205により現在処理対象の撮像画像の状況に近しいとして取得された候補背景画像を用いて生成(更新)される。例えば、背景画像300eにおける部分領域の画像は、選択部205により取得された候補背景画像における当該部分領域に対応する領域の画像で置き換えられる。
ここで、第1生成処理により背景画像を生成する効果について説明する。まず、撮像画像300aが撮像されたのち、撮像対象の領域の照明がオンからオフに切り替わったことに伴い、図3(f)に示すような撮像対象の領域が暗くなった撮像画像300fが撮像された場合を想定する。このとき上述した第1生成処理ではなく、背景画像における部分領域303以外の領域の画像は撮像画像に基づき生成(更新)され、部分領域303の画像は生成(更新)しない処理を実行した場合、次のような課題が生じる。すなわち、撮像画像300fが撮像されて以降、照明がオフの状態が続いて撮像画像300fと同様の画像が撮像され続けると、部分領域303以外の領域の画像は撮像画像に基づき生成(更新)されるため図3(g)に示すような背景画像300gが生成される。このとき、部分領域303の画像は撮像画像に基づき生成(更新)されないため、背景画像300gに示す部分領域303内の画像は背景画像300eから変化していない。この場合、抽出部207は、背景画像300gと撮像画像300fとを比較し、撮像画像300fにおける部分領域303に対応する領域を前景物体の領域として抽出してしまう。その結果、合成部208は、図3(h)に示すような、出力画像300hが生成されることになり、人物が存在しているのか否か判別ができない出力画像が生成されてしまう。
しかしながら、本実施形態に係る第1生成処理では、上述したように、背景画像300eにおける部分領域303の画像について選択部205により取得された候補背景画像を用いて生成(更新)される。具体的には、まず、予め保持した複数の候補背景画像のうち、撮像画像300fの輝度に近しい候補背景画像300kが取得される。そして、選択された候補背景画像300kにおける部分領域303に対応する領域の画像を用いて背景画像300e上の部分領域303の画像が更新(生成)されることで、図3(i)に示す背景画像300iが生成される。この場合、抽出部207は、撮像画像300fと背景画像300iとを比較することで、撮像画像300fにおける人物301を前景物体の領域として抽出することができる。そして、合成部308は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像305を生成する。さらに、合成部308は、生成したマスク画像305と背景画像300iとを合成することで図3(j)に示すような出力画像300jを生成することができる。出力画像300jでは、撮像画像に映っていた人物が誰であるかを特定できないようプライバシーを保護しつつ、人物が存在していることがわかる、すなわち撮像画像の状況が反映されている。
以上説明したように、第1生成処理により生成された背景画像を用いて撮像画像から前景物体の領域を抽出することで、撮像画像に映っていた人物のプライバシーを保護しつつ、撮像画像の状況が反映された出力画像を生成することができる。
続いて、第2生成処理について説明する。第2生成処理は、部分領域を考慮せず、選択部205により取得された候補背景画像を最新の背景画像とする処理である。例えば、現在の背景画像が図3(b)に示す背景画像300bであり、現在処理対象とする撮像画像が撮像画像300aから撮像画像300fに移ったとする。このとき、選択部205により現在処理対象とする撮像画像の輝度に近い候補背景画像として複数の候補背景画像から候補背景画像300kが取得される。そして、第2生成処理では、選択部205により取得された候補背景画像300kを最新の背景画像とする。この場合、抽出部207は、撮像画像300fと現在の背景画像である候補背景画像300kとを比較することで、撮像画像300fにおける人物301を前景物体の領域として抽出することができる。そして、合成部308は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像305を生成する。さらに、合成部308は、生成したマスク画像305と候補背景画像300kとを合成することで図3(j)に示すような出力画像300jを生成することができる。
なお、本実施形態における背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象とする撮像画像の輝度値の平均値との差分に基づき、第1生成処理または第2生成処理を実行する。具体的には、背景生成部206は、現在の背景画像の各画像の輝度値の平均値と、現在処理対象とする撮像画像の各画素の輝度値の平均値との差分値を算出する。そして、背景生成部206は、例えば、当該差分値が第1閾値以上第2閾値未満である場合、第1生成処理を実行し、当該差分値が第2閾値以上である場合、第2生成処理を実行する。なお、第2閾値は第1閾値よりも大きい値である。第1生成処理では、背景画像における部分領域以外の領域の画像は随時入力される複数の撮像画像に基づき生成(更新)されるものとした。しかしながら、撮像対象の領域の明るさが大きく変化するなどして、現在処理対象とする撮像画像と、現在の背景画像とで輝度値が大きく異なる場合、現在の撮像画像における輝度が最新の背景画像に反映されるまで時間を要することがある。そこで、本実施形態における背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象の撮像画像の輝度値の平均値との差分が第1閾値より大きい第2閾値以上である場合、第2生成処理を実行するようにする。このようにすることで、現在の撮像画像の状況に近しい背景画像を短時間で生成することが可能となる。
次に、図4および図5に示すフローを参照して、本実施形態に係る画像処理装置100による画像処理について更に詳細に説明する。図4に示すフローの処理を実行することで、第1生成処理または第2生成処理を実行することができる。また、図5に示すフローの処理を実行することで、生成された背景画像を用いて出力画像を生成することができる。
なお、図4および図5に示すフローの処理は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行して実現される図2に示す機能ブロックにより実行されるものとする。また、図4に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。
まず、図4に示すフローの処理について説明する。S401にて、背景生成部206は、初期の背景画像である初期背景画像を取得する。初期背景画像としては、例えば、出力制御部207によりディスプレイ130に表示された複数の撮像画像のうち、ユーザにより選択された撮像画像を初期背景画像としてもよい。また、図4に示すフローの処理に先立って、背景生成部206は、隠蔽対象とする特定の物体(人物等)がいない状態で撮像された複数の撮像画像に基づき、初期背景画像を生成してもよい。このとき、背景生成部206は、例えば、複数の撮像画像の各画素値の平均を算出することで、初期背景画像を生成するようにしてもよい。
次に、S402にて、通信部200は、処理対象とする撮像画像を取得する。なお、本実施形態において、通信部200は、ネットワーク140を介して撮像装置110から処理対象とする撮像画像を取得するが、例えば、記録装置120から処理対象とする撮像画像を取得してもよい。
次に、S403にて、選択部205は、撮像画像の輝度値の平均値を算出する。具体的には、選択部205は、例えば、現在処理対象とする撮像画像の各画素の輝度値の平均値を算出する。
次に、S404にて、選択部205は、現在処理対象とする撮像画像の輝度に基づき、背景管理部202が保持する複数の候補背景画像のうち背景画像の生成に用いる候補背景画像を取得する。具体的には、選択部205は、候補背景画像の各画素の輝度値の平均値を算出する処理を複数の候補背景画像の各々について実行する。そして、選択部205は、処理対象の撮像画像の輝度値の平均値と、候補背景画像の輝度値の平均値の各々とを比較し、複数の候補背景画像から、当該撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する。すなわち、選択部205は、複数の候補背景画像から現在処理対象とする撮像画像の状況に近しい候補背景画像を取得する。なお、予め候補背景画像の各々の輝度値の平均値を算出しておき、背景管理部203は、候補背景画像と、当該候補背景画像の輝度値の平均値とを関連付けて保持しておくようにしてもよい。そして、選択部205は、処理対象の撮像画像の平均値と、背景管理部203が保持する輝度値であって候補背景画像の輝度値の平均値の各々とを比較し、撮像画像の輝度値の平均値に最も近い候補背景画像を取得するようにしてもよい。
次に、S405にて、背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象とする撮像画像の輝度値の平均値との差分値を算出する。具体的には、背景生成部206は、現在の背景画像の各画像の輝度値の平均値と、現在処理対象とする撮像画像の各画素の輝度値の平均値との差分値を算出する。図4に示すフローの処理が開始して初めてS405の処理が実行される場合、背景生成部206は、初期背景画像の輝度値の平均値と、処理対象の撮像画像の輝度値の平均値との差分値を算出する。
S406にて、背景生成部206は、S405にて算出された輝度値の差分値が第1閾値以上であるかを判定する。S405にて算出された輝度値の差分値が第1閾値以上である場合(S406にてYes)、S407に遷移し、S405にて算出された輝度値の差分値が第1閾値未満である場合(S406にてNo)、S410に遷移する。S407にて、背景生成部206は、S405にて算出された輝度値の差分値が第2閾値以上であるかを判定する。S405にて算出された輝度値の差分値が第2閾値以上である場合(S407にてYes)、S408に遷移し、S407にて算出された輝度値の差分値が第2閾値未満である場合(S407にてNo)、S409に遷移する。
S408にて、背景生成部206は、選択部205により取得された候補背景画像を背景画像とする第2生成処理を実行する。すなわち、第2生成処理は、選択部205により取得された候補背景画像を最新の背景画像とする処理である。背景管理部203は、第2生成処理により生成された背景画像を最新の背景画像として保持する。
S409にて、背景生成部206は、選択部205により取得された候補背景画像を用いて背景画像における部分領域の画像を生成し、背景画像における当該部分領域以外の領域の画像を撮像画像に基づき生成する第1生成処理を実行する。背景管理部203は、第1生成処理により生成された背景画像を最新の背景画像として保持する。
S410にて、出力画像を生成する処理が実行される。ここで、図5に示すフローを参照して、出力画像を生成する処理について更に詳細に説明する。図5に示すS501にて、抽出部207は、現在の背景画像を用いて現在処理対象とする撮像画像から前景物体の領域を抽出する。次に、S502にて、合成部208は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像を生成する。なお、本実施形態に係る合成部208は、撮像画像から抽出した前景物体の領域を、任意の色(RGB値)で塗りつぶすことで抽象化(Anonymization)したマスク画像を生成する。なお、前景物体の領域を抽象化(Anonymization)したマスク画像としては、例えば、当該領域に対しモザイク処理を施したモザイク画像、当該領域にぼかし処理を施したぼかし画像などであってもよい。次に、S503にて、合成部208は、S502にて生成したマスク画像と、所定の画像とを合成した出力画像を生成する。なお、合成部208は、例えば、S502にて生成したマスク画像と、S404にて選択部205により取得された候補背景画像とを合成することで出力画像を生成する。なお、合成部208は、例えば、S502にて生成したマスク画像と、最新の背景画像(第1生成処理により生成された背景画像、第2生成処理により生成された背景画像、または初期背景画像)とを合成することで出力画像を生成してもよい。
S503の処理の後、S411へ遷移し、S411にて、出力制御部209は、S410にて生成された出力画像を外部装置(ディスプレイ130、記録装置120等)へ出力する。なお、出力制御部209は、S410にて生成された出力画像をディスプレイ130に表示させてもよい。次に、S412にて、終了の指示がない場合(S412にてNo)、S402に遷移し、S402にて、通信部200は、次の処理対象とする撮像画像を取得する。一方、S412にて、終了の指示がある場合(S412にてYes)、図4に示す処理を終了する。
なお、本実施形態において、S406にて、背景生成部206は、S405にて算出された輝度値の差分値が第1閾値以上であるかを判定し、第1閾値未満である場合、S410へ遷移するようにしたが、これに限らない。背景生成部206は、例えば、処理対象の撮像画像の輝度値の平均値と、現在の背景画像の輝度値の平均値との差分値が所定の閾値以上である場合、第1生成処理を実行し、当該差分値が所定の閾値未満である場合、次のような処理を実行してもよい。すなわち、背景生成部206は、算出した輝度値の平均値の差分値が所定の閾値未満である場合、取得した候補背景画像を用いず、撮像画像を用いて背景画像を生成するようにしてもよい。この場合、背景生成部206は、例えば、直近Nフレーム(Nは整数)の複数の撮像画像を用いて、当該複数の撮像画像各々の画素値の平均をとることで、背景画像を生成してもよい。なお、このとき、背景生成部206は、撮像された撮像画像を用いて背景画像を生成する処理であれば公知の技術を用いてもよい。
以上説明したように、本実施形態に係る画像処理装置は、第1生成処理として次のような処理を実行する。すなわち、画像処理装置は、第1生成処理において、背景画像における人物が長時間静止すると考えられる部分領域の画像は候補背景画像を用いて生成(更新)し、当該背景画像における部分領域以外の領域の画像は撮像画像を用いて生成(更新)する。また、本実施形態に係る画像処理装置は、第2生成処理において、選択部205により取得された候補背景画像を最新の背景画像とする。このようにすることで、人物が長時間静止してしまう場合であっても、当該人物に対応する前景領域を適切に抽出することができ、結果的に現在の撮像画像の状況を適切に反映しつつ当該人物のプライバシーを保護した出力画像を生成することができる。
(実施形態2)
実施形態1において、設定部204は、背景画像において人物が長時間静止すると考えられる領域としてユーザが指定した領域を部分領域として設定した。本実施形態に係る設定部204は、特定の物体を検出する検出結果に基づき、背景画像における部分領域を設定する。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
以下、図6を参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図6に示す各機能は、本実施形態の場合、図7を参照して後述するROM720とCPU700とを用いて、次のようにして実現されるものとする。図6に示す各機能は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行することにより実現される。
図6に示すように、本実施形態に係る画像処理装置100は、図2に示す機能に加えて、更に検出部600を有する。本実施形態に係る検出部600は、背景画像または撮像画像から特定物体を検出する。特定の物体としては、例えば、椅子やベッドなど人物が長時間静止する(位置する)と考えられる物体である。本実施形態に係る検出部600は、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、背景画像または撮像画像に含まれる特定の物体の検出を行う。なお、パターンマッチングに限らず特定の物体を検出する方法として他の公知技術を用いてもよい。検出部600は、例えば、撮像画像から特定物体としてベッドを検出し、当該ベッドの位置およびサイズの情報を取得する。具体的には、検出部600は、特定物体としてベッドを検出した場合に、当該ベッドを囲う外接矩形を設定し、当該外接矩形の左上の頂点の座標と、当該外接矩形の横のサイズおよび縦のサイズを取得する。なお、撮像画像および背景画像の画像サイズは同じものであるとし、撮像画像上および背景画像上の位置を示す座標は、撮像画像および背景画像それぞれの左上の端点を原点としてXY座標であるものとする。
そして、本実施形態に係る設定部204は、検出部600により検出された特定物体の位置およびサイズに基づき、背景画像に対し部分領域を設定する。設定部204は、例えば、検出部600により特定物体としてベッドが検出された場合、当該ベッドの外接矩形を部分領域として設定する。なお、設定部204は、検出部600により検出された特定物体の外接矩形を所定の倍率だけ拡張した領域を部分領域として設定してもよい。
以上説明したように、本実施形態に係る画像処理装置100では、検出部600により検出された特定物体の位置に基づき、背景画像に対し部分領域の設定を行うため、部分領域の設定を行うユーザの負荷を低減することができる。
(その他の実施形態)
次に図7を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
本実施形態における画像処理装置100は、CPU700と、RAM710と、ROM720、HDD730と、I/F740と、を有している。
CPU700は画像処理装置100を統括制御する中央処理装置である。RAM710は、CPU700が実行するコンピュータプログラムを一時的に記憶する。また、RAM710は、CPU700が処理を実行する際に用いるワークエリアを提供する。また、RAM710は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM720は、CPU700が画像処理装置100を制御するためのプログラムなどを記憶する。HDD730は、画像データ等を記録する記憶装置である。
I/F740は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU700が処理を実行する例について説明するが、CPU700の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM720からプログラムコードを読み出してRAM710に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図7に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。
100 画像処理装置
110 撮像装置
200 通信部
201 記憶部
202 操作受付部
203 背景管理部
204 設定部
205 選択部
206 背景生成部
207 抽出部
208 合成部
209 出力制御部
600 検出部

Claims (12)

  1. 撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得手段と、
    前記取得手段により取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、当該背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成手段と、
    前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出手段と、
    前記抽出手段により抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成手段とを有し、
    前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得手段により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成することを特徴とする画像処理装置。
  2. 前記背景画像の少なくとも一部として用いられる複数の候補背景画像を保持する保持手段を更に有し、
    前記取得手段は、前記撮像手段により撮像された撮像画像の輝度値に基づき、前記保持手段が保持する複数の候補背景画像から前記背景画像の生成に用いる候補背景画像を取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記取得手段は、前記撮像画像の輝度値と、前記複数の候補背景画像の各々の輝度値とに基づき、前記背景画像の生成に用いる候補背景画像を取得することを特徴とする請求項2に記載の画像処理装置。
  4. 前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値に基づき、当該差分値が前記第1閾値以上第2閾値未満である場合、前記第1生成処理を実行し、または当該差分値が前記第2閾値以上である場合、前記部分領域および前記部分領域以外の領域において、前記取得手段により取得された候補背景画像を前記背景画像とする第2生成処理を実行することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  5. 前記背景画像に対し前記部分領域を設定する設定手段を更に有することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  6. 前記設定手段は、ユーザにより領域を指定する操作に基づき、前記背景画像に対し前記部分領域を設定することを特徴とする請求項に記載の画像処理装置。
  7. 前記撮像画像から特定の物体を検出する検出手段を更に有し、
    前記設定手段は、前記検出手段により検出された特定の物体の位置に基づき、前記背景画像に対し前記部分領域を設定することを特徴とする請求項に記載の画像処理装置。
  8. 前記合成手段は、前記マスク画像と、前記取得手段により取得された候補背景画像とを合成した出力画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  9. 前記合成手段は、前記マスク画像と、前記生成手段により生成された背景画像とを合成した出力画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  10. 前記合成手段により生成された出力画像を表示手段に表示させる出力制御手段を更に有することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  11. 撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得する取得工程と、
    前記取得工程において取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、前記背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成工程と、
    前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出工程と、
    前記抽出工程において抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成工程とを有し、
    前記生成工程は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得工程により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成することを特徴とする画像処理方法。
  12. コンピュータを、請求項1乃至10のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。
JP2019158057A 2019-08-30 2019-08-30 画像処理装置、画像処理方法およびプログラム Active JP7370769B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019158057A JP7370769B2 (ja) 2019-08-30 2019-08-30 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158057A JP7370769B2 (ja) 2019-08-30 2019-08-30 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021036647A JP2021036647A (ja) 2021-03-04
JP7370769B2 true JP7370769B2 (ja) 2023-10-30

Family

ID=74716734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158057A Active JP7370769B2 (ja) 2019-08-30 2019-08-30 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7370769B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285244A (ja) 1999-03-31 2000-10-13 Nri & Ncc Co Ltd 画像処理装置
JP2001333417A (ja) 2000-05-19 2001-11-30 Fujitsu General Ltd カメラ監視装置
JP2008191884A (ja) 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2016194778A (ja) 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
JP2018078540A (ja) 2016-11-02 2018-05-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018148368A (ja) 2017-03-03 2018-09-20 キヤノン株式会社 画像生成装置およびその制御方法
JP2019016033A (ja) 2017-07-04 2019-01-31 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285244A (ja) 1999-03-31 2000-10-13 Nri & Ncc Co Ltd 画像処理装置
JP2001333417A (ja) 2000-05-19 2001-11-30 Fujitsu General Ltd カメラ監視装置
JP2008191884A (ja) 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2016194778A (ja) 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
JP2018078540A (ja) 2016-11-02 2018-05-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018148368A (ja) 2017-03-03 2018-09-20 キヤノン株式会社 画像生成装置およびその制御方法
JP2019016033A (ja) 2017-07-04 2019-01-31 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2021036647A (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
US9247132B2 (en) Moving picture capturing device, information processing system, information processing device, and image data processing method
US10212339B2 (en) Image generation method based on dual camera module and dual camera apparatus
CN108024027B (zh) 图像处理设备、图像处理方法和存储介质
KR101623826B1 (ko) 히트맵 영상 기능을 가진 감시카메라
JP2008511258A (ja) リアルタイム画像安定化
JP2012216006A (ja) 情報処理システム、情報処理装置、撮像装置、および情報処理方法
JP7249766B2 (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP7187154B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2018148368A (ja) 画像生成装置およびその制御方法
US11170511B2 (en) Image processing device, imaging device, and image processing method for replacing selected image area based on distance
KR20150145725A (ko) Ldr 비디오 시퀀스의 동적 범위 확장을 위한 방법 및 장치
JP2016019248A (ja) 動画表示制御装置、動画表示制御方法及びプログラム
JP7218786B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7370769B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2008306330A (ja) 情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラム
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
US20220036093A1 (en) Information processing apparatus, information processing method, and storage medium
JP2010193154A (ja) 画像処理装置および画像処理方法
JP7455545B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6008711B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021149747A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021056899A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021005798A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2016129281A (ja) 画像処理装置
JP2009273072A (ja) 高精細画像処理装置、高精細画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R151 Written notification of patent or utility model registration

Ref document number: 7370769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151