JP7248345B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP7248345B2 JP7248345B2 JP2021505596A JP2021505596A JP7248345B2 JP 7248345 B2 JP7248345 B2 JP 7248345B2 JP 2021505596 A JP2021505596 A JP 2021505596A JP 2021505596 A JP2021505596 A JP 2021505596A JP 7248345 B2 JP7248345 B2 JP 7248345B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- person
- image
- region
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
撮像装置により撮像された第1画像を入力する入力部と、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成する生成部と、を備える画像処理装置である。
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、を含む画像処理方法である。
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、をコンピュータに実行させるプログラムである。
以下、図面を参照して本発明の実施の形態について説明する。図1は、実施の形態1にかかる画像処理装置の構成例を示す図である。画像処理装置1は、例えば、サーバ装置、パーソナルコンピュータ装置等であってもよい。
入力部2は、撮像装置により撮像された第1画像を入力する。撮像装置は、例えば、監視カメラ、定点カメラ、デジタルカメラ等であってもよい。
続いて、実施の形態2について説明する。実施の形態2は、実施の形態1を詳細にした実施の形態である。
図2を用いて、実施の形態2にかかる画像処理装置10について説明する。図2は、実施の形態2にかかる画像処理装置の構成例を示す図である。画像処理装置10は、入力部11と、データ記憶部12と、生成部13と、モデル記憶部14と、決定部15とを備える。
データ記憶部12は、入力画像を記憶する。また、データ記憶部12は、入力部11に入力された画像の背景画像を記憶する。なお、背景画像も、入力部11に入力され、入力部11が背景画像をデータ記憶部12に記憶するようにしてもよい。データ記憶部12は、生成部13が生成する画像も記憶する。
生成部13は、取得した学習モデルに基づいて、人物が含まれると推定される推定領域から、監視カメラとの距離が異なる境界線よりも撮像装置からの距離が短い領域を示す手前領域、及び境界線よりも撮像装置からの距離が長い領域を示す奥領域を抽出する。生成部13は、入力画像を学習モデルに入力し、推定領域から、手前領域及び奥領域を抽出する。
モデル記憶部14は、生成部13が用いる学習済みの学習モデルを記憶する。モデル記憶部14に記憶される学習モデルは、後述する学習装置20により学習された学習モデルである。学習モデルは、推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する学習モデルである。所定の画素ブロックは、例えば、15×15のパッチ画像として切り出された画素ブロック(画素群)である。なお、上記の画素ブロックは一例であり、3×3~150×150の画素ブロックの中から任意に選択することができる。
次に、モデル記憶部14に記憶された学習モデルについて説明する。上述したように、学習モデルは、推定領域に含まれる所定の画素ブロック毎に、予め定義された複数の領域パターンのうち一致する領域パターンを出力する学習モデルである。
次に、図4、図5及び図7~図14を用いて、生成部13が行う各領域の抽出及び画像の生成処理について説明する。図7~図14は、生成処理を説明するための図である。
次に、図15及び図16を用いて、決定部15が行う人物の前後関係を決定する決定処理について説明する。図15及び図16は、決定処理を説明するための図である。
決定部15は、合成画像に含まれる等距離領域に基づき人物領域を特定する。決定部15は、特定された人物領域の各々の下端線に基づいて入力画像に含まれる人物の前後関係を決定する。
次に、図17を用いて、学習装置20の構成例について説明する。図17は、実施の形態2にかかる学習装置の構成例を示す図である。学習装置20は、未学習の学習モデルを学習して、学習済みの学習モデルを生成する。学習装置20は、入力部21と、データ記憶部22と、モデル記憶部23と、学習部24とを備える。
モデル記憶部23は、未学習の学習モデル(学習中の学習モデルも含む)及び学習済みの学習モデルの少なくとも一方を記憶する。
次に、図18を用いて、画像処理装置10の動作例について説明する。図18は、実施の形態2にかかる画像処理装置の動作例を説明する図である。
次に、図19を用いて、学習装置20の動作例について説明する。図19は、実施の形態2にかかる学習装置の動作例を示す図である。
実施の形態2では、生成部13は、手前領域及び奥領域を抽出することで説明を行ったが、手前領域及び奥領域のうちのいずれか一方を抽出するようにしてもよい。この場合、決定部15は、各人物領域について、隣接する人物領域との前後関係を決定する決定処理において、抽出された手前領域又は奥領域を用いる。
上述した実施の形態において説明した画像処理装置1、10及び学習装置20(以下、画像処理装置1等と称する)は、次のようなハードウェア構成を有していてもよい。図20は、本開示の各実施の形態にかかる画像処理装置等を実現可能な、コンピュータ(情報処理装置)のハードウェア構成を例示するブロック図である。
(付記1)
撮像装置により撮像された第1画像を入力する入力部と、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成する生成部と、を備える画像処理装置。
(付記2)
前記生成部は、前記学習モデルに基づいて、前記推定領域から、前記撮像装置との距離が異なる境界線よりも前記撮像装置からの距離が短い第2領域、及び前記境界線よりも前記撮像装置からの距離が長い第3領域のうちの少なくとも1つの領域を抽出し、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を含む前記第2画像を生成し、
前記第1領域と、前記第2領域及び前記第3領域の少なくとも1つの領域とに基づいて、前記第1画像に含まれる人物の前後関係を決定する決定部を備える、付記1に記載の画像処理装置。
(付記3)
前記決定部は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々の下端線、上端線、及び前記特定された人物領域の各々に含まれる画素数のうちの少なくとも1つに基づいて、前記第1画像に含まれる人物の前後関係を決定する、付記2に記載の画像処理装置。
(付記4)
前記決定部は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々について、前記第2領域及び前記第3領域のうちの少なくとも1つの領域に基づいて、隣接する人物領域との前後関係を決定し、各人物領域についての前記隣接する人物領域との前後関係に基づいて、前記第1画像に含まれる人物の前後関係を決定する、付記2又は3に記載の画像処理装置。
(付記5)
前記決定部は、前記特定された人物領域の各々と、前記隣接する人物領域との間に含まれる前記第2領域及び前記第3領域のうちの少なくとも1つの領域との距離に基づいて、前記特定された各人物領域の人物と、前記隣接する人物領域の人物との前後関係を決定する、付記4に記載の画像処理装置。
(付記6)
前記決定部は、前記生成部が前記第2領域を抽出する場合、前記特定された各人物領域及び前記隣接する人物領域のうち、前記特定された各人物領域と、前記隣接する人物領域との間に含まれる前記第2領域との距離が近い一方の人物領域の人物を他方の人物領域の人物よりも前に位置すると決定する、付記5に記載の画像処理装置。
(付記7)
前記決定部は、前記生成部が前記第3領域を抽出する場合、前記特定された各人物領域及び前記隣接する人物領域のうち、前記特定された各人物領域と、前記隣接する人物領域との間に含まれる前記第3領域との距離が近い一方の人物領域の人物を他方の人物領域の人物よりも後ろに位置すると決定する、付記5又は6に記載の画像処理装置。
(付記8)
前記学習モデルは、前記推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する学習モデルであり、
前記生成部は、前記出力された領域パターンに基づいて、前記推定領域から、前記第1領域と、前記第2領域及び前記第3領域のうちの少なくとも1つの領域と、を抽出する、付記2~7のいずれか1項に記載の画像処理装置。
(付記9)
前記複数の領域パターンは、前記第1領域を抽出するための第1パターンと、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を抽出するための複数の第2パターンとを含む、付記8に記載の画像処理装置。
(付記10)
前記複数の第2パターンは、前記撮像装置との距離の勾配方向を示す奥行勾配方向がそれぞれ異なるパターンである、付記9に記載の画像処理装置。
(付記11)
前記複数の第2パターンは、前記奥行勾配方向が8方向又は16方向のそれぞれに対応するパターンである、付記10に記載の画像処理装置。
(付記12)
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、を含む画像処理方法。
(付記13)
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、をコンピュータに実行させるプログラム。
2、11、21 入力部
3、13 生成部
12、22 データ記憶部
14、23 モデル記憶部
15 決定部
20 学習装置
24 学習部
Claims (9)
- 撮像装置により撮像された第1画像を入力する入力手段と、
学習済みの学習モデルに基づいて、前記第1画像のうち、複数の人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される画素の集まりである第1領域を複数抽出し、前記抽出された複数の第1領域が互いに区別可能な態様で含まれる第2画像を生成する生成手段と、を備え、
前記生成手段は、前記学習モデルに基づいて、前記推定領域から、前記撮像装置との距離が異なる境界線よりも前記撮像装置からの距離が短い第2領域、及び前記境界線よりも前記撮像装置からの距離が長い第3領域のうちの少なくとも1つの領域を抽出し、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を含む前記第2画像を生成し、
前記第1領域と、前記第2領域及び前記第3領域の少なくとも1つの領域とに基づいて、前記第1画像に含まれる人物の前後関係を決定する決定手段を備える、画像処理装置。 - 前記決定手段は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々の下端線、上端線、及び前記特定された人物領域の各々に含まれる画素数のうちの少なくとも1つに基づいて、前記第1画像に含まれる人物の前後関係を決定する、請求項1に記載の画像処理装置。
- 前記決定手段は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々について、前記第2領域及び前記第3領域のうちの少なくとも1つの領域に基づいて、隣接する人物領域との前後関係を決定し、各人物領域についての前記隣接する人物領域との前後関係に基づいて、前記第1画像に含まれる人物の前後関係を決定する、請求項1又は2に記載の画像処理装置。
- 前記決定手段は、前記特定された人物領域の各々と、前記隣接する人物領域との間に含まれる前記第2領域及び前記第3領域のうちの少なくとも1つの領域との距離に基づいて、前記特定された各人物領域の人物と、前記隣接する人物領域の人物との前後関係を決定する、請求項3に記載の画像処理装置。
- 前記学習モデルは、前記推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する学習モデルであり、
前記生成手段は、前記出力された領域パターンに基づいて、前記推定領域から、前記第1領域と、前記第2領域及び前記第3領域のうちの少なくとも1つの領域と、を抽出する、請求項1~4のいずれか1項に記載の画像処理装置。 - 前記複数の領域パターンは、前記第1領域を抽出するための第1パターンと、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を抽出するための複数の第2パターンとを含む、請求項5に記載の画像処理装置。
- 前記複数の第2パターンは、前記撮像装置との距離の勾配方向を示す奥行勾配方向がそれぞれ異なるパターンである、請求項6に記載の画像処理装置。
- 撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち、複数の人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される画像の集まりである第1領域を抽出し、前記抽出された複数の第1領域が互いに区別可能な態様で含まれる第2画像を生成することと、を含み、
前記第2画像の生成において、前記学習モデルに基づいて、前記推定領域から、前記撮像装置との距離が異なる境界線よりも前記撮像装置からの距離が短い第2領域、及び前記境界線よりも前記撮像装置からの距離が長い第3領域のうちの少なくとも1つの領域を抽出し、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を含む前記第2画像を生成し、
前記第1領域と、前記第2領域及び前記第3領域の少なくとも1つの領域とに基づいて、前記第1画像に含まれる人物の前後関係を決定することを含む、画像処理方法。 - 撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち、複数の人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される画像の集まりである第1領域を抽出し、前記抽出された複数の第1領域が互いに区別可能な態様で含まれる第2画像を生成することと、をコンピュータに実行させ、
前記第2画像の生成において、前記学習モデルに基づいて、前記推定領域から、前記撮像装置との距離が異なる境界線よりも前記撮像装置からの距離が短い第2領域、及び前記境界線よりも前記撮像装置からの距離が長い第3領域のうちの少なくとも1つの領域を抽出し、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を含む前記第2画像を生成し、
前記第1領域と、前記第2領域及び前記第3領域の少なくとも1つの領域とに基づいて、前記第1画像に含まれる人物の前後関係を決定すること、を前記コンピュータに実行させる、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044273 | 2019-03-11 | ||
JP2019044273 | 2019-03-11 | ||
PCT/JP2020/004495 WO2020184006A1 (ja) | 2019-03-11 | 2020-02-06 | 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020184006A1 JPWO2020184006A1 (ja) | 2021-12-09 |
JP7248345B2 true JP7248345B2 (ja) | 2023-03-29 |
Family
ID=72427907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021505596A Active JP7248345B2 (ja) | 2019-03-11 | 2020-02-06 | 画像処理装置、画像処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7248345B2 (ja) |
WO (1) | WO2020184006A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11881025B1 (en) * | 2022-07-11 | 2024-01-23 | Hewlett-Packard Development Company, L.P. | Compound images |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293687A (ja) | 1999-02-02 | 2000-10-20 | Minolta Co Ltd | 3次元形状データ処理装置および3次元形状データ処理方法 |
JP2015082245A (ja) | 2013-10-23 | 2015-04-27 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017027197A (ja) | 2015-07-17 | 2017-02-02 | 富士通株式会社 | 監視プログラム、監視装置、及び監視方法 |
-
2020
- 2020-02-06 WO PCT/JP2020/004495 patent/WO2020184006A1/ja active Application Filing
- 2020-02-06 JP JP2021505596A patent/JP7248345B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293687A (ja) | 1999-02-02 | 2000-10-20 | Minolta Co Ltd | 3次元形状データ処理装置および3次元形状データ処理方法 |
JP2015082245A (ja) | 2013-10-23 | 2015-04-27 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017027197A (ja) | 2015-07-17 | 2017-02-02 | 富士通株式会社 | 監視プログラム、監視装置、及び監視方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020184006A1 (ja) | 2021-12-09 |
WO2020184006A1 (ja) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6950692B2 (ja) | 人流推定装置、人流推定方法およびプログラム | |
US8866845B2 (en) | Robust object recognition by dynamic modeling in augmented reality | |
CN104599287B (zh) | 对象跟踪方法和装置、对象识别方法和装置 | |
JP6939111B2 (ja) | 画像認識装置および画像認識方法 | |
JP6844692B2 (ja) | 学習データ生成装置、学習データ生成方法、およびプログラム | |
EP3709266A1 (en) | Human-tracking methods, apparatuses, systems, and storage media | |
CN108364310A (zh) | 立体匹配方法和设备、图像处理设备及其训练方法 | |
JP2017191501A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20180189955A1 (en) | Augumented reality (ar) method and system enhanced through efficient edge detection of image objects | |
US20170161547A1 (en) | Image processing apparatus and image processing method | |
CN111079578A (zh) | 行为检测方法及装置 | |
WO2020014294A1 (en) | Learning to segment via cut-and-paste | |
KR102225753B1 (ko) | 딥러닝 기반 파노라마 영상의 품질 평가 방법 및 그 장치 | |
JP7248345B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2023003763A (ja) | 学習装置、画像処理装置、学習処理方法、及びプログラム | |
CN103839032B (zh) | 一种识别方法及电子设备 | |
JP6892844B2 (ja) | 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム | |
JP2017033556A (ja) | 画像処理方法及び電子機器 | |
KR101158728B1 (ko) | 실시간 전경 영상 검출시스템 및 방법 | |
JP6350331B2 (ja) | 追尾装置、追尾方法及び追尾プログラム | |
JP6467994B2 (ja) | 画像処理プログラム、画像処理装置、及び画像処理方法 | |
CN104660866B (zh) | 运动检测***和方法 | |
CN113657186A (zh) | 一种基于行人重识别的特征提取方法、装置和存储介质 | |
CN112085025B (zh) | 物体分割方法、装置、设备 | |
JP4449483B2 (ja) | 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210728 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7248345 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |