JP2019215605A - 検出装置、検出システム、検出方法及びプログラム - Google Patents

検出装置、検出システム、検出方法及びプログラム Download PDF

Info

Publication number
JP2019215605A
JP2019215605A JP2018110930A JP2018110930A JP2019215605A JP 2019215605 A JP2019215605 A JP 2019215605A JP 2018110930 A JP2018110930 A JP 2018110930A JP 2018110930 A JP2018110930 A JP 2018110930A JP 2019215605 A JP2019215605 A JP 2019215605A
Authority
JP
Japan
Prior art keywords
detection
captured image
detection target
camera
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018110930A
Other languages
English (en)
Other versions
JP7176719B2 (ja
Inventor
大輝 横田
Daiki Yokota
大輝 横田
真則 高岡
Masanori Takaoka
真則 高岡
青木 教之
Noriyuki Aoki
教之 青木
善彦 斉藤
Yoshihiko Saito
善彦 斉藤
正泰 渡辺
Masayasu Watanabe
正泰 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2018110930A priority Critical patent/JP7176719B2/ja
Publication of JP2019215605A publication Critical patent/JP2019215605A/ja
Application granted granted Critical
Publication of JP7176719B2 publication Critical patent/JP7176719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出すること。【解決手段】検出装置は、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部と、撮影画像を取得し、撮影画像から、所定のウィンドウサイズの子領域を切り出し、子領域と予測モデルとを照合し、検出対象物の有無を判断する、検出制御部と、を備える。【選択図】図1

Description

本発明は、検出装置、検出システム、検出方法及びプログラムに関する。
ベルトコンベア等、搬送装置を使用して搬送を行う場合、搬送中に搬送物が落下して堆積することがある。その場合、人が目視で、堆積物を発見して清掃することがある。しかし、作業の効率化を図るためには、自動的に堆積物を検出することが望ましい。堆積物を自動的に検出する方法の一つとして、カメラで監視し、撮影画像から、検出対象物(即ち、堆積物)を検出する方法が考えられる。特許文献1、2においては、撮影画像から検出対象物を検出する技術が記載されている。
特許文献1に記載された技術においては、検出対象物(即ち、人)の特徴を示す、複数の辞書情報を記憶し、撮像された画像と、複数の辞書情報とに基づいて、人を検出する技術が記載されている。
特許文献2においては、1つの検出対象物を複数のテンプレートに分割してテンプレートマッチングを行うことで、検出対象物を検出する技術が記載されている。具体的には、特許文献2に記載された技術においては、歩行者を検出対象物とする場合、歩行者の上部(頭部と肩部を含む)に対応するテンプレートと、歩行者の中部(腰部を含む)に対応するテンプレートと、歩行者の下部(脚部を含む)に対応するテンプレートとを予め用意する。そして、特許文献2に記載された技術においては、各テンプレートのマッチング率に基づいて、検出対象物(即ち、歩行者)を検出する。
特開2016−171526号公報 特開2010−128919号公報
なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
上記の通り、作業の効率化を図るためには、自動的に堆積物を検出することが望ましい。ここで、特許文献1に記載された技術では、検出対象物(即ち、人)の状態のパターンを、予め想定できることが求められる。また、特許文献2に記載された技術では、検出対象物の高さと幅の比率が、所定の範囲内であることが必要である。しかし、搬送中に搬送物が落下した場合、堆積物の形状、大きさを、予め想定することは困難である。そのため、特許文献1、2に記載された技術を利用して、撮影画像から堆積物を検出することは困難である。
そこで、本発明は、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する検出装置、検出システム、検出方法及びプログラムを提供することを目的とする。
第1の視点によれば、検出装置が提供される。前記検出装置は、検出対象物のテクスチャのうち局所領域の特徴量を、予測モデルとして記憶する、モデル記憶部を備える。
さらに、前記検出装置は、撮影画像を取得し、前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する、検出制御部を備える。
第2の視点によれば、検出システムが提供される。前記検出システムは、パン、チルト可能なカメラを備える監視装置と、検出対象物の有無を判断する検出装置と、を含んで構成される。
前記検出装置は、前記検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部を備える。
さらに、前記検出装置は、前記監視装置から前記撮影画像を取得し、前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する、検出制御部を備える。
第3の視点によれば、検出方法が提供される。前記検出方法は、記憶部を備えるコンピュータが、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する工程を含む。
さらに、前記検出方法は、前記コンピュータが、撮影画像を取得する工程を含む。
さらに、前記検出方法は、前記コンピュータが、前記撮影画像から、所定のウィンドウサイズの子領域を切り出す工程を含む。
さらに、前記検出方法は、前記コンピュータが、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する工程を含む。
なお、本方法は、検出対象物の有無を判断する検出装置という、特定の機械に結び付けられている。
第4の視点によれば、プログラムが提供される。前記プログラムは、記憶部を備えるコンピュータに、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する処理を実行させる。
さらに、前記プログラムは、前記コンピュータに、撮影画像を取得する処理を実行させる。
さらに、前記プログラムは、前記コンピュータに、前記撮影画像から、所定のウィンドウサイズの子領域を切り出す処理を実行させる。
さらに、前記プログラムは、前記コンピュータに、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する処理を実行させる。
なお、これらのプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
本発明によれば、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する検出装置、検出システム、検出方法及びプログラムが提供される。
一実施形態の概要を説明するための図である。 検出システム100の全体構成の一例を示すブロック図である。 カメラ401〜403を回転させない場合に、カメラ401〜403が撮影可能な領域の一例を示す図である。 カメラ11を回転させる場合に、カメラ11が撮影可能な領域の一例を示す図である。 検出システム100の動作の一例を示すフローチャートである。 局所領域のテクスチャ及び検出結果の一例を示す図である。 背景差分法の問題点の一例を示す図である。 検出装置20のハードウェアの一例を示すブロック図である。
初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。また、各ブロック図のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インターフェイスも同様である。
上記の通り、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する検出装置が望まれる。
そこで、一例として、図1に示す検出装置1000が提供される。検出装置1000は、モデル記憶部1001と、検出制御部1002とを備える。モデル記憶部1001は、検出対象物のテクスチャのうち局所領域の特徴量を、予測モデルとして記憶する。検出制御部1002は、撮影画像を取得し、撮影画像から、所定のウィンドウサイズの子領域を切り出す。そして、検出制御部1002は、撮影画像から切り出した子領域と予測モデルとを照合し、検出対象物の有無を判断する。
そのため、検出装置1000は、検出対象物の形状、大きさに関する情報を利用せずに、検出対象物の有無を判断する。従って、検出装置1000は、検出対象物の形状、大きさを、予め想定できない場合であっても、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、検出対象物の有無を容易に判断できる。よって、検出装置1000は、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する。
[第1の実施形態]
第1の実施形態について、図面を用いて詳細に説明する。なお、以下の説明では、検出対象物として、堆積物を例示して説明する。ただし、これは、本実施形態に係る検出システム100において、検出対象物を、堆積物に限定する趣旨ではない。
図2は、本実施形態に係る検出システム100の全体構成の一例を示すブロック図である。検出システム100は、監視装置10と、検出装置20と、端末30とを含んで構成される。なお、図2においては、監視装置10、端末30を、それぞれ、一つ示す。しかし、これは、検出システム100が、監視装置10、端末30を、それぞれ、一つ含むことに限定する趣旨ではない。また、図2は、監視装置10、検出装置20、端末30の構成の一例である。また、図2は、監視装置10、検出装置20、端末30の構成を、図2に示す構成に限定する趣旨ではない。
監視装置10は、監視対象エリアを撮影し、撮影画像を検出装置20に送信する情報処理装置(コンピュータ)である。監視装置10は、パン(横振り)、チルト(縦振り)、ズーム可能なカメラ11を備えるものとする。監視装置10は、カメラ11を可動範囲内で回転させて、カメラ11が撮影した複数の撮影画像を、検出装置20に送信する。また、監視装置10は、カメラ11を可動範囲内でズーム率を変更させて、カメラ11が撮影した複数の撮影画像を、検出装置20に送信する。
検出装置20は、撮影画像から、検出対象物(例えば、堆積物)の有無を判断する情報処理装置(コンピュータ)である。検出装置20は、ネットワークを介して監視装置10、端末30に接続する。
端末30は、堆積物の有無、堆積物の位置、撮影画像等を、検出装置20から受信し、出力する情報処理装置(コンピュータ)である。
[監視装置の構成]
次に、監視装置10について詳細に説明する。監視装置10は、カメラ11と、監視装置通信部12と、監視制御部13とを含んで構成される。
カメラ11は、画像を撮影する。上記の通り、カメラ11は、所謂、パン、チルトすることが可能であるものとする。さらに、カメラ11は、ズーム率を変更することが可能であるものとする。
図3は、垂直軸周り、水平軸周りにカメラ401〜403を回転しない場合に、カメラ401〜403が撮影可能な領域の一例を示す図である。破線で囲まれた領域R11、R12、R13内に、堆積物B11、B12、B13が存在するとする。そして、カメラ401、402、403が撮影可能な領域が、それぞれ、領域R11、R12、R13であるとする。その場合、堆積物B11、B12、B13を撮影するためには、複数のカメラ(カメラ401〜403)を設置する必要がある。
一方、図4は、垂直軸周り、水平軸周りにカメラ11が回転可能(所謂、パン、チルトが可能)である場合に、カメラ11が撮影可能な領域の一例を示す図である。破線で囲まれた領域R21内に、堆積物B21、B22、B23が存在するとする。その場合、一つのカメラ11を設置することで、堆積物B21、B22、B23を撮影可能である。そのため、カメラ11を回転させることで、カメラ401〜403を回転しない場合(図3)に比べ、広い範囲を撮影することが可能になる。
監視装置通信部12は、検出装置20との通信を制御する。
監視制御部13は、カメラ11を制御する。例えば、監視制御部13は、カメラ11の回転角、ズーム率を制御し、撮影領域を制御する。
監視制御部13は、垂直軸周りに、カメラ11を回転させることが可能である。同様に、監視制御部13は、水平軸周りに、カメラ11を回転させることが可能である。監視制御部13は、カメラ11の角度を変更するたびに(つまり、撮影領域を変更するたびに)、カメラ11に撮影画像を生成させる。さらに、監視制御部13は、カメラ11のズーム率を変更してもよい。監視制御部13は、カメラ11のズーム率を変更するたびに、カメラ11に撮影画像を生成してもよい。監視制御部13は、撮影画像を生成すると、生成した撮影画像を、監視装置通信部12を介して、検出装置20に送信する。
そのため、監視装置10は、カメラ11の可動範囲内の空間に関して、撮影画像を生成し、生成した撮影画像を検出装置20に送信することになる。これにより、検出装置20は、カメラ11を回転しない場合に比べ、広い範囲に関して、撮影画像を取得することが可能になる。
監視制御部13は、カメラ11を上下左右に振り(即ち、カメラ11をパン、チルトし)、カメラ11の可動範囲内の空間に関して、カメラ11に撮影画像を生成させる。そして、監視制御部13は、生成された複数(2以上)の撮影画像を検出装置20に送信する。監視制御部13は、カメラ11の可動範囲内の空間に関して、カメラ11に撮影画像を生成させ、生成された複数(2以上)の撮影画像を検出装置20に送信する処理を、所定の時間毎に繰り返す。以下の説明では、カメラ11を上下左右に振り(即ち、カメラ11をパン、チルトし)、カメラ11の可動範囲内の空間に関して、カメラ11に撮影画像を生成させる、一連の処理を、「一回の撮影処理」と呼ぶ。
[検出装置の構成]
次に、検出装置20について詳細に説明する。検出装置20は、検出装置通信部21と、画像記憶部22と、モデル記憶部23と、検出制御部24とを含んで構成される。
検出装置通信部21は、監視装置10及び端末30との通信を制御する。検出装置通信部21が監視装置10から撮影画像を受信した場合、検出制御部24は、検出装置通信部21が受信した撮影画像を、画像記憶部22に保存する。
画像記憶部22は、カメラ11が生成(撮影)した、撮影画像を記憶する。
モデル記憶部23は、堆積物のテクスチャのうち、局所領域の特徴量を、予測モデルとして記憶する。局所領域のテクスチャは、周期的なパターンのテクスチャであってもよい。特徴量とは、テクスチャの色、明るさ、模様等に関する情報であってもよい。
ここで、予測モデルは、堆積物のテクスチャのうち、局所領域のテクスチャに関して、機械学習を用いて生成された特徴量を含むものとする。例えば、予測モデルは、ニューラルネット等、深層学習(Deep Learning)を用いて学習された、局所領域のテクスチャの特徴量であってもよい。
検出制御部24は、撮影画像を取得し、撮影画像から、所定のウィンドウサイズの子領域を切り出す。そして、検出制御部24は、切り出した子領域と、モデル記憶部23に予め記憶された予測モデルとに基づいて、堆積物の有無を判断する。具体的には、検出制御部24は、堆積物のテクスチャに対応する子領域が、撮影画像に存在するか否かに基づいて、堆積物の有無を判断する。
そして、検出制御部24は、撮影画像の所定の範囲に対して、複数の子領域を切り出し、複数の子領域に関して、予測モデルとの照合(マッチング)を行い、予測モデルとのマッチングの結果を出力する。検出制御部24は、切り出した子領域と予測モデルとのマッチングの結果を、ユーザが使用する端末30に送信してもよい。
撮影環境、カメラの台数(監視箇所の数)、検出対象物(堆積物)等に応じて、適切な局所領域のテクスチャは異なる。ここで、「適切な局所領域のテクスチャ」とは、堆積物の有無を判断するために、必要十分な特徴量を含む、テクスチャを意味する。
そこで、本実施形態に係る検出システム100においては、ユーザの操作に基づいて、ウィンドウサイズが決定されてもよい。ユーザは、検出装置20の出力(予測モデルとのマッチングの結果)を見ながら、ウィンドウサイズを調整してもよい。例えば、撮影画像における堆積物の領域全体に対して、所定の割合(例えば1%)のウィンドウサイズを基準として、ユーザがウィンドウサイズを調整することで、ウィンドウサイズが決定されてもよい。換言すると、検出制御部24は、ユーザの操作に基づいて、ウィンドウサイズを更新してもよい。
また、フェンスや柱等がカメラ11の前方に設置されており、フェンスや柱等の奥に、堆積物が存在する場合、堆積物の一部が、フェンスや柱等により隠される(即ち、オクルージョンが発生する)可能性がある。しかし、本実施形態に係る検出システム100においては、フェンスや柱等の隙間から見える堆積物よりも、ウィンドウサイズが小さくなるように、ユーザがウィンドウサイズを調整することで、オクルージョンの影響を回避して、堆積物の有無を判断できる。
[端末の構成]
次に、端末30について詳細に説明する。端末30は、端末通信部31と、端末制御部32と、出力部33とを含んで構成される。
端末通信部31は、検出装置20との通信を制御する。端末通信部31が検出結果(堆積物の有無、検出された堆積物の位置)、撮影画像等を、検出装置20から受信した場合、端末制御部32は、受信した検出結果、撮影画像等を、出力部33に出力させる。出力部33は、検出結果(堆積物の有無、検出された堆積物の位置)、撮影画像等を、ファイルや画面に出力する。
[検出システムの動作]
次に、検出システム100の動作について詳細に説明する。
図5は、本実施形態に係る検出システム100の動作の一例を示すフローチャートである。
ステップS1において、検出制御部24は、モデル記憶部23から予測モデルを読み出す。
検出制御部24は、撮影画像を取得すると(ステップS2)、取得した撮影画像から、所定のウィンドウサイズの子領域を切り出す(ステップS3)。そして、切り出した子領域に、堆積物のテクスチャが含まれるか否かを、検出制御部24は判断する(ステップS4)。
切り出した子領域に堆積物のテクスチャが含まれない場合(ステップS4のNo分岐)には、ステップS6に遷移する。一方、切り出した子領域に堆積物のテクスチャが含まれる場合(ステップS4のYes分岐)には、検出制御部24は、検出結果を保存する(ステップS5)。
図6は、局所領域のテクスチャ及び検出結果の一例を示す図である。図6(a)は、局所領域のテクスチャの一例を示す図である。図6(a)に示す矩形領域w1〜w3は、予測モデルに対応する局所領域の一例である。図6(b)は、検出結果の一例を示す図である。
例えば、モデル記憶部23には、矩形領域w1〜w3のテクスチャに関する特徴量が、予め、予測モデルとして格納されるものとする。その場合、検出装置20は、判断対象の撮影画像を取得した場合、当該撮影画像から切り出した子領域と、予測モデル(矩形領域w1〜w3のテクスチャに関する特徴量)とを比較し、切り出した子領域に予測モデルのテクスチャが含まれるか否かを判断する。そして、検出装置20は、検出結果(例えば、図6(b)に示す画像)を、端末30に送信する。
ステップS6において、撮影画像の全体を走査したか否かを、検出制御部24は判断する。つまり、撮影画像の全体に関して、子領域を切り出し、堆積物のテクスチャの有無を判断したか否かを、検出制御部24は判断する。
撮影画像の全体を走査していない場合(ステップS6のNo分岐)には、ステップS3に戻り、処理を継続する。つまり、検出制御部24は、撮影画像のうち、走査していない領域から、所定のウィンドウサイズの子領域を切り出す。そして、検出制御部24は、新たに切り出した子領域に、堆積物のテクスチャが含まれるか否かを判断する処理を行う。このようにして、撮影画像に、堆積物のテクスチャが含まれるか否かを判断する。
撮影画像の全体を走査した場合(ステップS6のYes分岐)には、検出制御部24は、検出結果を端末30に通知する(ステップS7)。
端末30は、検出結果をディスプレイに表示する処理等を行い、ユーザに検出結果を提示する。ユーザは、提示された検出結果を見て、ウィンドウサイズを調整(変更)してもよい。具体的には、ユーザは、新たなウィンドウサイズを端末30又は検出装置20に入力してもよい。なお、ユーザが、新たなウィンドウサイズを端末30に入力した場合、端末30は、入力されたウィンドウサイズを、検出装置20に通知することは勿論である。
次に、図7を参照しながら、背景差分法を用いて堆積物を検出する場合と、本実施形態に係る検出システム100との相違点について説明する。例えば、図7(a)に示す画像BG31を、予め背景画像として用意しておくとする。図7(a)に示す、破線で囲まれた領域R31には、植物を含むとする。
仮に、カメラ11が、画像BG31を撮影後に、図7(b)に示す画像IMG32を撮影したとする。その場合、画像処理を実行可能な装置(コンピュータ)が、画像BG31と、画像IMG32との差分をとることで、画像IMG32に含まれる堆積物B31を検出可能である。
しかし、カメラ11が、画像BG31を撮影後に、図7(c)に示す画像IMG33を撮影したとする。ここで、画像IMG33内において、破線で囲まれた領域R32には、BG31の撮影時から成長した植物を含むとする。つまり、植物が成長することで、BG31の撮影時とは異なる外観(形状、大きさ、色等)になっているとする。その場合、画像処理を実行可能な装置(コンピュータ)が、画像BG31と、画像IMG33との差分をとることで、領域R32に含まれる植物と、堆積物B32とを検出することになる。そのため、検出対象物とは異なる物体が、背景画像の撮影時とは異なる外観になる可能性がある場合には、背景差分法を用いると、検出対象物とは異なる物体も検出してしまう可能性がある。
一方、本実施形態に係る検出システム100においては、検出装置20は、検出対象物のテクスチャのうち、局所領域のテクスチャに基づいて、撮影画像内における検出対象物の有無を判断する。そのため、本実施形態に係る検出システム100においては、検出対象物とは異なる物体の外観が変化した場合であっても、検出対象物を適切に検出できる。
以上のように、本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャを利用する。それにより、本実施形態に係る検出システム100においては、撮影画像内における検出対象物の形状、大きさ等が変化した場合であっても、検出装置20は、検出対象物を適切に検出できる。従って、本実施形態に係る検出システム100は、検出対象物の形状変化に柔軟に対応しつつ、容易に検出対象物を検出することに貢献する。
本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、カメラ11を動かしながら、検出対象物を検出することができる。従って、本実施形態に係る検出システム100においては、カメラの数を低減しつつ、適切かつ容易に検出対象物を検出することに貢献する。
また、本実施形態に係る検出システム100は、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、周辺環境(植物の成長、天候による明るさの変化等)の影響を抑制することに貢献する。
また、本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャを利用することで、検出装置20は、撮影画像中の検出対象物の位置に依存せず、検出対象物を検出できる。従って、本実施形態に係る検出システム100は、監視位置(カメラ11の設置位置)の自由度を向上させつつ、適切に検出対象物を検出することに貢献する。
また、本実施形態に係る検出システム100においては、検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を利用することで、モデル(予測モデル)を生成するために必要な画像の数を低減することに貢献する。
次に、検出装置20のハードウェアについて説明する。
図8は、検出装置20のハードウェアの一例を示すブロック図である。検出装置20は、コンピュータにより構成可能であり、図8に例示する構成を備える。例えば、検出装置20は、内部バスにより相互に接続される、CPU(Central Processing Unit)1、通信インターフェイス2、メモリ3、補助記憶装置4等を備える。
検出装置20の機能は、CPU1が、補助記憶装置4に記憶された撮影画像及び予測モデルを読み出し、メモリ3に格納されたプログラムを実行することで実現される。なお、監視装置10、端末30の構成も図8に示す検出装置20のハードウェア構成と同様とすることができるので、詳細な説明を省略する。なお、監視装置10は、さらに、カメラ11を備えることで実現できる。また、端末30は、さらに、ディスプレイを備えることで実現できる。
なお、上記においては、監視装置10、検出装置20、端末30を、それぞれ、異なる装置として説明した。しかし、検出装置20が、監視装置10と端末30との機能を含んで構成されてもよいことは勿論である。
また、上記においては、予測モデルが、機械学習を用いて生成された特徴量を含むことを例示して説明した。しかし、これは、予測モデルを限定する趣旨ではない。予測モデルは、機械学習とは異なる方法で生成された特徴量を含んでもよいことは勿論である。
また、カメラ11は、可動範囲内で回転、又はズーム率を変更させて撮影された、動画像を撮影してもよい。その場合、監視装置10は、カメラ11が撮影した動画像を、検出装置20に送信する。例えば、監視制御部13は、所定の時間間隔で、カメラ11を上下左右に振り(即ち、カメラ11をパン、チルトし)、カメラ11の可動範囲内の空間に関して、カメラ11に動画像を生成(撮影)させてもよい。その場合、検出制御部24は、カメラ11を可動範囲内で回転、又はズーム率を変更させて撮影された、動画像を取得し、取得した動画像から静止画像を、撮影画像として抽出する。そして、検出制御部24は、動画像から抽出された複数の撮影画像に関して、堆積物の有無を判断する。
また、上記においては、カメラ11を回転させることで、撮影領域を変更する形態について説明した。しかし、これは、カメラ11を回転させることで、撮影領域を変更することで限定する趣旨ではない。
また、移動体(車両、移動可能なロボット等)に監視装置10を搭載してもよい。その場合、監視装置10は、当該移動体が移動している際に、カメラ11が撮影した画像を、撮影画像として、検出装置20に送信してもよい。つまり、当該移動体が移動することで、検出装置20は、堆積物の検出範囲を変更してもよい。
また、例えば、搬送装置(ベルトコンベア等)から、搬送物が落下して生成された堆積物を検出する場合、搬送装置の側面を撮影できる位置にカメラ11を設置してもよい。その場合、検出装置20は、撮影画像内の搬送装置の位置と、検出した堆積物の最上部の位置とを比較することで、搬送装置に対する堆積物の高さを判断してもよい。撮影画像内の搬送装置の位置については、例えば、予め、端末30のユーザ等が、検出装置20に入力しておいてもよい。
また、監視装置10は、距離画像センサを備えてもよい。距離画像センサは、ステレオカメラ、ToF(Time of Flight)カメラ、Lidar(Light Detection and Ranging)であってもよい。そして、監視装置10は、距離画像センサが生成した情報(画像)と、カメラ11が生成した撮影画像とを、検出装置20に送信してもよい。その場合、検出制御部24は、カメラ11が生成した撮影画像に基づいて、堆積物の有無を判断する。検出制御部24は、堆積物のテクスチャに対応する子領域が、撮影画像に存在する場合、距離画像センサの出力に基づいて、検出対象物の高さを計測する。例えば、検出装置20は、撮影画像中に、堆積物のテクスチャを検出した場合、距離画像センサが生成した情報(画像)に基づいて、検出した堆積物の最上部の位置を、堆積物の高さとして推定してもよい。
なお、上記の特許文献の開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。本発明で、アルゴリズム、ソフトウエア、ないしフローチャート或いは自動化されたプロセスステップが示された場合、コンピュータが用いられることは自明であり、またコンピュータにはプロセッサ及びメモリないし記憶装置が付設されることも自明である。よってその明示を欠く場合にも、本願には、これらの要素が当然記載されているものと解される。
1 CPU
2 通信インターフェイス
3 メモリ
4 補助記憶装置
10 監視装置
11、401〜403 カメラ
12 監視装置通信部
13 監視制御部
20、1000 検出装置
21 検出装置通信部
22 画像記憶部
23、1001 モデル記憶部
24、1002 検出制御部
30 端末
31 端末通信部
32 端末制御部
33 出力部
100 検出システム

Claims (10)

  1. 検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部と、
    撮影画像を取得し、前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとを照合し、前記検出対象物の有無を判断する、検出制御部と、
    を備える検出装置。
  2. 前記予測モデルは、前記検出対象物のテクスチャのうち、前記局所領域のテクスチャに関して、機械学習を用いて生成された特徴量を含む、請求項1に記載の検出装置。
  3. 前記検出制御部は、前記撮影画像の所定の範囲に対して、複数の子領域を切り出し、前記複数の子領域に関して、前記予測モデルとのマッチングの結果を、ユーザが使用する端末に送信し、ユーザの操作に基づいて、前記ウィンドウサイズを更新する、請求項1又は2に記載の検出装置。
  4. 前記検出制御部は、カメラを可動範囲内で回転、又はズーム率を変更させて撮影された、動画像を取得し、前記動画像から静止画像を、前記撮影画像として抽出する、請求項1乃至3のいずれか一に記載の検出装置。
  5. パン、チルト可能なカメラを備える監視装置と、
    検出対象物の有無を判断する検出装置と、
    を含んで構成され、
    前記検出装置は、
    前記検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして記憶する、モデル記憶部と、
    前記監視装置から撮影画像を取得し、前記撮影画像から、所定のウィンドウサイズの子領域を切り出し、前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する、検出制御部と、
    を備える検出システム。
  6. 前記監視装置は、前記カメラを可動範囲内で回転させて、前記カメラが撮影した複数の撮影画像を、前記検出装置に送信する、請求項5に記載の検出システム。
  7. 移動体に前記監視装置を搭載し、
    前記監視装置は、前記移動体が移動している際に、前記カメラが撮影した画像を、前記撮影画像として、前記検出装置に送信する、請求項5又は6に記載の検出システム。
  8. 前記監視装置は、距離画像センサをさらに備え、
    前記検出制御部は、前記検出対象物のテクスチャに対応する前記子領域が、前記撮影画像に存在する場合、前記距離画像センサの出力に基づいて、前記検出対象物の高さを計測する、請求項5乃至7のいずれか一に記載の検出システム。
  9. 記憶部を備えるコンピュータが、
    検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する工程と、
    撮影画像を取得する工程と、
    前記撮影画像から、所定のウィンドウサイズの子領域を切り出す工程と、
    前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する工程と、
    を含む検出方法。
  10. 記憶部を備えるコンピュータに、
    検出対象物のテクスチャのうち、局所領域のテクスチャの特徴量を、予測モデルとして、前記記憶部に記憶する処理と、
    撮影画像を取得する処理と、
    前記撮影画像から、所定のウィンドウサイズの子領域を切り出す処理と、
    前記子領域と前記予測モデルとに基づいて、前記検出対象物の有無を判断する処理と、
    を実行させるプログラム。
JP2018110930A 2018-06-11 2018-06-11 検出装置、検出システム、検出方法及びプログラム Active JP7176719B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018110930A JP7176719B2 (ja) 2018-06-11 2018-06-11 検出装置、検出システム、検出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110930A JP7176719B2 (ja) 2018-06-11 2018-06-11 検出装置、検出システム、検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019215605A true JP2019215605A (ja) 2019-12-19
JP7176719B2 JP7176719B2 (ja) 2022-11-22

Family

ID=68918685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110930A Active JP7176719B2 (ja) 2018-06-11 2018-06-11 検出装置、検出システム、検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7176719B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP2003022442A (ja) * 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> 物体検出/位置測定方法およびその装置、ならびにこの方法の実行プログラムおよびその記録媒体
JP2006252504A (ja) * 2005-02-14 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> パターン認識装置、パターン認識方法、パターン認識プログラム、及びパターン認識プログラムの記録媒体
JP2011055270A (ja) * 2009-09-02 2011-03-17 Canon Inc 情報送信装置及び情報送信方法
JP2012059196A (ja) * 2010-09-13 2012-03-22 Canon Inc 表示制御装置及び表示制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP2003022442A (ja) * 2001-07-10 2003-01-24 Nippon Telegr & Teleph Corp <Ntt> 物体検出/位置測定方法およびその装置、ならびにこの方法の実行プログラムおよびその記録媒体
JP2006252504A (ja) * 2005-02-14 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> パターン認識装置、パターン認識方法、パターン認識プログラム、及びパターン認識プログラムの記録媒体
JP2011055270A (ja) * 2009-09-02 2011-03-17 Canon Inc 情報送信装置及び情報送信方法
JP2012059196A (ja) * 2010-09-13 2012-03-22 Canon Inc 表示制御装置及び表示制御方法

Also Published As

Publication number Publication date
JP7176719B2 (ja) 2022-11-22

Similar Documents

Publication Publication Date Title
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
US20200374455A1 (en) Adaptive camera control for reducing motion blur during real-time image capture
US11887318B2 (en) Object tracking
EP3783564A1 (en) Image processing method, computer readable storage medium, and electronic device
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
US10015374B2 (en) Image capturing apparatus and photo composition method thereof
CN107431762B (zh) 图像处理设备、图像处理方法以及图像处理***
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
KR20110023472A (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
US9275284B2 (en) Method and apparatus for extraction of static scene photo from sequence of images
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理***
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP2017142613A (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP2014222825A (ja) 映像処理装置および映像処理方法
JP5183152B2 (ja) 画像処理装置
TWI556651B (zh) 具攝影機自動調派功能之3d影像監控系統及其監控方法
CN113688820A (zh) 频闪条带信息识别方法、装置和电子设备
JP6325643B2 (ja) モニタリングシステムにおける信頼性を高めるための方法
KR102107137B1 (ko) 팬틸트줌 카메라를 이용한 이벤트 감지방법 및 장치
JP2018201146A (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
JP7176719B2 (ja) 検出装置、検出システム、検出方法及びプログラム
JP6452738B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN113108919B (zh) 人体温度检测方法、装置和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R151 Written notification of patent or utility model registration

Ref document number: 7176719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151