JP2021093037A - 算出システム、算出方法、プログラム、及び記憶媒体 - Google Patents

算出システム、算出方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2021093037A
JP2021093037A JP2019224034A JP2019224034A JP2021093037A JP 2021093037 A JP2021093037 A JP 2021093037A JP 2019224034 A JP2019224034 A JP 2019224034A JP 2019224034 A JP2019224034 A JP 2019224034A JP 2021093037 A JP2021093037 A JP 2021093037A
Authority
JP
Japan
Prior art keywords
calculated
target
image
person
provisional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019224034A
Other languages
English (en)
Other versions
JP7516037B2 (ja
Inventor
勇輔 青木
Yusuke Aoki
勇輔 青木
洋次郎 登内
Yojiro Touchi
洋次郎 登内
俊信 中洲
Toshinobu Nakasu
俊信 中洲
智行 柴田
Satoyuki Shibata
智行 柴田
勇樹 櫻井
Yuki Sakurai
勇樹 櫻井
明子 加瀬
Akiko Kase
明子 加瀬
亮 森長
Akira Morinaga
亮 森長
岩崎 正樹
Masaki Iwasaki
正樹 岩崎
翔 川畑
Sho Kawabata
翔 川畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019224034A priority Critical patent/JP7516037B2/ja
Priority claimed from JP2019224034A external-priority patent/JP7516037B2/ja
Priority to US17/117,631 priority patent/US11461923B2/en
Priority to CN202011456727.2A priority patent/CN112949375A/zh
Publication of JP2021093037A publication Critical patent/JP2021093037A/ja
Application granted granted Critical
Publication of JP7516037B2 publication Critical patent/JP7516037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】所要時間を、より精度良く算出できる、算出システム、算出方法、プログラム、及び記憶媒体を提供する。【解決手段】実施形態に係る算出システムは、検出部、統合部、及び時間算出部を備える。前記検出部は、互いに異なる角度から対象を撮影した複数の画像を参照し、前記複数の画像のそれぞれについて、前記対象を検出し、所定の座標系における前記対象の暫定位置を算出する。前記統合部は、算出された前記複数の暫定位置を用いて、前記座標系における前記対象の統合位置を算出する。前記時間算出部は、複数の工程に関する情報を含む工程情報と、前記座標系で表された、各工程が実行される実行領域と、を参照し、前記統合位置及び前記複数の実行領域に基づいて、前記複数の工程の少なくとも一部の所要時間を算出する。【選択図】図1

Description

本発明の実施形態は、算出システム、算出方法、プログラム、及び記憶媒体に関する。
従来、生産性を改善するために、工程の所要時間の管理が行われている。所要時間を、より精度良く算出できる技術が求められている。
特開2017-091249号公報
本発明が解決しようとする課題は、所要時間を、より精度良く算出できる、算出システム、算出方法、プログラム、及び記憶媒体を提供することである。
実施形態に係る算出システムは、検出部、統合部、及び時間算出部を備える。前記検出部は、互いに異なる角度から対象を撮影した複数の画像を参照し、前記複数の画像のそれぞれについて、前記対象を検出し、所定の座標系における前記対象の暫定位置を算出する。前記統合部は、算出された前記複数の暫定位置を用いて、前記座標系における前記対象の統合位置を算出する。前記時間算出部は、複数の工程に関する情報を含む工程情報と、前記座標系で表された、各工程が実行される実行領域と、を参照し、前記統合位置及び前記複数の実行領域に基づいて、前記複数の工程の少なくとも一部の所要時間を算出する。
実施形態に係る算出システムの構成を表す模式図である。 実施形態に係る算出システムの適用例を表す模式図である。 実施形態に係る算出システムにおける処理を説明するための模式図である。 実施形態に係る算出システムにおける処理を説明するための模式図である。 (a)検出部による出力を例示する表である。(b)統合部による出力を例示する表である。 (a)工程情報を例示する表である。(b)工程の実行の判定結果を例示する表である。(c)工程の所要時間の算出結果を例示する表である。 実施形態に係る算出システムの出力例を表す模式図である。 実施形態に係る算出システムの出力例を表す模式図である。 実施形態に係る算出システムの出力例を表す模式図である。 実施形態に係る算出システムを用いた所要時間の算出方法を表すフローチャートである。 処理装置のハードウェア構成を表すブロック図である。
以下に、本発明の各実施形態について図面を参照しつつ説明する。
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、実施形態に係る算出システムの構成を表す模式図である。
実施形態に係る算出システム100は、対象が工程の実行に要した時間を自動的に算出するために用いられる。
実施形態に係る算出システム100は、図1に表したように、取得部11、検出部12、統合部13、時間算出部14、及び出力部15を備える。算出システム100は、複数の撮像装置20、入力装置30、出力装置40、及び記憶装置50をさらに備えても良い。図1の例では、処理装置10が、取得部11、検出部12、統合部13、時間算出部14、及び出力部15として機能する。
複数の撮像装置20は、対象を撮影し、静止画像を取得する。各撮像装置20により動画が取得され、動画から静止画像が切り出されても良い。複数の撮像装置20は、互いに異なる位置に設けられる。また、複数の撮像装置20は、同じ時刻に実質的に同時に対象を撮影する。これにより、特定の時刻において、対象は、互いに異なる複数の角度から撮影される。各撮像装置20は、取得した画像を記憶装置50に記憶する。撮像装置20は、例えばカメラである。
対象は建物の中に存在しても良いし、建物の外に存在しても良い。実施形態に係る算出システム100は、工場内での製造、建物内での据付工事など、屋内で実行される工程に対して用いられても良い。算出システム100は、建造物の組み立て、建物外での設置工事など、屋外で実行される工程に対して用いられても良い。対象が存在する場所に応じて、複数の撮像装置20は、屋内に設けられても良いし、屋外に設けられても良い。例えば、対象が建物の中で工程を実行する場合、複数の撮像装置20は、建物の壁又は天井、建物内の設備などに取り付けられる。対象が建物の外で工程を実行する場合、複数の撮像装置20は、建物の外壁、屋外の設備などに取り付けられる。
対象は、人物でも良いし、移動体でも良い。移動体は、ロボット又は無人搬送車(AGV)などである。以下では、主に対象が人物である場合について説明する。
取得部11は、記憶装置50にアクセスし、記憶された画像を取得する。又は、撮像装置20から取得部11に画像が直接送信されても良い。取得部11は、取得した複数の画像を検出部12へ送る。
検出部12は、各画像に含まれる対象を検出する。検出部12は、検出結果に基づいて、対象の位置を算出する。位置は、所定の2次元座標系で表される。ここでは、各画像から算出された対象の位置を「暫定位置」という。対象が写っている画像の数に応じて、複数の暫定位置が算出される。検出部12は、算出した複数の暫定位置を、統合部13へ送る。
統合部13は、複数の暫定位置を用いて、対象の統合的な位置を算出する。ここでは、複数の暫定位置から算出された対象の位置を「統合位置」という。統合位置は、暫定位置と同じ座標系で表される。統合部13は、算出した統合位置を時間算出部14へ送る。
記憶装置50には、複数の工程に関する情報を含む工程情報と、複数の実行領域と、が予め記憶される。複数の実行領域は、複数の工程が実行される領域をそれぞれ示す。各実行領域は、統合位置と同じ座標系で表される。工程情報は、工程を識別するための文字列を含む。工程情報は、複数の工程の実行順序、工程が実行される予定時刻、工程を実行する人物に関するデータなどを含んでも良い。
時間算出部14は、記憶装置50に記憶された工程情報及び複数の実行領域を参照する。時間算出部14は、統合位置がいずれかの実行領域内にあるとき、その実行領域に対応する工程が実行されていると判定する。
時間算出部14は、判定の際に、工程情報に含まれるデータを用いても良い。例えば、工程情報が予定時刻を含む場合、時間算出部14は、対象が統合位置に存在する時刻に実行予定の工程を検索する。時間算出部14は、工程が見つかると、統合位置と、その工程が実行される実行領域と、を比較する。時間算出部14は、統合位置が実行領域内にあるとき、その工程が実行されていると判定する。
複数の撮像装置20による画像の取得は、所定の間隔で繰り返し実行される。所定間隔で繰り返し取得された複数の画像について、対象の検出、暫定位置の算出、統合位置の算出、及び工程の実行の判定が、繰り返し実行される。時間算出部14は、工程が実行されていると連続して判定された時間を、対象の工程への所要時間として算出する。時間算出部14は、算出した所要時間を出力部15へ送る。
出力部15は、データを外部へ出力する。例えば、出力部15は、算出された所要時間を処理装置10の外部へ出力する。出力部15は、撮影された複数の画像の1つ以上、算出された複数の暫定位置の1つ以上、及び統合位置の少なくともいずれかをさらに出力しても良い。
出力部15は、データを出力装置40へ出力しても良い。出力部15は、データを、CSVなどの所定のファイル形式で出力し、記憶装置50又はSDカードなどの記録媒体に出力しても良い。又は、出力部15は、FTP(File Transfer Protocol)などを用いて外部のサーバへデータを送信しても良い。出力部15は、データベース通信を行って、ODBC(Open Database Connectivity)などを用いて、外部のデータベースサーバへデータを挿入してもよい。
入力装置30は、ユーザが処理装置10にデータを入力する際に使用される。入力装置30は、マウス、キーボード、マイクロフォン、及びタッチパッドの少なくともいずれかを含む。取得部11は、入力装置30から入力されたデータを受け付ける。ユーザが入力装置30を用いて工程情報、実行領域などを入力し、処理装置10を介して記憶装置50に記憶しても良い。
出力装置40は、ユーザが認識できるようにデータを出力する。出力装置40は、モニタ、プロジェクタ、プリンタ、及びスピーカの少なくともいずれかを含む。タッチパネルのように、入力装置30及び出力装置40の両方の機能を備える装置が用いられても良い。
処理装置10は、中央演算処理装置を備えた処理回路を含む。記憶装置50は、ハードディスクドライブ(HDD)、又はソリッドステートドライブ(SSD)などを含む。処理装置10、複数の撮像装置20、入力装置30、出力装置40、及び記憶装置50は、無線通信又は有線通信で互いに接続される。処理装置10、入力装置30、出力装置40、及び記憶装置50は、1つの機器に組み込まれても良い。
実施形態の効果を説明する。
従来、所要時間は、監視者が工程を監視して計測することで記録されていた。この方法では、監視者が計測に多くの時間を必要とする。また、監視者の経験、感覚などに応じて、計測結果にばらつきが生じる。他には、1つの撮像装置で工程を撮影し、その画像から所要時間を計測する方法もある。この方法では、対象の少なくとも一部が物陰に隠れると、対象の位置を正確に算出できない可能性がある。この結果、所要時間を正確に算出できない可能性がある。
実施形態に係る算出システム100では、複数の撮像装置20が用いられる。複数の撮像装置20は、互いに異なる角度から対象を撮影するように設けられる。このため、1つの撮像装置20からは対象が隠れている場合でも、別の撮像装置20から対象を撮影できる。これらの複数の撮像装置20による複数の画像を用いて統合位置を算出することで、対象の位置をより精度良く算出できる。この結果、統合位置に基づく所要時間も、より精度良く算出できる。また、自動的に撮影される画像から所要時間を算出できるため、監視者の手間を省略できる。
以下で算出システム100の好適な具体例について説明する。
図2は、実施形態に係る算出システムの適用例を表す模式図である。
図3及び図4は、実施形態に係る算出システムにおける処理を説明するための模式図である。
図2に表した現場Aでは、棚B1及びB2、机C、及び仕掛品Dが置かれている。これらの周りには、複数の撮像装置20a〜20jが設けられている。対象である人物Eは、棚B1、棚B2、机C、又は仕掛品Dのいずれかが置かれた場所で工程を実行する。複数の撮像装置20a〜20jは、現場Aを撮影し、画像を記憶装置50に記憶する。
画像から対象を検出するための第1モデルが、記憶装置50に予め記憶される。第1モデルは、ニューラルネットワークを含む。好ましくは、第1モデルは、Convolutional Neural Network(CNN)を含む。CNNを用いることで、各画像から対象を精度良く検出できる。第1モデルは、画像から対象を検出できるように予め学習される。又は、検出部12は、Single Shot MultiBox Detector(SSD)又はRegions with CNN(R−CNN)を用いて各画像から対象を検出しても良い。
検出部12は、第1モデルに画像を入力し、画像に含まれる対象を検出する。検出部12は、検出結果に基づいて、対象が写された画像の一部を切り出す。例えば、画像の一部は、長方形に切り出される。検出部12は、各画像から切り出した、対象が写された画像を記憶装置50に記憶する。また、検出部12は、各画像において対象が切り出された位置を、検出領域として記憶装置50に記憶する。
検出部12は、記憶装置50に予め記憶された、2次元の座標系で表された地図データを参照する。図3(a)は、地図データMを例示する模式図である。地図データには、複数の参照点Reが予め設定される。図3(b)は、1つの撮像装置20で取得された画像を模式的に表す。各撮像装置20で撮影される画像に対して、複数の基準点Stが予め設定される。地図データには、複数の撮像装置20に対して共通に複数の参照点が設定されても良いし、撮像装置20ごとに複数の参照点が設定されても良い。
画像中の複数の基準点は、地図データの複数の参照点と対応する位置に設定される。検出部12は、複数の基準点がそれぞれ複数の参照点と一致するように、画像の座標系を変換する。変換には、透視投影変換行列を用いることができる。これにより、各画像中の座標を、共通の2次元の座標系で表すことができる。
検出部12は、対象の床面への接地部分を基準に、画像中の対象の位置を算出する。対象が人物である場合、接地部分は足である。対象が移動体である場合、接地部分は、車輪又はクローラなどである。例えば、検出部12は、検出領域の底辺中央の位置を、画像中の対象の位置として用いる。上述した座標系の変換により、共通の座標系における対象の暫定位置が算出される。
対象として人物を検出する場合、検出部12は、人物を識別しても良い。画像から人物を識別するための第2モデルが、記憶装置50に予め記憶される。第2モデルは、例えばニューラルネットワークを含む。好ましくは、第2モデルは、CNNを含む。CNNを用いることで、人物を精度良く識別できる。第2モデルは、人物を識別できるように予め学習される。又は、検出部12は、Histograms of Oriented Gradients(HOG)特徴量を画像から抽出し、HOG特徴量をsupport vector machine(SVM)に入力して人物を識別しても良い。
検出部12は、第2モデルに切り出した画像を入力する。検出部12は、最も高い信頼度が得られたクラスに対応する人物を、画像に含まれる人物として識別する。検出部12は、人物の識別結果を信頼度とともに記憶装置50に記憶する。
人物は、検出部12による識別を容易とするために、マーカを身に付けていても良い。第2モデルは、マーカを識別することで、人物を識別しても良い。例えば、人物がビブスを着用しているときには、第2モデルは、ビブスの色、又は印字された文字などを識別しても良い。検出部12は、マーカの識別結果を、人物の識別結果として記憶装置50に記憶する。
検出部12は、画像中の対象の暫定位置を算出したときに、その確度を算出する。例えば、確度が高いほど、暫定位置の精度が高いことを示す。確度は、例えば、以下の5つの値の少なくともいずれかを用いて算出される。
1つ目は、人物の識別結果に対する信頼度である。信頼度が高いほど、人物の識別結果がより正確であることを示す。換言すると、画像において人物がより鮮明に写っていることを示す。信頼度が高いほど、確度は高く算出される。
2つ目は、画像中の対象のサイズである。これは、換言すると、検出領域のサイズである。対象が撮像装置20に近いほど、対象はより大きく写る。対象が大きく写るほど、暫定位置の精度が向上する。従って、サイズが大きいほど、確度は高く算出される。
3つ目は、画像の中心と対象との間の距離である。例えば、検出部12は、画像の中心と検出領域の中心との間の距離を算出する。距離が短いほど、対象が画像から見切れる可能性が低下する。対象の見切れている割合が小さいほど、暫定位置の精度が向上する。従って、距離が短いほど、確度は高く算出される。
4つ目は、人物の姿勢を示す値である。検出部12は、切り出された画像から、人物の骨格データを抽出する。図4(a)は、切り出された画像IM1と抽出された骨格データを表す。骨格データとして、複数の関節Joが抽出される。検出部12は、両肩の幅W1を算出する。検出部12は、切り出された画像の高さH1に対する幅W1の比R1を算出する。例えば、各人物が正面を向いているときの身長H2に対する肩幅W2の比R2が、予め記憶装置50に記憶される。検出部12は、比R2に対する比R1の比R3を、人物の姿勢を示す値として用いる。比R3が大きいほど、画像中で人物がより正面又は背面を向いていることを示す。人物が正面又は背面を向いているほど、人物の両手及び両足が写っている可能性が高く、対象の検出の精度が向上する。従って、比R3が大きいほど、確度は高く算出される。
5つ目は、画像中の対象の露出度である。図4(b)は、画像の一部を表す。この例では、人物が作業しており、人物の一部が隠れている。この場合、対象が写った領域として、検出領域DR1が検出される。検出部12は、検出領域DR1に写された人物の骨格位置を抽出するとともに隠れている骨格の位置を推定する。
例えば、画像に基づいて人物の骨格の位置を推定するとともに、各関節の関連性も推定するためのモデルが、予め記憶装置50に記憶される。モデルとしては、OpenPoseを用いることができる。検出部12は、モデルを用いて、隠れている骨格を含む人物の骨格位置を推定する。検出部12は、推定結果に基づいて、検出領域を補正する。補正された検出領域DR2は、遮蔽物が無かった場合に、人物が写っていると推定される領域である。
検出部12は、補正された検出領域DR2の面積に対する検出領域DR1の面積の比を、露出度として算出する。露出度が高いほど、対象の多くの部分が写っていることを示す。露出度が高いほど、対象の検出の精度が向上する。従って、露出度が大きいほど、確度は高く算出される。
検出部12は、上述した5つの値の少なくともいずれかを用いて、確度を算出する。好ましくは、検出部12は、5つの値の全てを用いて確度を算出する。例えば、検出部12は、5つの値の平均を確度として用いる。又は、5つの値のそれぞれに、これらの値の優先度を考慮して、予め重みが設定されても良い。検出部12は、各値と重みを掛け合わせ、それらの和を確度として用いても良い。検出部12は、各暫定位置に対して、確度を算出する。
工程が実行される現場に、高低差が存在する場合がある。対象が床面よりも高い領域に存在するときは、画像中の対象が、実際よりも撮像装置20から離れた位置に存在すると算出される可能性がある。対象が床面よりも高い領域に存在するときは、その高さの分、画像中の対象の位置が補正されても良い。例えば、撮像装置20で取得される画像中に、床面よりも高い第1領域が含まれる場合、その第1領域の範囲と高さが、画像中の座標系で予め設定される。検出部12は、画像から対象が検出されると、対象の検出領域が、第1領域に含まれるか判定する。検出領域が第1領域に含まれるときには、検出領域の位置を高さの分シフトさせる。
一例として、画像の左上が原点として設定され、検出領域及び第1領域は長方形状である。検出領域の対角の座標は、(x1、y1、x2、y2)である。第1領域の対角の座標は、(X1、Y1、X2、Y2)である。第1領域の床面からの高さは、hである。検出領域が第1領域に含まれるとき、補正後の検出領域の対角の座標は、(x1、y1+h、x2、y2+h)で表される。床面からの高さに応じて検出領域が補正されることで、画像中の対象の位置をより精度良く算出できる。
上述した通り、対象の暫定位置は、対象の床面への接地部分の位置を用いて算出される。接地部分が物陰に隠れており、対象の別の部分の位置を用いて暫定位置が算出されると、暫定位置の精度が低下する可能性がある。このため、検出部12は、対象の床面への接地部分が物陰に隠れているときには、接地部分の位置を推定し、検出領域を補正しても良い。例えば、検出部12は、人物の骨格データを抽出し、抽出された骨格データに基づいて隠れている骨格の位置を推定する。検出部12は、検出領域が推定された骨格も含むように、検出領域の範囲を補正する。これにより、画像中の対象の位置をより精度良く算出できる。
統合部13は、複数の暫定位置と、各暫定位置に対する確度と、を用いて統合位置を算出する。例えば、統合部13は、確度を重みとして用いる。統合部13は、複数の確度を正規化し、各暫定位置に確度を掛け合わせる。統合部13は、それぞれの積の和を統合位置として算出する。確度を用いて統合位置を算出することで、統合位置をより精度良く算出できる。
統合部13は、統合位置を算出する際に、統合的な確度を算出しても良い。統合的な確度は、例えば、暫定位置同士の間の距離に基づいて算出できる。暫定位置同士の間の距離が短いほど、それらに基づいて算出される統合位置も、より確からしいと考えられる。従って、暫定位置同士の間の距離が短いほど、統合的な確度は、より高く算出される。
図5(a)は、検出部による出力を例示する表である。図5(b)は、統合部による出力を例示する表である。
図5(a)の例では、赤色のビブスを着用した人物と青色のビブスを着用した人物が識別され、それぞれの暫定位置と確度が算出されている。この例では、検出部12による出力は、時刻、撮像装置の識別データ、人物の識別結果としての色及び識別データ、暫定位置の座標、及び確度を含む。図5(b)は、図5(a)の出力に基づいて、統合部13が統合位置を算出した結果を表す。この例では、統合部13による出力は、時刻、人物の識別結果としての色及び識別データ、統合位置の座標、及び統合的な確度を含む。検出部12及び統合部13は、これらの出力を記憶装置50に記憶する。
図6(a)は、工程情報を例示する表である。図6(b)は、工程の実行の判定結果を例示する表である。図6(c)は、工程の所要時間の算出結果を例示する表である。
時間算出部14は、例えば図6(a)に表した工程情報と、各工程が実行される実行領域と、を参照する。図2の例では、棚、机、及び仕掛品が置かれた場所に、それぞれ実行領域Re1〜Re3が設定されている。
図6(a)の例では、工程情報は、工程名称、開始予定時刻、終了予定時刻、及び工程の実行順序を含む。実行順序は、例えば、工程の開始予定時刻及び終了予定時刻に基づいて自動的に入力される。時間算出部14は、最初に実行される工程の実行領域を参照し、統合位置がその実行領域内にあるか判定する。時間算出部14は、統合位置がその実行領域から外れると、その工程を終了したと判定する。時間算出部14は、次に実行される工程の実行領域を参照し、その実行領域内にあるか判定する。これを繰り返すことで、各工程の実行が判定される。対象が複数である場合は、対象ごとに、各時刻において工程の実行が判定される。
図6(b)に表したように、各時刻における工程の実行が時間算出部14により判定される。時間算出部14は、図6(c)に表したように、この判定結果に基づいて、各工程の所要時間を算出する。対象が複数であるときは、時間算出部14は、対象ごとに各工程の所要時間を算出する。
図7〜図9は、実施形態に係る算出システムの出力例を表す模式図である。
出力装置40がモニタである場合、出力部15は、出力装置40にグラフィカルユーザインターフェース(GUI)を表示させ、GUI上で各データを表示させても良い。
例えば図7に表した画面では、製造現場を表す模式図と、複数の撮像装置20を表す複数のアイコンICと、が表示されている。また、製造現場には、複数のマークM1〜M6が表示されている。この例では、破線で表されたマークは、暫定位置を示している。実線で表されたマークは、統合位置を示している。また、マークM4〜M6にはパターンが付され、マークM1〜M3にはパターンが付されていない。マークM4〜M6に係る対象は、マークM1〜M3に係る対象と異なることを示している。
画面には、時刻の入力欄EF1がさらに表示される。ユーザは、結果を確認したい時刻を入力欄EF1に入力する。出力部15は、入力された時刻に関する結果を画面に表示させる。
ユーザは、入力装置30を用いてポインタPoを操作できる。例えば、ユーザが撮像装置20のアイコンICにポインタPoを重ね、クリックする。出力部15は、設定された時刻に、指定された撮像装置20で取得された画像を画面に表示させる。例えば、ユーザが暫定位置を示すマークにポインタPoを重ね、クリックする。出力部15は、その暫定位置の算出に使用された画像を検索し、画面に表示される。例えば図8に表したように、暫定位置、統合位置などが表示された画面内に画像IM2が表示される。画像IM2は、別の画面に表示されても良い。
ユーザが統合位置をクリックすると、その統合位置の算出に使用された複数の画像の一部が、画面に表示される。例えば、統合位置がクリックされると、出力部15は、その統合位置の算出に使用された複数の暫定位置に対する複数の確度を参照する。出力部15は、確度が最も高い暫定位置が得られた画像を選定し、画面に表示させる。
最も高い確度が得られた画像は、複数の画像の中で最も対象を確認し易い可能性が高い。確度に基づいて表示される画像が選定されることで、ユーザは、算出システム100による出力結果を容易に確認できる。
出力部15は、特定の期間における統合位置の変遷を画面に表示させても良い。統合位置の変遷は、対象の移動経路を表す。例えば図9に表したように、ユーザは、入力欄EF2に期間を指定する。出力部15は、期間内の各時刻における統合位置を参照し、それらを連続的に繋げて移動経路Gを表示させる。移動経路Gが表示されることで、対象の移動に無駄が無いかなどを容易に確認できる。
移動経路Gの一部がクリックされたとき、出力部15は、対象がクリックされた位置に存在していた時刻に撮影された画像を表示させても良い。このとき、出力部15は、上述した方法と同様に、複数の確度に基づいて表示させる画像を選定する。
図10は、実施形態に係る算出システムを用いた所要時間の算出方法を表すフローチャートである。
複数の撮像装置20が、対象を撮影する(ステップSt1)。取得部11が複数の画像を取得すると、検出部12は、各画像中の対象を検出する(ステップSt2)。検出部12は、各検出領域を補正する(ステップSt3)。具体的には、床面との高低差の補正、接地部分の推定に基づく補正などが、適宜実行される。検出部12は、各検出領域の暫定位置を算出する(ステップSt4)。検出部12は、各暫定位置の確度を算出する(ステップSt5)。統合部13は、複数の暫定位置及び複数の確度を用いて統合位置を算出する(ステップSt6)。時間算出部14は、工程の実行を判定する(ステップSt7)。時間算出部14は、判定結果に基づいて、各工程の所要時間を算出する(ステップSt8)。出力部15は、各種結果を出力する(ステップSt9)。
図11は、処理装置のハードウェア構成を表すブロック図である。
実施形態に係る算出システム100の処理装置10は、コンピュータ110により実現される。コンピュータ110は、Read Only Memory(ROM)111、Random Access Memory(RAM)112、CPU113、およびHDD114を有する。
ROM111は、コンピュータ110の動作を制御するプログラムを記憶している。ROM111には、コンピュータ110に上述した各処理を実現させるために必要なプログラムが記憶されている。
RAM112は、ROM111に記憶されたプログラムが展開される記憶領域として機能する。CPU113は、処理回路を含む。CPU113は、ROM111に記憶された制御プログラムを読み込み、当該制御プログラムに従ってコンピュータ110の動作を制御する。また、CPU113は、コンピュータ110の動作によって得られた様々なデータをRAM112に展開する。HDD114は、読み取りに必要なデータや、読み取りの過程で得られたデータを記憶する。HDD114は、記憶装置50として機能しても良い。
コンピュータ110は、HDD114に代えて、embedded Multi Media Card(eMMC)、ソリッドステートドライブ、Solid State Hybrid Drive(SSHD)などを有していても良い。処理装置10は、2つ以上のコンピュータの協働により実現されても良い。
以上で説明した実施形態に係る算出システム及び算出方法を用いることで、工程の所要時間をより精度良く算出できる。また、コンピュータを、算出システムとして動作させるためのプログラムを用いることで、同様の効果を得ることができる。
上記の種々のデータの処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、または、他の記録媒体に記録されても良い。
例えば、記録媒体に記録されたデータは、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。
以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。
10 処理装置、 11 取得部、 12 検出部、 13 統合部、 14 時間算出部、 15 出力部、 20,20a〜20j 撮像装置、 30 入力装置、 40 出力装置、 50 記憶装置、 100 算出システム、 110 コンピュータ

Claims (19)

  1. 互いに異なる角度から対象を撮影した複数の画像を参照し、前記複数の画像のそれぞれについて、前記対象を検出し、所定の座標系における前記対象の暫定位置を算出する検出部と、
    算出された前記複数の暫定位置を用いて、前記座標系における前記対象の統合位置を算出する統合部と、
    複数の工程に関する情報を含む工程情報と、前記座標系で表された、各工程が実行される実行領域と、を参照し、前記統合位置及び前記複数の実行領域に基づいて、前記複数の工程の少なくとも一部の所要時間を算出する時間算出部と、
    を備えた算出システム。
  2. 前記検出部は、前記複数の暫定位置に対する複数の確度をそれぞれ算出し、
    前記統合部は、前記複数の暫定位置及び前記複数の確度を用いて前記統合位置を算出する請求項1記載の算出システム。
  3. 前記複数の画像の1つ以上、前記複数の暫定位置の1つ以上、及び前記統合位置の少なくともいずれかを出力する出力部をさらに備えた請求項2記載の算出システム。
  4. 前記出力部は、前記複数の確度に基づいて、前記複数の画像の一部を出力する請求項3記載の算出システム。
  5. 前記出力部は、時間に対する前記統合位置の変化をさらに出力する請求項3又は4に記載の算出システム。
  6. 前記検出部は、前記対象として人物を検出し、且つ前記人物を識別する請求項2〜5のいずれか1つに記載の算出システム。
  7. 前記検出部は、
    前記人物の識別結果に対する信頼度、
    前記画像中の前記対象のサイズ、
    前記画像の中心と前記対象との間の距離、
    前記人物の姿勢を示す値、及び
    前記画像中の前記対象の露出度、
    の少なくともいずれかを用いて、前記複数の確度のそれぞれを算出する請求項6記載の算出システム。
  8. 前記検出部は、
    2次元の前記座標系における前記複数の暫定位置を算出し、
    検出された前記対象が床面より高い第1領域に含まれるときには、前記第1領域と前記床面との高さの差を用いて前記複数の暫定位置を補正する、
    請求項1〜7のいずれか1つに記載の算出システム。
  9. 前記検出部は、前記対象の床面への接地部分が前記画像に写っていないときには、前記画像における前記対象の前記接地部分の位置を推定し、推定した結果に基づいて前記暫定位置を算出する請求項1〜8のいずれか1つに記載の算出システム。
  10. 前記検出部は、
    前記複数の画像について、前記対象として人物を検出し、且つ前記人物を識別し、
    前記複数の画像のそれぞれに複数の人物が写っているときには、前記複数の人物のそれぞれの前記暫定位置を算出し、
    前記統合部は、前記複数の人物のそれぞれについて、前記統合位置を算出する請求項1〜9のいずれか1つに記載の算出システム。
  11. 前記工程情報は、前記複数の工程のそれぞれが実行される時刻を含み、
    前記時間算出部は、各時刻における前記統合位置を、各時刻で実行される前記工程の実行領域と比較し、前記統合位置が前記実行領域に含まれていた時間を、前記複数の工程の前記少なくとも一部の前記所要時間として算出する請求項1〜10のいずれか1つに記載の算出システム。
  12. 互いに異なる角度から対象を撮影する複数の撮像装置をさらに備えた請求項1〜11のいずれか1つに記載の算出システム。
  13. 互いに異なる角度から対象を撮影した複数の画像を参照し、
    前記複数の画像のそれぞれについて、前記対象を検出し、
    所定の座標系における前記対象の暫定位置を算出し、
    算出された前記複数の暫定位置を用いて、前記座標系における前記対象の統合位置を算出し、
    複数の工程に関する情報を含む工程情報と、前記座標系で表された、各工程が実行される実行領域と、を参照し、
    前記統合位置及び前記複数の実行領域に基づいて、前記複数の工程の少なくとも一部の所要時間を算出する、
    算出方法。
  14. 前記複数の暫定位置に対する複数の確度をそれぞれ算出し、
    前記複数の暫定位置及び前記複数の確度を用いて前記統合位置を算出する請求項13記載の算出方法。
  15. 前記対象として人物を検出し、且つ前記人物を識別し、
    前記人物の識別結果に対する信頼度、
    前記画像中の前記対象のサイズ、
    前記画像の中心と前記対象との間の距離、
    前記人物の姿勢を示す値、及び
    前記画像中の前記対象の露出度、
    の少なくともいずれかを用いて、前記複数の確度のそれぞれを算出する請求項14記載の算出方法。
  16. コンピュータに、
    互いに異なる角度から対象を撮影した複数の画像を参照させ、
    前記複数の画像のそれぞれについて、前記対象を検出させ、
    所定の座標系における前記対象の暫定位置を算出させ、
    算出された前記複数の暫定位置を用いて、前記座標系における前記対象の統合位置を算出させ、
    複数の工程に関する情報を含む工程情報と、前記座標系で表された、各工程が実行される実行領域と、を参照させ、
    前記統合位置及び前記複数の実行領域に基づいて、前記複数の工程の少なくとも一部の所要時間を算出させる、
    プログラム。
  17. 前記コンピュータに、
    前記複数の暫定位置に対する複数の確度をそれぞれ算出させ、
    前記複数の暫定位置及び前記複数の確度を用いて前記統合位置を算出させる、
    請求項16記載のプログラム。
  18. 前記コンピュータに、
    前記対象として人物を検出させ、且つ前記人物を識別させ、
    前記人物の識別結果に対する信頼度、
    前記画像中の前記対象のサイズ、
    前記画像の中心と前記対象との間の距離、
    前記人物の姿勢を示す値、及び
    前記画像中の前記対象の露出度、
    の少なくともいずれかを用いて、前記複数の確度のそれぞれを算出させる、
    請求項17記載のプログラム。
  19. 請求項16〜18のいずれか1つに記載のプログラムを記憶した記憶媒体。
JP2019224034A 2019-12-11 2019-12-11 算出システム、算出方法、プログラム、及び記憶媒体 Active JP7516037B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019224034A JP7516037B2 (ja) 2019-12-11 算出システム、算出方法、プログラム、及び記憶媒体
US17/117,631 US11461923B2 (en) 2019-12-11 2020-12-10 Calculation system, calculation method, and storage medium
CN202011456727.2A CN112949375A (zh) 2019-12-11 2020-12-11 计算***、计算方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019224034A JP7516037B2 (ja) 2019-12-11 算出システム、算出方法、プログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2021093037A true JP2021093037A (ja) 2021-06-17
JP7516037B2 JP7516037B2 (ja) 2024-07-16

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100718A1 (ja) * 2021-11-30 2023-06-08 パナソニックIpマネジメント株式会社 疲労推定システム、推定装置、及び疲労推定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2013187862A (ja) * 2012-03-09 2013-09-19 Topcon Corp 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP2015141722A (ja) * 2015-03-06 2015-08-03 パナソニックIpマネジメント株式会社 店員作業管理装置、店員作業管理システムおよび店員作業管理方法
US20160292533A1 (en) * 2015-04-01 2016-10-06 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
JP2019125354A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
WO2019155727A1 (ja) * 2018-02-08 2019-08-15 三菱電機株式会社 情報処理装置、追跡方法、及び追跡プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2013187862A (ja) * 2012-03-09 2013-09-19 Topcon Corp 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP2015141722A (ja) * 2015-03-06 2015-08-03 パナソニックIpマネジメント株式会社 店員作業管理装置、店員作業管理システムおよび店員作業管理方法
US20160292533A1 (en) * 2015-04-01 2016-10-06 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
JP2019125354A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
WO2019155727A1 (ja) * 2018-02-08 2019-08-15 三菱電機株式会社 情報処理装置、追跡方法、及び追跡プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100718A1 (ja) * 2021-11-30 2023-06-08 パナソニックIpマネジメント株式会社 疲労推定システム、推定装置、及び疲労推定方法

Also Published As

Publication number Publication date
US20210192771A1 (en) 2021-06-24
US11461923B2 (en) 2022-10-04
CN112949375A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN110199321B (zh) 用于混合现实***的定位确定
Rehman et al. Augmented-reality-based indoor navigation: A comparative analysis of handheld devices versus *** glass
TWI574223B (zh) 運用擴增實境技術之導航系統
US9135513B2 (en) Image processing apparatus and method for obtaining position and orientation of imaging apparatus
EP3104329B1 (en) Image processing device and image processing method
US10800550B2 (en) Positioning enhancements to localization process for three-dimensional visualization
JP2019041261A (ja) 画像処理システムおよび画像処理システムの設定方法
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
CN110869978A (zh) 信息处理装置和信息处理方法
Makibuchi et al. Vision-based robust calibration for optical see-through head-mounted displays
CN112949375A (zh) 计算***、计算方法及存储介质
Damgrave et al. The drift of the xsens moven motion capturing suit during common movements in a working environment
JP2014209680A (ja) 土地境界表示プログラム、方法、及び端末装置
US20200388078A1 (en) Apparatus for positioning processing between image in real world and image in virtual world, information processing method, and storage medium
CN111338466B (zh) 控制虚拟现实显示单元的方法和装置
WO2020149149A1 (en) Information processing apparatus, information processing method, and program
JP7516037B2 (ja) 算出システム、算出方法、プログラム、及び記憶媒体
JP2021009557A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018134866A1 (ja) カメラ校正装置
JP2022125973A (ja) 位置推定装置および位置推定プログラム並びに位置推定方法
Siltanen et al. Automatic marker field calibration
JPWO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
JP2020008981A (ja) 支援装置及びプログラム
JP2020017096A (ja) 計測装置、計測方法及び計測プログラム
KR20140089220A (ko) 군사 작전 통제 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240404

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604