JP2008040867A - 死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム - Google Patents

死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム Download PDF

Info

Publication number
JP2008040867A
JP2008040867A JP2006215612A JP2006215612A JP2008040867A JP 2008040867 A JP2008040867 A JP 2008040867A JP 2006215612 A JP2006215612 A JP 2006215612A JP 2006215612 A JP2006215612 A JP 2006215612A JP 2008040867 A JP2008040867 A JP 2008040867A
Authority
JP
Japan
Prior art keywords
article
person
blind spot
estimated
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006215612A
Other languages
English (en)
Inventor
Toru Tanigawa
徹 谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006215612A priority Critical patent/JP2008040867A/ja
Publication of JP2008040867A publication Critical patent/JP2008040867A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】煩わしくなく、死角内の障害物品との接触を未然に報知可能な死角内物品報知システム、方法、及びプログラムを提供する。
【解決手段】人位置と物位置とからそれぞれ推定された、人の進路上にある障害物品が、人が運搬中の物品により死角となる範囲にあるとき、人と障害物品との接触の危険性があることを報知することで、必要以上の報知を控え、人にとって煩わしくなく、障害物品と接触することを未然に防ぐことができる。
【選択図】図1

Description

本発明は、物品運搬中の人が、進行通路上にある障害物品と接触することを未然に防ぐ死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラムに関する。
人の生活空間内には実に様々な物品が存在する。これら物品は常に正しく収納されている訳ではなく、人が進行するときに障害となるような床上に放置されていることもある。このような床上に放置された物品は進行中の人にとって滑り、躓きの原因となり、危険である。
このような、移動体と、その進路上にある障害物との接触を防止する手段としては、従来、移動体と障害物との相対距離や、移動体の移動速度を用いることが一般的であった。例えば特許文献1では、自車両の速度と、対象物までの相対距離と相対速度から、対象物と衝突しないための距離を求めて警報条件とする技術が開示されている。
特開平7−257301号公報
しかしながら、人が障害物の存在を認識できているときには、たとえ障害物までの距離が短くなったとしても警報を鳴らされることに対して煩わしさを感じる場合がある。
本発明は、前記課題を解決するためになされ、その目的とするところは、物品を運搬中の人が、進行通路(進路)上にある障害物品との接触を察知できないときに報知を行うことで、人にとって煩わしくなく、障害物品と接触すること未然に防ぐことのできる死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラムを提供することにある。
前記目的を達成するために、本発明は以下のように構成する。
本発明の第1態様によれば、人の身体情報を記録した人物データベースと、
前記人と物品の位置の履歴を記録する履歴データベースと、
前記人の位置を取得し、取得した前記人の位置情報を前記履歴データベースに記録する人位置取得手段と、
前記履歴データベースを参照し、前記人の進行方向を推定する人進行状態推定手段と、
少なくとも前記物品のIDと大きさと形状情報を記録した物品データベースと、
前記物品の位置を取得し、取得した物品の位置情報を前記履歴データベースに記録する物品位置取得手段と、
前記履歴データベースを参照し、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品と推定し、前記人の位置と前記物品の位置が同様の動きをしていない場合の前記物品を障害物品と推定する運搬物品推定手段と、
前記人の眼球の位置を推定する眼球位置推定手段と、
前記人進行状態推定手段が推定した前記人の進行方向に、前記運搬物品推定手段が推定した前記障害物品が存在するか否かを推定する進路上物品推定手段と、
前記眼球位置推定手段で推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて前記人にとって死角となる範囲内に、前記進路上物品推定手段により前記人の進行方向に存在すると推定された前記障害物品が、存在するか否かを推定する死角内物品推定手段と、
前記死角内物品推定手段により、前記運搬物品により隠蔽されて死角となる範囲内に、前記障害物品が存在すると推定されたとき、前記人に前記障害物品の情報を報知する報知手段と、
を備えたことを特徴とする死角内物品報知システムを提供する。
本発明の第7態様によれば、少なくとも、人の位置と、前記人の眼球の位置と、物品の位置の情報を入力可能な情報入力部と、
前記情報入力部より受け取った前記人の位置情報を基に前記人の進行方向を推定する人進行状態推定手段と、
前記情報入力部より受け取った前記人の位置情報と前記物品の位置情報を基に、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定手段と、
前記人進行状態推定手段が推定した前記人の進行方向に、前記運搬物品推定手段が推定した前記障害物品が存在するか否かを推定する進路上物品推定手段と、
前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定手段が推定した前記障害物品が存在するか否かを推定する死角内物品推定手段と、
を備えたことを特徴とする死角内物品推定装置を提供する。
本発明の第8態様によれば、人の位置を取得する人位置取得ステップと、
前記人位置取得ステップにて取得した前記人の位置情報から、前記人の進行方向を推定する人進行状態推定ステップと、
前記物品の位置を取得する物品位置取得ステップと、
前記物品位置取得ステップにて取得した前記物品の位置と、前記人位置取得ステップにて取得した前記人の位置から、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定ステップと、
前記人の眼球の位置を推定する眼球位置推定ステップと、
前記人進行状態推定ステップが推定した前記人の進行方向に、前記運搬物品推定ステップが推定した前記障害物品が存在するか否かを推定する進路上物品推定ステップと、
前記眼球位置推定ステップで推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定ステップで前記人の進行方向に存在すると推定された前記障害物品が存在するか否かを推定する死角内物品推定ステップと、
前記死角内物品推定ステップで前記死角となる範囲内に前記障害物品が存在すると推定されたとき、前記人に情報を報知する報知ステップと、
を備えたことを特徴とする死角内物品報知方法を提供する。
本発明の第9態様によれば、コンピュータに、
人の位置を取得する人位置取得機能と、
前記人位置取得機能にて取得した前記人の位置情報から、前記人の進行方向を推定する人進行状態推定機能と、
物品の位置を取得する物品位置取得機能と、
前記物品位置取得機能にて取得した前記物品の位置と、前記人位置取得機能にて取得した前記人の位置から、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定機能と、
前記人の眼球の位置を推定する眼球位置推定機能と、
前記人進行状態推定機能が推定した前記人の進行方向に、前記運搬物品推定機能が推定した前記障害物品が存在するか否かを推定する進路上物品推定機能と、
前記眼球位置推定機能で推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定機能で前記人の進行方向に存在すると推定された前記障害物品が存在するか否かを推定する死角内物品推定機能と、
前記死角内物品推定機能で前記死角となる範囲内に前記障害物品が存在すると推定されたとき、前記人への情報の報知を実行するための報知機能と、
を実現させるための死角内物品報知プログラムを提供する。
以上のように、本発明は、人の運搬している物品によって生じる死角内に物品が入り、且つ、進行方向にも前記物品があった場合にのみ、前記人と前記物品との接触の可能性があると判断して報知を行うことにより、必要以上の報知を控え、人にとって煩わしくなく、障害物品と接触することを未然に防ぐことのできる死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラムを提供することができる。
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
本発明の第1態様によれば、人の身体情報を記録した人物データベースと、
前記人と物品の位置の履歴を記録する履歴データベースと、
前記人の位置を取得し、取得した前記人の位置情報を前記履歴データベースに記録する人位置取得手段と、
前記履歴データベースを参照し、前記人の進行方向を推定する人進行状態推定手段と、
少なくとも前記物品のIDと大きさと形状情報を記録した物品データベースと、
前記物品の位置を取得し、取得した物品の位置情報を前記履歴データベースに記録する物品位置取得手段と、
前記履歴データベースを参照し、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品と推定し、前記人の位置と前記物品の位置が同様の動きをしていない場合の前記物品を障害物品と推定する運搬物品推定手段と、
前記人の眼球の位置を推定する眼球位置推定手段と、
前記人進行状態推定手段が推定した前記人の進行方向に、前記運搬物品推定手段が推定した前記障害物品が存在するか否かを推定する進路上物品推定手段と、
前記眼球位置推定手段で推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて前記人にとって死角となる範囲内に、前記進路上物品推定手段により前記人の進行方向に存在すると推定された前記障害物品が、存在するか否かを推定する死角内物品推定手段と、
前記死角内物品推定手段により、前記運搬物品により隠蔽されて死角となる範囲内に、前記障害物品が存在すると推定されたとき、前記人に前記障害物品の情報を報知する報知手段と、
を備えたことを特徴とする死角内物品報知システムを提供する。
本発明の第2態様によれば、更に、前記運搬物品の姿勢を検出し、検出した前記運搬物品の姿勢の情報を前記履歴データベースに記録する物品姿勢取得手段を備えて、
前記死角内物品推定手段は、前記物品姿勢取得手段により取得された前記運搬物品の姿勢の情報を参照して、前記運搬物品により隠蔽されて死角となる範囲内に、前記障害物品が存在するか否かを推定することを特徴とする第1の態様に記載の死角内物品報知システムを提供する。
本発明の第3態様によれば、更に、前記物品データベースには前記運搬物品の透過性を示す情報が記録されており、
前記死角内物品推定手段は、更に、前記運搬物品推定手段で推定した前記運搬物品の透過性を示す情報を前記物品データベースにより参照し、前記運搬物品にて隠蔽され死角となる範囲内に、前記障害物品が存在するかを推定することを特徴とする第2の態様に記載の死角内物品報知システムを提供する。
本発明の第4態様によれば、更に、前記人進行状態推定手段が推定した前記人の進行状態から、前記進路上物品推定手段が推定した前記障害物品に、前記人が辿り着くまでの時間を推定する到達時間推定手段を備え、
前記報知手段は、前記死角内物品推定手段が推定した前記障害物品の中に、前記進路上物品推定手段が前記人の進行方向に存在すると推定した前記障害物品が含まれており、且つ、前記到達時間推定手段が推定した時間が報知動作判断用基準時間より短くなった場合、前記人が前記障害物品と接触する危険性があると前記報知手段により判断して、前記報知手段により、前記人に前記障害物品と接触する危険性があることを報知することを特徴とする第1から3のいずれか1つの態様に記載の死角内物品報知システムを提供する。
本発明の第5態様によれば、更に、前記運搬物品推定手段は、前記人位置取得手段が取得した前記人の位置を継続的に受け取り、2人以上の人の位置が同様の動きをしていた場合には、互いに、片方の人をもう片方の人の運搬物品であると推定することを特徴とする第1から4のいずれか1つの態様に記載の死角内物品報知システムを提供する。
本発明の第6態様によれば、更に、前記人の顔の向きを取得する顔向取得手段を備え、
前記人進行状態推定手段は、前記履歴データベースの前記人の位置の情報と、前記顔向取得手段が取得した前記人の顔の向きの情報を参照することによって、前記人の進行方向を推定することを特徴とする第1から5のいずれか1つの態様に記載の死角内物品報知システムを提供する。
本発明の第7態様によれば、少なくとも、人の位置と、前記人の眼球の位置と、物品の位置の情報を入力可能な情報入力部と、
前記情報入力部より受け取った前記人の位置情報を基に前記人の進行方向を推定する人進行状態推定手段と、
前記情報入力部より受け取った前記人の位置情報と前記物品の位置情報を基に、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定手段と、
前記人進行状態推定手段が推定した前記人の進行方向に、前記運搬物品推定手段が推定した前記障害物品が存在するか否かを推定する進路上物品推定手段と、
前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定手段が推定した前記障害物品が存在するか否かを推定する死角内物品推定手段と、
を備えたことを特徴とする死角内物品推定装置を提供する。
本発明の第8態様によれば、人の位置を取得する人位置取得ステップと、
前記人位置取得ステップにて取得した前記人の位置情報から、前記人の進行方向を推定する人進行状態推定ステップと、
前記物品の位置を取得する物品位置取得ステップと、
前記物品位置取得ステップにて取得した前記物品の位置と、前記人位置取得ステップにて取得した前記人の位置から、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定ステップと、
前記人の眼球の位置を推定する眼球位置推定ステップと、
前記人進行状態推定ステップが推定した前記人の進行方向に、前記運搬物品推定ステップが推定した前記障害物品が存在するか否かを推定する進路上物品推定ステップと、
前記眼球位置推定ステップで推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定ステップで前記人の進行方向に存在すると推定された前記障害物品が存在するか否かを推定する死角内物品推定ステップと、
前記死角内物品推定ステップで前記死角となる範囲内に前記障害物品が存在すると推定されたとき、前記人に情報を報知する報知ステップと、
を備えたことを特徴とする死角内物品報知方法を提供する。
本発明の第9態様によれば、コンピュータに、
人の位置を取得する人位置取得機能と、
前記人位置取得機能にて取得した前記人の位置情報から、前記人の進行方向を推定する人進行状態推定機能と、
物品の位置を取得する物品位置取得機能と、
前記物品位置取得機能にて取得した前記物品の位置と、前記人位置取得機能にて取得した前記人の位置から、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定機能と、
前記人の眼球の位置を推定する眼球位置推定機能と、
前記人進行状態推定機能が推定した前記人の進行方向に、前記運搬物品推定機能が推定した前記障害物品が存在するか否かを推定する進路上物品推定機能と、
前記眼球位置推定機能で推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定機能で前記人の進行方向に存在すると推定された前記障害物品が存在するか否かを推定する死角内物品推定機能と、
前記死角内物品推定機能で前記死角となる範囲内に前記障害物品が存在すると推定されたとき、前記人への情報の報知を実行するための報知機能と、
を実現させるための死角内物品報知プログラムを提供する。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(第1実施形態)
図1は本発明の第1実施形態にかかる、死角内物品報知方法を実施可能な死角内物品報知システムを示したブロック図である。この死角内物品報知システムは、人物データベース109と、人位置取得手段101と、履歴データベース117と、物品データベース103と、物品位置取得手段104と、運搬物品推定手段106と、眼球位置取得手段110と、人進行状態推定手段102と、進路上物品推定手段112と、死角内物品推定手段111と、報知手段113と、入出力装置200とを備えて構成されている。
人物データベース109には、人のIDと対応付けられた情報であってかつその人の身長情報、体重情報、顔画像情報などの身体情報である、人とその人の眼球位置(例えば、眼球の三次元位置)を認識するための情報が入出力装置200から予め入力されて記録されている。
人位置取得手段101は、人物データベース109に記録されている、人を認識するための身体情報を利用して、人のIDとそのIDの人の位置とを取得し、取得した情報を履歴データベース117に記録する。
履歴データベース117は、図23及び図24に示すように、人及び物品のIDと、そのIDに対応する人及び物品の位置座標と、それらの位置座標が検出された時間とが相互に関連付けられて、人及び物品の位置の履歴情報として記録される。
物品データベース103には、環境(例えば人の生活空間である家の部屋)内の物品のIDに対応する少なくとも物品の大きさと形状情報が入出力装置200から予め記録されている。
入出力装置200は、情報入力部の一例として機能するものであって、前記身体情報である、人とその人の眼球位置(例えば、眼球の三次元位置)を認識するための情報を人物データベース109に予め記録するとともに、環境(例えば人の生活空間である家の部屋)内の物品のIDに対応する少なくとも物品の大きさと形状情報を物品データベース103に予め記録するために使用する、キーボード、マウス、タッチパネル、マイクなどの入力装置、若しくは、前記情報を有する外部の装置と接続して前記情報を入手可能な情報入力装置と、入力装置で入力された情報の確認などのためのディスプレイなどの出力装置とを備えるものであって、例えばパーソナルコンピュータなどにより構成されるものである。
物品位置取得手段104は、物品データベース103のからの情報が入力され、物品データベース103の情報を利用して、環境内の物品のIDとそのIDの物品の位置とを取得し、取得した情報を履歴データベース117に記録する。
運搬物品推定手段106は、履歴データベース117に記録された履歴情報を使用して、人位置取得手段101が取得した人の位置と物品位置取得手段104が取得した物品の位置とのそれぞれの位置の時間変化が同じであれば、その物品はその人が運搬する運搬物品であると推定し(言い換えれば、人と同様に動いている物品を運搬物品と推定し)、この運搬物品以外で前記環境内に有る物品を障害物品であると推定して、推定結果情報を出力する。
また、障害物品の推定において、上記以外に人進行状態推定手段102が推定した人の進行方向に基づいて障害物品を推定することが可能である(詳細は後述)。
眼球位置取得手段110は、人物データベース109に記録された、人の眼球位置(例えば三次元の位置)を認識するための情報を利用して、人の眼球の位置を取得して、取得した情報を出力する。
人進行状態推定手段102は、履歴データベース117に記録されている人位置取得手段101が取得した人の位置の時間変化から、これから人が進行すると推定される進行方向とその進行速度とを推定する。さらに、人進行状態推定手段102は、推定した進行方向に沿った通路を、人の進路(現在の人位置から推定した進行方向)と推定する(詳細は後述)。以上の推定結果を、人進行状態推定手段102は推定結果情報として出力する。この推定結果情報は、人の進行上にあり、且つ、人が運搬している物品を推定するために、運搬物品推定手段106にも入力される。
進路上物品推定手段112は、人進行状態推定手段102で推定された人進行状態推定情報と運搬物品推定手段106で推定された運搬物品推定情報とに基づいて、人進行状態推定手段102が推定した人の進路(現在の人位置から推定した進行方向)上に運搬物品推定手段106が推定した障害物品があるか否かを判断して、判断結果情報を出力する。すなわち、進路上物品推定手段112は、人進行状態推定手段102が推定した進行方向を基にして、現在の人の位置から推定した進行方向に向かって延びる通路上に障害物品があるか否かを判断して、通路上に障害物品があると判断したとき、その通路上の障害物品を進路上物品と推定する。
死角内物品推定手段111は、眼球位置取得手段110が取得した眼球位置と運搬物品推定手段106が推定した運搬物品の位置とから設定される人の死角(運搬物品により隠蔽され死角となる範囲)内に、進路上物品推定手段112が推定した障害物品があるか否かを判断して、判断結果情報を出力する。ここで、死角とは、前記したように、眼球位置取得手段110が取得した眼球位置と運搬物品推定手段106が推定した運搬物品の位置とから死角内物品推定手段111により設定され、かつ、運搬物品を運搬している人から、その運搬物品により見えなくなっている範囲(言い換えれば、前記運搬物品を運搬している人が、現在の人位置から進もうとしてる進行方向沿いの進行通路(進路)上にある障害物品との接触を察知できない範囲のことである。よって、死角内物品推定手段106が、人の死角内に、進路上物品推定手段112が推定した障害物品(進路上物品)があると判断するとき、運搬物品により死角内にあるその進路上物品を死角内物品と判断する。
報知手段113は、死角内物品推定手段111の判断結果から、人と接触する可能性のある物品がある否かを判断し、人と接触する可能性ある物品がある場合に、人に対して接触可能性のある障害物品を報知する。人と接触する可能性ある物品がない場合には、特に何も報知はしない。
図18は、第1実施形態にかかる死角内物品報知システムの一実施例を示した概略図である。図18に示した環境の例(具体的には、1つの部屋の例)は、(X,Y)=(0,0)を原点として+X、+Y方向に環境が広がっている。また、+X方向が0度、+Y方向が90度、図中に記述されていないが−X方向が180度、−Y方向に270度のように角度を設定している。以下、必要に応じて図18を参照しながら説明を進めていく。
以下では、前記したそれぞれの手段又はデータベースなどの詳細を説明する。
人物データベース109には、人のIDと対応付けられた情報としての当該人の身長情報、体重情報、顔画像情報のように、人を認識するための情報と、人のIDと対応付けられた情報であって顔画像情報や顔特徴量情報など、人の眼球位置を認識するための情報が記録されている。
ここで、顔特徴量情報とは、例えば、両目尻と鼻孔脇と口の両端の相対位置情報や、人の顔の肌色情報などが挙げられる。
また、図2Aに人物データベース109の一例を示す。記録されている情報は、人のIDがIDP_0001、IDP_0002、IDP_0003の3人分における各人の身長、体重、顔画像、眼球位置、人の幅の各情報である。
人位置取得手段101は、例えば、時刻を取得するためのタイマーを備えたRFIDタグシステム、重量センサシステム、又は、カメラシステムなどを利用して実現することができる。
まず、人位置取得手段101にRFIDタグシステムを用いた例を説明する。人位置取得手段101にRFIDタグシステムを用いる場合には、先ず、ICチップに環境内の位置情報(例えば(X,Y)=(0,0))を記録したタグ(前記RFIDタグシステムの一部を構成するタグ)を、環境内の床に、例えば格子状に敷き詰める。一方、環境内の床を歩く人の履物(例えばスリッパ)には、床に敷き詰められた前記タグに記録された前記位置情報を読み取る、タグリーダ(前記RFIDタグシステムの一部を構成するタグリーダ)を設置しておく。このような構成のもとで、人が履物を履いて環境内の床を歩くと、足を床に踏みつけた瞬間に、履物についたタグリーダが、その下にあるタグと通信して、前記タグが配置されている位置を読み取り、それが人の位置を取得することになる。もちろんこれはあくまで一例であり、逆に、床に位置情報を持ったタグリーダを敷き詰め、履物にタグをつけるという構成でもよい。もし複数人の検出に対応させるのであれば、それぞれの人が所有する人のIDをそれぞれの履物に記録しておくことで、それぞれの人を区別することができる。
ここで、図15及び図17にRFIDタグシステムを用いた人位置取得方法のより具体的な一例を示す。
1901はスリッパなどの履物で、図17に示すように、履物1901の裏には人のIDを記録したタグリーダA 1902が設置されている。また、環境中の床面には、位置情報が記録されたタグA 1904、タグB 1905、タグC 1906などが配置されている。例えば、タグA 1904には(X,Y)=(0cm,125cm)、タグB 1905には(X,Y)=(25cm,125cm)、タグC 1906には(X,Y)=(50cm,125cm)のように記録されている。この様な環境において、履物1901を履いて人が環境中の床面を歩行すると、履物1901の下に配置された前記タグA 1904、タグB 1905、タグC 1906などの情報をタグリーダA 1902によって次々と読み取ることができる。ここで、図15に示す履物1901の位置に履物1901が来ていた場合、その下にあるタグを、履物1901のタグリーダA 1902によって読み取り、人IDがIDP_0004の人位置を(X,Y)=(75,50)として取得することができる。ただし、この環境下において、タグリーダA 1902には、人IDがIDP_0004の情報も記録されているため、人IDとともに人位置を取得することができる。
尚、より詳細に人位置を取得したい場合には、タグの配置の間隔を小さくしてもよい。また、上述したように環境側に位置情報を記録したタグリーダを配置し、履物にタグを取り付けておいても構わない。
次に、人位置取得手段101に重量センサシステムを用いた例を説明する。人位置取得手段101に重量センサシステムを用いる場合には、環境内の床に位置情報を記録した重量センサを、例えば格子状に敷き詰めることにより人の検出を行うことができる。前記重量センサは、人の足等によって荷重がかかると、かかった荷重の値が出力されるようになっており、もし、ある重量センサに荷重がかかっていることが検出された場合には、当該重量センサの置かれている座標とかかった荷重の値とを直ちに求める。このようなシステムを用いて最も簡単に人の位置を知るには、荷重がかかった重量センサの座標値をそのまま人の位置とすればよい。
しかしながら、これでは、複数人の人が環境内に居る場合にそれらが区別できないという問題もでてくる。このような問題に対応するためには、例えば、重量センサに加わった荷重がほぼ等しいセンシングデータを同じ人の移動であると仮定してグルーピングし、時間順に並べるなどの処理を追加すればよい。これにより、人検出の精度を高めることができる。
図21に、重量センサに加わった荷重のセンシングデータの一例を示す。図21の表は、図18の各位置(図18のAA、AB、AC、ADの位置)の重量センサに加わった荷重を、時系列で表示している。表中の各値の単位はkgである。図21では、位置AAの重量センサでは、時間tからtまで65kg、時間tからtから0kg、位置ABの重量センサでは、時間tからtまで0kg、時間tからtから65kgの荷重が検出されている。これによって、65kgの人(図2AのIDP_0001の人)が時間tからtまで位置AA、時間tからtまで位置ABにいることがわかる。
また、位置ACの重量センサでは、時間tからtまで70kg、時間tからtから0kg、位置ABの重量センサでは、時間tからtまで75kg、時間tからtから145kgの荷重が検出されている。これによって、70kgの人(図2AのIDP_0002の人)が時間tからtまでの位置AC、時間tからtまでの位置AD、75kgの人(図2AのIDP_0003の人)が時間tからtまでの位置ADにいることがわかる。このように重量センサに加わった荷重をグルーピングして、時間順に並べるなどの処理を行わない場合、時間tからtまでのある時間で145kgの荷重を位置ADの重量センサが検出した場合には、人が複数いることで145kgの荷重を検出しているのか、物品と人がいることによって145kgの荷重を検出しているのかわからない。よって、環境内の床の位置の重量センサに加わった荷重をグルーピングして、時間順に並べるなどの処理を行うことで、人検出の精度を高めることができる。
次に、人位置取得手段101にカメラシステムを用いた例を説明する。ここで、予め決められた位置(例えば、環境内の天井又は天井近傍の隣接する隅部)に、撮影方向が固定された少なくとも2台以上のカメラ(例えば、図18のカメラA 2003とカメラB 2004)が配置されているものとし、人物データベース109には顔画像が記録されているものとする。図2Bは、図2Aに記録されているIDP_0001の顔画像の詳細である。画像は1人の人のIDに対して9枚づつ記録されており、正面の顔画像から左右に各4枚、22.5度ずつ回転させた画像となっている。更に詳細に向きを取得したい場合には、回転させる顔の角度を小さくして顔画像を増やしても良い。人位置取得手段101による人位置検出の処理であるが、例えば、背景差分法などにより先ず人の検出を行うことができる。背景差分法とは予め用意した背景画像と現在の入力画像との差分を取ることにより、処理すべき対象を得る手法である。更に、テンプレートマッチングなどの手法を用いることで人の顔の検出を行うことができる。人物データベース109に記録されている顔画像をテンプレート画像とし、入力画像上(今回は背景差分法にて得られた差分領域となる)で前記テンプレート画像を移動させたとき、テンプレート画像と入力画像中の部分画像との類似度が高い位置に、前記テンプレートを持つ人の顔が存在している可能性が高いと言える。尚、テンプレート画像と入力画像の顔の大きさ(具体的には、輪郭、眼または口の大きさ)はカメラと人との距離に応じて変わるために、人のIDを認識できない可能性がある。そのような場合は、テンプレート画像を拡大または縮小することで、入力画像と類似度の高いテンプレート画像を検出することができる。また、拡大または縮小の処理の後に、人が顔を傾けている場合の検出も可能にするために回転の処理を行うことで、人の顔の検出を行うこともできる。
以上の処理によって、2台のカメラが人の顔を検出したとする。すると、三角測量の原理によって人の顔の位置を算出することができる。三角測量とは、三角形の一辺とその両端の角度が分かっていれば、どのような三角形なのかを確定することができるというものである。今回の場合、2台のカメラの位置関係からカメラ間の距離は分かっている。また、人の顔を検出したときのカメラの向きから、2台のカメラがカメラ間を結んだ直線に対してそれぞれ何度傾いているのかが分かる。以上のことから人の顔の位置を算出することが可能となり、また、これを人の位置とすることができる。
尚、RFIDタグシステム、重量センサシステム、及び、カメラシステムを用いた人位置取得手段101を説明してきたが、2つ以上のシステムを連携させても良い。例えば、図15の例では履物位置を人位置としたが、更に床面に重量センサを敷き詰めて履物1901上の重量を検出することによって、履物1901が障害物品であるのか、それとも人が履いているものなのかを識別することが可能となる。これは例えば、人物データベース109に人IDがIDP_0004の人の体重が70kgと記録されていたとすると、履物1901上の重量が70kg未満であったときに履物1901を障害物品とし、70kg以上あったときに人が履物を履いてその位置(重量センサで前記重量が検出された位置)にいるとすることができる。
以上の処理によって取得した人の位置を、人位置取得手段101が、人位置を取得した時刻と共に履歴データベース117に記録する。図23に人位置を記録した履歴データベース117の一例を示す。例えば、人のIDがIDP_0003の人は時刻14時20分25秒に座標(X,Y,Z)=(350,300,0)の位置にいたということを示している。尚、履歴データベース117に記録する人位置の情報は、人の位置に変化が生じたときにのみ記録しても良いし、ある一定期間毎(例えば1秒間隔)に記録しても構わない。
次に、人進行状態推定手段102を説明する。人進行状態推定手段102は、履歴データベース117に記録されている人位置に関する履歴情報を参照することによって、人の進行方向と進行速度、さらに進行方向から人の進路を推定する。
図19にその推定方法の一例を示す。ここでは、5秒毎に人の進行方向と進行速度を推定するとする。5秒前に環境中の下側の黒い丸印の位置2106(X,Y)=(150cm,50cm)にいた人が、上側の黒い丸印の現在位置2101(X,Y)=(150cm,350cm)にいたとする。このとき、人は、矢印2000の方向に、言い換えれば、5秒間でX座標方向に0cm、Y座標方向に300cm進んだことになり、三角関数などから人は環境中の90度の方向へ進んでいることが分かる。以上の様な処理から、人進行状態推定手段102は、人は90度の方向へ秒速60cmの速さで進んでいると推定する。
別の例を図20に示す。図20における左上側の黒い丸印の人の位置12102(図20での現在の位置(12101)より1秒前)は、図19における人の位置2101(図19での現在の位置)に対応しており、図20の位置12103(現在より2秒前)が図19における位置2102(現在より1秒前)に対応している。図20中の黒い丸印が人の位置(現在を含む過去5秒前(図20は現在より6秒前まで))であり、矢印12000は現在より5秒間隔で見たときの人の進行方向を表している。つまり、実際に人は、図20中の下側の黒い丸印からグレーの丸印をたどって右上側の黒い丸印まで移動しており、図20の現在より6秒前の位置12107から、現在より1秒前の位置12102までの人の動きと、図19の現在より5秒前の位置2106から現在の位置2101までの人の動きは同じである。図19にて説明した処理方法では、図20では、6秒前に環境中の位置12107(X,Y)=(150cm,50cm)にかつ5秒前に環境中の位置12106(X,Y)=(100cm,150cm)にいた人が、現在位置12101(X,Y)=(250cm,350cm)にいたとすると、人は、矢印12000の方向に、言い換えれば、5秒間(5秒前〜現在の間)でX座標方向に150cm、Y座標方向に200cm進んでおり、人進行状態推定手段102は、人は、約53度の方向(矢印12000の方向)へ秒速50cmの速さで進んでいると推定する。
しかし、5秒毎に人に進行方向と進行速度を推定したが、1秒毎に推定した場合、図20では、1秒前に環境中の位置12102(X,Y)=(150cm,350cm)にいた人が、現在位置12101(X,Y)=(250cm,350cm)にいたとすると、人は1秒間でX座標方向に100cm、Y座標方向に0cm進んでいるため、人進行状態推定手段102は、人は0度の方向へ秒速100cmの速さで進んでいると推定しても良い。
尚、推定する人の進行状態は1つである必要はなく、人は53度の方向へ秒速50cmで進んでいる、または0度の方向へ秒速100cmで進んでいると仮定して、以後の処理を進めても構わない。
ここで、上記推定した進行方向から人の進路を推定する方法を説明する。
今回、人の位置を取得するタイミングを1秒間隔とし、人の進行方向、進行速度を推定するために人の現在位置12101と5秒前(又は1秒前)の人の位置12106(又は位置12102)を利用したが、この第1実施形態は、前記死角内物品報知システムの使用環境に応じて、報知動作判断用基準時間である規定秒数(人の位置を取得するタイミングの秒数間隔)を変化させることが可能である。人が移動するためのスペースが非常に少ない環境(例えば、多人数で暮らしている家族の家の部屋などの環境内にある物品(家具や荷物など)の数が多い環境)では、人が直進で移動するスペースがなく、進路変更が多くなる可能性が高い。そのような場合は、規定秒数(人の位置を取得するタイミングの秒数間隔)を短く設定することによって、人と環境とに適応した、人の進路を推定することができる。
また、図19及び図20では人の進路は線で示しているが、これに限られるものではなく、人物データベース109に記録されている人の幅データを利用して、線を中心に人の幅を持った進路とすることによって、人と環境とに、より適応した人の進路を推定することができる。
物品データベース103には、少なくとも物品のIDと、前記IDに対応する物品の大きさと形状情報、重量情報、及び、物品画像情報が記録されている。ここで、図3Aに物品データベース103の一例を示し、また、図3B及び図3Cに物品データベース103にて記述されているIDP_0001の物品とIDP_0003の物品のそれぞれの形状データ(大きさ情報を含むデータ)におけるそれぞれの点の位置する箇所を示す。
ここで、図3AにおけるPlaneの4点は平面の4頂点を表し、Cubeの2点は直方体の最も離れた対角線上にある2頂点を表し、Coneは円錐の半径R、高さH、底面の中心座標を表している。
例えば、IDO_0001の物品は、図3Bに示すように、{(0cm,0cm,0cm),(0cm,0cm,2cm),(20cm,0cm,2cm),(20cm,0cm,0cm)}の4点を頂点とする平面と、{(0cm,0cm,0cm),(0cm,0cm,2cm),(0cm,30cm,2cm),(0cm,30cm,0cm)}の4点を頂点とする平面と、以下同様に合計6つの平面からなる物品であることを示している。
また、IDO_0002の物品は、図3Aに示すように、簡略的に直方体の最も離れた2頂点だけをCube1{(0cm,0cm,0cm),(20cm,30cm,2cm)}として表すことで、IDO_0001の物品と同じ高さであることを示している。
また、IDO_0003の物品は、図3Cに示すように、底面の中心座標が(0,0,0)、高さ15cm、底面の半径5cmの円錐であることを示している。
物品位置取得手段104は、例えば、時刻を取得するためのタイマーを備えたRFIDタグシステム、重量センサシステム、又は、カメラシステムなどを利用して実現することができる。
まず、物品位置取得手段104にRFIDタグシステムを用いた例を説明する。各物品に物品データベース103に記録されている物品IDを記録したタグリーダを設置し、環境内の床面に配置したタグの位置情報を読み取ることで前記物品の位置を取得することができる。もしくは、物品データベース103に記録されている物品IDを記録したタグを各物品に貼り付け、位置情報を記録したタグリーダに前記タグを読み取らせることで、前記物品の位置を取得することができる。
環境内の床にタグリーダを配置し、物品には物品のIDを記録したタグを貼り付けておくことで、前記タグを検出したタグリーダのセンシング範囲に前記タグを付した物品が有るということが分かる。
ここで、タグリーダのセンシング範囲をある一つの区画のみに設定しておくものとすると、タグリーダが検出したタグの情報と、タグリーダのセンシングしている区画から物品データベース103に記録されている物品が現在どこにあるのかが分かる。
これに対して、環境内の床全体が一つのセンシング範囲と仮定した場合を説明する。床のいずれかの場所に物品が置かれると、床のタグリーダが物品のIDを記録したタグを読み取り、床の上に置かれた物品のIDがわかる。しかし、センシングが床全体であるために、床のどの場所に物品が置かれたのか正確な位置はわからない。したがって、物品の正確な位置の取得は、床にタグリーダを多数配置してタグリーダのセンシング範囲を細かくすることで実現できる。
図15はRFIDタグシステムを用いた物品位置取得方法の例を示している。ここで、図16に示すように、財布1910にはタグリーダ1903が設置されている。この財布1910に設置されているタグリーダ1903が、環境内の床面に貼り付けられたタグの位置情報を読み取ることで、財布1910の位置がわかる。図15では、財布1910に設置されたタグリーダ1903が床面のタグの位置情報を読み取ることで、財布1910の位置が(X,Y)=(50cm,100cm)の位置であることがわかる。
次に、物品位置取得手段104に重量センサシステムを用いた例を説明する。ここで、物品データベース103には更に物品毎の重量データが記録されているものとする(図3A参照)。環境内に重量センサを配置すると、前記重量センサが検出した重量の増減によって、前記重量センサ上に物品が置かれたか、又は前記重量センサ上から物品が取られたかが分かり、さらに、増減した重量と物品データベース103に記録されている重量データとを参照することによって、前記重量センサ上に置かれた物品、又は前記重量センサ上から取られた物品が分かる。
次に、物品位置取得手段104にカメラシステムを用いた例を説明する。環境内にカメラを配置し、物品データベース103に記録されている物品画像を利用することで、例えば、背景差分法などにより物品の検出を行うことができ、更にテンプレートマッチングなどの手法を用いることで物品の識別を行うことができる。背景差分法とテンプレートマッチング法に関しては既に人位置取得手段101にて説明済みのため、ここでの説明は省略する。
以上の処理によって取得した物品の位置を、物品位置取得手段104が物品位置を取得した時刻と共に履歴データベース117に記録する。図24に物品位置を記録した履歴データベース117の一例を示す。例えば、物品ID=IDO_0001の物品は、時刻14時20分25秒に座標(X,Y,Z)=(350,300,0)にあったということを示している。尚、履歴データベース117に記録する物品位置の情報は、物品の位置に変化が生じたときにのみ記録しても良いし、ある一定期間毎(例えば1秒間隔)に記録しても構わない。
運搬物品推定手段106は、履歴データベース117に記録されている、人位置取得手段101が取得した人の位置と物品位置取得手段104が取得した物品の位置を参照し、人進行状態推定手段102が推定した人の進行方向上にあり、且つ、前記人の位置と同様に移動している前記物品を、前記人は前記物品を運搬していると推定する。例えば、前記人の現在位置(例えば重心座標とする)から前記人の進行方向に向けた1mのXY平面上の直線(この1mとは、例えば人の手の届く範囲内などを表す)と、物品の存在するXY平面上の領域が交わっている物品を、運搬物品推定手段106により、運搬候補物品とすることも可能である。
図26に具体例を示す。図26は、人601が、右手にお盆615を持つとともに左手にカバン616を持って移動している様子を示している。図26の直線617は、人601の現在位置から前記人601の進行方向に向けて作成された1mの直線である。大略正方形の領域618は、お盆615がXY平面(例えば、部屋の床面)上で存在している領域を示し、長方形の領域619は、カバン616がXY平面上で存在している領域を示している。このとき、直線617と交わっているのは大略正方形の領域618のみであるため、運搬物品推定手段106により、お盆615を運搬候補物品とする。ここで、カバン616を、人601が運搬しているにも関わらず運搬物品推定手段106により運搬候補物品としないのは、カバン616が、人601の進行方向上(直線617上)に存在せず、人601の進行方向上に死角を作る物品には成り得ないためである。
運搬物品推定手段106により運搬候補物品を決定すると、5秒後に前記人601がある位置まで移動したときにも、前記人601の現在位置から前記人601の進行方向に向けた1mのXY平面上の直線と、前記運搬候補物品の存在するXY平面上の領域が交わっているか否かを運搬物品推定手段106により調べる。もし交わっているなら、前記運搬候補物品は、前記人601が運搬している運搬物品であると運搬物品推定手段106により推定し、前記運搬物品以外の物品を障害物品であると運搬物品推定手段106により推定する。
尚、ここでは5秒後と設定したが、本実施形態はこれに限るものではなく、秒数を3秒にしても良いし、次に履歴データベース117に前記人位置と前記運搬候補物品の位置が記録されたときの両者の距離が1m以内であれば、前記運搬候補物品を運搬物品としても良い。また、人が移動するのはX,Y方向であることから、人位置と物品位置の間の距離にZ方向の距離は含める必要は無い。
以下に、図23と図24を用いて説明するが、15時10分10秒に人(IDP_0001の人)が場所(X,Y)=(400,300)にいたとき、同じ時刻に物品(IDO_0004の物品)は場所(X,Y)=(400,300)にあり、また14時20分25秒以降の位置の変更がないため15時10分10秒に物品(IDO_0001の物品)は場所(X,Y)=(350,300)にあると推定できることから、まず、この2つの物品(IDO_0001の物品とIDO_0004の物品)が運搬候補物品となる。ここでは、同時刻に、前記人の位置と前記運搬候補物品の位置が記録されたときの両者の距離が1m以内であれば、前記運搬候補物品を運搬物品であると推定している。次に、この5秒後(15時10分15秒)に人(IDP_0001の人)が場所(X,Y)=(200,150)に移動したとき、物品(IDO_0004の物品)は人(IDP_0001)と同じ場所(X,Y)=(200,150)に移動し、物品(IDO_0001の物品)は場所(X,Y)=(350,300)から移動していなかった。このことから、物品(IDO_0004の物品)が人(IDP_0001の人)の運搬物品と推定され、その他の物品は、全て、人(IDP_0001の人)にとっての障害物品であると推定される。
眼球位置推定手段110は、例えばカメラシステムを利用して実現することができる。
先ず、環境内に2台以上のカメラ(例えば、図18のカメラA 2003とカメラB 2004)を設置し、眼球位置推定手段110は前記カメラのそれぞれの設置位置を記憶しておく。次に、人物データベース109に記録されている顔画像中の眼球の画像とカメラ2003又は2004により取得した画像とのテンプレートマッチングを行うことにより2台以上のカメラ2003,2004で眼球を検出し、三角測量の原理を用いて眼球の三次元位置を推定する。
ここで、人の眼球は2つあり、左右の眼球で、左右に対して多少視界にズレは生じる。しかしながら、人は歩行するとき、進行方向は左右どちらの眼球の視界内にも入っていることが通常である。そのため、眼球位置推定手段110は、左右どちらか一方の眼球に対してのみ三次元位置を推定するものでも良い。また、両眼の三次元位置を推定し、以後の処理を軽減するために片方の眼球位置の情報のみを用いても良い。このとき、眼球の位置を、両眼の眼球の位置を平均した位置としても良い。
ここで、人物データベース109に人の眼球の高さ情報が記録されていた場合、人位置取得手段101によって取得した人の位置情報から簡単に眼球の三次元位置を取得することも可能である。例えば、人がタグ付きの履物を履いており、床に敷き詰められたタグリーダが前記履物のタグを読み込んだとする。前記タグリーダの配置座標が(X,Y)=(100cm,100cm)、人物データベース109に記録されている人の眼球高さ情報が150cmであったとすると、これらの情報を合わせて、人の眼球位置を(X,Y,Z)=(100cm,100cm,150cm)とすることができる。
進路上物品推定手段112は、人進行状態推定手段102で得られた人の進路上に、運搬物品推定手段106が推定した障害物品がある場合に、前記障害物品を「進路上物品」と推定する。
死角内物品推定手段111は、進路上物品推定手段112が推定した進路上物品が、運搬物品によってできる死角となる範囲内にあるか否かを判断して、死角内にあると死角内物品推定手段111が判断した場合には、その進路上物品が死角内物品であると死角内物品推定手段111により推定する。
具体的には、前記運搬物品の位置を中心とし、前記運搬物品の最も離れた2点間の距離を直径とした球を、前記運搬物品の存在範囲とし、前記進路上物品の位置を中心とし、前記進路上物品の最も離れた2点間の距離を直径としたXY平面上の円を、前記進路上物品の存在範囲とする。このとき、眼球位置推定手段110で得られた眼球位置を頂点、前記進路上物品の存在範囲(XY平面上の円)を底面とする円錐が、前記運搬物品の存在範囲と交わる場合には、前記進路上物品を死角内物品であると推定する。
図27A及び図27Bに処理例を示す。図27A及び図27Bはともに、人601が机602を運搬している様子を表している。図27A及び図27B中の620は、推定された机602の位置を中心とし、机602の最も離れた2点間の距離(仮に、図5の机501と図27A及び図27Bの机602が同等のものであるとすると、(0cm,0cm,0cm)と(60cm,60cm,30cm)間の距離ということになる。)を直径とした球(つまり、前記運搬物品である机302の存在範囲)を表し、図27A及び図27B中の621は、眼球位置推定手段110で得られた眼球位置を頂点、進路上物品である財布605の存在範囲を底面とする円錐を表している。
図27Aにおいて、死角内物品推定手段111は、球620と円錐621が交わっておらず、財布605は、机602によって生じる死角内に入っていない、つまり財布605は死角内物品ではないと推定する。
図27Bにおいて、死角内物品推定手段111は、球620と円錐621が交わっているため、財布605は、机602によって生じる死角内に入っている、つまり財布605は死角内物品であると判断する。
報知手段113は、死角内物品推定手段111が死角内物品があると推定した場合に、人に対し、進路上物品との接触の可能性があることを知らせるものであり、例えばスピーカ(図18のスピーカ2007を参照。)やディスプレイを用いて、進路上物品との接触の可能性があることを人に知らせることなどにより、報知を実現することができる。
報知手段113にスピーカ2007を用いる場合、例えば、人に対してビープ音のような警告音を発生させることができる。
報知手段113にディスプレイを用いる場合、「危険」などの文字情報や、接触の可能性のある物品の映像を映し出すことができる。ディスプレイは環境中に配置しておいても良いし、テレビやパソコンのディスプレイを用いても構わない。また、人が所持しているPDFや携帯電話などの携帯端末のディスプレイを用いても良い。
次に、前記構成にかかる死角内物品報知システムの処理について、図4に示すフローチャートを参照しながら説明する。
次に、前記死角内物品報知システムの報知処理について、図4に示すフローチャートを参照しながら説明する。
前記死角内物品報知システムの報知処理が開始されると、先ず、ステップS401とステップS402が並列的にかつ互いに独立的に動作する。
ステップS401では、人位置取得手段101が、人物データベース109に記録されている情報を参照しつつ人の現在位置を取得し、履歴データベース117に前記人の位置情報を記録する。
ステップS402では、物品位置取得手段104が、物品データベース103に記録されている情報を参照しつつ各物品の現在位置を取得し、履歴データベース117に前記人の位置情報を記録する。
ここで、ステップS401とステップS402とは常に動作しているものとする。ただし、時間を計測するためのタイマーを備え、1秒間隔で人の位置を取得するなど、時間間隔をおいて動作させても構わない。
ステップS401及びステップS402のそれぞれの動作が少なくとも1回ずつ行なわれたのち、ステップS403では、運搬物品推定手段106は、履歴データベース117に記録されている人の位置情報と物品の位置情報を参照して、人と同様に移動している物品があるか否かを判断する。もし、人と同様に移動している物品があると運搬物品推定手段106が判断すれば、ステップS404へ進む一方、人と同様に移動している物品ではないと運搬物品推定手段106が判断すれば、前記システムの報知処理は終了する。
ステップS404では、人進行状態推定手段102が、履歴データベース117に記録されている人の位置履歴から、人の進行方向および進路を推定したのち、ステップS405に進む。
ステップS405では、ステップS403で人と同様に移動していると判断された物品が、ステップS404で推定した人の進行方向上にあるか否かを、運搬物品推定手段106で判断している。もし、前記物品が人の進行方向上にあると運搬物品推定手段106が判断すれば、ステップS406へ進む一方、前記物品が人の進行方向上にはないと運搬物品推定手段106が判断すれば、前記システムの報知処理は終了する。
ステップS406では、ステップS403で人と同様に移動していると判断され、且つ、ステップS405で人の進行方向上にあると判断された物品を、「運搬物品」であると進路上物品推定手段112により推定したのち、ステップS407に進む。
ステップS407では、ステップS406で運搬物品と進路上物品推定手段112により推定された物品以外の物品を、障害物品であると進路上物品推定手段112により推定したのち、ステップS408に進む。
ステップS408では、ステップS404で推定した人の進路上に、ステップS407で判断した障害物品があるか否かを進路上物品推定手段112により判断する。もし、人の進路上に前記障害物品があると進路上物品推定手段112が判断すれば、ステップS409へ進む一方、人の進路上に前記障害物品がないと進路上物品推定手段112が判断すれば、前記システムの報知処理は終了する。
ステップS409では、ステップS408で判断した人の進路上にある障害物品を進路上物品であると進路上物品推定手段112で推定したのち、ステップS410に進む。
ステップS410では、眼球位置取得手段110が、人物データベース109に記録されている情報を参照して、人の眼球の三次元位置を取得したのち、ステップS411に進む。
ステップS411では、ステップS406にて判断した運搬物品と、ステップS408にて判断した進路上物品と、ステップS410にて推定した人の眼球位置の情報から、前記運搬物品により生じる死角内に、前記進路上物品があるか否かを死角内物品推定手段111により判断する。もし、死角内に、前記進路上物品があると死角内物品推定手段111が判断すれば、ステップS412へ進む一方、死角内に、前記進路上物品がないと死角内物品推定手段111が判断すれば、前記システムの報知処理を終了する。
ステップS412では、ステップS411にて運搬物品により生じる死角内に進路上物品があると死角内物品推定手段111で判断されると、前記人に対して前記進路上物品と接触する可能性がある旨の報知を報知手段113により行い、前記システムの報知処理を終了する。
前記第1実施形態によれば、運搬物品推定手段106が障害物品であると推定し、且つ、進路上物品推定手段112が、前記障害物品を前記人の進路上にあると推定したとき前記障害物品を進路上物品と判断して、さらに、前記人が運搬している物品によって生じる死角内に進路上物品があるときのみ、前記人と前記進路上物品が接触する可能性があると死角内物品推定手段111により判断して、その旨の報知を報知手段113により行うことにより、人にとって煩わしくなく、進路上物品と接触することを未然に防ぐことができる。すなわち、物品を運搬中の人が、運搬中の物品によって生じる死角内に進路上物品が入ってしまうため進路上にある進路上物品との接触を察知できないときにのみ、報知手段113により報知を行うことで、人にとって煩わしくなく、前記人が前記進路上物品と接触すること未然に防ぐことができる。
(第2実施形態)
図8は本発明の第2実施形態にかかる、死角内物品報知方法を実施可能な死角内物品報知システムを示したブロック図である。この第2実施形態にかかる死角内物品報知システムが第1実施形態にかかる死角内物品報知システムと異なるのは、物品姿勢取得手段105を備えることである。
この第2実施形態にかかる死角内物品報知システムは、人位置取得手段101と、人進行状態推定手段102と、物品データベース103と、物品位置取得手段104と、物品姿勢取得手段105と、運搬物品推定手段106と、人物データベース109と、眼球位置推定手段110と、死角内物品推定手段111と、進路上物品推定手段112と、報知手段113と、入出力装置200とで構成されている。
物品姿勢推定手段105と死角内物品推定手段111以外の各手段、及びデータベース109,103,117に関しては、第1実施形態にて説明した機能と同等のため説明を省略する。
物品姿勢取得手段105は、例えば、超音波タグシステムを利用して実現することができる。すなわち、物品姿勢取得手段105は、物品データベース103からの情報を基に、現在の物品の姿勢を取得して、取得した情報を履歴データベース117に記録することができる。物品姿勢取得手段105に、超音波タグシステムを用いた例を以下に説明する。
先ず、図7に示すように、環境内に少なくとも3個以上の超音波タグリーダ510を配置し、1つの物品(例えば机501)に、物品のIDを記録した超音波タグ(例えば、超音波タグA 502、超音波タグB 503、超音波タグC 504)を複数個例えば3個貼り付けておく。物品(例えば机501)の姿勢を検出するためには、複数個例えば3個の超音波タグ502〜504を、一直線に並べて貼らないこと、及び、同じ位置に重ねて貼らないこと、が必要である。3個以上の超音波タグリーダ510のうちの1個目の超音波タグリーダ510は、前記1つ目の超音波タグ502からの超音波の返信に要した時間を計測して前記1つ目の超音波タグ502との距離を算出する。その他の超音波タグリーダ510に関しても同様に前記1つ目の超音波タグ502との距離をそれぞれ算出し、三点測量の原理を用いて前記1つ目の超音波タグ502の3次元位置を推定する。具体的には、各超音波タグリーダ510が自身の設置位置を中心として、算出した距離を半径とした球面を描く、このとき、球面が最も多く重なり合った位置を1つ目の超音波タグ502の存在する位置とする。残りの2つの超音波タグ503,504に関しても同様に3次元位置を推定し、3つの超音波タグ502〜504の位置関係から、前記物品の姿勢を物品姿勢取得手段105の超音波タグシステムにより推定することができる。推定した前記物品の姿勢の情報は、履歴データベース117に物品姿勢取得手段105により記録する。
ここで、図5〜図7、及び図9に、物品姿勢取得手段105の一例である超音波タグ502〜504を利用して、机501の物品姿勢を取得する具体的な例を示す。なお、図6は本来の使用時の机501の姿勢であり、図7は机501を運搬するために上下反転させた机501の姿勢を示している。この例では、机501(例えば、物品IDO_0004)の形状データと3つの超音波タグA 502、超音波タグB 503、超音波タグC 504の貼り付け位置が、物品データベース103に、それぞれ、(Tag A (0cm,60cm,30cm)、Tag B (60cm,60cm,30cm)、Tag C (60cm,60cm,0cm))として記録されている。しかしながら、物品データベース103には、物品の形状データのみ記録しておき、超音波タグA,B,C(502、503、504)に、超音波タグA,B,Cがそれぞれ貼り付けられている物品IDと貼り付け位置を記録しておいても良い。尚、物品データベース103に記載のタグTag Aは超音波タグA 502を表しており、タグTag B、タグTag Cに関しても同様に超音波タグB 503、超音波タグC 504をそれぞれ表している。
図7の机512は、図6に示す机501の姿勢が変化したときのものである。図7において、同一姿勢の机512を2つ図示している理由は、位置座標などの説明時に、理解しやすくするために2つ図示している。すなわち、上側の机512は、3つの超音波タグA502〜C504の座標を説明するための図である。下側の机512は、机512の4つの脚Cube 1〜4と天板Cube 5の位置座標の変化を説明するための図である。ここで、3つの超音波タグリーダ510によって、超音波タグA502の座標が(X,Y,Z)=(570cm,660cm,120cm)、超音波タグB503の座標が(X,Y,Z)=(570cm,720cm,120cm)、超音波タグC504の座標が(X,Y,Z)=(570cm,720cm,150cm)であることが分かると、物品データベース103に記録されている超音波タグ(502、503、504)の貼り付け位置が、現在の超音波タグ(502、503、504)の位置まで移動したことになり、各超音波タグ(502、503、504)の位置関係から、机512の1つの脚Cube 1={(510cm,660cm,125cm),(515cm,665cm,150cm)}と、現在の机512の姿勢を一意に求めることができる。机512の他の3つの脚Cube 2〜4並びに机512の天板Cube 5は、図5及び図7に示している。
尚、超音波タグシステムを、人位置取得手段101、又は、物品位置取得手段104に利用するようにしても良い。
死角内物品推定手段111は、進路上物品推定手段112が推定した進路上物品が、運搬物品によってできる死角内にあるかを判断して、死角内にあると死角内物品推定手段111が判断した場合には、進路上物品が死角内物品であると死角内物品推定手段111により推定する。
具体的には、進路上物品推定手段112が推定した進路上物品と眼球位置推定手段110で得られた眼球位置とを直線で結んだときに、前記直線が、運搬物品推定手段106が推定した姿勢変化後の運搬物品の位置(物品姿勢取得手段105が取得した姿勢変化後の運搬物品の位置)と交わる場合に、前記障害物品を死角内物品と、死角内物品推定手段111により推定する。
また、眼球位置と直線で結ぶときの進路上物品の位置であるが、物品の形状データから前記物品の現在の中心座標を求めて、その座標を運搬物品推定手段106により進路上物品の位置としても良い。
図28A及び図28Bに処理例を示す。図28A及び図28Bはともに、人601が机602を運搬している様子を表している。図28A及び図28B中の622A及び622Bは、それぞれ、進路上物品推定手段112が推定した進路上物品である財布605と、眼球位置推定手段110で得られた眼球位置とを結んだ直線を表している。
図28Aにおいて、死角内物品推定手段111は、直線622Aと机602は交わっていないため、財布605は机602によって生じる死角内に入っていない、つまり財布605は死角内物品ではないと推定する。
また、図28Bにおいて、死角内物品推定手段111は、直線622Bと机602は交わっているため、財布605は机602によって生じる死角内に入っている、つまり財布605は死角内物品であると推定する。
また、進路上物品の位置を、物品データベース103に記録されている各座標を現在の座標に変換したときの各座標としても良い。この場合、1つの座標でも死角に入っているときは死角内物品推定手段111により死角内物品であるとしても良いし、全ての座標が死角に入っているときにのみ死角内物品推定手段111により死角内物品であるとしても良い。
図28Cに処理例を示す。図28C)は、人601が机602を運搬している様子を表している。図28C中の622C1〜622C4は、それぞれ、物品データベース103に記録されている財布605の各座標を現在の座標に変換したときの各座標と眼球位置を結んだ直線を表している。3本の直線622C1〜622C3は、机602と交わっておらず、残りの1本の直線622C4は机602と交わっている。つまり、財布605の一部分のみが、机602によって生じる死角内に入っていることになる。
このとき、死角内物品推定手段111は、財布605を死角内物品であると推定してもよいし、死角内物品ではないと推定してもよい。尚、このように進路上物品の一部が運搬物品により生じる死角内に入っている場合、死角内物品であると推定するか否かは、予め判断基準として決定しておけば、死角内物品推定手段111は、その予め決められた判断基準に則って、前記したような場合に、財布605を死角内物品であると推定するか、又は、財布605を死角内物品ではないと推定することができる。
進路上物品の一部が死角に入っているときに死角内物品推定手段111により死角内物品であるとする例は、進路上物品が布団などの大きい物品の場合がある。布団が進路上物品の場合、布団の全体が死角内に入っているときに死角内物品と死角内物品推定手段111により判断したのでは、布団の全体が死角内に入ったときには、既に進路上物品と人とが接触してしまっているという可能性がある。進路上物品が大きい場合は、進路上物品の一部が死角内に入ったときに死角内物品であると死角内物品推定手段111により判断することで、進路上物品に応じた接触予防を行うことができる。
ここで、人位置取得手段101の人位置検出と、物品位置取得手段104の物品位置検出には、通常、多少の誤差が生じてしまう。そのため、死角内物品推定手段111にて死角内にある物品を推定するときに、物品の大きさを情報的に大きくしてから、死角内にある物品を推定しても良い。例えば、IDO_0002の物品は本来20cm×30cm×2cmの大きさの物品であるが(図3A参照)、死角内物品推定手段111は、例えばIDO_0002の物品をXYZ方向に5cmずつ情報的に拡大して、25cm×35cm×7cmの物品であるとして、死角内物品推定手段111による死角内物品の推定に利用しても良い。尚、物品の情報的な拡大処理は死角内物品推定手段111で行う必要はなく、物品データベース103に予め情報的に拡大された物品の形状データを記録するようにしておいても構わない。
前記第2実施形態によれば、人の運搬物品と、障害物品の姿勢まで求めることで、前記運搬物品により生じる死角内にある物品を精度良く推定することが可能となる。
(第3実施形態)
図25は本発明の第3実施形態にかかる、死角内物品報知方法を実施可能な死角内物品報知システムを示したブロック図である。
この第3実施形態にかかる死角内物品報知システムは、人位置取得手段101と、人進行状態推定手段102と、物品データベース103と、物品位置取得手段104と、物品姿勢取得手段105と、運搬物品推定手段106と、人物データベース109と、眼球位置推定手段110と、死角内物品推定手段111と、進路上物品推定手段112と、報知手段113と、履歴データベース117と、入出力装置200とで構成されている。
物品データベース103と、死角内物品推定手段111以外の各手段、及び各データベース109,117に関しては、第1及び第2実施形態にて説明した機能と同等のため説明を省略する。
物品データベース103には、第1実施形態にて説明した情報の他に、人が物品を通して反対側が死角となるかを判断するための透過性に関する情報(例えば、材質や色の情報)が更に記録されている。
このときの物品データベース103の例を図9に示す。材質、色情報の他に、人が物品を通して人とは反対側の領域が死角となるか否かの情報を、直接、物品データベース103に記録しておいてもよい。また、物品中の部分毎に材質や色が異なるのであれば、図9中の物品(例えばIDO_0001の物品)の色情報のように各部分(例えば、平面Plane 1〜6)毎に材質や色の情報を記録しておいてもよい。具体的には、図9に示すIDO_0001のように、平面Plane 1から3は青、平面Plane 4から6は透明であると、物品データベース103には記録されている。この記録されたデータを利用することによって、例えば、IDがIDO_0001の物品が、運搬物品の場合には、物品を通して反対側を平面Plane 4と平面Plane 5とを通して見るときには、反対側は死角にならないという判断を、死角内物品推定手段111が行う。
死角内物品推定手段111は、進路上物品推定手段112が推定した進路上物品が透過性のある物品であるか否かを判断し、もし透過性でない物品であると死角内物品推定手段111が判断した場合にのみ前記運搬物品によってできる死角内に進路上物品があるか否かを死角内物品推定手段111により判断して、進路上物品が死角内にあると死角内物品推定手段111により判断した場合には、その進路上物品が死角内物品であると死角内物品推定手段111により推定する。
図9を用いて説明すると、死角内物品推定手段111は、人が物品(IDO_0003)を運搬していたとしても、物品データベース103より物品(IDO_0003)は透過性のある物品であるため、物品(IDO_0003)により生じる死角は無いと判断する。
また、人が物品(IDO_0001の物品)を運搬していた場合には、物品(IDO_0001の物品)中に含まれる、透過性のない平面Plane 1、平面Plane 2、平面Plane 3により生じる死角内に、進路上物品推定手段112が推定した進路上物品があるか否かを、死角内物品推定手段111により判断すれば良い。
前記第3実施形態によれば、人が運搬している物品が透明な物品や中が抜けている物品であった場合、死角内物品推定手段111により前記人が前記物品を通して障害物品を確認できると判断して報知をせず、人に対し、必要以上の報知を控えることができる。
(第4実施形態)
図12は本発明の第4実施形態にかかる、死角内物品報知方法を実施可能な死角内物品報知システムを示したブロック図である。
この第4実施形態にかかる死角内物品報知システムは、人位置取得手段101と、人進行状態推定手段102と、物品データベース103と、物品位置取得手段104と、運搬物品推定手段106と、人物データベース109と、眼球位置推定手段110と、死角内物品推定手段111と、進路上物品推定手段112と、報知手段113と、到達時間推定手段115と、履歴データベース117と、入出力装置200とで構成されている。
先の実施形態と大きく異なる点は、到達時間推定手段115を備えていることである。
到達時間推定手段115以外の各手段、及び各データベースに関しては、第1実施形態、から第3実施形態のいずれかにて説明した機能と同等のため説明を省略する。
到達時間推定手段115は、時間を計測するためのタイマーを備え、人進行状態推定手段102と進路上物品推定手段112とからの情報を基に、過去の人の位置から現在の人の位置までの距離と到達時間から、進路上物品の位置に到達するまでの時間を推定する。推定結果の情報は、報知手段113に入力される。
報知手段113は、時間を計測するためのタイマーを備え、更に、到達時間推定手段115が推定した到達時間が所定の秒数以下(例えば、予め規定された秒数以下)であれば、人と進路上物品との接触の可能性があると報知手段113により判断するための、前記所定の規定秒数が報知手段113には記録されている。ここで、人が進路上物品と接触しないために、規定秒数の値は、報知手段113による報知開始から人が進行を停止するまでに要する時間よりも大きくしておく必要があるが、この条件を満たしていれば、規定秒数の値は自由に設定しても構わない。進路上物品推定手段112が推定した進路上物品が、死角内物品推定手段111により死角内物品であると推定されると次に、前記障害物品にまでの人の到達時間を到達時間推定手段115により演算して求めて報知手段113に出力し、前記到達時間が規定秒数よりも短い場合には、報知手段113は、人に対し前記障害物品との接触の可能性のあることを、当該人に報知する。
ここで、第4実施形態の具体例を図10に示す。
人601が、非常に重たい運搬物品531を運んでおり、5秒前に人601は位置A 609におり、現在は位置A 609から0.5mの離れた位置B 610に人601がいるとする。人601は、非常に重たい運搬物品531を運んでいたために、秒速0.1mの速さでゆっくり進んでいることがわかる。そのために、人601は、位置B 610から1mの距離にある雑誌603の位置C 611には、10秒後に到達すると、到達時間推定手段115により演算して判断される。このとき、人601が位置B 610にいるときに、雑誌603が人603と接触する可能性のある進路上物品であると死角内物品推定手段111により推定されると、人601が雑誌603に到達するのは10秒後であるにも関わらず、人601と接触可能性がある物品として報知手段113により報知される。これは、物品を運搬する人601にとって煩わしいと感じる可能性がある。この第4実施形態では、到達時間推定時間115を備えることにより、到達推定時間が設定した規定秒数、例えば3秒以下になった場合に接触可能性がある物品として報知する。
図11に、この第4実施形態にかかる死角内物品報知システムの報知処理についてのフローチャートの一部を示すが、ここでは、前記第一実施形態にて説明した図4のフローチャートとの変更点のみを説明し、その他の各ステップの説明は省略する。以下の動作は、図4のフローチャートのステップS411とステップS412との間に挿入されるものである。
ステップS1301は、ステップS411の後に行なわれ、ステップS409にて進路上物品であると推定されかつステップS411にて死角内にある障害物品であると判断された障害物品までの到達時間を到達時間推定手段115により推定して、ステップS1302に進む。
ステップS1302では、ステップS411にて人の進路上にあり、且つ、運搬物品によって生じる死角内にあると判断された障害物品までの到達時間が、予め決められた規定秒数以内であるかを報知手段113により判断する。もし、前記到達時間が、予め決められた規定秒数以内ではないと報知手段113が判断すれば、報知手段113は何もせず、前記報知処理を終了する。もし、前記到達時間が、予め決められた規定秒数以内であると報知手段113が判断すれば、前記障害物品との人との接触可能性があるため、その旨を、報知手段113により人に報知する。
前記第4実施形態によれば、たとえ人の運搬中の物品531によって生じる死角内に障害物品603が入り、且つ、前記人601の進路上に前記障害物品603があったときでも、前記人601と前記障害物品603との間の距離が長く到達に時間がかかる場合には報知手段113により報知をせず、到達にかかる時間が短くなったときにのみ報知を報知手段113により行うことにより、人601に対し、必要以上の報知を報知手段113により控えることができる。
(第5実施形態)
図12は、前記した本発明の第4実施形態にかかる死角内物品報知システムを示したブロック図であると同時に、本発明の第5実施形態にかかる、死角内物品報知方法を実施可能な死角内物品報知システムを示したブロック図でもある。この第5実施形態にかかる死角内物品報知システムが他の実施形態にかかる死角内物品報知システムと異なるのは、運搬物品推定手段106の推定動作であって、複数人で物品を運搬しているとき、一方の人からみて他方の人を運搬物品の一種として判断して死角内物品報知システムを動作させるようにするものである。
第5実施形態にかかる死角内物品報知システムは、人位置取得手段101と、人進行状態推定手段102と、物品データベース103と、物品位置取得手段104と、運搬物品推定手段106と、人物データベース109と、眼球位置推定手段110と、死角内物品推定手段111と、進路上物品推定手段112と、報知手段113と、到達時間推定手段115と、履歴データベース117と、入出力装置200とで構成されている。
運搬物品推定手段106以外の各手段、及び各データベース109,103,117に関しては、第1実施形態から第4実施形態のいずれかにて説明した機能と同等のため説明を省略する。
運搬物品推定手段106は、先ず、履歴データベース117に記録されている人位置情報と、物品位置情報を参照し、前記人の位置と同様に前記物品の位置の位置も変化していたら、前記人は前記物品を運搬していると推定する。例えば、人の現在位置(例えば重心座標とする)を中心とした半径3m以内の範囲(例えば、人の手の届く範囲)にある物品を運搬候補物品としておく、そして5秒後に前記人がある位置まで移動したときにも、前記人の半径3m以内に前記運搬候補物品があれば、前記運搬候補物品は、前記人が運搬している運搬物品であると推定する。更に、図13に示すように、人601の半径3m以内の範囲にいる他の人612を共同運搬候補者と見なし、5秒後に前記人601がある位置まで移動したときにも、前記人601の半径3m以内に前記共同運搬候補者612がいれば、前記共同運搬候補者は、前記人601が運搬している運搬物品であると見なす。このとき、前記共同運搬候補者である他の人612から見ると、前記人601が運搬物品と見なされる。
ここで、図13に二人601,612で物品を運搬している例を示す。
人601は、共同運搬者612と共に机602を運搬している。このとき、人601と共同運搬者612と机602は共に相対的に近距離(半径3m以内の範囲)を維持したまま移動していたとする。すると、上述したように、運搬物品推定手段106は、人601の運搬物品は、机602と共同運搬者612であると推定し、共同運搬者612の運搬物品は、机602と人601であると推定することができる。
すると、人601の運搬物品により生じる死角は、机602により生じる死角613と、共同運搬者612により生じる死角614を合わせたものと、死角内物品推定手段111により決定される。なお、図17では、死角613は、右上から左下向きの1点鎖線の斜線で表される領域であり、死角614は、左上から右下向きの2点鎖線の斜線で表される領域である。
すると、死角内物品推定手段111により、人601にとって、人601の進路上でかつ床に落ちている財布605は、死角内物品(死角内にある進路上物品)であると推定された場合には報知手段113により、人601に対して報知が行われることとなる。
このとき、財布605は、人601にとって接触の可能性のある物品として死角内物品推定手段111により推定されたが、人601と共同運搬者612は共に移動していることから、財布605から最も近くにいる人物、つまり共同運搬者612に対して、報知手段113により報知を行うようにしても良い。
例えば、共同運搬者612が財布605に到達するまでの時間が短くなったときに、報知手段113により報知を行えば良い。尚、到達時間による報知のタイミングに関しては、前記第4実施形態にて説明済みであるため、ここでの詳細な説明は省略する。
図14に死角内物品報知システムの報知処理についてのフローチャートの一部を示すが、ここでは、前記第1実施形態、又は第2から第5実施形態のいずれかにて説明したフローチャートとの変更点のみを説明し、その他の各ステップは説明を省略する。
ステップS1801は、ステップS401からの前記人の位置情報(人位置取得手段101が、人物データベース109に記録されている情報を参照することによって人(例えば、図13の人601と人612)の現在位置を取得し、履歴データベース117に前記人(例えば、図13の人601と人612)の位置情報を記録する動作(ステップS401)を行なったのち、履歴データベース117からの前記人(例えば、図13の人601と人612)の位置情報)を運搬物品推定手段106で受けて、判断対象の人(例えば、図13の人612)が、物品を運搬している他の人(例えば、図13の人601)と同様に移動しているかを運搬物品推定手段106により判断している。前記判断対象の人(例えば、図13の人612)が、他の人(例えば、図13の人601)と同様に移動していると運搬物品推定手段106により判断すると、ステップS1802に進む。前記判断対象の人(例えば、図13の人612)が、他の人(例えば、図13の人601)と同様に移動していないと運搬物品推定手段106により判断すると、図14の死角内物品報知システムの前記報知処理を終了する。
ステップS1802では、ステップS1801の判断の結果、前記判断対象の人(例えば、図13の人612)が、他の人(例えば、図13の人601)と同様に移動していると運搬物品推定手段106により判断したので、前記他の人(例えば、図13の人601)と同様に移動している前記判断対象の人(例えば、図13の人612)を、他の人(例えば、図13の人601)の運搬物品であると、運搬物品推定手段106により推定する。ここで、ステップS1801では、各人に対して、他の人と同様に移動しているかを判断している。つまり、人が、他の人の運搬物品であると運搬物品推定手段106により推定されれば、前記他の人は、前記人の運搬物品であるとも運搬物品推定手段106により推定されることとなる。このステップS1802での推定処理の後、図4のステップS410に進む。
前記第5実施形態によれば、複数人で物品を運搬しているとき、人によって生じる死角内に障害物品が入るときには報知手段113で報知を行うことによって、人にとって、より精度の高い障害物品、又は構造物と接触の可能性を報知することができる。
(第6実施形態)
図22は本発明の第6実施形態にかかる、死角内物品報知方法を実施可能な死角内物品報知システムを示したブロック図である。
第6実施形態にかかる死角内物品報知システムは、人位置取得手段101と、人進行状態推定手段102と、物品データベース103と、物品位置取得手段104と、運搬物品推定手段106と、人物データベース109と、眼球位置推定手段110と、死角内物品推定手段111と、進路上物品推定手段112と、報知手段113と、顔向取得手段108と、履歴データベース117と、入出力装置200とで構成されている。顔向取得手段108を新たに備えたことが、本発明の第6実施形態が他の実施形態にかかる死角内物品報知システムと大きく異なる点である。
そこで、顔向取得手段108と、人進行状態推定手段102以外の各手段、及び各データベース103,109,117に関しては、第1実施形態にて説明した機能と同等のため説明を省略する。
顔向取得手段108を説明する。顔向取得手段108は、人物データベース109に記録された顔画像などの情報から、人の顔の向きを取得する。
顔向取得手段108は、例えばカメラシステムを利用して実現することができる。撮影方向を把握したカメラが配置され{例えば、図18のカメラA 2003が配置され(ここでは、水平(XY平面)45度、Z軸方向は0度としている。)}、人物データベース109には顔画像が記録されているとする。図2A、図2B、図2Cに人物データベース109に記録されているIDP_0001の顔画像の例を示すが、人位置取得手段101にて説明済みのため、ここでの図2A、図2B、図2Cの説明は省略する。顔向取得手段108による顔向取得の処理であるが、例えば、背景差分法などにより先ず人の検出を顔向取得手段108により行うことができ、更にテンプレートマッチングなどの手法を用いることで人の顔の検出を顔向取得手段108により行うことができる。背景差分法とテンプレートマッチング法に関しては既に人位置取得手段101にて説明済みのため、ここでの説明は省略する。
以下、図18と図2A、図2B、図2Cを用いて説明を進める。図18のカメラA 2003が人の顔を検出したとする。例えば、カメラA 2003で検出した人の顔の画像情報に対して図2Bにおける「画像4」(角度は22.5度)が最も類似度が高かったと顔向取得手段108により判断したとし、カメラA 2003が(X,Y)=(0,0)に45度の方向を向いて配置されていたとする(簡単のため、顔の高さとカメラの高さを同じであるとし、ここではZ軸を無視して説明をする)。すると、人の向きは、人の顔を検出したカメラA 2003の向いている角度45度から更に22.5度回転した67.5度の方向を向いていることになる。この結果、カメラA 2003で検出した人の顔画像を用いて、顔向取得手段108により顔の向きを取得したことになる。
尚、カメラを天井に取り付け、人を上から見下ろすようにしか画像を取得できない場合には、それに合わせた顔画像を、人物データベース109に記録しておくことが好ましい。図2Cに、上方から見た人の顔画像の例を示す。
ここで、顔画像を用いて顔の向きを取得したが、顔の特徴量のみを人物データベース109に記録しても良い。例えば、眼球と鼻と口の特徴とそれぞれの相対距離比を、人の顔の向き毎に記録しておくことで、顔の向きを取得することができる。
また、人進行状態推定手段102は、人の進行方向と進行速度を推定し、更に、顔向取得手段108が取得した人の顔の向きの方向を、人の進行する方向と予測し、この予測した方向に、前記速度で人が進行すると推定する。このようにして推定した人の進行方向と進行速度とを推定進路とする。
前記第6実施形態によれば、顔向取得手段108が人の顔の向きを取得し、人進行状態推定手段102が、人の顔の向きが変わった段階で(顔向取得手段108が取得した人の顔の向きの方向が変わったとき)、人が進行する可能性のある推定進路を新たに設定することができる。よって、人の動きから予測して、接触可能性のある障害物品を報知手段113で報知することによって、人の安全により適合した死角内物品報知システムを構成することができる。
なお、前記様々な実施形態にかかる死角内物品報知システム又は死角内物品報知方法は、例えば、(好ましくは、通信機能を有する)一般的なコンピュータシステムを基礎に構築することができる。上記様々な手段は、コンピュータプログラムとして、記憶装置(ハードディスク等)に記憶させるとともに、上記様々なデータベースは記憶装置(ハードディスク等)で機能させ、前記コンピュータプログラムを一時記憶装置(半導体メモリ等)に読み込んでCPUを用いて実行することにより、前述する各処理を様々な機能として実行することができる。
なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
本発明の死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラムは、人が運搬中の物品によって生じる死角内に障害物品があり、且つ、前記人が前記物品の方向へ進んでいるときにのみ報知を行い、前記障害物品との接触を未然に防ぐことができるため、家庭内やオフィス、病院などでの物品運搬作業時に有用である。
本発明の第1実施形態にかかる死角内物品報知システムの構成を示すブロック図 本発明の死角内物品報知システムの人物データベースの一例を示す図 図2Aの人物データベースの一例のうちのIDP_0001の顔画像の一例の詳細図 図2Aの人物データベースの一例のうちのIDP_0001の顔画像の別の例の詳細図 本発明の第1実施形態にかかる死角内物品報知システムの物品データベースの一例を示す図 図3Aの物品データベースの一例のうちのIDP_0001の形状データの例を示す図 図3Aの物品データベースの一例のうちのIDP_0003の形状データの例を示す図 本発明の第1実施形態にかかる死角内物品報知システムの処理を示すフローチャート 本発明の第2実施形態にかかる死角内物品報知システムにおいて、物品姿勢を取得する一例を示しており、机の物品データベースの一例を示す図 図5の本発明の第2実施形態にかかる前記死角内物品報知システムにおいて、物品姿勢を取得する一例を示す説明図 図5の本発明の第2実施形態にかかる前記死角内物品報知システムにおいて、物品姿勢を取得する一例を示す説明図 本発明の第2実施形態にかかる死角内物品報知システムの構成を示すブロック図 本発明の第3実施形態にかかる死角内物品報知システムの物品データベースの一例を示す図 本発明の第4実施形態にかかる死角内物品報知システムの到達時間推定手段の一推定例を示す図 本発明の第4実施形態にかかる死角内物品報知システムの処理を示すフローチャート 本発明の第4及び第5実施形態にかかる死角内物品報知システムの構成を示すブロック図 本発明の第5実施形態にかかる死角内物品報知システムの物品の共同運搬の一例を示す図 本発明の第5実施形態にかかる死角内物品報知システムの処理を示すフローチャート 本発明の第1実施形態にかかる人位置取得方法の一例を示す図 財布にタグリーダが設置されている状態を示す説明図 履物の裏に人のIDを記録したタグリーダが設置されている状態を示す説明図 本発明の第1実施形態から第6実施形態にかかる概略図 本発明の第1実施形態にかかる人進行状態推定手段の一判断例を示す図 本発明の第1実施形態にかかる人進行状態推定手段の一判断例を示す図 重量センサに加わった荷重をグルーピングして、時間順に並べた処理結果の例を示す図 本発明の第6実施形態にかかる死角内物品報知システムの構成を示すブロック図 本発明の第1実施形態にかかる履歴データベースの一例を示す図 本発明の第1実施形態にかかる履歴データベースの一例を示す図 本発明の第3実施形態にかかる死角内物品報知システムの構成を示すブロック図 本発明の第1実施形態にかかる運搬物品推定手段の運搬候補物品を決定する一例を示す図であって、上側は前記一例を示す斜視図であり、下側はその平面図 人が机を運搬しているときの本発明の第1実施形態にかかる死角内物品推定手段の処理の一例を示す図 人が机を運搬しているときの本発明の第1実施形態にかかる死角内物品推定手段の処理の一例を示す図 人が机を運搬していて財布が死角内物品でないときの本発明の第1実施形態にかかる死角内物品推定手段の処理の一例を示す図 人が机を運搬していて財布が死角内物品であるときの本発明の第1実施形態にかかる死角内物品推定手段の処理の一例を示す図 人が机を運搬していて財布の一部分が死角に入っているときの本発明の第1実施形態にかかる死角内物品推定手段の処理の一例を示す図
符号の説明
101 人位置取得手段
102 人進行状態推定手段
103 物品データベース
104 物品位置取得手段
105 物品姿勢取得手段
106 運搬物品推定手段
108 顔向取得手段
109 人物データベース
110 眼球位置推定手段
111 死角内物品推定手段
112 進路上物品推定手段
113 報知手段
115 到達時間推定手段
116 環境データベース
117 履歴データベース
200 入出力装置
501 机
502 タグA
503 タグB
504 タグC
505 Cube1
506 Cube2
507 Cube3
508 Cube4
509 Cube5
510 超音波タグリーダ
512 姿勢変化後の机
531 非常に重たい運搬物品
601 人
602 机(運搬物品)
603 雑誌(進路上物品)
604 携帯電話(死角内物品)
605 財布(接触可能性のある物品)
607 運搬物品により生じる死角
608 推定進路
609 位置A(過去の人の位置)
610 位置B(現在の人の位置)
611 位置C(進路上物品の位置)
612 共同運搬者
613 人601から見た机による死角
614 人601から見た共同運搬者による死角
615 お盆
616 カバン
617 人位置から人進行方向に向けて作成した直線
618 お盆が存在するXY平面上の領域
619 カバンが存在するXY平面上の領域
1901 履物
1902 タグリーダA
1903 タグ
1904 タグA
1905 タグB
1906 タグC
1910 財布
2001 タグリーダA
2002 タグリーダB
2003 カメラA
2004 カメラB
2005 超音波タグリーダA
2006 超音波タグリーダB
2007 スピーカ

Claims (9)

  1. 人の身体情報を記録した人物データベースと、
    前記人と物品の位置の履歴を記録する履歴データベースと、
    前記人の位置を取得し、取得した前記人の位置情報を前記履歴データベースに記録する人位置取得手段と、
    前記履歴データベースを参照し、前記人の進行方向を推定する人進行状態推定手段と、
    少なくとも前記物品のIDと大きさと形状情報を記録した物品データベースと、
    前記物品の位置を取得し、取得した物品の位置情報を前記履歴データベースに記録する物品位置取得手段と、
    前記履歴データベースを参照し、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品と推定し、前記人の位置と前記物品の位置が同様の動きをしていない場合の前記物品を障害物品と推定する運搬物品推定手段と、
    前記人の眼球の位置を推定する眼球位置推定手段と、
    前記人進行状態推定手段が推定した前記人の進行方向に、前記運搬物品推定手段が推定した前記障害物品が存在するか否かを推定する進路上物品推定手段と、
    前記眼球位置推定手段で推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて前記人にとって死角となる範囲内に、前記進路上物品推定手段により前記人の進行方向に存在すると推定された前記障害物品が、存在するか否かを推定する死角内物品推定手段と、
    前記死角内物品推定手段により、前記運搬物品により隠蔽されて死角となる範囲内に、前記障害物品が存在すると推定されたとき、前記人に前記障害物品の情報を報知する報知手段と、
    を備えたことを特徴とする死角内物品報知システム。
  2. 更に、前記運搬物品の姿勢を検出し、検出した前記運搬物品の姿勢の情報を前記履歴データベースに記録する物品姿勢取得手段を備えて、
    前記死角内物品推定手段は、前記物品姿勢取得手段により取得された前記運搬物品の姿勢の情報を参照して、前記運搬物品により隠蔽されて死角となる範囲内に、前記障害物品が存在するか否かを推定することを特徴とする請求項1に記載の死角内物品報知システム。
  3. 更に、前記物品データベースには前記運搬物品の透過性を示す情報が記録されており、
    前記死角内物品推定手段は、更に、前記運搬物品推定手段で推定した前記運搬物品の透過性を示す情報を前記物品データベースにより参照し、前記運搬物品にて隠蔽され死角となる範囲内に、前記障害物品が存在するかを推定することを特徴とする請求項2に記載の死角内物品報知システム。
  4. 更に、前記人進行状態推定手段が推定した前記人の進行状態から、前記進路上物品推定手段が推定した前記障害物品に、前記人が辿り着くまでの時間を推定する到達時間推定手段を備え、
    前記報知手段は、前記死角内物品推定手段が推定した前記障害物品の中に、前記進路上物品推定手段が前記人の進行方向に存在すると推定した前記障害物品が含まれており、且つ、前記到達時間推定手段が推定した時間が報知動作判断用基準時間より短くなった場合、前記人が前記障害物品と接触する危険性があると前記報知手段により判断して、前記報知手段により、前記人に前記障害物品と接触する危険性があることを報知することを特徴とする請求項1から3のいずれか1つに記載の死角内物品報知システム。
  5. 更に、前記運搬物品推定手段は、前記人位置取得手段が取得した前記人の位置を継続的に受け取り、2人以上の人の位置が同様の動きをしていた場合には、互いに、片方の人をもう片方の人の運搬物品であると推定することを特徴とする請求項1から4のいずれか1つに記載の死角内物品報知システム。
  6. 更に、前記人の顔の向きを取得する顔向取得手段を備え、
    前記人進行状態推定手段は、前記履歴データベースの前記人の位置の情報と、前記顔向取得手段が取得した前記人の顔の向きの情報を参照することによって、前記人の進行方向を推定することを特徴とする請求項1から5のいずれか1つに記載の死角内物品報知システム。
  7. 少なくとも、人の位置と、前記人の眼球の位置と、物品の位置の情報を入力可能な情報入力部と、
    前記情報入力部より受け取った前記人の位置情報を基に前記人の進行方向を推定する人進行状態推定手段と、
    前記情報入力部より受け取った前記人の位置情報と前記物品の位置情報を基に、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定手段と、
    前記人進行状態推定手段が推定した前記人の進行方向に、前記運搬物品推定手段が推定した前記障害物品が存在するか否かを推定する進路上物品推定手段と、
    前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定手段が推定した前記障害物品が存在するか否かを推定する死角内物品推定手段と、
    を備えたことを特徴とする死角内物品推定装置。
  8. 人の位置を取得する人位置取得ステップと、
    前記人位置取得ステップにて取得した前記人の位置情報から、前記人の進行方向を推定する人進行状態推定ステップと、
    前記物品の位置を取得する物品位置取得ステップと、
    前記物品位置取得ステップにて取得した前記物品の位置と、前記人位置取得ステップにて取得した前記人の位置から、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定ステップと、
    前記人の眼球の位置を推定する眼球位置推定ステップと、
    前記人進行状態推定ステップが推定した前記人の進行方向に、前記運搬物品推定ステップが推定した前記障害物品が存在するか否かを推定する進路上物品推定ステップと、
    前記眼球位置推定ステップで推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定ステップで前記人の進行方向に存在すると推定された前記障害物品が存在するか否かを推定する死角内物品推定ステップと、
    前記死角内物品推定ステップで前記死角となる範囲内に前記障害物品が存在すると推定されたとき、前記人に情報を報知する報知ステップと、
    を備えたことを特徴とする死角内物品報知方法。
  9. コンピュータに、
    人の位置を取得する人位置取得機能と、
    前記人位置取得機能にて取得した前記人の位置情報から、前記人の進行方向を推定する人進行状態推定機能と、
    物品の位置を取得する物品位置取得機能と、
    前記物品位置取得機能にて取得した前記物品の位置と、前記人位置取得機能にて取得した前記人の位置から、前記人の位置と前記物品の位置が同様の動きをしていた場合に前記物品を前記人の運搬物品とし、前記運搬物品以外の物品を障害物品とする運搬物品推定機能と、
    前記人の眼球の位置を推定する眼球位置推定機能と、
    前記人進行状態推定機能が推定した前記人の進行方向に、前記運搬物品推定機能が推定した前記障害物品が存在するか否かを推定する進路上物品推定機能と、
    前記眼球位置推定機能で推定された前記人の眼球の位置を参照しつつ、前記運搬物品により隠蔽されて死角となる範囲内に、前記進路上物品推定機能で前記人の進行方向に存在すると推定された前記障害物品が存在するか否かを推定する死角内物品推定機能と、
    前記死角内物品推定機能で前記死角となる範囲内に前記障害物品が存在すると推定されたとき、前記人への情報の報知を実行するための報知機能と、
    を実現させるための死角内物品報知プログラム。
JP2006215612A 2006-08-08 2006-08-08 死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム Pending JP2008040867A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006215612A JP2008040867A (ja) 2006-08-08 2006-08-08 死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006215612A JP2008040867A (ja) 2006-08-08 2006-08-08 死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム

Publications (1)

Publication Number Publication Date
JP2008040867A true JP2008040867A (ja) 2008-02-21

Family

ID=39175779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006215612A Pending JP2008040867A (ja) 2006-08-08 2006-08-08 死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム

Country Status (1)

Country Link
JP (1) JP2008040867A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507748A (ja) * 2012-01-20 2015-03-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 人の流れをシミュレーションするための区域又は建物の在居状況の利用
JP6041944B1 (ja) * 2015-08-18 2016-12-14 佐藤 創一 対象者監視システム
JP6084742B1 (ja) * 2016-07-01 2017-02-22 佐藤 創一 対象者監視システム
JP6386682B1 (ja) * 2018-01-24 2018-09-05 株式会社Colza 姿勢管理システム、姿勢管理方法、プログラム
WO2023195075A1 (ja) * 2022-04-05 2023-10-12 三菱電機株式会社 警告装置、警告システム、警告方法、及び警告プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507748A (ja) * 2012-01-20 2015-03-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 人の流れをシミュレーションするための区域又は建物の在居状況の利用
JP6041944B1 (ja) * 2015-08-18 2016-12-14 佐藤 創一 対象者監視システム
JP6084742B1 (ja) * 2016-07-01 2017-02-22 佐藤 創一 対象者監視システム
JP2018004458A (ja) * 2016-07-01 2018-01-11 佐藤 創一 対象者監視システム
JP6386682B1 (ja) * 2018-01-24 2018-09-05 株式会社Colza 姿勢管理システム、姿勢管理方法、プログラム
JP2019128214A (ja) * 2018-01-24 2019-08-01 株式会社Colza 姿勢管理システム、姿勢管理方法、プログラム
WO2023195075A1 (ja) * 2022-04-05 2023-10-12 三菱電機株式会社 警告装置、警告システム、警告方法、及び警告プログラム
JP7490159B2 (ja) 2022-04-05 2024-05-24 三菱電機株式会社 警告装置、警告システム、警告方法、及び警告プログラム

Similar Documents

Publication Publication Date Title
US20230409032A1 (en) Method for controlling an autonomous, mobile robot
US11429761B2 (en) Method and apparatus for interacting with a node in a storage area
CN110915208B (zh) 使用深度传感器的虚拟现实环境边界
US20200356101A1 (en) Time-dependent navigation of telepresence robots
Nakauchi et al. A social robot that stands in line
Ceriani et al. Rawseeds ground truth collection systems for indoor self-localization and mapping
JP4422792B1 (ja) 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
JP6039611B2 (ja) 可動式ロボットシステム
US7557703B2 (en) Position management system and position management program
CN102687174B (zh) 确定对象的位置特性
KR20180067724A (ko) 이동형 원격현전 로봇과의 인터페이싱
GB2527207A (en) Mobile human interface robot
US10026189B2 (en) System and method for using image data to determine a direction of an actor
Nefti-Meziani et al. 3D perception from binocular vision for a low cost humanoid robot NAO
US11625510B2 (en) Method and apparatus for presentation of digital content
JP2008040867A (ja) 死角内物品報知システム、死角内物品報知方法、及び死角内物品報知プログラム
Sevrin et al. Characterization of a multi-user indoor positioning system based on low cost depth vision (Kinect) for monitoring human activity in a smart home
US11514765B2 (en) Systems and methods for spatial sensing and tracking of objects in a space
CN112949375A (zh) 计算***、计算方法及存储介质
CN115777117A (zh) 人-物体场景识别方法、装置及计算机可读存储介质
US11837006B2 (en) Human posture determination method and mobile machine using the same
US10120057B1 (en) System and method for determining the direction of an actor
CN113589813A (zh) 机器人构建房间户型图的控制方法
CN116385489B (zh) 基于rgbd相机的目标跟随方法及***
US20240184937A1 (en) Apparatus for provision of digital content associated with a radio target area