JP2016087106A - 掃除支援装置及び掃除機 - Google Patents

掃除支援装置及び掃除機 Download PDF

Info

Publication number
JP2016087106A
JP2016087106A JP2014225349A JP2014225349A JP2016087106A JP 2016087106 A JP2016087106 A JP 2016087106A JP 2014225349 A JP2014225349 A JP 2014225349A JP 2014225349 A JP2014225349 A JP 2014225349A JP 2016087106 A JP2016087106 A JP 2016087106A
Authority
JP
Japan
Prior art keywords
cleaner
data
head
unit
cleaning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014225349A
Other languages
English (en)
Inventor
善光 村橋
Yoshimitsu Murahashi
善光 村橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014225349A priority Critical patent/JP2016087106A/ja
Publication of JP2016087106A publication Critical patent/JP2016087106A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electric Suction Cleaners (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

【課題】掃除支援機能の追加を容易にできる掃除支援装置。【解決手段】掃除支援装置10は、掃除対象領域において掃除済みの領域を示す情報を含むマップデータを参照するマップ取得部2と、操作対象の掃除機の現在位置及び掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定部3と、マップデータが示す掃除済みの領域、並びに状態データが示す掃除機の現在位置及び掃除機のヘッドの向きに基づいて、掃除機のヘッド操作の指針となるデータを生成する解析部4と、解析部4が生成したデータを掃除機の操作者又は掃除機に対して出力する出力部5と、を備える。【選択図】図1

Description

本発明は、掃除機を制御する技術に関する。
近年、例えば、下記特許文献1のように、特定領域の全域をカバーするように自律的に走行する自律移動装置が開発されている。自走式の掃除ロボットとして、例えば、特許文献2に示すように、部屋の輪郭レイアウト、障害物、自身の現在位置及び各種の動作状態を表示する表示部を備えるものが提案されている。このような自走式の掃除ロボットは、物理的に入り込めない場所は、掃除できない。そのため、自走式でない、操作者が操作する掃除機も依然として使用されている。
例えば、下記特許文献3には、操作者が操作する掃除機の作業時間の短縮と作業負担の軽減のため、作業済み箇所の表示装置を備えた作業機が提案されている。上記従来の作業機は、移動距離検出手段による検出距離と移動方向検出手段による検出方向の情報に基づいて位置方位を算出し、算出データに基づいて作業機の移動領域を作業済み箇所として二次元表示画面に表示する。
特開2006−293976号公報 特開平11−267074号公報 特開平7−244527号公報
上記従来の作業機は、移動距離検出手段、移動方向検出手段及び二次元表示画面を備える必要がある。そのため、作業機の構成が複雑になり、サイズ及びコストが増えやすい。また、上記作業機は、自身の作業済み箇所を表示するに留まり、例えば、他の掃除機の掃除済み領域を把握するための機能等を追加するのが容易な構成ではない。すなわち、状況に応じて掃除機による掃除を支援する機能を柔軟に追加するのは困難であった。そこで、本願は、掃除支援機能の追加を容易にできる掃除支援装置を開示する。
本発明の一実施形態における掃除支援装置は、掃除対象領域において掃除済みの領域を示す情報を含むマップデータを参照するマップ取得部と、操作対象の掃除機の現在位置及び前記掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定部と、前記マップデータが示す掃除済みの領域、並びに前記状態データが示す前記掃除機の現在位置及び前記掃除機のヘッドの向きに基づいて、前記掃除機のヘッド操作の指針となるデータを生成する解析部と、前記解析部が生成したデータを前記掃除機の操作者又は前記掃除機に対して出力する出力部と、を備える。
本願開示によれば、掃除支援機能の追加を容易にできる。
図1は、掃除支援装置10を含む掃除支援システムの構成例を示す図である。 図2は、マップデータとして記録部6に記録されるデータの構成例を示す図である。 図3は、図2に示すデータを基に、掃除済みか否かを示す値を、各座標に対応づけてマップデータとして記録する例を説明するための図である。 図4は、図2に示すデータを基に、掃除済みか否かを示す値を、各座標に対応づけてマップデータとして記録する例を説明するための図である。 図5は、出力部5が、掃除機C2のディスプレイ11に表示させる画像の一例を示す図である。 図6は、ヘッド12aにディスプレイ11aが設けられる例を示す図である。 図7は、ヘッド12aに設けられるディスプレイ11aにマップデータ及び状態データに基づく画像を表示する場合の例を示す図である。 図8は、ヘッド12bに発光部13a―1、13a―2が設けられる例を示す図である。 図9は、図8に示すヘッドの発光部に解析部4の決定結果に応じた発光をさせる処理の例を示すフローチャートである。 図10は、掃除支援装置10が、掃除機のスピーカの出力を制御する処理例を示すフローチャートである。 図11は、掃除機のヘッドが進むべき方向を決定する処理の例を示すフローチャートである。 図12Aは、距離KS、KLの具体例を示す図である。 図12Bは、距離LS、LL,LRの具体例を示す図である。 図13は、実施形態2における掃除支援装置10を含むシステムの構成例を示す図である。 図14は、実施形態3における掃除支援装置10を含むシステムの構成例を示す図である。 図15は、実施形態4における掃除支援装置10を含むシステムの構成例を示す図である。
本発明の一実施形態における掃除支援装置は、掃除対象領域において掃除済みの領域を示す情報を含むマップデータを参照するマップ取得部と、操作対象の掃除機の現在位置及び前記掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定部と、前記マップデータが示す掃除済みの領域、並びに前記状態データが示す前記掃除機の現在位置及び前記掃除機のヘッドの向きに基づいて、前記掃除機のヘッド操作の指針となるデータを生成する解析部と、前記解析部が生成したデータを前記掃除機の操作者又は前記掃除機に対して出力する出力部と、を備える。
上記構成においては、掃除支援装置は、掃除機の通過位置を示す情報を含むマップデータと、掃除機の現在位置とヘッドの向きを示す状態データとに基づいて、掃除機のヘッド操作の指針となるデータを生成する。これにより、マップデータ及び状態データを基に掃除機のヘッドの動作の指針となる事項を判断することが可能になる。このような判断の結果が操作者又は掃除機に対して出力される。そのため、掃除機のヘッドの動作の指針となる情報を、状況に応じてさまざまな形態で出力することができる。その結果、ユーザアシスト機能を追加することが容易にできる。
前記マップ取得部により参照される前記マップデータは、2以上の掃除機の掃除済み領域を示す情報を含むことができる。これにより、2以上の掃除機の掃除済領域を把握した上での掃除機のヘッドの動作の判断が可能になる。
前記マップ取得部により参照される前記マップデータは、前記掃除対象領域におけるゴミ吸引量の分布を示す情報を含むことができる。これにより、ゴミの量の分布を考慮した掃除機のヘッドの操作状況判断が可能になる。
前記掃除支援装置は、監視対象の掃除機の位置を示す位置データを受信する位置受信部と、前記位置受信部が受信した位置データが示す前記掃除機の位置に基づき、前記掃除済み領域を示す情報を含む前記マップデータを生成するマップ生成部をさらに備えることができる。これにより、監視対象の掃除機による掃除済み領域を示すマップデータを生成することができる。また、この構成においては、複数の掃除機を監視対象とすることができるので、例えば、複数の監視対象の掃除機による掃除済み領域を示す情報を取得できる。この場合、複数の掃除機の掃除済み領域の情報を含むマップデータを生成することができる。
前記位置受信部は、前記監視対象の掃除機のゴミ吸引量を示すゴミ量データをさらに受信してもよい。この場合、前記マップ生成部は、前記ゴミ量データを用いて、前記掃除対象領域におけるゴミ吸引量の分布を示す情報を含むマップデータを生成することができる。これにより、ゴミ吸引量の分布情報を含むマップデータが得られる。
前記位置受信部は、前記位置データとして、前記監視対象の掃除機の位置に加えて、各位置における前記掃除機の吸引口の向きを示すデータを受信してもよい。この場合、前記マップ生成部は、位置データが示す前記掃除機の位置及び吸引口の向きに基づき、前記掃除機の吸引口による掃除済み領域を示す情報を含むマップデータを生成することができる。これにより、掃除機により吸引された位置の情報を含むマップデータが得られる。
掃除対象領域を撮影するカメラにより撮影された画像に基づいて、前記監視対象の掃除機の位置を特定する位置特定部をさらに備えることができる。前記位置受信部は、前記位置特定部から前記掃除機の位置を示す位置データを受信することができる。これにより、複数の監視対象の掃除機の位置を得ることができる。また、掃除機の構成の複雑化をより抑えることができる。
前記位置受信部は、前記監視対象の掃除機から送信される位置データを受信してもよい。また、掃除対象領域に分布して設けられた、受信電波に応じた周波数の交流信号を発生させる受動素子で検出された交流信号により前記監視対象の掃除機の位置を特定する位置特定部をさらに備えることができる。この場合、前記位置受信部は、前記位置特定部から前記掃除機の位置を示す位置データを受信することができる。
前記出力部は、前記解析部の生成したデータに応じた出力音スピーカに出力させることができる。これにより、ヘッド操作の指針を音により効率的に操作者に伝えることができる。例えば、操作対象の掃除機に設けられたスピーカに解析部の生成したデータに応じた出力音を出力させることができる。
前記出力部は、前記解析部の生成したデータに応じた発光を前記操作対象の掃除機のヘッドに設けられた発光部にさせることができる。これにより、ヘッド操作の指針を、ヘッドの発光によって、効率的に、操作者に伝えることができる。
前記出力部は、前記解析部の生成したデータに応じた画像をディスプレイに表示させることができる。これにより、ヘッド操作の指針を、ディスプレイによって、効率的に、操作者に伝えることができる。
前記出力部は、前記操作対象の掃除機に設けられたディスプレイに前記画像を表示させることができる。これにより、ヘッド操作の指針を、掃除機のディスプレイによって、効率的に、操作者に伝えることができる。出力部は、一例として、掃除機のヘッドに設けられたディスプレイに画像を表示させることができる。これにより、実際のヘッド向きに対応した見やすい画像をヘッドのディスプレイに表示することが可能になる。
上記の掃除支援装置を含む掃除機であって、スピーカをさらに備える掃除機も実施形態に含まれる。この場合、前記出力部は、前記解析部の決定結果に応じた出力音を前記スピーカに出力させることができる。これにより、ヘッドの進むべき方向又は、ヘッドが掃除済みの場所にあるか否かを、音により効率的に操作者に伝えることができる。
上記の掃除支援装置を含む掃除機であって、吸引口を有するヘッドをさらに備える掃除機も実施形態に含まれる。前記ヘッドは、発光部を有し、前記出力部は、前記解析部の決定結果に応じた発光を前記発光部にさせることができる。これにより、ヘッドの進むべき方向又は、ヘッドが掃除済みの場所にあるか否かを、ヘッドの発光によって、効率的に、操作者に伝えることができる。
上記の掃除支援装置を含む掃除機も本発明の実施形態に含まれる。掃除機は、吸引口を有するヘッドと、ディスプレイを有してもよい。この場合、前記出力部は、前記解析部の決定結果に応じた画像を前記ディスプレイに表示させることができる。
本発明の他の実施形態における掃除支援装置は、複数の掃除機の通過位置を含むマップデータを参照するマップ取得部と、前記マップデータに基づいて、前記複数の掃除機のうち少なくとも1台の掃除機の動作を制御する制御データを生成するか、または、前記マップデータに基づいて前記複数の掃除機の掃除済み領域を示す画像データを生成する解析部と、前記制御データ又は画像データを出力する出力部とを備える。
この構成により、2以上の掃除機の通過位置を考慮した適切な掃除機の制御または操作者への情報提示が可能になる。例えば、2以上の掃除機の清掃領域が重複しないように掃除機を制御、あるいは、操作者に情報を提示することができる。
コンピュータが上記掃除支援装置の各部の動作を実行する方法、並びに、コンピュータに上記掃除支援装置の各部の処理を実行させるためのプログラム及びそのようなプログラムを記録した非一時的な(non-transitory)記録媒体も、本発明の実施形態に含まれる。
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。なお、説明を分かりやすくするために、以下で参照する図面においては、構成が簡略化または模式化して示されたり、一部の構成部材が省略されたりしている。また、各図に示された構成部材間の寸法比は、必ずしも実際の寸法比を示すものではない。
<実施形態1>
(掃除支援装置の構成)
図1は、掃除支援装置10を含む掃除支援システムの構成例を示す図である。図1に示す掃除支援装置10は、掃除の対象とする領域において掃除済み領域を示す情報を含むマップデータと、掃除機の現在位置とヘッドの向きを示す状態データとに基づいて、掃除機の制御データ、又は操作者への掃除機操作の指針となるデータを生成して出力する装置である。そのため、掃除支援装置10は、マップデータを記録する記録部6へアクセス可能であり、掃除機C1とデータ通信可能となっている。なお、本例では、複数の掃除機C1、C2が監視対象であるが、監視対象の掃除機の台数は特に限定されず、1台でも、3台以上あってもよい。
掃除支援装置10は、マップ取得部2、状態特定部3、解析部4及び出力部5を備える。マップ取得部2は、記録部5に記録されたマップデータを参照する。マップデータは、掃除済み領域を示す情報を含む。例えば、マップデータは、掃除機が通過した位置の座標を含むデータとすることができる。この場合は、掃除機が通過した位置は掃除済みと判断することができる。また、マップデータは、予め決められた掃除対象領域における位置を示す座標と、その位置における掃除状況を示す値とが対応付けられて記録されたデータとすることができる。掃除状況を示す値は、例えば、掃除機の識別子、掃除機が通過した時刻、掃除機が吸引しながら通過したか否かを示す値、掃除機が吸引したゴミの量を示す値、又は、掃除済みと判定されたことを示す値等が含まれる。なお、マップデータのデータ形式は特定のものに限定されない。
マップデータは、例えば、位置受信部8が受信した複数の掃除機C1、C2の位置に基づき、マップ生成部7が生成する。位置受信部8は、監視対象の掃除機C1、C2それぞれの位置を示す座標を位置データとして位置特定部9から受信する。また、位置データには、掃除機C1、C2それぞれの識別子が含まれていてもよい。位置特定部9は、カメラ21によって撮影された掃除対象領域の画像データを解析し、画像データに映る掃除機の位置を算出する。詳細例は後述する。本例では、カメラ21、位置特定部9が、掃除対象領域における複数の掃除機C1、C2の位置をセンシングする位置センシング部を構成する。
位置センシングは、上記のカメラ21を用いた例に限られない。例えば、掃除機C1、C2が自機の位置を検出し、位置受信部8が、掃除機C1、C2から位置データを受信する構成とすることもできる。掃除機C1、C2は、例えば、吸引口付近に設けられる加速度センサと、外部の基準点(ポラリス)からの距離又は方角を検出する赤外線センサを備えてもよい。加速度センサにより得られる移動距離及び移動方向と、赤外線センサから得られる、基準点からの距離又は方角を基に現在位置の座標を計算することができる。位置受信部8は、掃除機C1、C2に対して位置データの要求を送信し、応答として掃除機C1、C2の現在位置を含む位置データを受信することができる。
なお、掃除機C1、C2の位置のセンシングは、監視対象の掃除機C1、C2の吸引のタイミングと同期させることができる。例えば、監視対象の掃除機C1又は掃除機C2のいずれかの吸引スイッチONを契機に、カメラ21及び位置特定部9による掃除機C1及びC2の位置の連続的な取得を開始することができる。また、監視対象の掃除機C1及び掃除機C2のいずれも吸引スイッチがOFFになったことを契機に、掃除機C1及び掃除機C2の位置取得処理を終了することができる。これにより、掃除機C1及び掃除機C2が、吸引しながら通過した位置を取得することが可能になる。
位置受信部8は、位置データとして、複数の掃除機C1、C2の位置に加えて、各位置における掃除機C2の吸引口の向きを示すデータを受信することができる。図1に示す例では、一例として、掃除機C2の吸引口を有するヘッド12の掃除対象領域の平面(図1ではXY平面)における傾きを示す値θ1が、掃除機C2の位置を示す座標とともに、位置受信部8で受信される。掃除機C2のヘッド12の向きは、例えば、位置特定部9が、カメラ21で撮影された画像において、ヘッド12部分の画像をパターンマッチング等により認識することで取得することができる。或いは、掃除機C2が備える、地磁気センサ、ジャイロセンサ又は加速度計等の方位センサにより得られるヘッド12の向きを示すデータを、位置特定部9又は位置受信部8が、掃除機C2から受信することができる。
記録部6には、掃除機C2の位置を示す座標データと、その位置におけるヘッド12の向きを示すデータとを対応付けてマップデータとして記録することができる。この場合、状態特定部3は、記録部6のマップデータを参照することにより、掃除機C2の現在位置と、その位置でのヘッド12の向きを示すデータを取得すことができる。或いは、状態特定部3は、位置受信部8又は位置特定部9から、直接、掃除機C2の現在位置とヘッド12の向きを示すデータを状態データとして受け取ることができる。
ここで、状態特定部3は、操作対象の掃除機C2の状態データを取得する。操作対象の掃除機は、一例として掃除機C2としているが、掃除機C1又は掃除機C1,C2の両方が操作対象の掃除機であってもよい。例えば、記録部5に、操作対象とする掃除機の識別子を予め記録しておき、状態特定部3は、その識別子の掃除機の状態データをマップデータから取得することができる。あるいは、状態特定部3は、操作対象領域で、吸引スイッチをONとなった掃除機を検出した場合に、その掃除機を操作対象の掃除機とすることができる。
解析部4は、マップデータが示す掃除済みの領域、並びに状態データが示す掃除機C2の現在位置及び掃除機C2のヘッド12の向きに基づいて、掃除機C2のヘッド操作の指針となるデータを生成する。例えば、解析部4は、マップデータが示す掃除機C1、C2の通過位置と、掃除機C2の現在位置及びヘッド12の向きを用いて、掃除機C2のヘッド12が進むべき方向又は掃除機C2のヘッド12が掃除済み領域に入るか否かを決定することができる。この場合、ヘッド操作の指針となるデータとして、ヘッド12を移動させるべき方向に関連する掃除機の制御データ又は画像データが、生成される。出力部5は、解析部が生成したデータを掃除機C2の操作者又は掃除機C2に対して出力することができる。
例えば、解析部4は、マップデータで示される掃除機C1、C2が既に通過した位置と、掃除機C2の現在位置と比較することにより、既に掃除済みの領域に掃除機C2が入ろうとしているか否かを判断することができる。また、解析部4は、掃除機C2の現在位置及びヘッド12の向きから掃除機C2の進行方向を特定することができる。そのため、マップデータを用いることで、掃除機C2の進行方向が、掃除機C1、C2が既に通過した領域すなわち掃除済みの領域と重なるか否かを判断することができる。これにより、掃除機C2のヘッド12が掃除済みの領域へ向かっているか否かの判断が可能になる。さらに、解析部4は、掃除機C2のヘッド12の周辺の領域が掃除済みか否かを、マップデータを参照することにより判断することができる。そのため、掃除機C2のヘッド12がどの方向へ向かえば未掃除の領域を掃除する可能性が高いかを判断することができる。
このように、解析部4は、複数の掃除機C1、C2の清掃した領域を示すマップデータに基づいて、2つの掃除機C1、C2の清掃領域が重複しないように掃除機C2のヘッド12を移動させるための情報を生成するものである。出力部5は、解析部4で決定されたヘッド12の移動先の指針となる情報を、掃除機C2に出力するか、または、掃除機C2の操作者が認識可能となるように出力することができる。
例えば、出力部5は、解析部4が決定した掃除機C2のヘッド12の移動先を直接制御する制御データを、掃除機C2に送信することができる。或いは、出力部5は、操作者が視認可能な掃除機C2のディスプレイ11に、解析部4が決定したヘッド12の移動先を示す情報を表示させることができる。この場合、出力部5は、ディスプレイ11に表示させる画像データを送信する。
図1に示す例では、掃除機C1が自律移動型の掃除機であり、掃除機C2が手動の掃除機である。掃除機C2は、本体、ヘッド12、及び本体とヘッド12をつなぐホースを備える。ヘッド12は、吸引口を有する。ヘッド12はノズルと称することもできる。掃除機C1は、自走可能な自動掃除機である。掃除機C1は、円盤型の本体を有し、円盤型の本体の下面に吸引口を有する。掃除機C1では、ヘッドが本体と一体になっている。上記例では、解析部4は、掃除機C2のヘッド12の向きに基づいて、掃除機C2のヘッド12の移動先を判断しているが、解析部4は、同様にして、掃除機C1のヘッド(本体と一体となっている)の移動先を判断することもできる。これにより、掃除機C1は、他の掃除機C2が掃除をしていないところを掃除することができる。
掃除機C1のような自走可能な自動掃除ロボットは、従来は、人間が操作する自走式でない他の掃除機C2がどの部分を掃除したかを把握することが難しかった。人間も、手動で掃除機C2を操作して掃除するが、自動掃除ロボットがどこを掃除したのかについて、把握するのが難しかった。そのため、自動掃除ロボットと、手動の掃除機を操作する人間が、互いに、どこを掃除済みにしたかがわからないことがあり、同じ場所を何度も掃除がけをして不効率な場合があった。しかし、本実施形態では、解析部4及び出力部5により、記録部6の情報に基づいて、複数の掃除機C1、C2の清掃領域が重複しないように制御、あるいは、操作者に情報を提示することができる。
掃除支援装置10のマップ取得部2、状態特定部3、解析部4及び出力部5は、例えば、1台以上のコンピュータまたは、回路によって構成することができる。コンピュータで掃除支援装置1を構成する場合は、コンピュータのプロセッサが所定のプログラムを実行することで、マップ取得部2、状態特定部3、解析部4及び出力部5の動作を実現することができる。マップ生成部7、位置受信部8、及び位置特定部9も、コンピュータ又は回路により構成することができる。
記録部6は、掃除支援装置10を構成するコンピュータのプロセッサがアクセス可能な記録媒体で構成することができる。例えば、コンピュータ内臓のメモリまたは、コンピュータがアクセス可能なストレージで記録部6を構成することができる。
掃除支援装置10を構成するコンピュータまたは回路は、掃除機C1又はC2に組み込まれてもよいし、掃除機C1又はC2とは独立した機器で掃除支援装置10を構成することもできる。例えば、スマートホン、タブレット、リモコン、ルータ、カメラモジュール、液晶テレビ、パーソナルコンピュータ等の機器のコンピュータで掃除支援装置10を実現することもできる。この場合、記録部6はDRAM、SRAM、EEPROM等のメモリとすることができる。出力部5の出力先の表示部は、例えば、液晶ディスプレイや有機ELディスプレイとすることができる。また、位置受信部8は、例えば、Wifi やBluetooth(登録商標)などを用いた無線通信により、位置データを受信することができる。或いは、掃除支援装置10は、記録部6、マップ生成部7、位置受信部8及び位置特定部9の少なくとも一部と、同じコンピュータまたは機器で構成されてもよい。
(掃除機の位置センシングの例)
図1の例では、掃除機C1、C2の表面には、空間位置認識用のマーカーM1、M2が設けられる。カメラ21は、マーカー撮影用のカメラとすることができる。これらの複数の掃除機C1、C2が具備するマーカーM1、M2、カメラ21、位置特定部9、位置受信部8により、複数の掃除機C1、C2の位置センシングが行われる。
掃除機C1、C2のマーカーM1、M2は、吸引動作時に天井方向に向かって提示される位置に設けられる。マーカーM1、M2の形状は、それぞれ、掃除機C1、C2を識別できる形状であることが好ましい。マーカーM1、M2は、例えば、星形、楔形、2次元コード、バーコードなどのあらかじめ決められたマークである。また、例えば、マーカーの形状を非対称な形状にすることでマーカーの向きを認識可能とすることもできる。また、マーカーM1、M2としてLEDを用いることもできる。この場合、例えば、LEDの点滅パターンで、複数の掃除機を識別することができる。
位置特定部9は、カメラ21で撮像された映像から、マーカーM1、M2の座標位置を割り出すことができる。例えば、位置特定部9は、映像の画面内のマーカーM1、M2をパターンマッチング等により認識し、マーカーM1、M2の画面内における画素位置を、掃除対象領域における座標に変換することができる。例えば、位置特定部9は、掃除機C2は、XY空間において(x1, y1)に位置し、掃除機C2のヘッド12は(x2,y2)の位置に存在することを画像から割り出すことができる。また、位置特定部9は、映像中のヘッド12又はマーカーM1、M2の形状を認識することにより、ヘッド12の長軸のX線に対する傾きθを算出することができる。これをヘッド12の向きを表すデータとすることができる。位置特定部9は、掃除機C1、C2の位置を示す座標と、掃除機C2のヘッド12の向きを示す値θを、位置データとして、位置受信部8へ送信する。なお、図1に示す例では、掃除対象領域となる面をXY平面とする座標系を定義しているが、座標系はこれに限定されない。
(マップデータの例)
図2は、マップデータとして記録部6に記録されるデータの構成例を示す図である。図2に示す例では、時刻(T1)、掃除機C1の位置を示す座標(X(1),Y(1))、掃除機C2の位置を示す座標(X(4),Y(4))、及び、掃除機2のヘッド12の向きを示す値を含むデータ(θ(1))を1つのレコードとして、複数のレコードが時系列に並んで記録される。これにより、掃除機C1、C2の移動履歴を示すデータがマップデータとして記録される。すなわち、図2に示すマップデータでは、掃除機の通過した位置の時系列データによって、掃除済領域が示されている。
なお、マップデータの構成は図2に示す例に限られない。例えば、マップ生成部7は、図2に示すような複数の時系列のレコードで構成されるデータを基に、さらに、各座標における掃除状況を示す値を、座標ごとに対応付けてマップデータとして記録することができる。
図3及び図4は、図2に示すデータを基に、掃除済みか否かを示す値を、各座標に対応づけてマップデータとして記録する例を説明するための図である。一例として、図3に示すように、時点T1において、掃除機C2のヘッド12のマーカーM2の位置及びヘッド12の向きは、(X(1),Y(1),θ(1))=(x4、y5、θ1)であり、次の時点T2で、マーカーM2の位置及びヘッド12の向きは、(X(2),Y(2),θ(2))=(x5、y4、θ1)で検出された場合について説明する。
図4は、掃除対象領域の(x3、y4)付近の各座標と、各座標に対応して記録される値を示す表である。図4に示すように、T1における検出位置として、マップ生成部7は、マーカーM2が検出された位置の座標(x4、y5)に掃除済を示す値“1”を記録する。ヘッド12は、マーカーM2の周辺の位置も占めるので、マップ生成部7は、例えば、マーカーM2の座標の左下の座標(x3、y4)及び右上の座標(y5、y6)にも掃除済を示す値“1”を記録する。ここで、マーカーM2周辺のヘッド12が占める部分に対応する座標は、ヘッド12の向きに応じて決めることができる。T2における検出位置として、同様に、マップ生成部7は、マーカー検出位置の座標(x5、y4)と、その周辺のヘッド12が占める部分に対応する座標(x4、y3)、(x6、y5)に対して、掃除済を示す値“1”を記録する。
ヘッド12が占める部分に対応する座標は、このように基準座標(ここでは、一例としてマーカーの座標)とその周辺のヘッド12の向きに応じた座標群とすることができる。例えば、ヘッド12の向きを表す値と、その値に対応する座標群のパターンとを対応付ける対応データを予め記録部6等に記録しておくことができる。マップ生成部7は、ヘッド12の向きに応じた座標群は、この対応データに基づいて、ヘッド12が占める位置の座標群を特定することができる。
このようにして、マップ生成部7は、掃除機C2の位置及び吸引口(例えば、ヘッド12)の向きに基づき、掃除機C2の吸引口による掃除済み領域を示す情報を含むマップデータを生成することができる。なお、吸引口の向きに基づいて、吸引口による掃除済み領域を含むマップデータを生成する処理は、上記例に限られない。
なお、図4では省略しているが、掃除済を表す値が記録されていない座標については、未掃除を表す値として“0”が記録される。また、各座標に対応して記録される値は、掃除済、未掃除を示す値に限られない。例えば、時刻、後述するゴミ吸引量を表す値、ヘッド12の向きを表す値。又は、掃除機を識別すデータ等が、各座標に対して記録されてもよい。
(表示画面例)
図5は、出力部5が、掃除機C2のディスプレイ11に表示させる画像の一例を示す図である。図5に示す例では、掃除対象領域であるXY平面において、掃除機C1のヘッドが通過した領域E1、掃除機C2のヘッド12が通過した領域E2が視認可能に表示される。さらに、掃除機C2のヘッド12の現在位置及び向きも表示される。また、未掃除領域E3も他の領域と区別可能に表示されている。このように、出力部5は、解析部4により生成される操作の指針となるデータを、画像として、操作者が見ることができる表示装置に表示させることができる。これにより、出力部5は、2つ以上の掃除機C1、C2の吸引部が稼働している状態における掃除機C1、C2それぞれの位置情報の履歴を、掃除機C2の現在位置及びヘッドの向きとの関係が分かるように操作者に表示する。
一例として、解析部4によってマップデータが示す掃除機C1、C2の位置、並びに掃除機C2の現在位置及びヘッド12の向きから決定されたヘッド12の操作の指針となる情報は、2次元のマップの画像として表示される。出力部5は、解析部4の決定する情報を、2次元のマップとしてディスプレイ11に表示することができる。また、手動の掃除機C2も、状態データに基づいて表示されてもよい。例えば、自律移動型の掃除機C1の掃除済みエリアE1を青色、掃除未実施エリアE3を赤色で示すことができる。この場合、操作者は、手動の掃除機C2を用いて、ディスプレイ11に提示された赤色のエリアE3のみを掃除することで、自律移動型の掃除機C1の掃除ができないエリアを掃除することができる。その結果、操作者自身が同じ領域を何度も掃除したり、掃除未実施のエリアを残したりすることが少なくなる。
さらに、出力部5は、掃除機C2のヘッド12の位置をリアルタイムに表示させることができる。これにより、掃除未実施エリアE3上のどの位置にヘッド12があるのかを操作者が認識できる。操作者は、ある領域にペンキをまんべんなく塗る感覚で掃除ができるので、より掃除の効率が向上する。
(出力形態の例)
(ヘッドに設けられたディスプレイ)
図1では、掃除機C2の本体とヘッド12をつなぐホースの柄の部分に、ディスプレイ11が設けられる。これに対して、図6は、ヘッド12aにディスプレイ11aが設けられる例を示す図である。この場合、ディスプレイ11aには、液晶ディスプレイ、有機ELディスプレイ、LEDドッドマトリクス(LEDをアレイ状に並べたもの)、又は、蛍光表示管等を用いることができる。出力部5は、ディスプレイ11aに、前記解析部の決定結果に応じた画像を表示させることができる。
図7は、ヘッド12aに設けられるディスプレイ11aにマップデータ及び状態データに基づく画像を表示する場合の例を示す図である。図7に示す例では、ヘッド12の向きに応じて画像を回転させて表示している。ここでは、ヘッド12aの長軸とX軸との角度θと同じ角度θだけ逆の方向に画像を回転させている。これにより、ディスプレイ11aに表示されるヘッド12aの向きが、常に、実際のヘッド12aと同じ向きになる。
(ヘッドに設けられた発光部)
図8は、ヘッド12bに発光部13a―1、13a―2が設けられる例を示す図である。図8に示す例では、ヘッド12bの中央にホースが接続される。ヘッド12bとホースとの接続部の左右に、それぞれ、発光部13a―1、13a―2が設けられる。発光部13a―1、13a―2は、例えば、LED等とすることができる。出力部5は、解析部4の決定結果に応じた発光を発光部13a―1、13a―2にさせることができる。出力部5は、例えば、解析部4で決定したヘッド12bが進むべき方向を示す発光パターンで、発光部13a―1、13a―2を光らせることができる。或いは、出力部5は、ヘッド12bが掃除済の領域へ入ることを示す発光パターンで、発光部13a―1、13a―2を光らせることができる。
図9は、図8に示すヘッドの発光部に解析部4の決定結果に応じた発光をさせる処理の例を示すフローチャートである。図9に示す例では、状態特定部3が、掃除機C2の現在位置及びヘッド12の向き、記録部6のマップデータから又は位置受信部8から取得する(S1、S2)。例えば、掃除機C2の吸引スイッチがONになると、カメラ21、位置特定部9及び位置受信部8が動作を開始し、掃除機C2の位置及びヘッド12の向きを示す値を連続的に取得する。解析部4は、掃除機C2の現在位置及びヘッド12の向きから掃除機C2の進行方向を特定する(s3)。例えば、現在位置及を起点とし、ヘッド12の向きへ延びる所定の長さのベクトルを、進行方向を示すデータとして算出することができる。
マップ取得部2は、マップデータを参照し、S3で特定された進行方向の位置における掃除状態を示す値を取得する(S4)。解析部4は、マップデータにおいて、S3で特定された進行方向の位置において掃除済となっている値があるか否かを判断する(S5)。解析部4は、例えば、現在位置を起点とし、進行方向を示すベクトルが掃除済となっている領域を通るか否かを判断することができる。
S5でYESの場合は、解析部4は、ヘッド12が掃除済領域へ入ると判断し、出力部5は、ヘッド12が掃除済領域へ入ることを示す発光パターンで、発光部13a−1、13a―2を発光させる(s6)。S5でNOの場合は、解析部4は、ヘッド12が未掃除領域へ入ると判断し、出力部5は、ヘッド12が未掃除領域へ入ることを示す発光パターンで、発光部13a−1、13a―2を発光させる(s7)。以上の処理s1〜s7は、掃除機C2の吸引が終了するまで(s8でYES)繰り返される。
(ヘッド以外にディスプレイを設けた例)
なお、出力部5は、掃除機C2のディスプレイ11以外にも、例えば、液晶テレビやスマートホン、タブレット端末、パーソナルコンピュータ等の外部機器のディスプレイに画像を表示させることもできる。すなわち、掃除機の外部にディスプレイ11を設けても良い。出力部5は、例えば、外部機器のディスプレイへ画像データを無線通信により送信する無線通信部を有することができる。
また、出力部5は、例えば、掃除機の操作者が装着したシースルータイプのヘッドマウントディスプレイに画像を出力しても良い。この場合、出力部5又はヘッドマウントディスプレイは、ヘッドマウントディスプレイの位置や向きをセンシングし、操作者から見て掃除領域や未掃除領域等が実際の床面と重なるように位置を合わせた画像を表示画像として生成しても良い。このような表示のために、例えば、AR(拡張現実)表示の技術を用いることができる。これにより、直感的で分かりやすい表示が可能になる。
(スピーカを用いる例)
また、掃除機C2は、発光部の代わりに、または発光部に加えて、スピーカをさらに備えることができる。この場合、出力部5は、解析部4の決定結果に応じた出力音をこのスピーカに出力させることができる。なお、必ずしも掃除機C2にスピーカを備えなくても良い。例えば、出力部5は、部屋の天井や壁面に備えられたスピーカ、室内に設置されたオーディオ装置のスピーカ又は、テレビのスピーカ等、他の装置のスピーカに音を出力させるようにしても良い。図10は、掃除支援装置10が、掃除機のスピーカの出力を制御する処理例を示すフローチャートである。図10に示す例では、s1〜s5は、図9のs1〜s5と同様に実行することができる。S5でYESの場合は、解析部4は、ヘッド12が掃除済領域へ入ると判断し、出力部5は、ヘッド12が掃除済領域へ入ることを示す音パターンを、スピーカに出力させる(s6a)。S5でNOの場合は、解析部4は、ヘッド12が未掃除領域へ入ると判断し、出力部5は、ヘッド12が未掃除領域へ入ることを示す音パターンを、スピーカに出力させる(s7a)。
なお、解析部4により生成されるデータに基づいて、掃除機の音出力又はヘッドの発光を制御する処理は、上記例に限られない。例えば、解析部4は、ヘッド12の進行方向に存在する掃除済み領域とヘッド12との距離を計算し、出力部5は、この距離に応じて、掃除機の出力音又はヘッド12の発光を制御することができる。これにより、掃除機の操作者は、掃除済み領域がどの程度近づいているかを認識することができる。
(解析部がヘッドの進むべき方向を決定する処理例)
図11は、掃除機のヘッドが進むべき方向を決定する処理の例を示すフローチャートである。図11に示す例においてs1〜s3は、図9、図10におけるs1〜s3と同様に実行することができる。図11のs12において、解析部4は、ヘッド12の現在位置が掃除済領域か否かを、マップデータを参照することにより判断する。ヘッド12の現在位置が掃除済領域である場合(s12でYES)、解析部4は、進行方向におけるヘッド12の現在位置から未掃除領域までの距離KS、進行方向に垂直方向で右の未掃除領域までの距離KR、進行方向に垂直方向で左の未掃除領域までの距離KLを計算する(s13〜s15)。図12Aは、距離KS、KL、KRの具体例を示す図である。この例では、距離KSは0である。進行方向に向かって右側には未掃除領域がないので、距離KRはなしである。解析部4は、これらの距離KS,KR、KLのうち距離が最も短い方向を、ヘッド12が進むべき方向と決定する。図12Aに示す例では、距離KS=0が最も短いため、進行方向を進むべき方向と決定することができる。出力部5は、ヘッド12が進むべき方向を指示する発光パターンを発光部に発光させる(s16)。
ヘッド12の現在位置が未掃除済領域である場合(s12でNO)、解析部4は、進行方向におけるヘッド12の現在位置か掃除済領域までの距離LS、進行方向に垂直方向で右の掃除済領域までの距離LR、進行方向に垂直方向で左の掃除済領域までの距離LLを計算する(s17〜s19、)。図12Bは、距離LS、LL,LRの具体例を示す図である。解析部4は、これらの距離LS,LR、LLのうち最も長い方向を、ヘッド12が進むべき方向と決定する。出力部5は、ヘッド12が進むべき方向を指示する発光パターンを発光部に発光させる(s20)。なお、解析部4による掃除機のヘッドが進むべき方向を決定する処理は、上記例に限られない。
<実施形態2>
図13は、実施形態2における掃除支援装置10を含むシステムの構成例を示す図である。本実施形態は、掃除機の位置センシングの構成の変形例である。図13に示す例では、位置受信部8は、掃除機C1、C2から直接位置情報及びヘッド12の向きを示すデータを受信する。そのため、掃除機C1、C2は、自機の位置及び向きを検出するセンサ、及び、位置受信部8と無線通信を行うための通信部を備える。本例では、掃除機C1、C2は、位置情報投影部22から位置を示す信号を受信することで、自機の位置を検出する。また、掃除機C2は、ヘッド12の向きを検出するための地磁気センサを備えることができる。掃除機C1、C2は、検出した自機の位置を、通信部を用いて位置受信部8へ送信する。掃除機C2は、自機の位置とともに、ヘッド12の向きも、位置受信部8へ送信することができる。
図13に示す例では、掃除機C1、C2が具備する位置認識用センサ及び通信部、位置情報投影部22、位置受信部8により、位置センシング部が構成される。位置情報投影部22は、掃除対象領域の各座標の位置にそれぞれ座標を示す信号を投影する。位置情報投影部22は、例えば、天井に設置することができる。位置情報投影部22は、例えば、座標位置ごとで異なる信号パターンを投影する赤外線プロジェクタを備える。
位置情報投影部22は、天井から床面に向かって、それぞれの掃除対象領域上の座標値にしたがった点滅パターンを投影する。例えば、1に相当する信号に対しては赤外線を投射し、0に相当する信号に対しては赤外線を投射しないこととする。位置情報投影部22は、この1と0の信号を使って、座標位置を2進数にして天井から床に向かって投射することができる。
例えば、位置情報投影部22は、(x1,y1)=(128, 15)の座標には、時系列で“1000_0000_0000_1111”というパターンを投影し、(x2,y2)=(16, 4)の座標には“0001_0000_0000_0100”というパターンを投影することができる。
それぞれの掃除機C1、C2は、位置認識用センサとして赤外線受光部を備えることができる。赤外線受光部は、天井につけられた位置情報投影部22からの座標位置を示す信号を受け取る。例えば、掃除機C1が“1000_0000_0000_1111”を受信したら、その掃除機C1の座標は、(128, 15)であることが認識される。掃除機C1、C2は、座標に応じたパターンを赤外線受光部で受信し、受信した信号を、通信部を介して、位置受信部8に対して座標位置を送信する。
<実施形態3>
図14は、実施形態3における掃除支援装置10を含むシステムの構成例を示す図である。本実施形態は、掃除機の位置センシングの構成の変形例である。図14に示す例では、掃除対象領域にコイルが分布して設けられる。コイルは、インダクタであり、受信電波に応じた周波数の交流信号を発生させる受動素子の一例である。位置特定部9aは、掃除対象領域に分布するコイルにより検出された信号により掃除機C1、C2の位置を特定する。位置受信部8は、位置特定部9aから掃除機C1、C2の位置を示す位置データを受信する。
図14に示す例では、掃除の対象領域の床に、空間位置検出用のコイル24が設置されている。掃除対象領域のXY平面の各座標に対応する位置にコイル24が配置される。掃除機C1、C2のそれぞれの吸引部には、特定の周波数の交流信号を発信する発信機が設けられる。例えば、掃除機C1は1kHz、掃除機C2は1.2kHzの交流信号を発信する構成とすることができる。
一例として、座標(x1,y1)上に掃除機C1の吸引部が存在するとき、座標(x1, y1)に相当する位置のコイル24で、電磁誘導によって1kHzの交流信号が検出される。また、座標(x2,y2)上に掃除機C1の吸引部が存在するとき、座標(x2, y2)に相当する位置のコイル24では、電磁誘導によって1.2kHzの交流信号が検出される。このようにして、位置特定部9aは、全てのコイル24の中から、各掃除機C1、C2の発信する周波数によって励起される特定の周波数の信号を検出する。特定周波数の信号が検出されたコイル24の位置を特定することにより、各掃除機C1、C2の位置を検出することができる。位置特定部9は、検出した掃除機C1、C2の座標位置を、位置受信部8に送信する。
本実施形態では、机の下などの天井から直視できない領域もセンシングできる。そのため、より確実に掃除機のヘッドの位置を把握することが可能になる。
<実施形態4>
図15は、実施形態4における掃除支援装置10を含むシステムの構成例を示す図である。図15に示す例では、掃除機C1、C2からゴミの吸引量を示すデータを受信するゴミ量受信部25がさらに設けられる。位置受信部8は、掃除機C1、C2のゴミ吸引量を示すゴミ量データをゴミ量受信部25からに受信し、掃除機C1、C2の検出位置に対応づけて記録部6へ記録する。マップ生成部7は、ゴミ量データを用いて、複数の掃除機C1、C2のゴミ吸引量を示す情報を含むマップデータを生成することができる。
掃除機C1、C2は、吸引口から吸引したゴミの量を検出するセンサと、ゴミの量を示すゴミ量データを、ゴミ量受信部25へ送信する通信部を備える。掃除機C1、C2は、ゴミの量を示すデータとともに、ゴミ量検出時の時間又は自機の位置を示すデータをゴミ量受信部25へ送信してもよい。掃除機C1、C2からゴミ量受信部25へのゴミ量データの送信は、掃除機C1、C2の吸引開始を契機として開始し、掃除機C1、C2の吸引終を契機として終了することができる。
吸引したゴミの量を検出センサは、特に限定されないが、例えば、吸引気の流路に光を照射する発光素子と、発光素子から照射され流路を通過した光を受光する受光素子と、受光素子の受光量の変化に基づいて流路を通るゴミの量を算出する演算部により構成することができる。
また、ゴミ量受信部25は、ゴミの吸引量に加えて、ゴミの吸引量に対応する掃除機C1、C2の識別子を受信することができる。これにより、マップ生成部7は、掃除機C1、C2ごとのゴミ吸引量を示す情報を含むマップデータを生成することができる。例えば、マップ生成部7は、掃除機C1、C2のゴミの吸引量と、ゴミ吸引量を測定した位置又は時間を示すデータを用いて、掃除機C1、C2が通過した位置とその位置におけるゴミの吸引量とを対応づけて記録する。
マップ生成部7は、例えば、図4に示すように各座標に対応する値を記録する場合、掃除済であることを示す値として“1”の代わりにその位置でのゴミ吸引量を示す値を記録することができる。
マップ取得部2は、掃除対象領域における掃除済領域に加えて、ゴミ吸引量の分布を示す情報を含むマップデータを参照する。解析部4は、マップデータに含まれるゴミ吸引量を示す情報をさらに用いて、掃除機C2のヘッド12操作の指針となるデータを生成することができる。例えば、解析部4は、ヘッド12の進行方向におけるゴミ吸引量に応じて、掃除機C2のヘッドが進むべき方向又は掃除機C2のヘッドが掃除済み領域に入るか否かを決定することができる。例えば、一定期間における各位置のゴミ吸引量の累積値をマップデータに含めて記録しておくことができる。解析部4は、ゴミ吸引量が周りより多い領域をラベリングしておき、この領域がヘッド12から一定距離内にある場合は、この領域へ向かう方向を、ヘッド12の進むべき方法と決定することができる。
解析部4は、ゴミ吸引量の分布を含む画像を生成することができる。例えば、掃除対象領域内のゴミの多いところは赤みの強い色、少ないところを青味の強い色で提示する画像を生成することができる。出力部5が、このような画像をディスプレイ11等に表示させることにより、操作者は、ゴミの量を把握することができる。例えば、操作者は、ゴミの多いところは丁寧に掃除をするといったことも可能となる。
また、解析部4は、各位置のゴミ吸引量に基づいて、各位置が掃除済か否かを判断することができる。例えば、ゴミ吸引量が所定量を超える位置は、掃除済と判断することができる。
解析部4は、ゴミ吸引量の分布に応じた、自走式のロボット掃除機に対する動作指令を生成することができる。例えば、掃除対象領域内のゴミ吸引量(例えば、ゴミ吸引量の累積値)に応じてロボット掃除機の吸引力を制御する動作指令を生成することができる。具体的には、掃除対象領域内のゴミの多いところはロボット掃除機自身の吸引力を高めるように吸引用モーターの回転数を上げ、少ないところは吸引用モーターの回転数を下げる動作指令を生成することができる。解析部4及び出力部5が、このような動作指令によりロボット掃除機のモーターの回転数を制御させることにより、ロボット掃除機は、ゴミの量に応じた適切な出力で掃除が可能となる。
あるいは、解析部4は、掃除対象領域内のゴミ吸引量(例えば、ゴミ吸引量の累積値)に応じてロボット掃除機の移動速度を制御する動作指令を生成することができる。ロボット掃除機に対する動作指令として、ロボット掃除機自体の移動速度の制御信号を生成することができる。例えば、掃除対象領域内のゴミの多いところはロボット掃除機自身の推進速度を下げて単位面積当たりの吸引時間を長くし、少ないところは推進速度を上げて清掃時間の短縮ができる。解析部4及び出力部5が、このようなロボットの推進速度を制御することにより、ロボット掃除機は、ゴミの量に応じた適切な推進速度で掃除が可能となる。
以上、本発明の実施形態について説明したが、本発明は、上記実施形態1〜4に限られない。例えば、図1の構成において、状態特定部3を省略し、解析部4は、マップデータに基づいて、複数の掃除機のうち少なくとも1台の掃除機の動作を制御する制御データを生成するか、または、マップデータに基づいて複数の掃除機の掃除済み領域を示す画像データを生成する構成とすることができる。
上記実施形態では、掃除機C1、C2が監視対象の掃除機であり、これら監視対象の掃除機のうち掃除機C2が操作対象の掃除機である場合を説明しているが、監視対象の掃除機に操作対象の掃除機が含まれていない場合もあり得るし、監視対象の掃除機と操作対象の掃除機がすべて同じである場合もあり得る。
2 マップ取得部
3 状態特定部
4 解析部
5 出力部
6 記録部
7 マップ生成部
8 位置受信部
9 位置特定部
10 掃除支援装置
C1、C2 掃除機

Claims (18)

  1. 掃除対象領域において掃除済みの領域を示す情報を含むマップデータを参照するマップ取得部と、
    操作対象の掃除機の現在位置及び前記掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定部と、
    前記マップデータが示す掃除済みの領域、並びに前記状態データが示す前記掃除機の現在位置及び前記掃除機のヘッドの向きに基づいて、前記掃除機のヘッド操作の指針となるデータを生成する解析部と、
    前記解析部が生成したデータを前記掃除機の操作者又は前記掃除機に対して出力する出力部と、を備える、掃除支援装置。
  2. 前記マップ取得部により参照される前記マップデータは、2以上の掃除機の掃除済み領域を示す情報を含む、請求項1に記載の掃除支援装置。
  3. 前記マップ取得部により参照される前記マップデータは、前記掃除対象領域におけるゴミ吸引量の分布を示す情報を含む、請求項1又は2に記載の掃除支援装置。
  4. 監視対象の掃除機の位置を示す位置データを受信する位置受信部と、
    前記位置受信部が受信した位置データが示す前記掃除機の位置に基づき、前記掃除済み領域を示す情報を含む前記マップデータを生成するマップ生成部をさらに備える、請求項1〜3のいずれか1項に記載の掃除支援装置。
  5. 前記位置受信部は、前記監視対象の掃除機のゴミ吸引量を示すゴミ量データをさらに受信し、
    前記マップ生成部は、前記ゴミ量データを用いて、前記掃除対象領域におけるゴミ吸引量の分布を示す情報を含むマップデータを生成する、請求項4に記載の掃除支援装置。
  6. 前記位置受信部は、前記位置データとして、前記監視対象の掃除機の位置に加えて、各位置における前記掃除機の吸引口の向きを示すデータを受信し、
    前記マップ生成部は、位置データが示す前記掃除機の位置及び吸引口の向きに基づき、前記掃除機の吸引口による掃除済み領域を示す情報を含むマップデータを生成する、請求項4又は5に記載の掃除支援装置。
  7. 掃除対象領域を撮影するカメラにより撮影された画像に基づいて、前記監視対象の掃除機の位置を特定する位置特定部をさらに備え、
    前記位置受信部は、前記位置特定部から前記掃除機の位置を示す位置データを受信する、請求項4〜6のいずれか1項に記載の掃除支援装置。
  8. 前記位置受信部は、前記監視対象の掃除機から送信される位置データを受信する、請求項4〜6のいずれか1項に記載の掃除支援装置。
  9. 掃除対象領域に分布して設けられた、受信電波に応じた周波数の交流信号を発生させる受動素子で検出された交流信号により前記監視対象の掃除機の位置を特定する位置特定部をさらに備え、
    前記位置受信部は、前記位置特定部から前記掃除機の位置を示す位置データを受信する、請求項4〜6のいずれか1項に記載の掃除支援装置。
  10. 前記出力部は、前記解析部の生成したデータに応じた出力音をスピーカに出力させる、請求項1〜9のいずれか1項に記載の掃除支援装置。
  11. 前記出力部は、前記解析部の生成したデータに応じた発光を前記操作対象の掃除機のヘッドに設けられた発光部にさせる、請求項1〜10のいずれか1項に記載の掃除支援装置。
  12. 前記出力部は、前記解析部の生成したデータに応じた画像をディスプレイに表示させる、請求項1〜11のいずれか1項に記載の掃除支援装置。
  13. 前記出力部は、前記操作対象の掃除機に設けられたディスプレイに前記画像を表示させる、請求項12に記載の掃除支援装置。
  14. 請求項1〜13のいずれか1項に記載の掃除支援装置を含む掃除機であって、
    スピーカをさらに備え、
    前記出力部は、前記解析部の生成したデータに応じた出力音を前記スピーカに出力させる、掃除機。
  15. 請求項1〜14のいずれか1項に記載の掃除支援装置を含む掃除機であって、
    吸引口を有するヘッドをさらに備え、
    前記ヘッドは、発光部を有し、
    前記出力部は、前記解析部の生成したデータに応じた発光を前記発光部にさせる、掃除機。
  16. 請求項1〜15のいずれか1項に記載の掃除支援装置を含む掃除機であって、
    吸引口を有するヘッドとディスプレイを有し、
    前記出力部は、前記解析部の生成したデータに応じた画像を前記ディスプレイに表示させる、掃除機。
  17. 掃除対象領域において掃除済みの領域を示す情報を含むマップデータを参照するマップ取得処理と、
    操作対象の掃除機の現在位置及び前記掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定処理と、
    前記マップデータが示す掃除済みの領域、並びに前記状態データが示す前記掃除機の現在位置及び前記掃除機のヘッドの向きに基づいて、前記掃除機のヘッド操作の指針となるデータを生成する解析処理と、
    前記解析処理で生成されたデータを前記掃除機の操作者又は前記掃除機に対して出力する出力処理と、をコンピュータに実行させる、掃除支援プログラム。
  18. コンピュータが、掃除対象領域において掃除済みの領域を示す情報を含むマップデータを参照するマップ取得工程と、
    コンピュータが、操作対象の掃除機の現在位置及び前記掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定工程と、
    コンピュータが、前記マップデータが示す掃除済みの領域、並びに前記状態データが示す前記掃除機の現在位置及び前記掃除機のヘッドの向きに基づいて、前記掃除機のヘッド操作の指針となるデータを生成する解析工程と、
    コンピュータが、前記解析工程で生成されたデータを前記掃除機の操作者又は前記掃除機に対して出力する出力工程と、を含む、掃除支援方法。
JP2014225349A 2014-11-05 2014-11-05 掃除支援装置及び掃除機 Pending JP2016087106A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014225349A JP2016087106A (ja) 2014-11-05 2014-11-05 掃除支援装置及び掃除機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014225349A JP2016087106A (ja) 2014-11-05 2014-11-05 掃除支援装置及び掃除機

Publications (1)

Publication Number Publication Date
JP2016087106A true JP2016087106A (ja) 2016-05-23

Family

ID=56016269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014225349A Pending JP2016087106A (ja) 2014-11-05 2014-11-05 掃除支援装置及び掃除機

Country Status (1)

Country Link
JP (1) JP2016087106A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180015928A (ko) * 2016-08-04 2018-02-14 엘지전자 주식회사 로봇 청소기 시스템 및 그 동작 방법
JP2018079134A (ja) * 2016-11-17 2018-05-24 三菱電機株式会社 掃除支援装置、掃除支援方法、および、掃除支援システム
JP2018181338A (ja) * 2017-04-18 2018-11-15 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 自律走行する走行車の動作方法
JP2020012732A (ja) * 2018-07-18 2020-01-23 富士通株式会社 におい測定装置、におい測定システム、及び、におい測定方法
JP2020509500A (ja) * 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH 自律移動ロボットの制御方法
WO2021145525A1 (en) * 2020-01-14 2021-07-22 Lg Electronics Inc. Robot cleaner and method for controlling the same
WO2022009391A1 (ja) * 2020-07-09 2022-01-13 三菱電機ビルテクノサービス株式会社 清掃システム及びプログラム
WO2022173110A1 (ko) * 2021-02-09 2022-08-18 삼성전자주식회사 로봇 청소기 및 이의 제어 방법
JP2022163754A (ja) * 2021-04-15 2022-10-27 日立グローバルライフソリューションズ株式会社 掃除機管理装置およびプログラム
JP2023502676A (ja) * 2019-11-20 2023-01-25 ダイソン・テクノロジー・リミテッド 投影ディスプレイを有する真空掃除機

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180015928A (ko) * 2016-08-04 2018-02-14 엘지전자 주식회사 로봇 청소기 시스템 및 그 동작 방법
KR102621350B1 (ko) * 2016-08-04 2024-01-04 엘지전자 주식회사 로봇 청소기 시스템 및 그 동작 방법
JP2018079134A (ja) * 2016-11-17 2018-05-24 三菱電機株式会社 掃除支援装置、掃除支援方法、および、掃除支援システム
JP2020509500A (ja) * 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH 自律移動ロボットの制御方法
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
JP2018181338A (ja) * 2017-04-18 2018-11-15 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 自律走行する走行車の動作方法
JP2020012732A (ja) * 2018-07-18 2020-01-23 富士通株式会社 におい測定装置、におい測定システム、及び、におい測定方法
JP2023502676A (ja) * 2019-11-20 2023-01-25 ダイソン・テクノロジー・リミテッド 投影ディスプレイを有する真空掃除機
WO2021145525A1 (en) * 2020-01-14 2021-07-22 Lg Electronics Inc. Robot cleaner and method for controlling the same
CN115885231A (zh) * 2020-07-09 2023-03-31 三菱电机楼宇解决方案株式会社 清扫***和程序
WO2022009391A1 (ja) * 2020-07-09 2022-01-13 三菱電機ビルテクノサービス株式会社 清掃システム及びプログラム
CN115885231B (zh) * 2020-07-09 2024-04-30 三菱电机楼宇解决方案株式会社 清扫***
WO2022173110A1 (ko) * 2021-02-09 2022-08-18 삼성전자주식회사 로봇 청소기 및 이의 제어 방법
JP2022163754A (ja) * 2021-04-15 2022-10-27 日立グローバルライフソリューションズ株式会社 掃除機管理装置およびプログラム

Similar Documents

Publication Publication Date Title
JP2016087106A (ja) 掃除支援装置及び掃除機
US11961285B2 (en) System for spot cleaning by a mobile robot
EP3048502B1 (en) Robot cleaner and method for controlling robot cleaner
US20200019156A1 (en) Mobile Robot Cleaning System
US9950429B2 (en) Robot cleaning system and method of controlling robot cleaner
US20220214172A1 (en) Visual navigation for mobile devices operable in differing environmental lighting conditions
JP5122887B2 (ja) 実写基盤移動機器の制御方法、装置および媒体
US20170144311A1 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
KR101855831B1 (ko) 청소 장치, 및 복수의 로봇 청소기를 이용한 협동 청소 방법
KR101753361B1 (ko) 청소 로봇을 이용한 스마트 청소 시스템
JP4491495B2 (ja) ポインティングデバイスに基づくユーザインターフェイスシステム
US11330951B2 (en) Robot cleaner and method of operating the same
KR101976462B1 (ko) 로봇청소기 및 그 제어방법
JP2004057798A (ja) ロボット掃除機とそのシステム及び制御方法
JP2009134718A5 (ja)
US10437251B2 (en) Method for specifying position, terminal device, autonomous device, and program
JP2012156834A (ja) リモコン装置及びプログラム
JP2014139745A (ja) 機器管理システム、機器管理装置、機器管理方法及びプログラム
JP2012156836A (ja) リモコン装置及びプログラム
CN109968366A (zh) 一种多功能家用机器人
JP2020106872A (ja) 移動装置、物体検出方法及びプログラム
JP2007229837A (ja) ロボット遠隔操縦システム
CN115904188A (zh) 户型图的编辑方法、装置、电子设备及存储介质
KR20190003157A (ko) 로봇 청소기 및 로봇 청소 시스템
JP7484758B2 (ja) ロボット制御システム