JP7346912B2 - Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method - Google Patents

Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method Download PDF

Info

Publication number
JP7346912B2
JP7346912B2 JP2019100537A JP2019100537A JP7346912B2 JP 7346912 B2 JP7346912 B2 JP 7346912B2 JP 2019100537 A JP2019100537 A JP 2019100537A JP 2019100537 A JP2019100537 A JP 2019100537A JP 7346912 B2 JP7346912 B2 JP 7346912B2
Authority
JP
Japan
Prior art keywords
area
image
cleaning
cleaned
cleaning support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019100537A
Other languages
Japanese (ja)
Other versions
JP2020192171A (en
Inventor
洋平 朝日
剛徳 関口
大聡 伊藤
昌美 頼田
奈々穂 大澤
佑太 和田
喬樹 八木澤
雅俊 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Home Appliance Co Ltd
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Home Appliance Co Ltd
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Home Appliance Co Ltd, Mitsubishi Electric Corp filed Critical Mitsubishi Electric Home Appliance Co Ltd
Priority to JP2019100537A priority Critical patent/JP7346912B2/en
Publication of JP2020192171A publication Critical patent/JP2020192171A/en
Application granted granted Critical
Publication of JP7346912B2 publication Critical patent/JP7346912B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Image Processing (AREA)

Description

本発明は、掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法に関する。 The present invention relates to a cleaning support device, a cleaning support system, a vacuum cleaner, and a cleaning support method.

特許文献1には、ハンディタイプの電気掃除機に関する技術が開示されている。この電気掃除機は、掃除機本体と、掃除機本体から前方に延びる延長管と、延長管の先端に取り付けられた吸込具とを有している。この電気掃除機で掃除をする場合、掃除機本体を手で持って宙に浮かせて操作し、この状態で掃除機全体を移動させる。 Patent Document 1 discloses a technology related to a handy type vacuum cleaner. This vacuum cleaner has a vacuum cleaner main body, an extension tube extending forward from the vacuum cleaner main body, and a suction tool attached to the tip of the extension tube. When cleaning with this vacuum cleaner, hold the main body of the vacuum cleaner in your hand and operate it by floating it in the air, and move the entire vacuum cleaner in this state.

特開2012-050564号公報Japanese Patent Application Publication No. 2012-050564

上記特許文献1の電気掃除機では、吸込具を移動させることによって掃除が完了した掃除済領域と未だ掃除が完了していない未掃除領域との判別が困難であるという課題がある。このため、上記特許文献1の電気掃除機では、掃除済領域を繰り返し掃除してしまうこと又は未掃除領域が残ってしまうことにより、掃除の効率及び掃除の質の低下が問題となる。 The vacuum cleaner of Patent Document 1 has a problem in that it is difficult to distinguish between a cleaned area that has been cleaned by moving the suction tool and an uncleaned area that has not yet been cleaned. For this reason, the vacuum cleaner of Patent Document 1 has problems in that cleaning efficiency and cleaning quality deteriorate due to repeated cleaning of cleaned areas or uncleaned areas remaining.

本発明は、上述のような課題を解決するためになされたもので、掃除済領域と未掃除領域とを区別して使用者に分かりやすく提示することのできる掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法を提供することを目的とする。 The present invention has been made in order to solve the above-mentioned problems, and provides a cleaning support device, a cleaning support system, and an electric cleaning system that can distinguish cleaned areas and uncleaned areas and present them to the user in an easy-to-understand manner. The purpose is to provide a cleaning support method.

本発明に係る掃除支援装置は、掃除対象領域における吸込具の位置情報を検出する位置情報検出部と、位置情報に基づいて、掃除対象領域における掃除済の掃除済領域と未掃除の未掃除領域とを判別し、判別結果から得られる領域判別情報を出力する領域判別部と、領域判別情報に基づいて、掃除対象領域における掃除済領域と未掃除領域とを区別して表した作成画像を作成する画像作成部と、作成画像に、カメラによって撮像された掃除対象領域の撮像画像を重畳した重畳画像を作成する重畳部と、を備え、撮像画像は、掃除済領域においてカメラによる撮像位置と掃除済領域との間に遮蔽物がある死角掃除済領域と、掃除済領域において撮像位置と掃除済領域との間に遮蔽物がない撮像掃除済領域と、未掃除領域において撮像位置と未掃除領域との間に遮蔽物がある死角未掃除領域と、未掃除領域において撮像位置と未掃除領域との間に遮蔽物がない撮像未掃除領域と、を含み、画像作成部は、死角掃除済領域と撮像掃除済領域とを区別して表した画像又は死角未掃除領域と撮像未掃除領域とを区別して表した画像を作成画像として作成するように構成されるものである。 The cleaning support device according to the present invention includes a position information detection unit that detects position information of a suction tool in a cleaning target area, and a cleaned area that has been cleaned and an uncleaned area that has not been cleaned in the cleaning target area based on the position information. an area discriminator that outputs area discrimination information obtained from the discrimination results; and an area discrimination unit that generates an image that distinguishes cleaned areas and uncleaned areas in the cleaning target area based on the area discrimination information. an image creation unit; and a superimposition unit that creates a superimposed image by superimposing an image of the area to be cleaned taken by the camera on the created image, and the imaged image is arranged in the area where the image was taken by the camera in the area that has been cleaned, and A blind spot cleaned area where there is an obstruction between the area, an imaged cleaned area where there is no obstruction between the imaging position and the cleaned area in the cleaned area, and an imaged area where there is no obstruction between the imaging position and the cleaned area in the uncleaned area. The image creation unit includes an uncleaned blind area where there is an obstruction between the blind area and an imaged uncleaned area where there is no obstruction between the imaging position and the uncleaned area. The image forming apparatus is configured to create an image in which the imaged cleaned area is distinguished from the imaged area or an image in which the blind spot area not yet cleaned and the imaged uncleaned area are distinguished from each other as the created image.

また、本発明に係る掃除支援システムは、上記のように構成された掃除支援装置と、掃除支援装置が出力した領域判別情報から得られる画像を表示する表示装置と、を備えるものである。 Further, the cleaning support system according to the present invention includes the cleaning support device configured as described above, and a display device that displays an image obtained from the area discrimination information output by the cleaning support device.

また、本発明に係る電気掃除機は、吸込具から空気を吸い込む電動送風機と、上記のように構成された掃除支援装置と、を備えるものである。 Further, a vacuum cleaner according to the present invention includes an electric blower that sucks air from a suction tool, and a cleaning support device configured as described above.

さらに、本発明に係る掃除支援方法は、掃除対象領域における吸込具の位置情報を検出する工程と、位置情報に基づいて、掃除対象領域における掃除済の掃除済領域と未掃除の未掃除領域とを判別し、判別結果から得られる領域判別情報を出力する工程と、領域判別情報に基づいて、掃除対象領域における掃除済領域と未掃除領域とを区別して表した作成画像を作成する工程と、作成画像に、カメラによって撮像された掃除対象領域の撮像画像を重畳した重畳画像を作成する工程と、を備え、撮像画像は、掃除済領域においてカメラによる撮像位置と掃除済領域との間に遮蔽物がある死角掃除済領域と、掃除済領域において撮像位置と掃除済領域との間に遮蔽物がない撮像掃除済領域と、未掃除領域において撮像位置と未掃除領域との間に遮蔽物がある死角未掃除領域と、未掃除領域において撮像位置と未掃除領域との間に遮蔽物がない撮像未掃除領域と、を含み、作成画像を作成する工程は、死角掃除済領域と撮像掃除済領域とを区別して表した画像又は死角未掃除領域と撮像未掃除領域とを区別して表した画像を作成画像として作成するように構成されるものである。 Furthermore, the cleaning support method according to the present invention includes a step of detecting position information of the suction tool in the cleaning target area, and distinguishing between cleaned areas and uncleaned areas in the cleaning target area based on the position information. and outputting area discrimination information obtained from the discrimination result, and creating an image that distinguishes and represents cleaned areas and uncleaned areas in the cleaning target area based on the area discrimination information. creating a superimposed image by superimposing a captured image of the cleaning target area captured by the camera on the created image, and the captured image is shielded between the imaging position by the camera and the cleaned area in the cleaned area. A blind spot cleaned area where there is an object, an imaged cleaned area where there is no obstruction between the imaging position and the cleaned area in the cleaned area, and an imaged cleaned area where there is an obstruction between the imaging position and the uncleaned area in the uncleaned area. The step of creating a created image includes a certain blind spot uncleaned area and an imaged uncleaned area in which there is no obstruction between the imaging position and the uncleaned area in the uncleaned area, and the step of creating a created image includes a blind spot cleaned area and an imaged uncleaned area. The image forming apparatus is configured to create an image in which the areas are distinguished from each other, or an image in which the blind spot uncleaned area and the imaged uncleaned area are distinguished from each other, as the created image.

本発明の掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法によれば、掃除済領域と未掃除領域とを区別して使用者に分かりやすく提示することが可能となる。 According to the cleaning support device, the cleaning support system, the vacuum cleaner, and the cleaning support method of the present invention, it is possible to distinguish between cleaned areas and uncleaned areas and present them to the user in an easy-to-understand manner.

実施の形態1に係る掃除支援システムの構成を説明するためのブロック図である。1 is a block diagram for explaining the configuration of a cleaning support system according to Embodiment 1. FIG. 電気掃除機の斜視図である。It is a perspective view of a vacuum cleaner. 電気掃除機の本体の断面図である。It is a sectional view of the main body of a vacuum cleaner. 電気掃除機のヘッド部の側面図である。It is a side view of the head part of a vacuum cleaner. 電気掃除機のヘッド部の底面図である。It is a bottom view of the head part of a vacuum cleaner. 電気掃除機の本体の接続管部にヘッド部を接続した状態を示す図である。It is a figure which shows the state which connected the head part to the connection pipe part of the main body of a vacuum cleaner. 位置情報取得装置の機能構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the functional configuration of a location information acquisition device. 掃除支援装置の機能構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the functional configuration of the cleaning support device. 実施の形態1に係る掃除支援システムにおいて実行されるルーチンのフローチャートである。3 is a flowchart of a routine executed in the cleaning support system according to the first embodiment. 携帯型端末として構成された掃除支援装置の構成を示す図である。1 is a diagram showing the configuration of a cleaning support device configured as a portable terminal. 実施の形態1に係る掃除支援装置のハードウェア構成の一例を示す図である。1 is a diagram showing an example of a hardware configuration of a cleaning support device according to Embodiment 1. FIG. 実施の形態1に係る掃除支援装置のハードウェア構成の他の例を示す図である。FIG. 3 is a diagram showing another example of the hardware configuration of the cleaning support device according to the first embodiment. 電気掃除機の構成の変形例を示すブロック図である。It is a block diagram which shows the modification of the structure of a vacuum cleaner. 電気掃除機の構成の他の変形例を示すブロック図である。It is a block diagram which shows another modification of the structure of a vacuum cleaner. 実施の形態1に係る掃除支援システムが備える掃除支援装置の機能を示すブロック図である。FIG. 2 is a block diagram showing the functions of a cleaning support device included in the cleaning support system according to the first embodiment. 実施の形態5に係る掃除支援システムが備える電気掃除機の構成を示す図である。It is a figure which shows the structure of the vacuum cleaner with which the cleaning support system based on Embodiment 5 is provided.

以下、図面を参照して本発明の実施の形態について説明する。ただし、各図において共通する要素には、同一の符号を付して重複する説明を省略する。なお、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合又は原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合又は明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。さらに、本発明は、その発明の趣旨を逸脱しない範囲において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能であるものとする。 Embodiments of the present invention will be described below with reference to the drawings. However, common elements in each figure are given the same reference numerals and redundant explanations will be omitted. In addition, in the embodiments shown below, when referring to the number, amount, quantity, range, etc. of each element, the reference shall be made unless it is specifically specified or it is clearly specified in principle to the number. The present invention is not limited to this number. Further, the structures described in the embodiments shown below are not necessarily essential to the present invention, unless specifically specified or clearly specified in principle. Furthermore, the present invention allows for free combination of embodiments, modification of any component of each embodiment, or omission of any component of each embodiment without departing from the spirit of the invention. It shall be possible.

1.実施の形態1.
1-1.掃除支援システムの構成
図面を参照して、実施の形態1に係る掃除支援システムについて説明する。図1は、実施の形態1に係る掃除支援システムの構成を説明するためのブロック図である。掃除支援システム5は、使用者が手動で電気掃除機を操作しながら、部屋の床等の被清掃面を掃除する場合に、掃除済の領域又は未掃除の領域を使用者に提示するものである。以下の説明では、掃除が行われる対象となる領域を「掃除対象領域」と呼ぶ。掃除対象領域は、被清掃面、床、棚の上、壁、窓、天井、屋外、又は公共施設等、使用者が電気掃除機を操作して掃除する対象となるあらゆる領域を含んでいてもよい。以下の説明では、床を掃除対象領域とする場合を例示する。
1. Embodiment 1.
1-1. Configuration of Cleaning Support System A cleaning support system according to the first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram for explaining the configuration of a cleaning support system according to the first embodiment. The cleaning support system 5 presents the user with a cleaned area or an uncleaned area when cleaning a surface to be cleaned such as a floor of a room while manually operating a vacuum cleaner. be. In the following description, the area to be cleaned will be referred to as a "cleaning target area." The area to be cleaned may include any area to be cleaned by the user operating the vacuum cleaner, such as surfaces to be cleaned, floors, shelf tops, walls, windows, ceilings, outdoors, or public facilities. good. In the following description, a case where the floor is the area to be cleaned will be exemplified.

以下の説明では、塵埃及びその他のゴミを総称して単に「塵埃」と呼ぶ場合がある。また、塵埃が混じった空気を「含塵空気」と呼ぶ場合がある。そして、塵埃が取り除かれた空気を「清浄空気」と呼ぶ場合がある。また、掃除対象領域のうち、使用者が掃除済の領域を「掃除済領域」と呼び、未掃除の領域を「未掃除領域」と呼ぶ場合がある。 In the following description, dust and other debris may be collectively referred to simply as "dust." Furthermore, air mixed with dust is sometimes called "dust-containing air." Air from which dust has been removed is sometimes called "clean air." Further, among the areas to be cleaned, an area that has been cleaned by the user may be referred to as a "cleaned area", and an area that has not been cleaned may be referred to as an "uncleaned area".

図1に示すように、掃除支援システム5は、電気掃除機1と、位置情報取得装置6と、掃除支援装置8と、表示装置7とを備えている。以下、これらの構成要素について順に説明する。 As shown in FIG. 1, the cleaning support system 5 includes a vacuum cleaner 1, a position information acquisition device 6, a cleaning support device 8, and a display device 7. Below, these components will be explained in order.

1-1-1.電気掃除機の構成
先ず、掃除支援システム5に含まれる電気掃除機1の構成について説明する。図2は、電気掃除機の斜視図である。図3は、電気掃除機の本体の断面図である。図4は、電気掃除機のヘッド部の側面図である。図5は、電気掃除機のヘッド部の底面図である。図2に示すように、電気掃除機1は、ヘッド部2を有する手持ち式の掃除具である。電気掃除機1は、例えば、コードレスタイプの縦型電気掃除具である。図2に示すように、電気掃除機1は、主な構成要素として、本体4、管体3及びヘッド部2を備えている。
1-1-1. Configuration of Vacuum Cleaner First, the configuration of the vacuum cleaner 1 included in the cleaning support system 5 will be described. FIG. 2 is a perspective view of the vacuum cleaner. FIG. 3 is a sectional view of the main body of the vacuum cleaner. FIG. 4 is a side view of the head of the vacuum cleaner. FIG. 5 is a bottom view of the head of the vacuum cleaner. As shown in FIG. 2, the vacuum cleaner 1 is a hand-held cleaning tool having a head portion 2. As shown in FIG. The vacuum cleaner 1 is, for example, a cordless vertical vacuum cleaner. As shown in FIG. 2, the vacuum cleaner 1 includes a main body 4, a tube body 3, and a head portion 2 as main components.

本体4は、ハンドル401、外郭部404及び集塵部412を備えている。ハンドル401は、電気掃除機1の使用中に使用者が手で握る部位である。使用者は、ハンドル401を握ることで電気掃除機1の本体4を把持できる。またハンドル401には、操作部402および制御回路403が設けられている。操作部402は、複数個の図示しないキーボタンを含む。使用者は、ハンドル401を持って掃除を行う。この際、使用者は、操作部402のキーボタンを操作することで、電気掃除機1の吸引動作の実行、停止等を指示する。制御回路403は、操作部402と電気的に接続されるとともに、本体4の電動送風機405とも電気的に接続される。 The main body 4 includes a handle 401, an outer shell part 404, and a dust collecting part 412. The handle 401 is a part that the user holds with his/her hand while using the vacuum cleaner 1. A user can grip the main body 4 of the vacuum cleaner 1 by gripping the handle 401. Further, the handle 401 is provided with an operation section 402 and a control circuit 403. The operation unit 402 includes a plurality of key buttons (not shown). The user cleans by holding the handle 401. At this time, the user instructs the vacuum cleaner 1 to perform or stop the suction operation by operating a key button on the operation unit 402. The control circuit 403 is electrically connected to the operating section 402 and also to the electric blower 405 of the main body 4 .

外郭部404は、本体4の外郭すなわち外側の覆いをなす部材を有する。本体4の外郭部404には、電動送風機405及び制御基板408が内蔵されている。また外郭部404は電源部406、接続管部409及び排気部411を備えている。 The outer shell portion 404 has a member that forms the outer shell of the main body 4, that is, the outer cover. An electric blower 405 and a control board 408 are built into the outer shell 404 of the main body 4 . Further, the outer shell part 404 includes a power supply part 406, a connecting pipe part 409, and an exhaust part 411.

電動送風機405は、電気掃除機1の吸引風を生成するためのものである。電気掃除機1は、電動送風機405の駆動により、塵埃又はゴミ等をヘッド部2の吸込口203から吸引して集塵部412に捕集する。また、制御基板408は、例えば、電動送風機405のファンの回転数を制御する。 The electric blower 405 is for generating suction air for the vacuum cleaner 1. The vacuum cleaner 1 sucks dust, dirt, etc. from the suction port 203 of the head section 2 and collects it in the dust collecting section 412 by driving the electric blower 405 . Further, the control board 408 controls, for example, the rotation speed of the fan of the electric blower 405.

電源部406は、電動送風機405を駆動するための電源を含んでいる。電源部406は、例えば本体4に対して着脱可能な電池を含んでいてもよい。また、電源部406は、例えば外部から電力を得るための電源コードを含んでいてもよい。 Power supply section 406 includes a power source for driving electric blower 405. The power supply unit 406 may include, for example, a battery that is detachable from the main body 4. Further, the power supply unit 406 may include, for example, a power cord for obtaining power from an external source.

接続管部409は、管体3が着脱可能に連結される少なくとも一部が中空筒状の部材である。接続管部409は、塵埃を吸い込むための接続口410を有する。接続口410は、接続管部409の一端に形成された開口である。接続管部409の内部には、接続口410を通過した含塵空気の気流を集塵部412へ導く風路が形成されている。接続管部409の他端には、ハンドル401の一端が外見上連続するようにして配置されている。ハンドル401の他端側には、操作部402が設けられている。 The connecting tube portion 409 is a hollow cylindrical member at least in part to which the tube body 3 is detachably connected. The connecting pipe portion 409 has a connecting port 410 for sucking in dust. The connection port 410 is an opening formed at one end of the connection pipe section 409. An air passage is formed inside the connecting pipe section 409 to guide the airflow of dust-containing air that has passed through the connecting port 410 to the dust collecting section 412 . One end of the handle 401 is disposed at the other end of the connecting tube portion 409 so as to be continuous in appearance. An operating section 402 is provided on the other end side of the handle 401.

排気部411は、外郭部404に形成された開口である。集塵部412にて塵埃が取り除かれた気流は、排気部411から本体4の外部へ排出される。 The exhaust part 411 is an opening formed in the outer shell part 404. The airflow from which dust has been removed in the dust collection section 412 is discharged to the outside of the main body 4 from the exhaust section 411.

集塵部412は、電動送風機405が生成した吸引風により本体4に吸い込んだ含塵空気中の塵埃を捕集するためのものである。集塵部412は、本体4に対し着脱可能に取り付けられている。集塵部412は、例えば紙パック式又はサイクロン式のものである。本実施の形態に係る集塵部412は、サイクロン分離装置を有している。 The dust collection unit 412 is for collecting dust in the dust-containing air sucked into the main body 4 by the suction air generated by the electric blower 405. The dust collecting section 412 is detachably attached to the main body 4. The dust collecting section 412 is, for example, a paper pack type or a cyclone type. The dust collection section 412 according to this embodiment includes a cyclone separation device.

次に、図4及び図5を参照ながら、吸込具としてのヘッド部2の構成について説明する。ヘッド部2は、吸込口体202と、連結部201とを備える。ヘッド部2は、管体3の前述した他端側に連結部201を介して連結される。なお、以下の説明では、原則として、吸込口体202を水平な被清掃面に置いた状態、すなわち水平面を清掃する状態を基準に説明する。 Next, the configuration of the head section 2 as a suction tool will be explained with reference to FIGS. 4 and 5. The head portion 2 includes a suction port body 202 and a connecting portion 201. The head portion 2 is connected to the other end of the tubular body 3 via a connecting portion 201. In addition, in the following description, in principle, the description will be made based on a state in which the suction port body 202 is placed on a horizontal surface to be cleaned, that is, a state in which the horizontal surface is cleaned.

吸込口体202の形状は、平面視において矩形状を呈する。また、吸込口体202の形状は、外観として略直方体形状を呈する。吸込口体202における清掃方向を、吸込口体202の短手方向と呼ぶ。平面視において、吸込口体202の短手方向に垂直な方向を、吸込口体202の長手方向と呼ぶ。平面視における吸込口体202の長手方向の中間には、連結部201の一端が回動可能に接続される。吸込口体202は、規定の大きさの断面積を有する吸込口203を有する。 吸込口203は、ヘッド部2の吸込口体202における、掃除対象領域と対向する面に開口を有するように設けられる。塵埃は、ヘッド部の吸込口体202の吸込口203から吸引される。実施の形態では、ヘッド部2から吸引すると表現することもあり、また、吸込口体202又は吸込口203から吸引すると表現することもある。 The shape of the suction port body 202 is rectangular in plan view. Moreover, the shape of the suction port body 202 exhibits a substantially rectangular parallelepiped shape in appearance. The cleaning direction in the suction port body 202 is referred to as the lateral direction of the suction port body 202. In plan view, the direction perpendicular to the lateral direction of the suction port body 202 is referred to as the longitudinal direction of the suction port body 202. One end of the connecting portion 201 is rotatably connected to the longitudinal middle of the suction port body 202 in a plan view. The suction port body 202 has a suction port 203 having a cross-sectional area of a prescribed size. The suction port 203 is provided so as to have an opening on the surface of the suction port body 202 of the head section 2 that faces the area to be cleaned. Dust is sucked through the suction port 203 of the suction port body 202 of the head section. In the embodiment, suction may be expressed as suctioning from the head portion 2, or suctioning may be expressed as suctioning from the suction port body 202 or the suction port 203.

連結部201は、吸込口体202と管体3、又は吸込口体202と本体4とを着脱自在に接続可能とするための中継部である。連結部201は、本体4又は管体3に対する吸込口体202の姿勢又は角度を変更する機能を有する。 The connecting portion 201 is a relay portion that allows the suction port body 202 and the pipe body 3 or the suction port body 202 and the main body 4 to be connected detachably. The connecting portion 201 has a function of changing the attitude or angle of the suction port body 202 with respect to the main body 4 or the pipe body 3.

ヘッド部2は、管体3の先端側に着脱自在に接続することが可能である。図6は、電気掃除機の本体の接続管部にヘッド部を接続した状態を示す図である。図6に示すように、ヘッド部2は、本体4の接続管部409に着脱自在に接続することも可能である。つまり、ヘッド部2は、管体3の先端側と本体4の接続管部409の何れか一方に択一的に接続することが可能である。 The head portion 2 can be detachably connected to the distal end side of the tube body 3. FIG. 6 is a diagram showing a state in which the head part is connected to the connecting pipe part of the main body of the vacuum cleaner. As shown in FIG. 6, the head section 2 can also be detachably connected to the connecting tube section 409 of the main body 4. That is, the head portion 2 can be selectively connected to either the distal end side of the tube body 3 or the connecting tube portion 409 of the main body 4.

図5に示すように、ヘッド部2は、電動機204と回転ブラシ205を備えていてもよい。回転ブラシ205は、電動機204の駆動により回転する。電動機204および回転ブラシ205は、例えばギアを備える。ヘッド部2は、ベルトを備えていてもよい。ベルトは、電動機204のギアの回転を回転ブラシ205のギアに伝達する。また、ベルトを介さず、回転ブラシ205の内部に電動機204を内蔵したいわゆるアウターローター型の場合は、電動機204のギアの駆動を回転ブラシ205に直接伝達する。本体4からの電力が電動機204に供給されると、電動機204のギアが回転し、回転ブラシ205が回転する。電動機204は、ブラシ付き電動機でもブラシレス電動機でもよい。ブラシレス電動機の場合は、既存技術により、回転ブラシ205の回転数を変更可能である。 As shown in FIG. 5, the head section 2 may include an electric motor 204 and a rotating brush 205. Rotating brush 205 is rotated by driving electric motor 204 . The electric motor 204 and the rotating brush 205 include, for example, gears. The head portion 2 may include a belt. The belt transmits the rotation of the gear of electric motor 204 to the gear of rotating brush 205. In addition, in the case of a so-called outer rotor type in which the electric motor 204 is built inside the rotating brush 205 without using a belt, the drive of the gear of the electric motor 204 is directly transmitted to the rotating brush 205. When power from the main body 4 is supplied to the electric motor 204, the gears of the electric motor 204 rotate, and the rotating brush 205 rotates. Motor 204 may be a brushed motor or a brushless motor. In the case of a brushless electric motor, the rotation speed of the rotating brush 205 can be changed using existing technology.

管体3は内部が中空の管状部材である。管体3は、ヘッド部2と本体4を間接的に接続させるための中継機能を有する。なお、ヘッド部2を本体4に直接接続する場合には、管体3は使用しなくてもよい。 The tube body 3 is a hollow tubular member. The tube body 3 has a relay function for indirectly connecting the head portion 2 and the main body 4. Note that when the head portion 2 is directly connected to the main body 4, the tube body 3 may not be used.

電動送風機405は、ハンドル401に設けられた操作部402に対する操作に応じて駆動される。電動送風機405が駆動すると、集塵部412及び接続管部409の内部に吸引力が作用し、ヘッド部2の吸込口203を介して、接続口410から含塵空気が吸い込まれる。接続口410に吸い込まれた含塵空気は、接続管部409を通過して集塵部412の内部に取り込まれる。集塵部412では、含塵空気から塵埃が分離または捕集される。集塵部412から排出された清浄空気は、電動送風機405を通過する。電動送風機405を通過した清浄空気は、排気部411から本体4の外部に排出される。 The electric blower 405 is driven in response to an operation on an operation unit 402 provided on the handle 401. When the electric blower 405 is driven, a suction force acts inside the dust collecting section 412 and the connecting pipe section 409, and dust-containing air is sucked in from the connecting port 410 via the suction port 203 of the head section 2. The dust-containing air sucked into the connection port 410 passes through the connection pipe section 409 and is taken into the dust collecting section 412 . In the dust collecting section 412, dust is separated or collected from dust-containing air. Clean air discharged from the dust collection section 412 passes through the electric blower 405. The clean air that has passed through the electric blower 405 is discharged to the outside of the main body 4 from the exhaust section 411.

なお、電動送風機405は、運転モードに応じて回転数が調整可能に構成されていてもよい。具体的には、電気掃除機1は、運転モードとして、例えば電動送風機405の回転数が高い強モードと、強モードよりも回転数が低い弱モードを備えている。さらに、電気掃除機1は、運転モードとして、強モードと弱モードを自動で調整する自動モードを備えていてもよい。運転モードは、ハンドル401に設けられた操作部402によって操作される。 Note that the electric blower 405 may be configured to be able to adjust its rotational speed depending on the operating mode. Specifically, the vacuum cleaner 1 has, as operating modes, a strong mode in which the rotation speed of the electric blower 405 is high, and a weak mode in which the rotation speed is lower than the strong mode. Furthermore, the vacuum cleaner 1 may be provided with an automatic mode that automatically adjusts a strong mode and a weak mode as an operating mode. The driving mode is operated by an operating section 402 provided on the handle 401.

また、本体4は、外部からの入力を受け付ける受信部を備えていてもよい。受信部は、例えば既存技術により、外部からの入力を受け付ける。例えば、入力受信方法は、無線、赤外線、センサ等である。例えば、電気掃除機1は、受信部の外部入力受付部が外部からの入力を受け付けることにより、運転のON-OFFの切替、運転モードの切替、又は回転ブラシ205の回転数の調整を行う。このような構成によれば、外部入力によって、電気掃除機1の種々の動作を制御することができる。 Further, the main body 4 may include a receiving section that receives input from the outside. The receiving unit receives input from the outside using, for example, existing technology. For example, the input receiving method may be wireless, infrared, sensor, etc. For example, the vacuum cleaner 1 switches the operation between ON and OFF, switches the operation mode, or adjusts the rotation speed of the rotating brush 205 when the external input receiving section of the reception section receives input from the outside. According to such a configuration, various operations of the vacuum cleaner 1 can be controlled by external input.

1-1-2.位置情報取得装置の構成
次に、掃除支援システム5に含まれる位置情報取得装置6について説明する。位置情報取得装置6は、掃除対象領域に対するヘッド部2の位置を検出するための情報を取得するための装置である。位置情報取得装置6は、例えばスチルカメラ又はビデオカメラである。位置情報取得装置6は、例えば使用者が手に持って使用する。また、位置情報取得装置6は、電気掃除機1に固定する構成でもよいし、また使用者の頭部等の身体に着用する構成でもよい。また、位置情報取得装置6を固定するホルダー部を備えた形状記憶可能なストラップを用いて、首にかける構成でもよい。
1-1-2. Configuration of Location Information Acquisition Device Next, the location information acquisition device 6 included in the cleaning support system 5 will be described. The position information acquisition device 6 is a device for acquiring information for detecting the position of the head section 2 with respect to the area to be cleaned. The position information acquisition device 6 is, for example, a still camera or a video camera. The position information acquisition device 6 is held and used by a user, for example. Further, the position information acquisition device 6 may be configured to be fixed to the vacuum cleaner 1, or may be configured to be worn on the user's body such as the head. Alternatively, a shape-memory strap having a holder portion for fixing the position information acquisition device 6 may be used to be worn around the neck.

図7は、位置情報取得装置の機能構成を示す機能ブロック図である。図7に示すように、位置情報取得装置6は、その機能ブロックとして、撮像部61と画像処理部62とを備えている。撮像部61は、例えばイメージセンサである。撮像部61は、例えばCMOS又はCCDである。撮像部61は、レンズが捉えた光の情報をデジタルデータに変換する。画像処理部62は、変換されたデジタルデータを、画像として目に見える画像データに変換する。位置情報取得装置6は、変化された画像データを出力する。以下の説明では、位置情報取得装置6から出力される画像データを「撮像画像」と呼ぶ。 FIG. 7 is a functional block diagram showing the functional configuration of the position information acquisition device. As shown in FIG. 7, the position information acquisition device 6 includes an imaging section 61 and an image processing section 62 as its functional blocks. The imaging unit 61 is, for example, an image sensor. The imaging unit 61 is, for example, a CMOS or a CCD. The imaging unit 61 converts information about light captured by the lens into digital data. The image processing unit 62 converts the converted digital data into image data that is visible as an image. The position information acquisition device 6 outputs the changed image data. In the following description, the image data output from the position information acquisition device 6 will be referred to as a "captured image."

1-1-3.表示装置の構成
次に、掃除支援システム5に含まれる表示装置7について説明する。表示装置7は、データを表示するためのものである。表示装置7に表示されるデータとしては、掃除領域に関する情報、掃除済領域又は未掃除領域に関する情報、位置情報取得装置6で撮像した撮像画像、又は掃除支援装置8が作成した画像等が例示される。
1-1-3. Configuration of Display Device Next, the display device 7 included in the cleaning support system 5 will be explained. The display device 7 is for displaying data. Examples of the data displayed on the display device 7 include information regarding the cleaning area, information regarding the cleaned area or the uncleaned area, a captured image captured by the position information acquisition device 6, or an image created by the cleaning support device 8. Ru.

表示装置7は、例えばスマートフォンまたはタブレット等の携帯型端末のディスプレイとして構成されていてもよい。また、表示装置7は、電気掃除機1に取り外し自在に設置できるものであってもよい。この場合、表示装置7は、電気掃除機1の操作部402に設置するようにしてもよいし、電気掃除機1のヘッド部2に設置するようにしてもよい。また、表示装置7は、身体に着用可能なウェアラブル端末、ウェアラブルメガネ、スマートグラス等であってもよい。 The display device 7 may be configured as a display of a portable terminal such as a smartphone or a tablet. Further, the display device 7 may be removably installed in the vacuum cleaner 1. In this case, the display device 7 may be installed on the operating section 402 of the vacuum cleaner 1 or may be installed on the head section 2 of the vacuum cleaner 1. Further, the display device 7 may be a wearable terminal that can be worn on the body, wearable glasses, smart glasses, or the like.

表示装置7は、頭部装着型又は眼鏡型であってもよい。頭部装着型又は眼鏡型では表示装置7は顔、特に目の周囲に配置される。例えば光学透過型表示部を備える表示装置では、光透過型において、外界から通り抜ける光の強さを制御することが課題となる。そこで、例えば、調整可能なグローバルシャッタのLCDマスクがビームスプリッタの前、つまり眼から最も遠い位置に配置されていてもよい。使用者はこのシャッタの透明度を調整することで、画像を見やすくすることができる。例えば、明るい陽射しのもとでは、シャッタを最大限に暗くし、屋内環境などの比較的暗い環境ではシャッタの透明度を最大にすればよい。なお、透過型表示部を備える表示装置を備える場合の特有の動作については、後述する他の実施の形態において詳しく説明する。 The display device 7 may be of a head-mounted type or a glasses type. In the head-mounted type or the glasses type, the display device 7 is placed on the face, particularly around the eyes. For example, in a display device including an optically transmissive display section, it is a problem to control the intensity of light passing through from the outside world in the optically transmissive type. Thus, for example, an adjustable global shutter LCD mask may be placed in front of the beam splitter, ie at a position furthest from the eye. The user can make the image easier to see by adjusting the transparency of this shutter. For example, in bright sunlight, the shutter may be set to maximum darkness, while in relatively dark environments, such as indoor environments, the shutter may be set to maximum transparency. Note that specific operations when a display device including a transmissive display section is provided will be described in detail in other embodiments to be described later.

表示装置7は、使用者に視認可能な位置であればその配置に限定はない。また、表示装置7は、掃除対象領域を含む空間である部屋等に設置されたPC(Personal Computer)、または、テレビ等の装置が備えるディスプレイ等の表示部として構成されていてもよい。なお、実施の形態1では、表示装置7が携帯型端末の表示部である場合を例示する。表示装置7は、掃除中に手に持って使用してもよい。また、表示装置7は、位置情報取得装置6と共通の一体化された端末に備えてられていてもよい。 The display device 7 is not limited in its placement as long as it is located at a position that is visible to the user. Further, the display device 7 may be configured as a PC (Personal Computer) installed in a room or the like that is a space including the area to be cleaned, or a display unit such as a display included in a device such as a television. Note that in the first embodiment, a case where the display device 7 is a display section of a portable terminal is exemplified. The display device 7 may be held and used during cleaning. Further, the display device 7 may be included in a common integrated terminal with the position information acquisition device 6.

表示装置7のフレームレート数の閾値は、20msから300msの間、好ましくは30ms以上、さらに好ましくは60ms以上である。フレームレート数の数値が上がるほど、画像の変化が滑らかになり、使用者は画面酔いをし難くなる。 The threshold value of the frame rate number of the display device 7 is between 20 ms and 300 ms, preferably 30 ms or more, and more preferably 60 ms or more. As the value of the frame rate increases, the changes in the image become smoother, and the user is less likely to get screen sickness.

1-1-4.掃除支援装置の構成
次に、掃除支援システム5に含まれる掃除支援装置8について説明する。掃除支援装置8は、位置情報取得装置6から取得した情報に基づき、掃除対象領域における電気掃除機1による掃除済領域と未掃除領域を判別するための画像を作成する。
1-1-4. Configuration of Cleaning Support Device Next, the cleaning support device 8 included in the cleaning support system 5 will be explained. The cleaning support device 8 creates an image for determining an area that has been cleaned by the vacuum cleaner 1 and an area that has not been cleaned in the cleaning target area based on the information acquired from the position information acquisition device 6.

なお、掃除支援装置8は、例えばアプリケーションとして構成されていてもよい。つまり、掃除支援装置8は、端末にインストールまたはダウンロードすることで使用可能とする構成でもよい。また掃除支援装置8は、予め端末にダウンロードまたはインストールされていてもよい。 Note that the cleaning support device 8 may be configured as an application, for example. In other words, the cleaning support device 8 may be configured to be usable by being installed or downloaded onto a terminal. Further, the cleaning support device 8 may be downloaded or installed in the terminal in advance.

図8は、掃除支援装置の機能構成を示す機能ブロック図である。図8に示すように、掃除支援装置8は、その主たる機能として、位置情報検出部10と、位置履歴記憶部14と、領域判別部11と、画像作成部12と、重畳部13と、表示規則記憶部16と、入力受付部17と、を備えている。 FIG. 8 is a functional block diagram showing the functional configuration of the cleaning support device. As shown in FIG. 8, the cleaning support device 8 has a position information detection unit 10, a position history storage unit 14, an area determination unit 11, an image creation unit 12, a superimposition unit 13, and a display unit 13 as its main functions. It includes a rule storage section 16 and an input reception section 17.

位置情報検出部10は、掃除対象領域に対する電気掃除機1のヘッド部2の位置を検出するための機能ブロックである。より詳しくは、位置情報検出部10は、使用者によって電気掃除機1の吸引動作が開始されると、位置情報取得装置6としてのカメラから撮像画像を取得する。そして、既存の画像処理技術を用いて撮像画像からヘッド部2の特徴点を抽出し、その位置情報を検出する。つまり、位置情報検出部10は、掃除対象領域から特徴点を検出する特徴点検出部としての機能を含む。なお、ここでのヘッド部2の特徴点は、予め設定されたヘッド部2の特定位置又は特定範囲である。このようなヘッド部2の特徴点は、例えばヘッド部2の吸込口体202の中心位置、対角の2点の位置、又は四隅の位置等を用いることができる。また、位置情報検出部10は、ヘッド部2の位置に加えて、例えば、既存の画像処理技術を用いて、ヘッド部2の大きさ又は移動方向を更に検出するようにしてもよい。 The position information detection unit 10 is a functional block for detecting the position of the head unit 2 of the vacuum cleaner 1 with respect to the cleaning target area. More specifically, when the user starts the suction operation of the vacuum cleaner 1, the position information detection unit 10 acquires a captured image from a camera serving as the position information acquisition device 6. Then, feature points of the head section 2 are extracted from the captured image using existing image processing techniques, and their positional information is detected. That is, the position information detection section 10 includes a function as a feature point detection section that detects feature points from the area to be cleaned. Note that the feature point of the head section 2 here is a specific position or a specific range of the head section 2 that is set in advance. Such characteristic points of the head section 2 can be, for example, the center position of the suction port body 202 of the head section 2, the positions of two diagonal points, or the positions of the four corners. Furthermore, in addition to the position of the head section 2, the position information detection section 10 may further detect the size or moving direction of the head section 2 using, for example, existing image processing technology.

電気掃除機1の動作状況は、例えば入力受付部17から入力される情報から判断することができる。入力受付部17は、使用者によって電気掃除機1の吸引操作が開始されたか否かに関する情報を受け付けるための機能ブロックである。入力受付部17が受け付けるこの情報は、以下「操作開始指示情報」と呼ばれる。使用者によって操作部402が操作されることにより吸引動作が開始されると、操作開始指示情報が制御回路403を介して入力受付部17へと出力される。入力受付部17は、入力された操作開始指示情報を、位置情報検出部10に出力する。位置情報検出部10は、操作開始指示情報の入力を受けて、撮像画像の取得を開始する。 The operating status of the vacuum cleaner 1 can be determined, for example, from information input from the input reception unit 17. The input receiving unit 17 is a functional block for receiving information regarding whether or not a suction operation of the vacuum cleaner 1 has been started by the user. This information received by the input receiving unit 17 is hereinafter referred to as "operation start instruction information". When the suction operation is started by the user operating the operating unit 402, operation start instruction information is output to the input receiving unit 17 via the control circuit 403. The input receiving unit 17 outputs the input operation start instruction information to the position information detecting unit 10. The position information detection unit 10 receives the input of the operation start instruction information and starts acquiring captured images.

なお、位置情報検出部10は、他の手段を用いて電気掃除機1の動作状況を判断してもよい。すなわち、位置情報検出部10は、例えば使用者が電気掃除機1の操作部402の操作により吸引動作の駆動を指示した際のランプの点滅を検知することで、使用者により電気掃除機1の操作が開始されたか否かを判断する構成でもよい。また、位置情報検出部10は、適宜の方法で、使用者により電気掃除機1の操作が開始されたかどうかを判断すればよい。 Note that the position information detection unit 10 may determine the operating status of the vacuum cleaner 1 using other means. That is, the position information detection unit 10 detects the flashing of the lamp when the user instructs to drive the suction operation by operating the operation unit 402 of the vacuum cleaner 1, for example, so that the position information detection unit 10 allows the user to operate the vacuum cleaner 1. The configuration may be such that it is determined whether or not an operation has been started. Further, the position information detection unit 10 may determine whether or not the user has started operating the vacuum cleaner 1 using an appropriate method.

位置履歴記憶部14は、位置情報検出部10が検出した検出結果であるヘッド部2の位置情報を、その取得日時の情報に対応付けて記憶するためのものである。位置履歴記憶部14に記憶された情報を、以下「位置履歴情報」とも呼ぶ。位置情報検出部10は、例えば、位置履歴記憶部14に格納された位置履歴情報を用いて、ヘッド部2の移動軌跡等の移動情報を特定することができる。 The position history storage unit 14 is for storing position information of the head unit 2, which is a detection result detected by the position information detection unit 10, in association with information on the date and time of acquisition. The information stored in the position history storage unit 14 will also be referred to as "position history information" hereinafter. The position information detection unit 10 can specify movement information such as a movement trajectory of the head unit 2 using, for example, position history information stored in the position history storage unit 14.

領域判別部11は、位置情報検出部10が検出したヘッド部2の位置情報に基づいて、掃除対象領域内における掃除済領域と未掃除領域を判別する。具体的には、領域判別部11には、位置履歴記憶部14から位置履歴情報が順次入力される。領域判別部11は、入力された位置履歴情報に基づいて、ヘッド部2の移動軌跡を算出する。そして、領域判別部11は、掃除対象領域におけるヘッド部2の移動軌跡を、電気掃除機1による掃除済領域として判別し、判別結果であるその移動軌跡の座標を領域判別情報として画像作成部12に出力する。なお、領域判別部11において用いられる座標系は、掃除対象領域内の空間を撮像する撮像画像の座標系と同じ座標系である。 The area determination unit 11 determines a cleaned area and an uncleaned area within the cleaning target area based on the position information of the head unit 2 detected by the position information detection unit 10. Specifically, position history information is sequentially input to the area determination unit 11 from the position history storage unit 14 . The area determination unit 11 calculates the movement trajectory of the head unit 2 based on the input position history information. Then, the area determination unit 11 determines the movement locus of the head unit 2 in the area to be cleaned as an area that has been cleaned by the vacuum cleaner 1, and uses the coordinates of the movement locus, which is the determination result, as area discrimination information to the image creation unit 12. Output to. Note that the coordinate system used in the area determination unit 11 is the same coordinate system as the coordinate system of the captured image that captures the space within the cleaning target area.

領域判別部11は、操作開始指示情報に基づいて、位置履歴情報が電気掃除機1の操作が開始された後の情報であるか否かを判別可能としてもよい。例えば、領域判別部11は、ヘッド部2の移動情報と対応付けられている取得日時と、入力受付部17から取得した操作開始指示情報の受付日時とを比較することによって、電気掃除機1の吸引動作中の位置履歴情報か否かを判断することができる。 The area determination unit 11 may be able to determine whether the position history information is information after the operation of the vacuum cleaner 1 has started, based on the operation start instruction information. For example, the area determination unit 11 compares the acquisition date and time associated with the movement information of the head unit 2 with the reception date and time of the operation start instruction information acquired from the input reception unit 17. It can be determined whether the position history information is during a suction operation.

画像作成部12は、入力された領域判別情報を反映した画像を作成する。画像作成部12により作成される画像を、以下「作成画像」とも呼ぶ。画像作成部12は、予め定められた表示規則に従い、領域判別情報から特定される掃除済領域と未掃除領域とを区別可能な状態で表示した画像を作成する。表示規則は、表示規則記憶部16に予め記憶されている。表示規則記憶部16に記憶されている表示規則には、例えばヘッド部2の長手方向の幅が20cmである場合、ヘッド部2の移動軌跡に沿った方向と直角に幅20cmを青色で配色する、といった表示規則がある。この場合、青色で塗りつぶされた領域が掃除済領域に対応し、それ以外の領域が未掃除領域に対応することとなる。画像作成部12は、表示規則記憶部16から読み込まれた表示規則に従い、掃除済領域と未掃除領域とが区別された作成画像を作成する。作成された作成画像は、重畳部13に出力される。 The image creation unit 12 creates an image that reflects the input area discrimination information. The image created by the image creation unit 12 is also referred to as a "created image" hereinafter. The image creation unit 12 creates an image in which a cleaned area and an uncleaned area specified from the area discrimination information are displayed in a distinguishable manner according to a predetermined display rule. The display rules are stored in advance in the display rule storage section 16. The display rule stored in the display rule storage unit 16 includes, for example, when the width of the head section 2 in the longitudinal direction is 20 cm, the width of 20 cm is colored blue in a direction perpendicular to the direction along the movement trajectory of the head section 2. There are display rules such as . In this case, the area filled in blue corresponds to the cleaned area, and the other areas correspond to the uncleaned area. The image creation unit 12 creates an image in which cleaned areas and uncleaned areas are distinguished according to the display rules read from the display rule storage unit 16. The created image is output to the superimposing section 13.

なお、表示規則記憶部16は、掃除済領域と未掃除領域とを視覚的に判別可能な表示規則が記憶されていれば、その内容に限定はない。すなわち、表示規則は、掃除済領域を塗りつぶす又は塗り消す回数で色が変わる、濃くなる、薄くなる等、内容を変更した画像を作成する表示規則でもよい。ここでの「塗りつぶすまたは塗り消す回数」とは、掃除対象領域が掃除された掃除回数、つまり、ヘッド部2がその位置を通過した通過回数を表している。また、ここでの「塗りつぶすまたは塗り消す」との表現は、単色で塗りつぶす又は塗り消すものだけでなく、ドット柄、水玉、半透明といった配色の態様も含んでいる。 Note that the display rule storage unit 16 is not limited in its contents as long as it stores a display rule that allows visually distinguishing between a cleaned area and an uncleaned area. That is, the display rule may be a display rule that creates an image whose contents are changed, such as by changing the color, becoming darker, or becoming lighter depending on the number of times the cleaned area is filled in or erased. Here, "the number of times of filling in or erasing" represents the number of times the area to be cleaned has been cleaned, that is, the number of times the head section 2 has passed through that position. Furthermore, the expression "filling in or erasing" herein includes not only filling in or erasing with a single color, but also includes color schemes such as dot patterns, polka dots, and translucent.

領域判別部11は、例えば位置履歴情報に基づいて、ヘッド部2の位置の移動軌跡を検出するとともに、ヘッド部2の位置が同じ位置となる通過回数を算出する。そして、領域判別部11は、算出した通過回数をヘッド部2の通過回数として、その位置情報とあわせて画像作成部12へ出力する。画像作成部12は、領域判別部11から取得した情報に基づいて、ヘッド部2の通過回数に応じて色が変わる又は色が濃くなる等の内容を変更した画像を作成する。 The area determination unit 11 detects the movement locus of the position of the head unit 2 based on, for example, position history information, and calculates the number of times the head unit 2 passes through the same position. Then, the area determination unit 11 outputs the calculated number of passages as the number of passages of the head unit 2 to the image creation unit 12 together with its position information. The image creation unit 12 creates an image whose contents have been changed, such as changing the color or making the color darker, depending on the number of times the head unit 2 passes, based on the information acquired from the area determination unit 11.

また、他の例では、画像作成部12は、画像履歴記憶部15を参照して、以前に同じ位置の画像を作成した履歴があれば、当該履歴をカウントする。そして、画像作成部12は、当該カウントの回数が多いほど、色が変わる又は色が濃くなる等の内容を変更した画像を作成するようにしてもよい。 In another example, the image creation unit 12 refers to the image history storage unit 15, and if there is a history of previous images created at the same position, the image creation unit 12 counts the history. Then, the image creation unit 12 may create an image whose contents have been changed, such as changing the color or making the color darker, as the number of counts increases.

重畳部13は、撮像画像と作成画像を重畳した画像を作成する。重畳部13により作成される画像を、以下「重畳画像」と呼ぶ。重畳部13には、位置情報取得装置6において取得された撮像画像と、画像作成部12において作成された作成画像が入力される。重畳部13は、既存の画像処理技術を用いてこれらの画像を重ね合わせた重畳画像を作成する。領域判別部が判別した掃除済領域又は未掃除領域に基づいて作成された作成画像を重畳する。なお、重畳部13は、重畳画像を表示装置7のアスペクト比にあわせて拡大又は縮小するように補正してもよい。作成された重畳画像は、表示装置7へと出力される。これにより、掃除済領域または未掃除領域を示す画像が表示装置7を介して使用者に提示される。 The superimposing unit 13 creates an image by superimposing the captured image and the created image. The image created by the superimposing unit 13 will be referred to as a "superimposed image" hereinafter. The captured image acquired by the position information acquisition device 6 and the created image created by the image creation unit 12 are input to the superimposition unit 13 . The superimposition unit 13 creates a superimposed image by superimposing these images using existing image processing technology. A created image created based on the cleaned area or uncleaned area determined by the area determination unit is superimposed. Note that the superimposing unit 13 may correct the superimposed image so as to enlarge or reduce it in accordance with the aspect ratio of the display device 7. The created superimposed image is output to the display device 7. As a result, an image showing the cleaned area or the uncleaned area is presented to the user via the display device 7.

なお、作成された重畳画像は、表示日時の情報とともに、画像履歴記憶部15に履歴として記憶させるようにしてもよい。ここでの表示日時の情報とは、例えば重畳部13が、表示装置7に対して重畳画像を出力した日時とすればよい。 Note that the created superimposed image may be stored as a history in the image history storage section 15 together with information on the display date and time. The display date and time information here may be, for example, the date and time when the superimposing unit 13 outputs the superimposed image to the display device 7.

1-2.実施の形態1に係る掃除支援システムの動作
次に、図を参照して、実施の形態1に係る掃除支援システムの動作について説明する。図9は、実施の形態1に係る掃除支援システムにおいて実行されるルーチンのフローチャートである。
1-2. Operation of the cleaning support system according to the first embodiment Next, the operation of the cleaning support system according to the first embodiment will be described with reference to the drawings. FIG. 9 is a flowchart of a routine executed in the cleaning support system according to the first embodiment.

まず、ステップS100では、電気掃除機1の操作が開始されたか否かが判定される。ここでは、入力受付部17が電気掃除機1から操作開始情報を受け付けたか否かが判定される。その結果、入力受付部17が操作開始情報を受け付けていない場合には、ステップS100の処理が繰り返し実行される。一方、入力受付部17が操作開始情報を受け付けた場合には、処理は次のステップS102へと移行する。 First, in step S100, it is determined whether or not operation of the vacuum cleaner 1 has started. Here, it is determined whether the input reception unit 17 has received operation start information from the vacuum cleaner 1. As a result, if the input receiving unit 17 has not received the operation start information, the process of step S100 is repeatedly executed. On the other hand, if the input receiving unit 17 receives the operation start information, the process moves to the next step S102.

ステップS102では、位置情報検出部10においてヘッド部2の位置情報が検出される。次のステップS104では、検出された位置情報にその取得日時の情報を対応付けた位置履歴情報が位置履歴記憶部14に順次記憶される。 In step S102, position information of the head section 2 is detected by the position information detection section 10. In the next step S104, position history information in which the detected position information is associated with information on the acquisition date and time is sequentially stored in the position history storage unit 14.

次のステップS104では、領域判別部11において領域判別情報が作成される。ここでは、領域判別部11は、ヘッド部2の位置情報及びその取得日時を含んだ位置履歴情報を順次取得し、掃除対象領域内におけるヘッド部2の移動軌跡を掃除済領域として判別する。そして、領域判別部11は、掃除済領域に対応する座標を領域判別情報として出力する。 In the next step S104, area discrimination information is created in the area discrimination section 11. Here, the area determination unit 11 sequentially acquires position history information including the position information of the head unit 2 and the acquisition date and time, and determines the movement trajectory of the head unit 2 within the cleaning target area as a cleaned area. Then, the area determination unit 11 outputs the coordinates corresponding to the cleaned area as area determination information.

次のステップS106では、画像作成部12において作成画像が作成される。画像作成部12には、領域判別部11において作成された領域判別情報と、表示規則記憶部16に記憶されている表示規則とが入力される。領域判別部11は、入力された表示規則に従い、領域判別情報から判別される掃除済領域と未掃除領域とを視覚的に区別可能とした作成画像を作成する。 In the next step S106, a created image is created in the image creation section 12. The area discrimination information created by the area discrimination unit 11 and the display rules stored in the display rule storage unit 16 are input to the image creation unit 12 . The area determination unit 11 creates an image that allows visually distinguishing between a cleaned area and an uncleaned area determined from the area determination information, according to the input display rule.

次のステップS108では、重畳部13において重畳画像が作成される。重畳部13には、画像作成部12において作成された作成画像と、位置情報取得装置6において取得された撮像画像とが入力される。重畳部13は、入力された撮像画像に作成画像を重ね合わせることにより、重畳画像を作成する。 In the next step S108, a superimposed image is created in the superimposing unit 13. The created image created by the image creation unit 12 and the captured image acquired by the position information acquisition device 6 are input to the superimposition unit 13 . The superimposing unit 13 creates a superimposed image by superimposing the created image on the input captured image.

次のステップS110では、重畳画像が表示装置7に出力される。次のステップS112では、電気掃除機1の操作が終了されたか否かが判定される。なお、ここで判断される操作の終了とは、一連の掃除動作の終了をいう。位置情報検出部10は、例えば、操作開始情報に基づいて、電気掃除機1の操作部402の操作により吸引動作の停止が指示されたか否か、一定時間吸引動作の停止の状態が継続したか否か、又は、日付が変わったか否か等の情報とに基づき、一連の掃除動作が終了したかどうかを判定する。その結果、電気掃除機1の操作が未だ終了されていない場合には、処理は再びステップS102の処理に移行し、以降の処理を繰り返し行う。一方、電気掃除機1の操作が終了された場合には、本ルーチンの処理は終了される。 In the next step S110, the superimposed image is output to the display device 7. In the next step S112, it is determined whether the operation of the vacuum cleaner 1 has been completed. Note that the end of the operation determined here means the end of a series of cleaning operations. For example, based on the operation start information, the position information detection unit 10 determines whether or not a command to stop the suction operation is given by operating the operation unit 402 of the vacuum cleaner 1, and whether the state in which the suction operation is stopped for a certain period of time continues. Based on information such as whether the date has changed or whether the date has changed, it is determined whether the series of cleaning operations have been completed. As a result, if the operation of the vacuum cleaner 1 has not been completed yet, the process returns to step S102, and the subsequent processes are repeated. On the other hand, when the operation of the vacuum cleaner 1 is finished, the processing of this routine is finished.

以上のような制御工程による掃除支援方法によれば、使用者は、電気掃除機1を用いた掃除動作中にリアルタイムで掃除済領域と未掃除領域を一別することができ、掃除の質及び効率が向上する。 According to the cleaning support method using the control process as described above, the user can distinguish between the cleaned area and the uncleaned area in real time during the cleaning operation using the vacuum cleaner 1, thereby improving the quality of cleaning and Increased efficiency.

1-3.実施の形態1に係る掃除支援システムの変形例
実施の形態1に係る掃除支援システム5は、例えば以下のように変形した形態を採用してもよい。
1-3. Modifications of the cleaning support system according to the first embodiment The cleaning support system 5 according to the first embodiment may be modified as follows, for example.

掃除支援システム5の動作は、電気掃除機1の動作と連動していなくてもよい。すなわち、掃除支援システム5による動作開始は、例えば電気掃除機1の操作を開始した際に手動でシステムを起動させることとしてもよい。なお、上述のシステムの起動のタイミングは掃除動作の開始時に限らず、前もって起動していてもよい。また、電気掃除機1の操作開始後の任意のタイミングでシステムを起動することとしてもよい。 The operation of the cleaning support system 5 does not need to be linked to the operation of the vacuum cleaner 1. That is, the cleaning support system 5 may start the operation by manually starting the system when, for example, the operation of the vacuum cleaner 1 is started. Note that the timing of starting the above-mentioned system is not limited to the start of the cleaning operation, but may be started in advance. Further, the system may be started at an arbitrary timing after the operation of the vacuum cleaner 1 is started.

位置情報取得装置6は、3D距離センサでもよい。この場合、位置情報検出部10は、位置情報取得装置6としての3D距離センサから取得したヘッド部2の色又は形状を、既存の画像認識の技術で追跡するようにしてもよい。 The position information acquisition device 6 may be a 3D distance sensor. In this case, the position information detection unit 10 may track the color or shape of the head unit 2 acquired from the 3D distance sensor as the position information acquisition device 6 using existing image recognition technology.

また、位置情報取得装置6は、掃除対象領域、電気掃除機1、又は表示装置7等に複数配置された超音波送受信センサ、wifi通信センサ、又は屋内GPS(Global Positioning System)等でもよい。この場合、位置情報検出部10は、これらのセンサ類から得られる情報に基づいて、ヘッド部2の位置等を検出するようにしてもよい。なお、上述の位置情報取得装置6は一例に過ぎず、例えば、位置情報取得装置6をカメラとし、カメラを掃除対象領域に複数台設置するようにしてもよい。位置情報取得装置6が単一のカメラで構成されていると、例えば遮蔽物がある場合にヘッド部2を精度よく検出できない場合がある。この点、位置情報取得装置6としてのカメラを複数個配置することで、位置情報検出部10は、複数の情報に基づいてヘッド部2の位置を精度よく検出することができる。 Further, the position information acquisition device 6 may be an ultrasonic transmitting/receiving sensor, a Wi-Fi communication sensor, an indoor GPS (Global Positioning System), etc. arranged in the cleaning target area, the vacuum cleaner 1, the display device 7, or the like. In this case, the position information detection unit 10 may detect the position of the head unit 2, etc. based on information obtained from these sensors. Note that the above-described location information acquisition device 6 is only an example, and for example, the location information acquisition device 6 may be a camera, and a plurality of cameras may be installed in the area to be cleaned. If the position information acquisition device 6 is configured with a single camera, it may not be possible to accurately detect the head portion 2, for example, when there is an obstruction. In this regard, by arranging a plurality of cameras as the position information acquisition device 6, the position information detection section 10 can accurately detect the position of the head section 2 based on a plurality of pieces of information.

位置情報取得装置6は、ヘッド部2の位置情報を取得可能な配置であれば、電気掃除機1の操作部402の周辺に設置される構成でもよいし、また、他の場所に設置される構成でもよい。例えば、位置情報取得装置6は、ヘッド部2に設置するようにしてもよい。位置情報検出部10は、ヘッド部2に設置された位置情報取得装置6からの情報に基づいて、掃除対象領域の形状又は色等を追跡する。これにより、位置情報検出部10は、掃除対象領域に対するヘッド部の位置又は方向を検知する。この際、加速度センサ又は方位センサを合わせて用いるようにしてもよい。 The position information acquisition device 6 may be installed around the operation unit 402 of the vacuum cleaner 1 as long as the position information of the head unit 2 can be acquired, or it may be installed at another location. It can also be a configuration. For example, the position information acquisition device 6 may be installed in the head section 2. The position information detection unit 10 tracks the shape, color, etc. of the area to be cleaned based on information from the position information acquisition device 6 installed in the head unit 2. Thereby, the position information detection section 10 detects the position or direction of the head section with respect to the area to be cleaned. At this time, an acceleration sensor or a direction sensor may also be used.

このように、位置情報取得装置6を電気掃除機1の構成部品に設置することにより、例えば複数の部屋に分かれた掃除対象領域のそれぞれに位置情報取得装置6を設置することが不要となる。これにより、複数の部屋を掃除する場合であっても、単一の位置情報取得装置6によって対応することが可能となる。また、位置情報取得装置6の設置を簡易化することも可能となる。 By installing the position information acquisition device 6 in a component of the vacuum cleaner 1 in this way, it becomes unnecessary to install the position information acquisition device 6 in each of the cleaning target areas divided into a plurality of rooms, for example. This makes it possible to clean multiple rooms using a single location information acquisition device 6. Furthermore, it is also possible to simplify the installation of the position information acquisition device 6.

操作部402の周辺に位置情報取得装置6を設置するようにした場合、位置情報取得装置6とヘッド部2の間に遮蔽物がある場合に、位置情報を取得できないおそれがある。この点、ヘッド部2に位置情報取得装置6を設置するようにした場合、位置情報取得装置6とヘッド部2の間に遮蔽物が入り込むことがないため、位置情報取得装置6が位置情報を取得できない事態を回避することができる。 In the case where the position information acquisition device 6 is installed around the operation unit 402, if there is a shield between the position information acquisition device 6 and the head unit 2, there is a possibility that the position information cannot be acquired. In this regard, when the position information acquisition device 6 is installed in the head section 2, there is no obstruction between the position information acquisition device 6 and the head section 2. It is possible to avoid situations where the information cannot be acquired.

また、位置情報取得装置6として、例えば絶対的な位置を検知する装置と相対的な位置を検知する装置とを組み合わせて用いることとしてもよい。すなわち、掃除支援システム5は、位置情報取得装置6として、掃除対象領域を撮像可能な位置にカメラを設置し、さらに、ヘッド部2の位置に相対位置取得センサを設置するようにしてもよい。相対位置取得センサは、例えば、センサ自身の移動前の位置からの相対位置を検出する。カメラのみを用いてヘッド部2の位置を検出する場合、例えば、カメラとヘッド部2との間に遮蔽物が存在する場合、当該遮蔽物に遮られてヘッド部の位置を検出できないことがある。これに対し、ヘッド部2の位置に設置された相対位置取得センサによれば、ヘッド部2の相対位置を常に把握することができるため、遮蔽物の問題は解決する。 Further, as the position information acquisition device 6, for example, a device that detects an absolute position and a device that detects a relative position may be used in combination. That is, in the cleaning support system 5, a camera may be installed as the position information acquisition device 6 at a position where the area to be cleaned can be imaged, and a relative position acquisition sensor may be further installed at the position of the head section 2. The relative position acquisition sensor detects, for example, the relative position of the sensor itself from the position before movement. When detecting the position of the head unit 2 using only a camera, for example, if there is a shield between the camera and the head unit 2, the position of the head unit may not be detected due to the shield. . On the other hand, according to the relative position acquisition sensor installed at the position of the head section 2, the relative position of the head section 2 can be always grasped, so that the problem of the obstruction is solved.

ただし、相対位置取得センサは、検出される相対位置に、徐々に誤差が蓄積してしまうという問題がある。そこで、カメラと相対位置取得センサをあわせて用い、掃除支援装置8の制御部(図示省略)において、カメラで撮像された撮像画像に基づいて、予め定められた間隔で、相対位置取得センサに蓄積された誤差のリセットを行う。このように、絶対的な位置を検知する装置と、相対的な位置を検知する装置とを組み合わせて用いることにより、カメラのみでは遮蔽物によってヘッド部の位置を検出できないという問題、および、相対位置取得センサのみでは検出した自身の相対的な位置に誤差が生じるという問題をともに解決し、ヘッド部2の位置検知精度をより高めることができる。 However, the relative position acquisition sensor has a problem in that errors gradually accumulate in the detected relative position. Therefore, a camera and a relative position acquisition sensor are used together, and in the control unit (not shown) of the cleaning support device 8, the images are stored in the relative position acquisition sensor at predetermined intervals based on the captured images taken by the camera. Reset the errors that were made. In this way, by using a combination of a device that detects the absolute position and a device that detects the relative position, it is possible to solve the problem that the camera alone cannot detect the position of the head due to obstructions, and to solve the problem of the relative position detection. This solves the problem that an error occurs in the relative position detected by using only the acquisition sensor, and it is possible to further improve the accuracy of detecting the position of the head section 2.

位置情報検出部10は、位置情報取得装置6から取得した情報に加えて、更に地図情報を用いてヘッド部2の位置を検出してもよい。より詳しくは、掃除支援装置8は、予め部屋又は建物等の地図を記憶した地図記憶部を備えている。位置情報検出部10は、位置情報取得装置6から取得した情報に基づき得られたヘッド部2の位置情報と、地図記憶部に記憶されている地図情報とを照らし合わせることで、床座標系に対するヘッド部2の位置を取得する。このような構成によれば、位置情報検出部10は、位置情報取得装置6から取得した情報だけでなく、地図情報も参照してヘッド部2の位置の検出を行うため、位置検出の精度を向上させることができる。なお、このような構成の場合、画像作成部12は、掃除済領域だけでなく、地図情報も表示させる画像を作成するようにしてもよい。また、重畳部13は、作成した重畳画像を表示装置7に表示させる際、当該重畳画像とあわせて地図情報記憶部から取得した情報に基づく建物のフロア図等を示す画像を表示させるようにしてもよい。 In addition to the information acquired from the position information acquisition device 6, the position information detection unit 10 may detect the position of the head unit 2 using map information. More specifically, the cleaning support device 8 includes a map storage section that stores maps of rooms, buildings, etc. in advance. The position information detection unit 10 compares the position information of the head unit 2 obtained based on the information acquired from the position information acquisition device 6 with the map information stored in the map storage unit, thereby determining the position relative to the floor coordinate system. Obtain the position of the head section 2. According to such a configuration, the position information detection unit 10 detects the position of the head unit 2 by referring not only to the information acquired from the position information acquisition device 6 but also to the map information, so that the accuracy of position detection can be improved. can be improved. In addition, in the case of such a configuration, the image creation unit 12 may create an image that displays not only the cleaned area but also map information. Furthermore, when displaying the created superimposed image on the display device 7, the superimposing section 13 displays an image showing a floor plan of a building, etc. based on the information acquired from the map information storage section, along with the superimposed image. Good too.

さらに、例えば、複数の使用者が同一の掃除対象領域を掃除する場合、重畳部13は、各使用者が視認する表示装置7に対して、建物のフロア図等とあわせて、掃除対象領域における他の使用者も含めた掃除済領域に基づく画像を表示させてもよい。この場合、掃除支援装置8の制御部は、各使用者からの指示を受け付る。そして、制御部は、受け付けた指示に応じて、例えば「使用者-1」と「使用者-2」等、各使用者が視認する表示装置7に表示させている画像の切り替えを行うようにすることもできる。これにより、例えば、複数の使用者が同一の掃除対象領域を掃除する場合、他の使用者が視認する表示装置7に表示されているフロア図等を参考にして、掃除領域を分担して協調作業を行うことが可能となる。 Further, for example, when a plurality of users clean the same area to be cleaned, the superimposing unit 13 displays a map of the area to be cleaned together with a floor plan of the building, etc. on the display device 7 that each user visually recognizes. Images based on cleaned areas including those of other users may also be displayed. In this case, the control unit of the cleaning support device 8 receives instructions from each user. Then, the control unit switches the images displayed on the display device 7 visually recognized by each user, such as "user-1" and "user-2", according to the received instructions. You can also. As a result, for example, when multiple users clean the same area to be cleaned, they can share the cleaning area and cooperate by referring to the floor plan displayed on the display device 7 that is visible to other users. It becomes possible to perform work.

位置情報検出部10が、ヘッド部2の位置情報としてヘッド部2の大きさを検出している場合には、ヘッド部2の移動範囲を位置情報として領域判別部11に出力することとしてもよい。この場合、領域判別部11は、位置情報として入力されたヘッド部2の移動範囲を、掃除済領域と判別する。表示規則記憶部16には、ヘッド部2の移動範囲を赤色で塗りつぶす、といった表示規則が記憶されている。画像作成部12は、このような表示規則に従い、掃除済領域を赤色で塗りつぶした作成画像を作成する。 When the position information detection section 10 detects the size of the head section 2 as the position information of the head section 2, the movement range of the head section 2 may be outputted to the area determination section 11 as the position information. . In this case, the area determination unit 11 determines the movement range of the head unit 2 input as position information as a cleaned area. The display rule storage section 16 stores a display rule such as filling the movement range of the head section 2 in red. The image creation unit 12 creates an image in which the cleaned area is filled in red in accordance with such display rules.

位置情報検出部10は、掃除対象領域の特徴点又は特徴線を検出する構成を備えていてもよい。掃除対象領域の特徴点又は特徴線とは、掃除対象領域の座標を把握することが可能な点または線である。位置情報検出部10は、撮像画像に含まれる背景から特徴的な点または線、つまり特徴点または特徴線を抽出し、掃除対象領域の位置の把握を行う。このように、位置情報検出部10は、掃除対象領域の特徴点又は特徴線を認識することによって、ヘッド部2の位置と、掃除対象領域の特徴点又は特徴線を対応付けてもよい。なお、特徴点の抽出の方法に限定はない。位置情報検出部10は、例えば点群データを用いて特徴点を抽出してもよい。 The position information detection unit 10 may be configured to detect feature points or feature lines of the area to be cleaned. A feature point or a feature line of the area to be cleaned is a point or line from which the coordinates of the area to be cleaned can be determined. The position information detection unit 10 extracts characteristic points or lines, that is, characteristic points or lines, from the background included in the captured image, and determines the position of the area to be cleaned. In this manner, the position information detection unit 10 may associate the position of the head unit 2 with the feature points or feature lines of the cleaning target area by recognizing the feature points or feature lines of the cleaning target area. Note that there is no limitation on the method of extracting feature points. The position information detection unit 10 may extract feature points using point cloud data, for example.

掃除支援装置8は、平面検出部をさらに備えていてもよい。例えば平面検出部は、3点の座標を抽出することによりこれらの点を含む特定平面を検出することができる。また、掃除支援装置8は、以下の方法によって、4点以上からなる点群から平面を検出することもできる。 The cleaning support device 8 may further include a plane detection section. For example, the plane detection unit can detect a specific plane including the three points by extracting the coordinates of these points. Further, the cleaning support device 8 can also detect a plane from a point group consisting of four or more points by the following method.

4点以上からなる点群から平面を検出する場合、平面検出部は、まず点群の各点の座標を抽出する。次に、平面検出部は、例えばRANSACを用いて、それらしい平面を見つける。次に、平面検出部は、最小二乗法を用いて、点群に対して残差の二乗和が最小となる、つまり最もフィットする平面を算出する。演算に用いる点群は、例えば特徴点を用いてもよい。点群は、例えば特徴線の一部を用いてもよい。特徴点は、カメラ等の位置情報取得装置6の映像から取得する。特徴点の座標は、例えばジャイロ又は距離を加味した上で三角測量によって算出する。このような技術によれば、毎秒100以上の座標を取得することができる。また、現実空間の物体の位置を点座標の集合として取得できる。また、開始から数秒程度で検出可能である。 When detecting a plane from a point group consisting of four or more points, the plane detection unit first extracts the coordinates of each point in the point group. Next, the plane detection unit finds a suitable plane using, for example, RANSAC. Next, the plane detection unit uses the least squares method to calculate a plane with the minimum sum of squares of residual errors, that is, a plane that best fits the point group. For example, feature points may be used as the point group used in the calculation. For example, a part of a characteristic line may be used as the point group. The feature points are acquired from images captured by a position information acquisition device 6 such as a camera. The coordinates of the feature points are calculated, for example, by a gyro or by triangulation taking distance into consideration. According to such technology, more than 100 coordinates can be acquired every second. Additionally, the position of an object in real space can be obtained as a set of point coordinates. Furthermore, it can be detected within a few seconds from the start.

画像作成部12は、ヘッド部2の位置の移動軌跡等に基づいて掃除済領域に配色を施した作成画像を作成することとしていた。しかしながら、画像作成部12は、移動軌跡等に基づいて、未掃除領域に配色を施した作成画像を作成することとしてもよい。この場合、画像作成部12は、未掃除領域における未掃除領域を塗りつぶした作成画像を作成する。重畳部13では、撮像画像と作成画像を重畳した重畳画像が作成される。表示装置7には重畳画像が表示される。全ての領域が未掃除領域である掃除開始前には、掃除対象領域の全体が塗りつぶされた重畳画像が表示される。未掃除領域の掃除を行うことにより、掃除済領域となった箇所は、塗りつぶしが塗り消されるように表示される。 The image creation unit 12 creates an image in which the cleaned area is colored based on the movement locus of the position of the head unit 2 and the like. However, the image creation unit 12 may create an image in which the uncleaned area is colored based on the movement trajectory or the like. In this case, the image creation unit 12 creates an image in which the uncleaned area in the uncleaned area is filled in. The superimposing unit 13 creates a superimposed image by superimposing the captured image and the created image. A superimposed image is displayed on the display device 7. Before starting cleaning when all areas are uncleaned areas, a superimposed image in which the entire area to be cleaned is filled in is displayed. By cleaning the uncleaned area, the area that has become a cleaned area is displayed so that the area is not filled in.

掃除支援装置8は、撮像画像に含まれる平面を検出する平面検出部を備えていてもよい。平面検出部は、位置情報取得装置6により取得された撮像画像から、既存の平面検出技術によって特定の平面を検出する。より詳しくは、平面検出部は、既存の技術により、撮像画像から3点以上の特徴点を抽出する。そして、取得した特徴点の座標から、最小二乗法により、複数の特徴点の点群に対して、残差の二乗和が最小となる平面を検出する。これにより、3点以上の特徴点を含む特定平面を検出することが可能となる。 The cleaning support device 8 may include a plane detection unit that detects a plane included in the captured image. The plane detection unit detects a specific plane from the captured image acquired by the position information acquisition device 6 using an existing plane detection technique. More specifically, the plane detection unit extracts three or more feature points from the captured image using existing technology. Then, from the coordinates of the acquired feature points, a plane with a minimum sum of squares of residual errors is detected for a group of multiple feature points using the least squares method. This makes it possible to detect a specific plane that includes three or more feature points.

例えば画像作成部12が未掃除領域を塗りつぶした作成画像を作成する場合、床面以外にも、例えば壁面、机又はモノ等も塗りつぶされてしまう。この場合、全てをヘッド部2で掃除し、塗り消すことは困難であり、また、わずらわしくもある。そこで、平面検出部により、塗り消す範囲を限定してもよい。より詳しくは、平面検出部は、特定平面として床面を検出する。そして、画像作成部12は、平面検出部によって検出された床面において、未掃除領域と掃除済領域とを区別した作成画像を作成する。これにより、例えば、床面のみが塗りつぶされた状態となり、塗りつぶされた領域を掃除することで、掃除済領域が塗り消される。このため、掃除しない床面以外の場所が塗りつぶされているというわずらわしさがなく、快適に使用できる。また、塗りつぶされた画像が消えていくことの爽快感が得られる。 For example, when the image creation unit 12 creates an image in which the uncleaned area is filled in, in addition to the floor surface, for example, a wall surface, a desk, an object, etc. are also filled out. In this case, it is difficult and troublesome to clean and erase everything with the head section 2. Therefore, the range to be painted out may be limited by the plane detection section. More specifically, the plane detection section detects a floor surface as a specific plane. Then, the image creation unit 12 creates an image that distinguishes uncleaned areas and cleaned areas on the floor surface detected by the plane detection unit. As a result, for example, only the floor surface is painted over, and by cleaning the painted area, the cleaned area is erased. This eliminates the trouble of having areas other than the floor surface that is not cleaned covered with paint, making it comfortable to use. Also, you can get the refreshing feeling of seeing a filled-in image disappear.

重畳部13は、位置情報取得装置6から取得した撮像画像に作成画像を重畳させた重畳画像を、使用者の視点から見た画像に変換してもよい。具体的には、例えば、重畳部13は、既存の画像処理技術を用いて、位置情報取得装置6から取得した撮像画像から使用者の頭部、顔又は眼球を検出する。そして、頭部又は顔の向き、位置、又は眼球の動きから使用者の視線方向を算出し、その算出結果に基づいて、作成した重畳画像を使用者の視点から見た画像に変換するようにすればよい。なお、重畳画像を使用者の視点から見た画像に変換する動作については、後述する他の実施の形態において詳しく説明する。 The superimposing unit 13 may convert a superimposed image obtained by superimposing the created image onto the captured image obtained from the position information acquisition device 6 into an image seen from the user's viewpoint. Specifically, for example, the superimposing unit 13 detects the user's head, face, or eyeball from the captured image acquired from the position information acquisition device 6 using existing image processing technology. Then, the user's line of sight direction is calculated from the direction and position of the head or face, or the movement of the eyeballs, and based on the calculation results, the created superimposed image is converted into an image seen from the user's perspective. do it. Note that the operation of converting the superimposed image into an image seen from the user's viewpoint will be described in detail in other embodiments to be described later.

位置情報取得装置6と表示装置7と掃除支援装置8は、一体化された共通の端末に含まれるように構成されていてもよい。このような端末としては、例えばカメラ付きの携帯型端末を利用することができる。図10は、携帯型端末として構成された掃除支援装置の構成を示す図である。この図に示す例では、掃除支援装置8としての携帯型端末は、正面側に表示装置7としてのタッチパネルが設けられ、背面側に位置情報取得装置6としてのカメラが設けられている。このような構成によれば、掃除対象領域を撮像するカメラの設置が不要となる。また、重畳部13が、重畳画像を表示装置7のアスペクト比にあわせて拡大又は縮小する処理も不要となる。 The position information acquisition device 6, the display device 7, and the cleaning support device 8 may be configured to be included in an integrated common terminal. As such a terminal, for example, a portable terminal with a camera can be used. FIG. 10 is a diagram showing the configuration of a cleaning support device configured as a portable terminal. In the example shown in this figure, the portable terminal as the cleaning support device 8 is provided with a touch panel as the display device 7 on the front side, and a camera as the position information acquisition device 6 on the back side. According to such a configuration, it is not necessary to install a camera to take an image of the area to be cleaned. Further, the process of enlarging or reducing the superimposed image in accordance with the aspect ratio of the display device 7 by the superimposing unit 13 becomes unnecessary.

位置情報取得装置6は、掃除対象領域となる部屋に設置されたPC又はテレビ等の装置が備えるカメラを利用してもよい。この場合、表示装置7は、当該PC又はテレビ等の装置が備える表示装置を利用し、重畳画像を当該PC又はテレビ等の画面に表示させるようにしてもよい。 The position information acquisition device 6 may utilize a camera included in a device such as a PC or a television installed in the room that is the area to be cleaned. In this case, the display device 7 may display the superimposed image on the screen of the PC or television by using a display device included in the device, such as the PC or television.

上述のように位置情報取得装置6と表示装置7の共通の端末としてPC又はテレビ等の装置を用いる場合、具体的には、重畳部13は、領域判別部11が判別した掃除済領域又は未掃除領域に対応する作成画像を取得する。そして、重畳部13は、PCまたはテレビ等の装置に搭載されているカメラから撮像画像を取得し、取得した作成画像を撮像画像に重畳させた重畳画像を作成する。重畳部13は、当該重畳画像を、PCまたはテレビ等の装置に搭載されている表示部に表示させる。 When a device such as a PC or a television is used as a common terminal for the location information acquisition device 6 and the display device 7 as described above, specifically, the superimposition unit 13 is configured to display the cleaned area or uncleaned area determined by the area determination unit 11. Obtain a created image corresponding to the cleaning area. Then, the superimposing unit 13 obtains a captured image from a camera installed in a device such as a PC or a television, and creates a superimposed image by superimposing the obtained created image on the captured image. The superimposing unit 13 displays the superimposed image on a display unit installed in a device such as a PC or a television.

PCまたはテレビ等の装置が搭載している表示部に重畳画像を表示させる際、重畳部13は、使用者から見て表示部に表示される重畳画像が、鏡に映る画像のように表示されるように、重畳画像を左右反転させて表示部に表示させるように補正する。また、重畳部13は、重畳画像を、表示部のアスペクト比にあわせて拡大または縮小するように補正する。このように、部屋等に設置されているPCまたはテレビ等の装置が搭載しているカメラを位置情報取得装置6とする場合も、既存の装置が備えるカメラを利用することができ、掃除対象領域を撮像するカメラの設置を不要とすることができる。また、重畳部13は、重畳画像を左右反転させて表示させることで、使用者がより掃除状況を把握しやすくすることができる。 When displaying a superimposed image on a display unit installed in a device such as a PC or a television, the superimposing unit 13 displays the superimposed image displayed on the display unit as seen from the user like an image reflected in a mirror. The superimposed image is corrected so that it is displayed on the display unit by horizontally inverting the superimposed image. Further, the superimposing unit 13 corrects the superimposed image so as to enlarge or reduce the superimposed image according to the aspect ratio of the display unit. In this way, even when using a camera installed in a device such as a PC or television set installed in a room as the location information acquisition device 6, the camera equipped with an existing device can be used, and the area to be cleaned can be It is possible to eliminate the need to install a camera to take images. Moreover, the superimposing unit 13 can make it easier for the user to understand the cleaning situation by displaying the superimposed image in a horizontally inverted manner.

また、重畳部13は、PCまたはテレビ等の装置に搭載されているカメラから取得した撮像画像に掃除済領域または未掃除領域に対応する作成画像を重畳させた重畳画像を、使用者の視点から見た画像に変換して、PCまたはテレビ等の装置に搭載されている表示部に表示させるようにしてもよい。この場合、具体的には、重畳部13は、既存の画像処理技術を用いて、PCまたはテレビ等の装置に搭載されているカメラから取得した撮像画像から使用者の頭部、顔又は眼球を検出する。そして、使用者の頭部又は顔の向き、位置、又は眼球の動きから視線方向を算出し、その算出結果に基づいて、作成した重畳画像を使用者の視点から見た画像に変換するようにすればよい。 The superimposing unit 13 also displays a superimposed image obtained by superimposing a created image corresponding to a cleaned area or an uncleaned area on a captured image obtained from a camera installed in a device such as a PC or a television, from the user's viewpoint. The image may be converted into a viewed image and displayed on a display unit installed in a device such as a PC or a television. In this case, specifically, the superimposing unit 13 uses existing image processing technology to image the user's head, face, or eyeballs from a captured image obtained from a camera installed in a device such as a PC or a television. To detect. Then, the line of sight direction is calculated from the direction and position of the user's head or face, or the movement of the eyeballs, and based on the calculation results, the created superimposed image is converted into an image seen from the user's viewpoint. do it.

重畳部13が作成した重畳画像を、通信I/F装置を介して、表示装置7に表示させてもよい。例えば、表示装置7が掃除対象領域を含む空間の外部に存在する場合、重畳部13は、作成した重畳画像を通信I/F装置を介して外部の表示装置7に表示させるようにすることができる。これにより、例えば、掃除の管理者等の第三者が、掃除対象領域を含む部屋等の空間の外部からでも、掃除の状況を確認することが可能となる。 The superimposed image created by the superimposing unit 13 may be displayed on the display device 7 via a communication I/F device. For example, when the display device 7 exists outside the space including the area to be cleaned, the superimposing unit 13 may display the created superimposed image on the external display device 7 via the communication I/F device. can. This allows a third party, such as a cleaning manager, to check the cleaning status even from outside the room or other space that includes the area to be cleaned.

掃除支援システム5は、さらに発光手段9を備えていてもよい。発光手段9は、例えば掃除対象領域、被清掃面、ヘッド部2およびその周辺を明るくするためのものである。発光手段9は、例えば表示装置7とは異なる位置に備えられている。図10に示すように、例えば、発光手段9、位置情報取得装置6及び表示装置7が同一の携帯型端末に備えられている場合、発光手段9は、表示装置7と異なる位置、例えば、表裏反対となる面に配置されていてもよい。発光手段9は、例えばLEDである。発光手段9の照射方向と位置情報取得装置6としてのカメラの光軸は、平行または略平行に設けられる。発光手段9は、必要に応じて既存技術によりON-OFFが変更できるように構成されていてもよい。これにより、撮像画像の明度が向上するので、精度よく特徴点を取得することが可能となる。 The cleaning support system 5 may further include a light emitting means 9. The light emitting means 9 is for illuminating, for example, the area to be cleaned, the surface to be cleaned, the head section 2, and its surroundings. The light emitting means 9 is provided at a different position from the display device 7, for example. As shown in FIG. 10, for example, when the light emitting means 9, the position information acquisition device 6, and the display device 7 are provided in the same portable terminal, the light emitting means 9 is located at a different position than the display device 7, for example, on the front and back. It may be arranged on the opposite surface. The light emitting means 9 is, for example, an LED. The irradiation direction of the light emitting means 9 and the optical axis of the camera as the position information acquisition device 6 are parallel or substantially parallel. The light emitting means 9 may be configured so that ON/OFF can be changed by existing technology as necessary. This improves the brightness of the captured image, making it possible to acquire feature points with high accuracy.

掃除支援システム5の構成及び機能は、一つの端末に集約されていてもよい。位置情報取得装置6は光軸を有するレンズを有する。また、表示装置7は、例えば、平面部を有し、平面部に画像が表示される。表示装置7は、少なくとも一部が平らな平面部を有する。表示装置7は、例えば大部分が丸みのない平面状に形成される。光軸は、表示部、または表示部の平面に対して、垂直または略垂直な位置関係としてもよい。また、位置情報取得装置6による撮影方向または撮像方向は、表示部または表示部の平面に対して、垂直または略垂直な位置関係としてもよい。光軸は、例えば生き物でいう視線である。光軸と表示部が垂直な位置関係であることにより、表示された情報を視認しやすい。略垂直とは垂直に対して、±10°、好ましくは±5°の範囲である。 The configuration and functions of the cleaning support system 5 may be integrated into one terminal. The position information acquisition device 6 has a lens having an optical axis. Further, the display device 7 has, for example, a flat portion, and an image is displayed on the flat portion. The display device 7 has a flat surface portion, at least a portion of which is flat. The display device 7 is formed, for example, in a planar shape with most of the part not rounded. The optical axis may be perpendicular or substantially perpendicular to the display section or the plane of the display section. Further, the photographing direction or the imaging direction by the position information acquisition device 6 may be perpendicular or substantially perpendicular to the display unit or the plane of the display unit. The optical axis is, for example, the line of sight in living things. Since the optical axis and the display section are perpendicular to each other, it is easy to visually recognize the displayed information. Substantially perpendicular means a range of ±10°, preferably ±5° with respect to the vertical.

掃除支援システム5の掃除支援装置8が備える各機能は、例えば以下のように構成されていてもよい。図11は、実施の形態1に係る掃除支援装置のハードウェア構成の一例を示す図である。また、図12は、実施の形態1に係る掃除支援装置のハードウェア構成の他の例を示す図である。実施の形態1において、掃除支援装置8の各機能は、処理回路22により実現される。例えば、掃除支援装置8は、位置情報取得装置6により撮像画像を取得し、撮像画像から領域判別部11により領域を判別し、領域判別部11の結果から画像作成部12にて作成画像を作成し、重畳部13により撮像画像と作成画像を重畳した重畳画像を作成し、重畳画像を表示装置7に表示させる制御を行うための処理回路22を備える。処理回路22は、図11に示すように専用のハードウェアであってもよいし、図12に示すようにメモリ25に格納されるプログラムを実行するCPU(Central Processing Unit)26であってもよい。 Each function provided in the cleaning support device 8 of the cleaning support system 5 may be configured as follows, for example. FIG. 11 is a diagram illustrating an example of the hardware configuration of the cleaning support device according to the first embodiment. Further, FIG. 12 is a diagram showing another example of the hardware configuration of the cleaning support device according to the first embodiment. In the first embodiment, each function of the cleaning support device 8 is realized by the processing circuit 22. For example, in the cleaning support device 8, the position information acquisition device 6 acquires a captured image, the area determination unit 11 determines an area from the captured image, and the image creation unit 12 creates an image based on the result of the area determination unit 11. The superimposing unit 13 creates a superimposed image by superimposing the captured image and the created image, and includes a processing circuit 22 for controlling the display device 7 to display the superimposed image. The processing circuit 22 may be dedicated hardware as shown in FIG. 11, or may be a CPU (Central Processing Unit) 26 that executes a program stored in the memory 25 as shown in FIG. .

処理回路22が専用のハードウェアである場合、処理回路22は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。 When the processing circuit 22 is dedicated hardware, the processing circuit 22 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Circuit). Gate Array), or a combination of these.

処理回路22がCPU26の場合、位置情報検出部と、領域判別部と、画像作成部の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、例えば、位置情報検出部10と、領域判別部11と、画像作成部12と、重畳部13とは、HDD(Hard Disk Drive)23、メモリ25等に記憶されたプログラムを実行するCPU26、システムLSI(Large-Scale Integration)等の処理回路22により実現される。また、HDD23、メモリ25等に記憶されたプログラムは、位置情報検出部10と、領域判別部11と、画像作成部12の手順又は方法をコンピュータに実行させるものであるとも言える。ここで、メモリ25とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性または揮発性の半導体メモリ、又は磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。 When the processing circuit 22 is the CPU 26, the functions of the position information detection section, area determination section, and image creation section are realized by software, firmware, or a combination of software and firmware. That is, for example, the position information detection unit 10, the area determination unit 11, the image creation unit 12, and the superimposition unit 13 include a CPU 26 that executes a program stored in an HDD (Hard Disk Drive) 23, a memory 25, etc. This is realized by a processing circuit 22 such as a system LSI (Large-Scale Integration). It can also be said that the programs stored in the HDD 23, the memory 25, etc. cause the computer to execute the procedures or methods of the position information detection section 10, the area discrimination section 11, and the image creation section 12. Here, the memory 25 includes, for example, RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electric Memory). Non-volatile memory such as Cally Erasable Programmable Read-Only Memory) This includes a flexible or volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), and the like.

なお、位置情報検出部10と、領域判別部11と、画像作成部12と重畳部13の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、一部は専用のハードウェアとしての処理回路22でその機能を実現し、位置情報検出部10と、領域判別部11と、画像作成部12と重畳部13については処理回路22がメモリ25に格納されたプログラムを読み出して実行することによってその機能を実現してもよい。位置履歴記憶部14と、表示規則記憶部16と、画像履歴記憶部15は、例えば、HDD23を使用する。なお、これは一例にすぎず、位置履歴記憶部14と、表示規則記憶部16は、DVD、メモリ等によって構成されるものであってもよい。また、掃除支援装置8は、位置情報取得装置6、表示装置7等の外部機器との通信を行う通信I/F装置24を有する。例えば、位置情報検出部10は、通信I/F装置24を利用して、位置情報取得装置6が撮像した映像を取得する。また、例えば、画像作成部12は、作成した画像を、通信I/F装置24を利用して、表示装置7に出力する。 Note that some of the functions of the position information detection section 10, the area discrimination section 11, the image creation section 12, and the superimposition section 13 are realized by dedicated hardware, and some are realized by software or firmware. It's okay. For example, some of the functions are realized by the processing circuit 22 as dedicated hardware, and the processing circuit 22 is implemented in the memory 25 for the position information detection section 10, area discrimination section 11, image creation section 12, and superimposition section 13. The function may be realized by reading and executing a program stored in the computer. The position history storage section 14, the display rule storage section 16, and the image history storage section 15 use, for example, the HDD 23. Note that this is just an example, and the position history storage section 14 and the display rule storage section 16 may be configured by a DVD, a memory, or the like. The cleaning support device 8 also includes a communication I/F device 24 that communicates with external devices such as the position information acquisition device 6 and the display device 7. For example, the position information detection unit 10 uses the communication I/F device 24 to acquire an image captured by the position information acquisition device 6. Further, for example, the image creation unit 12 outputs the created image to the display device 7 using the communication I/F device 24.

掃除支援装置8は、使用者に対して、掃除対象領域における掃除済領域または未掃除領域の領域をグレー等の色で提示するものとしてもよい。具体的には、画像作成部12は、領域判別部11が判別した掃除済領域に基づき、掃除対象領域において当該掃除済領域を除く領域を未掃除領域と判断し、掃除未実施の領域をグレー等の色とした画像を作成してもよい。 The cleaning support device 8 may present to the user a cleaned area or an uncleaned area in the cleaning target area in a color such as gray. Specifically, based on the cleaned area determined by the area determination unit 11, the image creation unit 12 determines that the area excluding the cleaned area in the cleaning target area is an uncleaned area, and grays out the area that has not been cleaned. You may also create an image with a color such as .

掃除支援装置8は、電気掃除機1の外部に設置されていてもよい。例えば、掃除支援装置8は、電気掃除機1と通信I/F装置24を介して通信し、電気掃除機1の駆動、停止等の制御情報等を取得するようにしてもよい。また、電気掃除機1との間で特別な通信手段を持たなくてもよい。また、掃除支援装置8は、電気掃除機1に搭載されるものとしてもよい。電気掃除機1と掃除支援装置8の間で特別な通信手段を持たない場合は、掃除の支援を任意に行う。また、掃除支援装置8が電気掃除機1と通信I/F装置24を介して通信する場合、又は掃除支援装置8が電気掃除機1に搭載される場合は、電気掃除機1と連携したより高度な支援が可能となる。 The cleaning support device 8 may be installed outside the vacuum cleaner 1. For example, the cleaning support device 8 may communicate with the vacuum cleaner 1 via the communication I/F device 24 to obtain control information such as driving, stopping, etc. of the vacuum cleaner 1. Moreover, it is not necessary to have a special means of communication with the vacuum cleaner 1. Further, the cleaning support device 8 may be mounted on the vacuum cleaner 1. When there is no special communication means between the vacuum cleaner 1 and the cleaning support device 8, cleaning support is performed arbitrarily. In addition, when the cleaning support device 8 communicates with the vacuum cleaner 1 via the communication I/F device 24, or when the cleaning support device 8 is installed in the vacuum cleaner 1, the Advanced support becomes possible.

また、掃除支援システム5の少なくとも一部は、例えばアプリケーションである。このようなアプリケーションは、例えば、コンピュータ、スマートフォン、スマートグラスなどの端末にダウンロードすることにより使用する。これにより、専用の端末を用いることなく、掃除を支援することができる。 Moreover, at least a part of the cleaning support system 5 is, for example, an application. Such applications are used by being downloaded to terminals such as computers, smartphones, and smart glasses. This makes it possible to support cleaning without using a dedicated terminal.

掃除支援装置8は、電気掃除機1に搭載されていてもよい。図13は、電気掃除機の構成の変形例を示すブロック図である。この図に示すように、電気掃除機1は、ヘッド部2から空気を吸い込む電動送風機405と、掃除支援装置8と、を備えている。図14は、電気掃除機の構成の他の変形例を示すブロック図である。図14に示す例では、電気掃除機1は、上述の電動送風機405と、掃除支援装置8とに加えて、更に表示装置7を搭載している。このような構成を備えた電気掃除機1においても、使用者の掃除の支援を行うことができる。 The cleaning support device 8 may be mounted on the vacuum cleaner 1. FIG. 13 is a block diagram showing a modified example of the configuration of the vacuum cleaner. As shown in this figure, the vacuum cleaner 1 includes an electric blower 405 that sucks air from the head portion 2 and a cleaning support device 8. FIG. 14 is a block diagram showing another modification of the configuration of the vacuum cleaner. In the example shown in FIG. 14, the vacuum cleaner 1 is equipped with a display device 7 in addition to the electric blower 405 and the cleaning support device 8 described above. The vacuum cleaner 1 having such a configuration can also assist the user in cleaning.

2.実施の形態2.
次に、実施の形態2の掃除支援システムについて説明する。
2. Embodiment 2.
Next, a cleaning support system according to a second embodiment will be explained.

2-1.実施の形態2の掃除支援システムの特徴
実施の形態2に係る掃除支援システムは、位置情報検出部10の構成を除き、実施の形態1の掃除支援システムと同じである。
2-1. Features of the cleaning support system according to the second embodiment The cleaning support system according to the second embodiment is the same as the cleaning support system according to the first embodiment except for the configuration of the position information detection unit 10.

実施の形態2に係る掃除支援装置8の位置情報検出部10は、特定色を認識することによってヘッド部2の位置情報を検出することに特徴を有している。位置情報検出部10は、使用者によって電気掃除機1の吸引動作が開始されると、位置情報取得装置6としてのカメラから撮像画像を取得する。そして、既存の画像処理技術を用いて撮像画像からヘッド部2のみに割り当てられている特定色を抽出し、その位置情報を検出する。つまり、位置情報検出部10は、掃除具に割り当てられた特定色を検出する特定色検出部としての機能を含む。ヘッド部2は、その全体が特定色に配色されていてもよいし、またその一部が特定色に配色されていてもよい。なお、特定色は、使用者が色設定部から設定可能である。 The positional information detection section 10 of the cleaning support device 8 according to the second embodiment is characterized in that it detects the positional information of the head section 2 by recognizing a specific color. The positional information detection unit 10 acquires a captured image from a camera serving as the positional information acquisition device 6 when the user starts the suction operation of the vacuum cleaner 1 . Then, a specific color assigned only to the head section 2 is extracted from the captured image using existing image processing technology, and its position information is detected. That is, the position information detection section 10 includes a function as a specific color detection section that detects a specific color assigned to a cleaning tool. The entire head portion 2 may be colored in a specific color, or a portion thereof may be colored in a specific color. Note that the specific color can be set by the user from the color setting section.

領域判別部11は、特定色から検出されたヘッド部2の位置情報を順次取得し、掃除対象領域内におけるヘッド部2の移動軌跡を算出する。そして、領域判別部11は、算出された移動軌跡に基づいて、掃除済領域と未掃除領域を判別し、掃除済領域に対応する座標を領域判別情報として出力する。表示規則記憶部16には、特定色から検出された位置情報から作成画像を作成するための表示規則が記憶されている。このような表示規則としては、例えばヘッド部2の移動軌跡に対して、吸込口体202の平面視に対する長手方向の幅Xcmに相当する範囲を塗りつぶす、といった規則が記憶されていてもよい。この場合、画像作成部12は、表示規則記憶部16に記憶されている表示規則に従い、ヘッド部2の移動軌跡に対して、幅Xcm広い範囲を掃除済領域として塗りつぶした画像を作成する。また表示規則記憶部16は、吸込口体202の平面視に対する長手方向の幅および短手方向の幅を考慮した画像を作成する際の規則が予め記憶されていてもよい。 The area determination unit 11 sequentially acquires the position information of the head unit 2 detected from the specific color, and calculates the movement trajectory of the head unit 2 within the cleaning target area. Then, the area determination unit 11 determines a cleaned area and an uncleaned area based on the calculated movement locus, and outputs the coordinates corresponding to the cleaned area as area determination information. The display rule storage unit 16 stores display rules for creating a created image from position information detected from a specific color. As such a display rule, for example, a rule such as filling out a range corresponding to the width X cm in the longitudinal direction of the suction port body 202 in a plan view with respect to the movement locus of the head portion 2 may be stored. In this case, the image creation unit 12 creates an image in which a wide range of width X cm is filled in as a cleaned area with respect to the movement locus of the head unit 2, according to the display rule stored in the display rule storage unit 16. Further, the display rule storage unit 16 may store in advance a rule for creating an image that takes into account the width in the longitudinal direction and the width in the lateral direction of the suction port body 202 when viewed from above.

なお、上述した表示規則は一例に過ぎない。すなわち、表示規則記憶部16には、例えば、画像の色、ヘッド部2の位置を中心とした塗りつぶし範囲等、画像作成部12が当該表示規則記憶部16に記憶された規則に則って作成した作成画像が表示装置7に表示された際に、使用者が、掃除済領域及び未掃除領域を認識可能な画像になるような規則が記憶されていればよい。表示規則記憶部に記憶されている規則は、予め使用者等によって適宜設定可能である。 Note that the display rules described above are merely examples. That is, the display rule storage section 16 stores, for example, the color of the image, the filling range centered on the position of the head section 2, etc., created by the image creation section 12 in accordance with the rules stored in the display rule storage section 16. It is sufficient that rules are stored so that when the created image is displayed on the display device 7, the user can recognize the cleaned area and the uncleaned area. The rules stored in the display rule storage section can be appropriately set in advance by the user or the like.

以上のように構成された掃除支援装置8によれば、ヘッド部2に割り当てられた特定色を検知することによって、掃除済領域と未掃除領域とを精度良く判別することが可能となる。 According to the cleaning support device 8 configured as described above, by detecting the specific color assigned to the head portion 2, it is possible to accurately discriminate between a cleaned area and an uncleaned area.

2-2.実施の形態2に係る掃除支援システムの変形例
実施の形態2に係る掃除支援システムは、例えば以下のように変形した形態を採用してもよい。
2-2. Modifications of the cleaning support system according to the second embodiment The cleaning support system according to the second embodiment may be modified as follows, for example.

表示装置7がタッチパネル式の表示装置である場合、特定色の設定は、位置情報取得装置6とタッチパネルを用いてもよい。例えば、色設定部は、位置情報取得装置6から取得した画像をタッチパネルの表示部に表示させ、使用者が表示部に触れることで、その接触位置の色を特定色として設定するように構成されればよい。使用者は、登録を望む色を有するもの、例えばヘッド部2を位置情報取得装置6により撮像すればよい。そして撮像されたヘッド部2の撮像画像をタッチパネルの表示部に表示させた状態で、タッチパネルを介して選択することで、ヘッド部2の色を特定色として登録すればよい。これにより、空間の明るさによりヘッド部2が認識しづらいと感じた場合に適宜特定色を変更することができる。 If the display device 7 is a touch panel display device, the specific color may be set using the position information acquisition device 6 and the touch panel. For example, the color setting section is configured to display the image acquired from the position information acquisition device 6 on the display section of the touch panel, and when the user touches the display section, sets the color of the touched position as a specific color. That's fine. The user only has to use the position information acquisition device 6 to image an object having a desired color, such as the head section 2, to be registered. Then, with the captured image of the head section 2 displayed on the display section of the touch panel, the color of the head section 2 may be registered as a specific color by selecting it via the touch panel. Thereby, if it is felt that the head section 2 is difficult to recognize due to the brightness of the space, the specific color can be changed as appropriate.

3.実施の形態3.
次に、実施の形態3の掃除支援システムについて説明する。
3. Embodiment 3.
Next, a cleaning support system according to Embodiment 3 will be explained.

3-1.実施の形態3の掃除支援システムの特徴
実施の形態3に係る掃除支援システムは、表示装置7としてスマートグラス等の透過型表示部を有する表示装置を用いた場合に特化した動作に特徴を有している。本実施の形態に係る掃除支援システムの基本的な構成は、表示装置7が透過型表示部を有する表示装置であることを除き、実施の形態1の掃除支援システムと同じである。
3-1. Features of the cleaning support system according to the third embodiment The cleaning support system according to the third embodiment is characterized by specialized operation when a display device having a transmissive display section such as smart glasses is used as the display device 7. are doing. The basic configuration of the cleaning support system according to the present embodiment is the same as that of the cleaning support system according to the first embodiment, except that the display device 7 is a display device having a transmissive display section.

実施の形態3の掃除支援システムは、表示装置7として、スマートグラスのように顔または頭部に着用する表示装置を備える。このような透過型の表示装置7は、現実と仮想の融合機能を有する透過型表示部を有している。より詳しくは、表示装置7としてのスマートグラスは、透過型表示部に作成画像を表示することにより、掃除対象領域の実空間に作成画像が重畳した画像を使用者に提供することができる。つまり、スマートグラスのような表示装置7は、透過型表示部に作成画像を表示することにより、掃除対象領域の実空間に作成画像が重畳した画像を使用者に提供することができる。 The cleaning support system of Embodiment 3 includes, as the display device 7, a display device worn on the face or head like smart glasses. Such a transmissive display device 7 has a transmissive display section that has a function of merging reality and virtual reality. More specifically, the smart glasses serving as the display device 7 can provide the user with an image in which the created image is superimposed on the real space of the area to be cleaned by displaying the created image on the transparent display section. In other words, the display device 7 such as smart glasses can provide the user with an image in which the created image is superimposed on the real space of the area to be cleaned by displaying the created image on the transparent display section.

表示装置7にスマートグラスを用いた場合、画像作成部12は、掃除済領域と未掃除領域を判別可能に表示した作成画像を生成する。画像作成部12は、作成された作成画像を使用者の視点から見た画像に変換する。具体的には、例えば、画像作成部12は、既存の画像処理技術を用いて、位置情報取得装置6から取得した撮像画像から使用者の頭部、顔又は眼球を検出する。そして、頭部又は顔の向き、位置、又は眼球の動きから使用者の視線方向を算出し、その算出結果に基づいて、作成した作成画像を使用者の視点から見た画像に変換する。作成した作成画像は、表示装置7としてのスマートグラスに出力される。スマートグラスは、入力された作成画像を透過型表示部に表示することによって、使用者の視点から見た実画像に作成画像を重畳した画像を使用者に提供する。つまり、実施の形態3に係る掃除支援装置8では、撮像画像に作成画像を重畳させた重畳画像を作成する重畳部の構成が不要となる。 When smart glasses are used as the display device 7, the image creation unit 12 creates an image in which cleaned areas and uncleaned areas are displayed in a distinguishable manner. The image creation unit 12 converts the created image into an image seen from the user's perspective. Specifically, for example, the image creation unit 12 detects the user's head, face, or eyeball from the captured image acquired from the position information acquisition device 6 using existing image processing technology. Then, the direction of the user's line of sight is calculated from the direction and position of the head or face, or the movement of the eyeballs, and based on the calculation result, the created image is converted into an image seen from the user's viewpoint. The created image is output to smart glasses as the display device 7. By displaying the input created image on a transparent display section, the smart glasses provide the user with an image in which the created image is superimposed on the actual image seen from the user's viewpoint. In other words, the cleaning support device 8 according to the third embodiment does not require the configuration of a superimposing section that creates a superimposed image in which a created image is superimposed on a captured image.

このように、実施の形態3に係る掃除支援システムによれば、スマートグラス等の透過型表示部を有する表示装置を用いて、使用者に掃除済領域及び未掃除領域を提供することが可能となる。 As described above, according to the cleaning support system according to the third embodiment, it is possible to provide the user with the cleaned area and the uncleaned area using a display device such as smart glasses having a transparent display section. Become.

3-2.実施の形態3の掃除支援システムの変形例
実施の形態3に係る掃除支援システムは、例えば以下のように変形した形態を採用してもよい。
3-2. Modifications of the cleaning support system according to the third embodiment The cleaning support system according to the third embodiment may be modified as follows, for example.

透過型表示部は、実世界からの光を通すことができ、実世界を直接見ることができる光学透過型表示部に限らず、ビデオ透過型表示部でもよい。ビデオ透過型表示部は、現実と仮想の融合が電子的になされる。つまり、カメラ等の位置情報取得装置6によって取得された撮像画像が電子的に画像処理され、現実と仮想の融合像が表示される。例えば、実世界を変換した撮像画像が位置情報取得装置6により取得され、重畳部13に送られる。重畳部13は例えば、単に撮像画像を背景像としてフレームバッファにコピーすることで撮像画像と作成画像を融合する。融合された画像は透過型表示部に表示される。また、撮像画像と作成画像の奥行を認識し、背景にする部位を考慮してもよい。 The transmissive display section is not limited to an optical transmissive display section through which light from the real world can pass and the real world can be directly viewed, but may also be a video transmissive display section. The video transmissive display is an electronic fusion of reality and virtuality. That is, a captured image acquired by the position information acquisition device 6 such as a camera is electronically processed, and a fused image of reality and virtuality is displayed. For example, a captured image obtained by converting the real world is acquired by the position information acquisition device 6 and sent to the superimposition unit 13. For example, the superimposing unit 13 fuses the captured image and the created image by simply copying the captured image to a frame buffer as a background image. The fused image is displayed on a transmissive display. Alternatively, the depth of the captured image and the created image may be recognized and the part to be used as the background may be considered.

画像作成部12が作成画像を使用者の視点から見た画像に変換する場合、適宜位置合わせしてもよい。ここでの位置合わせとは、仮想物体と実物体との間の座標系を一致させることを指す。ここでは、使用者の知覚において、実シーンに置かれた物体に仮想情報を正確に位置合わせすることが目標となる。具体的には、透過型表示部においては、コンピュータグラフィクスの要素が実世界の物体と揃うように表示する必要がある。これは、使用者の頭部、背景映像を撮影するカメラ、又はその両方のトラッキングを必要とする。 When the image creation unit 12 converts the created image into an image seen from the user's viewpoint, positioning may be performed as appropriate. Alignment here refers to matching the coordinate systems between the virtual object and the real object. Here, the goal is to accurately align virtual information with objects placed in a real scene in the user's perception. Specifically, in the transmissive display section, it is necessary to display computer graphics elements so that they align with real-world objects. This requires tracking of the user's head, a camera capturing background images, or both.

使用者またはカメラが動いていないときに静的位置合わせを実現するためには、仮想物体と実物体との間に共通の座標系を確立するようにトラッキングシステムを構成することが必要である。使用者またはカメラが動いているときに動的位置合わせを実現するには、トラッキングが必要である。トラッキングの対象は、自然特徴と人工的特徴の2つに分類できる。人工的特徴はマーカ又は基準と呼ばれる。拡張現実(AR)を実行する前には周囲環境を計測してもよい。例えば、事前計測することで、より単純で頑健なトラッキングアルゴリズムを使用することができる。マーカを用いずに手を加えていない環境をトラッキングする場合、この手法は自然トラッキングに利用できる。 To achieve static alignment when the user or camera is not moving, it is necessary to configure the tracking system to establish a common coordinate system between the virtual object and the real object. Tracking is required to achieve dynamic alignment when the user or camera is moving. Tracking targets can be classified into two types: natural features and artificial features. Artificial features are called markers or fiducials. The surrounding environment may be measured before performing augmented reality (AR). For example, pre-measurement allows the use of simpler and more robust tracking algorithms. This technique can be used for natural tracking when tracking an unaltered environment without markers.

自然特徴を用いる方法では、物理的な対象が最初に存在し、それに適合するデジタルモデルを得るために、スキャナが使用される。多くの場合、同一のカメラを用いて、まず環境をスキャンし、その後連続的な光学式トラッキングを行う。 In methods using natural features, a physical object is first present and a scanner is used to obtain a digital model that fits it. Often, the same camera is used to first scan the environment and then perform continuous optical tracking.

また、自然特徴により、自然に存在している特徴をトラッキングに用いてもよい。自然特徴は、例えば対象物体上の顕著な点特徴、いわゆる特徴点またはキーポイントである。特徴点は、簡単に見つけられなければならず、物体上のそれらの位置は視点変化に対して安定していなければならない。特徴点を利用するには、十分で密で不規則な表面上の模様が装飾されていない街並みや工業用物体など、テクスチャがあまりない物体に対しては、その輪郭が容易に観察可能であると仮定すれば、エッジ特徴を使用してトラッキングしてもよい。但し、エッジの場合、信頼性の高い対象検出のためには、複数のエッジを合わせて解釈する必要がある。 Also, natural features may be used for tracking. Natural features are, for example, prominent point features on the target object, so-called feature points or key points. Feature points must be easy to find and their position on the object must be stable with respect to viewpoint changes. To use minutiae points, there is sufficient dense and irregular surface pattern for objects with little texture, such as undecorated cityscapes and industrial objects, whose contours are easily observable. Assuming that, edge features may be used for tracking. However, in the case of edges, multiple edges must be interpreted together for highly reliable target detection.

また、さらに特徴マッチングを実行してもよい、モデル内の特徴点が新たに得られた画像内のどの点に対応するかを、特定することができる。十分な数の対応点から、シーンを識別することができる。一般に人工的なマーカは景観を損ねることがある。そこで、自然特徴のトラッキングによって、環境にマーカを設置することなく、画像からの観測情報からカメラ位置姿勢を決定することができる。また、自然特徴トラッキングでは、実際の環境をスキャンすることによって、適切なデジタルモデルの位置を把握する。そして、実行時にカメラからの観測とトラッキングモデルを対応付ける。 Additionally, it is possible to identify which point in the newly obtained image corresponds to a feature point in the model, which may also be subjected to feature matching. A scene can be identified from a sufficient number of corresponding points. Generally, artificial markers can spoil the landscape. Therefore, by tracking natural features, the camera position and orientation can be determined from observation information from images without installing markers in the environment. Natural feature tracking also involves scanning the real environment to locate the appropriate digital model. Then, at runtime, the observations from the camera and the tracking model are associated.

また、単眼カメラによるトラッキングにより、カメラ画像中の二次元点と世界座標における三次元点の対応を決定してもよい。このような二次元-三次元の対応付けは密なものと疎なものに分けることができる。密な対応付けとは、画像中のすべての画素に対して対応を見つけることを意味する。また、疎な対応付けは画像中から選択された少数だが十分な数の顕著な特徴点の対応を見つけることを指す。 Alternatively, the correspondence between a two-dimensional point in a camera image and a three-dimensional point in world coordinates may be determined by tracking using a monocular camera. Such two-dimensional-three-dimensional correspondence can be divided into dense and sparse. A tight correspondence means finding a correspondence for every pixel in the image. In addition, sparse correspondence refers to finding correspondence between a small but sufficient number of prominent feature points selected from an image.

掃除支援装置8は、例えば疎な対応付けを行う。特徴点は離散的な位置に複数現れるという性質を有する。このため背景が複雑であっても影響されにくく、頑健さにつながる。つまり、十分な正しい対応が残っている限り、誤対応は外れ値として分類され、位置推定に影響を与えることなく排除される。このため、疎な対応付けでも問題がなく、また密な対応付けに比べデータ数が少ないため、処理速度が速いという優位性を持つ。 The cleaning support device 8 performs sparse association, for example. Feature points have the property of appearing in multiple locations at discrete locations. Therefore, even if the background is complex, it is not easily affected, leading to robustness. That is, as long as enough correct correspondences remain, false correspondences are classified as outliers and removed without affecting the position estimation. Therefore, there is no problem with sparse mapping, and since the amount of data is smaller than with dense mapping, it has the advantage of faster processing speed.

疎な対応付けに用いられる、検出型トラッキングについて説明する。カメラ位置姿勢は、前のフレームから得られる事前情報に頼ることなく、新しいフレームで特徴点を対応付けることで決定される。特徴点は、記述子によって表される。記述子とは、素早く信頼性の高い対応付けのために設計されたデータ構造である。記述子は、新しいカメラ画像中の各特徴点に対して作成され、トラッキングモデル内の特徴点と対応付けられる。この方法は、簡潔でカメラの動きの種類に関する過程は特にない。例えば、使用者が誤ってカメラを覆ってしまった場合など、あるフレームでカメラの位置姿勢が推定できない場合、このような位置姿勢推定の抜けが次のフレームのトラッキングに影響しない。また、検出型トラッキングは、履歴を維持する必要がないため、過去情報を用いた逐次的トラッキングよりも実装が簡単である。 Detection type tracking used for sparse correspondence will be explained. The camera position and orientation are determined by associating feature points in a new frame without relying on prior information obtained from the previous frame. Feature points are represented by descriptors. A descriptor is a data structure designed for quick and reliable mapping. A descriptor is created for each feature point in the new camera image and associated with the feature point in the tracking model. This method is simple and does not involve any particular process regarding the type of camera movement. For example, if the position and orientation of the camera cannot be estimated in a certain frame, such as when the user accidentally covers the camera, such omission in position and orientation estimation will not affect tracking in the next frame. Detection-based tracking is also easier to implement than sequential tracking using past information because it does not require maintaining history.

掃除支援装置8は磁気センサを備えていてもよい。磁気センサは、水平方向の推定に適している。例えば、特徴点に対する法線方向を地平面に投影した際の方向によって事前にソートすることができる。磁気センサを用いることで、対応点の探索対象を法線が使用者に向いている点のみに絞り込むことができる。 The cleaning support device 8 may include a magnetic sensor. Magnetic sensors are suitable for horizontal estimation. For example, it is possible to sort in advance according to the direction in which the normal direction to the feature point is projected onto the horizon. By using a magnetic sensor, the search targets for corresponding points can be narrowed down to only those points whose normals are facing the user.

また、掃除支援装置8は加速度センサを備えていてもよい。例えば、加速度センサを用いて、重力方向を取得することで、鉛直方向の推定結果が得られる。これにより、例えば家具などの鉛直方向に延びる物体において、特徴点が複数得られた場合、重力方向に沿った特徴の利用によって、対応付けの精度が向上する。また、これにより垂直面を検知してもよい。垂直面を検知することで、垂直面への塗りつぶし又は塗り消しの条件設定を行うことができる。 Further, the cleaning support device 8 may include an acceleration sensor. For example, by obtaining the direction of gravity using an acceleration sensor, an estimation result in the vertical direction can be obtained. As a result, when a plurality of feature points are obtained for an object extending in the vertical direction, such as furniture, for example, the accuracy of association is improved by using features along the direction of gravity. Additionally, vertical surfaces may be detected using this method. By detecting the vertical plane, it is possible to set conditions for filling or erasing the vertical plane.

4.実施の形態4.
次に、実施の形態4の掃除支援システムについて説明する。
4. Embodiment 4.
Next, a cleaning support system according to a fourth embodiment will be explained.

4-1.実施の形態4の掃除支援システムの特徴
図15は、実施の形態4に係る掃除支援システムが備える掃除支援装置の機能を示すブロック図である。実施の形態4に係る掃除支援システムは、掃除支援装置8の構成を除き、実施の形態1の掃除支援システムと同じである。
4-1. Features of the cleaning support system according to the fourth embodiment FIG. 15 is a block diagram showing the functions of the cleaning support device included in the cleaning support system according to the fourth embodiment. The cleaning support system according to the fourth embodiment is the same as the cleaning support system according to the first embodiment except for the configuration of the cleaning support device 8.

実施の形態4に係る掃除支援装置8は、実施の形態1に係る掃除支援装置8の構成に加えて、更にオブジェクト画像作成部18を備える点に特徴を有している。オブジェクト画像作成部18は、掃除対象領域に無作為にオブジェクトを並べた画像を生成する。例えば、オブジェクトは、ドット状のオブジェクトである。オブジェクトは、例えば、ゴミ、ウィルス、バイキン、花粉等を模擬したイメージ画像である。作成されたオブジェクト画像は、重畳部13に送られる。重畳部13は、入力された撮像画像に作成画像を重畳した後に、更にオブジェクト画像を重ねた画像を生成する。オブジェクト画像を含んだ重畳画像は、表示装置7に表示される。また、実施の形態4では作成画像を作成しなくてもよく、重畳部13は撮像画像に作成画像を重畳しなくてもよい。例えば、重畳部13は、入力された撮像画像に直接オブジェクト画像を重ねた画像を生成してもよい。つまり、塗りつぶし又は塗り消した画像の代わりに、オブジェクト画像を含んだ重畳画像が表示装置7に表示されてもよい。 The cleaning support device 8 according to the fourth embodiment is characterized in that it further includes an object image creation section 18 in addition to the configuration of the cleaning support device 8 according to the first embodiment. The object image creation unit 18 creates an image in which objects are randomly arranged in the area to be cleaned. For example, the object is a dot-shaped object. The object is, for example, an image simulating garbage, a virus, a virus, pollen, or the like. The created object image is sent to the superimposition unit 13. The superimposing unit 13 superimposes the generated image on the input captured image, and then generates an image in which the object image is further superimposed. The superimposed image including the object image is displayed on the display device 7. Furthermore, in the fourth embodiment, it is not necessary to create a created image, and the superimposition unit 13 does not need to superimpose the created image on the captured image. For example, the superimposing unit 13 may generate an image in which the object image is directly superimposed on the input captured image. That is, a superimposed image including an object image may be displayed on the display device 7 instead of a filled-in or erased image.

オブジェクト画像作成部18は、時間の経過とともにオブジェクトを変化させる。例えば、オブジェクト画像作成部18には、位置情報取得装置6から撮像画像を受け取る。また、併せて画像作成部12から作成画像を受け取る場合もある。そして、オブジェクト画像作成部18は、掃除済領域に包含されたオブジェクト画像を変化させる。オブジェクト画像の変化は、例えば小さくなる、消滅する、向き又は画像が変化する等が例示される。また、オブジェクトから判断しうる清掃度合を数値化または評価してもよい。また、数値や評価結果をSNS等へ投稿することができてもよい。このようなオブジェクト画像の変化によれば、使用者による清掃が進行して未掃除領域が減少していることをオブジェクト画像の変化から視覚的に認識することが可能となる。これにより、使用者の掃除の達成感を高めることができる。 The object image creation unit 18 changes the object over time. For example, the object image creation unit 18 receives a captured image from the position information acquisition device 6. Additionally, a created image may also be received from the image creation section 12. Then, the object image creation unit 18 changes the object image included in the cleaned area. Examples of changes in the object image include becoming smaller, disappearing, and changing the orientation or image. Furthermore, the degree of cleaning that can be determined from the object may be quantified or evaluated. Furthermore, it may be possible to post numerical values and evaluation results to SNS or the like. According to such a change in the object image, it becomes possible to visually recognize from the change in the object image that the cleaning by the user is progressing and the uncleaned area is decreasing. This can enhance the user's sense of accomplishment in cleaning.

掃除支援装置8は、オブジェクト画像のある位置を清掃した際に、振動または音によって使用者に報知する報知手段を備えていてもよい。図10に例示されるように、掃除支援装置8が表示装置7を備えた携帯型端末である場合、例えば当該端末に内蔵された既存技術の振動発生手段40または音声発生手段41を報知手段として利用すればよい。 The cleaning support device 8 may include a notification means that notifies the user by vibration or sound when a certain position of the object image is cleaned. As illustrated in FIG. 10, when the cleaning support device 8 is a portable terminal equipped with the display device 7, for example, the vibration generating means 40 or the sound generating means 41 of the existing technology built in the terminal is used as the notification means. Just use it.

掃除支援装置8のオブジェクト画像作成部18は、ゴミセンサと連動して動作させてもよい。例えば、オブジェクト画像作成部18は、ゴミセンサの反応時間又は反応回数に応じてオブジェクトを出現させるように画像を作成してもよい。また、ゴミの量と清掃位置に対するゴミの有無やゴミ量を併せて記憶し、ゴミが多い場所と記憶した場所には、例えば次回以降、オブジェクトを多数出現させる、大きいオブジェクトを出現させる、又は複数回の清掃を必要とすることを示すオブジェクトを出現させるように画像を作成してもよい。また、過去の掃除した場所と日時を記憶し、掃除していない期間に応じて、オブジェクトの数又は大きさを変化させるように画像を作成してもよい。例えば期間が長いほどオブジェクトの数を増やす又はオブジェクトのサイズを大きくするように画像を作成してもよい。更に、掃除対象領域にである部屋の角部や辺を検知し、角部や辺にオブジェクトを多数出現させるように画像を作成してもよい。 The object image creation unit 18 of the cleaning support device 8 may be operated in conjunction with the dust sensor. For example, the object image creation unit 18 may create an image so that the object appears according to the reaction time or the number of reactions of the dust sensor. In addition, the amount of garbage, the presence or absence of garbage, and the amount of garbage for the cleaning position are stored together, and from the next time onwards, for example, a large number of objects will appear, a large object will appear, or multiple objects will appear in the place where there is a lot of garbage. The image may be created to reveal objects that indicate that cleaning is required. Alternatively, the image may be created so that past cleaning locations and dates and times are stored, and the number or size of objects is changed depending on the period of non-cleaning. For example, an image may be created such that the longer the period, the larger the number of objects or the larger the size of the objects. Furthermore, the corners and sides of a room that are in the area to be cleaned may be detected, and an image may be created so that many objects appear at the corners and sides.

また、オブジェクト画像作成部18は、清掃状況に応じてオブジェクト画像を変化させることとしてもよい。例えば、オブジェクト画像作成部18は、掃除済領域には出現させないようにしてもよい。この場合、オブジェクト画像作成部18は、領域判別部11から入力される領域判別情報に基づいて、未掃除領域に含まれるオブジェクトのみを出現させるように画像を作成する。また、掃除支援装置8は、掃除済領域を記憶する掃除済領域記憶部を更に備えていてもよい。掃除済領域記憶部は、領域判別部11から入力される領域判別情報に含まれる掃除済領域を記憶する。そして、オブジェクト画像作成部18は、掃除済領域記憶部に記憶されている情報に則り掃除済領域以外の未掃除掃除領域にオブジェクトを表示させるように画像を作成すればよい。このようにすることで、一度掃除した領域にはオブジェクト画像が表示されないので、使用者はオブジェクトがある位置を掃除していくことによって掃除対象領域を清掃することができる。また、同じ場所に何度もオブジェクト画像が表示されることがないため、掃除の効率が低下することがない。 Further, the object image creation unit 18 may change the object image depending on the cleaning situation. For example, the object image creation unit 18 may not appear in the cleaned area. In this case, the object image creation unit 18 creates an image based on the area determination information input from the area determination unit 11 so that only objects included in the uncleaned area appear. Further, the cleaning support device 8 may further include a cleaned area storage unit that stores cleaned areas. The cleaned area storage unit stores the cleaned area included in the area determination information input from the area determination unit 11. Then, the object image creation unit 18 may create an image so as to display the object in the uncleaned area other than the cleaned area based on the information stored in the cleaned area storage unit. In this way, since the object image is not displayed in the area that has been cleaned once, the user can clean the area to be cleaned by cleaning the position where the object is located. Furthermore, since the object image is not displayed multiple times at the same location, cleaning efficiency does not decrease.

このように、上述したオブジェクト画像作成部18によれば、使用者は表示装置に表示されるオブジェクト画像を見て楽しみながら掃除をすることができる。 In this way, according to the object image creation section 18 described above, the user can enjoy cleaning while viewing the object image displayed on the display device.

4-2.実施の形態4の掃除支援システムの変形例
実施の形態4に係る掃除支援システムは、例えば以下のように変形した形態を採用してもよい。
4-2. Modification of the cleaning support system according to the fourth embodiment The cleaning support system according to the fourth embodiment may be modified as follows, for example.

掃除支援装置8は、撮像画像に含まれる面を検出する面検出部を備えていてもよい。面検出部は、例えば、平面検出部、水平面検出部、又は鉛直面検出部である。以下、各面検出部にについて説明する。 The cleaning support device 8 may include a surface detection unit that detects a surface included in the captured image. The surface detection section is, for example, a plane detection section, a horizontal surface detection section, or a vertical surface detection section. Each surface detection unit will be explained below.

平面検出部は、位置情報取得装置6により取得された撮像画像から、既存の平面検出技術によって平面を検出する。より詳しくは、平面検出部は、既存の技術により、撮像画像から3点以上の特徴点を抽出する。そして、取得した特徴点の座標から、最小二乗法により、複数の特徴点の点群に対して、残差の二乗和が最小となる平面を検出する。これにより、3点以上の特徴点を含む平面を検出することが可能となる。 The plane detection unit detects a plane from the captured image acquired by the position information acquisition device 6 using an existing plane detection technique. More specifically, the plane detection unit extracts three or more feature points from the captured image using existing technology. Then, from the coordinates of the acquired feature points, a plane with a minimum sum of squares of residual errors is detected for a group of multiple feature points using the least squares method. This makes it possible to detect a plane containing three or more feature points.

オブジェクト画像作成部18は、平面検出部において検出された平面のうち、特定の条件を満たす特定平面に限りオブジェクト画像を表示するように画像を作成してもよい。このような特定平面の条件は、例えば、水平面に対する平面の角度をしきい値としてもよい。より詳しくは、オブジェクト画像作成部18は、例えば45°をしきい値として、それより角度の小さい特定平面上に限りオブジェクト画像を表示する。他の例としては、オブジェクト画像作成部18は、例えば水平面に対する平面の角度が0°から10°、すなわち平面検出部により検出した平面が水平面に対して平行又は略平行な場合に、オブジェクト画像を表示してもよい。これにより、例えば床又は机等にオブジェクトが表示され、壁などの掃除しない場所にはオブジェクトが表示されないため、使用者はオブジェクトを目印として掃除することで、床や机を綺麗にすることができる。 The object image creation unit 18 may create an image so that an object image is displayed only on a specific plane that satisfies a specific condition among the planes detected by the plane detection unit. The condition for such a specific plane may be, for example, the angle of the plane with respect to the horizontal plane as a threshold value. More specifically, the object image creation unit 18 uses, for example, a threshold value of 45°, and displays the object image only on a specific plane having an angle smaller than the threshold value. As another example, the object image creation unit 18 creates an object image when the angle of the plane with respect to the horizontal plane is 0° to 10°, that is, when the plane detected by the plane detection unit is parallel or approximately parallel to the horizontal plane. May be displayed. As a result, the object is displayed on the floor or desk, for example, and the object is not displayed on the wall or other areas that are not to be cleaned, so the user can clean the floor or desk by cleaning using the object as a landmark.

また、オブジェクト画像作成部18は、例えば水平面に対する平面の角度が80°から90°、すなわち平面検出部により検出した平面が水平面に対して垂直又は略垂直な場合に、オブジェクト画像を表示してもよい。 Further, the object image creation unit 18 may display the object image when the angle of the plane with respect to the horizontal plane is, for example, 80° to 90°, that is, when the plane detected by the plane detection unit is perpendicular or substantially perpendicular to the horizontal plane. good.

このように、平面検出部を備えた掃除支援装置8は、平面に対応してオブジェクトを表示することができる。これにより、例えば凹凸のある物体又は円筒の物体など、ヘッド部2によって掃除しないような場所にオブジェクト画像が表示されることを抑制することができる。つまり、掃除困難な場所にオブジェクト画像が表示され難くなるため、使用者がストレスを感じにくい。 In this way, the cleaning support device 8 including the plane detection section can display objects corresponding to the plane. As a result, it is possible to prevent an object image from being displayed in a place that is not to be cleaned by the head unit 2, such as an uneven object or a cylindrical object. In other words, the object image is less likely to be displayed in a place that is difficult to clean, so the user is less likely to feel stressed.

面検出部が水平面検出部として構成されている場合、水平面検出部は水平な面を検出する。水平面検出部は、既存の水平な面を検出する技術によって水平な面を検出してもよい。また、上述した平面検出部による面検出方法を応用してもよい。例えば、水平面検出部は、既存の技術により、撮像画像から3点以上の特徴点を抽出する。そして、取得した特徴点の座標から、最小二乗法により、複数の特徴点の点群に対して、残差の二乗和が最小となる水平面を検出する。これにより、3点以上の特徴点を含む水平面を検出することが可能となる。 When the surface detection section is configured as a horizontal surface detection section, the horizontal surface detection section detects a horizontal surface. The horizontal surface detection unit may detect a horizontal surface using an existing horizontal surface detection technique. Furthermore, the surface detection method using the above-mentioned plane detection section may be applied. For example, the horizontal plane detection unit extracts three or more feature points from the captured image using existing technology. Then, from the coordinates of the acquired feature points, a horizontal plane with a minimum sum of squares of residuals is detected for a group of a plurality of feature points using the least squares method. This makes it possible to detect a horizontal plane that includes three or more feature points.

オブジェクト画像作成部18は、水平面検出部によって検出された水平面にオブジェクトが表示されるように画像を作成する。この際、オブジェクト画像作成部18は、検出した1又は複数の水平面のうち最も低い位置にある水平面にオブジェクト画像を表示してもよいし、また、最も大きい面積を有する水平面にオブジェクト画像を表示してもよい。 The object image creation unit 18 creates an image so that the object is displayed on the horizontal plane detected by the horizontal plane detection unit. At this time, the object image creation unit 18 may display the object image on the lowest horizontal plane among the detected one or more horizontal planes, or may display the object image on the horizontal plane with the largest area. It's okay.

また、オブジェクト画像作成部18は、高さと面積を考慮して、オブジェクトを表示する水平面を決定してもよい。例えば、オブジェクト画像作成部18は、比較的低い位置かつ比較的大きい面積を有する水平面にオブジェクト画像を表示してもよい。これにより、床等の水平面にオブジェクトが表示されるため、使用者はオブジェクトを目印として掃除することで、床面を綺麗にすることができる。 Furthermore, the object image creation unit 18 may determine the horizontal plane on which the object is displayed, taking into consideration the height and area. For example, the object image creation unit 18 may display the object image on a horizontal plane having a relatively low position and a relatively large area. As a result, the object is displayed on a horizontal surface such as the floor, so the user can clean the floor by using the object as a landmark when cleaning.

また、オブジェクト画像作成部18は、特定の水平面の掃除が終わった場合は、次に当該水平面よりも高い位置にある他の水平面等にオブジェクトを表示してもよい。このように、異なる水平面に順次オブジェクトを表示させることにより、使用者はオブジェクトを目印として掃除対象領域を順に掃除することができる。また、面積の大きい面から順にオブジェクトを表示させることとすれば、面積の大きい順に優先的に掃除することができる。 Moreover, when cleaning of a specific horizontal surface is finished, the object image creation unit 18 may display the object next on another horizontal surface located at a higher position than the horizontal surface. In this way, by sequentially displaying objects on different horizontal planes, the user can sequentially clean the area to be cleaned using the objects as landmarks. Furthermore, if objects are displayed in order from the surface with the largest area, it is possible to clean preferentially in the order of the surface with the largest area.

また、オブジェクト画像作成部18は、最も低い高さにある水平面から特定の高さまでの範囲の水平面にのみにオブジェクトを表示するように画像を作成してもよい。このような特定の高さとしては、例えば10cmから20cmの高さが例示される。これにより、使用者は、表示されるオブジェクトを目印にして清掃を行うことにより、床面を含む低い範囲の領域を掃除できる。特に、フローリングと畳等、床面の高さが数cm異なる位置にあるような場合であっても、床面に特化してオブジェクトを表示することができる。なお、上述したような平面検出の方法は予め開発者が設定してもよく、また、使用者が設定変更できるようにしておいてもよい。 Further, the object image creation unit 18 may create an image so that the object is displayed only on horizontal surfaces ranging from the horizontal surface at the lowest height to a specific height. An example of such a specific height is, for example, a height of 10 cm to 20 cm. Thereby, the user can clean a low range area including the floor surface by cleaning using the displayed object as a landmark. In particular, even in cases where the height of the floor surfaces differs by several centimeters, such as between wooden floors and tatami mats, objects can be displayed specifically on the floor surface. Note that the plane detection method described above may be set in advance by the developer, or may be changed by the user.

面検出部が鉛直面検出部として構成されている場合、鉛直面検出部は鉛直な面を検出する。鉛直面検出部は、既存の鉛直な面を検出する技術によって鉛直な面を検出してもよい。また、上述した平面検出部による面検出方法を応用してもよい。例えば、鉛直面検出部は、既存の技術により、撮像画像から3点以上の特徴点を抽出する。そして、取得した特徴点の座標から、最小二乗法により、複数の特徴点の点群に対して、残差の二乗和が最小となる鉛直面を検出する。これにより、3点以上の特徴点を含む鉛直面を検出することが可能となる。 When the surface detection section is configured as a vertical surface detection section, the vertical surface detection section detects a vertical surface. The vertical surface detection unit may detect a vertical surface using an existing vertical surface detection technique. Furthermore, the surface detection method using the above-mentioned plane detection section may be applied. For example, the vertical plane detection unit extracts three or more feature points from the captured image using existing technology. Then, from the coordinates of the acquired feature points, a vertical plane with a minimum sum of squares of residual errors is detected for a group of a plurality of feature points using the least squares method. This makes it possible to detect a vertical plane that includes three or more feature points.

オブジェクト画像作成部18は、鉛直面検出部によって検出された鉛直面にオブジェクトが表示されるように画像を作成する。この際、オブジェクト画像作成部18は、検出した1又は複数の鉛直面のうち最も面積の大きい鉛直面にオブジェクト画像を表示してもよいし、これにより、壁面等の鉛直面にオブジェクトが表示されるため、使用者はオブジェクトを目印として掃除することで、壁面を綺麗にすることができる。 The object image creation unit 18 creates an image so that the object is displayed on the vertical plane detected by the vertical plane detection unit. At this time, the object image creation unit 18 may display the object image on the vertical plane with the largest area among the detected one or more vertical planes, or the object may be displayed on a vertical plane such as a wall. Therefore, the user can clean the wall surface by cleaning using the object as a landmark.

5.実施の形態5.
次に、実施の形態5の掃除支援システムについて説明する。
5. Embodiment 5.
Next, a cleaning support system according to a fifth embodiment will be explained.

5-1.実施の形態5の掃除支援システムの特徴
図16は、実施の形態5に係る掃除支援システムが備える電気掃除機の構成を示す図である。実施の形態5に係る掃除支援システムは、電気掃除機1の構成を除き、実施の形態1の掃除支援システムと同じである。
5-1. Features of the cleaning support system according to the fifth embodiment FIG. 16 is a diagram showing the configuration of a vacuum cleaner included in the cleaning support system according to the fifth embodiment. The cleaning support system according to the fifth embodiment is the same as the cleaning support system according to the first embodiment except for the configuration of the vacuum cleaner 1.

図16に示すように、本実施の形態に係る掃除具としての電気掃除機1は、キャニスタタイプの電気掃除機である。電気掃除機1は、ヘッド部2、本体4、管体3、及びホース413を備えている。管体3の一端はヘッド部2と接続され、管体3の他端はホース413の一端と接続される。ホースの他端は本体と接続される。ホース413の一端は、把持可能な形状を呈していてもよい。ホース413は、把持部を有していてもよい。本体4は把持部を有していてもよい。例えば、ホース413の一部を把持して掃除する。 As shown in FIG. 16, a vacuum cleaner 1 as a cleaning tool according to the present embodiment is a canister type vacuum cleaner. The vacuum cleaner 1 includes a head portion 2, a main body 4, a tube body 3, and a hose 413. One end of the tubular body 3 is connected to the head portion 2, and the other end of the tubular body 3 is connected to one end of the hose 413. The other end of the hose is connected to the main body. One end of the hose 413 may have a grippable shape. The hose 413 may have a grip. The main body 4 may have a grip portion. For example, a part of the hose 413 is grasped and cleaned.

掃除支援システム5の電気掃除機は、上述したようなキャニスタタイプの電気掃除機1にも適用することが可能である。この場合、実施の形態1の掃除支援システム5と同様に、位置情報取得装置6により撮像画像を取得し、位置情報検出部10によりヘッド部2の位置情報を検出すればよい。また、上述した構成においても、掃除済領域と未掃除領域を一別でき、掃除の質と効率を向上することができる。 The vacuum cleaner of the cleaning support system 5 can also be applied to the canister type vacuum cleaner 1 as described above. In this case, similarly to the cleaning support system 5 of the first embodiment, the position information acquisition device 6 may acquire a captured image, and the position information detection section 10 may detect the position information of the head section 2. Further, in the above-described configuration as well, the cleaned area and the uncleaned area can be separated, and the quality and efficiency of cleaning can be improved.

なお、本実施の形態のキャニスタタイプの電気掃除機1は、管体3を備えずにヘッド部2と本体4が直接接続されていてもよい。この場合も位置検出方法は同様である。 In addition, the canister type vacuum cleaner 1 of this embodiment may not include the pipe body 3 and the head portion 2 and the main body 4 may be directly connected. In this case as well, the position detection method is the same.

5-2.実施の形態5の掃除支援システムの変形例
実施の形態5に係る掃除支援システムは、例えば以下のように変形した形態を採用してもよい。
5-2. Modified Example of Cleaning Support System of Embodiment 5 The cleaning support system according to Embodiment 5 may be modified as follows, for example.

実施の形態5に係る掃除支援システムは、キャニスタタイプの電気掃除機1だけでなく、他の掃除具を用いることもできる。このような掃除具は、例えばモップである。掃除具としてのモップは、ヘッド部と持ち手としてのハンドルを備える。ヘッド部は、電気掃除機1のヘッド部2に相当し、床面を清掃する機能を有する。モップのヘッド部は、清掃部材と、ボディとを備える。清掃部材は、例えば繊維状部材又は軟質部材である。繊維状部材の場合、例えば樹脂よりも吸水性を有する。軟質部材は、例えば樹脂よりも弾性限界が大きい。ヘッド部は、連結部を備えていてもよい。ヘッド部とハンドルは、直接接続されていてもよいし、ヘッド部に設けられた連結部を介して接続されていてもよい。また、ヘッド部とハンドルは、それらの間に中継部を設けていてもよい。中継部は、例えば柄のようなものである。位置情報取得装置6により、例えばヘッド部の一部、又は使用者が掃除具のハンドルを持って掃除する際に視認可能なヘッド部の撮像画像を取得し、位置情報検出部10により、ヘッド部の位置情報を検出すればよい。 The cleaning support system according to the fifth embodiment can use not only the canister type vacuum cleaner 1 but also other cleaning tools. Such a cleaning tool is, for example, a mop. A mop used as a cleaning tool includes a head portion and a handle. The head portion corresponds to the head portion 2 of the vacuum cleaner 1 and has a function of cleaning the floor surface. The mop head includes a cleaning member and a body. The cleaning member is, for example, a fibrous member or a soft member. In the case of a fibrous member, for example, it has more water absorption than resin. A soft member has a larger elastic limit than, for example, a resin. The head portion may include a connecting portion. The head portion and the handle may be connected directly or via a connecting portion provided on the head portion. Moreover, the head part and the handle may be provided with a relay part between them. The relay part is, for example, something like a handle. The positional information acquisition device 6 acquires a captured image of, for example, a part of the head or the head that is visible when the user cleans by holding the handle of the cleaning tool, and the positional information detection unit 10 acquires a captured image of the head. All you need to do is to detect the location information.

また、ヘッド部2またはヘッド部2の一部が交換、着脱、付け替え可能な清掃用部材を備えた掃除具であってもよい。このような掃除具の清掃用部材は、水拭き、乾拭き、剥がし掃除、磨き掃除、削り掃除、除電掃除、掻き取り掃除等ができるものである。また、このような掃除具の清掃用部材または付け替え部は、例えば、モップ、クロス、パッド、ブラシ、スポンジ、はたき、シート、粘着部材、粘着シート、粘着ローラー、除電部材、回転ブラシ、電気塵取り等である。また、ヘッド部2を丸ごと付け替え可能なものであってもよい。このような掃除具は例えば、アタッチメントや吸引風によりブラシが回転するタービンブラシを備えたタービンヘッドである。 Further, the cleaning tool may include a cleaning member in which the head portion 2 or a portion of the head portion 2 is replaceable, detachable, and replaceable. The cleaning member of such a cleaning tool can perform wet wiping, dry wiping, peeling cleaning, polishing cleaning, scraping cleaning, static elimination cleaning, scraping cleaning, and the like. In addition, cleaning members or replacement parts of such cleaning tools include, for example, mops, cloths, pads, brushes, sponges, dusters, sheets, adhesive members, adhesive sheets, adhesive rollers, static eliminators, rotating brushes, electric dust removers, etc. etc. Further, the head portion 2 may be completely replaceable. Such a cleaning tool is, for example, a turbine head equipped with an attachment or a turbine brush that is rotated by suction air.

例えば、掃除具、好ましくはヘッド部、さらに好ましくは清掃用部材は、位置情報取得装置6によって位置を認識できる識別情報を備えていることが望ましい。好ましくは、付け替え可能な位置に、位置情報取得装置6によって位置を認識できる識別情報を備えていることが望ましい。例えば、ヘッド部2又は清掃用部材は、特殊な色、複数の色、ロゴ、企業名、ブランド名、商標登録されたもの、といった識別情報が含まれていてもよい。また、例えば、ヘッド部2又は清掃用部材は、模様、凹凸、刻印、実施の形態6に記載した識別情報、既存技術による識別情報であってもよい。好ましくは、ヘッド部2や清掃用部材は複雑な識別情報が含まれていることが望ましい。これにより、模倣品では位置情報を検出困難になり、純正品の使用により、位置情報を検出でき、オリジナル性を出すことができる。 For example, it is desirable that the cleaning tool, preferably the head part, and more preferably the cleaning member, be provided with identification information that allows the location information acquisition device 6 to recognize the location. Preferably, identification information that allows the location information acquisition device 6 to recognize the location is preferably provided at a replaceable location. For example, the head portion 2 or the cleaning member may include identification information such as a special color, multiple colors, a logo, a company name, a brand name, or a registered trademark. Further, for example, the head portion 2 or the cleaning member may have a pattern, unevenness, a stamp, identification information described in Embodiment 6, or identification information based on existing technology. Preferably, the head portion 2 and the cleaning member include complex identification information. This makes it difficult to detect location information with counterfeit products, but with genuine products, location information can be detected and originality can be achieved.

また、ヘッド部2は、他の掃除具に接続可能なものであってもよい。これにより、一般的な掃除具のヘッド部を位置情報取得装置6で位置情報を取得可能なヘッド部2に変更することで、一般的な掃除具が掃除支援装置8に対応可能となる。 Further, the head portion 2 may be connectable to other cleaning tools. Thereby, by changing the head portion of a general cleaning tool to the head portion 2 that can acquire position information using the position information acquisition device 6, the general cleaning tool can be made compatible with the cleaning support device 8.

また、実施の形態5に係る掃除支援システムは、自律走行型のロボット掃除機に適用することも可能である。ロボット掃除機は、例えば電動送風機を備え、吸引することで被清掃面の塵埃を除去するものであってもよいし、電動送風機を備えず、拭き掃除をするものであってもよい。ロボット掃除機の位置情報は、上述した、または後述する技術、または既存技術によって、検出可能である。ロボット掃除機による掃除領域は、例えば上面視におけるロボット掃除機全体の範囲、吸込口がある範囲、清掃部材がある範囲、ロボット掃除機の中心から半径x[m]等、適宜使用者が設定してもよく、表示規則記憶部16にて設定しておいてもよい。これにより、ロボット掃除機による、掃除済領域を確認でき、また掃除のやり残した位置を確認できる。掃除結果に応じて、部屋の整理、配置やレイアウト変更、片づけをすることで、ロボット掃除機による掃除のやり残し箇所を減らすことができる。 Further, the cleaning support system according to the fifth embodiment can also be applied to an autonomous robot cleaner. For example, the robot cleaner may be equipped with an electric blower and remove dust from the surface to be cleaned by suction, or it may be equipped with no electric blower and perform wiping. The location information of the robot vacuum cleaner can be detected by the techniques described above or below, or by existing techniques. The cleaning area of the robot vacuum cleaner can be set by the user as appropriate, such as the range of the entire robot vacuum cleaner when viewed from above, the range of the suction port, the range of the cleaning member, or the radius x [m] from the center of the robot vacuum cleaner. Alternatively, the display rule storage unit 16 may set the display rule storage unit 16 in advance. This allows you to check the areas that have been cleaned by the robot vacuum cleaner, and also check the positions that remain to be cleaned. By organizing, changing the arrangement and layout of the room, and tidying up the room according to the cleaning results, the number of areas left unfinished by the robot vacuum cleaner can be reduced.

6.実施の形態6.
次に、実施の形態6の掃除支援システムについて説明する。
6. Embodiment 6.
Next, a cleaning support system according to a sixth embodiment will be described.

6-1.実施の形態6の掃除支援システムの特徴
実施の形態6に係る掃除支援システムは、位置情報検出部10の構成を除き、実施の形態1の掃除支援システムと同じである。
6-1. Features of the cleaning support system according to the sixth embodiment The cleaning support system according to the sixth embodiment is the same as the cleaning support system according to the first embodiment except for the configuration of the position information detection unit 10.

実施の形態6に係る掃除支援装置8の位置情報検出部10は、特定の識別情報を識別することによってヘッド部2の位置情報を検出することに特徴を有している。識別情報は、例えばヘッド部2に設けられたARマーカ、色マーカ、又は特殊パターンで点滅するLED、文字、記号、マーク、名詞、固有名詞、企業名、ブランド名、ロゴ又は商標登録されたもの、およびその組み合わせ等である。位置情報検出部10は、使用者によって電気掃除機1の吸引動作が開始されると、可視光カメラ等の位置情報取得装置6から撮像画像を取得する。そして、既存の画像処理技術を用いて、撮像画像から当該識別情報の位置情報を検知する。識別情報は、識別画像からヘッド部2の位置の特定を行うことができる場所であれば、その設置場所に限定はない。識別情報によってヘッド部2の位置等をより検出しやすくすることができる。特に、掃除対象領域に掃除具が複数台存在する場合には、複雑な画像処理を行うことなく当該複数台のヘッド部の位置を区別して検出することができるため、複数台の掃除具を一度に追跡しやすくすることができる。 The positional information detection section 10 of the cleaning support device 8 according to the sixth embodiment is characterized in that it detects the positional information of the head section 2 by identifying specific identification information. The identification information may be, for example, an AR marker provided on the head unit 2, a color marker, an LED blinking in a special pattern, letters, symbols, marks, nouns, proper nouns, company names, brand names, logos, or registered trademarks. , and combinations thereof. When the user starts the suction operation of the vacuum cleaner 1, the position information detection unit 10 acquires a captured image from the position information acquisition device 6 such as a visible light camera. Then, the position information of the identification information is detected from the captured image using existing image processing technology. The location of the identification information is not limited as long as the location of the head section 2 can be identified from the identification image. The identification information makes it easier to detect the position of the head section 2 and the like. In particular, when there are multiple cleaning tools in the area to be cleaned, the positions of the heads of the multiple cleaning tools can be distinguished and detected without complex image processing. can be easily tracked.

また、識別情報としてのマーカは、電気掃除機1に対して取外し困難なものであってもよい。マーカは、ヘッド部2の例えば上面や樹脂部品に設けられていてもよい。マーカは、例えばヘッド部2に印刷された情報であってもよい。マーカは、例えばヘッド部2の樹脂部品に印刷された情報であってもよい。印刷とは、例えばホットスタンプによるものである。また、ヘッド部2の樹脂部品の凹凸をマーカとして認識する構成でもよい。例えばシールのように取外し可能なものであれば、様々な掃除具において利用することができる。一方取外し困難なものであれば、オリジナル性を出すことができる。 Further, the marker serving as the identification information may be one that is difficult to remove from the vacuum cleaner 1. The marker may be provided, for example, on the top surface of the head portion 2 or on a resin component. The marker may be information printed on the head section 2, for example. The marker may be information printed on a resin component of the head section 2, for example. Printing is, for example, by hot stamping. Alternatively, a configuration may be adopted in which the unevenness of the resin component of the head portion 2 is recognized as a marker. For example, if it is removable like a seal, it can be used in various cleaning tools. On the other hand, if it is difficult to remove, it can be original.

なお、識別情報の認識手段は、使用者が設定部により設定可能である。例えば、色の認識からARマーカによるヘッド部2の位置情報検出に使用者が任意に変更可能である。これにより、空間の明るさ等の外部環境に応じて、認識しやすい認識方法に変更することで、より快適に使用することができる。また、複数の識別情報を同時に認識可能であってもよい。これにより認識精度をさらに向上することができる。また、複数の掃除具での掃除を行うときにも対応することができる。 Note that the identification information recognition means can be set by the user using the setting section. For example, the user can arbitrarily change from color recognition to positional information detection of the head unit 2 using an AR marker. This allows for more comfortable use by changing the recognition method to one that is easier to recognize depending on the external environment such as the brightness of the space. Further, it may be possible to recognize a plurality of pieces of identification information at the same time. Thereby, recognition accuracy can be further improved. Moreover, it can also be used when cleaning with a plurality of cleaning tools.

また、識別情報としてのマーカは、QRコード(登録商標)等の二次元バーコードであってもよい。また、マーカは、QRコード(登録商標)のような矩形のマーカであってもよい。矩形マーカのトラッキングでは、単純な閾値処理により、画像から矩形を抽出し、マーカの四隅から推定される平面射影変換を用いて位置姿勢を計算することができる。ここでは、このような手法により推定された位置姿勢を初期推定結果としてさらに改善することも可能である。 Further, the marker serving as the identification information may be a two-dimensional barcode such as a QR code (registered trademark). Further, the marker may be a rectangular marker such as a QR code (registered trademark). In tracking a rectangular marker, a rectangle is extracted from an image by simple threshold processing, and the position and orientation can be calculated using plane projective transformation estimated from the four corners of the marker. Here, it is also possible to further improve the position and orientation estimated by such a method as the initial estimation result.

また、識別情報としてのマーカは、電気掃除機1に搭載されたゴミセンサから取得する情報に基づいて発光する発光部として構成されていてもよい。すなわち、電気掃除機1のヘッド部2から塵埃が吸い込まれたことをゴミセンサが検知すると、ヘッド部2に設けられている発光部が発光する。このような構成によれば、発光した発光部をマーカとして認識することが可能となる。 Further, the marker serving as the identification information may be configured as a light emitting section that emits light based on information acquired from a dust sensor mounted on the vacuum cleaner 1. That is, when the dust sensor detects that dust is sucked in from the head part 2 of the vacuum cleaner 1, the light emitting part provided in the head part 2 emits light. According to such a configuration, it becomes possible to recognize the light emitting portion that emits light as a marker.

識別情報としてのマーカは、上記の例示の他、種々の形態を適用することができる。例を挙げると、マーカは多角形又は円形のものからなる。マーカは略四角形形状である。マーカは正方形形状である。マーカは2色の色からなる。マーカはコントラストの差が大きい複数の色からなる。マーカは白と黒の2色で構成される。位置情報検出部10は、マーカの色と形の両方を認識してもよい。 The marker serving as the identification information can take various forms other than the above example. For example, the marker may be polygonal or circular. The marker has a substantially rectangular shape. The marker has a square shape. The marker consists of two colors. The marker consists of multiple colors with large contrast differences. The marker consists of two colors, white and black. The position information detection unit 10 may recognize both the color and shape of the marker.

また、識別情報は、例えば複数のマーカにより構成されていてもよい。例えば複数のマーカは、離間した位置に配置されていてもよい。このようにすることで、撮像画像から位置情報取得装置6としてのカメラの位置又は姿勢を推定することができる。 Further, the identification information may be composed of, for example, a plurality of markers. For example, a plurality of markers may be placed at separate positions. By doing so, the position or orientation of the camera as the position information acquisition device 6 can be estimated from the captured image.

以上のように構成された掃除支援装置8によれば、ヘッド部2に設けられた識別情報を検知することによって、掃除済領域と未掃除領域とを精度良く判別することが可能となる。 According to the cleaning support device 8 configured as described above, by detecting the identification information provided on the head section 2, it is possible to accurately discriminate between a cleaned area and an uncleaned area.

6-2.実施の形態6に係る掃除支援システムの変形例
実施の形態6に係る掃除支援システムは、例えば以下のように変形した形態を採用してもよい。
6-2. Modified Example of Cleaning Support System According to Embodiment 6 The cleaning support system according to Embodiment 6 may be modified as follows, for example.

識別情報としてのマーカは、例えば床面等の掃除対象領域全体に付与しておく構成でもよい。この場合、位置情報取得装置6をヘッド部2の位置に設置されたカメラとし、ARマーカのような細かい模様を床全体に付与しておく。位置情報検出部10は、カメラが当該マーカを読み取った情報を取得し、当該読み取った情報から床全体におけるヘッド部2の位置を導出する。これにより、位置情報検出部10は、床面に対するヘッド部2の位置を一意に特定し、ヘッド部2の絶対位置、すなわち床座標系で表される実空間における位置を取得することができる。 The marker serving as the identification information may be provided, for example, on the entire area to be cleaned, such as the floor surface. In this case, the position information acquisition device 6 is a camera installed at the position of the head unit 2, and a fine pattern such as an AR marker is applied to the entire floor. The position information detection unit 10 acquires information obtained by reading the marker with the camera, and derives the position of the head unit 2 on the entire floor from the read information. Thereby, the position information detection unit 10 can uniquely specify the position of the head unit 2 with respect to the floor surface, and acquire the absolute position of the head unit 2, that is, the position in the real space represented by the floor coordinate system.

また、例えば、位置情報取得装置6をヘッド部2に設置されたカメラとし、さらに掃除対象領域にARマーカのような細かい模様の光又は人間が認知できない程度の符号化された点滅光を照射する照明を設置するようにしてもよい。この場合、位置情報検出部10は、カメラが読み取ったこれらの光の情報を用いて、掃除対象領域におけるヘッド部2の位置を導出すればよい。 Further, for example, the position information acquisition device 6 is a camera installed in the head unit 2, and furthermore, the area to be cleaned is illuminated with a finely patterned light like an AR marker or coded flashing light that cannot be recognized by humans. Lighting may also be installed. In this case, the position information detection section 10 may derive the position of the head section 2 in the cleaning target area using the information of these lights read by the camera.

7.実施の形態7.
次に、実施の形態7の掃除支援システムについて説明する。
7. Embodiment 7.
Next, a cleaning support system according to a seventh embodiment will be explained.

7-1.実施の形態7の掃除支援システムの特徴
実施の形態7に係る掃除支援システムは、表示装置7が表示と入力の2つの機能を備えたタッチパネルである場合の動作に特徴を有している。タッチパネルは、表示部としての液晶パネルと位置入力装置としてのタッチパッドを備えた表示装置である。タッチパネルは、既存技術を用いてもよい。タッチパネルは、位置情報取得装置6等の外部から受けた画像情報を表示部に表示すると共に、使用者が手又はスタイラスなどの入力デバイスを用いて、触れられた画面位置の情報を感知して外部へ情報信号として出力する。
7-1. Features of the cleaning support system according to the seventh embodiment The cleaning support system according to the seventh embodiment is characterized in its operation when the display device 7 is a touch panel with two functions: display and input. A touch panel is a display device that includes a liquid crystal panel as a display section and a touch pad as a position input device. The touch panel may use existing technology. The touch panel displays image information received from the outside, such as the position information acquisition device 6, on the display section, and also senses information about the screen position touched by the user using the user's hand or an input device such as a stylus. output as an information signal to

掃除支援装置8は、タッチパネルから入力される位置情報に基づいて、操作者が望む適切な動作を行なう。例えば、タッチパネルから入力される位置情報は、画像作成部12に入力される。画像作成部12は、使用者がタッチパネルの表示部から入力した領域を塗り消しまたは塗りつぶす画像を作成してもよい。これにより、使用者の意思によって、塗りつぶしまたは塗り消しを行うことができる。このような機能は、例えば、使用者が意図しない塗りつぶし又は塗り消しの画像が作成された場合に、その塗りつぶしの領域を変更することができる。 The cleaning support device 8 performs appropriate operations desired by the operator based on position information input from the touch panel. For example, position information input from a touch panel is input to the image creation unit 12. The image creation unit 12 may create an image that erases or fills in the area input by the user from the display unit of the touch panel. Thereby, the user can fill in or erase the area according to his/her intention. Such a function can, for example, change the filled area if a filled or erased image is created that is not intended by the user.

掃除支援装置8が撮像画像に含まれる面を検出する面検出部を備える場合、タッチパネルから入力される位置情報を用いて面検出部を動作させてもよい。例えば、面検出部は、表示部に表示された画像の特定の位置に触れることにより、その位置の面を検出するように構成されていてもよい。また、画像作成部12が、検出された面を塗りつぶしてもよく、また塗り消してもよい。 When the cleaning support device 8 includes a surface detection section that detects a surface included in a captured image, the surface detection section may be operated using position information input from a touch panel. For example, the surface detection section may be configured to detect a surface at a specific position of the image displayed on the display section by touching that position. Further, the image creation unit 12 may fill in or erase the detected surface.

また、画像作成部12は、表示部に表示されている塗りつぶされた領域に触れると塗り消され、反対に塗りつぶされていない領域、塗り消された領域、又は作成画像が重畳されていない領域に触れると塗りつぶされるように構成されていてもよい。より詳しくは、未掃除領域が塗りつぶされた画像が表示部に表示されている場合、使用者は、塗りつぶされていない掃除済領域に触れることにより、その領域を塗りつぶされた未掃除領域に変更することができる。つまり、使用者は、再度掃除を望む掃除済領域を未掃除領域に変更することができるので、再度入念に掃除することができる。 In addition, when the image creation unit 12 touches a filled area displayed on the display unit, the area is erased, and on the other hand, an area that is not filled in, an area that is erased, or an area where the created image is not superimposed is erased. It may be configured to be filled in when touched. More specifically, when an image with a filled-in uncleaned area is displayed on the display section, the user changes the area to a filled-in uncleaned area by touching the unfilled cleaned area. be able to. In other words, the user can change the cleaned area that he/she wants to clean again to the uncleaned area, so that the user can carefully clean the area again.

また、使用者は、掃除する予定のない未掃除領域を掃除済領域に変更することもできる。これにより、掃除する予定のない領域又は壁面等が未掃除領域として塗りつぶされることによる煩わしさを解消することが可能となる。 The user can also change an uncleaned area that is not scheduled to be cleaned to a cleaned area. This makes it possible to eliminate the inconvenience caused by areas or wall surfaces that are not scheduled to be cleaned being painted over as uncleaned areas.

掃除支援装置8は、使用者によるタッチパネルの操作情報を記憶する手動操作記憶部を備えていてもよい。手動操作記憶部は、例えば使用者が表示部に触れることによって塗りつぶし又は塗り消しを行ったことに関連する情報、より詳しくは、日時、対象領域、面、点、回数、塗り消しと塗りつぶしのどちらを行ったか等の情報を記憶する。 The cleaning support device 8 may include a manual operation storage unit that stores touch panel operation information by the user. The manual operation storage unit stores, for example, information related to filling in or erasing by touching the display unit, more specifically, date and time, target area, area, point, number of times, and whether the user has filled in or erased. It stores information such as whether the

また、掃除支援装置8は、手動操作記憶部で取得した情報に基づいて学習を行う手動操作学習部を備えていてもよい。手動操作学習部は、手動操作記憶部から情報を取得する。手動操作学習部は、入力された情報に基づいて、その状況を判断する。例えば、手動操作学習部は、使用者が行う頻度の多い状況を判断する。そして、掃除支援装置8は、手動操作学習部における判断結果に基づいて、面検出部による面検出動作を変更する。例えば、手動操作学習部は、掃除済領域を塗り消す塗り消しモードの際に、予め塗りつぶされている未掃除領域に不満があり、使用者がその塗りつぶし領域を手動で変更していた場合に、そのような状況を学習している。この場合、掃除支援装置8は、手動操作学習部における判断結果に基づいて、塗り消しモードの初期塗りつぶし領域を変更する。これにより、使用者が求める塗り消しモードの状態を作りこむことができる。 Further, the cleaning support device 8 may include a manual operation learning section that performs learning based on information acquired by the manual operation storage section. The manual operation learning section acquires information from the manual operation storage section. The manual operation learning section determines the situation based on the input information. For example, the manual operation learning unit determines situations that are frequently performed by the user. Then, the cleaning support device 8 changes the surface detection operation by the surface detection section based on the determination result in the manual operation learning section. For example, when the user is dissatisfied with the pre-filled uncleaned area during the erase mode where the cleaned area is erased and the user manually changes the filled area, the manual operation learning unit may We are learning about such situations. In this case, the cleaning support device 8 changes the initial filled area in the erase mode based on the determination result in the manual operation learning section. Thereby, it is possible to create the erase mode state desired by the user.

8.実施の形態8.
次に、実施の形態8の掃除支援システムについて説明する。
8. Embodiment 8.
Next, a cleaning support system according to an eighth embodiment will be described.

8-1.実施の形態8の掃除支援システムの特徴
実施の形態8の運転支援システムは、掃除支援装置8が送信部を備える点に特徴を有している。送信部は、外部に信号を送るためのものである。また、送信部は、外部に命令の情報を送るためのものであってもよい。例えば、送信部は、予め定められた条件を満たすと、電気掃除機1に信号を送信する。送信部からの信号を受信すると、電気掃除機1は、入力された信号に基づいて運転の状態を変更する。例えば、電動送風機405への入力の変更、回転数の変更又は運転モードの変更、電動機204への入力の変更、回転数の変更を行う。予め定められた条件とは、例えば掃除済領域を掃除しているか、未掃除領域を掃除しているかである。掃除済領域を掃除しているか未掃除領域を掃除しているかは、ヘッド部2の位置が掃除済領域及び未掃除領域の何れに属しているかによって判断することができる。電気掃除機1は、例えば、未掃除領域を掃除している状態では掃除済領域を掃除している状態に比べ、電動送風機405の回転数または電動機204の回転数を高い状態に調整する。このようにすることで、未掃除領域を掃除するときは、高い塵埃除去性能を期待できる。また、掃除済領域を掃除するときは、未掃除領域を掃除するときに比べ、省エネ効果が高い。これにより、例えば、バッテリを用いて運転しているときは運転時間を長くすることができる。また、電源コードを用いているときは電気料金を低くすることができる。
8-1. Features of the Cleaning Support System of Embodiment 8 The driving support system of Embodiment 8 is characterized in that the cleaning support device 8 includes a transmitter. The transmitter is for sending signals to the outside. Further, the transmitter may be for transmitting command information to the outside. For example, the transmitter transmits a signal to the vacuum cleaner 1 when a predetermined condition is satisfied. Upon receiving the signal from the transmitter, the vacuum cleaner 1 changes the operating state based on the input signal. For example, the input to the electric blower 405 is changed, the rotation speed is changed, or the operating mode is changed, the input to the electric motor 204 is changed, and the rotation speed is changed. The predetermined condition is, for example, whether a cleaned area is being cleaned or an uncleaned area is being cleaned. Whether the cleaned area or the uncleaned area is being cleaned can be determined based on whether the position of the head section 2 belongs to the cleaned area or the uncleaned area. For example, the vacuum cleaner 1 adjusts the rotation speed of the electric blower 405 or the rotation speed of the electric motor 204 to be higher when cleaning an uncleaned area than when cleaning a cleaned area. By doing so, high dust removal performance can be expected when cleaning an uncleaned area. Furthermore, when cleaning a cleaned area, the energy saving effect is higher than when cleaning an uncleaned area. Thereby, for example, when the vehicle is operated using a battery, the operating time can be extended. Also, when using a power cord, electricity costs can be lowered.

これにより、ゴミの多い場所等、特に念入りに掃除をしたい箇所について、電気掃除機1のヘッド部2による掃除回数を知ることができ、使用者は、意図どおりの掃除ができているかを確認できるようになる。 This allows the user to know the number of times the head 2 of the vacuum cleaner 1 has cleaned areas that need to be particularly carefully cleaned, such as areas with a lot of dirt, and allows the user to check whether the cleaning is being done as intended. It becomes like this.

9.実施の形態9.
次に、実施の形態9の掃除支援システムについて説明する。
9. Embodiment 9.
Next, a cleaning support system according to a ninth embodiment will be explained.

9-1.実施の形態9の掃除支援システムの特徴
実施の形態9の掃除支援システムは、画像作成部12において掃除の効率を高めるための種々の画像を作成する動作に特徴を有している。表示規則記憶部16には、これらの画像を作成するための様々な表示規則が記憶されている。画像作成部12は、当該表示規則に従い、使用者の望む様々な画像を作成する。以下、画像作成部12の動作について更に詳しく説明する。
9-1. Features of the Cleaning Support System of Embodiment 9 The cleaning support system of Embodiment 9 is characterized by the operation of creating various images in the image creation unit 12 to improve cleaning efficiency. The display rule storage unit 16 stores various display rules for creating these images. The image creation unit 12 creates various images desired by the user according to the display rules. The operation of the image creation section 12 will be explained in more detail below.

画像作成部12は、ヘッド部2の位置が、掃除対象領域内を移動する速度に応じて、表示される色又は濃度を変更する等、表示画像の内容を変更するようにしてもよく、また、振動または音によって使用者に報知する報知手段を備えていてもよい。なお、電気掃除機1のヘッド部2が掃除対象領域内を移動する速度は、例えば、位置情報取得装置6と掃除支援装置8からヘッド部2の速度を算出してもよい。例えば、撮像画像の画像処理により速度を算出してもよい。より具体的には、複数の撮像画像を用いて、撮像画像に撮像されたヘッド部2の位置と時刻の変化から速度を算出する。より具体的には、撮像画像の取得間隔[fps]、撮像画像におけるヘッド部2の移動量[ピクセル]、位置情報取得装置の床からの距離[m]および画角[°]等を用いて速度を算出してもよい。また、例えば、ヘッド部2の位置に加速度センサ、又は角速度センサを設置しておき、いずれかのセンサから取得した情報に基づき判断するようにすればよい。 The image creation unit 12 may change the content of the displayed image, such as changing the displayed color or density, depending on the speed at which the position of the head unit 2 moves within the area to be cleaned. , a notification means for notifying the user by vibration or sound may be provided. Note that the speed at which the head section 2 of the vacuum cleaner 1 moves within the cleaning target area may be calculated by calculating the speed of the head section 2 from the position information acquisition device 6 and the cleaning support device 8, for example. For example, the speed may be calculated by image processing of the captured image. More specifically, using a plurality of captured images, the speed is calculated from the position of the head section 2 captured in the captured images and the change in time. More specifically, using the acquisition interval [fps] of the captured images, the amount of movement of the head unit 2 in the captured images [pixels], the distance from the floor of the position information acquisition device [m], the angle of view [°], etc. The speed may also be calculated. Further, for example, an acceleration sensor or an angular velocity sensor may be installed at the position of the head portion 2, and the determination may be made based on information acquired from either sensor.

また、画像作成部12は、さらにヘッド部2の位置の速度にあわせて再生速度を調整した音楽を音声出力部から出力させるようにしてもよい。このように、画像作成部12は、画像の表示に加え、音声情報を作成するようにすることもできる。 Furthermore, the image creation section 12 may output music whose playback speed is adjusted according to the speed of the position of the head section 2 from the audio output section. In this way, the image creation unit 12 can create audio information in addition to displaying images.

使用者がヘッド部2を動かす速度が速すぎると、ゴミが十分吸い込めないこともあり得る。しかし、上述したような表示規則に従って、画像作成部12が、ヘッド部2の位置の移動速度に応じて内容を変更した画像等を作成するようにすることで、使用者は、ヘッド部2を動かす速度が速すぎることを察知し、ヘッド部を動かす速度を調整して、効果的に掃除ができるようになる。 If the speed at which the user moves the head section 2 is too fast, dirt may not be sucked in sufficiently. However, by having the image creation unit 12 create an image whose contents are changed according to the speed of movement of the position of the head unit 2 in accordance with the above-mentioned display rules, the user can easily view the head unit 2. It detects when you are moving the head too fast and adjusts the speed at which the head moves, allowing you to clean more effectively.

また、画像作成部12は、電気掃除機1に搭載されたゴミセンサから取得する情報に基づいて、画像の内容を変更するようにしてもよい。具体的には、画像作成部12は、ゴミセンサから、電気掃除機1のゴミ吸引量を示すデータを取得し、取得したゴミ吸引量に応じて、掃除対象領域における掃除済領域を示す画像の内容を変更する。例えば、画像作成部12は、ゴミ吸引量に応じて、掃除済領域を示す配色又は濃度を変更した画像を作成してもよいし、さらに、「ジャリジャリ」等、何かを吸い込む効果音を音声情報として作成し、音声出力部から出力させるようにしてもよい。 Further, the image creation unit 12 may change the content of the image based on information acquired from a dust sensor installed in the vacuum cleaner 1. Specifically, the image creation unit 12 acquires data indicating the amount of dust suctioned by the vacuum cleaner 1 from the dust sensor, and creates the content of the image indicating the cleaned area in the cleaning target area according to the acquired amount of dust suctioned. change. For example, the image creation unit 12 may create an image with a different color scheme or density indicating a cleaned area depending on the amount of dust suctioned, and may also create an image with a sound effect of sucking something in, such as "Jari Jari". It may be created as information and output from the audio output section.

このように、ゴミセンサの情報を利用して、汚れ具合に応じた掃除の必要性を見える化又は聞こえる化することで、使用者は、ゴミの多い箇所は念入りに掃除する等、必要性に応じて、掃除を効率よく行うことができるようになる。 In this way, by using information from the dust sensor to make visible or audible the need for cleaning depending on the level of dirt, the user can take action according to necessity, such as carefully cleaning areas with a lot of dust. This will allow you to clean more efficiently.

画像作成部12は、ゴミセンサから取得したゴミ吸引量を示すデータと、当該ゴミ吸引量を取得した際のヘッド部の位置とを紐付けた情報の履歴を記憶しておく。そして、画像作成部12は、当該記憶しておいた履歴から、ゴミ吸引量の多いヘッド部の位置を掃除対象領域内の汚れやすい箇所に該当すると判断し、当該判断した箇所について画像の濃淡等を変更した画像を作成してもよい。濃淡等の変更方法としては、例えば、ゴミ吸引量が多いほど、すなわち、汚れやすい箇所ほど、画像の色を濃くする等が挙げられる。 The image creation unit 12 stores a history of information that links data indicating the amount of dust suction acquired from the dust sensor and the position of the head unit when the dust suction amount was acquired. Then, the image creation unit 12 determines, from the stored history, that the position of the head unit that has a large amount of dust suction corresponds to an easily soiled area within the area to be cleaned, and creates images such as shading, etc. for the determined area. You may create an image by changing the . As a method for changing the shading, etc., for example, the color of the image may be made darker as the amount of dust suction increases, that is, as the area becomes more easily soiled.

また、汚れやすさに応じて画像の内容を変更する他の例としては、例えば、画像作成部12は、領域判別部11からヘッド部2の位置の通過回数および当該通過回数とヘッド部2の位置とが紐付けられた情報を取得して履歴として記憶しておく。そして、画像作成部12は、当該記憶しておいた履歴から、汚れやすい箇所を判断し、汚れやすいと判断した箇所ほど、画像の色を濃くする等、画像の濃淡等を変更するようにしてもよい。この場合、画像作成部12は、ヘッド部2の位置の通過回数が多いヘッド部2の位置を、掃除対象領域内の汚れやすい箇所に該当すると判断すればよい。ヘッド部2の位置が何回も通過するということは、使用者が、汚れが気になって何度も掃除を試みた箇所であり、汚れやすい箇所と推定できる。 In addition, as another example of changing the content of the image depending on the degree of dirtiness, for example, the image creation unit 12 may calculate the number of passes from the area determination unit 11 to the position of the head unit 2 and the number of passes and the position of the head unit 2. The information associated with the location is acquired and stored as a history. Then, the image creation unit 12 determines the locations that are likely to get dirty from the stored history, and changes the shading of the image, such as making the color of the image darker, for locations that are determined to be more likely to get dirty. Good too. In this case, the image creation unit 12 may determine that the position of the head unit 2 that has passed the position a large number of times corresponds to a location that is easily soiled within the area to be cleaned. If the position of the head section 2 is passed many times, it can be assumed that the user is concerned about dirt and has attempted to clean it many times, and that the location is easily soiled.

また、画像作成部12は、領域判別部11によって判別される掃除済領域を塗りつぶすまたは塗り消す等の画像を作成することに加え、領域判別部11によって判別されるヘッド部2の位置の移動軌跡を示す画像をさらに作成するようにしてもよい。例えば、画像作成部12は、領域判別部11からヘッド部2の位置の移動軌跡の情報を取得し、当該取得した移動軌跡を矢印等で示す画像を作成するようにしてもよい。また、例えば、画像作成部12は、領域判別部11からヘッド部2の位置の移動軌跡の情報を取得して当該移動軌跡を示す画像を作成すると、当該作成した画像を画像履歴記憶部に記憶しておき、過去の移動軌跡の画像もあわせて表示装置7に表示させるようにしてもよい。 In addition to creating an image of filling in or erasing the cleaned area determined by the area determining unit 11, the image creating unit 12 also creates an image of the movement trajectory of the position of the head unit 2 determined by the area determining unit 11. You may further create an image showing the . For example, the image creation unit 12 may acquire information on the movement locus of the position of the head unit 2 from the area determination unit 11, and create an image showing the acquired movement locus with an arrow or the like. Further, for example, when the image creation unit 12 acquires information on the movement trajectory of the position of the head unit 2 from the area determination unit 11 and creates an image showing the movement trajectory, the image creation unit 12 stores the created image in the image history storage unit. In addition, images of past movement trajectories may also be displayed on the display device 7.

これにより、使用者は、過去に同じ掃除対象領域が掃除された際のヘッド部2の位置の移動軌跡と見比べながら、又は過去に同じ掃除対象領域が掃除された際のヘッド部2の位置の移動軌跡をなぞりながら、掃除を行うことができる。 As a result, the user can compare the movement trajectory of the position of the head unit 2 when the same cleaning target area was cleaned in the past, or the position of the head unit 2 when the same cleaning target area was cleaned in the past. You can clean while tracing the movement trajectory.

また、画像作成部12は、ヘッド部2の位置の移動軌跡をキャラクター等に置き換えた画像を作成するようにしてもよい。例えば、画像作成部12は、過去に同じ掃除対象領域が掃除された際のヘッド部の位置の移動軌跡を示す画像を、キャラクター等に置き換えた画像として作成する。これにより、使用者は、表示装置7に表示されたキャラクター等を追いかけているうちに楽しく掃除ができる。なお、画像作成部12は、ヘッド部2の位置の移動軌跡を示す画像のみを作成し、表示装置7に表示させるようにしてもよい。 Further, the image creation unit 12 may create an image in which the movement locus of the position of the head unit 2 is replaced with a character or the like. For example, the image creation unit 12 creates an image in which a character or the like is substituted for an image showing the movement locus of the position of the head when the same cleaning target area was cleaned in the past. Thereby, the user can enjoy cleaning while following the characters etc. displayed on the display device 7. Note that the image creation unit 12 may create only an image showing the movement locus of the position of the head unit 2 and display it on the display device 7.

また、例えば、位置情報検出部10が、電気掃除機1の制御回路からの情報に基づいて、使用者が掃除を行う際のストロークの長さ、すなわち、一度のハンドル操作で動かされたヘッド部2の位置の移動距離の長さ、速度、又は掃除終了までのストローク回数等の履歴を位置履歴記憶部14に記憶させておく。画像作成部12は、当該履歴を参照して、ヘッド部2の位置の移動軌跡のトータルの長さ、掃除に要した時間等の履歴、ランキング、又は効率性評価等を算出し、表示装置7に表示させる画像を作成するようにしてもよい。なお、この場合、掃除支援装置8は、予め比較対象となる他者の掃除実行時の履歴情報、又は模範となる掃除実行時の情報等を蓄積しておく。そして、画像作成部12は、当該蓄積しておいた履歴情報からランキング、又は効率性評価等を算出するようにすればよい。 For example, the position information detection unit 10 may determine the length of the stroke when the user cleans, that is, the length of the head moved by one handle operation, based on information from the control circuit of the vacuum cleaner 1. The position history storage unit 14 stores a history such as the length of the moving distance of the second position, the speed, or the number of strokes until the end of cleaning. The image creation unit 12 refers to the history, calculates the total length of the movement trajectory of the position of the head unit 2, history of the time required for cleaning, ranking, efficiency evaluation, etc., and displays the result on the display device 7. You may also create an image to be displayed on the screen. Note that in this case, the cleaning support device 8 stores in advance historical information on cleaning executions of others to be compared, information on exemplary cleaning executions, and the like. Then, the image creation unit 12 may calculate rankings, efficiency evaluations, etc. from the accumulated history information.

このように、使用者自身または他者等の過去の掃除の履歴、模範となる情報、又は比較対象となる情報等を記憶しておき、当該情報を分析して活用することで、掃除の効率化を図ることができる。また、使用者は、競争意識を持って掃除を行うことができ、飽きない。また、例えば、ベテランの掃除業者の掃除の仕方のノウハウを記憶しておくようにすれば、当該記憶された情報に基づいて、新米の使用者がベテランの掃除業者の真似をできるようになる。具体的には、例えば、ベテランの掃除業者が過去に掃除を行った際のヘッド部2の位置の履歴を位置履歴記憶部に記憶させておく。そして、画像作成部12は、当該履歴から、ベテランの掃除業者が過去に掃除を行った際のヘッド部2の位置の軌跡を表示装置7に表示させる画像を作成する。これにより、新米の使用者等は、表示装置7に表示された軌跡をなぞって掃除を行うことができる。 In this way, by memorizing past cleaning history, model information, or comparison information of the user or others, and analyzing and utilizing the information, cleaning efficiency can be improved. It is possible to aim for In addition, users can clean with a sense of competition and never get bored. Further, for example, if the cleaning know-how of a veteran cleaner is memorized, a novice user can imitate the veteran cleaner based on the stored information. Specifically, for example, the history of the position of the head section 2 when a veteran cleaning company performed cleaning in the past is stored in the position history storage section. Then, the image creation unit 12 creates, from the history, an image that displays on the display device 7 the locus of the position of the head unit 2 when a veteran cleaner cleaned in the past. Thereby, a novice user or the like can clean by tracing the trajectory displayed on the display device 7.

画像作成部12は、上述したようなヘッド部2の位置の移動軌跡のトータルの長さ、掃除に要した時間等の履歴、ランキング、又は効率性評価等を算出し、算出した結果を表示装置7に表示される画像のみを作成してもよい。また、当該算出した結果を、掃除済領域を塗りつぶすまたは塗り消す等の画像とをあわせて表示部に表示してもよい。 The image creation unit 12 calculates the total length of the movement trajectory of the position of the head unit 2, the history of the time required for cleaning, ranking, or efficiency evaluation, etc., as described above, and displays the calculated results on a display device. 7 may be created. Further, the calculated result may be displayed on the display unit together with an image of filling in or erasing the cleaned area.

また、画像作成部12は、移動軌跡等の時間経過がわかるように、ヘッド部2の位置の時間的な変化に応じて、作成する画像の内容を変更するようにしてもよい。具体的には、例えば、領域判別部11は、位置情報検出部10が検出したヘッド部2の位置の時間的な変化に基づいて、ヘッド部2の位置の移動軌跡等を検出する。そして、領域判別部11は、検出された移動軌跡等に基づいて掃除済領域を判別すると、判別した掃除対象領域の情報と対応付けて、検出されたヘッド部2の位置の情報を画像作成部12へ出力するようにする。画像作成部12は、領域判別部11から取得した情報から、ヘッド部2の位置の時間的な変化を検出し、移動軌跡等に基づいて作成する画像について、時間経過とともに消えるように表示装置7に表示することもできる。 Furthermore, the image creation section 12 may change the content of the image to be created in accordance with temporal changes in the position of the head section 2 so that the passage of time such as the movement trajectory can be seen. Specifically, for example, the area determination unit 11 detects the movement locus of the position of the head unit 2, etc. based on the temporal change in the position of the head unit 2 detected by the position information detection unit 10. Then, when the area determination unit 11 determines the cleaned area based on the detected movement locus, etc., the area determination unit 11 associates the information with the information of the determined area to be cleaned, and transmits the information on the detected position of the head unit 2 to the image creation unit. 12. The image creation unit 12 detects temporal changes in the position of the head unit 2 from the information acquired from the area determination unit 11, and displays the image created based on the movement trajectory etc. on the display device 7 so that it disappears over time. It can also be displayed.

また、画像作成部12は、掃除対象領域に対する掃除済領域、又は未掃除領域の割合を示す画像を作成するようにしてもよい。例えば、画像作成部12は、「あと○%」等、掃除対象領域に対する未掃除領域の割合を算出し、算出した割合を示す画像を作成するようにしてもよい。具体的には、例えば、領域判別部11が掃除済領域を判別する際に、掃除対象領域を100とした場合の掃除済領域の割合を算出し、当該掃除済領域の割合の情報を画像作成部12に出力する。画像作成部12は、領域判別部11から取得した割合の情報から、掃除対象領域に対する未掃除領域の割合を算出し、算出した割合を示す画像を作成する。なお、この動作は一例に過ぎず、画像作成部12は、その他の方法で、掃除対象領域に対する掃除済領域、又は未掃除領域の割合を示す画像を作成するものであってもよい。このようにすることで、使用者は、あとどれぐらいで掃除が完了するのかを把握することができ、過剰な掃除を防ぎ、掃除の効率を向上させることができる。 Further, the image creation unit 12 may create an image showing the ratio of the cleaned area or the uncleaned area to the area to be cleaned. For example, the image creation unit 12 may calculate the ratio of the uncleaned area to the area to be cleaned, such as "X% left", and create an image showing the calculated ratio. Specifically, for example, when the area determination unit 11 determines a cleaned area, it calculates the ratio of the cleaned area when the area to be cleaned is set to 100, and uses information about the ratio of the cleaned area to create an image. output to section 12. The image creation unit 12 calculates the ratio of the uncleaned area to the cleaning target area from the ratio information acquired from the area determination unit 11, and creates an image showing the calculated ratio. Note that this operation is only an example, and the image creation unit 12 may create an image showing the ratio of the cleaned area or the uncleaned area to the area to be cleaned using other methods. By doing this, the user can know how much time it will take to complete cleaning, prevent excessive cleaning, and improve cleaning efficiency.

画像作成部12は、上述したような、掃除対象領域に対する掃除済領域、又は掃除対象領域に対する未掃除領域の割合等を示す画像のみを作成し、表示装置7に表示してもよいし、領域判別部11によって判別される掃除済領域を塗りつぶすまたは塗り消す等の画像とあわせて、表示装置7に表示してもよい。 The image creation unit 12 may create only an image showing the ratio of the cleaned area to the cleaning target area or the uncleaned area to the cleaning target area, etc., and display it on the display device 7, as described above. The cleaned area determined by the determining unit 11 may be displayed on the display device 7 together with an image of filling in or erasing the cleaned area.

また、画像作成部12は、掃除対象領域に対する掃除済領域を示す画像と未掃除領域を示す画像を同時に作成するようにしてもよい。掃除済領域を示す画像と、未掃除領域を示す画像とを同時に表示させる場合は、例えば、塗りつぶしの色を変える等、画像作成部12は、これらの領域が互いに区別できるような画像を作成する。 Further, the image creation unit 12 may simultaneously create an image showing a cleaned area and an image showing an uncleaned area for the cleaning target area. When displaying an image showing a cleaned area and an image showing an uncleaned area at the same time, the image creation unit 12 creates an image that allows these areas to be distinguished from each other, for example by changing the fill color. .

また、画像作成部12は、領域判別部11によって判別される掃除済領域を塗りつぶす又は塗り消す等の画像を表示装置7に表示させることに加え、掃除対象領域を全て塗りつぶすまたは塗り消す画像となった場合には、予め決められたキャラクター等の絵を表示装置7に表示させるようにしてもよい。これにより、使用者は、掃除対象領域の掃除を終了した時点の達成感をより味わうことができる。 In addition to displaying an image on the display device 7 in which the cleaned area determined by the area determining unit 11 is filled in or erased, the image creation unit 12 also displays an image in which the area to be cleaned is completely filled in or erased. In this case, a picture of a predetermined character or the like may be displayed on the display device 7. This allows the user to enjoy a greater sense of accomplishment upon finishing cleaning the area to be cleaned.

また、画像作成部12は、領域判別部11によって判別される掃除済領域を塗りつぶすまたは塗り消す等の画像を表示装置7に表示させる過程で、予め設定されたアイテムを表示させる画像を作成するようにしてもよい。例えば、画像作成部12は、掃除対象領域全体の半分の領域が掃除された場合、予め決められたキャラクター等の絵を表示装置7に表示させるようにする。なお、画像作成部12は、掃除対象領域全体に対する掃除済領域の割合に関する情報を、例えば、領域判別部11から取得するようにすればよい。これにより、使用者は、掃除状況の途中経過を把握しながら掃除をすることができる。また、例えば、掃除対象領域全体の半分の領域を掃除した時点等、予め目標となる時点を設定しておくようにすれば、使用者は、掃除しながら当該目標となる時点に到達したことを知ることができる。これにより、使用者は、ゲームをしているような感覚で、より楽しく掃除をすることができるようになる。 The image creation unit 12 also creates an image for displaying preset items in the process of displaying on the display device 7 an image of filling in or erasing the cleaned area determined by the area determination unit 11. You can also do this. For example, when half of the entire area to be cleaned has been cleaned, the image creation unit 12 causes the display device 7 to display a picture of a predetermined character or the like. Note that the image creation unit 12 may acquire information regarding the ratio of the cleaned area to the entire area to be cleaned from the area determination unit 11, for example. This allows the user to clean while keeping track of the progress of the cleaning process. Furthermore, if a target point in time is set in advance, such as the point in time when half of the entire area to be cleaned has been cleaned, the user can keep track of when the target point has been reached while cleaning. You can know. This allows the user to have more fun cleaning as if they were playing a game.

また、画像作成部12は、表示装置7に表示される画像を、掃除履歴によって変更させるようにしてもよい。例えば、画像作成部12は、領域判別部11によって判別される掃除済領域を塗りつぶす又は塗り消す等の画像を、生き物の映像となるような画像とし、掃除済領域が増えるに従って、当該生き物が大きくなっていく画像を作成するようにしてもよい。また、例えば、画像作成部12は、領域判別部11によって判別される、ヘッド部2の位置の移動軌跡等に基づく掃除済領域を塗りつぶすまたは塗り消す等の画像を、乗物の映像となるような画像とし、掃除済領域が増えるに従って、乗物の機体の装備が派手になる画像を作成するようにしてもよい。また、例えば、画像作成部12は、領域判別部11によって判別される掃除済領域を塗りつぶす等の画像を電車の画像とし、さらに、ヘッド部2の位置の移動軌跡が線路の映像となるような画像を作成するようにしてもよい。掃除済領域には、掃除済領域が増えるに従って、線路上を電車が進んでいく画像が表示されるようになる。このようにしても、使用者は、ゲームをしているような感覚で、より楽しく掃除をすることができる。 Further, the image creation unit 12 may change the image displayed on the display device 7 depending on the cleaning history. For example, the image creation unit 12 fills in or erases the cleaned area determined by the area determination unit 11 so that the image becomes an image of a living creature, and as the number of cleaned areas increases, the creature grows larger. It is also possible to create an image that gradually changes. For example, the image creation unit 12 may create an image of a vehicle image by filling in or erasing the cleaned area based on the movement locus of the position of the head unit 2, etc., which is determined by the area determination unit 11. An image may be created in which the equipment of the vehicle body becomes more flashy as the area that has been cleaned increases. Further, for example, the image creation unit 12 may create an image in which the cleaned area determined by the area determination unit 11 is filled in as an image of a train, and further create an image in which the movement locus of the position of the head unit 2 becomes an image of a railway track. An image may also be created. As the number of cleaned areas increases, an image of a train moving on the tracks will be displayed in the cleaned area. Even in this case, the user can have more fun cleaning with the feeling of playing a game.

以上のように、表示規則記憶部16には、予め、様々な表示規則を設定しておくことができ、画像作成部12は、当該表示規則に則って、様々な方法で表示装置7に表示させる画像を作成することができる。 As described above, various display rules can be set in advance in the display rule storage section 16, and the image creation section 12 displays images on the display device 7 in various ways according to the display rules. You can create images that

9-2.実施の形態9に係る掃除支援システムの変形例
実施の形態9に係る掃除支援システムは、例えば以下のように変形した形態を採用してもよい。
9-2. Modified Example of Cleaning Support System According to Embodiment 9 The cleaning support system according to Embodiment 9 may be modified as follows, for example.

上述した画像作成部12における種々の動作は、組み合わせて実行してもよい。例えば、画像作成部12は、ヘッド部2の位置が通過した回数に応じて塗りつぶす又は塗り消す色を変更する画像を作成して表示させるとともに、「あと○%」等、掃除対象領域に対する掃除済領域の割合を示す画像を作成して表示させるようにしてもよい。また、画像作成部12は、さらに掃除対象領域を全て塗りつぶす画像となった場合には、予め決められたキャラクター等の絵を表示装置7に表示させるようにしてもよい。 The various operations in the image creation section 12 described above may be performed in combination. For example, the image creation unit 12 creates and displays an image that changes the color to be filled in or erased depending on the number of times the position of the head unit 2 has passed, and also indicates that the area to be cleaned has already been cleaned, such as “XX% remaining”. An image indicating the area ratio may be created and displayed. Furthermore, when the image is to completely fill out the area to be cleaned, the image creation unit 12 may cause the display device 7 to display a picture of a predetermined character or the like.

また、上述の画像作成部12における画像の作成に用いられた表示規則は、例えば重畳部13が重畳画像を作成する際にも適用できる。すなわち、重畳部13は、予め設定された表示規則に基づいて内容を変更した画像を撮像画像に重畳させた重畳画像を作成し、表示装置7に表示させることもできる。例えば、画像作成部12が、掃除対象領域が掃除された掃除回数に応じて塗りつぶす又は塗り消す色が変わる等、内容を変更した画像を作成し、表示装置7に表示させるようにした場合に、重畳部13は、掃除対象領域が掃除された回数に応じて塗りつぶすまたは塗り消す色が変わる等、内容を変更した画像を撮像画像に重畳させた重畳画像を作成し、表示装置7に表示させることもできる。 Furthermore, the display rules used for creating images in the image creating section 12 described above can also be applied, for example, when the superimposing section 13 creates a superimposed image. That is, the superimposing unit 13 can also create a superimposed image in which an image whose content has been changed based on a preset display rule is superimposed on a captured image, and display the superimposed image on the display device 7. For example, when the image creation unit 12 creates an image whose content has been changed, such as changing the color to be filled in or erased depending on the number of times the cleaning target area has been cleaned, and displays it on the display device 7, The superimposing unit 13 creates a superimposed image in which an image whose content has been changed, such as changing the color to be filled in or erased depending on the number of times the cleaning target area has been cleaned, is superimposed on the captured image, and causes the display device 7 to display the superimposed image. You can also do it.

また、例えば、画像作成部12が、ゴミセンサから取得する情報に基づき、内容を変更した画像を作成して表示させるようにした場合、重畳部13は、ゴミセンサから取得したゴミ吸引量を示す画像を撮像画像に重畳させた重畳画像を作成して表示装置7に表示させることもできる。重畳部13は、例えば、携帯型端末のスピーカ等から、ゴミ吸引量に応じて「ジャリジャリ」等、何かを吸い込む効果音を出力させるようにしてもよい。例えば、重畳部13は、ゴミ吸引量が多いほど、出力させる効果音の音量を大きくするようにしてもよい。また、ゴミ吸引量に応じて出力させる効果音を変化させるようにしてもよい。 Further, for example, when the image creation unit 12 creates and displays an image with changed content based on information acquired from the dust sensor, the superimposition unit 13 displays an image indicating the amount of dust suction acquired from the dust sensor. It is also possible to create a superimposed image superimposed on the captured image and display it on the display device 7. The superimposing unit 13 may output, for example, a sound effect of sucking in something, such as "jar-jari", from a speaker of a portable terminal or the like, depending on the amount of dirt being sucked. For example, the superimposing unit 13 may increase the volume of the sound effect to be output as the amount of dust suction increases. Further, the sound effect to be output may be changed depending on the amount of dust suctioned.

なお、本実施の形態では位置情報検出部10はヘッド部2の位置を検出したが、検出する位置はヘッド部2に限定されない。例えば、位置情報検出部10は電気掃除機1の一部または管体3または管体3の一部を検出し、当該位置からヘッド部2の位置を推定することとしてもよい。 Note that in this embodiment, the position information detection section 10 detects the position of the head section 2, but the position to be detected is not limited to the head section 2. For example, the position information detection unit 10 may detect a part of the vacuum cleaner 1, the pipe body 3, or a part of the pipe body 3, and estimate the position of the head part 2 from the detected position.

10.実施の形態10.
次に、実施の形態10の掃除支援システムについて説明する。
10. Embodiment 10.
Next, a cleaning support system according to a tenth embodiment will be described.

10-1.実施の形態10の掃除支援システムの特徴
実施の形態10の掃除支援システムは、掃除支援装置8としての携帯型端末を用いて重畳画像を使用者の視点の画像に変換する動作に特徴を有している。実施の形態10の掃除支援システムは、表示装置7としての表示部と位置情報取得装置6としてのカメラが一つの携帯型端末に備えられている。このような携帯型端末は、例えば図10に示す掃除支援装置8として構成することができる。
10-1. Features of the cleaning support system according to the tenth embodiment The cleaning support system according to the tenth embodiment is characterized by the operation of converting a superimposed image into an image from the user's viewpoint using a portable terminal as the cleaning support device 8. ing. In the cleaning support system of Embodiment 10, a display section as a display device 7 and a camera as a position information acquisition device 6 are provided in one portable terminal. Such a portable terminal can be configured as a cleaning support device 8 shown in FIG. 10, for example.

画像の視点変換は、例えば使用者の頭部、視点又は目線をトラッキングすることにより実現する。例えば、使用者の頭部、顔又は眼球を検出する。そして、頭部又は顔の向き、位置、又は眼球の動きから使用者の視線方向を算出する。掃除支援装置8は、例えば、端末に内蔵された位置情報取得装置6としての背面カメラを利用して、掃除対象領域又はヘッド部2の位置情報を取得し、正面カメラ64を使用して、使用者のトラッキングを実行してもよい。つまり、正面カメラ64は、使用者の視線の方向を認識する視線認識装置として機能する。つまり掃除支援システムは、二つの別々の追跡システムが必要であるだけでなく、背面カメラの撮像画像から新しい視点の像の描画を行う必要がある。これは、背面カメラからの撮像画像をワーピングすることによって実現できる。重畳部13は、少なくとも正面カメラ64によって認識された視線の方向の撮像画像が含まれるように重畳画像を作成する。このため、背面カメラは、使用者の頭部位置が変化したときに変化する視線の方向の画像をカバーできる広い視野角のカメラが好ましい。また、端末から見える三次元シーンを、例えば奥行きセンサの利用又はステレオ再構成を行うことでも実現可能である。 The viewpoint conversion of the image is realized, for example, by tracking the user's head, viewpoint, or line of sight. For example, the user's head, face, or eyeballs are detected. Then, the direction of the user's line of sight is calculated from the direction and position of the head or face, or the movement of the eyeballs. The cleaning support device 8 uses, for example, a rear camera as a position information acquisition device 6 built into the terminal to acquire position information of the area to be cleaned or the head section 2, and uses a front camera 64 to determine the position of the head section 2. User tracking may also be performed. In other words, the front camera 64 functions as a line-of-sight recognition device that recognizes the direction of the user's line of sight. In other words, the cleaning support system not only requires two separate tracking systems, but also needs to draw an image from a new viewpoint from the image captured by the rear camera. This can be achieved by warping the captured image from the rear camera. The superimposing unit 13 creates a superimposed image such that at least a captured image in the direction of the line of sight recognized by the front camera 64 is included. For this reason, the rear camera is preferably a camera with a wide viewing angle that can cover images in the direction of the line of sight that changes when the position of the user's head changes. It is also possible to realize the three-dimensional scene seen from the terminal, for example, by using a depth sensor or by performing stereo reconstruction.

11.実施の形態11.
次に、実施の形態11の掃除支援システムについて説明する。
11. Embodiment 11.
Next, a cleaning support system according to an eleventh embodiment will be explained.

11-1.実施の形態11の掃除支援システムの特徴
実施の形態11に係る掃除支援システムは、位置情報取得装置6と掃除済領域との間に遮蔽物がある場合の重畳画像の作成動作に特徴を有している。以下の説明において、位置情報取得装置6と掃除済領域との間に遮蔽物があり、遮蔽物により位置情報取得装置6が撮像できない掃除済領域は、「死角となる掃除済領域」と呼ぶ。また、位置情報取得装置6と掃除済領域との間に遮蔽物がなく、撮像可能な掃除済領域は、「撮像される掃除済領域」と呼ぶ。また、位置情報取得装置6と未掃除領域との間に遮蔽物があり、遮蔽物により位置情報取得装置6が撮像できない未掃除領域は、「死角となる未掃除領域」と呼ぶ。さらに、位置情報取得装置6と未掃除領域との間に遮蔽物がなく、撮像可能な未掃除領域は、「撮像される未掃除領域」と呼ぶ。
11-1. Features of the cleaning support system according to the eleventh embodiment The cleaning support system according to the eleventh embodiment has a feature in the operation of creating a superimposed image when there is an obstruction between the position information acquisition device 6 and the cleaned area. ing. In the following description, the cleaned area where there is a shield between the position information acquisition device 6 and the cleaned area and the position information acquisition device 6 cannot image due to the shield will be referred to as a "cleaned area serving as a blind spot." Further, a cleaned area where there is no obstruction between the position information acquisition device 6 and the cleaned area and which can be imaged is referred to as a "cleaned area to be imaged." In addition, there is a shield between the position information acquisition device 6 and the uncleaned area, and the uncleaned area that cannot be imaged by the position information acquisition device 6 due to the obstruction is referred to as an "uncleaned area serving as a blind spot." Furthermore, an uncleaned area where there is no obstruction between the position information acquisition device 6 and the uncleaned area and which can be imaged is referred to as an "uncleaned area to be imaged."

上述したとおり、重畳部13は、撮像画像に作成画像を重畳する。ここで作成される重畳画像は、作成画像が撮像画像よりも前面に配置された画像である。このため、位置情報取得装置6と掃除済領域との間に遮蔽物があり、掃除済領域が死角になる場合、表示装置7には、遮蔽物が掃除済領域であるかのように表示される。つまり、撮像される掃除済領域に、死角となる掃除済領域の領域判別情報が表示されてしまう。具体的には、例えば位置情報取得装置6と掃除済領域の間に机が配置されている場合、机の下又は机の下の床周辺を掃除した後、表示装置7を確認すると、あたかも机が塗りつぶされているかのように表示装置7に表示されてしまうことがある。また、例えば、壁または仕切のような鉛直面より遠い位置を掃除して掃除済領域となった際に、位置情報取得装置6と掃除済領域の間に仕切りが配置されている場合、位置情報取得装置6からは掃除済領域が鉛直面に隠されて認識できず、あたかも仕切りが掃除済領域であるかのように表示装置7に表示されてしまうことがある。また1階の掃除を終了後に2階の掃除を行う際に、2階の未掃除領域に1階の掃除済領域の結果が表示されてしまうことがある。これにより、使用者は違和感を感じ、また誤認識をする可能性がある。 As described above, the superimposing unit 13 superimposes the created image on the captured image. The superimposed image created here is an image in which the created image is placed in front of the captured image. Therefore, if there is a blocking object between the position information acquisition device 6 and the cleaned area and the cleaned area becomes a blind spot, the display device 7 will display the blocked object as if it were a cleaned area. Ru. In other words, the area determination information of the cleaned area, which is a blind spot, is displayed in the cleaned area that is imaged. Specifically, for example, if a desk is placed between the location information acquisition device 6 and the cleaned area, if you check the display device 7 after cleaning the area under the desk or around the floor under the desk, it will appear as if the desk may be displayed on the display device 7 as if it were filled in. For example, when a wall or a partition that is far from a vertical surface is cleaned and becomes a cleaned area, if a partition is placed between the position information acquisition device 6 and the cleaned area, the position information The cleaned area may not be recognized by the acquisition device 6 because it is hidden by the vertical plane, and may be displayed on the display device 7 as if the partition were the cleaned area. Furthermore, when cleaning the second floor after finishing cleaning the first floor, the results of the cleaned area on the first floor may be displayed in the uncleaned area on the second floor. As a result, the user may feel uncomfortable and may misunderstand the situation.

本実施の形態では、死角となる掃除済領域と撮像される掃除済領域とは、異なる画像が作成される。異なる画像とは、例えば死角となる掃除済領域と撮像される掃除済領域とが、色彩、明度、透明度、柄、塗りつぶしと水玉、ドット柄の間隔、点滅等によって区別された作成画像である。また、一方を複数の画像により点滅しているような表示にしてもよい。また、例えば、死角となる掃除済領域は半透明、透明な作成画像であってもよく、作成画像を非表示にしてもよく、作成画像を作成しなくてもよい。 In this embodiment, different images are created for the cleaned area that is a blind spot and the cleaned area that is imaged. The different images are, for example, created images in which a cleaned area that is a blind spot and a cleaned area that is to be imaged are distinguished by color, brightness, transparency, pattern, fill and polka dots, spacing between dot patterns, blinking, etc. Alternatively, one of the images may be displayed as if it were blinking using a plurality of images. Further, for example, the cleaned area serving as a blind spot may be a semi-transparent or transparent created image, the created image may be hidden, or the created image does not need to be created.

表示装置7には、死角となる掃除済領域と撮像される掃除済領域が、異なる画像又は表示方法で表示される。また、死角となる掃除済領域に対応した位置に透明な作成画像の作成、また当該位置の作成画像を非表示にすることで、少なくとも、撮像される未掃除領域が掃除済領域であるかのように表示されることがない。これにより、使用者が死角となる掃除済領域と撮像される掃除済領域を判別できるので、違和感を感じず、誤認識が発生することもなく、掃除の質や効率が向上する。 On the display device 7, the cleaned area that is a blind spot and the cleaned area that is imaged are displayed using different images or display methods. In addition, by creating a transparent created image at a position corresponding to a cleaned area that is a blind spot, and by hiding the created image at that position, it is possible to at least check whether the uncleaned area to be imaged is a cleaned area. It is never displayed as such. As a result, the user can distinguish between the cleaned area that is a blind spot and the cleaned area that is imaged, so that the user does not feel uncomfortable and does not have erroneous recognition, improving the quality and efficiency of cleaning.

なお、位置情報取得装置6の位置や姿勢が変化し、死角となる掃除済領域が撮像される掃除済領域に変化した場合は、その変化が逐次表示部に反映される。なお、省略するが、「死角となる未掃除領域」と「撮像される未掃除領域」についても死角となる掃除済領域と撮像される掃除済領域との関係と同様の考えである。例えば、塗り消しモードの際に未掃除領域に画像を作成する際に、死角となる掃除済領域と撮像される掃除済領域との関係と同様の考えである。 Note that if the position or posture of the position information acquisition device 6 changes and the cleaned area that becomes the blind spot changes to the cleaned area that is imaged, the change is reflected on the display section one by one. Although omitted here, the relationship between the "uncleaned area serving as a blind spot" and the "uncleaned area to be imaged" is similar to the relationship between the cleaned area serving as a blind spot and the cleaned area to be imaged. For example, the idea is similar to the relationship between the cleaned area that becomes a blind spot and the cleaned area that is imaged when creating an image in an uncleaned area in the erase mode.

12.実施の形態12.
次に、実施の形態12の掃除支援システムについて説明する。
12. Embodiment 12.
Next, a cleaning support system according to a twelfth embodiment will be described.

12-1.実施の形態12の掃除支援システムの特徴
実施の形態12の掃除支援システムは、複数の掃除具と一つまたは複数の掃除支援装置8を用いた点に特徴を有している。例えば、複数人による掃除、複数の掃除具による掃除、複数の掃除機による掃除、複数のロボット掃除機による掃除、ロボット掃除機と人が手にもって使用する掃除機による掃除をする場合が例示される。また、複数の使用者が各々に掃除支援装置8を有していて、複数の掃除支援装置8が連携可能であってもよい。
12-1. Features of the cleaning support system according to the twelfth embodiment The cleaning support system according to the twelfth embodiment is characterized in that a plurality of cleaning tools and one or more cleaning support devices 8 are used. Examples include cleaning by multiple people, cleaning with multiple cleaning tools, cleaning with multiple vacuum cleaners, cleaning with multiple robot vacuum cleaners, and cleaning with a robot vacuum cleaner and a handheld vacuum cleaner. Ru. Further, a plurality of users may each have a cleaning support device 8, and the plurality of cleaning support devices 8 may be able to cooperate.

例えば、1つの掃除支援装置8で複数の掃除具の情報を処理してもよい。例えば、広範囲における掃除具の位置情報を取得することができれば、複数の掃除具により、協調作業ができ、重複する箇所の掃除を防ぐことができる。また、例えば、上述した技術や既存技術により、複数の掃除支援装置8が相互に通信してもよい。これにより、他の掃除支援装置8で取得した掃除状況を他の掃除支援装置8とは異なる掃除支援装置8で確認することができ、協調作業ができ、重複する箇所の掃除を防ぐことができる。 For example, one cleaning support device 8 may process information on a plurality of cleaning tools. For example, if it is possible to obtain position information of cleaning tools over a wide range, multiple cleaning tools can work together and prevent overlapping cleaning of areas. Further, for example, a plurality of cleaning support devices 8 may communicate with each other using the above-mentioned technology or existing technology. As a result, the cleaning status obtained by other cleaning support devices 8 can be checked on a cleaning support device 8 that is different from the other cleaning support devices 8, enabling collaborative work and preventing duplicate cleaning of areas. .

また、複数の掃除具は、異なる識別情報を有し、掃除済領域が異なる色や表示方法で作成画像が作成されてもよい。例えば、複数の掃除具が異なる識別情報として、異なる色を検出してもよく、また、掃除具Aが色を識別情報とし、掃除具BがARマーカを識別情報として有していてもよい。この場合、掃除支援装置aは色を検出し、掃除支援装置bはARマーカを検出することとすればよい。これにより、掃除支援装置aは掃除具Aの色を検出し、掃除支援装置bは掃除具BのARマーカを検出する。さらに、掃除支援装置aは掃除支援装置bには含まれない色を検出するように設定しておき、掃除具AにはARマーカを備えないようにしておいてもよい。これにより、掃除支援装置aが掃除具Bの位置情報を検出することを防ぐことができる。このことは、逆の組み合わせ又は3つ以上掃除具および掃除支援装置の連携においても同様である。これにより、複数の掃除具による協調、協力作業ができるとともに、各々の掃除具における清掃範囲を区別することもできる。 Further, a plurality of cleaning tools may have different identification information, and images may be created with different colors and display methods for cleaned areas. For example, a plurality of cleaning tools may detect different colors as different identification information, or cleaning tool A may have a color as identification information, and cleaning tool B may have an AR marker as identification information. In this case, the cleaning support device a may detect the color, and the cleaning support device b may detect the AR marker. Thereby, the cleaning support device a detects the color of the cleaning tool A, and the cleaning support device b detects the AR marker of the cleaning tool B. Furthermore, the cleaning support device a may be set to detect colors that are not included in the cleaning support device b, and the cleaning tool A may not be provided with an AR marker. Thereby, it is possible to prevent the cleaning support device a from detecting the position information of the cleaning tool B. This also applies to the reverse combination or the cooperation of three or more cleaning tools and cleaning support devices. This makes it possible to cooperate and cooperate with a plurality of cleaning tools, and also to distinguish the cleaning range of each cleaning tool.

また、掃除支援システム5はさらにサーバを備えていてもよい。また、掃除支援装置8は、情報をサーバに送る送信手段を備えていてもよい。また、掃除支援装置8は、サーバから情報を受信する受信手段を備えていてもよい。また、サーバは送信手段を備えていてもよい。また、サーバは、受信手段を備えていてもよい。また、サーバは、通信手段等の介在手段を介して送信できる送信手段、又は受信できる受信手段を備えていてもよい。これにより、掃除支援装置8で掃除した情報をサーバへ送信することができ、また、掃除支援装置8はサーバからの情報を受信することができる。例えば、掃除支援装置cがサーバへ送信した情報を掃除支援装置dが受信することができる。この場合の情報とは、例えば掃除済領域の情報である。これにより、掃除済領域を共有することができ、また、異なる掃除支援装置8又は掃除具によって、掃除済領域の情報を引き継いだ掃除をすることも可能である。また、掃除支援装置cで掃除した情報を一旦サーバ送信しておき、のちに掃除支援装置cでダウンロードして表示することで、掃除済領域の情報を保存しておくことができる。これにより、例えば、こども又はロボット掃除機で掃除し残した領域を後で掃除することができる。また、掃除を一時中断したとしても、中断した掃除済領域の情報から再開することができる。 Moreover, the cleaning support system 5 may further include a server. Further, the cleaning support device 8 may include a transmitting means for transmitting information to the server. Further, the cleaning support device 8 may include a receiving means for receiving information from the server. Further, the server may include a transmitting means. Further, the server may include receiving means. Further, the server may include a transmitting means capable of transmitting information or a receiving means capable of receiving information via an intervening means such as a communication means. Thereby, information about cleaning performed by the cleaning support device 8 can be transmitted to the server, and the cleaning support device 8 can also receive information from the server. For example, the cleaning support device d can receive information that the cleaning support device c transmits to the server. The information in this case is, for example, information on a cleaned area. Thereby, the cleaned area can be shared, and it is also possible to perform cleaning by taking over the information of the cleaned area using a different cleaning support device 8 or cleaning tool. Furthermore, information about cleaned areas can be saved by temporarily transmitting information about cleaning done by the cleaning support device c to the server, and later downloading and displaying the information by the cleaning support device c. This allows, for example, areas left behind by a child or a robot vacuum cleaner to be cleaned later. Further, even if cleaning is temporarily interrupted, it can be resumed from the information of the cleaned area where it was interrupted.

また、他の掃除具又は他の掃除支援装置8で取得した掃除情報と比較して掃除度合いを評価、又は点数化してもよい。例えば、掃除済領域の範囲の大きさ、掃除中のヘッド部2の移動距離を比較し、競争することができる。また、複数の掃除具又は複数の掃除支援装置8で合わせて、どの程度の掃除ができたかを確認することもできる。このため、やりがい、達成感、面白みを得ることができ、ゲーム感覚で掃除をすることもできる。 Further, the degree of cleaning may be evaluated or scored by comparing with cleaning information acquired by other cleaning tools or other cleaning support devices 8. For example, it is possible to compete by comparing the size of the cleaned area and the moving distance of the head unit 2 during cleaning. Furthermore, it is also possible to check how much cleaning has been accomplished using a plurality of cleaning tools or a plurality of cleaning support devices 8. As a result, cleaning can be rewarding, have a sense of accomplishment, and be fun, and can be done as if it were a game.

また、移動を掃除ロボットに記憶又は学習させてもよい。例えば、使用者が掃除具で被清掃面を掃除する様子を位置情報取得装置6から掃除支援装置8に出力し、掃除具、特にヘッド部の移動情報を記憶しておき、ロボット掃除機は掃除機、特にヘッド部の移動情報を入手すればよい。移動情報は、サーバを介して、または掃除支援装置8から受信すればよい。移動情報とは、移動速度、移動経路、移動順路、移動道筋、移動方向、方向転換、向きの回転、位置座標、運転モード等である。ロボットは、移動情報に倣って移動する。例えば、使用者が操作した移動情報と同様に掃除を行う。これにより、ロボット掃除機が段差やペットがいる位置、ストーブ等の火器類のある場所等掃除したくない場所を掃除することがない。また、ロボット掃除機に安心して掃除を任せられるため、使用者の作業負担が減る。 Further, the cleaning robot may be made to memorize or learn the movement. For example, the location information acquisition device 6 outputs information about the user cleaning the surface to be cleaned with a cleaning tool to the cleaning support device 8, and the movement information of the cleaning tool, especially the head, is stored, and the robot vacuum cleaner cleans the surface. All you need to do is obtain information on the movement of the machine, especially the head. The movement information may be received via the server or from the cleaning support device 8. The movement information includes movement speed, movement route, movement route, movement route, movement direction, direction change, direction rotation, position coordinates, driving mode, etc. The robot moves according to the movement information. For example, cleaning is performed in the same manner as the movement information operated by the user. This prevents the robot vacuum cleaner from cleaning undesired areas such as steps, areas where pets are present, and areas where firearms such as stoves are located. In addition, the user's workload is reduced because they can leave the cleaning to the robot vacuum cleaner with peace of mind.

1 電気掃除機、 2 ヘッド部、 3 管体、 4 本体、 5 掃除支援システム、 6 位置情報取得装置、 7 表示装置、8 掃除支援装置、 9 発光手段、 10 位置情報検出部、 11 領域判別部、 12 画像作成部、 13 重畳部、 14 位置履歴記憶部、 15 画像履歴記憶部、 16 表示規則記憶部、 17 入力受付部、 18 オブジェクト画像作成部、 22 処理回路、 24 通信I/F装置、 25 メモリ、 40 振動発生手段、 41 音声発生手段、 61 撮像部、 62 画像処理部、 64 正面カメラ、 201 連結部、 202 吸込口体、 203 吸込口、 204 電動機、 205 回転ブラシ、 401 ハンドル、 402 操作部、 403 制御回路、 404 外郭部、 405 電動送風機、 406 電源部、 408 制御基板、 409 接続管部、 410 接続口、 411 排気部、412 集塵部、 413 ホース 1 vacuum cleaner, 2 head section, 3 tube body, 4 main body, 5 cleaning support system, 6 position information acquisition device, 7 display device, 8 cleaning support device, 9 light emitting means, 10 position information detection section, 11 area discrimination section , 12 image creation unit, 13 superimposition unit, 14 position history storage unit, 15 image history storage unit, 16 display rule storage unit, 17 input reception unit, 18 object image creation unit, 22 processing circuit, 24 communication I/F device, 25 memory, 40 vibration generating means, 41 sound generating means, 61 imaging section, 62 image processing section, 64 front camera, 201 connecting section, 202 suction port body, 203 suction port, 204 electric motor, 205 rotating brush, 401 handle, 402 Operation part, 403 Control circuit, 404 Outer part, 405 Electric blower, 406 Power supply part, 408 Control board, 409 Connection pipe part, 410 Connection port, 411 Exhaust part, 412 Dust collection part, 413 Hose

Claims (29)

掃除対象領域における吸込具の位置情報を検出する位置情報検出部と、
前記位置情報に基づいて、前記掃除対象領域における掃除済の掃除済領域と未掃除の未掃除領域とを判別し、判別結果から得られる領域判別情報を出力する領域判別部と、
前記領域判別情報に基づいて、前記掃除対象領域における前記掃除済領域と前記未掃除領域とを区別して表した作成画像を作成する画像作成部と、
前記作成画像に、カメラによって撮像された前記掃除対象領域の撮像画像を重畳した重畳画像を作成する重畳部と、
を備え
前記撮像画像は、
前記掃除済領域において前記カメラによる撮像位置と前記掃除済領域との間に遮蔽物がある死角掃除済領域と、
前記掃除済領域において前記撮像位置と前記掃除済領域との間に遮蔽物がない撮像掃除済領域と、
前記未掃除領域において前記撮像位置と前記未掃除領域との間に遮蔽物がある死角未掃除領域と、
前記未掃除領域において前記撮像位置と前記未掃除領域との間に遮蔽物がない撮像未掃除領域と、を含み、
前記画像作成部は、
前記死角掃除済領域と前記撮像掃除済領域とを区別して表した画像又は前記死角未掃除領域と前記撮像未掃除領域とを区別して表した画像を前記作成画像として作成するように構成されることを特徴とする掃除支援装置。
a position information detection unit that detects position information of the suction tool in the cleaning target area;
an area discriminator that discriminates between a cleaned area and an uncleaned area in the cleaning target area based on the position information, and outputs area discrimination information obtained from the discrimination result;
an image creation unit that creates an image that distinguishes and represents the cleaned area and the uncleaned area in the cleaning target area based on the area discrimination information;
a superimposing unit that creates a superimposed image by superimposing a captured image of the cleaning target area captured by a camera on the created image;
Equipped with
The captured image is
a blind spot cleaned area in which there is a shield between the imaging position by the camera and the cleaned area in the cleaned area;
an imaged cleaned area in which there is no obstruction between the imaged position and the cleaned area;
a blind uncleaned area where there is a shield between the imaging position and the uncleaned area in the uncleaned area;
an imaged uncleaned area where there is no obstruction between the imaging position and the uncleaned area in the uncleaned area;
The image creation unit includes:
An image that distinguishes and represents the blind spot cleaned area and the imaged and cleaned area, or an image that distinguishes and represents the blind area that has not been cleaned and the imaged and uncleaned area is created as the created image. A cleaning support device featuring:
前記位置情報検出部は、
前記掃除対象領域における特徴点を検出する特徴点検出部を含み、
前記特徴点の検出結果に基づいて、前記吸込具の前記位置情報を検出するように構成されることを特徴とする請求項1に記載の掃除支援装置。
The position information detection unit includes:
including a feature point detection unit that detects feature points in the cleaning target area,
The cleaning support device according to claim 1 , wherein the cleaning support device is configured to detect the position information of the suction tool based on the detection results of the feature points.
前記位置情報検出部は、
前記吸込具に割り当てられた特定色を検出する特定色検出部を含み、
前記特定色の検出結果に基づいて、前記吸込具の前記位置情報を検出するように構成されることを特徴とする請求項1に記載の掃除支援装置。
The position information detection unit includes:
including a specific color detection unit that detects a specific color assigned to the suction tool,
The cleaning support device according to claim 1 , wherein the cleaning support device is configured to detect the position information of the suction tool based on the detection result of the specific color.
前記画像作成部は、前記掃除済領域に配色した画像を前記作成画像として作成するように構成されることを特徴とする請求項に記載の掃除支援装置。 The cleaning support device according to claim 1 , wherein the image creation unit is configured to create an image in which the cleaned area is colored as the created image. 前記画像作成部は、前記未掃除領域に配色した画像を前記作成画像として作成するように構成されることを特徴とする請求項に記載の掃除支援装置。 The cleaning support device according to claim 1 , wherein the image creation unit is configured to create an image in which the uncleaned area is colored as the created image. 前記掃除対象領域の特定平面を検出する平面検出部を更に含み、
前記領域判別部は、前記特定平面における前記掃除済領域と前記未掃除領域とを判別するように構成されることを特徴とする請求項1から請求項の何れか1項に記載の掃除支援装置。
further comprising a plane detection unit that detects a specific plane of the cleaning target area,
The cleaning assistance according to any one of claims 1 to 5 , wherein the area determination unit is configured to determine the cleaned area and the uncleaned area on the specific plane. Device.
前記画像作成部は、
前記重畳画像に重畳させる特定のオブジェクト画像を作成するオブジェクト画像作成部を更に備え、
前記オブジェクト画像作成部は、前記オブジェクト画像の属する領域が前記未掃除領域から前記掃除済領域となった場合、前記オブジェクト画像の状態を変化させるように構成されることを特徴とする請求項に記載の掃除支援装置。
The image creation unit includes:
further comprising an object image creation unit that creates a specific object image to be superimposed on the superimposed image,
2. The object image creation unit is configured to change the state of the object image when the area to which the object image belongs changes from the uncleaned area to the cleaned area. Cleaning support device as described.
前記オブジェクト画像の属する領域が前記未掃除領域から前記掃除済領域となったことを報知する報知手段を更に備えることを特徴とする請求項に記載の掃除支援装置。 8. The cleaning support device according to claim 7 , further comprising notification means for notifying that the area to which the object image belongs has changed from the uncleaned area to the cleaned area. 前記オブジェクト画像作成部は、掃除状況に応じて前記オブジェクト画像を変化させるように構成されることを特徴とする請求項又は請求項に記載の掃除支援装置。 The cleaning support device according to claim 7 or 8 , wherein the object image creation section is configured to change the object image depending on the cleaning situation. 前記オブジェクト画像作成部は、前記掃除済領域に前記オブジェクト画像を表示させないように構成されることを特徴とする請求項から請求項の何れか1項に記載の掃除支援装置。 The cleaning support device according to any one of claims 7 to 9 , wherein the object image creation unit is configured not to display the object image in the cleaned area. 前記オブジェクト画像作成部は、
前記掃除対象領域の特定平面を検出する平面検出部を含み、
前記特定平面に前記オブジェクト画像を表示させるように構成されることを特徴とする請求項から請求項10の何れか1項に記載の掃除支援装置。
The object image creation unit includes:
including a plane detection unit that detects a specific plane of the cleaning target area,
The cleaning support device according to any one of claims 7 to 10 , wherein the cleaning support device is configured to display the object image on the specific plane.
前記特定平面は水平面であることを特徴とする請求項11に記載の掃除支援装置。 The cleaning support device according to claim 11 , wherein the specific plane is a horizontal plane. 前記特定平面は鉛直面であることを特徴とする請求項11に記載の掃除支援装置。 The cleaning support device according to claim 11 , wherein the specific plane is a vertical plane. 請求項1から請求項13の何れか1項に記載の掃除支援装置と、
前記掃除支援装置が出力した前記領域判別情報から得られる画像を表示する表示装置と、
を備えることを特徴とする掃除支援システム。
A cleaning support device according to any one of claims 1 to 13 ;
a display device that displays an image obtained from the area discrimination information output by the cleaning support device;
A cleaning support system comprising:
前記表示装置は、携帯型端末に含まれることを特徴とする請求項14に記載の掃除支援システム。 The cleaning support system according to claim 14 , wherein the display device is included in a portable terminal. 前記掃除対象領域の撮像画像を取得する位置情報取得装置を更に備え、
前記掃除支援装置は、
前記領域判別情報に基づいて、前記掃除対象領域における前記掃除済領域と前記未掃除領域とを区別して表した作成画像を作成する画像作成部と、
前記作成画像に前記撮像画像を重畳した重畳画像を作成する重畳部と、
を更に備えるように構成されることを特徴とする請求項14又は請求項15に記載の掃除支援システム。
further comprising a position information acquisition device that acquires a captured image of the cleaning target area,
The cleaning support device includes:
an image creation unit that creates an image that distinguishes and represents the cleaned area and the uncleaned area in the cleaning target area based on the area discrimination information;
a superimposing unit that creates a superimposed image by superimposing the captured image on the created image;
The cleaning support system according to claim 14 or 15 , further comprising: a cleaning support system;
前記位置情報取得装置、前記表示装置、及び前記掃除支援装置は、一体の端末として構成されていることを特徴とする請求項16に記載の掃除支援システム。 17. The cleaning support system according to claim 16 , wherein the position information acquisition device, the display device, and the cleaning support device are configured as an integrated terminal. 前記位置情報取得装置は、光軸を有するレンズを有し、
前記位置情報取得装置は、前記表示装置の表示部を含む平面に対して前記光軸が垂直となる向きに配置されていることを特徴とする請求項17に記載の掃除支援システム。
The position information acquisition device has a lens having an optical axis,
18. The cleaning support system according to claim 17 , wherein the position information acquisition device is arranged with the optical axis perpendicular to a plane including a display section of the display device.
前記端末は携帯型端末であり、
前記表示装置は、前記携帯型端末の正面側に配置され、
前記位置情報取得装置は、前記携帯型端末の背面側に配置され、
前記携帯型端末の正面側に、使用者の視線の方向を認識するための視線認識装置が配置され、
前記重畳部は、少なくとも前記視線の方向の前記撮像画像が含まれるように前記重畳画像を作成することを特徴とする請求項17又は請求項18に記載の掃除支援システム。
The terminal is a mobile terminal,
The display device is arranged on the front side of the portable terminal,
The position information acquisition device is arranged on the back side of the portable terminal,
A line of sight recognition device for recognizing the direction of the user's line of sight is disposed on the front side of the portable terminal,
The cleaning support system according to claim 17 or 18 , wherein the superimposing unit creates the superimposed image so that at least the captured image in the direction of the line of sight is included.
前記位置情報検出部は、
前記吸込具に割り当てられた特定色を検出する特定色検出部を含み、
前記特定色の検出結果に基づいて、前記吸込具の前記位置情報を検出するように構成され、
前記特定色検出部が検出する特定色を使用者が設定するための色設定部を備えることを特徴とする請求項14から請求項19の何れか1項に記載の掃除支援システム。
The position information detection unit includes:
including a specific color detection unit that detects a specific color assigned to the suction tool,
configured to detect the position information of the suction tool based on the detection result of the specific color,
20. The cleaning support system according to claim 14 , further comprising a color setting section for a user to set a specific color to be detected by the specific color detection section.
前記表示装置は、タッチパネル式の表示装置として構成され、
前記色設定部は、前記表示装置における接触位置に対応する画像の色を前記特定色として設定するように構成されていることを特徴とする請求項20に記載の掃除支援システム。
The display device is configured as a touch panel display device,
21. The cleaning support system according to claim 20 , wherein the color setting section is configured to set a color of an image corresponding to a contact position on the display device as the specific color.
前記色設定部は、前記掃除対象領域の撮像画像を前記表示装置に表示させた状態で前記特定色を設定可能に構成されていることを特徴とする請求項20又は請求項21に記載の掃除支援システム。 The cleaning device according to claim 20 or 21 , wherein the color setting unit is configured to be able to set the specific color while the captured image of the cleaning target area is displayed on the display device. support system. 前記吸込具から空気を吸い込む電動送風機を備えた電気掃除機を更に備えることを特徴とする請求項14から請求項22の何れか1項に記載の掃除支援システム。 The cleaning support system according to any one of claims 14 to 22 , further comprising a vacuum cleaner equipped with an electric blower that sucks air from the suction tool. 前記電気掃除機は、前記掃除支援装置から入力される信号に基づいて、前記電動送風機の回転数を調整可能に構成され、
前記電気掃除機は、前記信号が前記吸込具の位置が前記未掃除領域に属することを表す信号である場合、前記掃除済領域に属することを表す信号である場合に比して前記回転数を大きくするように構成されることを特徴とする請求項23に記載の掃除支援システム。
The vacuum cleaner is configured to be able to adjust the rotation speed of the electric blower based on a signal input from the cleaning support device,
When the signal indicates that the position of the suction tool belongs to the uncleaned area, the vacuum cleaner lowers the rotational speed compared to when the signal indicates that the position of the suction tool belongs to the cleaned area. 24. The cleaning support system according to claim 23 , wherein the cleaning support system is configured to be enlarged.
前記吸込具は特定の識別情報を含んで構成され、
前記位置情報検出部は、
前記識別情報の識別結果に基づいて、前記吸込具の前記位置情報を検出するように構成されることを特徴とする請求項23又は請求項24に記載の掃除支援システム。
The suction device is configured to include specific identification information,
The position information detection unit includes:
The cleaning support system according to claim 23 or 24, wherein the cleaning support system is configured to detect the position information of the suction tool based on the identification result of the identification information.
前記吸込具から塵埃が吸い込まれたことを検知するゴミセンサと、
前記吸込具に配置され、前記ゴミセンサによりゴミが吸い込まれたことを検知した場合に発光する発光部と、を備え、
前記位置情報検出部は、発光した前記発光部を前記識別情報として識別するように構成されることを特徴とする請求項25に記載の掃除支援システム。
a dust sensor that detects that dust is sucked in from the suction tool;
a light-emitting part disposed on the suction tool and emitting light when the dust sensor detects that dust has been sucked in;
26. The cleaning support system according to claim 25 , wherein the position information detection section is configured to identify the light emitting section that has emitted light as the identification information.
前記吸込具から空気を吸い込む電動送風機と、
請求項1から請求項13の何れか1項に記載の掃除支援装置と、
を備えることを特徴とする電気掃除機。
an electric blower that sucks air from the suction device;
A cleaning support device according to any one of claims 1 to 13 ;
A vacuum cleaner characterized by comprising:
前記掃除支援装置が出力した前記領域判別情報を表示する表示装置を更に備えることを特徴とする請求項27に記載の電気掃除機。 The vacuum cleaner according to claim 27 , further comprising a display device that displays the area discrimination information output by the cleaning support device. 掃除対象領域における吸込具の位置情報を検出する工程と、
前記位置情報に基づいて、前記掃除対象領域における掃除済の掃除済領域と未掃除の未掃除領域とを判別し、判別結果から得られる領域判別情報を出力する工程と、
前記領域判別情報に基づいて、前記掃除対象領域における前記掃除済領域と前記未掃除領域とを区別して表した作成画像を作成する工程と、
前記作成画像に、カメラによって撮像された前記掃除対象領域の撮像画像を重畳した重畳画像を作成する工程と、
を備え
前記撮像画像は、
前記掃除済領域において前記カメラによる撮像位置と前記掃除済領域との間に遮蔽物がある死角掃除済領域と、
前記掃除済領域において前記撮像位置と前記掃除済領域との間に遮蔽物がない撮像掃除済領域と、
前記未掃除領域において前記撮像位置と前記未掃除領域との間に遮蔽物がある死角未掃除領域と、
前記未掃除領域において前記撮像位置と前記未掃除領域との間に遮蔽物がない撮像未掃除領域と、を含み、
前記作成画像を作成する工程は、
前記死角掃除済領域と前記撮像掃除済領域とを区別して表した画像又は前記死角未掃除領域と前記撮像未掃除領域とを区別して表した画像を前記作成画像として作成するように構成されることを特徴とする掃除支援方法。
Detecting position information of the suction tool in the area to be cleaned;
Based on the position information, distinguish between a cleaned area and an uncleaned area in the cleaning target area, and output area discrimination information obtained from the discrimination result;
creating an image that distinguishes and represents the cleaned area and the uncleaned area in the cleaning target area based on the area discrimination information;
creating a superimposed image by superimposing an image of the area to be cleaned taken by a camera on the created image;
Equipped with
The captured image is
a blind spot cleaned area in which there is a shield between the imaging position by the camera and the cleaned area in the cleaned area;
an imaged cleaned area in which there is no obstruction between the imaged position and the cleaned area;
a blind uncleaned area where there is a shield between the imaging position and the uncleaned area in the uncleaned area;
an imaged uncleaned area where there is no obstruction between the imaging position and the uncleaned area in the uncleaned area;
The step of creating the created image includes:
An image that distinguishes and represents the blind spot cleaned area and the imaged and cleaned area, or an image that distinguishes and represents the blind area that has not been cleaned and the imaged and uncleaned area is created as the created image. A cleaning support method characterized by:
JP2019100537A 2019-05-29 2019-05-29 Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method Active JP7346912B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019100537A JP7346912B2 (en) 2019-05-29 2019-05-29 Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019100537A JP7346912B2 (en) 2019-05-29 2019-05-29 Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method

Publications (2)

Publication Number Publication Date
JP2020192171A JP2020192171A (en) 2020-12-03
JP7346912B2 true JP7346912B2 (en) 2023-09-20

Family

ID=73546502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019100537A Active JP7346912B2 (en) 2019-05-29 2019-05-29 Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method

Country Status (1)

Country Link
JP (1) JP7346912B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022163754A (en) * 2021-04-15 2022-10-27 日立グローバルライフソリューションズ株式会社 Vacuum cleaner management device and program
GB2618847A (en) * 2022-05-20 2023-11-22 Dyson Technology Ltd Augmented reality cleaning system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005204872A (en) 2004-01-22 2005-08-04 Matsushita Electric Ind Co Ltd Self-running vacuum cleaner and its program
JP2012050564A (en) 2010-08-31 2012-03-15 Sanyo Electric Co Ltd Handy type vacuum cleaner
JP2014013551A (en) 2012-07-05 2014-01-23 Sharp Corp Self-propelled apparatus
JP2015027345A (en) 2013-07-30 2015-02-12 佐古 曜一郎 Vacuum cleaning device
US20160135655A1 (en) 2014-11-17 2016-05-19 Samsung Electronics Co., Ltd. Robot cleaner, terminal apparatus, and method of controlling the same
JP2018079134A (en) 2016-11-17 2018-05-24 三菱電機株式会社 Cleaning support device, cleaning support method, and cleaning support system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2946242B2 (en) * 1991-02-28 1999-09-06 松下電器産業株式会社 Electric vacuum cleaner

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005204872A (en) 2004-01-22 2005-08-04 Matsushita Electric Ind Co Ltd Self-running vacuum cleaner and its program
JP2012050564A (en) 2010-08-31 2012-03-15 Sanyo Electric Co Ltd Handy type vacuum cleaner
JP2014013551A (en) 2012-07-05 2014-01-23 Sharp Corp Self-propelled apparatus
JP2015027345A (en) 2013-07-30 2015-02-12 佐古 曜一郎 Vacuum cleaning device
US20160135655A1 (en) 2014-11-17 2016-05-19 Samsung Electronics Co., Ltd. Robot cleaner, terminal apparatus, and method of controlling the same
JP2018079134A (en) 2016-11-17 2018-05-24 三菱電機株式会社 Cleaning support device, cleaning support method, and cleaning support system

Also Published As

Publication number Publication date
JP2020192171A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP7442063B2 (en) Vacuum cleaner control method and control system
CA2918318C (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
JP6680453B2 (en) Traveling vacuum cleaner and method of operating such a device
TWI687784B (en) Moving robot and control method thereof
CN110313863B (en) Autonomous mobile cleaning machine, cleaning method for autonomous mobile cleaning machine, and program
CN105310604B (en) The method of robot cleaner system and control machine people's cleaner
CN110313867B (en) Autonomous mobile cleaner, cleaning method for autonomous mobile cleaner, and recording medium
RU2727215C2 (en) Apparatus and method of tracking cleaning operations performed
US11687092B2 (en) Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest
US8842096B2 (en) Interactive projection system
KR20190030197A (en) System and method for initializing a robot to autonomously traverse a trained path
JP2019171001A (en) Autonomous mobile cleaner, cleaning method and program
JP7346912B2 (en) Cleaning support device, cleaning support system, vacuum cleaner, and cleaning support method
CN106264384A (en) The support of surface cleaning
JP2018079134A (en) Cleaning support device, cleaning support method, and cleaning support system
KR20200144382A (en) Moving Robot and controlling method
JP2020087240A (en) Control system for cleaner, autonomous travel type cleaner, cleaning system, and control method for cleaner
KR20200030014A (en) Cleaner for classifying cleaned area
KR20170129559A (en) Cleaner and controlling method
CN114829085B (en) Mobile robot and control method thereof
CN113876241A (en) Reminding method, cleaning robot and computer readable storage medium
KR102535025B1 (en) Electronic cleaner and control method thereof
KR20240001343A (en) A system and method for providing a game for cleaning and a storage medium therefor
CN116635807A (en) Map creation device for traveling, autonomous traveling robot, traveling control system for autonomous traveling robot, traveling control method for autonomous traveling robot, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7346912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150