JP7461801B2 - Cleaning device, program and display terminal - Google Patents

Cleaning device, program and display terminal Download PDF

Info

Publication number
JP7461801B2
JP7461801B2 JP2020097351A JP2020097351A JP7461801B2 JP 7461801 B2 JP7461801 B2 JP 7461801B2 JP 2020097351 A JP2020097351 A JP 2020097351A JP 2020097351 A JP2020097351 A JP 2020097351A JP 7461801 B2 JP7461801 B2 JP 7461801B2
Authority
JP
Japan
Prior art keywords
cleaning
cleaned
unit
area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020097351A
Other languages
Japanese (ja)
Other versions
JP2021189980A (en
Inventor
貴史 小野
綾華 仲野
祐美子 下郡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amano Corp
Original Assignee
Amano Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amano Corp filed Critical Amano Corp
Priority to JP2020097351A priority Critical patent/JP7461801B2/en
Publication of JP2021189980A publication Critical patent/JP2021189980A/en
Priority to JP2024047979A priority patent/JP2024079775A/en
Application granted granted Critical
Publication of JP7461801B2 publication Critical patent/JP7461801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、清掃装置、プログラム、表示端末に関する。 The present invention relates to a cleaning device, a program, and a display terminal.

従来、清掃済みエリアの清掃度合いをディスプレイに表示する電気掃除機が知られている(例えば、特許文献1参照)。特許文献1に記載の電気掃除機は、掃除機本体から延びる吸引ホースにハンドルが接続され、ハンドルに延長パイプを介して清掃ヘッドが装着されている。清掃ヘッドにはカメラと位置センサが設けられており、ハンドルにはディスプレイが設けられている。清掃中に位置センサの検出結果から清掃済みエリアが特定され、カメラの撮像画像から清掃度合いが求められて、清掃済みエリアが清掃度合いに応じて色分けされてディスプレイに表示される。 Conventionally, there is known a vacuum cleaner that displays the degree of cleaning of a cleaned area on a display (see, for example, Patent Document 1). In the vacuum cleaner described in Patent Document 1, a handle is connected to a suction hose extending from the vacuum cleaner body, and a cleaning head is attached to the handle via an extension pipe. A camera and a position sensor are provided on the cleaning head, and a display is provided on the handle. During cleaning, the cleaned area is identified from the detection results of the position sensor, the degree of cleaning is calculated from the image captured by the camera, and the cleaned area is color-coded according to the degree of cleaning and displayed on the display.

また、清掃エリアの清掃状態を可視化する自律走行式の清掃装置が知られている(例えば、特許文献2参照)。特許文献2に記載の清掃装置は携帯端末に通信可能に接続されており、清掃装置にはゴミ検出センサが設けられ、携帯端末にはカメラが設けられている。SLAM(Simultaneous Localization and Mapping)等によって清掃エリアのマップが作成され、ゴミ検出センサの検出結果がマップに付加される。そして、清掃装置から携帯端末に清掃状態が反映されたマップが送信され、このマップがカメラの撮像画像に重ねられて携帯端末のディスプレイに表示される。 An autonomous cleaning device that visualizes the cleaning status of a cleaning area is also known (see, for example, Patent Document 2). The cleaning device described in Patent Document 2 is communicatively connected to a mobile terminal, and a dust detection sensor is provided on the cleaning device, and a camera is provided on the mobile terminal. A map of the cleaning area is created using SLAM (Simultaneous Localization and Mapping) or the like, and the detection results of the dust detection sensor are added to the map. The map reflecting the cleaning status is then transmitted from the cleaning device to the mobile terminal, and the map is superimposed on an image captured by the camera and displayed on the display of the mobile terminal.

特開2015-027345号公報JP 2015-027345 A 特開2019-082807号公報JP 2019-082807 A

特許文献1に記載の電気掃除機では、清掃済みエリアが清掃度合いに応じて色分けされるため、清掃が途中で中断されても未清掃エリアを把握して清掃を再開することができる。しかしながら、実物と画面を見比べながら清掃しなければならず、作業者にとって煩わしい清掃作業になっていた。特許文献2に記載の清掃装置では、清掃後に撮像画像上に清掃状態が重ねられるため、作業者に清掃不足箇所を認識させて仕上げの清掃作業を促すことができる。しかしながら、清掃中に清掃不足箇所が表示されないため、作業者による清掃作業の効率を向上させることまでは難しい。 In the vacuum cleaner described in Patent Document 1, cleaned areas are color-coded according to the degree of cleaning, so even if cleaning is interrupted midway, uncleaned areas can be identified and cleaning can be resumed. However, cleaning must be done while comparing the actual area with the screen, making cleaning a cumbersome task for the worker. In the cleaning device described in Patent Document 2, the cleaning status is overlaid on the captured image after cleaning, making the worker aware of areas that need to be cleaned and encouraging finishing cleaning. However, because areas that need to be cleaned are not displayed during cleaning, it is difficult to improve the efficiency of the worker's cleaning work.

そこで、本発明はかかる点に鑑みてなされたものであり、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる清掃装置、プログラム、表示端末を提供することを目的とする。 The present invention has been made in consideration of these points, and aims to provide a cleaning device, program, and display terminal that can improve the workability of cleaning work and efficiently perform high-quality cleaning.

本発明の清掃装置は、手動操作によって清掃部材を移動させながら被清掃面を清掃する清掃装置であって、清掃中に被清掃面を撮像する撮像部と、前記撮像部の撮像画像を表示する表示部と、前記清掃部材の現在位置を推定する推定部と、前記清掃部材の現在位置までの移動軌跡に基づいて既清掃領域を作成する第1の作成部と、前記清掃部材の現在位置からの移動方向に基づいて将来清掃領域を作成する第2の作成部と、を備え、前記表示部は、既清掃領域及び/または将来清掃領域を撮像画像内の被清掃面に重ねて表示する。 The cleaning device of the present invention is a cleaning device that cleans a surface to be cleaned while moving a cleaning member by manual operation, and includes an imaging unit that captures an image of the surface to be cleaned during cleaning, a display unit that displays an image captured by the imaging unit, an estimation unit that estimates the current position of the cleaning member, a first creation unit that creates an area that has already been cleaned based on the movement trajectory of the cleaning member to the current position, and a second creation unit that creates an area to be cleaned based on the movement direction of the cleaning member from the current position, and the display unit displays the area that has already been cleaned and/or the area to be cleaned superimposed on the surface to be cleaned in the captured image.

この構成によれば、清掃中に撮像画像内の被清掃面に既清掃領域と将来清掃領域が重ねられて表示部に表示され、実際の被清掃面と清掃済みの既清掃領域と清掃予定の将来清掃領域を表示部の同じ画面で視認することができる。このとき、既清掃領域と将来清掃領域を部分的に重ねるように清掃部材を手動操作することで、未清掃領域を生じさせることなく被清掃面を清掃部材によって清掃することができる。よって、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる。 According to this configuration, the area already cleaned and the area to be cleaned are displayed on the display unit while being superimposed on the surface to be cleaned in the captured image during cleaning, and the actual surface to be cleaned, the area already cleaned, and the area to be cleaned in the future can be visually confirmed on the same screen of the display unit. At this time, by manually operating the cleaning member so that the area already cleaned and the area to be cleaned are partially superimposed, the surface to be cleaned can be cleaned by the cleaning member without leaving any uncleaned areas. This improves the operability of the cleaning work and enables high-quality cleaning to be performed efficiently.

本発明の清掃装置は、学習モードにて手動操作によって清掃部材を移動させながら清掃プランを作成し、再現モードにて清掃プランを再現して被清掃面を自律走行清掃しており、前記表示部は、学習モードにて既清掃領域及び将来清掃領域を撮像画像内の被清掃面に重ねて表示してもよい。この構成によれば、学習モードにて質が高く効率的な清掃プランを作成することができる。 The cleaning device of the present invention creates a cleaning plan while manually moving the cleaning member in learning mode, and reproduces the cleaning plan in reproduction mode to autonomously clean the surface to be cleaned. The display unit may display the already cleaned area and the future cleaning area superimposed on the surface to be cleaned in the captured image in learning mode. With this configuration, a high-quality and efficient cleaning plan can be created in learning mode.

本発明の清掃装置において、前記表示部は、前記清掃部材の移動方向、前記清掃部材の周辺の障害物、既清掃領域同士の重なり、既清掃領域と将来清掃領域の重なり、未清掃領域及び移動禁止区域の少なくとも1つを撮像画像に重ねて表示してもよい。この構成によれば、清掃部材の移動方向、周辺の障害物、既清掃領域同士の重なり、既清掃領域と将来清掃領域の重なり、未清掃領域及び移動禁止区域の少なくとも1つを、補助情報として作業者に認識させることができる。 In the cleaning device of the present invention, the display unit may display at least one of the following superimposed on the captured image: the direction of movement of the cleaning member, obstacles around the cleaning member, overlap between already cleaned areas, overlap between already cleaned areas and areas to be cleaned, uncleaned areas, and prohibited areas. With this configuration, the worker can be made aware of at least one of the direction of movement of the cleaning member, obstacles around the cleaning member, overlap between already cleaned areas, overlap between already cleaned areas and areas to be cleaned, uncleaned areas, and prohibited areas as auxiliary information.

本発明の清掃装置において、前記表示部は、障害物までの距離、既清掃領域同士の重なり幅、既清掃領域と将来清掃領域の重なり幅の少なくとも1つを撮像画像に重ねて表示してもよい。この構成によれば、障害物までの距離、既清掃領域同士の重なり幅、既清掃領域と将来清掃領域の重なり幅の少なくとも1つを、より具体的な補助情報として作業者に認識させることができる。 In the cleaning device of the present invention, the display unit may display at least one of the distance to an obstacle, the overlap width between areas already cleaned, and the overlap width between areas already cleaned and areas to be cleaned, superimposed on the captured image. This configuration allows the worker to recognize at least one of the distance to an obstacle, the overlap width between areas already cleaned, and the overlap width between areas already cleaned and areas to be cleaned, as more specific auxiliary information.

本発明の清掃装置は、清掃中に前記表示部を視認した作業者を撮像する他の撮像部と、前記他の撮像部の撮像画像に含まれる作業者の顔を認識する認識部と、一定時間以上継続して作業者の顔が認識された場合に警告する警告部と、を備えてもよい。この構成によれば、表示部を凝視し続ける作業者に警告して、清掃中に作業者に注意を促すことができる。 The cleaning device of the present invention may include another imaging unit that captures an image of a worker who views the display unit while cleaning, a recognition unit that recognizes the face of the worker included in the image captured by the other imaging unit, and a warning unit that issues a warning when the face of the worker is continuously recognized for a certain period of time or more. With this configuration, a warning is issued to a worker who continues to stare at the display unit, and the worker can be alerted while cleaning.

本発明の清掃装置において、前記警告部は、音声警告、発光警告、表示警告又はこれらの組み合わせによって警告してもよい。この構成によれば、音声警告、発光警告、表示警告によって作業者に注意を促すことができる。 In the cleaning device of the present invention, the warning unit may warn by a sound warning, a light emitting warning, a display warning, or a combination of these. With this configuration, the worker can be alerted by a sound warning, a light emitting warning, or a display warning.

本発明の清掃装置は、撮像画像にタグを付与する付与部と、撮像画像に付与するタグへの入力操作を受け付ける操作部と、タグの付与位置を当該タグへの入力内容に関連付けて記憶する記憶部と、を備え、前記表示部は、撮像画像にタグを重ねて表示してもよい。この構成によれば、撮像画像にタグを重ねて表示させて、タグに入力されたメモを作業者に確認させることができる。 The cleaning device of the present invention includes an assignment unit that assigns a tag to a captured image, an operation unit that accepts an input operation for the tag to be assigned to the captured image, and a storage unit that stores the tag assignment position in association with the input content for the tag, and the display unit may display the tag superimposed on the captured image. According to this configuration, the tag can be displayed superimposed on the captured image, allowing the worker to check the notes entered in the tag.

本発明のプログラムは、手動操作によって清掃部材を移動させながら被清掃面を清掃する清掃装置のプログラムであって、清掃中に被清掃面を撮像部に撮像させるステップと、前記清掃部材の現在位置を推定するステップと、前記清掃部材の現在位置までの移動軌跡に基づいて既清掃領域を作成するステップと、前記清掃部材の現在位置からの移動方向に基づいて将来清掃領域を作成するステップと、既清掃領域及び将来清掃領域を撮像画像内の被清掃面に重ねて表示部に表示させるステップと、を前記清掃装置に実行させる。この構成によれば、プログラムを清掃装置にインストールすることで、撮像画像内の被清掃面に既清掃領域と将来清掃領域を重ねて表示させる機能を追加することができる。 The program of the present invention is a program for a cleaning device that cleans a surface to be cleaned while moving a cleaning member by manual operation, and causes the cleaning device to execute the steps of: capturing an image of the surface to be cleaned with an imaging unit during cleaning; estimating the current position of the cleaning member; creating an area that has already been cleaned based on the movement trajectory of the cleaning member to the current position; creating an area to be cleaned based on the movement direction of the cleaning member from the current position; and displaying the area that has already been cleaned and the area to be cleaned on a display unit, superimposed on the surface to be cleaned in the captured image. According to this configuration, by installing the program in the cleaning device, a function can be added that displays the area that has already been cleaned and the area to be cleaned superimposed on the surface to be cleaned in the captured image.

本発明の表示端末は、手動操作によって清掃部材を移動させながら被清掃面の清掃に用いられる表示端末であって、清掃中に被清掃面を撮像する撮像部と、前記撮像部の撮像画像を表示する表示部と、前記清掃部材の現在位置を推定する推定部と、前記清掃部材の現在位置までの移動軌跡に基づいて既清掃領域を作成する第1の作成部と、前記清掃部材の現在位置からの移動方向に基づいて将来清掃領域を作成する第2の作成部と、を備え、前記表示部は、既清掃領域及び将来清掃領域を撮像画像内の被清掃面に重ねて表示する。 The display terminal of the present invention is a display terminal used for cleaning a surface to be cleaned while moving a cleaning member by manual operation, and includes an imaging unit that captures an image of the surface to be cleaned during cleaning, a display unit that displays an image captured by the imaging unit, an estimation unit that estimates the current position of the cleaning member, a first creation unit that creates an area that has already been cleaned based on the movement trajectory of the cleaning member to the current position, and a second creation unit that creates an area to be cleaned based on the movement direction of the cleaning member from the current position, and the display unit displays the area that has already been cleaned and the area to be cleaned superimposed on the surface to be cleaned in the captured image.

この構成によれば、清掃中に撮像画像内の被清掃面に既清掃領域と将来清掃領域が重ねられて表示部に表示され、実際の被清掃面と清掃済みの既清掃領域と清掃予定の将来清掃領域を表示部の同じ画面で視認することができる。このとき、既清掃領域と将来清掃領域を重ねるように清掃部材を手動操作することで、未清掃領域を生じさせることなく被清掃面を清掃部材によって清掃することができる。よって、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる。また、清掃装置から表示端末を分離させて、他の清掃装置を用いた清掃や清掃用具を用いた手動清掃に表示端末を利用することができる。 According to this configuration, the area already cleaned and the area to be cleaned are displayed on the display unit while being superimposed on the surface to be cleaned in the captured image during cleaning, and the actual surface to be cleaned, the area already cleaned, and the area to be cleaned in the future can be visually confirmed on the same screen of the display unit. At this time, by manually operating the cleaning member so that the area already cleaned and the area to be cleaned are superimposed, the surface to be cleaned can be cleaned by the cleaning member without leaving any uncleaned areas. This improves the operability of the cleaning work and allows for efficient high-quality cleaning. In addition, the display terminal can be separated from the cleaning device and used for cleaning using another cleaning device or manual cleaning using cleaning tools.

本発明の表示端末は、タブレット型、スマートフォン型、ウェアラブル型の表示端末である。この構成によれば、専用の清掃装置を開発する必要がなく、既存の清掃装置の作業性を向上させることができる。 The display terminal of the present invention is a tablet-type, smartphone-type, or wearable-type display terminal. With this configuration, there is no need to develop a dedicated cleaning device, and the operability of existing cleaning devices can be improved.

本発明によれば、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる。 The present invention improves the workability of cleaning operations and enables high-quality cleaning to be carried out efficiently.

第1の実施形態の清掃装置の斜視図である。FIG. 1 is a perspective view of a cleaning device according to a first embodiment. 第1の実施形態の清掃装置の模式図である。1 is a schematic diagram of a cleaning device according to a first embodiment; 第1の実施形態の装置本体の制御ブロック図である。FIG. 2 is a control block diagram of the device main body according to the first embodiment. AR表示を無効にした表示画面の一例である。13 is an example of a display screen in which AR display is disabled. 清掃領域をAR表示した表示画面の一例である。13 is an example of a display screen on which a cleaning area is displayed in AR. 清掃領域をAR表示した表示画面の一例である。13 is an example of a display screen on which a cleaning area is displayed in AR. 警告表示をAR表示した表示画面の一例である。13 is an example of a display screen on which a warning display is displayed in AR. タグ表示をAR表示した表示画面の一例である。13 is an example of a display screen in which tags are displayed in AR. 第1の実施形態のAR表示処理のフローチャートの一例である。10 is an example of a flowchart of an AR display process according to the first embodiment. 第1の実施形態の凝視警告処理のフローチャートの一例である。10 is an example of a flowchart of a gaze warning process according to the first embodiment. 第2の実施形態の表示端末の模式図である。FIG. 13 is a schematic diagram of a display terminal according to a second embodiment. 第2の実施形態の表示端末の制御ブロック図である。FIG. 11 is a control block diagram of a display terminal according to a second embodiment. 第2の実施形態の追加清掃のフローチャートの一例である。13 is an example of a flowchart of additional cleaning according to the second embodiment. 未清掃領域をAR表示した表示画面の一例である。13 is an example of a display screen showing an uncleaned area in AR. 追加清掃領域をAR表示した表示画面の一例である。13 is an example of a display screen showing an additional cleaning area in AR. ウェアラブル型表示端末を用いた追加清掃の作業例を示している。An example of additional cleaning work using a wearable display device is shown. 第2の実施形態の手動清掃のフローチャートの一例である。13 is an example of a flowchart of manual cleaning according to a second embodiment.

<第1の実施形態>
以下、図面を参照しつつ、第1の実施形態の清掃装置について説明する。図1は、第1の実施形態の清掃装置の斜視図である。図2は、第1の実施形態の清掃装置の模式図である。なお、本実施形態では、清掃装置として、自律走行式の清掃装置を例示して説明するが、清掃装置は、手押し式の清掃装置、搭乗式の清掃装置、手持ち式の清掃装置でもよい。
First Embodiment
Hereinafter, a cleaning device according to a first embodiment will be described with reference to the drawings. Fig. 1 is a perspective view of the cleaning device according to the first embodiment. Fig. 2 is a schematic view of the cleaning device according to the first embodiment. Note that in this embodiment, an autonomously traveling cleaning device is exemplified as the cleaning device, but the cleaning device may be a hand-pushed cleaning device, a ride-on cleaning device, or a hand-held cleaning device.

図1に示すように、清掃装置1は、商業施設、製造施設、コンコース等の床面(被清掃面)Fを自動運転で清掃可能に構成されている。清掃装置1の装置本体10の下部には、駆動輪としての前輪12と補助輪としての後輪13が設けられている。前輪12と後輪13の間に洗浄パッドや洗浄ブラシ等の清掃部材16が設けられ、清掃部材16の後側にはスキージ17が設けられている。装置本体10の上部後側にはハンドル26が設けられ、ハンドル26の前側には表示端末60が着脱可能にセットされている。装置本体10の前部の窪みには、障害物センサ24が設けられている。 As shown in FIG. 1, the cleaning device 1 is configured to be capable of automatically cleaning floor surfaces (surfaces to be cleaned) F in commercial facilities, manufacturing facilities, concourses, etc. Front wheels 12 as drive wheels and rear wheels 13 as auxiliary wheels are provided at the bottom of the device body 10 of the cleaning device 1. Cleaning members 16 such as cleaning pads and cleaning brushes are provided between the front wheels 12 and rear wheels 13, and a squeegee 17 is provided behind the cleaning members 16. A handle 26 is provided at the upper rear side of the device body 10, and a display terminal 60 is set removably in front of the handle 26. An obstacle sensor 24 is provided in a recess at the front of the device body 10.

図2に示すように、装置本体10には、走行部11、清掃部15、無線通信部21、計測部23、操作部25、記憶部50、電源部29、制御部30が設けられており、表示端末60には前カメラ61、後カメラ62、操作表示部63が設けられている。走行部11は、上記した前輪12、後輪13、走行モータ(不図示)、エンコーダ(不図示)等によって構成されている。走行部11は、走行モータによって前輪12を駆動させて清掃装置1を走行させている。なお、本実施形態には前輪駆動の清掃装置1を例示しているが、走行部11によって後輪13が駆動されてもよいし、走行部11によって両輪が駆動されてもよい。 As shown in FIG. 2, the device main body 10 is provided with a running unit 11, a cleaning unit 15, a wireless communication unit 21, a measuring unit 23, an operation unit 25, a memory unit 50, a power supply unit 29, and a control unit 30, and the display terminal 60 is provided with a front camera 61, a rear camera 62, and an operation display unit 63. The running unit 11 is composed of the above-mentioned front wheels 12, rear wheels 13, a running motor (not shown), an encoder (not shown), etc. The running unit 11 drives the front wheels 12 with the running motor to run the cleaning device 1. Note that, although a front-wheel-drive cleaning device 1 is exemplified in this embodiment, the rear wheels 13 may be driven by the running unit 11, or both wheels may be driven by the running unit 11.

清掃部15は、例えば、湿式清掃によって床面Fを清掃するものであり、上記した清掃部材16及びスキージ17、洗浄モータ(不図示)、アクチュエータ(不図示)、洗浄液供給部(不図示)、汚水回収部(不図示)等によって構成されている。清掃部15は、アクチュエータによって清掃部材16を床面Fに押し付けて、清掃モータによって床面Fに対して清掃部材16を回転させている。このとき、洗浄液供給部によって洗浄液タンクから床面Fに洗浄液が散布されて、スキージ17に集められた汚水が汚水回収部によって汚水タンクに回収される。 The cleaning unit 15 cleans the floor surface F, for example, by wet cleaning, and is composed of the above-mentioned cleaning member 16 and squeegee 17, a cleaning motor (not shown), an actuator (not shown), a cleaning liquid supply unit (not shown), a wastewater recovery unit (not shown), etc. The cleaning unit 15 presses the cleaning member 16 against the floor surface F using the actuator, and rotates the cleaning member 16 relative to the floor surface F using the cleaning motor. At this time, cleaning liquid is sprayed from a cleaning liquid tank onto the floor surface F by the cleaning liquid supply unit, and wastewater collected by the squeegee 17 is collected in a wastewater tank by the wastewater recovery unit.

無線通信部21は、装置本体10と管理端末(不図示)を無線通信によって接続し、装置本体10と表示端末60を無線通信によって接続している。例えば、装置本体10と管理端末はWiFi(登録商標)等の無線LANによって接続され、装置本体10と表示端末60はBluetooth(登録商標)等の近距離無線通信によって接続されている。管理端末や表示端末60によって装置本体10の遠隔操作が可能になっている。なお、装置本体10と表示端末60は無線通信によって接続される構成に限らず、装置本体10と表示端末60は有線接続されていてもよい。 The wireless communication unit 21 connects the device main body 10 and a management terminal (not shown) via wireless communication, and also connects the device main body 10 and the display terminal 60 via wireless communication. For example, the device main body 10 and the management terminal are connected via a wireless LAN such as WiFi (registered trademark), and the device main body 10 and the display terminal 60 are connected via short-range wireless communication such as Bluetooth (registered trademark). The device main body 10 can be remotely operated by the management terminal and the display terminal 60. Note that the device main body 10 and the display terminal 60 are not limited to being connected via wireless communication, and may be connected by wire.

計測部23は、上記した障害物センサ24を備えている。障害物センサ24は、例えば、障害物や壁面からの距離及び角度を計測するLRF(Laser Range Finder)によって構成されている。障害物センサ24から周囲にレーザー光が出射され、物体からの反射光を受光することで周辺の障害物センサ24から障害物までの距離及び角度が計測されて、清掃装置1の周辺環境を認識することが可能になっている。また、障害物センサ24は、レーザー光を用いた障害物検出の代わりに、周辺環境の撮像画像を用いた障害物検出を実施可能に構成されてもよい。 The measuring unit 23 includes the obstacle sensor 24 described above. The obstacle sensor 24 is, for example, configured with an LRF (Laser Range Finder) that measures the distance and angle from an obstacle or a wall surface. Laser light is emitted from the obstacle sensor 24 to the surroundings, and the distance and angle from the obstacle sensor 24 to an obstacle is measured by receiving reflected light from an object, making it possible to recognize the surrounding environment of the cleaning device 1. Furthermore, the obstacle sensor 24 may be configured to be able to perform obstacle detection using a captured image of the surrounding environment instead of obstacle detection using laser light.

操作部25は、自動運転のためのティーチング作業等を実施する際に、作業員による手動操作を受け付けるものであり、上記したハンドル26(図1参照)、スロットル等によって構成されている。操作部25は、ハンドル26の操舵量やスロットルの捻り量を電気信号に変換して、装置本体10の走行モータの制御基板に出力して走行モータを駆動させる。操作部25の操作によって、装置本体10の走行速度の調整、左旋回、右旋回が実施される。また、装置本体10には、操作部25付近に電源スイッチ(不図示)、緊急停止スイッチ(不図示)が設けられている。 The operation unit 25, which accepts manual operation by an operator when carrying out teaching work for automatic driving, etc., is composed of the above-mentioned handle 26 (see FIG. 1), throttle, etc. The operation unit 25 converts the steering amount of the handle 26 and the twist amount of the throttle into an electrical signal, which is output to the control board of the travel motor of the device main body 10 to drive the travel motor. The operation of the operation unit 25 adjusts the travel speed of the device main body 10 and allows it to turn left or right. In addition, the device main body 10 is provided with a power switch (not shown) and an emergency stop switch (not shown) near the operation unit 25.

記憶部50は、用途に応じてROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の一つ又は複数の記憶媒体によって構成されている。ROMには、例えば、清掃装置1を制御するためのプログラムが記憶されている。HDDやフラッシュメモリには、例えば、自動運転の走行経路、走行速度、洗浄液の散布量、清掃部材16の接触圧等を各種清掃条件が設定された清掃プランや、その他のパラメータが記憶されている。電源部29は、バッテリ(不図示)及び充電回路等によって構成されている。電源部29から装置各部に電力が供給されている。 The storage unit 50 is composed of one or more storage media such as ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), flash memory, etc. depending on the application. The ROM stores, for example, a program for controlling the cleaning device 1. The HDD and flash memory store, for example, a cleaning plan in which various cleaning conditions such as the driving route for automatic driving, the driving speed, the amount of cleaning liquid sprayed, and the contact pressure of the cleaning member 16 are set, as well as other parameters. The power supply unit 29 is composed of a battery (not shown) and a charging circuit, etc. Power is supplied to each part of the device from the power supply unit 29.

制御部30は、装置各部を統括制御している。制御部30の各種処理は、プロセッサを用いてソフトウェアによって実現されてもよいし、集積回路等に形成された論理回路(ハードウェア)によって実現されてもよい。プロセッサを用いる場合には、プロセッサが記憶部50に記憶されているプログラムを読み出して実行することで各種処理が実施される。プロセッサとしては、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)が使用される。なお、制御部30及び記憶部50の制御ブロックの詳細については後述する。 The control unit 30 controls each part of the device. The various processes of the control unit 30 may be realized by software using a processor, or may be realized by a logic circuit (hardware) formed in an integrated circuit or the like. When a processor is used, the processor reads out and executes programs stored in the storage unit 50 to perform various processes. For example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) is used as the processor. The control blocks of the control unit 30 and the storage unit 50 will be described in detail later.

表示端末60は、タッチパネル式の表示画面を有するタブレット型の表示端末である。表示端末60の前面には、清掃中に床面Fを撮像する前カメラ(撮像部)61が設けられている。表示画面の後面には清掃中に作業者を撮像する後カメラ(他の撮像部)62が設けられている。表示端末60の後面に設けられた操作表示部(表示部、操作部)63は、上記のタッチパネル式の表示画面によって構成されている。操作表示部63は、前カメラ61によって撮像された撮像画像(室内画像)を表示すると共に、各種情報の入力を受け付けている。 The display terminal 60 is a tablet-type display terminal having a touch panel display screen. A front camera (imaging unit) 61 that captures an image of the floor surface F during cleaning is provided on the front side of the display terminal 60. A rear camera (another imaging unit) 62 that captures an image of the worker during cleaning is provided on the rear side of the display screen. The operation display unit (display unit, operation unit) 63 provided on the rear side of the display terminal 60 is composed of the above-mentioned touch panel display screen. The operation display unit 63 displays the captured image (indoor image) captured by the front camera 61 and accepts input of various information.

また、表示端末60は装置本体10に対して電気的に接続されている。装置本体10が起動すると、装置本体10から表示端末60にも電力が供給されて表示端末60が起動する。表示端末60の起動と同時に、表示端末60の前カメラ61及び後カメラ62が撮像を開始して、前カメラ61に撮像された撮像画像が表示画面に表示される。表示端末60にはバッテリが内蔵されているため、装置本体10から表示端末60を分離して、表示端末60を独立して起動させることができる。 The display terminal 60 is also electrically connected to the device body 10. When the device body 10 is started, power is also supplied from the device body 10 to the display terminal 60, and the display terminal 60 is started. At the same time as the display terminal 60 is started, the front camera 61 and rear camera 62 of the display terminal 60 start capturing images, and the captured image captured by the front camera 61 is displayed on the display screen. Since the display terminal 60 has a built-in battery, the display terminal 60 can be separated from the device body 10 and started independently.

表示端末60の各種処理は、プロセッサを用いてソフトウェアによって実現されてもよいし、集積回路等に形成された論理回路(ハードウェア)によって実現されてもよい。プロセッサを用いる場合には、プロセッサがメモリに記憶されているプログラムを読み出して実行することで各種処理が実施される。プロセッサとしては、例えば、CPU、GPUが使用される。また、メモリは、用途に応じてROM、RAM、HDD、フラッシュメモリ等の一つ又は複数の記憶媒体によって構成されている。ROMには、例えば、表示端末60を制御するためのプログラムが記憶されている。 The various processes of the display terminal 60 may be realized by software using a processor, or may be realized by a logic circuit (hardware) formed in an integrated circuit or the like. When a processor is used, the various processes are performed by the processor reading and executing a program stored in memory. As the processor, for example, a CPU or a GPU is used. Furthermore, the memory is composed of one or more storage media such as a ROM, a RAM, a HDD, a flash memory, etc., depending on the application. For example, a program for controlling the display terminal 60 is stored in the ROM.

このような清掃装置1は、手動モード、学習モード、再現モードの3つの動作モードで動作する。手動モードは、手動操作によって清掃装置1を走行させて、清掃部材16を移動させながら床面Fを清掃するモードである。学習モードは、手動操作によって清掃装置1を走行させて、清掃部材16を移動させながら清掃プラン及び環境地図を作成するモードである。再現モードは、清掃プランを再現するように床面Fを自律走行清掃するモードである。手動モード及び学習モードでは、清掃装置1が手動操作されるため、高い作業性が求められている。 Such a cleaning device 1 operates in three operating modes: manual mode, learning mode, and reproduction mode. In the manual mode, the cleaning device 1 is driven by manual operation to move the cleaning member 16 while cleaning the floor surface F. In the learning mode, the cleaning device 1 is driven by manual operation to create a cleaning plan and an environmental map while moving the cleaning member 16. In the reproduction mode, the cleaning device 1 autonomously drives and cleans the floor surface F so as to reproduce the cleaning plan. In the manual mode and learning mode, the cleaning device 1 is manually operated, and therefore high operability is required.

そこで、本実施形態の清掃装置1が手動モード又は学習モードで動作する際に、表示端末60に映された撮像画像内の床面Fに、清掃済みの既清掃領域A1と清掃予定の将来清掃領域A2が重ねられる(図4B参照)。既清掃領域A1は清掃装置1が通過した床面F上の領域を示しており、将来清掃領域A2はこれから清掃装置1が通過する床面F上の領域を示している。このため、表示端末60の表示画面を視認しながら、撮像画像内の床面Fを既清掃領域A1で塗り潰すように清掃装置1を動かすことで、高い質を維持しつつ床面Fを清掃装置1によって効率的に清掃することができる。 When the cleaning device 1 of this embodiment operates in manual mode or learning mode, the already-cleaned area A1 and the future cleaning area A2 to be cleaned are superimposed on the floor surface F in the captured image displayed on the display terminal 60 (see FIG. 4B). The already-cleaned area A1 indicates the area on the floor surface F that the cleaning device 1 has passed, and the future cleaning area A2 indicates the area on the floor surface F that the cleaning device 1 will pass through in the future. Therefore, by moving the cleaning device 1 so as to fill the floor surface F in the captured image with the already-cleaned area A1 while visually checking the display screen of the display terminal 60, the floor surface F can be efficiently cleaned by the cleaning device 1 while maintaining high quality.

以下、装置本体の制御部及び記憶部の詳細構成について説明する。図3は、第1の実施形態の装置本体の制御ブロック図である。なお、ここでは、説明の便宜上、学習モード及び再現モードで清掃装置が動作する際の制御ブロックを示している。 The detailed configuration of the control unit and memory unit of the device main body will be described below. Figure 3 is a control block diagram of the device main body of the first embodiment. Note that, for the sake of convenience, the control block shown here is when the cleaning device operates in the learning mode and reproduction mode.

図3に示すように、制御部30には、学習清掃制御部31、学習走行制御部32、SLAM制御部33、走行経路作成部34、環境地図作成部35、清掃プラン作成部36、再現清掃制御部37、再現走行制御部38、既清掃領域作成部39、将来清掃領域作成部41、AR表示制御部42、既清掃領域判定部43、将来清掃領域判定部44、未清掃領域判定部45、顔認識部46、凝視警告部47、タグ付与部48が設けられている。記憶部50には、走行経路記憶部51、環境地図記憶部52、清掃プラン記憶部53、清掃領域記憶部54、タグ記憶部55、装置設定記憶部56が設けられている。 As shown in FIG. 3, the control unit 30 includes a learning cleaning control unit 31, a learning travel control unit 32, a SLAM control unit 33, a travel route creation unit 34, an environmental map creation unit 35, a cleaning plan creation unit 36, a reproduction cleaning control unit 37, a reproduction travel control unit 38, a cleaned area creation unit 39, a future cleaning area creation unit 41, an AR display control unit 42, a cleaned area determination unit 43, a future cleaning area determination unit 44, an uncleaned area determination unit 45, a face recognition unit 46, a gaze warning unit 47, and a tag assignment unit 48. The memory unit 50 includes a travel route memory unit 51, an environmental map memory unit 52, a cleaning plan memory unit 53, a cleaning area memory unit 54, a tag memory unit 55, and a device setting memory unit 56.

学習清掃制御部31は、学習モード中に作業者の操作に従った清掃装置1の手動清掃を制御している。学習清掃制御部31による制御内容は、ティーチングデータとして清掃プラン作成部36に出力される。このティーチングデータには、例えば洗浄液の散布量、清掃部材16の接触圧、汚水の吸引力が含まれている。学習走行制御部32は、学習モード中に作業者の操作に従った清掃装置1の手動走行を制御している。学習走行制御部32による制御内容は、ティーチングデータとして清掃プラン作成部36に出力される。このティーチングデータには、例えば走行速度が含まれている。 The learning cleaning control unit 31 controls the manual cleaning of the cleaning device 1 according to the operation of the operator during the learning mode. The control contents by the learning cleaning control unit 31 are output to the cleaning plan creation unit 36 as teaching data. This teaching data includes, for example, the amount of cleaning liquid sprayed, the contact pressure of the cleaning member 16, and the suction force of dirty water. The learning travel control unit 32 controls the manual travel of the cleaning device 1 according to the operation of the operator during the learning mode. The control contents by the learning travel control unit 32 are output to the cleaning plan creation unit 36 as teaching data. This teaching data includes, for example, the travel speed.

SLAM制御部(推定部)33は、学習モード中にリアルタイムでSLAMを実行して、計測部23に計測された清掃装置1の周囲の障害物からの距離及び角度に基づいて、清掃装置1の自己位置(現在位置)を推定すると共に局所地図を作成する。走行経路作成部34は、学習モード中に時系列に並んだ複数の自己位置を繋ぎ合わせて清掃装置1の走行経路を作成する。環境地図作成部35は、学習モード中に時系列に並んだ複数の局所地図を繋ぎ合わせて環境地図を作成する。走行経路はティーチングデータとして走行経路記憶部51に記憶され、環境地図は環境地図記憶部52に記憶される。 The SLAM control unit (estimation unit) 33 executes SLAM in real time during the learning mode, and estimates the self-position (current position) of the cleaning device 1 based on the distance and angle from obstacles around the cleaning device 1 measured by the measurement unit 23, and creates a local map. The travel path creation unit 34 creates a travel path for the cleaning device 1 by connecting multiple self-positions arranged in chronological order during the learning mode. The environmental map creation unit 35 creates an environmental map by connecting multiple local maps arranged in chronological order during the learning mode. The travel path is stored in the travel path memory unit 51 as teaching data, and the environmental map is stored in the environmental map memory unit 52.

なお、計測部23には、障害物センサ24として2次元タイプのLRFが用いられてもよいし、3次元タイプのLRFが用いられてもよい。2次元タイプのLRFによって2次元データが取得されてもよいし、3次元タイプのLRF又は2次元タイプのLRFの揺動によって3次元データが取得されてもよい。すなわち、走行経路作成部34によって2次元の走行経路が作成されてもよいし、3次元の走行経路が作成されてもよい。また、環境地図作成部35によって2次元の環境地図が作成されてもよいし、3次元の環境地図が作成されてもよい。 The measurement unit 23 may use a two-dimensional type LRF as the obstacle sensor 24, or a three-dimensional type LRF. Two-dimensional data may be acquired by a two-dimensional type LRF, or three-dimensional data may be acquired by the swinging of a three-dimensional type LRF or a two-dimensional type LRF. That is, the travel path creation unit 34 may create a two-dimensional travel path, or a three-dimensional travel path. The environmental map creation unit 35 may create a two-dimensional environmental map, or a three-dimensional environmental map.

清掃プラン作成部36は、各種ティーチングデータを学習モードの開始から終了までの所定時間間隔のステップ毎に関連付けて清掃プランを作成する。この場合、環境地図に清掃装置1の走行経路が反映されて、走行経路の開始地点から終了地点までの各地点における洗浄液の散布量、清掃部材16の接触圧、汚水の吸引力、走行速度が設定されて清掃プランが作成される。清掃プランは清掃プラン記憶部53に記憶されて、再現モード中に使用される。清掃プラン記憶部53には複数の清掃プランが記憶されており、清掃プランを適宜選択することができる。 The cleaning plan creation unit 36 creates a cleaning plan by associating various teaching data with each step at a predetermined time interval from the start to the end of the learning mode. In this case, the travel route of the cleaning device 1 is reflected in the environmental map, and a cleaning plan is created by setting the amount of cleaning liquid to be sprayed, the contact pressure of the cleaning member 16, the suction force of dirty water, and the travel speed at each point from the start point to the end point of the travel route. The cleaning plan is stored in the cleaning plan memory unit 53 and is used during the reproduction mode. Multiple cleaning plans are stored in the cleaning plan memory unit 53, and a cleaning plan can be selected as appropriate.

再現清掃制御部37は、再現モード中に清掃プラン記憶部53から清掃プランを読み込み、清掃プランに従って清掃装置1の自動清掃を制御している。再現走行制御部38は、再現モード中に清掃プラン記憶部53から清掃プランを読み込み、清掃プランに従って清掃装置1の自律走行を制御している。清掃装置1が走行経路に沿って自律走行しながら、洗浄液を床面Fに散布して清掃部材16によって床面Fを洗浄している。このようにして、学習モード中に清掃装置1に対してティーチングされた清掃プランが、再現モード中に清掃装置1によって再現される。 The reproduction cleaning control unit 37 reads a cleaning plan from the cleaning plan memory unit 53 during reproduction mode, and controls the automatic cleaning of the cleaning device 1 according to the cleaning plan. The reproduction travel control unit 38 reads a cleaning plan from the cleaning plan memory unit 53 during reproduction mode, and controls the autonomous travel of the cleaning device 1 according to the cleaning plan. While the cleaning device 1 autonomously travels along the travel path, it sprays cleaning liquid onto the floor surface F and cleans the floor surface F with the cleaning members 16. In this way, the cleaning plan taught to the cleaning device 1 during the learning mode is reproduced by the cleaning device 1 during reproduction mode.

既清掃領域作成部(第1の作成部)39は、学習モード中に清掃装置1(清掃部材16)の現在位置までの走行経路(移動軌跡)に基づいて既清掃領域A1(図4B参照)を作成する。この場合、既清掃領域作成部39によって走行経路記憶部51から走行経路が読み込まれると共に、装置設定記憶部56から清掃部材16の幅が読み込まれる。そして、既清掃領域作成部39によって現在位置までの走行経路と清掃部材16の幅が組み合わせられて、清掃部材16が床面Fを通過した清掃軌跡を示す清掃済みの既清掃領域A1が作成される。既清掃領域A1は清掃領域記憶部54に記憶される。 The already-cleaned area creation unit (first creation unit) 39 creates an already-cleaned area A1 (see FIG. 4B) based on the travel path (movement trajectory) to the current position of the cleaning device 1 (cleaning member 16) during the learning mode. In this case, the already-cleaned area creation unit 39 reads the travel path from the travel path memory unit 51 and also reads the width of the cleaning member 16 from the device setting memory unit 56. The already-cleaned area creation unit 39 then combines the travel path to the current position with the width of the cleaning member 16 to create an already-cleaned area A1 that shows the cleaning trajectory of the cleaning member 16 passing over the floor surface F. The already-cleaned area A1 is stored in the cleaning area memory unit 54.

将来清掃領域作成部(第2の作成部)41は、学習モード中に清掃装置1(清掃部材16)の現在位置からの移動方向に基づいて将来清掃領域A2(図4B参照)を作成する。この場合、将来清掃領域作成部41によって現在位置からの移動方向から走行予定の走行経路が予測されると共に、装置設定記憶部56から清掃部材16の幅が読み込まれる。そして、将来清掃領域作成部41によって走行予定の走行経路と清掃部材16の幅が組み合わせられて、清掃部材16が床面Fを通過する将来の清掃軌跡を示す清掃予定の将来清掃領域A2が作成される。将来清掃領域A2は清掃領域記憶部54に記憶される。なお、現在位置からの移動方向はハンドルの操舵角によって求められる。また、将来清掃領域A2は直線に限られず、旋回時にはハンドル操作に応じて円弧状に作成されてもよい。 The future cleaning area creation unit (second creation unit) 41 creates a future cleaning area A2 (see FIG. 4B) based on the moving direction from the current position of the cleaning device 1 (cleaning member 16) during the learning mode. In this case, the future cleaning area creation unit 41 predicts the planned travel path from the moving direction from the current position, and reads the width of the cleaning member 16 from the device setting storage unit 56. The future cleaning area creation unit 41 then combines the planned travel path and the width of the cleaning member 16 to create a future cleaning area A2 that indicates the future cleaning trajectory of the cleaning member 16 passing through the floor surface F. The future cleaning area A2 is stored in the cleaning area storage unit 54. The moving direction from the current position is determined by the steering angle of the steering wheel. The future cleaning area A2 is not limited to a straight line, and may be created in an arc shape according to the steering wheel operation when turning.

AR表示制御部42は、表示端末60の前カメラ61から入力された撮像画像に既清掃領域A1及び将来清掃領域A2を重ね合わせて表示端末60にAR表示させる。例えば、環境地図の特徴点と撮像画像の特徴点がマッチングされて、撮像画像の撮像座標系(カメラ座標系)における清掃装置1の現在位置が特定される。この清掃装置1の現在位置を基準にした既清掃領域A1と将来清掃領域A2が撮像画像内の床面Fに重ねられる。既清掃領域A1と将来清掃領域A2は色付けされた仮想領域で表され、各仮想領域がそれぞれ異なる表示色で表されていてもよい。 The AR display control unit 42 superimposes the already cleaned area A1 and the future cleaning area A2 on the captured image input from the front camera 61 of the display terminal 60 and displays them in AR on the display terminal 60. For example, feature points of the environmental map are matched with feature points of the captured image to identify the current position of the cleaning device 1 in the imaging coordinate system (camera coordinate system) of the captured image. The already cleaned area A1 and the future cleaning area A2, based on the current position of the cleaning device 1, are superimposed on the floor surface F in the captured image. The already cleaned area A1 and the future cleaning area A2 are represented by colored virtual areas, and each virtual area may be represented by a different display color.

既清掃領域判定部43は既清掃領域A1同士の重なりを判定し、将来清掃領域判定部44は既清掃領域A1と将来清掃領域A2の重なりを判定する。重なり箇所は、既清掃領域A1及び将来清掃領域A2とは異なる表示色で表されてもよいし、既清掃領域A1及び将来清掃領域A2よりも濃い表示色で表されてもよい。既清掃領域判定部43は既清掃領域A1同士の重なり幅を算出してもよいし、将来清掃領域判定部44は既清掃領域A1と将来清掃領域A2の重なり幅を算出してもよい。重なり幅は、例えば、既清掃領域A1と将来清掃領域A2を含む撮像画像に既知の画像処理が施されることで求められてもよい。 The already cleaned area determination unit 43 determines the overlap between already cleaned areas A1, and the future cleaning area determination unit 44 determines the overlap between already cleaned areas A1 and future cleaning areas A2. The overlapping areas may be displayed in a different display color from the already cleaned areas A1 and the future cleaning areas A2, or may be displayed in a darker display color than the already cleaned areas A1 and the future cleaning areas A2. The already cleaned area determination unit 43 may calculate the overlap width between already cleaned areas A1, and the future cleaning area determination unit 44 may calculate the overlap width between already cleaned areas A1 and the future cleaning areas A2. The overlap width may be found, for example, by applying known image processing to a captured image including the already cleaned areas A1 and the future cleaning areas A2.

未清掃領域判定部45は、既清掃領域A1同士の隙間を未清掃領域A3(図11A参照)として判定する。未清掃領域A3は、既清掃領域A1及び将来清掃領域A2とは異なる表示色で表されてもよい。さらに、撮像画像には、清掃動作のスタート位置、清掃装置1から障害物までの距離、清掃部材16の移動方向、走行禁止区域がAR表示されてもよい。清掃動作のスタート位置は、手動操作の開始直後に実行されたSLAMによって求められる。清掃装置1から障害物までの距離は、SLAMの実行時に計測部23によって計測される。移動方向はハンドル26の操舵角によって求められ、走行禁止区域は手動によって予め設定される。 The uncleaned area determination unit 45 determines the gaps between the already cleaned areas A1 as uncleaned areas A3 (see FIG. 11A). The uncleaned areas A3 may be displayed in a different color from the already cleaned areas A1 and the areas to be cleaned A2. Furthermore, the start position of the cleaning operation, the distance from the cleaning device 1 to the obstacle, the movement direction of the cleaning member 16, and the no-travel area may be displayed in AR in the captured image. The start position of the cleaning operation is determined by SLAM executed immediately after the start of manual operation. The distance from the cleaning device 1 to the obstacle is measured by the measurement unit 23 when SLAM is executed. The movement direction is determined by the steering angle of the handle 26, and the no-travel area is set manually in advance.

AR表示については、手動操作の開始直後から自動的に有効にされていてもよいし、作業者の選択に応じて任意に有効にされてもよい。例えば、表示端末60の操作表示部63にAR表示用のアプリケーションを表示し、このアプリケーションの起動によってAR表示が有効にされてもよい。また、既清掃領域A1と将来清掃領域A2のAR表示だけが有効にされてもよいし、上記全ての情報のAR表示が有効にされてもよい。また、AR表示された既清掃領域A1をオフセットできる補正部が設けられていてもよい。これにより、未清掃領域A3が無くなるように、表示端末60を見ながら清掃プランを修正することができる。 The AR display may be enabled automatically immediately after starting manual operation, or may be enabled at the discretion of the worker. For example, an application for AR display may be displayed on the operation display unit 63 of the display terminal 60, and the AR display may be enabled by starting this application. Also, only the AR display of the already cleaned area A1 and the area to be cleaned A2 may be enabled, or the AR display of all the above information may be enabled. Also, a correction unit may be provided that can offset the already cleaned area A1 displayed in AR. This allows the cleaning plan to be revised while watching the display terminal 60 so that there are no uncleaned areas A3.

既清掃領域A1と将来清掃領域A2のAR表示を作業者が凝視し続けると前方不注意になる恐れがある。このため、清掃装置1には顔認識部(認識部)46及び凝視警告部(警告部)47による凝視警告機能が実装されている。顔認識部46には、表示端末60の後カメラ62から表示端末60を視認した作業者の撮像画像が入力される。顔認識部46は、公知の顔認識処理によって撮像画像が解析されて作業者の顔を認識する。通常、顔認識処理では、顔の輪郭、目、鼻、口、眉毛等の特徴部分が認識されるが、本実施形態の顔認識処理では、目の瞳孔が認識されたときに作業者が表示端末60を視認したと認識される。 If the worker continues to stare at the AR display of the already cleaned area A1 and the future cleaning area A2, there is a risk that the worker will not pay attention to what is ahead. For this reason, the cleaning device 1 is equipped with a stare warning function using a face recognition unit (recognition unit) 46 and a stare warning unit (warning unit) 47. A captured image of the worker who has viewed the display terminal 60 is input to the face recognition unit 46 from the rear camera 62 of the display terminal 60. The face recognition unit 46 analyzes the captured image using known face recognition processing to recognize the face of the worker. Normally, face recognition processing recognizes characteristic parts such as the facial outline, eyes, nose, mouth, eyebrows, etc., but in the face recognition processing of this embodiment, it is recognized that the worker has viewed the display terminal 60 when the pupils of the eyes are recognized.

凝視警告部47は、一定時間以上継続して作業者の顔が認識された場合に、作業者が表示端末60を凝視し続けていると判定する。そして、凝視警告部47は、音声警告、発光警告、表示警告又はこれらの組み合わせによって警告する。例えば、凝視警告部47は、音声メッセージやビープ音等によって音声警告してもよいし、表示画面の明滅によって発光警告してもよいし、警告メッセージのAR表示によって表示警告してもよい。また、凝視警告部47による警告後にも作業者の顔が認識され続けた場合に、清掃装置1の走行動作が緊急停止されてもよい。 When the face of the worker is continuously recognized for a certain period of time or more, the gaze warning unit 47 determines that the worker is continuing to gaze at the display terminal 60. Then, the gaze warning unit 47 issues a warning by audio warning, light emitting warning, display warning, or a combination of these. For example, the gaze warning unit 47 may issue an audio warning using a voice message or a beep, or may issue a light emitting warning by blinking the display screen, or may issue a display warning by AR display of a warning message. In addition, if the face of the worker continues to be recognized after the gaze warning unit 47 issues a warning, the traveling operation of the cleaning device 1 may be stopped in an emergency.

清掃中には特別な指示や注意点のメモ書きをAR表示させたいという要望がある。このため、清掃装置1には、タグ付与部(付与部)48、操作表示部63、タグ記憶部(記憶部)55によって撮像画面に対するメモ書き機能が実装されている。タグ付与部48は、作業者の入力操作に応じて撮像画像にタグT(図5B参照)を付与する。タグTの付与時には、SLAMが実行されて清掃装置1の自己位置が推定され、この自己位置を基準にした所定座標にタグTが付与される。なお、V-SLAMによって推定された清掃装置1の自己位置を基準にしてタグTが付与されてもよい。 There is a demand for special instructions and notes of caution to be displayed in AR during cleaning. For this reason, the cleaning device 1 is equipped with a function for writing notes on the captured image by the tag assignment unit (assignment unit) 48, operation display unit 63, and tag memory unit (memory unit) 55. The tag assignment unit 48 assigns a tag T (see FIG. 5B) to the captured image in response to an input operation by the worker. When assigning the tag T, SLAM is executed to estimate the self-position of the cleaning device 1, and the tag T is assigned to a specified coordinate based on this self-position. Note that the tag T may also be assigned based on the self-position of the cleaning device 1 estimated by V-SLAM.

タグTには表示端末60の操作表示部63によってメモが入力される。操作表示部63によってタグTの保存操作が実行されると、タグTの付与座標(付与位置)とタグTへの入力内容が関連付けられてタグ記憶部55に記憶される。なお、タグ記憶部55には、例えばワールド座標系を基準にしたタグTの付与座標が記憶される。これにより、再び学習モードで同じエリアを清掃する際に、表示端末60を通してタグTに記載されたメモを視認することができる。また、清掃装置1から表示端末60を取り外して、表示端末60を通して遠隔からでもタグTに記載されたメモを確認することができる。 Notes are input to the tag T by the operation display unit 63 of the display terminal 60. When a save operation of the tag T is executed by the operation display unit 63, the assigned coordinates (assigned position) of the tag T and the input contents to the tag T are associated and stored in the tag memory unit 55. Note that the tag memory unit 55 stores the assigned coordinates of the tag T based on, for example, the world coordinate system. This makes it possible to visually check the notes written on the tag T through the display terminal 60 when cleaning the same area again in the learning mode. In addition, the display terminal 60 can be removed from the cleaning device 1, and the notes written on the tag T can be checked remotely through the display terminal 60.

ここで、清掃中の表示画面について説明する。図4Aは、AR表示を無効にした表示画面の一例である。図4Bは、清掃領域をAR表示した表示画面の一例である。図4Cは、清掃領域をAR表示した表示画面の一例である。図5Aは、警告表示をAR表示した表示画面の一例である。図5Bは、タグ表示をAR表示した表示画面の一例である。なお、ここでは、図2及び図3の符号を適宜使用して説明する。 Here, the display screen during cleaning will be described. Fig. 4A is an example of a display screen with AR display disabled. Fig. 4B is an example of a display screen with AR display of the cleaning area. Fig. 4C is an example of a display screen with AR display of the cleaning area. Fig. 5A is an example of a display screen with AR display of a warning display. Fig. 5B is an example of a display screen with AR display of a tag display. Note that the symbols in Figs. 2 and 3 will be used as appropriate for the explanation.

図4Aに示すように、AR表示が無効な場合には、前カメラ61に撮像された清掃装置1の前方の室内画像だけが表示端末60の表示画面に表示される。作業者は清掃装置1の現在位置までの清掃軌跡を認識することができず、清掃済みの床面Fを視認しながら清掃作業を実施することができない。このため、学習モード中に床面Fを手動清掃する際には、床面Fに清掃箇所の抜けが発生するおそれがある。学習モード中に手動操作によって清掃装置1に効果的なティーチングができないため、再現モード中に自動運転によって清掃装置1に質が高い清掃作業を再現させることができない。 As shown in FIG. 4A, when the AR display is disabled, only the image of the room in front of the cleaning device 1 captured by the front camera 61 is displayed on the display screen of the display terminal 60. The worker cannot recognize the cleaning trajectory up to the current position of the cleaning device 1, and cannot perform cleaning work while visually checking the already cleaned floor surface F. For this reason, when manually cleaning the floor surface F in the learning mode, there is a risk that some areas of the floor surface F will be missed. Since effective teaching of the cleaning device 1 cannot be performed by manual operation in the learning mode, the cleaning device 1 cannot be made to reproduce high-quality cleaning work by automatic operation in the reproduction mode.

図4Bに示すように、AR表示が有効になると、前カメラ61に撮像された室内画像上に各種情報が表示端末60の表示画面にAR表示される。床面Fには清掃済みの既清掃領域A1と清掃予定の将来清掃領域A2がAR表示されている。このため、既清掃領域A1と将来清掃領域A2を部分的に重ねるように清掃装置1を動かすことで、清掃箇所の抜けを発生させることなく床面Fを清掃することができる。学習モード中に手動操作によって清掃装置1に効果的なティーチングができるため、再現モード中に自動運転によって清掃装置1に質が高い清掃作業を再現させることができる。 As shown in FIG. 4B, when AR display is enabled, various information is displayed in AR on the display screen of the display terminal 60 on top of the indoor image captured by the front camera 61. The already cleaned area A1 and the future cleaning area A2 to be cleaned are displayed in AR on the floor surface F. Therefore, by moving the cleaning device 1 so that the already cleaned area A1 and the future cleaning area A2 partially overlap, the floor surface F can be cleaned without missing any spots to be cleaned. Effective teaching of the cleaning device 1 can be performed by manual operation during the learning mode, and the cleaning device 1 can be made to reproduce high-quality cleaning work by automatic operation during the reproduction mode.

また、室内画像上には、清掃装置1の周辺の障害物、既清掃領域A1同士の重なり、既清掃領域A1と将来清掃領域A2の重なり、走行禁止区域、清掃動作のスタート位置等を示す情報がAR表示されている。さらに、室内画像上には、清掃装置1から障害物までの距離、清掃装置1の現在位置における既清掃領域A1と将来清掃領域A2の重なり幅等の数値情報がAR表示されている。既清掃領域A1及び将来清掃領域A2に加えて、これらの補助情報が作業者に認識されることで、手動操作によって床面Fに対して質の高い清掃を実施することができる。 In addition, on the indoor image, AR displays information indicating obstacles around the cleaning device 1, overlap between already cleaned areas A1, overlap between already cleaned areas A1 and future cleaning areas A2, no-travel areas, the starting position of the cleaning operation, etc. Furthermore, on the indoor image, AR displays numerical information such as the distance from the cleaning device 1 to the obstacles, and the overlap width between already cleaned areas A1 and future cleaning areas A2 at the current position of the cleaning device 1. By allowing the worker to recognize this auxiliary information in addition to the already cleaned areas A1 and future cleaning areas A2, high-quality cleaning of the floor surface F can be performed by manual operation.

図4Cに示すように、既清掃領域A1から将来清掃領域A2が完全に外れる方向に清掃装置1が傾くと、清掃装置1の現在位置で既清掃領域A1と将来清掃領域A2の重なり幅が小さくなる。このため、既清掃領域A1と将来清掃領域A2の重なり幅が所定値以下になったときに、室内画像上に清掃装置1の軌道修正を促す警告メッセージM1がAR表示されてもよい。既清掃領域A1と将来清掃領域A2の重なり幅を略一定に維持した状態で清掃装置1を動かすことができる。作業者の技量に関わらず、清掃箇所の抜けを抑えて、より質の高い清掃作業を清掃装置1に実施させることができる。 As shown in FIG. 4C, when the cleaning device 1 is tilted in a direction such that the area to be cleaned A2 is completely removed from the area already cleaned A1, the overlapping width between the area already cleaned A1 and the area to be cleaned A2 at the current position of the cleaning device 1 becomes smaller. For this reason, when the overlapping width between the area already cleaned A1 and the area to be cleaned A2 becomes equal to or smaller than a predetermined value, a warning message M1 may be displayed in AR on the room image to prompt the user to correct the trajectory of the cleaning device 1. The cleaning device 1 can be moved while maintaining the overlapping width between the area already cleaned A1 and the area to be cleaned A2 at a substantially constant level. Regardless of the skill of the worker, the cleaning device 1 can perform higher quality cleaning work by minimizing the amount of missed cleaning spots.

図5Aに示すように、作業者が表示画面を凝視している場合には、室内画像上に注意を促す警告メッセージM2がAR表示されてもよい。上記したように、表示画面を視認する作業者の顔が後カメラ62によって撮像され、一定時間にわたって作業者の顔が認識され続けた場合に室内画像上に警告メッセージが表示される。作業者に警告メッセージM2を視認させて、清掃中に作業者に注意を促すことができる。また、図5Bに示すように、以前の学習モード中に付与されたタグTが室内画像上に表示されてもよい。タグTに入力されたメモを作業者に確認させることができる。 As shown in FIG. 5A, when a worker is staring at the display screen, a warning message M2 may be displayed in AR on the indoor image to alert the worker. As described above, the face of the worker viewing the display screen is captured by the rear camera 62, and when the worker's face continues to be recognized for a certain period of time, a warning message is displayed on the indoor image. The worker can be made to view the warning message M2 to alert the worker to caution during cleaning. Also, as shown in FIG. 5B, a tag T that was added during the previous learning mode may be displayed on the indoor image. The worker can be made to check the notes entered in the tag T.

清掃装置の処理動作について説明する。図6は、第1の実施形態のAR表示処理のフローチャートの一例である。図7は、第1の実施形態の凝視警告処理のフローチャートの一例である。なお、ここでは、図2及び図3の符号を適宜使用して説明する。 The processing operation of the cleaning device will now be described. FIG. 6 is an example of a flowchart of the AR display processing of the first embodiment. FIG. 7 is an example of a flowchart of the gaze warning processing of the first embodiment. Note that the symbols in FIG. 2 and FIG. 3 will be used as appropriate for the explanation.

図6に示すように、学習モード中には、表示端末60の前カメラ61による撮像処理と装置本体10のSLAM制御部33によるSLAMが並列に実行される。前カメラ61によって装置前方が撮像され、前カメラ61から装置本体10のAR表示制御部42に撮像画像が出力される(ステップS01)。撮像画像には被清掃面となる床面Fが含まれている。同時に、SLAM制御部33によってSLAMが実行され(ステップS02)、計測部23によって清掃装置1から周辺の障害物までの距離と角度が計測されて、清掃装置1の自己位置(現在位置)が推定されると共に環境地図が作成される(ステップS03)。 As shown in FIG. 6, during learning mode, imaging processing by the front camera 61 of the display terminal 60 and SLAM by the SLAM control unit 33 of the device body 10 are executed in parallel. The front camera 61 captures an image in front of the device, and the captured image is output from the front camera 61 to the AR display control unit 42 of the device body 10 (step S01). The captured image includes the floor surface F to be cleaned. At the same time, SLAM is executed by the SLAM control unit 33 (step S02), and the measurement unit 23 measures the distance and angle from the cleaning device 1 to surrounding obstacles, and the self-position (current position) of the cleaning device 1 is estimated and an environmental map is created (step S03).

次に、既清掃領域作成部39によって清掃装置1の自己位置までの走行経路と清掃部材16の幅から既清掃領域A1が作成され、既清掃領域作成部39からAR表示制御部42に既清掃領域A1が出力される(ステップS04)。将来清掃領域作成部41によって清掃装置1の自己位置からの移動方向と清掃部材16の幅から将来清掃領域A2が作成され、将来清掃領域作成部41からAR表示制御部42に将来清掃領域A2が出力される(ステップS05)。次に、AR表示制御部42によって表示端末60が制御されて、撮像画像内の床面F上に既清掃領域A1及び将来清掃領域A2がAR表示される(ステップS06)。 Next, the already cleaned area creation unit 39 creates an already cleaned area A1 based on the travel path of the cleaning device 1 to its own position and the width of the cleaning member 16, and the already cleaned area A1 is output from the already cleaned area creation unit 39 to the AR display control unit 42 (step S04). The future cleaning area creation unit 41 creates a future cleaning area A2 based on the movement direction of the cleaning device 1 from its own position and the width of the cleaning member 16, and the future cleaning area creation unit 41 outputs the future cleaning area A2 to the AR display control unit 42 (step S05). Next, the AR display control unit 42 controls the display terminal 60 to AR-display the already cleaned area A1 and the future cleaning area A2 on the floor surface F in the captured image (step S06).

このとき、撮像画像上には、清掃装置1の周辺の障害物、既清掃領域A1同士の重なり、既清掃領域A1と将来清掃領域A2の重なり、走行禁止区域、清掃動作のスタート位置等を示す情報がAR表示されてもよい。また、撮像画像上には、清掃装置1の軌道修正を促す警告メッセージM1や、表示画面の凝視を注意する警告メッセージM2がAR表示されてもよい。さらに、撮像画像上には、メモが入力されたタグTがAR表示されてもよい。そして、清掃装置1による清掃作業が終了するまで、ステップS01からステップS06までの処理が繰り返される(ステップS07)。 At this time, information indicating obstacles around the cleaning device 1, overlaps between already cleaned areas A1, overlaps between already cleaned areas A1 and future cleaning areas A2, no-travel areas, the starting position of the cleaning operation, etc. may be displayed in AR on the captured image. Also, a warning message M1 encouraging the user to correct the trajectory of the cleaning device 1 and a warning message M2 warning the user not to stare at the display screen may be displayed in AR on the captured image. Furthermore, a tag T with a note entered therein may be displayed in AR on the captured image. Then, the processes from step S01 to step S06 are repeated until the cleaning operation by the cleaning device 1 is completed (step S07).

また、図7に示すように、学習モード中には、表示端末60の後カメラ62によって作業者が撮像されて、後カメラ62から装置本体10の顔認識部46に撮像画像が出力される(ステップS11)。次に、顔認識部46によって撮像画像に対して作業者の顔認識処理が実行される(ステップS12)。顔認識処理では目の瞳孔によって作業者の顔が認識される。撮像画像から作業者の顔が認識されない場合(ステップS12でNo)、作業者が表示端末60を視認していないため、作業者に対して警告処理が実施されることなくステップS15に処理が移行する。 Also, as shown in FIG. 7, during learning mode, an image of the worker is captured by the rear camera 62 of the display terminal 60, and the captured image is output from the rear camera 62 to the face recognition unit 46 of the device main body 10 (step S11). Next, the face recognition unit 46 performs face recognition processing on the captured image (step S12). In the face recognition processing, the face of the worker is recognized by the pupils of the eyes. If the face of the worker is not recognized from the captured image (No in step S12), the worker is not looking at the display terminal 60, and the processing proceeds to step S15 without a warning process being performed on the worker.

撮像画像から作業者の顔が認識された場合(ステップS12でYes)、凝視警告部47によって一定時間以上継続して作業者の顔が認識されたか否かが判定される(ステップS13)。一定時間継続して作業者の顔が認識されない場合(ステップS13でNo)、作業者が表示端末60を凝視していないため、作業者に対して警告処理が実施されることなくステップS15に処理が移行する。なお、作業者の瞬き等によって瞬間的に瞳孔が認識されない場合であっても、凝視警告部47によって作業者の顔が認識され続けていると判定される。 If the worker's face is recognized from the captured image (Yes in step S12), the gaze warning unit 47 determines whether the worker's face has been continuously recognized for a certain period of time or more (step S13). If the worker's face is not continuously recognized for a certain period of time (No in step S13), the worker is not gazing at the display terminal 60, and the process proceeds to step S15 without issuing a warning to the worker. Note that even if the worker's pupils are not recognized momentarily due to blinking, etc., the gaze warning unit 47 determines that the worker's face is continuing to be recognized.

一定時間継続して作業者の顔が認識された場合(ステップS13でYes)、作業者が表示端末60を凝視し続けているため、凝視警告部47によって表示端末60の表示画面に警告メッセージM2がAR表示される(ステップS14)。これにより、清掃中に表示端末60を凝視する作業者に対して注意が促される。なお、表示画面の明滅や音声メッセージの出力によって作業者に対して警告されてもよい。そして、清掃装置1による清掃作業が終了するまで、ステップS11からステップS14までの処理が繰り返される(ステップS15)。 If the worker's face is recognized for a certain period of time (Yes in step S13), the worker is continuing to stare at the display terminal 60, so the stare warning unit 47 displays a warning message M2 on the display screen of the display terminal 60 in AR (step S14). This calls attention to the worker who is staring at the display terminal 60 during cleaning. The worker may also be warned by the display screen blinking or by the output of a voice message. Then, the processes from step S11 to step S14 are repeated until the cleaning work by the cleaning device 1 is completed (step S15).

以上、第1の実施形態によれば、清掃中に撮像画像内の床面Fに既清掃領域A1と将来清掃領域A2が重ねられて表示端末60に表示され、実際の床面Fと清掃済みの既清掃領域A1と清掃予定の将来清掃領域A2を表示端末60の同じ画面で視認することができる。このとき、既清掃領域A1と将来清掃領域A2を部分的に重ねるように清掃部材16を手動操作することで、未清掃領域を生じさせることなく床面Fを清掃部材16によって清掃することができる。よって、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる。 As described above, according to the first embodiment, the already cleaned area A1 and the area to be cleaned A2 are superimposed on the floor surface F in the captured image during cleaning and displayed on the display terminal 60, and the actual floor surface F, the already cleaned area A1, and the area to be cleaned A2 to be cleaned can be viewed on the same screen of the display terminal 60. At this time, by manually operating the cleaning member 16 so that the already cleaned area A1 and the area to be cleaned A2 are partially superimposed, the floor surface F can be cleaned by the cleaning member 16 without creating any uncleaned areas. This improves the operability of the cleaning work and enables high-quality cleaning to be performed efficiently.

<第2の実施形態>
続いて、第2の実施形態の表示端末について説明する。第2の実施形態は、表示端末によって清掃作業の作業性を向上させることができる点で第1の実施形態と相違している。図8は、第2の実施形態の表示端末の模式図である。図9は、第2の実施形態の表示端末の制御ブロック図である。
Second Embodiment
Next, a display terminal of a second embodiment will be described. The second embodiment differs from the first embodiment in that the display terminal can improve the workability of the cleaning work. Fig. 8 is a schematic diagram of the display terminal of the second embodiment. Fig. 9 is a control block diagram of the display terminal of the second embodiment.

図8に示すように、表示端末70には、前カメラ71、後カメラ72、操作表示部73、無線通信部74、電源部75、Gセンサ76、ビーコン受信部77、制御部80、記憶部90が設けられている。第2の実施形態の前カメラ71、後カメラ72、操作表示部73は、第1の実施形態の前カメラ61、後カメラ62、操作表示部63と略同様に構成されている。無線通信部74は、表示端末70と装置本体10(図2参照)を無線通信によって接続している。電源部75は、端末各部に電力を供給しており、バッテリ(不図示)及び充電回路等によって構成されている。 As shown in FIG. 8, the display terminal 70 is provided with a front camera 71, a rear camera 72, an operation display unit 73, a wireless communication unit 74, a power supply unit 75, a G sensor 76, a beacon receiving unit 77, a control unit 80, and a memory unit 90. The front camera 71, the rear camera 72, and the operation display unit 73 of the second embodiment are configured substantially similarly to the front camera 61, the rear camera 62, and the operation display unit 63 of the first embodiment. The wireless communication unit 74 connects the display terminal 70 and the device main body 10 (see FIG. 2) by wireless communication. The power supply unit 75 supplies power to each unit of the terminal, and is configured by a battery (not shown), a charging circuit, etc.

Gセンサ76は表示端末70の前後、左右、上下に取り付けられており、これらの方向に加速度や減速度がかかったときに、加速度及び減速度の大きさに応じた電気信号を出力する。この電気信号によって表示端末70の姿勢変化(傾き)が求められる。Gセンサ76から検出値が出力される度に検出値が足されることで、オドメトリによって表示端末70の移動量が把握される。ただし、Gセンサ76によるオドメトリは誤差が大きいため、清掃エリアにビーコンが設置されており、ビーコン受信部77によってビーコンからの信号が受信されることで、ビーコンの設置位置を基準にして移動量が求められる。 The G-sensors 76 are attached to the front, back, left, right, top and bottom of the display terminal 70, and when acceleration or deceleration is applied in these directions, they output electrical signals according to the magnitude of the acceleration or deceleration. This electrical signal determines the change in attitude (tilt) of the display terminal 70. The amount of movement of the display terminal 70 is determined by odometry, with the detection value being added each time it is output from the G-sensor 76. However, since the odometry using the G-sensor 76 has a large error, a beacon is installed in the cleaning area, and the beacon receiver 77 receives a signal from the beacon, allowing the amount of movement to be determined based on the installation position of the beacon.

制御部80は、装置各部を統括制御している。制御部80の各種処理は、プロセッサを用いてソフトウェアによって実現されてもよいし、集積回路等に形成された論理回路(ハードウェア)によって実現されてもよい。プロセッサを用いる場合には、プロセッサが記憶部90に記憶されているプログラムを読み出して実行することで各種処理が実施される。記憶部90は、用途に応じてROM、RAM、フラッシュメモリ等の一つ又は複数の記憶媒体によって構成されている。ROMには、例えば、表示端末70を制御するためのプログラムが記憶されている。プロセッサとしては、例えば、CPU、GPUが使用される。 The control unit 80 controls each part of the device. The various processes of the control unit 80 may be realized by software using a processor, or may be realized by a logic circuit (hardware) formed in an integrated circuit or the like. When a processor is used, the processor reads out and executes programs stored in the storage unit 90 to perform various processes. The storage unit 90 is composed of one or more storage media such as ROM, RAM, and flash memory depending on the application. The ROM stores, for example, a program for controlling the display terminal 70. The processor may be, for example, a CPU or GPU.

図9に示すように、制御部80には、V-SLAM制御部81、移動経路作成部82、環境地図作成部83、既清掃領域作成部84、将来清掃領域作成部85、AR表示制御部86、既清掃領域判定部87、将来清掃領域判定部88、未清掃領域判定部89が設けられている。記憶部90には、移動経路記憶部91、環境地図記憶部92、清掃領域記憶部93、装置設定記憶部94が設けられている。V-SLAM制御部81以外の各制御ブロックについては、第1の実施形態の装置本体10(図2参照)の各制御ブロックと略同一の構成である。このため、V-SLAM制御部81以外の各制御ブロックの説明を省略する。 As shown in FIG. 9, the control unit 80 includes a V-SLAM control unit 81, a movement path creation unit 82, an environmental map creation unit 83, a cleaned area creation unit 84, a future cleaning area creation unit 85, an AR display control unit 86, a cleaned area determination unit 87, a future cleaning area determination unit 88, and an uncleaned area determination unit 89. The memory unit 90 includes a movement path memory unit 91, an environmental map memory unit 92, a cleaning area memory unit 93, and a device setting memory unit 94. Each control block other than the V-SLAM control unit 81 has substantially the same configuration as each control block of the device main body 10 of the first embodiment (see FIG. 2). For this reason, a description of each control block other than the V-SLAM control unit 81 will be omitted.

V-SLAM制御部(推定部)81は、リアルタイムでV-SLAMを実行して、前カメラ71から取得した撮像画像に基づいて、表示端末70の自己位置(現在位置)を推定すると共に局所地図を作成する。V-SLAMでは、前カメラ71(図8参照)から逐次入力される撮像画像がスキャンされて特徴点が抽出され、この時間と共に変化する特徴点によって自己位置が推定される。また、既に環境地図が作成されている場合には、V-SLAMによって撮像画像から求めた特徴点を環境地図の特徴点にマッチングすることによって、表示端末70の自己位置を推定することも可能である。 The V-SLAM control unit (estimation unit) 81 executes V-SLAM in real time to estimate the self-position (current position) of the display terminal 70 based on the captured images acquired from the front camera 71 and to create a local map. In V-SLAM, captured images sequentially input from the front camera 71 (see FIG. 8) are scanned to extract feature points, and the self-position is estimated from these feature points that change over time. Also, if an environmental map has already been created, it is also possible to estimate the self-position of the display terminal 70 by matching feature points determined from the captured images by V-SLAM with feature points on the environmental map.

次に、第2の実施形態の表示端末を用いた作業例について説明する。本作業例は、自律走行式の清掃装置によって手動モードで清掃した後に、この清掃装置から表示端末を分離して、清掃抜けが生じた箇所について手動式の他の清掃装置を用いて追加清掃する一例である。図10は、第2の実施形態の追加清掃のフローチャートの一例である。図11Aは、未清掃領域をAR表示した表示画面の一例である。図11Bは、追加清掃領域をAR表示した表示画面の一例である。図12は、ウェアラブル型表示端末を用いた追加清掃の作業例を示している。なお、ここでは、図8及び図9の符号を適宜使用して説明する。 Next, an example of work using the display terminal of the second embodiment will be described. In this example of work, after cleaning in manual mode using an autonomous cleaning device, the display terminal is separated from the cleaning device and additional cleaning is performed using another manual cleaning device on areas that have not been cleaned. FIG. 10 is an example of a flowchart for additional cleaning in the second embodiment. FIG. 11A is an example of a display screen that displays an uncleaned area using AR. FIG. 11B is an example of a display screen that displays an additional cleaning area using AR. FIG. 12 shows an example of additional cleaning work using a wearable display terminal. Note that the symbols in FIG. 8 and FIG. 9 will be used as appropriate for the explanation.

図10に示すように、清掃装置1の手動モードによる清掃が終了して、手動式の他の清掃装置100(図12参照)による追加清掃が開始されると、表示端末70には装置本体10(図2参照)から移動経路、環境地図、既清掃領域A1が入力される(ステップS21)。なお、清掃装置1は手動モードであっても、バックグラウンドで移動経路、環境地図、既清掃領域A1が作成されてもよい。移動経路、環境地図、既清掃領域A1は、それぞれ表示端末70の移動経路記憶部91、環境地図記憶部92、清掃領域記憶部93に記憶される。次に、表示端末70の前カメラ71によってカメラ前方が撮像されて、V-SLAM制御部81によって撮像画像に基づいてV-SLAMが実行される(ステップS22)。 As shown in FIG. 10, when cleaning in the manual mode of the cleaning device 1 is completed and additional cleaning is started by another manual cleaning device 100 (see FIG. 12), the movement path, environmental map, and already cleaned area A1 are input to the display terminal 70 from the device main body 10 (see FIG. 2) (step S21). Note that even if the cleaning device 1 is in the manual mode, the movement path, environmental map, and already cleaned area A1 may be created in the background. The movement path, environmental map, and already cleaned area A1 are stored in the movement path memory unit 91, environmental map memory unit 92, and cleaning area memory unit 93 of the display terminal 70, respectively. Next, the front camera 71 of the display terminal 70 captures an image in front of the camera, and the V-SLAM control unit 81 executes V-SLAM based on the captured image (step S22).

次に、V-SLAMによって撮像画像の特徴点が抽出され、環境地図記憶部92に記憶された環境地図の特徴点と撮像画像の特徴点がマッチングされて表示端末70の現在位置が推定される(ステップS23)。次に、AR表示制御部86によって表示端末70の現在位置を基準にして撮像画像内の床面F上に既清掃領域A1がAR表示される(ステップS24)。次に、未清掃領域判定部89によって既清掃領域A1の重なり状況から未清掃領域A3の有無が判定される(ステップS25)。未清掃領域A3が無い場合(ステップS25でNo)、追加清掃されることなく処理が終了する。 Next, V-SLAM extracts feature points from the captured image, and the feature points from the environmental map stored in the environmental map storage unit 92 are matched with the feature points from the captured image to estimate the current position of the display terminal 70 (step S23). Next, the AR display control unit 86 AR-displays the already-cleaned area A1 on the floor surface F in the captured image based on the current position of the display terminal 70 (step S24). Next, the uncleaned area determination unit 89 determines whether or not there is an uncleaned area A3 based on the overlapping state of the already-cleaned areas A1 (step S25). If there is no uncleaned area A3 (No in step S25), the process ends without any additional cleaning.

一方、未清掃領域A3がある場合(ステップS25でYes)、表示端末60の表示画面を確認しながら、手動式の他の清掃装置100によって追加清掃が実施される(ステップS26)。このとき、図11Aに示すように、未清掃領域A3がある場合には、AR表示制御部42によって撮像画像上に警告メッセージM3がAR表示されてもよい。これにより、未清掃領域A3の追加清掃を作業者に対して促すことができる。なお、表示画面の明滅や音声メッセージの出力によって作業者に対して警告されてもよい。 On the other hand, if there is an uncleaned area A3 (Yes in step S25), additional cleaning is performed by the other manual cleaning device 100 while checking the display screen of the display terminal 60 (step S26). At this time, as shown in FIG. 11A, if there is an uncleaned area A3, a warning message M3 may be displayed in AR on the captured image by the AR display control unit 42. This makes it possible to prompt the worker to perform additional cleaning of the uncleaned area A3. The worker may be warned by the display screen flashing or by outputting a voice message.

また、図11Bに示すように、追加清掃済みの追加清掃領域A4が撮像画像上にAR表示されてもよい。例えば、V-SLAM制御部81によって追加清掃中にリアルタイムでV-SLAMが実行されて他の清掃装置100の自己位置が推定される。移動経路作成部82によって時系列に並んだ自己位置が繋ぎ合わされて他の清掃装置100の移動経路が作成される。装置設定記憶部94に記憶された清掃部材(不図示)の幅と移動経路が組み合わされて追加清掃領域A4が作成される。そして、撮像画像上に追加清掃済みの追加清掃領域A4がAR表示される。なお、追加清掃時の移動経路は移動経路記憶部91に記憶され、追加清掃領域A4は清掃領域記憶部93に記憶されてもよい。 Also, as shown in FIG. 11B, the additional cleaning area A4 where additional cleaning has been performed may be displayed in AR on the captured image. For example, the V-SLAM control unit 81 executes V-SLAM in real time during additional cleaning to estimate the self-position of the other cleaning device 100. The movement path creation unit 82 connects the self-positions arranged in chronological order to create the movement path of the other cleaning device 100. The width of the cleaning member (not shown) stored in the device setting storage unit 94 and the movement path are combined to create the additional cleaning area A4. Then, the additional cleaning area A4 where additional cleaning has been performed may be displayed in AR on the captured image. Note that the movement path during additional cleaning may be stored in the movement path storage unit 91, and the additional cleaning area A4 may be stored in the cleaning area storage unit 93.

図12に示すように、本作業例では表示端末70としてタブレット型の表示端末70aの他に、ウェアラブル型の表示端末70bを用いることも可能である。特に、ウェアラブル型の表示端末70bとしてゴーグル型の表示端末を用いることで、作業者の両手が自由になるため追加清掃の作業性を向上させることができる。 As shown in FIG. 12, in this example of work, in addition to a tablet-type display terminal 70a, a wearable-type display terminal 70b can also be used as the display terminal 70. In particular, by using a goggle-type display terminal as the wearable display terminal 70b, the worker's hands can be freed, improving the workability of additional cleaning.

次に、第2の実施形態の表示端末を用いた他の作業例について説明する。他の作業例は、自律走行式の清掃装置1から表示端末を分離して、他の清掃装置(不図示)に表示端末を取り付けて手動清掃する場合について説明する。図13は、第2の実施形態の手動清掃のフローチャートの一例である。なお、ここでは、図8及び図9の符号を適宜使用して説明する。 Next, another example of work using the display terminal of the second embodiment will be described. In this other example of work, the display terminal is separated from the autonomous cleaning device 1 and attached to another cleaning device (not shown) for manual cleaning. Figure 13 is an example of a flowchart for manual cleaning of the second embodiment. Note that the reference numerals in Figures 8 and 9 will be used appropriately in the explanation.

図13に示すように、他の清掃装置による手動清掃が開始されると、表示端末70の前カメラ71によってカメラ前方が撮像されて、V-SLAM制御部81によって撮像画像に基づいてV-SLAMが実行される(ステップS31)。次に、前カメラ71から逐次入力される撮像画像の特徴点が抽出され、各撮像画像の特徴点のマッチングによって表示端末70の自己位置が推定される(ステップS32)。このとき、Gセンサ76の検出値とビーコンからの信号によって表示端末70の移動量が求められ(ステップS33)、表示端末70の自己位置が移動量によって補正される(ステップS34)。 As shown in FIG. 13, when manual cleaning by another cleaning device is started, the front camera 71 of the display terminal 70 captures an image in front of the camera, and the V-SLAM control unit 81 executes V-SLAM based on the captured image (step S31). Next, feature points of the captured images sequentially input from the front camera 71 are extracted, and the self-position of the display terminal 70 is estimated by matching the feature points of each captured image (step S32). At this time, the amount of movement of the display terminal 70 is calculated based on the detection value of the G sensor 76 and the signal from the beacon (step S33), and the self-position of the display terminal 70 is corrected based on the amount of movement (step S34).

次に、既清掃領域作成部84によって表示端末70の自己位置までの走行経路と清掃部材の幅から既清掃領域A1が作成され、既清掃領域作成部84からAR表示制御部86に既清掃領域A1が出力される(ステップS35)。将来清掃領域作成部85によって表示端末70の自己位置からの移動方向と清掃部材の幅から将来清掃領域A2が作成され、将来清掃領域作成部85からAR表示制御部86に将来清掃領域A2が出力される(ステップS36)。次に、AR表示制御部86によって撮像画像内の床面F上に既清掃領域A1及び将来清掃領域A2がAR表示される(ステップS37)。 Next, the already cleaned area creation unit 84 creates an already cleaned area A1 based on the travel path to the display terminal 70's own position and the width of the cleaning member, and the already cleaned area A1 is output from the already cleaned area creation unit 84 to the AR display control unit 86 (step S35). The future cleaning area creation unit 85 creates a future cleaning area A2 based on the movement direction from the display terminal 70's own position and the width of the cleaning member, and the future cleaning area creation unit 85 outputs the future cleaning area A2 to the AR display control unit 86 (step S36). Next, the AR display control unit 86 AR-displays the already cleaned area A1 and the future cleaning area A2 on the floor surface F in the captured image (step S37).

このとき、撮像画像上には、清掃装置1の周辺の障害物、既清掃領域A1同士の重なり、既清掃領域A1と将来清掃領域A2の重なり、走行禁止区域、清掃動作のスタート位置等を示す情報がAR表示されてもよい。また、撮像画像上には、清掃装置1の軌道修正を促す警告メッセージM1や、表示画面の凝視を注意する警告メッセージM2がAR表示されてもよい。さらに、撮像画像上には、メモが入力されたタグTがAR表示されてもよい。そして、清掃装置1による清掃作業が終了するまで、ステップS31からステップS37までの処理が繰り返される(ステップS38)。 At this time, information indicating obstacles around the cleaning device 1, overlaps between already cleaned areas A1, overlaps between already cleaned areas A1 and future cleaning areas A2, no-travel areas, the starting position of the cleaning operation, etc. may be displayed in AR on the captured image. Also, a warning message M1 encouraging the user to correct the trajectory of the cleaning device 1 and a warning message M2 warning the user not to stare at the display screen may be displayed in AR on the captured image. Furthermore, a tag T with a note entered therein may be displayed in AR on the captured image. Then, the processes from step S31 to step S37 are repeated until the cleaning operation by the cleaning device 1 is completed (step S38).

以上、第2の実施形態によれば、第1の実施形態と同様に、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる。また、自律走行式の清掃装置1(図1参照)から表示端末70を分離させて、他の清掃装置を用いた手動清掃に表示端末70を利用することができる。この表示端末70を用いることで、専用の清掃装置を開発する必要がなく、既存の清掃装置の作業性を向上させることができる。 As described above, according to the second embodiment, like the first embodiment, the operability of the cleaning work is improved, and high-quality cleaning can be performed efficiently. In addition, the display terminal 70 can be separated from the autonomously traveling cleaning device 1 (see FIG. 1) and used for manual cleaning using another cleaning device. By using this display terminal 70, there is no need to develop a dedicated cleaning device, and the operability of an existing cleaning device can be improved.

なお、各実施形態の清掃作業は、湿式の洗浄作業、乾式の掃除作業、研磨作業、艶出し作業を含んでいる。したがって、清掃部材は、被清掃面に対して清掃作業を実施可能な部材であればよく、例えば洗浄ブラシ、洗浄パッド、掃除ブラシ、研磨ブラシ、艶出しブラシでもよい。 The cleaning operations in each embodiment include wet washing operations, dry cleaning operations, polishing operations, and polishing operations. Therefore, the cleaning member may be any member capable of performing cleaning operations on the surface to be cleaned, and may be, for example, a cleaning brush, cleaning pad, cleaning brush, polishing brush, or polishing brush.

また、各実施形態では、作業者が清掃装置のハンドルを持って手動操作しているが、作業者が表示端末によって清掃装置を遠隔手動操作してもよい。 In addition, in each embodiment, the worker holds the handle of the cleaning device and manually operates it, but the worker may also remotely manually operate the cleaning device using a display terminal.

また、各実施形態では、表示端末としてタブレット型、スマートフォン型、ウェアラブル型のいずれの表示端末が使用されてもよい。 In addition, in each embodiment, the display terminal may be a tablet type, a smartphone type, or a wearable type.

また、各実施形態では、床面清掃用の清掃装置及び表示端末のAR表示処理について説明したが、当該AR表示処理は壁面、天井面、窓面、鏡面等の清掃に用いられる清掃装置及び表示端末に適用することもできる。すなわち、被清掃面とは、壁面、天井面、窓面、鏡面等を含んでいる。 In addition, in each embodiment, the AR display processing of the cleaning device and display terminal for cleaning floor surfaces has been described, but the AR display processing can also be applied to cleaning devices and display terminals used for cleaning wall surfaces, ceiling surfaces, window surfaces, mirror surfaces, etc. In other words, the surfaces to be cleaned include wall surfaces, ceiling surfaces, window surfaces, mirror surfaces, etc.

また、第1の実施形態の障害物センサはLRFによって構成されたが、障害物センサは障害物を検出可能な構成であればよい。例えば、障害物センサは、V-SLAMで用いるカメラやLiDAR-SLAMで用いるLiDAR(Light Detection and Ranging)によって構成されてもよい。 In addition, while the obstacle sensor in the first embodiment is configured with an LRF, the obstacle sensor may be configured in any way as long as it is capable of detecting obstacles. For example, the obstacle sensor may be configured with a camera used in V-SLAM or a LiDAR (Light Detection and Ranging) used in LiDAR-SLAM.

また、第1の実施形態の清掃装置には表示端末が着脱可能にセットされているが、装置端末に表示端末が一体的に設けられていてもよい。 In addition, the display terminal is removably set on the cleaning device in the first embodiment, but the display terminal may be integrally provided on the device terminal.

また、第1の実施形態の清掃装置には、推定部としてSLAM制御部が設けられているが、推定部は清掃装置の自己位置を推定可能な構成であればよい。例えば、清掃装置にGPS(Global Positioning System)センサが設けられており、GPS信号によって清掃装置の自己位置が推定されてもよい。 The cleaning device of the first embodiment is provided with a SLAM control unit as an estimation unit, but the estimation unit may be configured to be capable of estimating the self-position of the cleaning device. For example, the cleaning device may be provided with a GPS (Global Positioning System) sensor, and the self-position of the cleaning device may be estimated by a GPS signal.

また、第1の実施形態では、学習モード中のAR表示処理について説明したが、当該AR表示処理は手動モードにも適用することができる。手動モードであっても、学習モードと同様に、清掃作業の作業性を向上させて、質の高い清掃を効率的に実施することができる。 In the first embodiment, the AR display process during the learning mode was described, but the AR display process can also be applied to the manual mode. Even in the manual mode, as in the learning mode, the workability of the cleaning work can be improved, and high-quality cleaning can be performed efficiently.

また、第2の実施形態では、自律走行式の清掃装置から分離された表示端末が、他の清掃装置に用いられているが、表示端末は駆動機構を持たないモップやワイパー等の他の清掃用具に用いられてもよい。 In addition, in the second embodiment, the display terminal separated from the autonomous cleaning device is used in another cleaning device, but the display terminal may also be used in other cleaning tools such as mops and wipers that do not have a drive mechanism.

また、第2の実施形態の表示端末には、推定部としてV-SLAM制御部が設けられているが、推定部は表示端末の自己位置を推定可能な構成であればよい。例えば、表示端末にGPSセンサが設けられており、GPS信号によって表示端末の自己位置が推定されてもよい。 The display terminal of the second embodiment is provided with a V-SLAM control unit as an estimation unit, but the estimation unit may be configured to be capable of estimating the self-position of the display terminal. For example, the display terminal may be provided with a GPS sensor, and the self-position of the display terminal may be estimated by a GPS signal.

また、清掃装置は、被清掃面を清掃可能な装置であればく、例えば、ロボット清掃機、洗浄機、ポリッシャー、路面清掃機、掃除機、バフィングマシンでもよい。 The cleaning device may be any device capable of cleaning the surface to be cleaned, such as a robot cleaner, a washing machine, a polisher, a street sweeper, a vacuum cleaner, or a buffing machine.

また、各実施形態では、既清掃領域及び将来清掃領域が撮像画像内の被清掃面に重ねて表示されたが、既清掃領域又は将来清掃領域が撮像画像内の被清掃面に重ねて表示されてもよい。既清掃領域又は将来清掃領域を参照しながら清掃作業の作業性を向上することができる。 In addition, in each embodiment, the area that has already been cleaned and the area that will be cleaned are displayed superimposed on the surface to be cleaned in the captured image, but the area that has already been cleaned or the area that will be cleaned may be displayed superimposed on the surface to be cleaned in the captured image. The workability of the cleaning work can be improved by referring to the area that has already been cleaned or the area that will be cleaned.

また、上記した各実施形態及び変形例において、清掃装置又は表示端末にプログラムをインストールすることによって、清掃装置又は表示端末に撮像画像内の被清掃面に既清掃領域と将来清掃領域を重ねて表示させる機能を追加されてもよい。このプログラムは記憶媒体に記憶されている。記憶媒体は特に限定されないが、光ディスク、光磁気ディスク、フラッシュメモリ等の非一過性の記憶媒体であってもよい。 In addition, in each of the above-mentioned embodiments and modifications, a function may be added to display the already cleaned area and the future cleaning area superimposed on the surface to be cleaned in the captured image on the cleaning device or display terminal by installing a program in the cleaning device or display terminal. This program is stored in a storage medium. The storage medium is not particularly limited, but may be a non-transitory storage medium such as an optical disk, a magneto-optical disk, or a flash memory.

なお、本実施形態を説明したが、他の実施形態として、上記実施形態及び変形例を全体的又は部分的に組み合わせたものでもよい。 Although this embodiment has been described, other embodiments may be combinations of the above embodiments and variations in whole or in part.

また、本発明の技術は上記の実施形態に限定されるものではなく、技術的思想の趣旨を逸脱しない範囲において様々に変更、置換、変形されてもよい。さらには、技術の進歩又は派生する別技術によって、技術的思想を別の仕方によって実現することができれば、その方法を用いて実施されてもよい。したがって、特許請求の範囲は、技術的思想の範囲内に含まれ得る全ての実施態様をカバーしている。 The technology of the present invention is not limited to the above-described embodiments, and may be modified, substituted, or altered in various ways without departing from the spirit of the technical idea. Furthermore, if the technical idea can be realized in a different way due to technological advances or other derived technologies, it may be implemented using that method. Therefore, the claims cover all embodiments that may fall within the scope of the technical idea.

以上説明したように、自律走行式の洗浄装置等の作業エリアの自動作業に好適な産業用ロボットに有用である。 As explained above, this is useful for industrial robots suitable for automated work in work areas, such as autonomous cleaning equipment.

1 :清掃装置
16 :清掃部材
33 :SLAM制御部(推定部)
39、84:既清掃領域作成部(第1の作成部)
41、85:将来清掃領域作成部(第2の作成部)
46 :顔認識部(認識部)
47 :凝視警告部(警告部)
48 :タグ付与部(付与部)
55 :タグ記憶部(記憶部)
60、70:表示端末
61、71:前カメラ(撮像部)
62、72:後カメラ(他の撮像部)
63、73:操作表示部(表示部、操作部)
81 :V-SLAM制御部(推定部)
A1 :既清掃領域
A2 :将来清掃領域
F :床面(被清掃面)
T :タグ
1: cleaning device 16: cleaning member 33: SLAM control unit (estimation unit)
39, 84: Cleaned area creation unit (first creation unit)
41, 85: Future cleaning area creation unit (second creation unit)
46: Face recognition unit (recognition unit)
47: Staring warning section (warning section)
48: tag assignment unit (assignment unit)
55: Tag memory unit (memory unit)
60, 70: Display terminal 61, 71: Front camera (imaging unit)
62, 72: Rear camera (other imaging unit)
63, 73: Operation display unit (display unit, operation unit)
81: V-SLAM control unit (estimation unit)
A1: Already cleaned area A2: Future cleaning area F: Floor surface (surface to be cleaned)
T: Tag

Claims (10)

手動操作によって清掃部材を移動させながら被清掃面を清掃する清掃装置であって、
清掃中に被清掃面を撮像する撮像部と、
前記撮像部の撮像画像を表示する表示部と、
前記清掃部材の現在位置を推定する推定部と、
前記清掃部材の現在位置までの移動軌跡に基づいて既清掃領域を作成する第1の作成部と、
前記清掃部材の現在位置からの移動方向に基づいて将来清掃領域を作成する第2の作成部と、を備え、
前記表示部は、既清掃領域及び/または将来清掃領域を撮像画像内の被清掃面に重ねて表示することを特徴とする清掃装置。
A cleaning device that cleans a surface to be cleaned while moving a cleaning member by manual operation,
An imaging unit that images a surface to be cleaned during cleaning;
a display unit that displays an image captured by the imaging unit;
an estimation unit that estimates a current position of the cleaning member;
a first creating unit that creates a cleaned area based on a movement trajectory of the cleaning member up to a current position;
a second creation unit that creates a future cleaning area based on a moving direction of the cleaning member from a current position,
A cleaning device characterized in that the display unit displays the area already cleaned and/or the area to be cleaned in the captured image by superimposing the area already cleaned and/or the area to be cleaned on the surface to be cleaned in the captured image.
学習モードにて手動操作によって清掃部材を移動させながら清掃プランを作成し、再現モードにて清掃プランを再現して被清掃面を自律走行清掃しており、
前記表示部は、学習モードにて既清掃領域及び将来清掃領域を撮像画像内の被清掃面に重ねて表示することを特徴とする請求項1に記載の清掃装置。
In learning mode, the robot creates a cleaning plan while manually moving the cleaning parts, and in reproduction mode, the robot reproduces the cleaning plan and autonomously cleans the surface to be cleaned.
The cleaning device according to claim 1 , wherein the display unit displays the already-cleaned area and the future cleaning area in a learning mode by superimposing the area on a surface to be cleaned in the captured image.
前記表示部は、前記清掃部材の移動方向、前記清掃部材の周辺の障害物、既清掃領域同士の重なり、既清掃領域と将来清掃領域の重なり、未清掃領域及び移動禁止区域の少なくとも1つを撮像画像に重ねて表示することを特徴とする請求項1又は請求項2に記載の清掃装置。 The cleaning device according to claim 1 or 2, characterized in that the display unit displays at least one of the following on the captured image: the direction of movement of the cleaning member, obstacles around the cleaning member, overlap between already cleaned areas, overlap between already cleaned areas and areas to be cleaned, uncleaned areas, and no-movement areas. 前記表示部は、障害物までの距離、既清掃領域同士の重なり幅、既清掃領域と将来清掃領域の重なり幅の少なくとも1つを撮像画像に重ねて表示することを特徴とする請求項3に記載の清掃装置。 The cleaning device according to claim 3, characterized in that the display unit displays at least one of the distance to an obstacle, the overlap width between areas already cleaned, and the overlap width between areas already cleaned and areas to be cleaned, superimposed on the captured image. 清掃中に前記表示部を視認した作業者を撮像する他の撮像部と、
前記他の撮像部の撮像画像に含まれる作業者の顔を認識する認識部と、
一定時間以上継続して作業者の顔が認識された場合に警告する警告部と、を備えていることを特徴とする請求項1から請求項4のいずれか1項に記載の清掃装置。
Another imaging unit that images a worker who views the display unit during cleaning;
a recognition unit that recognizes a face of a worker included in an image captured by the other imaging unit;
5. The cleaning device according to claim 1, further comprising a warning unit that issues a warning when the face of an operator is continuously recognized for a certain period of time or more.
前記警告部は、音声警告、発光警告、表示警告又はこれらの組み合わせによって警告することを特徴とする請求項5に記載の清掃装置。 The cleaning device according to claim 5, characterized in that the warning unit warns by audio warning, light warning, display warning, or a combination of these. 撮像画像にタグを付与する付与部と、
撮像画像に付与したタグへの入力操作を受け付ける操作部と、
タグの付与位置を当該タグへの入力内容に関連付けて記憶する記憶部と、を備え、
前記表示部は、撮像画像にタグを重ねて表示することを特徴とする請求項1から請求項6のいずれか1項に記載の清掃装置。
an attachment unit that attaches a tag to a captured image;
an operation unit that accepts an input operation to a tag added to a captured image;
a storage unit that stores the tagged position in association with the input content of the tag;
The cleaning device according to claim 1 , wherein the display unit displays a tag by superimposing it on the captured image.
手動操作によって清掃部材を移動させながら被清掃面を清掃する清掃装置のプログラムであって、
清掃中に被清掃面を撮像部に撮像させるステップと、
前記清掃部材の現在位置を推定するステップと、
前記清掃部材の現在位置までの移動軌跡に基づいて既清掃領域を作成するステップと、
前記清掃部材の現在位置からの移動方向に基づいて将来清掃領域を作成するステップと、
既清掃領域及び将来清掃領域を撮像画像内の被清掃面に重ねて表示部に表示させるステップと、を前記清掃装置に実行させることを特徴とするプログラム。
A program for a cleaning device that cleans a surface to be cleaned while manually moving a cleaning member, comprising:
A step of causing an imaging unit to capture an image of a surface to be cleaned during cleaning;
estimating a current position of the cleaning member;
creating a cleaning area based on a movement trajectory of the cleaning member to a current position;
creating a future cleaning area based on a moving direction of the cleaning member from a current position;
and displaying the already-cleaned area and the future-cleaned area on a display unit so as to be superimposed on a surface to be cleaned in a captured image.
手動操作によって清掃部材を移動させながら被清掃面の清掃に用いられる表示端末であって、
清掃中に被清掃面を撮像する撮像部と、
前記撮像部の撮像画像を表示する表示部と、
前記清掃部材の現在位置を推定する推定部と、
前記清掃部材の現在位置までの移動軌跡に基づいて既清掃領域を作成する第1の作成部と、
前記清掃部材の現在位置からの移動方向に基づいて将来清掃領域を作成する第2の作成部と、を備え、
前記表示部は、既清掃領域及び将来清掃領域を撮像画像内の被清掃面に重ねて表示することを特徴とする表示端末。
A display terminal used for cleaning a surface to be cleaned while moving a cleaning member by manual operation,
An imaging unit that images a surface to be cleaned during cleaning;
a display unit that displays an image captured by the imaging unit;
an estimation unit that estimates a current position of the cleaning member;
a first creating unit that creates a cleaned area based on a movement trajectory of the cleaning member up to a current position;
a second creation unit that creates a future cleaning area based on a moving direction of the cleaning member from a current position,
The display terminal is characterized in that the display unit displays the already cleaned area and the future cleaning area superimposed on the surface to be cleaned in the captured image.
タブレット型、スマートフォン型、ウェアラブル型の表示端末であることを特徴とする請求項9に記載の表示端末。 The display terminal according to claim 9, which is a tablet type, a smartphone type, or a wearable type display terminal.
JP2020097351A 2020-06-04 2020-06-04 Cleaning device, program and display terminal Active JP7461801B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020097351A JP7461801B2 (en) 2020-06-04 2020-06-04 Cleaning device, program and display terminal
JP2024047979A JP2024079775A (en) 2020-06-04 2024-03-25 Cleaning Equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020097351A JP7461801B2 (en) 2020-06-04 2020-06-04 Cleaning device, program and display terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024047979A Division JP2024079775A (en) 2020-06-04 2024-03-25 Cleaning Equipment

Publications (2)

Publication Number Publication Date
JP2021189980A JP2021189980A (en) 2021-12-13
JP7461801B2 true JP7461801B2 (en) 2024-04-04

Family

ID=78849633

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020097351A Active JP7461801B2 (en) 2020-06-04 2020-06-04 Cleaning device, program and display terminal
JP2024047979A Pending JP2024079775A (en) 2020-06-04 2024-03-25 Cleaning Equipment

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024047979A Pending JP2024079775A (en) 2020-06-04 2024-03-25 Cleaning Equipment

Country Status (1)

Country Link
JP (2) JP7461801B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077670A (en) 2001-11-03 2008-04-03 Dyson Technology Ltd Autonomous machine
JP2013012200A (en) 2011-06-28 2013-01-17 Samsung Electronics Co Ltd Robot cleaner and control method thereof
JP2017051597A (en) 2015-06-24 2017-03-16 フォアベルク ウント コー. インターホールディング ゲゼルシャフト ミット ベシュレンクテル ハフツングVorwerk & Co. Interholding GmbH Assisting surface cleaning
JP2017107434A (en) 2015-12-10 2017-06-15 株式会社リコー Program, information processing apparatus, image display method, and image processing system
JP2019133450A (en) 2018-01-31 2019-08-08 パナソニックIpマネジメント株式会社 Mobile robot and control method of the same
JP2020010888A (en) 2018-07-19 2020-01-23 シャープ株式会社 Vacuum cleaner

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077670A (en) 2001-11-03 2008-04-03 Dyson Technology Ltd Autonomous machine
JP2013012200A (en) 2011-06-28 2013-01-17 Samsung Electronics Co Ltd Robot cleaner and control method thereof
JP2017051597A (en) 2015-06-24 2017-03-16 フォアベルク ウント コー. インターホールディング ゲゼルシャフト ミット ベシュレンクテル ハフツングVorwerk & Co. Interholding GmbH Assisting surface cleaning
JP2017107434A (en) 2015-12-10 2017-06-15 株式会社リコー Program, information processing apparatus, image display method, and image processing system
JP2019133450A (en) 2018-01-31 2019-08-08 パナソニックIpマネジメント株式会社 Mobile robot and control method of the same
JP2020010888A (en) 2018-07-19 2020-01-23 シャープ株式会社 Vacuum cleaner

Also Published As

Publication number Publication date
JP2021189980A (en) 2021-12-13
JP2024079775A (en) 2024-06-11

Similar Documents

Publication Publication Date Title
US11432698B2 (en) Mobile robotic cleaner
JP6610797B2 (en) Autonomous traveling device
US10291765B2 (en) Mobile device, robot cleaner, and method for controlling the same
US20180263449A1 (en) Floor cleaning system and method for cleaning a floor surface
CN111449589B (en) System for ground processing equipment and method for operating the system
US20140190518A1 (en) Methods and systems for movement of an automatic cleaning device using video signal
KR20140066850A (en) Robot clean system and control method thereof
KR20190035376A (en) A robot cleaner and control method thereof
WO2018083831A1 (en) Electric vacuum cleaner
JP2019082807A (en) Augmented reality display system, terminal device, augmented reality display method and autonomously travelling cleaner
US20190018424A1 (en) Method for operating an automatically moving service device
WO2018216690A1 (en) Electric vacuum cleaner
JP2017182175A (en) Autonomous travel device and start position determination program
US11215998B2 (en) Method for the navigation and self-localization of an autonomously moving processing device
JP2024520821A (en) CLEANING APPARATUS, CLEANING PATH AND CLEANING MAP GENERATION METHOD, AND GENERATION SYSTEM
JP7461801B2 (en) Cleaning device, program and display terminal
JP2024079807A (en) Autonomous mobile work device and autonomous mobile work system
US20220313046A1 (en) Method of controlling a robotic floor cleaning machine
JP2020194415A (en) Autonomous travel work device
CN114829085B (en) Mobile robot and control method thereof
JP7495293B2 (en) Autonomous mobile work device and program
JP7345132B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
JP2022071311A (en) Autonomous traveling work device, work plan modification method and program
JP7324022B2 (en) Autonomous working device
US20220313047A1 (en) Method of controlling a robotic floor cleaning machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7461801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150