JP7212788B2 - Guide display method - Google Patents

Guide display method Download PDF

Info

Publication number
JP7212788B2
JP7212788B2 JP2021539747A JP2021539747A JP7212788B2 JP 7212788 B2 JP7212788 B2 JP 7212788B2 JP 2021539747 A JP2021539747 A JP 2021539747A JP 2021539747 A JP2021539747 A JP 2021539747A JP 7212788 B2 JP7212788 B2 JP 7212788B2
Authority
JP
Japan
Prior art keywords
snow
vehicle
display
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021539747A
Other languages
Japanese (ja)
Other versions
JPWO2021029016A5 (en
JPWO2021029016A1 (en
Inventor
大祐 山岡
一彦 田中
祐 瀧口
瞳 ▲濱▼村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2021029016A1 publication Critical patent/JPWO2021029016A1/ja
Publication of JPWO2021029016A5 publication Critical patent/JPWO2021029016A5/ja
Application granted granted Critical
Publication of JP7212788B2 publication Critical patent/JP7212788B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、ガイド表示に関する。 The present invention relates to guide display.

近年、AR(Augmented Reality)として知られる表示技術が様々な分野で利用されている。特許文献1には、自走式のブームスプレーヤーである農作業機1が記載されている。特許文献1では、車両10(農作業機1)に取り付けられたカメラ32によって撮影された撮影映像A2が、計算機35の演算装置35bによってガイド画像A1に重ね合わせて、ARとして表示機36に表示されると記載されている。さらには、ガイド画像A1と実際の圃場の撮影映像A2とが重ね合わされてガイド映像A3が表示されるため、ガイド画像A1に示される情報(例えば、ガイド線L、走行軌跡X、作業領域S等)と作物Cの位置や構造物等との関係が作業者によって把握可能になると記載されている。 In recent years, a display technology known as AR (Augmented Reality) has been used in various fields. Patent Literature 1 describes an agricultural work machine 1 that is a self-propelled boom sprayer. In Patent Document 1, a photographed image A2 photographed by a camera 32 attached to a vehicle 10 (agricultural machine 1) is superimposed on a guide image A1 by an arithmetic unit 35b of a computer 35 and displayed as an AR on a display device 36. is stated. Furthermore, since the guide image A1 is superimposed on the captured image A2 of the actual farm field to display the guide image A3, the information shown in the guide image A1 (for example, the guide line L, the travel locus X, the work area S, etc.) is displayed. ), the position of the crop C, the structure, and the like can be grasped by the operator.

特開2015-164001号公報Japanese Patent Application Laid-Open No. 2015-164001

特許文献1では、車両10の移動領域である圃場の地面に描かれた格子状の模様の撮影映像A2に基づいてガイド画像A1が補正され、補正されたガイド画像A1が撮影映像A2に重畳される。 In Patent Document 1, a guide image A1 is corrected based on a photographed image A2 of a lattice pattern drawn on the ground of a field, which is a movement area of a vehicle 10, and the corrected guide image A1 is superimposed on the photographed image A2. be.

しかしながら、車両が雪面上を走行する場合、地面は積雪で覆われており、例えば用水路や縁石といった走行の障害になるような物体が雪面下に存在することがある。従って、積雪後の状態におけるガイド表示には、より改善が求められる。 However, when a vehicle travels on a snowy surface, the ground is covered with snow, and objects such as irrigation channels and curbs may exist under the snow surface, for example. Therefore, further improvement is required for the guide display in the state after snow cover.

本発明は、積雪後の状態で走行するためのガイドを適切に表示する仕組みを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a mechanism for appropriately displaying a guide for driving in a snow-covered state.

本発明に係るガイド表示方法は、所定位置における積雪後の状態を表す撮影データを取得する第1取得工程と、前記第1取得工程において取得された前記撮影データに基づいて、前記所定位置における積雪前の状態を表す画像データを記憶する第1記憶手段から前記撮影データの表す前記積雪後の状態に対応する画像データを取得する第2取得工程と、前記第1取得工程において取得された前記撮影データと、前記第2取得工程において取得された前記画像データとに基づいて、前記撮影データの表す前記積雪後の状態で走行するためのガイドを表示するための表示データを生成する生成工程と、を有することを特徴とする。 A guide display method according to the present invention includes: a first acquisition step of acquiring image data representing a state after snow cover at a predetermined position; a second acquiring step of acquiring image data corresponding to the state after snowfall represented by the photographing data from a first storage means storing image data representing a previous state; and the photographing acquired in the first acquiring step. a generating step of generating display data for displaying a guide for driving in the state after snow cover represented by the photographed data, based on the data and the image data obtained in the second obtaining step; characterized by having

本発明に係るガイド表示方法は、サーバと、前記サーバと通信可能な車両と、を含むガイド表示システムにおいて実行されるガイド表示方法であって、前記サーバが、所定位置における積雪後の状態を表す撮影データを前記車両から受信する第1受信工程と、前記第1受信工程において受信された前記撮影データに基づいて、前記所定位置における積雪前の状態を表す画像データを記憶する記憶手段から前記撮影データの表す前記積雪後の状態に対応する画像データを取得する取得工程と、前記第1受信工程において受信された前記撮影データと、前記取得工程において取得された前記画像データとに基づいて、前記撮影データの表す前記積雪後の状態で走行するためのガイドを表示するための表示データを生成する生成工程と、前記生成工程において生成された前記表示データを前記車両に送信する第1送信工程と、前記車両が、撮影手段により撮影された前記撮影データを前記サーバへ送信する第2送信工程と、前記表示データを前記サーバから受信する第2受信工程と、前記第2受信工程において受信された前記表示データに基づいて、前記積雪後の状態に前記ガイドが重畳された画面を表示する表示工程と、を有することを特徴とする。 A guide display method according to the present invention is a guide display method executed in a guide display system including a server and a vehicle capable of communicating with the server, wherein the server represents a state after snowfall at a predetermined position. a first receiving step of receiving photographed data from the vehicle; and based on the photographed data received in the first receiving step, the photographing is performed from storage means for storing image data representing a state of the predetermined position before snow cover. Based on the acquisition step of acquiring image data corresponding to the state after snowfall represented by the data, the photographed data received in the first reception step, and the image data acquired in the acquisition step, a generation step of generating display data for displaying a guide for driving in the snow-covered state represented by the photographed data; and a first transmission step of transmitting the display data generated in the generation step to the vehicle. a second transmitting step of transmitting the photographed data photographed by the photographing means to the server; a second receiving step of receiving the display data from the server; and a display step of displaying a screen on which the guide is superimposed on the state after snow cover based on the display data.

積雪後の状態で走行するためのガイドを適切に表示することができる。 It is possible to appropriately display a guide for driving in a state after snow cover.

本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。 Other features and advantages of the invention will become apparent from the following description with reference to the accompanying drawings. In the accompanying drawings, the same or similar configurations are given the same reference numerals.

添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
ガイド表示システムの構成を示す図である。 除雪機の構成を示す図である。 除雪機の構成を示すブロック図である。 四輪車両の構成を示すブロック図である。 サーバの構成を示すブロック図である。 AR表示データの生成を説明するための図である。 車両側の処理を示すフローチャートである。 サーバ側の処理を示すフローチャートである。 サーバ側の処理を示すフローチャートである。 サーバ側の処理を示すフローチャートである。 方向性のずれを説明するための図である。 サーバ側の処理を示すフローチャートである。 サーバ側の処理を示すフローチャートである。 サーバ側の処理を示すフローチャートである。 サーバ側の処理を示すフローチャートである。 撮影データの画像を示す図である。 積雪前画像データの画像を示す図である。 ARオブジェクトを示す図である。 ARオブジェクトが撮影データに重畳された画像を示す図である。 作業ラインオブジェクトを示す図である。 積雪情報オブジェクトを示す図である。 警告オブジェクトを示す図である。 警告オブジェクトを示す図である。
The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention.
It is a figure which shows the structure of a guide display system. It is a figure which shows the structure of a snow blower. It is a block diagram which shows the structure of a snow blower. 1 is a block diagram showing the configuration of a four-wheeled vehicle; FIG. It is a block diagram which shows the structure of a server. FIG. 4 is a diagram for explaining generation of AR display data; 4 is a flowchart showing processing on the vehicle side; 6 is a flowchart showing processing on the server side; 6 is a flowchart showing processing on the server side; 6 is a flowchart showing processing on the server side; It is a figure for demonstrating the misalignment of directionality. 6 is a flowchart showing processing on the server side; 6 is a flowchart showing processing on the server side; 6 is a flowchart showing processing on the server side; 6 is a flowchart showing processing on the server side; FIG. 4 is a diagram showing an image of photographed data; It is a figure which shows the image of the image data before snow cover. FIG. 10 is a diagram showing an AR object; FIG. 10 is a diagram showing an image in which an AR object is superimposed on photographed data; FIG. 10 is a diagram showing a work line object; FIG. 10 is a diagram showing a snow coverage information object; FIG. 11 shows an alert object; FIG. 11 shows an alert object;

図1は、本実施形態におけるガイド表示システム100の構成を示す図である。ガイド表示システム100は、雪面を走行する車両が撮影している撮影画像に対して走行路を示すガイド情報をAR(Augmented Reality)表示して車両の搭乗者に提供するシステムである。図1に示すように、ガイド表示システム100は、サーバ101 、車両104、105、106、携帯型端末107を含む。サーバ101は、上記のガイド表示サービスを提供するためのサーバである。なお、図1では、サーバ101は1つの装置として示されているが、複数の装置で構成されても良い。即ち、本実施形態におけるサーバ101は、1つの装置でサーバ機能を提供する構成、複数の装置で連携してサーバ機能を提供する構成、を含む。本実施形態で「車両」は、その形態について限定されるものではなく、図1の車両104、105、106で示されるような、四輪車両、鞍乗り型の二輪車両、作業用車両、を含む。作業用車両は、特殊用途のための車両であり、例えば除雪機である。ガイド表示システム100において、車両104、105、106の搭乗者は、ガイド表示サービスを享受することができる。また、スマートフォンのような携帯型端末107もガイド表示システム100に接続可能であり、携帯型端末107を保持して雪面上を移動する移動者は、ガイド表示システム100のガイド表示サービスを享受することができる。なお、本実施形態において、車両の搭乗者とは、車両の運転者や他の乗員を含むものとする。 FIG. 1 is a diagram showing the configuration of a guide display system 100 according to this embodiment. The guide display system 100 is a system that provides an AR (Augmented Reality) display of guide information indicating a travel route to a photographed image taken by a vehicle that is traveling on a snowy surface, and provides it to passengers of the vehicle. As shown in FIG. 1, the guide display system 100 includes a server 101 , vehicles 104 , 105 and 106 and a portable terminal 107 . The server 101 is a server for providing the guide display service described above. Although the server 101 is shown as one device in FIG. 1, it may be configured by a plurality of devices. That is, the server 101 in this embodiment includes a configuration in which one device provides the server function and a configuration in which a plurality of devices cooperate to provide the server function. In this embodiment, the "vehicle" is not limited in its form, and includes four-wheeled vehicles, saddle-type two-wheeled vehicles, and work vehicles, such as vehicles 104, 105, and 106 in FIG. include. A work vehicle is a vehicle for special purposes, such as a snow blower. In the guide display system 100, passengers of vehicles 104, 105, 106 can enjoy guide display services. A mobile terminal 107 such as a smart phone can also be connected to the guide display system 100, and a traveler holding the mobile terminal 107 and moving on the snow surface enjoys the guide display service of the guide display system 100. be able to. Note that, in the present embodiment, the passengers of the vehicle include the driver of the vehicle and other passengers.

無線基地局103は、例えばサーバ101がガイド表示サービスを提供可能な領域内に設けられた無線基地局であり、車両104、105、106、携帯型端末107と相互に通信可能である。また、サーバ101は、ネットワーク102を介して無線基地局103と相互に通信可能に構成されている。そのような構成により、例えば、車両104、105、106、携帯型端末107は、位置情報等の車両情報もしくは端末情報をサーバ101に送信可能であり、サーバ101は、車両104、105、106、携帯型端末107に対して表示データを送信可能である。図1では、ネットワーク102は、単体のネットワークとして示されているが、ルータ等により複数のネットワークが構成されても良い。また、サーバ101及び車両104、105、106、携帯型端末107は、図1に示すネットワーク102以外のネットワークにも接続可能であり、例えば、インターネットに接続可能である。 The radio base station 103 is, for example, a radio base station provided within an area where the server 101 can provide the guide display service, and is capable of mutual communication with the vehicles 104 , 105 and 106 and the mobile terminal 107 . Server 101 is also configured to be able to communicate with radio base station 103 via network 102 . With such a configuration, for example, vehicles 104, 105, 106 and portable terminal 107 can transmit vehicle information or terminal information such as position information to server 101, and server 101 can transmit vehicles 104, 105, 106, Display data can be transmitted to the portable terminal 107 . Although the network 102 is shown as a single network in FIG. 1, a plurality of networks may be configured by routers or the like. In addition, the server 101, the vehicles 104, 105, and 106, and the portable terminal 107 can be connected to networks other than the network 102 shown in FIG. 1, such as the Internet.

通信機108は、例えば道路沿いに設けられた路側機であり、例えばDSRC(Dedicated Short Range Communication)により、車両104、105、106、携帯型端末107の少なくともいずれかとの通信(路車間通信など)が可能である。例えば、通信機108は、車両104の車両情報をサーバ101に送信するためや、路面の状態情報(積雪状態や凍結状態など)をサーバ101に送信するために用いられる。 The communication device 108 is, for example, a roadside device provided along the road, and communicates with at least one of the vehicles 104, 105, and 106 and the portable terminal 107 by DSRC (Dedicated Short Range Communication) (road-to-vehicle communication, etc.). is possible. For example, the communication device 108 is used to transmit vehicle information of the vehicle 104 to the server 101 and to transmit road surface state information (snow cover state, frozen state, etc.) to the server 101 .

図1の構成に限られず、ガイド表示システム100は、他の装置を適宜含んでも良い。例えば、地図情報、交通情報、または気象情報に関するデータベースサーバを含み、サーバ101は、それらのデータベースサーバにアクセス可能なように構成されても良い。 The guide display system 100 is not limited to the configuration of FIG. 1, and may include other devices as appropriate. For example, it may include database servers relating to map information, traffic information, or weather information, and the server 101 may be configured to be able to access these database servers.

図2は、除雪機である車両106の構成を示す図である。本実施形態では、車両106は、オーガにより雪をかき集め、シュータから雪を投射するクローラ式除雪車両である。車両106の除雪機構の部分を説明する。車両106は、除雪部201を有し、除雪部201は、エンジン221を駆動源とするオーガ203、ブロア204、そり210、及びシュータ205を含む。エンジン221の動力は、小径プーリ207、ベルト208、大径プーリ209、駆動軸206、オーガ軸202の順で伝わり、オーガ203を回転させる。オーガ203は、回転することにより、路上の雪を図面表裏方向にかき集めてブロア204に送り込み、ブロア204の遠心力でシュータ205を介して雪を外部へ投射する。車両106は、また、エンジンカバー220、エンジン空冷用ファン222、空冷用ファン軸223、駆動輪217に接続される出力プーリを有する。 FIG. 2 is a diagram showing the configuration of vehicle 106, which is a snow remover. In this embodiment, the vehicle 106 is a crawler-type snow removal vehicle that rakes up snow with an auger and projects the snow from a chute. A portion of the snow removing mechanism of the vehicle 106 will be described. The vehicle 106 has a snow removal section 201 , and the snow removal section 201 includes an auger 203 driven by an engine 221 , a blower 204 , a sled 210 , and a shooter 205 . The power of the engine 221 is transmitted through the small-diameter pulley 207, the belt 208, the large-diameter pulley 209, the drive shaft 206, and the auger shaft 202 in this order to rotate the auger 203. The auger 203 rotates to rake up snow on the road in the front and back directions of the drawing, feed it into the blower 204 , and project the snow outside through the shooter 205 by the centrifugal force of the blower 204 . Vehicle 106 also has an engine cover 220 , an engine cooling fan 222 , an air cooling fan shaft 223 , and an output pulley connected to drive wheels 217 .

車両106の走行機構の部分を説明する。車両106は、前部に遊動輪211、下部に3個の下部転輪213、214、215を各々回転自在に備えたクローラフレーム212の後部に車体フレーム219を連結し、車体フレーム219の前部に除雪部201が構成されている。ピボット軸218は、クローラフレーム212に車体フレーム219を連結する。車体フレーム219の後部に駆動輪217が構成され、駆動輪217と遊動輪211との間にクローラベルト216が巻き掛けられることで、車両106はクローラ式除雪車両として構成される。また、車両106は、前方を照射可能なヘッドランプ225及びサブヘッドランプ226が取り付けられている。また、操作部224は、車両106の走行機構や除雪機構等に係る各部を制御するための指示を受付可能なヒューマンマシンインタフェースである。 A traveling mechanism portion of the vehicle 106 will be described. The vehicle 106 has an idler wheel 211 at the front and three lower rollers 213, 214, and 215 at the bottom of the crawler frame 212. The body frame 219 is connected to the rear of the crawler frame 212. A snow removal section 201 is configured in the . A pivot shaft 218 connects the body frame 219 to the crawler frame 212 . Vehicle 106 is configured as a crawler-type snow removal vehicle by having driving wheels 217 formed at the rear of vehicle body frame 219 and crawler belts 216 wound between driving wheels 217 and idler wheels 211 . In addition, the vehicle 106 is equipped with a headlamp 225 and a sub headlamp 226 capable of illuminating the front. Further, the operation unit 224 is a human-machine interface capable of receiving instructions for controlling each unit related to the travel mechanism, snow removal mechanism, and the like of the vehicle 106 .

本実施形態においては、車両106はさらに、制御部229を備える。制御部229は、車両106に取り付けられた外部環境を認識するための検知部227、228からの検知信号を取得する。検知部227、228は、例えば、カメラやセンサである。 In this embodiment, vehicle 106 further includes a controller 229 . The control unit 229 acquires detection signals from the detection units 227 and 228 attached to the vehicle 106 for recognizing the external environment. The detection units 227 and 228 are, for example, cameras and sensors.

本実施形態では、車両106は、操縦者が搭乗するタイプであっても良いし、操縦者による手押しタイプであっても良い。 また、車両106は、操縦者が不在の全自動運転が可能な車両であっても良い。操縦者が搭乗するタイプであれば、シート、ハンドルやペダル等の操縦部、操作部224、を含む搭乗部(不図示)がエンジンカバー220の後部に設けられる。 In this embodiment, the vehicle 106 may be of a type in which an operator rides, or may be of a hand-pushed type by the operator. Also, the vehicle 106 may be a vehicle capable of fully automatic driving without a driver. In the case of a type in which an operator rides, a riding section (not shown) including a seat, an operating section such as a steering wheel and pedals, and an operating section 224 is provided at the rear portion of the engine cover 220 .

図3は、除雪機である車両106の構成を示すブロック図である。制御部300は、メインとなるプロセッサ301、メモリ302を含む。例えば、プロセッサ301が記憶部315に記憶されたプログラムをメモリ302に読み出して実行することにより、制御部300は、車両106を統括的に制御する。制御部300は、図2の制御部229に対応する。図3の外界認識用カメラ305及び外界認識用センサ306は、図2の検知部227、228に対応する。図3の操作部314は、図2の操作部224に対応する。図3の駆動制御部303は、図2のエンジン221や、車両106の各部の機構を制御する機構制御部(不図示)、電気系統制御部(不図示)に対応する。走行機構310、除雪機構311は、図2で上述した走行機構、除雪機構の各部に対応する。点灯部312は、ヘッドランプ225及びサブヘッドランプ226や、方向指示器(不図示)などの報知機構を含む。表示制御部304は、表示データに基づいて、表示部313への表示を制御する。 FIG. 3 is a block diagram showing the configuration of vehicle 106, which is a snow remover. The control unit 300 includes a main processor 301 and a memory 302 . For example, the processor 301 reads a program stored in the storage unit 315 into the memory 302 and executes it, whereby the control unit 300 controls the vehicle 106 in a centralized manner. A controller 300 corresponds to the controller 229 in FIG. The external world recognition camera 305 and the external world recognition sensor 306 in FIG. 3 correspond to the detection units 227 and 228 in FIG. An operation unit 314 in FIG. 3 corresponds to the operation unit 224 in FIG. A drive control unit 303 in FIG. 3 corresponds to the engine 221 in FIG. 2, a mechanism control unit (not shown) that controls the mechanisms of each part of the vehicle 106, and an electric system control unit (not shown). A traveling mechanism 310 and a snow removing mechanism 311 correspond to the parts of the traveling mechanism and the snow removing mechanism described above with reference to FIG. The lighting unit 312 includes a notification mechanism such as a headlamp 225, a sub headlamp 226, and a direction indicator (not shown). The display control unit 304 controls display on the display unit 313 based on the display data.

記憶部315は、上記のプログラムの他、各種パラメータやデータ等を記憶する。操作部314は、搭乗者からの操縦操作を受け付けるためのハンドルやペダル、計器パネルの他、各種ユーザインタフェース画面等を表示するパネル(表示部313)や設定操作を受け付けるための入力部を含む。通信インタフェース(I/F)309は、無線基地局103と通信するためのアンテナ、信号フォーマットの変換部を含む。GPSセンサ307は、GPS(Global Positioning System)センサであり、車両106の現在位置を検知する。ジャイロセンサ308は、車両106の姿勢を検知する。車両106の姿勢とは、例えば、ロール角、ピッチ角、ヨー角である。 The storage unit 315 stores various parameters, data, etc., in addition to the above programs. The operation unit 314 includes a steering wheel and pedals for receiving steering operations from the passenger, an instrument panel, a panel (display unit 313) for displaying various user interface screens, and an input unit for receiving setting operations. A communication interface (I/F) 309 includes an antenna for communicating with the radio base station 103 and a signal format converter. A GPS sensor 307 is a GPS (Global Positioning System) sensor and detects the current position of the vehicle 106 . A gyro sensor 308 detects the attitude of the vehicle 106 . The posture of the vehicle 106 is, for example, roll angle, pitch angle, and yaw angle.

外界認識用カメラ305は、外部環境を撮像するカメラであり、車両106の前方、側方、後方を撮像可能なように取り付けられている。外界認識用センサ306は、例えば、超音波センサであり、車両106の前方に照射した超音波の反射波を検知することにより、積雪面の状態、例えば、積雪面が丘状であることを検知可能である。また、外界認識用センサ306は、例えば、シュータ205の上方、例えば図2の検知部227の位置に設けられた赤外線センサであり、積雪面に赤外線を投射することにより、前方の積雪深を検知可能である。また、例えば、雪質状態、例えば、密度が高く積雪面が固い状態であるか、若しくは、密度が低く積雪面が柔らかい状態であるかを、反射波の強度に基づいて検知可能である。外界認識用カメラ305及び外界認識用センサ306は、図2の検知部227、228の位置に限られない。例えば、車両106の側面でも良いし、ヘッドランプ225の近傍でも良いし、シュータ205の先端に近い部分でも良い。例えば、シュータ205の先端に近い部分に取り付けられることにより、積雪深が2mほどになった場合であっても、車両106の搭乗者から死角となるような前遠方をカメラにより撮像可能となる。 The external world recognition camera 305 is a camera that captures images of the external environment, and is attached so as to be able to capture images of the front, sides, and rear of the vehicle 106 . The external world recognition sensor 306 is, for example, an ultrasonic sensor, and detects the state of the snow surface, for example, that the snow surface is hilly, by detecting the reflected wave of the ultrasonic wave emitted in front of the vehicle 106. It is possible. Further, the external world recognition sensor 306 is an infrared sensor provided, for example, above the shooter 205, for example, at the position of the detection unit 227 in FIG. It is possible. Further, for example, it is possible to detect, based on the intensity of the reflected wave, whether the snow quality is high and the snow surface is hard, or whether the snow density is low and the snow surface is soft. The positions of the external world recognition camera 305 and the external world recognition sensor 306 are not limited to the positions of the detection units 227 and 228 in FIG. For example, the side surface of the vehicle 106, the vicinity of the headlamp 225, or the portion near the tip of the shooter 205 may be used. For example, by being attached to a portion near the tip of the shooter 205, even when the depth of snow is about 2 m, the camera can take images of the blind spot from the passenger of the vehicle 106 far ahead.

図2及び図3では、除雪機である車両106の構成について説明した。しかしながら、外界を認識するための構成(カメラ等)、位置情報や姿勢情報を認識するための構成(GPSセンサやジャイロセンサ等)、表示部、通信I/Fを備えるのであれば、車両106の構成に限られず、車両104のような四輪車両、車両105のような二輪車両、携帯型端末107であっても良い 。また、図2及び図3では、車両106が、外界を認識するための構成を備えている例を説明したが、車両106に対して外界を認識するための構成が脱着可能であっても良い。例えば、カメラやGPSを備えるスマートフォンを車両106にアタッチメント等で取り付けるようにしても良い。また、車両106は、特殊用途の車両であれば、除雪機に限られず、例えば、農作業機であっても良い。以下、車両106以外の車両として、四輪車両の構成例を説明する。 2 and 3, the configuration of the vehicle 106, which is a snow remover, has been described. However, if it has a configuration for recognizing the external world (camera, etc.), a configuration for recognizing position information and posture information (GPS sensor, gyro sensor, etc.), a display unit, and a communication I / F, the vehicle 106 The configuration is not limited, and a four-wheeled vehicle such as the vehicle 104, a two-wheeled vehicle such as the vehicle 105, or a portable terminal 107 may be used. 2 and 3, an example in which the vehicle 106 has a configuration for recognizing the outside world has been described, but the configuration for recognizing the outside world may be detachable from the vehicle 106. . For example, a smartphone equipped with a camera and GPS may be attached to the vehicle 106 with an attachment or the like. Further, the vehicle 106 is not limited to a snow remover as long as it is a special-purpose vehicle, and may be, for example, an agricultural machine. A configuration example of a four-wheeled vehicle will be described below as a vehicle other than the vehicle 106 .

図4は、四輪車両である車両104の構成の一例を示すブロック図である。制御部400は、メインとなるプロセッサ401、メモリ402を含む。例えば、プロセッサ401が記憶部に記憶されたプログラムをメモリ402に読み出して実行することにより、制御部400は、車両104を統括的に制御する。また、制御部400は、外界認識部403、行動計画部404、駆動制御部405、デバイス制御部406を含む。各ブロックは、1つのECU、若しくは、複数のECUにより実現される。 FIG. 4 is a block diagram showing an example of the configuration of vehicle 104, which is a four-wheeled vehicle. The control unit 400 includes a main processor 401 and memory 402 . For example, the processor 401 reads a program stored in the storage unit into the memory 402 and executes the program, whereby the control unit 400 controls the vehicle 104 in an integrated manner. The control unit 400 also includes an external world recognition unit 403 , an action planning unit 404 , a drive control unit 405 and a device control unit 406 . Each block is implemented by one ECU or multiple ECUs.

外界認識部403は、外界認識用カメラ407及び外界認識用センサ408からの信号に基づいて、車両104の外界情報を認識する。ここで、外界認識用カメラ407は、例えば車両104の前方を撮影するカメラであり、ルーフ前部でフロントウィンドウの車室内側に取り付けられたカメラである。また、外界認識用センサ408は、例えば、車両104の周囲の物標を検知したり、物標との距離を測距するLIDAR(Light Detection and Ranging)やミリ波レーダーである。外界認識部403は、外界認識用カメラ407及び外界認識用センサ408からの信号に基づいて、例えば、交差点や踏切、トンネル、路肩等のフリースペース、他車両の挙動(速度や進行方向)を認識する。GPSセンサ409は、車両104の現在位置を検知し、ジャイロセンサ410は、車両104の姿勢を検知する。車両104の姿勢とは、例えば、ロール角、ピッチ角、ヨー角である。 The external world recognition unit 403 recognizes external world information of the vehicle 104 based on signals from the external world recognition camera 407 and the external world recognition sensor 408 . Here, the external world recognition camera 407 is, for example, a camera that captures an image of the front of the vehicle 104, and is a camera that is attached to the interior side of the front window at the front of the roof. Further, the external world recognition sensor 408 is, for example, a LIDAR (Light Detection and Ranging) or millimeter wave radar that detects targets around the vehicle 104 and measures the distance to the targets. Based on signals from the external world recognition camera 407 and the external world recognition sensor 408, the external world recognition unit 403 recognizes, for example, intersections, railroad crossings, tunnels, free spaces such as road shoulders, and the behavior (speed and direction of travel) of other vehicles. do. A GPS sensor 409 detects the current position of the vehicle 104 , and a gyro sensor 410 detects the attitude of the vehicle 104 . The posture of the vehicle 104 is, for example, roll angle, pitch angle, and yaw angle.

行動計画部404は、外界認識部403、GPSセンサ409で検知した位置情報に基づいて、最適経路、リスク回避経路など、車両104の行動を計画する。行動計画部404は、例えば、交差点や踏切等の開始点や終点に基づく進入判定、他車両の挙動予測に基づく行動計画を行う。駆動制御部405は、行動計画部404による行動計画に基づいて、駆動力出力機構412、ステアリング機構413、ブレーキ機構414を制御する。ここで、駆動力出力機構412は、例えばパワープラントであり、ステアリング機構413は、例えば電動パワーステアリング装置であり、ブレーキ機構414は、例えばディスクブレーキ装置である。 The action planning unit 404 plans actions of the vehicle 104 such as an optimum route and a risk avoidance route based on the position information detected by the external world recognition unit 403 and the GPS sensor 409 . The action planning unit 404 performs, for example, entry determination based on the starting and ending points of intersections and railroad crossings, and action planning based on behavior prediction of other vehicles. Drive control unit 405 controls driving force output mechanism 412 , steering mechanism 413 , and brake mechanism 414 based on the action plan by action planning unit 404 . Here, the driving force output mechanism 412 is, for example, a power plant, the steering mechanism 413 is, for example, an electric power steering device, and the brake mechanism 414 is, for example, a disc brake device.

デバイス制御部406は、制御部400に接続されるデバイスを制御する。例えば、デバイス制御部406は、スピーカ415を制御し、警告やナビゲーションのためのメッセージ等、所定の音声メッセージを出力させる。また、例えば、デバイス制御部406は、表示装置416を制御し、各種のインタフェース画面を表示させる。また、例えば、デバイス制御部406は、ナビゲーション装置417を制御し、ナビゲーション装置417での設定情報を取得する。通信インタフェース(I/F)411は、無線基地局103と通信するためのアンテナ、信号フォーマットの変換部を含む。 A device control unit 406 controls devices connected to the control unit 400 . For example, the device control unit 406 controls the speaker 415 to output predetermined voice messages such as warnings and messages for navigation. Also, for example, the device control unit 406 controls the display device 416 to display various interface screens. Also, for example, the device control unit 406 controls the navigation device 417 and acquires setting information in the navigation device 417 . A communication interface (I/F) 411 includes an antenna for communicating with the radio base station 103 and a signal format converter.

制御部400は、図4に示す以外の機能ブロックを適宜含んでも良く、例えば、地図情報に基づいて目的地までの最適経路を算出する最適経路算出部を含んでも良い。また、制御部400が、外界認識用カメラ407や外界認識用センサ408以外から外界情報を取得しても良く、例えば、他の車両を経由して外界情報を取得するようにしても良い。また、制御部400は、GPSセンサ409やジャイロセンサ410だけでなく、車両104に設けられた各種センサからの検知信号を受信する。例えば、制御部400は、車両104のドア部に設けられたドアの開閉センサやドアロックの機構センサの検知信号を、ドア部に構成されたECUを介して受信する。それにより、制御部400は、ドアのロック解除や、ドアの開閉動作を検知することができる。 The control unit 400 may appropriately include functional blocks other than those shown in FIG. 4. For example, the control unit 400 may include an optimum route calculation unit that calculates an optimum route to the destination based on map information. Further, the control unit 400 may acquire external world information from sources other than the external world recognition camera 407 and the external world recognition sensor 408, for example, external world information may be acquired via another vehicle. The control unit 400 also receives detection signals from various sensors provided in the vehicle 104 in addition to the GPS sensor 409 and the gyro sensor 410 . For example, the control unit 400 receives detection signals from a door opening/closing sensor and a door lock mechanism sensor provided in the door portion of the vehicle 104 via an ECU configured in the door portion. Thereby, the control unit 400 can detect unlocking of the door and opening/closing operation of the door.

図5は、サーバ101の構成を示すブロック図である。制御部500は、CPUやGPUであるメインのプロセッサ505、ROMやRAMであるメモリ506を含み、サーバ101を統括的に制御する。例えば、プロセッサ505が記憶部501に記憶されたプログラムをメモリ506に読み出して実行することにより、本実施形態の動作が実現される。サーバ101は、記憶媒体に記憶されたプログラムに係る本発明を実施するコンピュータとなり得る。 FIG. 5 is a block diagram showing the configuration of the server 101. As shown in FIG. The control unit 500 includes a main processor 505 such as a CPU or GPU, and a memory 506 such as a ROM or RAM, and controls the server 101 in an integrated manner. For example, the processor 505 reads a program stored in the storage unit 501 to the memory 506 and executes it, thereby realizing the operation of the present embodiment. The server 101 can be a computer that implements the present invention according to a program stored in a storage medium.

積雪前状態取得部507は、所定位置における積雪前の状態を表す積雪前画像データを取得する。積雪前状態取得部507は、例えば、 ユーザが積雪のない所定位置の状態を撮影することにより取得する。または、積雪前状態取得部507は、ドローンなどにより、積雪前に撮影したストリートビューのデータを積雪前画像データとして取得する。積雪前状態取得部507は、取得した積雪前画像データを記憶部501に積雪前画像データ514として格納する。積雪前状態取得部507は、定期的に積雪前画像データを取得し、積雪前画像データ514を更新する。 The pre-snow state acquisition unit 507 acquires pre-snow image data representing a pre-snow state at a predetermined position. The pre-snow state acquisition unit 507 acquires the state of a predetermined position without snow by the user, for example. Alternatively, the pre-snow state acquisition unit 507 acquires street view data captured before snow cover as pre-snow image data by a drone or the like. The pre-snow state acquisition unit 507 stores the acquired pre-snow image data in the storage unit 501 as pre-snow image data 514 . The pre-snow condition acquisition unit 507 periodically acquires pre-snow image data and updates the pre-snow image data 514 .

撮影データ取得部508は、車両104、105、106、携帯型端末107で撮影された撮影データを取得する。本実施形態では、撮影データ取得部508により取得される撮影データは、車両104、105、106の走行方向、携帯型端末107の保持者の移動方向の前方における積雪状態を撮影した撮影データである。撮影データ取得部508は、取得した撮影データを記憶部501に撮影データ517として格納する。 A captured data acquisition unit 508 acquires captured data captured by the vehicles 104 , 105 and 106 and the portable terminal 107 . In the present embodiment, the photographed data acquired by the photographed data acquisition unit 508 is photographed data of the state of snow cover in front of the traveling direction of the vehicles 104, 105, and 106 and the moving direction of the holder of the portable terminal 107. . The imaging data acquisition unit 508 stores the acquired imaging data in the storage unit 501 as imaging data 517 .

車両情報取得部509は、車両104、105、106から車両情報を取得する。ここで、車両情報とは、例えば、車両の位置情報、車両の挙動に関する情報、車両の姿勢に関する情報、車両の属性情報である。車両の位置情報は、例えば緯度及び経度情報であり、車両の挙動に関する情報は、例えば速度や加速度情報、車両の各部の駆動情報や、カメラやセンサなどの検知情報である。車両の姿勢に関する情報は、例えばロール角、ピッチ角、ヨー角の車両の傾き情報である。車両の属性情報とは、例えば、除雪機の車両106のサイズ(小型、中型、若しくは大型)に関する情報である。また、車両情報取得部509は、携帯型端末107から端末情報を取得する。ここで、端末情報とは、例えば、携帯型端末の位置情報、携帯型端末の挙動に関する情報を含む。携帯型端末の位置情報は、例えば緯度及び経度情報であり、携帯型端末の挙動に関する情報は、例えば速度や加速度情報、カメラやセンサなどの検知情報である。本実施形態では、車両106を、車両104、105、106、携帯型端末107の代表例として説明する。従って、説明中の車両情報は、端末情報として置換可能である。車両情報取得部509は、取得した車両情報を記憶部501に車両情報518(若しくは、端末情報)として格納する。 Vehicle information acquisition unit 509 acquires vehicle information from vehicles 104 , 105 , and 106 . Here, the vehicle information is, for example, vehicle position information, vehicle behavior information, vehicle posture information, and vehicle attribute information. The vehicle position information is, for example, latitude and longitude information, and the vehicle behavior information is, for example, speed and acceleration information, driving information of each part of the vehicle, and detection information such as cameras and sensors. The information about the posture of the vehicle is, for example, tilt information of the vehicle such as roll angle, pitch angle, and yaw angle. The vehicle attribute information is, for example, information about the size of the snowplow vehicle 106 (small size, medium size, or large size). Also, the vehicle information acquisition unit 509 acquires terminal information from the portable terminal 107 . Here, the terminal information includes, for example, position information of the mobile terminal and information on the behavior of the mobile terminal. The positional information of the portable terminal is, for example, latitude and longitude information, and the information regarding the behavior of the portable terminal is, for example, speed and acceleration information, detection information from cameras, sensors, and the like. In this embodiment, the vehicle 106 will be described as a representative example of the vehicles 104 , 105 and 106 and the portable terminal 107 . Therefore, vehicle information in the description can be replaced with terminal information. The vehicle information acquisition unit 509 stores the acquired vehicle information in the storage unit 501 as vehicle information 518 (or terminal information).

画像認識部510は、撮影データ取得部508により取得された撮影データを解析し、画像認識を行う。画像認識部510は、例えば、撮影データの表す画像からオブジェクトを抽出する。画像認識部510によるオブジェクトの抽出については後述する。 The image recognition unit 510 analyzes the captured data acquired by the captured data acquisition unit 508 and performs image recognition. The image recognition unit 510, for example, extracts an object from an image represented by photographed data. Extraction of objects by the image recognition unit 510 will be described later.

ARオブジェクト生成部511は、積雪前状態取得部507により取得された積雪前画像データに基づいて、ARオブジェクトを生成する。ARオブジェクト生成部511によるARオブジェクトの生成については後述する。表示データ生成部512は、撮影データ取得部508により取得された撮影データと、ARオブジェクト生成部511により生成されたARオブジェクトとに基づいて、AR表示させるための表示データを生成する。表示データ生成部512による表示データの生成については後述する。 The AR object generation unit 511 generates an AR object based on the pre-snow image data acquired by the pre-snow state acquisition unit 507 . Generation of AR objects by the AR object generation unit 511 will be described later. The display data generation unit 512 generates display data for AR display based on the captured data acquired by the captured data acquisition unit 508 and the AR object generated by the AR object generation unit 511 . Generation of display data by the display data generation unit 512 will be described later.

環境情報取得部513は、車両の走行路の環境に関する環境情報を取得する。環境情報とは、例えば、積雪に関する情報、車両の走行路周辺の移動物(歩行者等)に関する情報、走行路の傾斜情報や幅情報である。環境情報取得部513は、例えば、道路近傍に設置されている通信機108や路面状況センサ、外部のデータベースサーバから環境情報を取得する。また、環境情報取得部513は、車両106から積雪に関する情報を取得する場合もある。なお、積雪に関する情報とは、例えば積雪深や雪質(固さなど)に関する情報である。環境情報取得部513は、取得した環境情報を記憶物501に環境情報515として格納する。また、環境情報取得部513は、定期的に環境情報を取得し、環境情報515を更新するようにする。 The environment information acquisition unit 513 acquires environment information about the environment of the road on which the vehicle travels. The environmental information is, for example, information about snow cover, information about moving objects (pedestrians, etc.) around the roadway of the vehicle, and information about the slope and width of the roadway. The environment information acquisition unit 513 acquires environment information from, for example, the communication device 108 installed near the road, a road surface condition sensor, or an external database server. In addition, the environment information acquisition unit 513 may acquire information about snow cover from the vehicle 106 . The information about snow cover is, for example, information about snow depth and snow quality (such as hardness). The environment information acquisition unit 513 stores the acquired environment information in the storage object 501 as the environment information 515 . Also, the environment information acquisition unit 513 periodically acquires environment information and updates the environment information 515 .

記憶部501は、プログラムや各種パラメータ、データ等を記憶する。また、上述のように、記憶部501は、積雪前画像データ514、環境情報515、撮影データ517、車両情報518を記憶する。撮影データ517、車両情報518は、各車両から取得する情報であるので、各車両ごとの情報516として相互に関連付けられて記憶される。また、各車両ごとの情報516には、後述する除雪量情報519も含まれる。 A storage unit 501 stores programs, various parameters, data, and the like. Further, as described above, the storage unit 501 stores the pre-snow image data 514 , the environment information 515 , the image data 517 , and the vehicle information 518 . The photographed data 517 and the vehicle information 518 are information acquired from each vehicle, and thus are stored in association with each other as the information 516 for each vehicle. The information 516 for each vehicle also includes snow removal amount information 519, which will be described later.

表示部502は、例えば、ディスプレイであり、各種ユーザインタフェース画面を表示する。操作部503は、例えば、キーボードやポインティングデバイスであり、ユーザ操作を受け付ける。通信インタフェース(I/F)504は、ネットワーク102との通信を可能にするためのインタフェースであり、ネットワーク102の媒体に応じた構成を有する。 The display unit 502 is, for example, a display, and displays various user interface screens. An operation unit 503 is, for example, a keyboard or pointing device, and receives user operations. A communication interface (I/F) 504 is an interface for enabling communication with the network 102 and has a configuration according to the medium of the network 102 .

以下、本実施形態の動作について説明する。本実施形態では、例えば、四輪車両104が積雪された走行路を走行する状況や、除雪機である車両106が積雪された走行路上を除雪作業する状況を想定している。積雪深が数cmから数十cmとなると、走行路は完全に雪に覆われ、さらには、走行路と非走行路の境界の認識は困難となる。走行路と非走行路との境界には、例えば、側溝や用水路、縁石、花壇や植樹等が存在する場合がある。そのような場合、車両の搭乗者は、意図せずに、それらの上を走行してしまうおそれがある。積雪されていない状態であれば、例えば、四輪車両の外界認識用カメラ407や外界認識用センサ408によって、走行路と非走行路の境界を認識することが可能である。しかしながら、上記のような状況であれば、それらのデバイスを用いても、走行路と非走行路の境界の認識は困難である。 The operation of this embodiment will be described below. This embodiment assumes, for example, a situation in which the four-wheeled vehicle 104 travels on a snow-covered road, and a situation in which the vehicle 106, which is a snow remover, removes snow from the snow-covered road. When the snow depth reaches several centimeters to several tens of centimeters, the road is completely covered with snow, and furthermore, it becomes difficult to recognize the boundary between the road and the non-road. For example, there may be a gutter, an irrigation channel, a curbstone, a flower bed, a planted tree, or the like at the boundary between the traveling road and the non-traveling road. In such cases, vehicle occupants may unintentionally drive over them. If the road is not covered with snow, it is possible to recognize the boundary between the traveling road and the non-traveling road by the external world recognition camera 407 and the external world recognition sensor 408 of the four-wheeled vehicle, for example. However, in the situation described above, even with these devices, it is difficult to recognize the boundary between the traveling road and the non-traveling road.

そこで、本実施形態では、車両の走行位置に対応する場所を、ユーザ自身により若しくはストリートビューなどで予め撮影しておいた積雪前画像データからARオブジェクトを生成し、そのARオブジェクトを車両が撮影した撮影データに対して重畳してAR表示させる。以下、車両106を車両104、105、106、携帯型端末107の代表例として説明する。 Therefore, in the present embodiment, an AR object is generated from pre-snow image data captured in advance by the user or using street view or the like, and the AR object is captured by the vehicle. It is superimposed on photographed data and displayed in AR. Hereinafter, the vehicle 106 will be described as a representative example of the vehicles 104 , 105 and 106 and the portable terminal 107 .

図6は、本実施形態におけるAR表示データの生成を説明するための図である。撮影データ601は、車両106が撮影した撮影データである。図16は、撮影データ601の一例を示す図である。撮影データ601は、車両106の前方を撮影した撮影データであり、図16に示すように、一面が雪で覆われ、走行路を認識することができない。 FIG. 6 is a diagram for explaining generation of AR display data in this embodiment. The photographed data 601 is photographed data photographed by the vehicle 106 . FIG. 16 is a diagram showing an example of imaging data 601. As shown in FIG. The photographed data 601 is photographed data obtained by photographing the front of the vehicle 106. As shown in FIG. 16, the entire surface is covered with snow, and the road cannot be recognized.

積雪前画像データ602は、サーバ101の記憶部501に記憶されているデータであり、例えば、撮影データ601の撮影画像の位置に対応する積雪前のストリートビューデータである。図17は、積雪前画像データ602の一例を示す図である。図17に示すように、図16の撮影データ601が表す積雪前の状態を示しており、走行路や側溝を認識することができる。 The pre-snow image data 602 is data stored in the storage unit 501 of the server 101 , and is, for example, pre-snow street view data corresponding to the position of the photographed image of the photographed data 601 . FIG. 17 is a diagram showing an example of pre-snow image data 602. As shown in FIG. As shown in FIG. 17, the photographed data 601 in FIG. 16 shows the state before snow cover, and the driving road and the roadside ditches can be recognized.

本実施形態では、積雪前画像データ602からARオブジェクト603を生成し、撮影データ601に対して、生成されたARオブジェクト603を重畳することで、AR表示データ604を生成する。図18は、ARオブジェクト603の一例を示す図であり、図19は、AR表示データ604の一例を示す図である。図19に示すように、AR表示データ604は、図16の撮影データ601に対して、図18のARオブジェクト603が重畳されている。そして、車両106の表示部313には、図19のAR表示データ604が表示される。 In this embodiment, the AR display data 604 is generated by generating an AR object 603 from the pre-snow image data 602 and superimposing the generated AR object 603 on the image data 601 . FIG. 18 is a diagram showing an example of an AR object 603, and FIG. 19 is a diagram showing an example of AR display data 604. As shown in FIG. As shown in FIG. 19, in the AR display data 604, the AR object 603 in FIG. 18 is superimposed on the shooting data 601 in FIG. Then, the AR display data 604 of FIG. 19 is displayed on the display unit 313 of the vehicle 106 .

本実施形態では、上記のように走行路をガイドするためのAR表示が行われるので、車両106の搭乗者は、雪面のどこが走行路であり、どこが走行路でないかを容易に認識することができる。 In this embodiment, the AR display for guiding the travel path is performed as described above, so that the passenger of the vehicle 106 can easily recognize which part of the snow surface is the travel path and which part is not. can be done.

図7は、車両106において実行される、AR表示をサーバ101に要求する処理を示すフローチャートである。図7の処理は、例えば、プロセッサ301が記憶部315に記憶されたプログラムをメモリ302にロードして実行することにより実現される。 FIG. 7 is a flow chart showing the process of requesting the server 101 for AR display, which is executed in the vehicle 106 . The processing in FIG. 7 is realized, for example, by the processor 301 loading a program stored in the storage unit 315 into the memory 302 and executing the program.

S101において、制御部300は、AR表示を行う指示を受け付けたか否かを判定する。この判定は、例えば、車両106の表示部313に表示されたユーザインタフェース画面のメニュー項目(「AR表示の実施」項目など)が操作部314によって選択されたか否かに応じて判定されても良い。上記のユーザインタフェース画面は、例えば、サーバ101から提供されたアプリケーションを起動することにより表示される画面である。AR表示を行う指示を受け付けたと判定された場合、S102に進み、AR表示を行う指示を受け付けていないと判定された場合、図7の処理を終了する。 In S101, the control unit 300 determines whether or not an instruction to perform AR display has been received. This determination may be made, for example, according to whether or not a menu item (such as “implement AR display” item) of the user interface screen displayed on the display unit 313 of the vehicle 106 is selected by the operation unit 314. . The user interface screen described above is, for example, a screen displayed by activating an application provided by the server 101 . If it is determined that an instruction to perform AR display has been received, the process advances to S102, and if it is determined that an instruction to perform AR display has not been received, the process of FIG. 7 ends.

S102において、制御部300は、車両106の走行方向前方の撮影データを取得する。その際、撮影データは、静止画像データでも良いし、動画像データでも良い。S103において、制御部300は、車両106の識別情報とともに、AR表示データの要求をサーバ101に送信する。 In S<b>102 , the control unit 300 acquires image data of the front of the vehicle 106 in the traveling direction. In this case, the photographed data may be still image data or moving image data. In S<b>103 , the control unit 300 transmits a request for AR display data to the server 101 together with the identification information of the vehicle 106 .

S104において、制御部300は、車両106の識別情報とともに、車両情報、及びS102で取得された撮影データをサーバ101に送信する。ここで、車両情報とは、例えば、GPSセンサ307により検知された位置情報である。また、車両情報として、他の情報を含んでも良く、例えば、ジャイロセンサ308により検知された車両106の姿勢や挙動に関する情報、外界認識用センサ306により検知された積雪に関する情報を含んでも良い。 In S<b>104 , the control unit 300 transmits the identification information of the vehicle 106 , the vehicle information, and the photographed data acquired in S<b>102 to the server 101 . Here, the vehicle information is position information detected by the GPS sensor 307, for example. The vehicle information may also include other information, such as information regarding the posture and behavior of the vehicle 106 detected by the gyro sensor 308 and information regarding snow cover detected by the external recognition sensor 306 .

そして、S105において、制御部300は、サーバ101からAR表示データを受信し、S106において、受信したAR表示データに基づいてAR表示する。S107において、制御部300は、AR表示を継続するか否かを判定する。例えば、制御部300は、車両106の停止、AR表示の終了の指示の受付け、を検出した場合には、AR表示を継続しないと判定する。AR表示を継続すると判定された場合、S102からの処理を繰り返し、AR表示を継続しないと判定された場合、図7の処理を終了する。 Then, in S105, the control unit 300 receives the AR display data from the server 101, and in S106, performs AR display based on the received AR display data. In S107, the control unit 300 determines whether to continue the AR display. For example, when the control unit 300 detects that the vehicle 106 has stopped and an instruction to end the AR display has been received, the control unit 300 determines not to continue the AR display. If it is determined to continue the AR display, the process from S102 is repeated, and if it is determined not to continue the AR display, the process of FIG. 7 is terminated.

図8は、サーバ101において実行される、AR表示データを生成する処理を示すフローチャートである。図8の処理は、例えば、プロセッサ505が記憶部501に記憶されたプログラムをメモリ506にロードして実行することにより実現される。 FIG. 8 is a flow chart showing processing for generating AR display data, which is executed in the server 101. As shown in FIG. The processing in FIG. 8 is realized, for example, by the processor 505 loading a program stored in the storage unit 501 into the memory 506 and executing the program.

S201において、制御部500は、AR表示データの要求を受信したか否かを判定する。AR表示データの要求を受信したと判定された場合、S202へ進み、AR表示データの要求を受信していないと判定された場合、S201の処理を繰り返す。 In S201, the control unit 500 determines whether or not a request for AR display data has been received. If it is determined that a request for AR display data has been received, the process proceeds to S202, and if it is determined that a request for AR display data has not been received, the process of S201 is repeated.

S202において、制御部500は、車両情報を取得し、車両106の識別情報とともに記憶部501に車両情報518として格納する。S203において、制御部500は、撮影データを取得し、車両106の識別情報とともに記憶部501に撮影データ517として格納する。S204において、制御部500は、積雪前画像データを取得する。 In S<b>202 , the control unit 500 acquires vehicle information, and stores it as the vehicle information 518 in the storage unit 501 together with the identification information of the vehicle 106 . In S<b>203 , the control unit 500 acquires the photographed data and stores it as the photographed data 517 in the storage unit 501 together with the identification information of the vehicle 106 . In S204, the control unit 500 acquires pre-snow image data.

図9は、S204の積雪前画像データを取得する処理を示すフローチャートである。S301において、制御部500は、S203で取得された撮影データに対して画像認識を行い、S302において、オブジェクトを抽出する。画像認識の結果、例えば、樹木、ビル、電柱といったように複数のオブジェクトが認識され得る。S302では、制御部500は、撮影データの画像内において少なくとも2つのオブジェクトを抽出するようにする。例えば、図16の撮影データの場合、オブジェクト801とオブジェクト802を抽出する。そのように抽出することで、後述するように、撮影データと積雪前画像データの間の方向性のずれを検出することが可能となる。 FIG. 9 is a flow chart showing the process of acquiring pre-snow image data in S204. In S301, the control unit 500 performs image recognition on the photographed data acquired in S203, and extracts objects in S302. As a result of image recognition, multiple objects can be recognized, such as trees, buildings, and utility poles. In S302, the control unit 500 extracts at least two objects in the image of the shooting data. For example, in the case of the imaging data of FIG. 16, objects 801 and 802 are extracted. By extracting in such a manner, it is possible to detect a directional deviation between the photographed data and the pre-snow image data, as will be described later.

S303において、制御部500は、S302で抽出されたオブジェクトを含む積雪前画像データが存在するか否かを判定する。S303では、制御部500は、記憶部501に記憶された積雪前画像データ514のうち車両106の位置に対応する積雪前画像データを対象として、S302で抽出されたオブジェクトを含む積雪前画像データが存在するか否かを判定する。S302で抽出されたオブジェクトを含む積雪前画像データが存在すると判定された場合、S306において、制御部500は、その積雪前画像データを取得する。S306の後、図9の処理を終了し、図8のS205に進む。一方、S303で抽出されたオブジェクトを含む積雪前画像データが存在しないと判定された場合、S304に進む。例えば、図17の積雪前画像データは、図16の撮影データで抽出されたオブジェクト801及び802に対応するオブジェクト901及び902を含んでいる。その場合、S302で抽出されたオブジェクトを含む積雪前画像データが存在すると判定される。 In S303, the control unit 500 determines whether or not there is pre-snow image data including the object extracted in S302. In S303, the control unit 500 selects the pre-snow image data corresponding to the position of the vehicle 106 among the pre-snow image data 514 stored in the storage unit 501, and extracts the pre-snow image data including the object extracted in S302. Determine if it exists. If it is determined that there is pre-snow image data including the object extracted in S302, the control unit 500 acquires the pre-snow image data in S306. After S306, the process of FIG. 9 is terminated, and the process proceeds to S205 of FIG. On the other hand, if it is determined that there is no pre-snow image data including the object extracted in S303, the process proceeds to S304. For example, the pre-snow image data in FIG. 17 includes objects 901 and 902 corresponding to the objects 801 and 802 extracted from the photographed data in FIG. In that case, it is determined that there is pre-snow image data including the object extracted in S302.

S304において、制御部500は、撮影データの画像認識の結果、抽出された全てのオブジェクトについてS303の判定が終了したか否かを判定する。抽出された全てのオブジェクトについて終了していないと判定された場合、S302に戻り、他のオブジェクトを抽出する。一方、抽出された全てのオブジェクトについて終了していると判定された場合、図8のS205のARオブジェクトの生成が実行できないので、AR表示ができない旨の通知メッセージデータを車両106の制御部300に送信する。S305の後、図9及び図8の処理を終了する。通知メッセージデータを受信した車両106の制御部300は、表示部313にその通知メッセージを表示する。なお、通知メッセージデータは、表示用のデータでも良いし、音声出力用のデータでも良い。 In S304, the control unit 500 determines whether the determination in S303 has been completed for all the objects extracted as a result of the image recognition of the photographed data. If it is determined that all extracted objects have not been completed, the process returns to S302 to extract other objects. On the other hand, if it is determined that all the extracted objects have been completed, the generation of the AR object in S205 of FIG. 8 cannot be executed. Send. After S305, the processing of FIGS. 9 and 8 is ended. Control unit 300 of vehicle 106 that has received the notification message data displays the notification message on display unit 313 . Note that the notification message data may be data for display or data for voice output.

上述のように図8のS204の処理が行われると、車両106の位置に対応した積雪前画像データが取得される。S204の後、S205において、制御部500は、S204で取得された積雪前画像データに基づいてARオブジェクトを生成する。 When the process of S204 in FIG. 8 is performed as described above, pre-snow image data corresponding to the position of the vehicle 106 is obtained. After S204, in S205, the control unit 500 generates an AR object based on the pre-snow image data acquired in S204.

図10は、S205のARオブジェクトを生成する処理を示すフローチャートである。S401において、制御部500は、S203で取得された撮影データと、S306で取得された積雪前画像データとを比較する。S402において、制御部500は、比較の結果、S203で取得された撮影データとS306で取得された積雪前画像データとの間で、撮影位置や撮影角度の違いによって生じる方向性のずれがあるか否かを判定する。 FIG. 10 is a flow chart showing the process of generating an AR object in S205. In S401, the control unit 500 compares the photographed data acquired in S203 with the pre-snow image data acquired in S306. In S402, as a result of the comparison, the control unit 500 determines whether there is a difference in directionality between the photographed data acquired in S203 and the pre-snow image data acquired in S306 due to differences in photographing positions and photographing angles. determine whether or not

方向性のずれの判定については、例えば、以下のように行う。図11に示すように、2本の物体701及び702を方向Aから撮影した場合、その撮影画像内での物体間の距離が距離703であるとする。一方、角度θ1分回転した方向Bから撮影した場合、その撮影画像内での物体間の距離は距離704となり、角度θ2分回転した方向Cから撮影した場合、その撮影画像内での物体間の距離は距離705となる。図11に示すように、回転角度が大きくなるにつれて、撮影画像内での物体間の距離は短くなる。つまり、方向性と撮影画像内での物体間の距離とは相関関係があるといえる。従って、S401の比較の結果、S302で抽出された複数のオブジェクト間の距離について、撮影データと積雪前画像データとで所定以上の差がある場合には、方向性のずれがあると判定する。S402で方向性のずれがあると判定された場合、S403へ進み、S402で方向性のずれがないと判定された場合、S404へ進む。 Determination of directionality deviation is performed, for example, as follows. As shown in FIG. 11, when two objects 701 and 702 are photographed from direction A, the distance between the objects in the photographed image is assumed to be distance 703 . On the other hand, when photographing from the direction B rotated by the angle θ1, the distance between the objects in the photographed image is the distance 704, and when photographed from the direction C rotated by the angle θ2, the distance between the objects in the photographed image is The distance becomes distance 705 . As shown in FIG. 11, as the rotation angle increases, the distance between objects in the captured image decreases. In other words, it can be said that there is a correlation between the directionality and the distance between objects in the captured image. Therefore, as a result of the comparison in S401, if there is a predetermined difference or more in the distances between the objects extracted in S302 between the photographed data and the pre-snow image data, it is determined that there is a directionality deviation. If it is determined in S402 that there is a directionality deviation, the process proceeds to S403, and if it is determined in S402 that there is no directionality deviation, the process proceeds to S404.

S403において、制御部500は、方向性のずれに応じて、積雪前画像データを補正する。ここでの補正とは、S306で取得された積雪前画像データをS203で取得された撮影データの方向性に合わせる、即ち、S402で判定されたずれを解消するための補正であって、例えば、図11の角度θ1分の回転である。積雪前画像データの撮影座標と車両106の位置とに基づいて、回転が行われた後、撮影方向(例えば方向B)上の移動(物体701及び702に接近するか若しくは物体701及び702から遠ざかる)を行うようにしても良い。 In S403, the control unit 500 corrects the pre-snow image data according to the directionality deviation. The correction here is to match the directionality of the image data before snow cover acquired in S306 with the directionality of the image data acquired in S203, that is, to eliminate the deviation determined in S402. This is the rotation of the angle θ1 in FIG. 11 . Based on the photographing coordinates of the pre-snow cover image data and the position of the vehicle 106, the vehicle 106 is rotated and then moved in the photographing direction (for example, direction B) (approaching the objects 701 and 702 or moving away from the objects 701 and 702). ) may be performed.

S404において、制御部500は、車両106の搭乗者により指定されたAR表示モードを取得する。AR表示モードとは、後述する追加オブジェクトを表示させるか否かについての情報である。本実施形態では、図19に示すような走行路と非走行路を識別可能とするAR表示を、標準のAR表示モードとする。また、本実施形態では、標準のAR表示の他、車両106の傾きや、人などの移動体が近くにいることなどをAR表示により警告する表示モードが可能である。それらの表示モードの選択情報は、例えば、図7のS103でAR表示データの要求とともに送信される。ここでは、標準のAR表示モードのみが選択されているとして説明する。 At S<b>404 , the control unit 500 acquires the AR display mode designated by the passenger of the vehicle 106 . The AR display mode is information as to whether or not to display an additional object, which will be described later. In the present embodiment, the AR display that makes it possible to distinguish between the traveling road and the non-traveling road as shown in FIG. 19 is the standard AR display mode. Moreover, in this embodiment, in addition to the standard AR display, a display mode is possible in which the inclination of the vehicle 106 and the presence of a moving object such as a person are alerted by the AR display. The display mode selection information is transmitted together with the AR display data request in S103 of FIG. 7, for example. Here, it is assumed that only the standard AR display mode is selected.

S405において、制御部500は、画像認識部510による画像認識結果を用いて、走行路識別用のARオブジェクトを生成する。 In S405, the control unit 500 uses the image recognition result of the image recognition unit 510 to generate an AR object for roadway identification.

図18は、ARオブジェクトの一例を示す図である。例えば、サーバ101の画像認識部510は、図17の積雪前画像データ602に対して画像認識を行い、オブジェクトを抽出する。ここで抽出されるオブジェクトは、走行路と非走行路の境界を認識するためのオブジェクトであり、例えば、側溝や用水路、縁石、花壇や植樹である。これらの画像認識対象のオブジェクトについては、サーバ101において予め深層学習等により学習されており、画像認識部510は、その学習済みのモデルを用いて、積雪前画像データ602からそれらのオブジェクトを抽出する。 FIG. 18 is a diagram showing an example of an AR object. For example, the image recognition unit 510 of the server 101 performs image recognition on the pre-snow image data 602 in FIG. 17 and extracts objects. The objects extracted here are objects for recognizing the boundary between the traveling road and the non-traveling road, such as gutters, irrigation channels, curbs, flowerbeds, and planted trees. These objects for image recognition are learned in advance by deep learning or the like in the server 101, and the image recognition unit 510 extracts these objects from the pre-snow image data 602 using the learned model. .

例えば、画像認識部510は、図17の積雪前画像データ602の画像認識の結果、側溝905、車止め903、走行路端904を認識する。そして、画像認識部510は、図18のARオブジェクト1001、1002、1003、1004、1005を生成する。ここで、ARオブジェクト1001は側溝905に対応し、ARオブジェクト1002は走行路端904に対応している。また、ARオブジェクト1003は、車止め903に対応している。また、ARオブジェクト1004は、走行できない(進入できない)という意味を表す警告マークであり、側溝905、車止め903、走行路端904に対応するARオブジェクト1001、1003、1002の近傍に配置される。また、ARオブジェクト1005は、走行可能なエリアを表すためのARオブジェクトである。ARオブジェクト1005は、走行方向に向かっての矢印の形とされているが、走行可能であることを表すものであるならば、図18に示す形状でなくても良い。また、ARオブジェクト1005は、画面奥側に向かって色が順次点滅していくような動的に表示されるものであっても良い。 For example, the image recognition unit 510 recognizes a gutter 905, a car stop 903, and a road edge 904 as a result of image recognition of the pre-snow image data 602 in FIG. The image recognition unit 510 then generates AR objects 1001, 1002, 1003, 1004, and 1005 in FIG. Here, the AR object 1001 corresponds to the gutter 905 and the AR object 1002 corresponds to the road edge 904 . Also, the AR object 1003 corresponds to the bollard 903 . The AR object 1004 is a warning mark indicating that the vehicle cannot be driven (cannot be entered), and is placed near the AR objects 1001 , 1003 , and 1002 corresponding to the gutter 905 , the bollard 903 , and the road edge 904 . Also, an AR object 1005 is an AR object for representing a travelable area. The AR object 1005 has the shape of an arrow pointing in the direction of travel, but the shape may not be the one shown in FIG. 18 as long as it indicates that the vehicle can travel. Also, the AR object 1005 may be dynamically displayed such that the color sequentially blinks toward the back of the screen.

S406において、制御部500は、S404で取得されたAR表示モードに基づいて、追加ARオブジェクトを生成するか否かを判定する。ここで、追加ARオブジェクトを生成すると判定された場合、S407に進み、追加ARオブジェクトが生成される。S407の処理については後述する。一方、追加ARオブジェクトを生成しないと判定された場合、図10の処理を終了し、図8のS206へ進む。上述のように標準のAR表示モードのみが選択されている場合には、S406で、追加ARオブジェクトを生成しないと判定される。 In S406, the control unit 500 determines whether to generate an additional AR object based on the AR display mode acquired in S404. Here, if it is determined to generate an additional AR object, the process advances to S407 to generate an additional AR object. The processing of S407 will be described later. On the other hand, if it is determined not to generate the additional AR object, the process of FIG. 10 is terminated and the process proceeds to S206 of FIG. If only the standard AR display mode is selected as described above, it is determined at S406 that no additional AR object is to be generated.

図8のS206において、制御部500は、AR表示データを生成する。図6で説明したように、制御部500は、S203で取得された撮影データに対して、S205で生成されたARオブジェクトを重畳することによりAR表示データを生成する。 In S206 of FIG. 8, the control unit 500 generates AR display data. As described with reference to FIG. 6, the control unit 500 generates AR display data by superimposing the AR object generated in S205 on the shooting data acquired in S203.

S207において、制御部500は、S206で生成されたAR表示データを通信I/F504を介して車両106に送信する。車両106の制御部300は、受信したAR表示データに基づいて、AR表示画面を表示部313に表示させる。表示部313には、例えば図19のような撮影データにARオブジェクトが重畳されたAR表示画面が表示される。S207の後、図8の処理を終了する。なお、車両106の搭乗者による画面上の各ARオブジェクトにアイコンを合わせるか若しくはクリックするかなどの操作に応じて、ARオブジェクトの説明を表示させるようにしても良い。例えば、アイコンをARオブジェクト1003に合わせることにより、「車止めです。行き止まりで通行できません。」といったバルーン表示をするようにしても良い。また、アイコンの説明については、サーバ101から予め提供されたアプリケーションのユーザインタフェース画面内など、他の方法によって提示されるようにしても良い。 In S<b>207 , control unit 500 transmits the AR display data generated in S<b>206 to vehicle 106 via communication I/F 504 . The control unit 300 of the vehicle 106 causes the display unit 313 to display the AR display screen based on the received AR display data. The display unit 313 displays, for example, an AR display screen in which an AR object is superimposed on photographed data as shown in FIG. 19 . After S207, the process of FIG. 8 ends. Note that an explanation of the AR object may be displayed in response to an operation by the passenger of the vehicle 106, such as matching or clicking an icon on each AR object on the screen. For example, by aligning the icon with the AR object 1003, a balloon display such as "This is a car stop. It is a dead end and you cannot pass." may be displayed. Also, the explanation of the icon may be presented by another method such as within the user interface screen of the application provided in advance from the server 101 .

以下、図10のS406で追加ARオブジェクトを生成すると判定された場合の処理について説明する。 Processing when it is determined to generate an additional AR object in S406 of FIG. 10 will be described below.

図12は、S407の追加ARオブジェクトを生成する処理を示すフローチャートである。以降のS501、S503、S505、S507の判定は、例えば、AR表示を行う指示を受け付ける際のユーザインタフェース画面のメニュー項目の選択状態に基づいて行われる。例えば、そのユーザインタフェース画面には、「AR表示の実施」というメニュー項目にさらに「追加AR表示」というサブメニュー項目が設けられ、その詳細項目として「警告」「作業ライン」「積雪情報」「除雪量」の各表示の要否の選択が可能なように表示される。それらの選択情報は、例えば、S201でAR表示データの要求とともに受信される。 FIG. 12 is a flow chart showing processing for generating an additional AR object in S407. The subsequent determinations in S501, S503, S505, and S507 are made, for example, based on the selected state of menu items on the user interface screen when receiving an instruction to perform AR display. For example, on the user interface screen, a menu item "implement AR display" is further provided with a sub-menu item "additional AR display", and its detailed items are "warning", "work line", "snow cover information", "snow removal". It is displayed so that it is possible to select whether or not to display each item of "Amount". Such selection information is received, for example, along with the request for AR display data at S201.

S501において、制御部500は、上記の選択情報に基づいて、警告オブジェクトを表示するか否かを判定する。警告オブジェクトを表示すると判定された場合、S502へ進み、警告オブジェクトの生成が行われる。一方、警告オブジェクトを表示しないと判定された場合、警告オブジェクトの生成は行われずにS503へ進む。 In S501, the control unit 500 determines whether or not to display the warning object based on the above selection information. If it is determined to display the warning object, the process advances to S502 to generate the warning object. On the other hand, if it is determined not to display the warning object, the process proceeds to S503 without generating the warning object.

警告オブジェクトの生成の一例について説明する。例えば、警告オブジェクトは、車両106の傾きが所定以上となった場合にその旨をAR表示により警告通知するためのARオブジェクトである。積雪された走行路を走行する際、積雪深の程度や雪質によっては車両が傾いてしまい、その傾きの程度が大きれば、転倒などを引き起こしてしまうおそれがある。そこで、本実施形態では、制御部500は、車両106の傾き状態を監視し、所定以上となった場合には、車両106に警告オブジェクトを表示させる。 An example of generating a warning object will be described. For example, the warning object is an AR object for notifying a warning by AR display when the inclination of the vehicle 106 exceeds a predetermined value. When traveling on a road covered with snow, the vehicle may tilt depending on the depth and quality of the snow cover. Therefore, in the present embodiment, the control unit 500 monitors the tilt state of the vehicle 106 and causes the vehicle 106 to display a warning object when the tilt state exceeds a predetermined value.

S501で警告オブジェクトを表示すると判定された場合には、S502において、制御部500は、車両106の車両情報により、車両106の傾きの監視を実行する。例えば、制御部500は、所定の時間間隔で車両106から姿勢に関する情報を取得する。車両106の傾きの監視が実行されることに並行して、図12の処理は、S502からS503へ進む。 If it is determined in S501 to display the warning object, the control unit 500 monitors the tilt of the vehicle 106 based on the vehicle information of the vehicle 106 in S502. For example, the control unit 500 acquires attitude information from the vehicle 106 at predetermined time intervals. In parallel with the monitoring of the inclination of the vehicle 106, the process of FIG. 12 advances from S502 to S503.

図13は、車両106の傾きの監視の処理を示すフローチャートである。S601において、制御部500は、車両106から傾き(姿勢)に関する情報を取得する。そして、S602において、S601で取得した傾きに関する情報が示す、例えばロール角やピッチ角が閾値以上であるか否かを判定する。閾値以上でないと判定された場合、S601の処理を繰り返す。一方、閾値以上であると判定された場合、S603において、制御部500は、警告オブジェクトを生成する。 FIG. 13 is a flow chart showing processing for monitoring the tilt of the vehicle 106 . In S<b>601 , the control unit 500 acquires information about tilt (orientation) from the vehicle 106 . Then, in S602, it is determined whether or not, for example, the roll angle or pitch angle indicated by the information about the tilt acquired in S601 is equal to or greater than a threshold value. If it is determined not to be equal to or greater than the threshold, the process of S601 is repeated. On the other hand, if determined to be equal to or greater than the threshold, the control unit 500 generates a warning object in S603.

図22は、車両106の傾きを警告する警告オブジェクトの一例を示す図である。図22に示すように、警告オブジェクト1301が表示される。図22では、警告オブジェクト1301は、矢印方向に傾きを繰り返すような動的な表示が行われるが、その表示形態については限定されるものではなく、車両106の傾きを警告するものであれば、点滅表示やテキスト表示など他の表示形態であっても良い。S603の後、図13の処理を終了し、図12の処理が再開されるか、若しくは、図12の処理が終了していれば、図8のS206へ進む。 FIG. 22 is a diagram showing an example of a warning object that warns of tilting of the vehicle 106. As shown in FIG. As shown in FIG. 22, a warning object 1301 is displayed. In FIG. 22, the warning object 1301 is dynamically displayed so as to repeatedly tilt in the direction of the arrow. However, the display form is not limited. Other display forms such as blinking display and text display may be used. After S603, the process of FIG. 13 is terminated and the process of FIG. 12 is resumed, or if the process of FIG. 12 has been terminated, the process proceeds to S206 of FIG.

S502の警告オブジェクトの生成の他の一例について説明する。例えば、警告オブジェクトとは、車両106の搭乗者から死角となるような位置に人などの移動体がいる場合に、その旨を警告通知するためのARオブジェクトである。極めて激しい降雪の際、その積雪深は数mに及び、壁状態となった雪の向こう側に人がいても、車両106の搭乗者から見えないことがある。搭乗者がそのような人の存在を意識することなく除雪作業をすると、シュータ205から投射された雪を人の頭上に落下させてしまうおそれがある。そこで、本実施形態では、制御部500は、車両106の搭乗者からの死角に移動体が存在することが推定される場合には、その旨の警告オブジェクトをAR表示させる。 Another example of generating a warning object in S502 will be described. For example, the warning object is an AR object for notifying a warning when a moving body such as a person is in a blind spot from the passengers of the vehicle 106 . In the event of extremely heavy snowfall, the snow depth reaches several meters, and even if there is a person on the other side of the wall of snow, the passenger of the vehicle 106 may not be able to see it. If the passenger removes the snow without being aware of the presence of such a person, the snow projected from the chute 205 may fall on the person's head. Therefore, in the present embodiment, when it is estimated that a moving object exists in the blind spot from the passenger of the vehicle 106, the control unit 500 displays a warning object to that effect in AR.

図14は、S502の警告オブジェクトを生成する処理を示すフローチャートである。S701において、制御部500は、車両106の位置周辺の環境情報を取得する。環境情報とは、例えば、車両106の位置周辺の移動体の存在に関する情報である。ここで、移動体とは、例えば、歩行者、自転車、車両である。制御部500は、路側機等の通信機108から取得するようにしても良いし、外部のデータベースサーバから取得するようにしても良い。もしくは、制御部500は、車両情報から移動体の存在に関する情報を取得するようにしても良い。例えば、制御部500は、車両106のシュータ205の先端に近い部分に取り付けられたカメラの画像データを取得するようにしても良い。 FIG. 14 is a flow chart showing the process of generating a warning object in S502. In S<b>701 , the control unit 500 acquires environmental information around the position of the vehicle 106 . Environmental information is, for example, information about the presence of mobile objects around the position of the vehicle 106 . Here, moving objects are, for example, pedestrians, bicycles, and vehicles. The control unit 500 may acquire from the communication device 108 such as a roadside device, or may acquire from an external database server. Alternatively, the control unit 500 may acquire information about the existence of the moving object from the vehicle information. For example, the control unit 500 may acquire image data from a camera attached to a portion of the vehicle 106 near the tip of the shooter 205 .

S702において、制御部500は、S701で取得された環境情報に基づいて、移動体を認識したか否かを判定する。ここで、移動体を認識したと判定された場合、S703へ進む。一方、移動体を認識していないと判定された場合、警告オブジェクトを生成する必要がないので、図14の処理を終了し、図12のS503へ進む。 In S702, the control unit 500 determines whether or not a moving object has been recognized based on the environment information acquired in S701. Here, if it is determined that a moving object has been recognized, the process proceeds to S703. On the other hand, if it is determined that the moving object is not recognized, there is no need to generate a warning object, so the processing in FIG. 14 ends and the process proceeds to S503 in FIG.

S703において、制御部500は、S203で取得した撮影データの画像認識を行い、S704において、撮影データ上で移動体を認識したか否かを判定する。S704で移動体を認識したと判定された場合、S705で警告オブジェクトを生成する。S705に進むケースとは、例えば、車両106の進行方向上、右前方に歩行者が存在することが環境情報から認識され、且つ、車両106による撮影データにおいても認識されている状態である。従って、S705では、制御部500は、撮影データ上で認識された歩行者のオブジェクトを四角形で囲うなど、搭乗者から容易に識別可能なように警告オブジェクトを生成する。S705の後、図14の処理を終了し、図12のS503へ進む。 In S703, the control unit 500 performs image recognition on the captured data acquired in S203, and determines in S704 whether or not a moving object has been recognized on the captured data. If it is determined in S704 that a moving object has been recognized, a warning object is generated in S705. The case in which the process proceeds to S705 is, for example, a state in which it is recognized from the environment information that there is a pedestrian on the right front in the traveling direction of the vehicle 106, and it is also recognized in the photographed data by the vehicle 106. Therefore, in S705, the control unit 500 generates a warning object that can be easily identified by the passenger, such as by surrounding the object of the pedestrian recognized on the photographed data with a rectangle. After S705, the process of FIG. 14 is terminated, and the process proceeds to S503 of FIG.

一方、S704で移動体を認識していないと判定された場合、S706で警告オブジェクトを生成する。S706に進むケースとは、例えば、車両106の進行方向上、右前方に歩行者が存在することが環境情報から認識される一方、車両106による撮影データデータにおいては認識されていない状態である。これは、図23に示すように、車両106の右前方の積雪深が数mであり、積雪の向こう側の歩行者が搭乗者から見えない状態の場合にあり得る。そこで、S706では、図23の警告オブジェクト1401のように警告オブジェクトを生成し、その近傍に「雪の向こう側に人がいます!」といったメッセージを表示する。そのような警告表示により、車両106の搭乗者から死角となる位置に存在する移動体を、搭乗者に認識させることができる。また、警告メッセージ1401は、点滅などで動的に表示させることにより認識効果を高めるようにしても良い。S706の後、図14の処理を終了し、図12のS503へ進む。 On the other hand, if it is determined in S704 that the moving object is not recognized, a warning object is generated in S706. The case in which the process proceeds to S706 is, for example, a state in which it is recognized from the environment information that a pedestrian is present in the forward right direction in the direction of travel of the vehicle 106, but it is not recognized in the photographed data of the vehicle 106. As shown in FIG. 23, this may occur when the depth of snow on the right front side of the vehicle 106 is several meters and the pedestrian on the other side of the snow cannot be seen by the passenger. Therefore, in S706, a warning object like the warning object 1401 in FIG. 23 is generated, and a message such as "There is a person on the other side of the snow!" is displayed near the warning object. Such a warning display allows the passenger of the vehicle 106 to recognize a moving object that is in a blind spot from the passenger. Also, the warning message 1401 may be dynamically displayed by blinking to enhance the recognition effect. After S706, the process of FIG. 14 is terminated, and the process proceeds to S503 of FIG.

再び、図12を参照する。S503において、制御部500は、選択情報に基づいて、作業ラインを表示するか否かを判定する。作業ラインを表示すると判定された場合、S504へ進み、作業ラインオブジェクトの生成が行われる。一方、作業ラインを表示しないと判定された場合、作業ラインオブジェクトの生成は行われずにS505へ進む。 Again, refer to FIG. In S503, the control unit 500 determines whether to display the work line based on the selection information. If it is determined to display the work line, the process advances to S504 to generate a work line object. On the other hand, if it is determined not to display the work line, the process proceeds to S505 without generating the work line object.

作業ラインオブジェクトの生成の一例について説明する。例えば、作業ラインオブジェクトとは、除雪機である車両106の除雪作業ラインである。車両106が小型の除雪機であり且つ走行路幅が広い場合には、一定の距離を往復しながら作業が行われる。また、手押しタイプの除雪機の場合には、積雪状態や搭乗者の作業の熟達度によっては、直線で走行させることが難しい場合がある。そこで、本実施形態では、制御部500は、例えば図20に示すように、走行路と非走行路を識別可能に表示することに加えて、作業ラインオブジェクト1101のように、作業ラインをAR表示させる。その際、制御部500は、車両106から取得した車両情報と、環境情報とに応じて、作業ラインオブジェクトを生成する。例えば、中型サイズの除雪機と小型サイズの除雪機とでは、同じ走行路幅に対する往復回数は異なる。従って、S504において、制御部500は、車両情報から得られる除雪機のサイズと環境情報から得られる走行路幅とに基づいて往復回数を決定し、その往復回数に応じた作業ラインオブジェクトを生成する。例えば、図20の作業ラインオブジェクト1101によると、3往復した後、走行路から抜けるように誘導される。このように、車両106の搭乗者に対して、側溝905がない部分から走行路外へ出る経路を搭乗者に対して容易に認識させることができる。 An example of generating a work line object will be described. For example, the work line object is the snow removal work line of the vehicle 106, which is a snow plow. If the vehicle 106 is a small snowplow and the width of the road is wide, the work is performed while reciprocating a certain distance. Further, in the case of a hand-push type snow remover, it may be difficult to run in a straight line depending on the state of snow accumulation and the skill level of the operator. Therefore, in the present embodiment, the control unit 500 displays the traveling road and the non-traveling road so as to be identifiable as shown in FIG. Let At that time, the control unit 500 generates a work line object according to the vehicle information acquired from the vehicle 106 and the environment information. For example, a medium size snow remover and a small size snow remover have different numbers of reciprocations for the same travel path width. Therefore, in S504, the control unit 500 determines the number of round trips based on the size of the snowplow obtained from the vehicle information and the width of the roadway obtained from the environment information, and generates a work line object corresponding to the number of round trips. . For example, according to the work line object 1101 in FIG. 20, after three round trips, the vehicle is guided to leave the travel path. In this way, it is possible for the passenger of the vehicle 106 to easily recognize the route to the outside of the travel path from the portion without the side ditch 905 .

車両106の走行に応じて、作業ラインオブジェクト1101の表示を変化させるようにしても良い。例えば、車両106が作業ラインオブジェクト1101の作業ラインから大きく逸脱するようなラインを走行している場合には、作業ラインオブジェクト1101の色を赤色点滅表示させるとともに、「ラインを外れています」等のメッセージを表示するようにしても良い。S504の後、S505へ進む。 The display of the work line object 1101 may be changed according to the travel of the vehicle 106 . For example, when the vehicle 106 is traveling on a line that greatly deviates from the work line of the work line object 1101, the color of the work line object 1101 is displayed blinking in red, and a message such as "off the line" is displayed. A message may be displayed. After S504, the process proceeds to S505.

S505において、制御部500は、選択情報に基づいて、積雪に関する情報を表示するか否かを判定する。積雪に関する情報を表示すると判定された場合、S506へ進み、積雪情報オブジェクトの生成が行われる。一方、積雪に関する情報を表示しないと判定された場合、積雪情報オブジェクトの生成は行われずにS507へ進む。 In S505, the control unit 500 determines whether or not to display information about snow cover based on the selection information. If it is determined to display information about snow cover, the process advances to S506 to generate a snow cover information object. On the other hand, if it is determined not to display information about snow cover, the process proceeds to S507 without generating a snow cover information object.

積雪情報オブジェクトの生成の一例について説明する。積雪された雪の密度などの雪質は、積雪場所によって異なることがある。そのような雪質の違いは、車両106の走行に対してばかりでなく、除雪機の除雪作業に対しても影響を及ぼす可能性がある。そこで、本実施形態では、制御部500は、例えば図21に示すように、走行路と非走行路を識別可能に表示することに加えて、積雪情報オブジェクト1201、1202、1203のように、雪質の違いをAR表示させる。制御部500は、雪質の情報に応じて、積雪情報オブジェクト1201、1202、1203を生成する。例えば、積雪情報オブジェクト1201、1202、1203は、その順で、雪の密度が高くなる(固さが増す)ことを表している。なお、雪質の情報は、車両106からの車両情報(センサ情報)から取得しても良いし、環境情報から取得しても良い。図21のような表示により、走行路から離れるに従って雪質が固くなるといったことを車両106の搭乗者に容易に認識させることができる。なお、図21では、本表示の説明上、オブジェクト1005の表示を省略しているが、オブジェクト1005を合わせて表示するようにしても良い。 An example of generating a snow coverage information object will be described. The snow quality such as the density of the deposited snow may vary depending on the snow-covered location. Such a difference in snow quality may affect not only the running of the vehicle 106 but also the snow removing operation of the snow blower. Therefore, in this embodiment, the control unit 500 displays the traveling road and the non-traveling road so that they can be distinguished from each other, as shown in FIG. AR displays the difference in quality. The control unit 500 generates snow cover information objects 1201, 1202, and 1203 according to the snow quality information. For example, snow coverage information objects 1201, 1202, and 1203 represent that the density of snow increases (increases in hardness) in that order. The snow quality information may be obtained from vehicle information (sensor information) from the vehicle 106, or may be obtained from environmental information. A display such as that shown in FIG. 21 makes it possible for the occupant of the vehicle 106 to easily recognize that the snow becomes harder as the distance from the travel road increases. Note that in FIG. 21, the display of the object 1005 is omitted for the sake of explanation of this display, but the object 1005 may be displayed together.

積雪に関する情報として、雪質に限られず、他の情報であっても良い。例えば、積雪深であっても良い。その場合、制御部500は、走行路と非走行路を識別可能に表示することに加えて、積雪深の情報をAR表示させる。そのAR表示の形態として、例えば、撮影データにおいて、丘状に積雪された雪山と認識されるオブジェクトの傍らに「1m」といった数値表示をするようにしても良い。若しくは、その雪山と認識されるオブジェクトに等高線(50cmライン、1mラインなど)を重畳するようにしても良い。S506の後、S507へ進む。 The information about snow cover is not limited to snow quality, and other information may be used. For example, it may be snow depth. In this case, the control unit 500 displays the snow depth information in AR, in addition to displaying the traveling road and the non-traveling road so as to be identifiable. As a form of AR display, for example, a numerical value such as "1 m" may be displayed beside an object recognized as a snowy mountain covered with snow in the photographed data. Alternatively, contour lines (50 cm line, 1 m line, etc.) may be superimposed on the object recognized as the snowy mountain. After S506, the process proceeds to S507.

S507において、制御部500は、選択情報に基づいて、除雪量を表示するか否かを判定する。除雪量を表示すると判定された場合、S508へ進み、除雪量オブジェクトの生成が行われる。一方、除雪量を表示しないと判定された場合、除雪量オブジェクトの生成は行われずに図12の処理を終了し、図8のS206へ進む。 In S507, the control unit 500 determines whether or not to display the amount of snow removal based on the selection information. If it is determined to display the amount of snow removed, the process advances to S508 to generate a snow removal amount object. On the other hand, if it is determined not to display the amount of snow removed, the process of FIG. 12 is terminated without generating the amount of snow removed object, and the process proceeds to S206 of FIG.

除雪量オブジェクトの生成の一例について説明する。図15は、除雪量オブジェクトを生成する処理の一例を示すフローチャートである。S801において、制御部500は、車両106からの車両情報に基づいて、除雪中であるか否かを判定する。除雪中であると判定された場合、S802へ進む。一方、停止しているなど、除雪中でないと判定された場合、図15及び図12の処理を終了し、図8のS206へ進む。 An example of generating a snow removal amount object will be described. FIG. 15 is a flow chart showing an example of processing for generating a snow removal amount object. In S<b>801 , the control unit 500 determines whether snow removal is in progress based on vehicle information from the vehicle 106 . If it is determined that the snow is being removed, the process proceeds to S802. On the other hand, if it is determined that the snow removal is not being performed, for example, if it is stopped, the processing of FIGS.

S802において、制御部500は、除雪量情報を取得する。制御部500は、例えば、車両106からの車両情報からエンジントルクを除雪量情報として取得するようにしても良い。そして、S803において、制御部500は、取得したエンジントルクに基づいて、除雪量を推定する。 In S802, the control unit 500 acquires snow removal amount information. For example, the control unit 500 may acquire the engine torque from the vehicle information from the vehicle 106 as the snow removal amount information. Then, in S803, the control unit 500 estimates the snow removal amount based on the acquired engine torque.

S804において、制御部500は、S803で推定された除雪量に応じて、除雪量オブジェクトを生成する。除雪量オブジェクトとは、数値を示すオブジェクトであり、例えば「10t/h」といった数値表示を画面端部にスコアのように表示させるためのオブジェクトである。そのような表示により、搭乗者に対してゲーム感覚を抱かせたり、除雪作業に伴う収入換算に用いることができる。S804の後、S801の処理が繰り返される。なお、S801~S804の処理が実行されることに並行して、図8のS206以降の処理が実行される。 In S804, the control unit 500 generates a snow removal amount object according to the snow removal amount estimated in S803. A snow removal amount object is an object that indicates a numerical value. Such a display can be used to give the passengers a sense of playing a game, or to convert the income associated with the snow removal work. After S804, the process of S801 is repeated. In parallel with the execution of the processes of S801 to S804, the processes after S206 in FIG. 8 are executed.

制御部500は、S802で取得した除雪量情報を記憶部501に除雪量情報519として蓄積し、メンテナンスの通知に用いるようにしても良い。例えば、制御部500は、蓄積された除雪量情報519に基づいて、バッテリ交換などの消耗品交換の時期である旨を車両106に通知するようにしても良い。 The control unit 500 may store the snow removal amount information acquired in S802 in the storage unit 501 as the snow removal amount information 519, and may use the information for maintenance notification. For example, based on the accumulated snow removal amount information 519, the control unit 500 may notify the vehicle 106 that it is time to replace consumables such as battery replacement.

以上のように、本実施形態によれば、車両が雪面上を走行する場合、搭乗者に対して走行路と非走行路を容易に認識させることができる。また、本実施形態では、図1に示すように、サーバ101が車両104、105、106、携帯型端末107と別装置として構成される形態を説明したが、サーバ101の少なくとも一部が車両104、105、106、携帯型端末107に構成されるようにし、撮影データを取得してから、AR表示データを生成してAR表示するまでのリアルタイム性を向上するようにしても良い。 As described above, according to the present embodiment, when the vehicle travels on the snow surface, the passenger can easily recognize the traveling road and the non-traveling road. Also, in this embodiment, as shown in FIG. , 105, 106, and portable terminal 107 to improve the real-time performance from acquisition of image data to generation of AR display data and AR display.

<実施形態のまとめ>
上記実施形態のガイド表示方法は、所定位置における積雪後の状態を表す撮影データを取得する第1取得工程(S203)と、前記第1取得工程において取得された前記撮影データに基づいて、前記所定位置における積雪前の状態を表す画像データを記憶する第1記憶手段(514)から前記撮影データの表す前記積雪後の状態に対応する画像データを取得する第2取得工程(S204)と、前記第1取得工程において取得された前記撮影データと、前記第2取得工程において取得された前記画像データとに基づいて、前記撮影データの表す前記積雪後の状態で走行するためのガイドを表示するための表示データを生成する生成工程(S205)とを有することを特徴とする。
<Summary of embodiment>
The guide display method of the above embodiment comprises a first acquisition step (S203) of acquiring photographed data representing a state after snow cover at a predetermined position; a second acquisition step (S204) of acquiring image data corresponding to the state after snow cover represented by the photographing data from a first storage means (514) for storing image data representing the state before snow cover at a position; for displaying a guide for driving in the snow-covered state represented by the photographed data, based on the photographed data obtained in the first obtaining step and the image data obtained in the second obtaining step; and a generation step (S205) of generating display data.

そのような構成により、車両が雪面上を走行する場合、搭乗者に対して走行路と非走行路を容易に認識させることができる。 With such a configuration, when the vehicle travels on the snow surface, the passenger can easily recognize the traveling road and the non-traveling road.

また、前記ガイドは、走行路を表すオブジェクトと、非走行路を表すオブジェクトとを含むことを特徴とする。また、前記非走行路を表すオブジェクトは、側溝を含むことを特徴とする。 Further, the guide is characterized by including an object representing a traveling road and an object representing a non-traveling road. Also, the object representing the non-running road includes a gutter.

そのような構成により、例えば、搭乗者に対して、側溝を容易に認識させることができる。 With such a configuration, for example, a passenger can easily recognize the side ditches.

また、前記第2取得工程は、前記第1取得工程において取得された前記撮影データで認識されるオブジェクトを含む前記画像データを前記第1記憶手段から取得する(図9)ことを特徴とする。 Also, the second acquisition step is characterized by acquiring from the first storage means the image data including the object recognized in the photographed data acquired in the first acquisition step (FIG. 9).

そのような構成により、オブジェクトに基づいて、積雪前の状態を表す画像データを取得することができる。 With such a configuration, it is possible to acquire image data representing the state before snow cover based on the object.

また、ガイド表示方法は、前記第1取得工程において取得された前記撮影データと、前記第1記憶手段から取得された前記画像データとの方向性のずれがあるか否かを判定する判定工程(S402)と、前記判定工程において前記方向性のずれがあると判定された場合、該方向性のずれを解消するように、前記第1記憶手段から取得された前記画像データを補正する補正工程(S403)と、をさらに有し、前記第2取得工程は、前記補正工程において補正された画像データを取得することを特徴とする。 Further, the guide display method includes a determination step ( S402); and a correction step of correcting the image data acquired from the first storage means so as to eliminate the directionality deviation if it is determined in the determination step that the directionality deviation exists ( S403), wherein the second acquiring step acquires the image data corrected in the correcting step.

そのような構成により、積雪前の状態を表す画像データの方向性が撮影データの方向性とずれていたとしても、表示データの生成のために用いることができる。 With such a configuration, even if the directionality of the image data representing the state before snow cover deviates from the directionality of the photographed data, it can be used to generate display data.

また、ガイド表示方法は、前記生成工程において生成された前記表示データに基づいて、前記積雪後の状態に前記ガイドが重畳された画面を表示装置に表示させる表示制御工程(S206、S207)、をさらに有することを特徴とする。また、前記表示装置(313)は、移動体に構成されていることを特徴とする。 Further, the guide display method includes a display control step (S206, S207) of causing a display device to display a screen in which the guide is superimposed on the state after snow cover based on the display data generated in the generation step. It is characterized by further comprising: Further, the display device (313) is characterized by being configured in a mobile body.

そのような構成により、積雪後の状態にガイドが重畳された画面を表示装置に表示させることができる。 With such a configuration, it is possible to display on the display device a screen in which the guide is superimposed on the state after snow cover.

また、ガイド表示方法は、前記移動体の傾きの情報を取得する第3取得工程(図13)、をさらに有し、前記生成工程は、前記移動体の傾きが所定以上であることを通知するためのオブジェクトをさらに生成することを特徴とする。 Further, the guide display method further includes a third obtaining step (FIG. 13) of obtaining tilt information of the moving object, and the generating step notifies that the tilt of the moving object is greater than or equal to a predetermined value. It is characterized by further generating an object for

そのような構成により、移動体の傾きが所定以上となった場合に通知することができる。 With such a configuration, it is possible to notify when the inclination of the moving body becomes equal to or greater than a predetermined value.

また、ガイド表示方法は、前記移動体は、除雪機であることを特徴とする。また、ガイド表示方法は、前記除雪機による除雪量の情報を取得する第4取得工程(図15)、をさらに有し、前記生成工程は、前記除雪量の情報を通知するためのオブジェクトをさらに生成することを特徴とする。また、ガイド表示方法は、前記第4取得工程において取得された前記除雪量の情報を第2記憶手段(519)に格納する格納工程、をさらに有することを特徴とする。 Further, the guide display method is characterized in that the moving object is a snowplow. The guide display method further includes a fourth acquisition step (FIG. 15) of acquiring information on the amount of snow removed by the snowplow, and the generation step further includes an object for notifying the information on the amount of snow removed. characterized by generating Further, the guide display method is characterized by further comprising a storing step of storing the information on the amount of snow removed obtained in the fourth obtaining step in a second storage means (519).

そのような構成により、除雪機である車両に対して、除雪量の情報を通知することができる。 With such a configuration, information on the amount of snow removed can be notified to the vehicle, which is a snow remover.

本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。 The present invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the present invention. Accordingly, to publicize the scope of the invention, the following claims are included.

100 ガイド表示システム: 101 サーバ: 104、105、106 車両: 107 携帯型端末: 313 表示部: 416 表示装置: 500 制御部 100 Guide Display System: 101 Server: 104, 105, 106 Vehicle: 107 Portable Terminal: 313 Display Unit: 416 Display Device: 500 Control Unit

Claims (11)

所定位置における積雪後の状態を表す撮影データを取得する第1取得工程と、
前記第1取得工程において取得された前記撮影データに基づいて、前記所定位置における積雪前の状態を表す画像データを記憶する第1記憶手段から前記撮影データの表す前記積雪後の状態に対応する画像データを取得する第2取得工程と、
前記第1取得工程において取得された前記撮影データと、前記第2取得工程において取得された前記画像データとに基づいて、前記撮影データの表す前記積雪後の状態で走行するためのガイドを表示するための表示データを生成する生成工程と、
前記第1取得工程において取得された前記撮影データと、前記第1記憶手段から取得された前記画像データとの方向性のずれがあるか否かを判定する判定工程と、
前記判定工程において前記方向性のずれがあると判定された場合、該方向性のずれを解消するように、前記第1記憶手段から取得された前記画像データを補正する補正工程と、を有し、
前記第2取得工程は、前記補正工程において補正された画像データを取得する、
ことを特徴とするガイド表示方法。
a first acquisition step of acquiring photographed data representing a state after snow cover at a predetermined position;
An image corresponding to the state after snow cover represented by the photograph data from a first storage means for storing image data representing the state before snow cover at the predetermined position based on the photograph data acquired in the first acquisition step. a second acquisition step of acquiring data;
Based on the photographed data obtained in the first obtaining step and the image data obtained in the second obtaining step, a guide for driving in the state after snow cover represented by the photographed data is displayed. a generating step for generating display data for
a determination step of determining whether or not there is a directionality deviation between the photographed data acquired in the first acquisition step and the image data acquired from the first storage means;
and a correcting step of correcting the image data acquired from the first storage means so as to eliminate the directionality deviation when it is determined in the determination step that there is the directionality deviation. ,
The second obtaining step obtains the image data corrected in the correcting step.
A guide display method characterized by:
前記ガイドは、走行路を表すオブジェクトと、非走行路を表すオブジェクトとを含むことを特徴とする請求項1に記載のガイド表示方法。 2. The guide display method according to claim 1, wherein the guide includes an object representing a traveling road and an object representing a non-traveling road. 前記非走行路を表すオブジェクトは、側溝を含むことを特徴とする請求項2に記載のガイド表示方法。 3. The guide display method according to claim 2, wherein the object representing the non-traveling road includes a gutter. 前記第2取得工程は、前記第1取得工程において取得された前記撮影データで認識されるオブジェクトを含む前記画像データを前記第1記憶手段から取得することを特徴とする請求項1乃至3のいずれか1項に記載のガイド表示方法。 4. The method according to any one of claims 1 to 3, wherein said second acquisition step acquires said image data including an object recognized by said photographed data acquired in said first acquisition step from said first storage means. or the guide display method described in 1. 前記生成工程において生成された前記表示データに基づいて、前記積雪後の状態に前記ガイドが重畳された画面を表示装置に表示させる表示制御工程、をさらに有することを特徴とする請求項1乃至4のいずれか1項に記載のガイド表示方法。 5. A display control step of causing a display device to display a screen in which the guide is superimposed on the state after snow cover, based on the display data generated in the generating step. The guide display method according to any one of 1. 前記表示装置は、移動体に構成されていることを特徴とする請求項5に記載のガイド表示方法。 6. The guide display method according to claim 5, wherein said display device is configured in a mobile body. 前記移動体の傾きの情報を取得する第3取得工程、をさらに有し、
前記生成工程は、前記移動体の傾きが所定以上であることを通知するためのオブジェクトをさらに生成することを特徴とする請求項6に記載のガイド表示方法。
further comprising a third acquisition step of acquiring information on the inclination of the moving body;
7. The guide display method according to claim 6, wherein the generating step further generates an object for notifying that the inclination of the moving body is greater than or equal to a predetermined value.
前記移動体は、除雪機であることを特徴とする請求項6又は7に記載のガイド表示方法。 8. The guide display method according to claim 6, wherein the moving body is a snowplow. 前記除雪機による除雪量の情報を取得する第4取得工程、をさらに有し、
前記生成工程は、前記除雪量の情報を通知するためのオブジェクトをさらに生成することを特徴とする請求項8に記載のガイド表示方法。
further comprising a fourth acquisition step of acquiring information on the amount of snow removed by the snow blower;
9. The guide display method according to claim 8, wherein said generating step further generates an object for notifying said snow removal amount information.
前記第4取得工程において取得された前記除雪量の情報を第2記憶手段に格納する格納工程、をさらに有することを特徴とする請求項9に記載のガイド表示方法。 10. The guide display method according to claim 9, further comprising a storing step of storing the information on the amount of snow removed acquired in the fourth acquiring step in a second storage means. サーバと、前記サーバと通信可能な車両と、を含むガイド表示システムにおいて実行されるガイド表示方法であって、
前記サーバが、
所定位置における積雪後の状態を表す撮影データを前記車両から受信する第1受信工程と、
前記第1受信工程において受信された前記撮影データに基づいて、前記所定位置における積雪前の状態を表す画像データを記憶する記憶手段から前記撮影データの表す前記積雪後の状態に対応する画像データを取得する取得工程と、
前記第1受信工程において受信された前記撮影データと、前記取得工程において取得された前記画像データとに基づいて、前記撮影データの表す前記積雪後の状態で走行するためのガイドを表示するための表示データを生成する生成工程と、
前記生成工程において生成された前記表示データを前記車両に送信する第1送信工程と、
前記第1受信工程において受信された前記撮影データと、前記記憶手段から取得された前記画像データとの方向性のずれがあるか否かを判定する判定工程と、
前記判定工程において前記方向性のずれがあると判定された場合、該方向性のずれを解消するように、前記記憶手段から取得された前記画像データを補正する補正工程と、
前記車両が、
撮影手段により撮影された前記撮影データを前記サーバへ送信する第2送信工程と、
前記表示データを前記サーバから受信する第2受信工程と、
前記第2受信工程において受信された前記表示データに基づいて、前記積雪後の状態に前記ガイドが重畳された画面を表示する表示工程と、
を有し、
前記取得工程は、前記補正工程において補正された画像データを取得する、
ことを特徴とするガイド表示方法。
A guide display method executed in a guide display system including a server and a vehicle capable of communicating with the server,
the server
a first receiving step of receiving from the vehicle photographed data representing a state after snow cover at a predetermined position;
Based on the photographed data received in the first receiving step, image data corresponding to the state after snow cover represented by the photographed data is obtained from a storage means for storing image data representing the state before snow cover at the predetermined position. an obtaining step of obtaining;
for displaying a guide for driving in the post-snow state represented by the photographed data, based on the photographed data received in the first receiving step and the image data acquired in the obtaining step; a generating step for generating display data;
a first transmitting step of transmitting the display data generated in the generating step to the vehicle;
a determination step of determining whether or not there is a deviation in directionality between the photographed data received in the first receiving step and the image data obtained from the storage means;
a correcting step of correcting the image data acquired from the storage means so as to eliminate the directionality deviation when it is determined in the determination step that there is the directionality deviation;
the vehicle is
a second transmission step of transmitting the photographed data photographed by the photographing means to the server;
a second receiving step of receiving the display data from the server;
a display step of displaying a screen in which the guide is superimposed on the post-snow state based on the display data received in the second reception step;
has
the acquiring step acquires the image data corrected in the correcting step;
A guide display method characterized by:
JP2021539747A 2019-08-13 2019-08-13 Guide display method Active JP7212788B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/031863 WO2021029016A1 (en) 2019-08-13 2019-08-13 Guide display method

Publications (3)

Publication Number Publication Date
JPWO2021029016A1 JPWO2021029016A1 (en) 2021-02-18
JPWO2021029016A5 JPWO2021029016A5 (en) 2022-03-09
JP7212788B2 true JP7212788B2 (en) 2023-01-25

Family

ID=74569552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021539747A Active JP7212788B2 (en) 2019-08-13 2019-08-13 Guide display method

Country Status (2)

Country Link
JP (1) JP7212788B2 (en)
WO (1) WO2021029016A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012158950A (en) 2011-02-02 2012-08-23 Nichijo Manufacturing Co Ltd Monitoring system for rotary snow blower and rotary snow blower
JP2013235378A (en) 2012-05-08 2013-11-21 Toyota Motor Corp Vehicle information providing device
WO2016051447A1 (en) 2014-09-29 2016-04-07 三菱電機株式会社 Information display control system and information display control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4882285B2 (en) * 2005-06-15 2012-02-22 株式会社デンソー Vehicle travel support device
JP5223768B2 (en) * 2009-04-24 2013-06-26 株式会社デンソー Vehicle display device
JP2015164001A (en) * 2014-02-28 2015-09-10 株式会社丸山製作所 guide device
JP6563777B2 (en) * 2015-10-27 2019-08-21 矢崎総業株式会社 Vehicle driving support device
JP2018097431A (en) * 2016-12-08 2018-06-21 株式会社デンソーテン Driving support apparatus, driving support system and driving support method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012158950A (en) 2011-02-02 2012-08-23 Nichijo Manufacturing Co Ltd Monitoring system for rotary snow blower and rotary snow blower
JP2013235378A (en) 2012-05-08 2013-11-21 Toyota Motor Corp Vehicle information providing device
WO2016051447A1 (en) 2014-09-29 2016-04-07 三菱電機株式会社 Information display control system and information display control method

Also Published As

Publication number Publication date
WO2021029016A1 (en) 2021-02-18
JPWO2021029016A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
AU2021201462B2 (en) An unmanned roadside signage vehicle system
US20200209857A1 (en) Multimodal control system for self driving vehicle
JP4729905B2 (en) Vehicle notification device and program
US11635763B2 (en) 3D occlusion reasoning for accident avoidance
WO2019186813A1 (en) Snow plow; projection method, program, and storage medium for snow plow; and projection system
EP3841525B1 (en) Autonomous vehicle operational management with visual saliency perception control
JP2017109740A (en) Vehicle control system and control method
JP7243370B2 (en) Road information update system, route search system, road information update program
JP7011559B2 (en) Display devices, display control methods, and programs
US20210064045A1 (en) Autonomous snow removing machine
JP3572977B2 (en) Travel control device for vehicles
JP7221332B2 (en) Vehicle running control device
JP7315101B2 (en) Obstacle information management device, obstacle information management method, vehicle device
JP2019040539A (en) Travel support system
CN111746789B (en) Shooting system, server, control method, and storage medium storing program
US20210026373A1 (en) Vehicle platooning using surface-penetrating radar systems
JP7212788B2 (en) Guide display method
JP4687244B2 (en) Image processing system and image processing method
JP7301897B2 (en) map generator
CN116088533B (en) Information determination method, remote terminal, device, mower and storage medium
EP4250041A1 (en) Method for determining information, remote terminal, and mower
US20220297683A1 (en) Vehicle guard rail system
KR20230010168A (en) Automatic traveling method, automatic traveling system, and automatic traveling program
GB2616114A (en) Vehicle navigation with pedestrians and determining vehicle free space
CN116736865A (en) Information determination method, remote terminal, device, mower and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20211122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230113

R150 Certificate of patent or registration of utility model

Ref document number: 7212788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150