JP2022042249A - Program, information processing device and information processing method - Google Patents

Program, information processing device and information processing method Download PDF

Info

Publication number
JP2022042249A
JP2022042249A JP2020147585A JP2020147585A JP2022042249A JP 2022042249 A JP2022042249 A JP 2022042249A JP 2020147585 A JP2020147585 A JP 2020147585A JP 2020147585 A JP2020147585 A JP 2020147585A JP 2022042249 A JP2022042249 A JP 2022042249A
Authority
JP
Japan
Prior art keywords
image
distribution image
cloud
time
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020147585A
Other languages
Japanese (ja)
Inventor
重里 糸井
Shigesato Itoi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hobonichi Co Ltd
Original Assignee
Hobonichi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hobonichi Co Ltd filed Critical Hobonichi Co Ltd
Priority to JP2020147585A priority Critical patent/JP2022042249A/en
Publication of JP2022042249A publication Critical patent/JP2022042249A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a program or the like capable of displaying content, corresponding to an earth condition that changes from moment to moment, superimposed on a photographic image.SOLUTION: A computer downloads time series data on a cloud distribution image showing a cloud distribution of the world by equirectangular projection, downloads time series data on a rainfall distribution image showing a rainfall distribution of the world by the equirectangular projection, and downloads time series data on an air temperature distribution image showing an air temperature distribution of the world by the equirectangular projection. The computer selectably displays a cloud image icon, a rainfall image icon or an air temperature image icon for selecting any one of the cloud distribution image, the rainfall distribution image or the air temperature distribution image. The computer acquires a photographic image of a globe from a camera, and continuously reproduces a corrected cloud distribution image that continues in time series while correcting each cloud distribution image so as to cover the entire globe in the acquired photographic image and match an image drawn on the globe.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り 別紙商談先リストの通り公開Patent Law Article 30, Paragraph 2 Application Applicable Published as shown in the attached list of business negotiations

本開示は、プログラム、情報処理装置及び情報処理方法に関する。 The present disclosure relates to programs, information processing devices and information processing methods.

近年、AR(Augmented Reality )システムを用いた商品の開発が行われている。ARシステムでは、スマートフォン、タブレット端末、携帯ゲーム機等のようにカメラ及び表示部を有する情報機器に、ARマーカを認識するためのアプリケーションプログラムをインストールしておく。このような情報機器を用いて、ARマーカが付された被写体を撮影すると、情報機器がARマーカを認識し、認識したARマーカに応じたコンテンツを、撮影画像の上に重ねて表示する。これにより、ユーザは、撮影対象の被写体にコンテンツが重畳された画像を表示部にて見ることができる。特許文献1には、地球儀を撮影し、撮影した画像中の地球儀の上に仮想シーンを重ねて表示するデバイスが開示されている。 In recent years, products using an AR (Augmented Reality) system have been developed. In the AR system, an application program for recognizing an AR marker is installed in an information device having a camera and a display unit such as a smartphone, a tablet terminal, a portable game machine, or the like. When a subject with an AR marker is photographed using such an information device, the information device recognizes the AR marker and displays the content corresponding to the recognized AR marker superimposed on the captured image. As a result, the user can see the image on which the content is superimposed on the subject to be photographed on the display unit. Patent Document 1 discloses a device that photographs a Decorative Globe and superimposes and displays a virtual scene on the Decorative Globe in the captured image.

特表2017-522682号公報Special Table 2017-522682A

従来の技術では、地球儀等の被写体の撮影画像に重ねて表示されるコンテンツは、予め登録されているものに限定されるという問題がある。 The conventional technique has a problem that the content displayed overlaid on the captured image of a subject such as a globe is limited to the content registered in advance.

本開示は、このような事情によりなされたものであって、その目的とするところは、時々刻々と変化する地球の状態に応じたコンテンツを撮影画像に重ねて表示することが可能なプログラム等を提供することにある。 The present disclosure has been made due to such circumstances, and the purpose of the present disclosure is to provide a program or the like capable of superimposing and displaying contents according to the ever-changing state of the earth on a photographed image. To provide.

本開示の一態様に係るプログラムは、世界の雲分布を正距円筒図法で示す雲分布画像の時系列データをダウンロードし、世界の雨量分布を正距円筒図法で示す雨量分布画像の時系列データをダウンロードし、世界の気温分布を正距円筒図法で示す気温分布画像の時系列データをダウンロードし、雲分布画像、雨量分布画像、又は気温分布画像のいずれかひとつを選択するための雲画像アイコン、雨量画像アイコン、又は気温画像アイコンを選択可能に表示し、カメラから地球儀の撮影画像を取得し、前記雲画像アイコンが選択された場合に、正距円筒図法の各雲分布画像を、取得した前記撮影画像中の地球儀全体を覆い、かつ、前記地球儀上に描かれた画像に合致するように補正しながら、時系列で連続する補正後の雲分布画像を連続再生する処理をコンピュータに実行させる。 The program according to one aspect of the present disclosure downloads time-series data of a cloud distribution image showing the world cloud distribution in the regular-distance cylindrical projection, and time-series data of the rainfall distribution image showing the world rainfall distribution in the regular-distance cylindrical projection. Download, download the time series data of the temperature distribution image showing the world temperature distribution in the regular distance cylindrical projection, and select the cloud image icon to select one of the cloud distribution image, the rainfall distribution image, or the temperature distribution image. , Rain amount image icon, or temperature image icon can be displayed selectably, the photographed image of the globe is acquired from the camera, and when the cloud image icon is selected, each cloud distribution image of the regular distance cylindrical projection is acquired. Causes the computer to continuously reproduce the corrected cloud distribution image in chronological order while covering the entire globe in the captured image and correcting it so as to match the image drawn on the globe. ..

本開示の一態様によれば、撮影画像に重ねて表示されるコンテンツとして、時々刻々と変化する地球の状態に応じたコンテンツを用いることができる。 According to one aspect of the present disclosure, as the content to be displayed superimposed on the captured image, the content corresponding to the ever-changing state of the earth can be used.

ARシステムの構成例を示す模式図である。It is a schematic diagram which shows the configuration example of an AR system. サーバ及びユーザ端末の構成例を示すブロック図である。It is a block diagram which shows the configuration example of a server and a user terminal. 気象コンテンツDBの構成例を示す模式図である。It is a schematic diagram which shows the structural example of the meteorological content DB. 気象コンテンツの取得処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the acquisition processing procedure of a meteorological content. 雲分布画像例を示す模式図である。It is a schematic diagram which shows the example of a cloud distribution image. AR画像の表示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the display processing procedure of an AR image. AR画像の表示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the display processing procedure of an AR image. AR画像の表示例を示す模式図である。It is a schematic diagram which shows the display example of an AR image. AR画像を説明するための模式図である。It is a schematic diagram for demonstrating an AR image. AR画像の表示例を示す模式図である。It is a schematic diagram which shows the display example of an AR image. 国境線画像によるAR画像の表示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the display processing procedure of an AR image by a borderline image. AR画像の表示例を示す模式図である。It is a schematic diagram which shows the display example of an AR image. AR画像の切替処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the switching processing procedure of an AR image. AR画像の表示例を示す模式図である。It is a schematic diagram which shows the display example of an AR image. アースボールの他の構成例を示す模式図である。It is a schematic diagram which shows the other configuration example of the earth ball. 実施形態2のAR画像の表示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the display processing procedure of the AR image of Embodiment 2.

以下に、本開示のプログラム、情報処理装置及び情報処理方法について、その実施形態を示す図面に基づいて詳述する。 Hereinafter, the program, the information processing apparatus, and the information processing method of the present disclosure will be described in detail with reference to the drawings showing the embodiments thereof.

(実施形態1)
ARマーカを表面に有する球体であるアースボール(地球儀)を被写体として撮影するARシステムについて説明する。図1はARシステムの構成例を示す模式図である。本実施形態のARシステムは、サーバ10、ユーザ端末20、及びアースボール30を含み、サーバ10及びユーザ端末20は、インターネット等のネットワークNに接続可能であり、ネットワークNを介して情報の送受信を行う。また本実施形態のARシステムは、ネットワークN経由で気象情報を公開しているウェブサーバ40(以下、気象サーバ40と呼ぶ)を含み、サーバ10はネットワークN経由で気象サーバ40から気象情報を取得する。気象情報は、例えばカスタムウェザー社が提供している地球上の雲の状況を示す雲分布画像、地球上の各地の気温を示す気温分布画像、及び、例えばJAXA地球観測研究センター(Earth Observation Research Center:EORC)が提供している地球上での降水状況を示す雨量分布画像(衛生全球降水マップ:GSMaP)等を用いることができる。よって、気象サーバ40は、例えばカスタムウェザー社及びJAXA地球観測研究センターが管理しているウェブサーバを含む。気象情報及び気象サーバ40はこれらに限定されない。
(Embodiment 1)
An AR system that shoots an earth ball (globe), which is a sphere having an AR marker on its surface, as a subject will be described. FIG. 1 is a schematic diagram showing a configuration example of an AR system. The AR system of the present embodiment includes a server 10, a user terminal 20, and an earth ball 30, and the server 10 and the user terminal 20 can be connected to a network N such as the Internet, and information can be transmitted and received via the network N. conduct. Further, the AR system of the present embodiment includes a web server 40 (hereinafter referred to as a weather server 40) that publishes weather information via network N, and the server 10 acquires weather information from the weather server 40 via network N. do. The meteorological information includes, for example, a cloud distribution image showing the condition of clouds on the earth provided by Custom Weather, a temperature distribution image showing the temperature of various parts of the earth, and, for example, the Earth Observation Research Center. : EORC) can use a rainfall distribution image (sanitary global precipitation map: GSMaP) showing the precipitation situation on the earth. Therefore, the meteorological server 40 includes, for example, a web server managed by Custom Weather and the JAXA Earth Observation Research Center. The weather information and the weather server 40 are not limited to these.

サーバ10は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ又はパーソナルコンピュータ等である。サーバ10は、複数台設けられていてもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されていてもよいし、クラウドサーバを用いて実現されていてもよい。サーバ10は、気象サーバ40から気象情報を取得する処理、取得した気象情報から提供用の気象情報を生成する処理、ユーザ端末20からの要求に応じて気象情報を提供する処理等、種々の情報処理を行う。気象サーバ40は一般的なウェブサーバであるので、詳細については説明を省略する。なお、気象サーバ40は、公開対象のデータ(気象情報)を記憶しており、ネットワークN経由で他の装置からの要求を受け付けた場合に、要求されたデータをネットワークN経由で提供する処理を行う。 The server 10 is an information processing device capable of transmitting and receiving various information processing and information, and is, for example, a server computer or a personal computer. A plurality of servers 10 may be provided, may be realized by a plurality of virtual machines provided in one server device, or may be realized by using a cloud server. The server 10 has various information such as a process of acquiring meteorological information from the meteorological server 40, a process of generating meteorological information for provision from the acquired meteorological information, and a process of providing meteorological information in response to a request from the user terminal 20. Perform processing. Since the weather server 40 is a general web server, the details thereof will be omitted. The meteorological server 40 stores data to be disclosed (weather information), and when a request from another device is received via the network N, a process of providing the requested data via the network N is performed. conduct.

ユーザ端末20は、アースボール30を撮影してARシステムを利用するユーザの端末装置である。ユーザ端末20は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばスマートフォン、携帯電話、タブレット端末、パーソナルコンピュータ、ゲーム機等である。ユーザ端末20は、可搬型の機器であれば操作が容易である。ユーザ端末20は、サーバ10から気象情報を取得する処理、アースボール30を撮影する処理、撮影画像に気象情報を重畳させて表示する処理等、種々の情報処理を行う。 The user terminal 20 is a terminal device of a user who photographs the earth ball 30 and uses the AR system. The user terminal 20 is an information processing device capable of transmitting and receiving various information processing and information, and is, for example, a smartphone, a mobile phone, a tablet terminal, a personal computer, a game machine, or the like. The user terminal 20 is easy to operate if it is a portable device. The user terminal 20 performs various information processing such as a process of acquiring weather information from the server 10, a process of photographing the earth ball 30, and a process of superimposing and displaying the weather information on the photographed image.

アースボール30は例えば樹脂製の地球儀であるが、これに限定されない。アースボール30の表面には地球上の地図が印刷(描画)されている。アースボール30に印刷されている地図は、陸地を標高の高低に応じた色で表した地勢型の大陸図31(地形図)と、海洋を水深の深浅に応じた色で表した海洋図32(海図)とを含む。よって、アースボール30は、地図中の河川、湖沼、平野、山脈、沙漠等が地形毎に色分けされており、地図中の海洋が水深毎に色分けされている。なお、図1に示すように、アースボール30には、地図中の大陸及び海洋の名称、国境線、各国の国名、各都市の都市名等は印刷されていない。一方、アースボール30には、海洋図32上の適宜位置に雲の形を有する雲マーク33(ダミーの雲画像)が印刷されている。雲マーク33は、巻雲(すじ雲)、巻積雲(うろこ雲、いわし雲)、高積雲(ひつじ雲)等を模した形状に構成されているが、これに限定されない。このような構成のアースボール30では、大陸図31及び海洋図32と、海洋図32上に描画された雲マーク33とがARマーカとして使用される。 The earth ball 30 is, for example, a resin-made globe, but is not limited thereto. A map of the earth is printed (drawn) on the surface of the earth ball 30. The maps printed on the Earth Ball 30 are a terrain-type continental map 31 (topographic map) that shows the land in colors according to the altitude, and a nautical chart 32 that shows the ocean in colors according to the depth of the water. (Nautical chart) and included. Therefore, in the earth ball 30, rivers, lakes, plains, mountains, deserts, etc. in the map are color-coded by terrain, and the ocean in the map is color-coded by water depth. As shown in FIG. 1, the names of continents and oceans, border lines, country names of each country, city names of each city, etc. in the map are not printed on the earth ball 30. On the other hand, a cloud mark 33 (dummy cloud image) having a cloud shape is printed on the earth ball 30 at an appropriate position on the ocean diagram 32. The cloud mark 33 is configured to imitate a cirrocumulus cloud (streak cloud), a cirrocumulus cloud (a scallop cloud, an Iwashi cloud), an altocumulus cloud (hitsuji cloud), and the like, but is not limited thereto. In the earth ball 30 having such a configuration, the continental map 31 and the ocean map 32 and the cloud mark 33 drawn on the ocean map 32 are used as AR markers.

図2は、サーバ10及びユーザ端末20の構成例を示すブロック図である。サーバ10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、サーバ10が行う種々の情報処理及び制御処理等を行う。 FIG. 2 is a block diagram showing a configuration example of the server 10 and the user terminal 20. The server 10 includes a control unit 11, a storage unit 12, a communication unit 13, an input unit 14, a display unit 15, a reading unit 16, and the like, and each of these units is connected to each other via a bus. The control unit 11 includes one or a plurality of processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit). The control unit 11 appropriately executes the control program 12P stored in the storage unit 12 to perform various information processing and control processing performed by the server 10.

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、後述する気象コンテンツDB(データベース)12aを記憶する。気象コンテンツDB12aは、サーバ10に接続された他の記憶装置に記憶されてもよく、サーバ10が通信可能な他の記憶装置に記憶されてもよい。 The storage unit 12 includes a RAM (Random Access Memory), a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 12 stores in advance various data and the like necessary for executing the control program 12P and the control program 12P executed by the control unit 11. Further, the storage unit 12 temporarily stores data or the like generated when the control unit 11 executes the control program 12P. Further, the storage unit 12 stores the weather content DB (database) 12a described later. The weather content DB 12a may be stored in another storage device connected to the server 10, or may be stored in another storage device with which the server 10 can communicate.

通信部13は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して他の装置との間で情報の送受信を行う。入力部14は、サーバ10を操作するユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。 The communication unit 13 is an interface for connecting to the network N by wired communication or wireless communication, and transmits / receives information to / from another device via the network N. The input unit 14 receives an operation input by a user who operates the server 10 and sends a control signal corresponding to the operation content to the control unit 11. The display unit 15 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11. The input unit 14 and the display unit 15 may be a touch panel configured as one.

読み取り部16は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部16を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部13を介して他の装置からダウンロードして記憶部12に記憶してもよい。 The reading unit 16 stores information stored in a portable storage medium 1a including a CD (Compact Disc) -ROM, a DVD (Digital Versatile Disc) -ROM, a USB (Universal Serial Bus) memory, an SD (Secure Digital) card, and the like. read. The control program 12P and various data stored in the storage unit 12 may be read by the control unit 11 from the portable storage medium 1a via the reading unit 16 and stored in the storage unit 12. Further, the control program 12P and various data stored in the storage unit 12 may be downloaded from another device by the control unit 11 via the communication unit 13 and stored in the storage unit 12.

ユーザ端末20は、制御部21、記憶部22、通信部23、入力部24、表示部25、カメラ26等を含み、これらの各部はバスを介して相互に接続されている。ユーザ端末20の制御部21、記憶部22、通信部23、入力部24及び表示部25のそれぞれは、サーバ10の制御部11、記憶部12、通信部13、入力部14及び表示部15と同様の構成であるので詳細な説明は省略する。なお、ユーザ端末20の記憶部22は、制御部21が実行する制御プログラム22Pに加え、アースボール30を撮影した場合に、撮影画像中のアースボール30にAR画像を重畳させて表示するためのARアプリケーションプログラム22AP(以下ではARアプリ22APと呼ぶ)を記憶する。ARアプリ22APは、制御部21が通信部23を介して他の装置からダウンロードして記憶部22に記憶(インストール)してもよい。また、ユーザ端末20が可搬型記憶媒体に記憶された情報を読み取る読取部を備える場合、ARアプリ22APは、制御部21が読取部を介して可搬型記憶媒体から読み取って記憶部22に記憶(インストール)してもよい。 The user terminal 20 includes a control unit 21, a storage unit 22, a communication unit 23, an input unit 24, a display unit 25, a camera 26, and the like, and each of these units is connected to each other via a bus. Each of the control unit 21, the storage unit 22, the communication unit 23, the input unit 24, and the display unit 25 of the user terminal 20 includes the control unit 11, the storage unit 12, the communication unit 13, the input unit 14, and the display unit 15 of the server 10. Since it has the same configuration, detailed description will be omitted. In addition to the control program 22P executed by the control unit 21, the storage unit 22 of the user terminal 20 displays the AR image superimposed on the earth ball 30 in the captured image when the earth ball 30 is photographed. The AR application program 22AP (hereinafter referred to as AR application 22AP) is stored. The AR application 22AP may be downloaded from another device by the control unit 21 via the communication unit 23 and stored (installed) in the storage unit 22. Further, when the user terminal 20 includes a reading unit that reads information stored in the portable storage medium, the AR application 22AP is stored in the storage unit 22 by the control unit 21 reading from the portable storage medium via the reading unit. (Install) may be done.

カメラ26は、制御部21からの指示に従って撮影を行う撮像装置であり、取得した撮影画像(画像データ)を記憶部22へ送出して記憶させる。カメラ26は、ユーザ端末20に内蔵されていてもよく、ユーザ端末20に外付けされていてもよい。外付けされる場合、ユーザ端末20は、外部カメラの接続が可能な接続部、又は外部カメラとの無線通信が可能な無線通信部を備え、外部カメラが撮影した画像データを接続部又は無線通信部を介して取得する。 The camera 26 is an image pickup device that shoots according to an instruction from the control unit 21, and sends the acquired captured image (image data) to the storage unit 22 for storage. The camera 26 may be built in the user terminal 20 or may be externally attached to the user terminal 20. When externally attached, the user terminal 20 includes a connection unit to which an external camera can be connected or a wireless communication unit capable of wireless communication with the external camera, and the image data taken by the external camera is connected to the connection unit or wireless communication. Get through the department.

ユーザ端末20は、表示部25にゴーグル型又は眼鏡型のヘッドマウントディスプレイを使用するHMD(Head Mounted Display)型の情報機器であってもよい。この場合、入力部24に、音声入力を行うマイク、又はユーザの視線を検知する視線入力装置等を使用することが望ましい。ユーザ端末20は、カメラ26及び表示部25を有する情報機器であれば、どのような機器でもよい。 The user terminal 20 may be an HMD (Head Mounted Display) type information device that uses a goggle-type or eyeglass-type head-mounted display for the display unit 25. In this case, it is desirable to use a microphone for voice input, a line-of-sight input device for detecting the user's line of sight, or the like for the input unit 24. The user terminal 20 may be any device as long as it is an information device having a camera 26 and a display unit 25.

図3は気象コンテンツDB12aの構成例を示す模式図である。本実施形態の気象コンテンツDB12aは、アースボール30の撮影画像に重畳させて表示するための種々の気象コンテンツ(気象画像)を記憶している。本実施形態のARシステムでは、アースボール30の撮影画像に重畳させて表示する気象コンテンツとして、世界(地球上)の雲分布を示す雲分布画像、世界の雨量分布(降水量分布)を示す雨量分布画像、及び世界の気温分布を示す気温分布画像を用いる。よって、気象コンテンツDB12aは、雲分布画像を記憶する雲分布画像DBと、雨量分布画像を記憶する雨量分布画像DBと、気温分布画像を記憶する気温分布画像DBとを含む。なお、気象コンテンツは、雲分布画像、雨量分布画像及び気温分布画像に限定されず、その他の気象情報に関する画像コンテンツを含んでもよい。本実施形態では、雲分布画像DB、雨量分布画像DB、及び気温分布画像DBは各別のDBで構成されている例を示すが、1つのDBに雲分布画像、雨量分布画像及び気温分布画像が記憶されていてもよい。 FIG. 3 is a schematic diagram showing a configuration example of the weather content DB 12a. The weather content DB 12a of the present embodiment stores various weather contents (weather images) to be superimposed and displayed on the captured image of the earth ball 30. In the AR system of the present embodiment, as meteorological contents to be superimposed and displayed on the captured image of the earth ball 30, a cloud distribution image showing the cloud distribution in the world (on the earth) and a rainfall showing the rainfall distribution (precipitation distribution) in the world are shown. A distribution image and a temperature distribution image showing the world temperature distribution are used. Therefore, the meteorological content DB 12a includes a cloud distribution image DB that stores a cloud distribution image, a rainfall distribution image DB that stores a rainfall distribution image, and a temperature distribution image DB that stores a temperature distribution image. The meteorological content is not limited to the cloud distribution image, the rainfall distribution image, and the temperature distribution image, and may include other image contents related to meteorological information. In the present embodiment, an example in which the cloud distribution image DB, the rainfall distribution image DB, and the temperature distribution image DB are composed of different DBs is shown, but the cloud distribution image, the rainfall distribution image, and the temperature distribution image are contained in one DB. May be remembered.

図3Aに示す雲分布画像DBは、画像ID列、日時列、雲分布画像列等を含み、画像IDに対応付けて、日時及び雲分布画像のデータを記憶する。画像ID列は、雲分布画像に割り当てられた識別情報(画像ID)を記憶する。日時列及び雲分布画像列はそれぞれ、日時と各日時における雲分布画像のデータとを記憶する。なお、雲分布画像のデータは、記憶部12の所定領域又は他の記憶装置に記憶されており、雲分布画像列は、雲分布画像のデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。雲分布画像DBに記憶される画像IDは、制御部11が気象サーバ40から新たな雲分布画像のデータを取得した場合に、制御部11によって発行されて記憶される。雲分布画像DBに記憶される日時及び雲分布画像のデータは、制御部11が気象サーバ40から取得した場合に、制御部11によって記憶される。なお、制御部11は、気象サーバ40から雲分布画像のデータと共に、各雲分布画像が収集された日時の情報も取得する。雲分布画像DBの記憶内容は図3Aに示す例に限定されず、雲分布及び雲分布画像に関する各種の情報を記憶することができる。 The cloud distribution image DB shown in FIG. 3A includes an image ID string, a date and time column, a cloud distribution image string, and the like, and stores date and time and cloud distribution image data in association with the image ID. The image ID column stores the identification information (image ID) assigned to the cloud distribution image. The date and time sequence and the cloud distribution image string store the date and time and the cloud distribution image data at each date and time, respectively. The data of the cloud distribution image is stored in a predetermined area of the storage unit 12 or another storage device, and the cloud distribution image sequence indicates information for reading out the data of the cloud distribution image (for example, a storage location of the data). File name) is memorized. The image ID stored in the cloud distribution image DB is issued and stored by the control unit 11 when the control unit 11 acquires data of a new cloud distribution image from the meteorological server 40. The date and time and the cloud distribution image data stored in the cloud distribution image DB are stored by the control unit 11 when the control unit 11 acquires it from the meteorological server 40. The control unit 11 acquires not only the cloud distribution image data but also the date and time information when each cloud distribution image was collected from the meteorological server 40. The storage content of the cloud distribution image DB is not limited to the example shown in FIG. 3A, and various information regarding the cloud distribution and the cloud distribution image can be stored.

雨量分布画像DB及び気温分布画像DBは、雲分布画像DBと同様の構成を有する。具体的には、図3Bに示す雨量分布画像DBは、画像ID列、日時列、雨量分布画像列等を含み、画像IDに対応付けて、日時及び雨量分布画像のデータを記憶する。図3Cに示す気温分布画像DBは、画像ID列、日時列、気温分布画像列等を含み、画像IDに対応付けて、日時及び気温分布画像のデータを記憶する。雨量分布画像及び気温分布画像は、雲分布画像と同様に、それぞれの分布画像のデータと共に、分布画像が収集された日時の情報を制御部11が気象サーバ40から取得する。雨量分布画像DBの記憶内容は図3Bに示す例に限定されず、気温分布画像DBの記憶内容は図3Cに示す例に限定されない。 The rainfall distribution image DB and the temperature distribution image DB have the same configuration as the cloud distribution image DB. Specifically, the rainfall distribution image DB shown in FIG. 3B includes an image ID string, a date and time column, a rainfall distribution image string, and the like, and stores date and time and rainfall distribution image data in association with the image ID. The temperature distribution image DB shown in FIG. 3C includes an image ID string, a date and time column, a temperature distribution image string, and the like, and stores date and time and temperature distribution image data in association with the image ID. As for the rainfall distribution image and the temperature distribution image, the control unit 11 acquires the information of the date and time when the distribution image was collected together with the data of each distribution image from the meteorological server 40 as in the cloud distribution image. The stored content of the rainfall distribution image DB is not limited to the example shown in FIG. 3B, and the stored content of the temperature distribution image DB is not limited to the example shown in FIG. 3C.

以下に、本実施形態のARシステムにおいて、サーバ10が気象サーバ40から気象コンテンツ(雲分布画像、雨量分布画像及び気温分布画像)を取得(ダウンロード)する処理について説明する。図4は気象コンテンツの取得処理手順の一例を示すフローチャート、図5は雲分布画像例を示す模式図である。図4では左側にサーバ10が行う処理を、右側に気象サーバ40が行う処理をそれぞれ示す。以下の処理は、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。 Hereinafter, in the AR system of the present embodiment, a process in which the server 10 acquires (downloads) meteorological contents (cloud distribution image, rain amount distribution image, and temperature distribution image) from the meteorological server 40 will be described. FIG. 4 is a flowchart showing an example of a weather content acquisition processing procedure, and FIG. 5 is a schematic diagram showing an example of a cloud distribution image. In FIG. 4, the processing performed by the server 10 is shown on the left side, and the processing performed by the weather server 40 is shown on the right side. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the server 10. A part of the following processing may be realized by a dedicated hardware circuit.

本実施形態のARシステムにおいて、気象サーバ40は、提供対象の気象コンテンツ(雲分布画像、雨量分布画像及び気温分布画像)を定期的に(例えば1時間毎に)追加する。サーバ10の制御部11は、定期的に(例えば1時間毎に)気象サーバ40から気象コンテンツ(雲分布画像、雨量分布画像及び気温分布画像)をダウンロードする。これにより、サーバ10は、気象サーバ40が提供する気象コンテンツを逐次ダウンロードして記憶部12に蓄積することができる。なお、雲分布画像、雨量分布画像及び気温分布画像の各気象コンテンツは、それぞれ異なる気象サーバ40からダウンロードされてもよく、同じ気象サーバ40からダウンロードされてもよい。 In the AR system of the present embodiment, the meteorological server 40 periodically (for example, every hour) adds meteorological contents (cloud distribution image, rainfall distribution image, and temperature distribution image) to be provided. The control unit 11 of the server 10 periodically (for example, every hour) downloads meteorological contents (cloud distribution image, rainfall distribution image, and temperature distribution image) from the meteorological server 40. As a result, the server 10 can sequentially download the weather contents provided by the weather server 40 and store them in the storage unit 12. The weather contents of the cloud distribution image, the rainfall distribution image, and the temperature distribution image may be downloaded from different weather servers 40 or may be downloaded from the same weather server 40.

サーバ10の制御部11は、いずれかの気象コンテンツ(雲分布画像、雨量分布画像、又は気温分布画像)について、気象サーバ40からダウンロードするタイミングであるか否かを判断する(S11)。サーバ10は、それぞれの気象コンテンツに対して、ダウンロードタイミングを予め記憶部12に記憶しており、制御部11は、それぞれの気象コンテンツについて、記憶部12に記憶してあるダウンロードタイミングが到来したか否かを判断する。例えば1日に1回ダウンロードする場合、1日のうちの所定時刻がダウンロードタイミングとして設定され、1日に所定回ダウンロードする場合、1日のうちの所定個の時刻がダウンロードタイミングとして設定される。 The control unit 11 of the server 10 determines whether or not it is time to download any of the meteorological contents (cloud distribution image, rainfall distribution image, or temperature distribution image) from the meteorological server 40 (S11). The server 10 stores the download timing for each weather content in the storage unit 12 in advance, and the control unit 11 has reached the download timing stored in the storage unit 12 for each weather content. Judge whether or not. For example, when downloading once a day, a predetermined time of the day is set as the download timing, and when downloading once a day, a predetermined time of the day is set as the download timing.

ダウンロードタイミングが到来していないと判断した場合(S11:NO)、制御部11は、ダウンロードタイミングが到来するまで、他の処理を行いつつ待機する。ダウンロードタイミングが到来したと判断した場合(S11:YES)、制御部11は、ダウンロードすべき気象コンテンツの最新データを、この気象コンテンツを提供する気象サーバ40に要求する(S12)。なお、制御部11は、既に気象コンテンツDB12aに記憶してある各気象コンテンツと、気象サーバ40が提供可能な気象コンテンツとを比較し、ダウンロードしていない気象コンテンツを気象サーバ40に要求してもよい。 When it is determined that the download timing has not arrived (S11: NO), the control unit 11 waits while performing other processing until the download timing arrives. When it is determined that the download timing has arrived (S11: YES), the control unit 11 requests the latest data of the weather content to be downloaded from the weather server 40 that provides the weather content (S12). Even if the control unit 11 compares each weather content already stored in the weather content DB 12a with the weather content that can be provided by the weather server 40, and requests the weather server 40 for the weather content that has not been downloaded. good.

気象サーバ40は、サーバ10から要求された気象コンテンツを記憶部(図示せず)から読み出し(S13)、ネットワークN経由でサーバ10へ送信する(S14)。具体的には、気象サーバ40は、雲分布画像を要求された場合、雲分布画像の最新データをサーバ10へ送信し、雨量分布画像を要求された場合、雨量分布画像の最新データをサーバ10へ送信し、気温分布画像を要求された場合、気温分布画像の最新データをサーバ10へ送信する。図5は雲分布画像例を示しており、雲分布画像は、例えば正距円筒図法で表した世界地図上に、雲分布を示す画像を重畳させた画像である。図5に示す例ではハッチングを付した箇所が雲を表している。同様に、雨量分布画像は、正距円筒図法で表した世界地図上に、雨量分布を示す画像を重畳させた画像であり、気温分布画像は、正距円筒図法で表した世界地図上に、気温分布を示す画像を重畳させた画像である。 The weather server 40 reads the weather content requested from the server 10 from the storage unit (not shown) (S13) and transmits it to the server 10 via the network N (S14). Specifically, the meteorological server 40 transmits the latest data of the cloud distribution image to the server 10 when the cloud distribution image is requested, and the latest data of the rainfall distribution image is transmitted to the server 10 when the rainfall distribution image is requested. When the temperature distribution image is requested, the latest data of the temperature distribution image is transmitted to the server 10. FIG. 5 shows an example of a cloud distribution image, and the cloud distribution image is an image in which an image showing a cloud distribution is superimposed on a world map represented by, for example, an equirectangular projection. In the example shown in FIG. 5, the hatched portion represents a cloud. Similarly, the rainfall distribution image is an image in which an image showing the rainfall distribution is superimposed on a world map represented by the regular distance cylindrical projection, and the temperature distribution image is an image on the world map represented by the regular distance cylindrical projection. It is an image in which an image showing a temperature distribution is superimposed.

気象サーバ40から提供される気象コンテンツは、それぞれの気象情報を示す気象画像のデータに、このデータが取得された日時を対応付けたものである。従って、サーバ10の制御部11は、気象サーバ40から気象コンテンツを取得することにより、日時の情報と、各日時に取得された気象画像のデータとを取得できる。よって、制御部11は、気象サーバ40から気象コンテンツを取得した場合、画像IDを発行し、発行した画像IDに対応付けて、気象コンテンツに含まれる日時及び気象画像のデータを気象コンテンツDB12aに記憶する(S15)。具体的には、制御部11は、気象コンテンツとして雲分布画像を受信した場合、画像IDに対応付けて日時及び雲分布画像のデータを雲分布画像DBに記憶する。同様に、制御部11は、雨量分布画像を受信した場合、画像IDに対応付けて日時及び雨量分布画像のデータを雨量分布画像DBに記憶し、気温分布画像を受信した場合、画像IDに対応付けて日時及び気温分布画像のデータを気温分布画像DBに記憶する。 The meteorological content provided from the meteorological server 40 associates the date and time when this data was acquired with the meteorological image data showing each meteorological information. Therefore, the control unit 11 of the server 10 can acquire the date and time information and the weather image data acquired at each date and time by acquiring the weather content from the weather server 40. Therefore, when the weather content is acquired from the weather server 40, the control unit 11 issues an image ID, and stores the date and time included in the weather content and the weather image data in the weather content DB 12a in association with the issued image ID. (S15). Specifically, when the control unit 11 receives the cloud distribution image as the meteorological content, the control unit 11 stores the date and time and the cloud distribution image data in the cloud distribution image DB in association with the image ID. Similarly, when the control unit 11 receives the rain amount distribution image, the date and time and the data of the rain amount distribution image are stored in the rain amount distribution image DB in association with the image ID, and when the temperature distribution image is received, the control unit 11 corresponds to the image ID. The date and time and the data of the temperature distribution image are stored in the temperature distribution image DB.

上述した処理により、サーバ10は、気象サーバ40で定期的に更新される気象コンテンツを、逐次取得して気象コンテンツDB12aに蓄積することができる。具体的には、サーバ10は、気象画像(雲分布画像、雨量分布画像及び気温分布画像)の時系列データをダウンロードして、各気象画像に日時情報を付与して気象コンテンツDB12aに記憶することができる。このようにサーバ10が気象サーバ40から収集した気象コンテンツは、ユーザ端末20を用いてアースボール30が撮影された場合に、アースボール30の撮影画像に重ねて表示されるAR画像に用いられる。 By the above-mentioned processing, the server 10 can sequentially acquire the meteorological contents that are periodically updated by the meteorological server 40 and store them in the meteorological content DB 12a. Specifically, the server 10 downloads time-series data of meteorological images (cloud distribution image, rainfall distribution image, and temperature distribution image), adds date and time information to each meteorological image, and stores it in the meteorological content DB 12a. Can be done. The meteorological content collected by the server 10 from the meteorological server 40 in this way is used for the AR image displayed on the photographed image of the earth ball 30 when the earth ball 30 is photographed by using the user terminal 20.

以下に、本実施形態のARシステムにおいて、ユーザがユーザ端末20を用いてアースボール30を撮影した場合に、アースボール30の撮影画像に、気象コンテンツを用いたAR画像を重畳させて表示する処理について説明する。図6及び図7はAR画像の表示処理手順の一例を示すフローチャート、図8及び図10はAR画像の表示例を示す模式図、図9はAR画像を説明するための模式図である。図6及び図7では左側にユーザ端末20が行う処理を、右側にサーバ10が行う処理をそれぞれ示す。以下の処理は、ユーザ端末20の記憶部22に記憶してある制御プログラム22P及びARアプリ22APに従って制御部21によって実行され、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。 Hereinafter, in the AR system of the present embodiment, when the user photographs the earth ball 30 using the user terminal 20, the process of superimposing the AR image using the meteorological content on the photographed image of the earth ball 30 and displaying it. Will be explained. 6 and 7 are flowcharts showing an example of an AR image display processing procedure, FIGS. 8 and 10 are schematic views showing an AR image display example, and FIG. 9 is a schematic diagram for explaining an AR image. 6 and 7 show the processing performed by the user terminal 20 on the left side and the processing performed by the server 10 on the right side. The following processing is executed by the control unit 21 according to the control program 22P and the AR application 22AP stored in the storage unit 22 of the user terminal 20, and the control unit 11 is executed according to the control program 12P stored in the storage unit 12 of the server 10. Is executed by. A part of the following processing may be realized by a dedicated hardware circuit.

本実施形態のARシステムにおいて、ユーザは、例えば地球上の雲分布画像、雨量分布画像又は気温分布画像等の気象画像を見たい場合、ユーザ端末20に対して所定操作を行うことにより、ARアプリ22APの起動指示を行う。ユーザ端末20の制御部21は、入力部24を介してARアプリ22APの起動指示(起動命令)を受け付けた場合、ARアプリ22APを起動する(S21)。制御部21は、ARアプリ22APを起動した場合、カメラ26による撮影を開始する(S22)。カメラ26は、撮影を開始した場合、所定のタイミング(例えば1/30秒毎又は1/15秒毎)で撮影画像を取得する。カメラ26にて取得された撮影画像は、順次表示部25へ送出され、表示部25に表示される。図8左側にはアースボール30の撮影画像の表示画面例を示す。このようにユーザは、カメラ26でアースボール30を撮影しながら、アースボール30の撮影画像を表示部25で確認することができる。なお、撮影画像は、記憶部22に記憶された後に表示部25へ送出されて表示されてもよい。 In the AR system of the present embodiment, when the user wants to see a meteorological image such as a cloud distribution image, a rainfall distribution image, or a temperature distribution image on the earth, the AR application is performed by performing a predetermined operation on the user terminal 20. 22 AP activation instruction is given. When the control unit 21 of the user terminal 20 receives the activation instruction (activation command) of the AR application 22AP via the input unit 24, the control unit 21 activates the AR application 22AP (S21). When the AR application 22AP is activated, the control unit 21 starts shooting with the camera 26 (S22). When the camera 26 starts shooting, the camera 26 acquires a shot image at a predetermined timing (for example, every 1/30 second or 1/15 second). The captured images acquired by the camera 26 are sequentially sent to the display unit 25 and displayed on the display unit 25. The left side of FIG. 8 shows an example of a display screen of a photographed image of the earth ball 30. In this way, the user can confirm the captured image of the earth ball 30 on the display unit 25 while photographing the earth ball 30 with the camera 26. The captured image may be stored in the storage unit 22 and then sent to the display unit 25 for display.

また制御部21は、ARアプリ22APを起動した場合、雲分布画像(第1気象情報を示す第1気象画像)をサーバ10に要求する(S23)。具体的には、制御部21は、ARアプリ22APを起動したことを示す起動信号、又は雲分布画像のダウンロードを要求するダウンロード要求信号をサーバ10に対して送信する。なお、制御部21は、ステップS23の処理後にステップS22の処理を行ってもよい。サーバ10の制御部11は、ユーザ端末20から起動信号又は雲分布画像のダウンロード要求信号を受信した場合、雲分布画像DBに記憶してある日時を参照して、現在日時を起点として過去の24時間分の雲分布画像のデータを雲分布画像DBから読み出す(S24)。具体的には、制御部11は、雲分布画像DBに記憶してある日時のうちから、現在日時から過去の24時間に含まれる日時を抽出し、抽出した日時に対応する雲分布画像のデータを、各データの日時と共に読み出す。なお、制御部11は、24時間分の雲分布画像のデータとして、1時間毎に1枚の雲分布画像のデータを読み出してもよく、30分毎又は2時間毎に1枚の雲分布画像のデータを読み出してもよく、これらに限定されない。このとき、制御部11は、雨量分布画像及び気温分布画像のデータを雨量分布画像DB又は気温分布画像DBから読み出さずに、雲分布画像のデータのみを雲分布画像DBから読み出す。 Further, when the AR application 22AP is activated, the control unit 21 requests the server 10 for a cloud distribution image (first meteorological image showing first meteorological information) (S23). Specifically, the control unit 21 transmits an activation signal indicating that the AR application 22AP has been activated or a download request signal requesting download of the cloud distribution image to the server 10. The control unit 21 may perform the process of step S22 after the process of step S23. When the control unit 11 of the server 10 receives the start signal or the cloud distribution image download request signal from the user terminal 20, the control unit 11 refers to the date and time stored in the cloud distribution image DB, and the past 24 starting from the current date and time. The data of the cloud distribution image for the time is read from the cloud distribution image DB (S24). Specifically, the control unit 11 extracts the date and time included in the past 24 hours from the current date and time from the date and time stored in the cloud distribution image DB, and the cloud distribution image data corresponding to the extracted date and time. Is read out with the date and time of each data. The control unit 11 may read out the data of one cloud distribution image every hour as the data of the cloud distribution image for 24 hours, and one cloud distribution image every 30 minutes or every 2 hours. Data may be read out, and the present invention is not limited to these. At this time, the control unit 11 does not read the data of the rain amount distribution image and the temperature distribution image from the rain amount distribution image DB or the temperature distribution image DB, but reads only the data of the cloud distribution image from the cloud distribution image DB.

制御部11は、雲分布画像DBから読み出した24時間分の雲分布画像のデータをネットワークN経由でユーザ端末20へ送信する(S25)。このとき制御部11は、雲分布画像DBから読み出した雲分布画像のデータのそれぞれに、各データの日時を含むファイル名を付与する。例えば制御部11は、日時が2020年8月1日0:00の雲分布画像に対して、「cloud_2020-08-01-00.jpg」のファイル名を付与する。これにより、サーバ10は、ファイル名の順に(具体的には、ファイル名に含まれる日時の順に)、24時間分の雲分布画像のデータを連続して組み合わせることにより、雲分布画像の時系列データ(動画像)を生成することができる。よって、ユーザ端末20の制御部21は、図5に示すように正距円筒図法で表された雲分布画像(第1気象画像)の時系列データをサーバ10から取得(ダウンロード)することができる。ユーザ端末20の制御部21は、サーバ10から取得した雲分布画像の時系列データ(24時間分の雲分布画像のデータ)を記憶部22に記憶する(S26)。このように、本実施形態のユーザ端末20は、ARアプリ22APを起動した直後は、雨量分布画像(第2気象画像)のデータ及び気温分布画像(第3気象画像)のデータをダウンロードせずに、雲分布画像(第1気象画像)のデータのみをサーバ10からダウンロードする。また、このときユーザ端末20は、24時間分の雲分布画像のデータをサーバ10から取得する構成とするが、このような構成に限定されない。例えば、ユーザ端末20は、ARアプリ22APを起動した直後に、24時間以外の所定期間分の雲分布画像のデータをサーバ10から取得してもよく、雲分布画像以外の気象画像のデータを所定期間分サーバ10から取得してもよい。またユーザ端末20は、24時間分の雲分布画像のデータ(気象情報の時系列データ)をまとめて取得しておくが、このような構成に限定されない。 The control unit 11 transmits the cloud distribution image data for 24 hours read from the cloud distribution image DB to the user terminal 20 via the network N (S25). At this time, the control unit 11 assigns a file name including the date and time of each data to each of the cloud distribution image data read from the cloud distribution image DB. For example, the control unit 11 assigns a file name of "cloud_2020-08-01-00.jpg" to the cloud distribution image whose date and time is 0:00 on August 1, 2020. As a result, the server 10 continuously combines the data of the cloud distribution image for 24 hours in the order of the file name (specifically, the order of the date and time included in the file name), so that the time series of the cloud distribution image is used. Data (moving images) can be generated. Therefore, the control unit 21 of the user terminal 20 can acquire (download) the time-series data of the cloud distribution image (first meteorological image) represented by the equirectangular projection as shown in FIG. 5 from the server 10. .. The control unit 21 of the user terminal 20 stores the time-series data (cloud distribution image data for 24 hours) of the cloud distribution image acquired from the server 10 in the storage unit 22 (S26). As described above, the user terminal 20 of the present embodiment does not download the data of the rain amount distribution image (second meteorological image) and the data of the temperature distribution image (third meteorological image) immediately after activating the AR application 22AP. , Only the data of the cloud distribution image (first meteorological image) is downloaded from the server 10. Further, at this time, the user terminal 20 is configured to acquire the cloud distribution image data for 24 hours from the server 10, but the configuration is not limited to such a configuration. For example, the user terminal 20 may acquire cloud distribution image data for a predetermined period other than 24 hours from the server 10 immediately after starting the AR application 22AP, and may obtain weather image data other than the cloud distribution image. It may be acquired from the server 10 for a period. Further, the user terminal 20 collectively acquires cloud distribution image data (time-series data of meteorological information) for 24 hours, but is not limited to such a configuration.

制御部21は、カメラ26により撮影したアースボール30の撮影画像を取得する(S27)。そして制御部21は、取得したアースボール30の撮影画像中のARマーカを認識し、認識したARマーカに基づいて、アースボール30における撮影範囲(撮影領域)を特定する(S28)。アースボール30の表面に印刷されている各ARマーカには、それぞれ地球上の位置情報(経度及び緯度の情報)が対応付けられており、各ARマーカ及び位置情報の対応情報は、ARアプリ22AP内に設定されている。よって、制御部21は、アースボール30の撮影画像中に認識したARマーカに対応付けられている位置情報(経度及び緯度の情報)を特定し、特定結果に基づいて、アースボール30の撮影範囲を特定することができる。例えば制御部21は、アースボール30の撮影画像の画像中心(中心位置)に対応する位置情報(経度及び緯度の情報)と、撮影画像の上方向に対応する方角とを特定することにより、アースボール30の撮影範囲を特定する。図8左側に示すアースボール30の撮影画面では、制御部21は、例えば画像中心Pの位置情報と、撮影画像の上方向に対応する方角が北であることを特定する。 The control unit 21 acquires a photographed image of the earth ball 30 photographed by the camera 26 (S27). Then, the control unit 21 recognizes the AR marker in the captured image of the earth ball 30, and identifies the imaging range (imaging area) in the earth ball 30 based on the recognized AR marker (S28). Each AR marker printed on the surface of the earth ball 30 is associated with position information (longitude and latitude information) on the earth, and the corresponding information of each AR marker and position information is the AR application 22AP. It is set in. Therefore, the control unit 21 identifies the position information (longitude and latitude information) associated with the AR marker recognized in the captured image of the earth ball 30, and based on the specific result, the imaging range of the earth ball 30. Can be identified. For example, the control unit 21 grounds by specifying the position information (longitude and latitude information) corresponding to the image center (center position) of the captured image of the earth ball 30 and the direction corresponding to the upward direction of the captured image. The shooting range of the ball 30 is specified. On the shooting screen of the earth ball 30 shown on the left side of FIG. 8, the control unit 21 specifies, for example, the position information of the image center P and the direction corresponding to the upward direction of the shot image is north.

アースボール30の撮影画像の画像中心に対応する位置情報の特定処理では、例えば制御部21は、円形のアースボール30の撮影画像の中心位置(中心位置の画素)を特定し、特定した中心位置にあるARマーカを特定する。そして制御部21は、特定したARマーカに対応付けられている位置情報を読み出すことにより、画像中心に対応する位置情報を特定できる。なお、特定した中心位置にARマーカが無い場合、制御部21は、中心位置の近傍にある所定数(例えば2つ)のARマーカを特定する。この場合、制御部21は、特定した所定数のARマーカ及び中心位置における画像中の位置関係と、各ARマーカの位置情報(経度及び緯度の情報)とに基づいて、画像中心に対応する位置情報を算出する。例えば2つのARマーカを用いる場合、制御部21は、2つのARマーカの画像中の位置と、2つのARマーカに対応付けられている経度及び緯度とに基づいて、画像中の左右方向及び上下方向の1画素分に対応する経度及び緯度の変化量を算出する。そして制御部21は、一方のARマーカの画像中の位置並びに経度及び緯度と、アースボール30の中心位置とに基づいて、中心位置(画像中心)に対応する位置情報(経度及び緯度)を算出する。なお、アースボール30の撮影画像の画像中心に対応する位置情報の算出方法は、2つのARマーカを用いる方法に限定されない。例えば撮影画像の上方向に対応する方角が特定されていれば、1つのARマーカを用いて、アースボール30の撮影画像の画像中心に対応する位置情報を特定することができる。また、3つ以上のARマーカを用いて、アースボール30の撮影画像の画像中心に対応する位置情報を算出してもよい。また、アースボール30の撮影画像の上方向に対応する方角の特定処理では、例えば制御部21は、任意の2つのARマーカを特定し、特定したARマーカの位置情報(経度及び緯度)に基づいて、撮影画像の上方向に対応する方角を特定できる。 In the process of specifying the position information corresponding to the image center of the captured image of the earth ball 30, for example, the control unit 21 specifies the center position (pixel of the center position) of the captured image of the circular earth ball 30, and the specified center position. Identify the AR marker at. Then, the control unit 21 can specify the position information corresponding to the center of the image by reading the position information associated with the specified AR marker. When there is no AR marker at the specified center position, the control unit 21 specifies a predetermined number (for example, two) of AR markers in the vicinity of the center position. In this case, the control unit 21 has a position corresponding to the center of the image based on the positional relationship in the image at the specified predetermined number of AR markers and the center position and the position information (longitude and latitude information) of each AR marker. Calculate the information. For example, when two AR markers are used, the control unit 21 determines the positions of the two AR markers in the image and the longitude and latitude associated with the two AR markers in the horizontal direction and up and down in the image. The amount of change in longitude and latitude corresponding to one pixel in the direction is calculated. Then, the control unit 21 calculates the position information (longitude and latitude) corresponding to the center position (image center) based on the position, longitude and latitude of one AR marker in the image and the center position of the earth ball 30. do. The method of calculating the position information corresponding to the image center of the captured image of the earth ball 30 is not limited to the method using two AR markers. For example, if the direction corresponding to the upward direction of the captured image is specified, the position information corresponding to the image center of the captured image of the earth ball 30 can be specified by using one AR marker. Further, the position information corresponding to the image center of the captured image of the earth ball 30 may be calculated by using three or more AR markers. Further, in the process of specifying the direction corresponding to the upward direction of the captured image of the earth ball 30, for example, the control unit 21 identifies two arbitrary AR markers and is based on the position information (longitude and latitude) of the specified AR markers. Therefore, the direction corresponding to the upward direction of the captured image can be specified.

制御部21は、サーバ10から取得した雲分布画像のデータと、ステップS28で特定したアースボール30の撮影範囲とに基づいて、アースボール30の撮影画像に重ねて表示させるAR画像を生成する(S29)。まず制御部21は、雲分布画像のデータから、特定したアースボール30の撮影範囲に対応する領域を抽出する。具体的には、制御部21は、特定した画像中心Pの位置情報(経度及び緯度)を中央位置とする半球領域を特定し、特定した半球領域に含まれる画像を雲分布画像から抽出する。そして制御部21は、抽出した半球領域の雲分布画像を、アースボール30の撮影画像の円形に表示するために、円形画像に変形する。これにより、制御部21は、図9に示すように、正距円筒図法で表された矩形の雲分布画像から、撮影画像中のアースボール30に描かられている画像(地図)に合致するように雲分布画像の一部を抽出して円形の雲分布画像を生成(補正)することができる。制御部21は、サーバ10から取得した24時間分の雲分布画像のデータのそれぞれについて、円形の雲分布画像を生成することにより、円形の雲分布画像の時系列データ(動画データ)を生成する。なお、制御部21は、例えば地球上において雲分布画像のデータがない地域がある場合、このような地域にダミーの雲画像を追加して雲分布画像を生成してもよい。 The control unit 21 generates an AR image to be superimposed and displayed on the captured image of the earth ball 30 based on the data of the cloud distribution image acquired from the server 10 and the imaging range of the earth ball 30 specified in step S28 (. S29). First, the control unit 21 extracts a region corresponding to the photographing range of the specified earth ball 30 from the data of the cloud distribution image. Specifically, the control unit 21 specifies a hemisphere region whose center position is the position information (longitude and latitude) of the specified image center P, and extracts an image included in the specified hemisphere region from the cloud distribution image. Then, the control unit 21 transforms the extracted cloud distribution image of the hemispherical region into a circular image in order to display the image taken by the earth ball 30 in a circular shape. As a result, as shown in FIG. 9, the control unit 21 matches the image (map) drawn on the earth ball 30 in the captured image from the rectangular cloud distribution image represented by the equirectangular projection. It is possible to generate (correct) a circular cloud distribution image by extracting a part of the cloud distribution image. The control unit 21 generates time-series data (movie data) of the circular cloud distribution image by generating a circular cloud distribution image for each of the 24-hour cloud distribution image data acquired from the server 10. .. If there is an area on the earth where there is no cloud distribution image data, the control unit 21 may add a dummy cloud image to such an area to generate a cloud distribution image.

そして、制御部21は、表示部25に表示中のアースボール30の撮影画像に、生成したAR画像を重ねて表示する(S30)。これにより、図8右側に示すように、アースボール30の撮影画像に対して、円形に処理された雲分布画像のAR画像を重ねて表示することができる。なお、制御部21は、例えばコンピュータグラフィックスによるレンダリング機能(テクスチャマッピング)を利用して、雲分布画像から、アースボール30の撮影画像に重ねて表示するAR画像を生成してもよい。この場合、制御部21は、雲分布画像のデータからの抽出領域として、ステップS28で特定したアースボール30の撮影範囲をレンダリングエンジンに指定する。これにより、レンダリングエンジンが、アースボール30の撮影画像の各画素に雲分布画像の各画素をマッピングし、その結果、アースボール30の撮影画像に雲分布画像によるAR画像が重ねて表示される。このような処理を行う場合、制御部21は、ステップS29~S30の処理をまとめて実行する。 Then, the control unit 21 superimposes and displays the generated AR image on the captured image of the earth ball 30 displayed on the display unit 25 (S30). As a result, as shown on the right side of FIG. 8, the AR image of the cloud distribution image processed in a circle can be superimposed and displayed on the captured image of the earth ball 30. The control unit 21 may generate an AR image to be displayed by superimposing it on the captured image of the earth ball 30 from the cloud distribution image, for example, by using a rendering function (texture mapping) by computer graphics. In this case, the control unit 21 designates the shooting range of the earth ball 30 specified in step S28 to the rendering engine as the extraction region from the cloud distribution image data. As a result, the rendering engine maps each pixel of the cloud distribution image to each pixel of the captured image of the earth ball 30, and as a result, the AR image of the cloud distribution image is superimposed and displayed on the captured image of the earth ball 30. When performing such processing, the control unit 21 collectively executes the processing of steps S29 to S30.

なお、制御部21は、生成した円形の雲分布画像の時系列データのうちの1つの雲分布画像(例えば最初の雲分布画像)を重ねて表示してもよく、それぞれの雲分布画像を順次切り替えて24時間分の雲分布画像をコマ送り方式で連続して表示してもよい。制御部21が最新の雲分布画像をアースボール30の撮影画像に重ねて表示する場合、ユーザはリアルタイムで地球上の雲分布を見ることができる。また制御部21は、図8右側の画面に示すように、アースボール30の撮影画像に重ねて表示した雲分布画像に対応する日時を、AR画像に対応付けて表示してもよい。上述した処理により、制御部21は、正距円筒図法の各雲分布画像を、撮影画像中のアースボール30の全体を覆い、かつ、アースボール30の撮影画像(即ち、アースボール30の撮影範囲内の地図等)に合致するように補正しながら、時系列で連続する補正後の雲分布画像を連続して再生することができる。 The control unit 21 may superimpose and display one cloud distribution image (for example, the first cloud distribution image) of the time-series data of the generated circular cloud distribution image, and sequentially displays each cloud distribution image. It may be switched and the cloud distribution image for 24 hours may be continuously displayed by the frame-by-frame method. When the control unit 21 superimposes the latest cloud distribution image on the captured image of the earth ball 30, the user can see the cloud distribution on the earth in real time. Further, as shown in the screen on the right side of FIG. 8, the control unit 21 may display the date and time corresponding to the cloud distribution image displayed superimposed on the captured image of the earth ball 30 in association with the AR image. By the above-mentioned processing, the control unit 21 covers each cloud distribution image of the equirectangular projection over the entire ground ball 30 in the captured image, and the captured image of the earth ball 30 (that is, the imaging range of the earth ball 30). It is possible to continuously reproduce the corrected cloud distribution image in chronological order while correcting it so as to match the map in the map, etc.).

制御部21は、カメラ26にて順次撮影するアースボール30の撮影画像に基づいて、アースボール30の撮影範囲が変更されたか否かを判断する(S31)。例えば制御部21は、カメラ26を介して順次取得するアースボール30の撮影画像について、前後の撮影画像における差異を算出し、算出した差異に基づいて、アースボール30の撮影範囲が変更されたか否かを判断する。アースボール30の撮影範囲が変更されたと判断した場合(S31:YES)、制御部21は、ステップS27の処理に戻り、変更後の撮影範囲に対して、カメラ26にてアースボール30の撮影画像を取得する(S27)。そして制御部21は、取得した撮影画像に基づいて、ステップS28~S30の処理を行うことにより、変更後のアースボール30の撮影範囲に対応する雲分布画像のAR画像を生成して、アースボール30の撮影画像に重ねて表示することができる。制御部21は、アースボール30に対する撮影範囲が変更される都度、ステップS27~S30の処理を繰り返す。これにより、適宜変更されるアースボール30の撮影範囲に応じて、アースボール30の撮影画像の中心位置をリアルタイムで特定し、特定した中心位置(アースボール30の撮影範囲)に基づいて、雲分布画像からAR画像を生成できる。よって、適宜変更される撮影範囲に含まれる場所(位置情報)における雲分布画像のAR画像を、アースボール30の撮影画像に重ねて表示することができる。よって、ユーザがアースボール30を手に持って回す、又はカメラ26によるアースボール30の撮影方向を変更した場合、アースボール30の撮影範囲が変更され、変更された撮影範囲に応じて、アースボール30の撮影画像に重畳されるAR画像(気象コンテンツ)がリアルタイムで更新される。 The control unit 21 determines whether or not the shooting range of the ground ball 30 has been changed based on the shot images of the ground ball 30 sequentially shot by the camera 26 (S31). For example, the control unit 21 calculates the difference between the captured images of the earth ball 30 sequentially acquired via the camera 26, and whether or not the imaging range of the earth ball 30 is changed based on the calculated difference. To judge. When it is determined that the shooting range of the earth ball 30 has been changed (S31: YES), the control unit 21 returns to the process of step S27, and the camera 26 takes a shot image of the ground ball 30 with respect to the changed shooting range. (S27). Then, the control unit 21 generates an AR image of the cloud distribution image corresponding to the changed shooting range of the earth ball 30 by performing the processes of steps S28 to S30 based on the acquired shot image, and the ground ball. It can be superimposed and displayed on the captured images of 30. The control unit 21 repeats the processes of steps S27 to S30 each time the shooting range for the earth ball 30 is changed. As a result, the center position of the captured image of the earth ball 30 is specified in real time according to the shooting range of the earth ball 30 which is appropriately changed, and the cloud distribution is based on the specified center position (shooting range of the earth ball 30). AR images can be generated from images. Therefore, the AR image of the cloud distribution image at the place (position information) included in the shooting range that is appropriately changed can be displayed superimposed on the shooting image of the earth ball 30. Therefore, when the user holds the earth ball 30 in his hand and turns it, or changes the shooting direction of the ground ball 30 by the camera 26, the shooting range of the ground ball 30 is changed, and the ground ball is changed according to the changed shooting range. The AR image (weather content) superimposed on the 30 captured images is updated in real time.

図8右側に示す画面では、アースボール30の撮影画像に重ねて表示するAR画像として雲分布画像、雨量分布画像又は気温分布画像のいずれかを選択するための画像切替ボタンB1が表示されている。画像切替ボタンB1は、雲分布画像(第1気象画像)を選択するための雲画像アイコンと、雨量分布画像(第2気象画像)を選択するための雨量画像アイコンと、気温分布画像(第3気象画像)を選択するための気温画像アイコンとを有する。画像切替ボタンB1は、図10左側の画面に示すように雲画像アイコンが前面に表示されている状態でユーザによるタッチ操作が行われた場合、図10の右上の画面に示すように雨量画像アイコンが前面に表示された状態となる。また、画像切替ボタンB1は、図10右上の画面に示すように雨量画像アイコンが前面に表示されている状態でユーザによるタッチ操作が行われた場合、図10右下の画面に示すように気温画像アイコンが前面に表示された状態となる。このように画像切替ボタンB1は、ユーザによるタッチ操作が行われる都度、雲分布画像、雨量分布画像、気温分布画像の順に、表示対象の画像を切り替える切替指示を行うことができる。 On the screen shown on the right side of FIG. 8, an image switching button B1 for selecting either a cloud distribution image, a rainfall distribution image, or a temperature distribution image as an AR image to be displayed superimposed on the captured image of the earth ball 30 is displayed. .. The image switching button B1 has a cloud image icon for selecting a cloud distribution image (first meteorological image), a rain amount image icon for selecting a rain amount distribution image (second meteorological image), and a temperature distribution image (third). It has a temperature image icon for selecting a meteorological image). The image switching button B1 is a rainfall image icon as shown in the upper right screen of FIG. 10 when a user touch operation is performed while the cloud image icon is displayed in the front as shown in the screen on the left side of FIG. Is displayed in the foreground. Further, when the user touches the image switching button B1 while the rainfall image icon is displayed on the front as shown in the upper right screen of FIG. 10, the temperature is as shown in the lower right screen of FIG. The image icon is displayed in the foreground. In this way, the image switching button B1 can give a switching instruction to switch the image to be displayed in the order of the cloud distribution image, the rainfall distribution image, and the temperature distribution image each time the user performs a touch operation.

よって、制御部21は、撮影範囲が変更されていないと判断した場合(S31:NO)、例えば画像切替ボタンB1が操作されたか否かを判断する(S32)。画像切替ボタンB1が操作されたと判断した場合(S32:YES)、制御部21は、操作回数に応じて、雨量分布画像(第2気象画像)又は気温分布画像(第3気象画像)をサーバ10に要求する(S33)。なお、制御部21は、雲画像アイコンが前面に表示されている状態の画像切替ボタンB1が1回操作された場合、雨量分布画像を要求し、2回操作された場合、気温分布画像を要求する。画像切替ボタンB1が操作されていないと判断した場合(S32:NO)、制御部21はステップS42の処理に移行する。 Therefore, when it is determined that the shooting range has not been changed (S31: NO), the control unit 21 determines, for example, whether or not the image switching button B1 has been operated (S32). When it is determined that the image switching button B1 has been operated (S32: YES), the control unit 21 uses the server 10 for a rainfall distribution image (second meteorological image) or a temperature distribution image (third meteorological image) according to the number of operations. (S33). The control unit 21 requests a rainfall distribution image when the image switching button B1 with the cloud image icon displayed on the front is operated once, and requests a temperature distribution image when the image switching button B1 is operated twice. do. When it is determined that the image switching button B1 is not operated (S32: NO), the control unit 21 shifts to the process of step S42.

サーバ10の制御部11は、ユーザ端末20から雨量分布画像又は気温分布画像を要求された場合、直近の24時間分の雨量分布画像又は気温分布画像のデータを雨量分布画像DB又は気温分布画像DBから読み出す(S34)。具体的には、制御部11は、雨量分布画像DB又は気温分布画像DBに記憶してある日時を参照して、現在日時から過去の24時間に含まれる日時に対応する雨量分布画像又は気温分布画像のデータを読み出す。制御部11は、読み出した24時間分の雨量分布画像又は気温分布画像のデータをユーザ端末20へ送信する(S35)。このときも、制御部11は、読み出した雨量分布画像のデータのそれぞれに、各データの日時を含むファイル名を付与し、気温分布画像のデータのそれぞれに、各データの日時を含むファイル名を付与する。これにより、サーバ10は、24時間分の雨量分布画像又は気温分布画像のデータを連続して組み合わせることにより、雨量分布画像又は気温分布画像の時系列データ(動画像)を生成することができる。なお、雨量分布画像及び気温分布画像は、図5に示す雲分布画像と同様に正距円筒図法で表される。 When the control unit 11 of the server 10 requests a rainfall distribution image or a temperature distribution image from the user terminal 20, the control unit 11 uses the data of the rainfall distribution image or the temperature distribution image for the latest 24 hours as the rainfall distribution image DB or the temperature distribution image DB. Read from (S34). Specifically, the control unit 11 refers to the date and time stored in the rainfall distribution image DB or the temperature distribution image DB, and refers to the rainfall distribution image or the temperature distribution corresponding to the date and time included in the past 24 hours from the current date and time. Read image data. The control unit 11 transmits the read data of the rainfall distribution image or the temperature distribution image for 24 hours to the user terminal 20 (S35). Also at this time, the control unit 11 assigns a file name including the date and time of each data to each of the read rain amount distribution image data, and assigns a file name including the date and time of each data to each of the temperature distribution image data. Give. As a result, the server 10 can generate time-series data (moving image) of the rainfall distribution image or the temperature distribution image by continuously combining the data of the rainfall distribution image or the temperature distribution image for 24 hours. The rainfall distribution image and the temperature distribution image are represented by an equirectangular projection similar to the cloud distribution image shown in FIG.

ユーザ端末20の制御部21は、サーバ10が送信した24時間分の雨量分布画像又は気温分布画像のデータ(雨量分布画像又は気温分布画像の時系列データ)を取得し、記憶部22に記憶する(S36)。そして、制御部21は、ステップS27~S28と同様の処理を行い、カメラ26によってアースボール30の撮影画像を取得し(S37)、アースボール30の撮影画像中のARマーカに基づいて、アースボール30における撮影範囲を特定する(S38)。 The control unit 21 of the user terminal 20 acquires data (time-series data of the rainfall distribution image or the temperature distribution image) of the rainfall distribution image or the temperature distribution image for 24 hours transmitted by the server 10 and stores it in the storage unit 22. (S36). Then, the control unit 21 performs the same processing as in steps S27 to S28, acquires a photographed image of the earth ball 30 by the camera 26 (S37), and based on the AR marker in the photographed image of the earth ball 30, the earth ball The shooting range in 30 is specified (S38).

次に制御部21は、サーバ10から取得した雨量分布画像又は気温分布画像のデータと、ステップS38で特定したアースボール30の撮影範囲とに基づいて、アースボール30の撮影画像に重ねて表示させるAR画像を生成する(S39)。ここでの処理は、処理対象が雲分布画像のデータから雨量分布画像又は気温分布画像のデータに変更されるだけで、ステップS29と同様である。これにより、雨量分布画像又は気温分布画像のデータについても、図9に示すように、正距円筒図法で表された矩形の分布画像から、分布画像の一部が抽出された円形の分布画像が生成される。 Next, the control unit 21 superimposes the data of the rainfall distribution image or the temperature distribution image acquired from the server 10 on the photographed image of the earth ball 30 based on the imaging range of the earth ball 30 specified in step S38. Generate an AR image (S39). The processing here is the same as in step S29, except that the processing target is changed from the data of the cloud distribution image to the data of the rainfall distribution image or the temperature distribution image. As a result, as for the data of the rainfall distribution image or the temperature distribution image, as shown in FIG. 9, a circular distribution image obtained by extracting a part of the distribution image from the rectangular distribution image represented by the equirectangular projection method is obtained. Generated.

そして制御部21は、表示部25に表示中のアースボール30の撮影画像に、生成したAR画像を重ねて表示する(S40)。これにより、図10左側の画面のように雲分布画像(AR画像)が表示されている状態で画像切替ボタンB1が1回操作された場合、アースボール30の撮影画像に重ねて表示されるAR画像が、図10右上の画面のように雨量分布画像に切り替えられる。また、図10左側の画面のように雲分布画像(AR画像)が表示されている状態で画像切替ボタンB1が2回操作された場合、又は、図10右上の画面のように雨量分布画像(AR画像)が表示されている状態で画像切替ボタンB1が1回操作された場合、AR画像が、図10右下の画面のように気温分布画像に切り替えられる。なお、図10右下の画面では、各気温をそれぞれ異なるハッチングで示した気温分布を表示しているが、気温分布は、各気温をそれぞれ異なる色で示したヒートマップを用いてもよい。 Then, the control unit 21 superimposes and displays the generated AR image on the captured image of the earth ball 30 displayed on the display unit 25 (S40). As a result, when the image switching button B1 is operated once while the cloud distribution image (AR image) is displayed as shown in the screen on the left side of FIG. 10, the AR displayed overlaid on the captured image of the earth ball 30. The image is switched to a rainfall distribution image as shown in the screen on the upper right of FIG. Further, when the image switching button B1 is operated twice while the cloud distribution image (AR image) is displayed as shown in the screen on the left side of FIG. 10, or when the rainfall distribution image (AR image) is displayed as shown in the upper right screen of FIG. When the image switching button B1 is operated once while the AR image) is displayed, the AR image is switched to the temperature distribution image as shown in the lower right screen of FIG. Although the lower right screen of FIG. 10 displays the temperature distribution in which each temperature is shown by different hatching, a heat map in which each temperature is shown in different colors may be used for the temperature distribution.

アースボール30の撮影画像に雨量分布画像又は気温分布画像のAR画像を重ねて表示している場合でも、制御部21は、カメラ26にて順次撮影するアースボール30の撮影画像に基づいて、アースボール30の撮影範囲が変更されたか否かを判断する(S41)。そして、アースボール30の撮影範囲が変更されたと判断した場合(S41:YES)、制御部21は、ステップS37の処理に戻り、変更後の撮影範囲に対して、ステップS37~S40の処理を行う。これにより、制御部21は、変更後のアースボール30の撮影範囲に対応する雨量分布画像又は気温分布画像のAR画像を生成して、アースボール30の撮影画像に重ねて表示することができる。よって、雨量分布画像又は気温分布画像についても、適宜変更されるアースボール30の撮影範囲に応じて、撮影範囲に含まれる場所(位置情報)に対応するAR画像がアースボール30の撮影画像に重ねて表示される。この場合にも、ユーザがアースボール30を手に持って回す、又はカメラ26によるアースボール30の撮影方向を変更することによってアースボール30の撮影範囲が変更された場合に、変更された撮影範囲に応じて、アースボール30の撮影画像に重畳されるAR画像(気象コンテンツ)がリアルタイムで更新される。 Even when the AR image of the rain amount distribution image or the temperature distribution image is superimposed and displayed on the photographed image of the earth ball 30, the control unit 21 grounds based on the photographed image of the earth ball 30 sequentially photographed by the camera 26. It is determined whether or not the shooting range of the ball 30 has been changed (S41). Then, when it is determined that the shooting range of the earth ball 30 has been changed (S41: YES), the control unit 21 returns to the process of step S37 and performs the processes of steps S37 to S40 for the changed shooting range. .. As a result, the control unit 21 can generate an AR image of the rainfall distribution image or the temperature distribution image corresponding to the shooting range of the ground ball 30 after the change, and display it on the shot image of the ground ball 30. Therefore, with respect to the rainfall distribution image or the temperature distribution image, the AR image corresponding to the place (position information) included in the shooting range is superimposed on the shot image of the earth ball 30 according to the shooting range of the earth ball 30 which is appropriately changed. Is displayed. Also in this case, when the shooting range of the earth ball 30 is changed by the user holding the ground ball 30 in his hand or changing the shooting direction of the ground ball 30 by the camera 26, the changed shooting range is changed. The AR image (weather content) superimposed on the captured image of the earth ball 30 is updated in real time accordingly.

制御部21は、撮影範囲が変更されていないと判断した場合(S41:NO)、例えば入力部24を介して処理の終了が指示されたか否かを判断する(S42)。処理の終了が指示されていないと判断した場合(S42:NO)、制御部21は、ステップS32に戻り、上述した処理を繰り返す。処理の終了が指示されたと判断した場合(S42:YES)、制御部21は処理を終了する。上述した処理により、時々刻々と変化する地球上の気象に関する気象コンテンツを、アースボール30の撮影画像に重ねて表示されるAR画像にて確認することができる。またユーザは、気象コンテンツを見たい場所を、アースボール30上の場所を撮影することで指定することができるので、ユーザが所望する気象コンテンツを容易に表示させることができる。また、撮影中のアースボール30をユーザが手に持って回す等することによって、アースボール30の撮影範囲を変更することができるので、AR画像を表示中であっても、ユーザが所望する場所の気象コンテンツをリアルタイムで更新することができる。 When the control unit 21 determines that the shooting range has not been changed (S41: NO), the control unit 21 determines, for example, whether or not the end of the process is instructed via the input unit 24 (S42). If it is determined that the end of the process has not been instructed (S42: NO), the control unit 21 returns to step S32 and repeats the above-mentioned process. When it is determined that the end of the process is instructed (S42: YES), the control unit 21 ends the process. By the above-mentioned processing, the meteorological content related to the earth's weather, which changes from moment to moment, can be confirmed in the AR image displayed superimposed on the photographed image of the earth ball 30. Further, since the user can specify the place where he / she wants to see the weather content by photographing the place on the earth ball 30, the weather content desired by the user can be easily displayed. Further, since the shooting range of the ground ball 30 can be changed by the user holding the ground ball 30 during shooting and turning it in his / her hand, the place desired by the user even while the AR image is being displayed. Meteorological content can be updated in real time.

次に、上述したAR画像の表示処理の実行中に、アースボール30の撮影画像に、気象コンテンツを用いたAR画像に加えて、国境線及び国名を表示するための国境線画像を用いたAR画像を重畳させて表示する処理について説明する。本実施形態のユーザ端末20は、入力部24を介したユーザの操作に応じて、国境線画像のAR画像を、アースボール30の撮影画像及び気象コンテンツのAR画像に重ねて表示するか、表示しないかを切り替えることができるように構成されている。図11は国境線画像によるAR画像の表示処理手順の一例を示すフローチャート、図12はAR画像の表示例を示す模式図である。なお、図示は省略するが、国境線画像は、図9の上側に示す雲分布画像のように、正距円筒図法で表された矩形の地図に、地図中の国境線及び各国の国名が記載された地図画像である。国境線画像は、ARアプリ22APに予め登録されている。また国境線画像は、国境線及び国名に加えて、地図中の大陸及び海洋の名称、各都市の都市名等を含んでいてもよい。以下の処理は、ユーザ端末20の記憶部22に記憶してある制御プログラム22P及びARアプリ22APに従って制御部21によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。 Next, during the execution of the AR image display process described above, in addition to the AR image using the meteorological content, the AR image using the border line image for displaying the border line and the country name is used for the captured image of the earth ball 30. The process of superimposing and displaying images will be described. The user terminal 20 of the present embodiment displays or displays the AR image of the border line image on the photographed image of the earth ball 30 and the AR image of the weather content in response to the user's operation via the input unit 24. It is configured so that it can be switched between not and not. FIG. 11 is a flowchart showing an example of an AR image display processing procedure using a borderline image, and FIG. 12 is a schematic diagram showing an AR image display example. Although not shown, the border image is a rectangular map represented by equirectangular projection, like the cloud distribution image shown on the upper side of FIG. 9, in which the border line in the map and the country names of each country are described. It is a map image made. The border image is registered in advance in the AR application 22AP. In addition to the border line and the country name, the border line image may include the names of the continents and oceans in the map, the city names of each city, and the like. The following processing is executed by the control unit 21 according to the control program 22P and the AR application 22AP stored in the storage unit 22 of the user terminal 20. A part of the following processing may be realized by a dedicated hardware circuit.

ユーザ端末20の制御部21は、例えば図6及び図7中のステップS30又はS40において、雲分布画像、雨量分布画像又は気温分布画像等の気象コンテンツを用いたAR画像を、アースボール30の撮影画像に重ねて表示している場合(S51)、以下の処理を行う。図12左側には、図8右側の画面と同様に、アースボール30の撮影画像に雲分布画像(AR画像)が重ねて表示された画面を示す。図12等に示すようにAR画像の表示画面では、アースボール30の撮影画像に、国境線画像のAR画像を重ねて表示するか、表示しないかを選択するための国境線切替ボタンB2が表示されている。図12左側の画面では、国境線切替ボタンB2は、国境線画像を表示しない状態(OFF状態)であることを示しており、この状態でユーザによるタッチ操作が行われた場合、図12右側の画面のように国境線画像を重ねて表示する状態(ON状態)に切り替えられる。また国境線切替ボタンB2は、図12右側の画面に示すようにON状態が選択されている状態でユーザによるタッチ操作が行われた場合、図12左側の画面に示すようにOFF状態が選択された状態となる。従って、国境線切替ボタンB2は、ユーザによるタッチ操作が行われる都度、国境線画像の表示及び非表示を順に切り替える切替命令を受け付けることができる。 The control unit 21 of the user terminal 20 captures an AR image using meteorological contents such as a cloud distribution image, a rainfall distribution image, or a temperature distribution image in steps S30 or S40 in FIGS. 6 and 7, for example, by taking an AR image of the earth ball 30. When the image is superimposed on the image (S51), the following processing is performed. Similar to the screen on the right side of FIG. 8, the left side of FIG. 12 shows a screen in which a cloud distribution image (AR image) is superimposed on the captured image of the earth ball 30. As shown in FIG. 12 and the like, on the AR image display screen, the border line switching button B2 for selecting whether to display or not display the AR image of the border line image superimposed on the captured image of the earth ball 30 is displayed. Has been done. On the screen on the left side of FIG. 12, the border line switching button B2 indicates that the border line image is not displayed (OFF state), and when a touch operation is performed by the user in this state, the border line image is displayed on the right side of FIG. It can be switched to a state (ON state) in which borderline images are superimposed and displayed like a screen. Further, when the user touches the border line switching button B2 while the ON state is selected as shown in the screen on the right side of FIG. 12, the OFF state is selected as shown in the screen on the left side of FIG. It will be in a state of being. Therefore, the border line switching button B2 can receive a switching command for sequentially switching the display and non-display of the border line image each time the user performs a touch operation.

よって、制御部21は、アースボール30の撮影画像に気象コンテンツのAR画像を重ねて表示している場合に、国境線切替ボタンB2が操作されたか否かを判断する(S52)。制御部21は、国境線切替ボタンB2が操作されていないと判断した場合(S52:NO)、操作されたと判断するまで、図6及び図7の処理を含む他の処理を行いつつ待機する。国境線切替ボタンB2が操作されたと判断した場合(S52:YES)、制御部21は、国境線画像を表示するON状態に切り替える指示を受け付けたか否かを判断する(S53)。具体的には、制御部21は、OFF状態が選択されているときに国境線切替ボタンB2が操作された場合、ON状態への切替指示を受け付け、ON状態が選択されているときに国境線切替ボタンB2が操作された場合、OFF状態への切替指示を受け付ける。 Therefore, the control unit 21 determines whether or not the border line switching button B2 has been operated when the AR image of the weather content is superimposed and displayed on the captured image of the earth ball 30 (S52). When the control unit 21 determines that the border line switching button B2 has not been operated (S52: NO), the control unit 21 waits while performing other processing including the processing of FIGS. 6 and 7 until it is determined that the border line switching button B2 has been operated. When it is determined that the border line switching button B2 has been operated (S52: YES), the control unit 21 determines whether or not the instruction to switch to the ON state for displaying the border line image has been accepted (S53). Specifically, the control unit 21 receives an instruction to switch to the ON state when the border line switching button B2 is operated while the OFF state is selected, and the border line when the ON state is selected. When the switching button B2 is operated, an instruction to switch to the OFF state is received.

ON状態への切替指示を受け付けたと判断した場合(S53:YES)、即ち、図12左側に示すように国境線画像を表示しないOFF状態が選択されている状態で国境線切替ボタンB2が操作された場合、制御部21は、国境線画像を読み出す(S54)。そして制御部21は、図6及び図7中のステップS28又はS38で特定したアースボール30の撮影範囲に基づいて、アースボール30の撮影画像に重ねて表示させる国境線画像のAR画像を生成する(S55)。ここでは、制御部21は、国境線画像のデータから、アースボール30の撮影範囲に対応する半球領域の画像を抽出し、抽出した半球領域の国境線画像を、アースボール30の撮影画像の円形に表示するために円形画像に変形する。これにより、制御部21は、正距円筒図法で表された矩形の国境線画像から、この国境線画像の一部が抽出された円形の国境線画像を生成する。 When it is determined that the instruction to switch to the ON state has been accepted (S53: YES), that is, the border line switching button B2 is operated while the OFF state in which the border line image is not displayed is selected as shown on the left side of FIG. If so, the control unit 21 reads out the border line image (S54). Then, the control unit 21 generates an AR image of the border line image to be displayed superimposed on the captured image of the earth ball 30 based on the imaging range of the earth ball 30 specified in steps S28 or S38 in FIGS. 6 and 7. (S55). Here, the control unit 21 extracts an image of the hemispherical region corresponding to the shooting range of the earth ball 30 from the data of the border line image, and the extracted border line image of the hemisphere region is a circle of the shot image of the earth ball 30. Transforms into a circular image for display in. As a result, the control unit 21 generates a circular borderline image in which a part of the borderline image is extracted from the rectangular borderline image represented by the equirectangular projection.

そして、制御部21は、表示部25に表示中のアースボール30の撮影画像に、生成した国境線画像のAR画像を重ねて表示する(S56)。ここでは、制御部21は、図6及び図7中のステップS30又はS40で気象コンテンツのAR画像を重ねて表示したアースボール30の撮影画像に、更に重ねて国境線画像のAR画像を表示する。なお、国境線画像のAR画像は、気象コンテンツのAR画像の上に重ねて表示してもよく、気象コンテンツのAR画像の下でアースボール30の撮影画像の上に重ねて表示してもよい。これにより、図12右側に示すように、アースボール30の撮影画像に対して、円形に処理された気象コンテンツのAR画像と、国境線画像のAR画像とを重ねて表示することができる。 Then, the control unit 21 superimposes and displays the AR image of the generated border line image on the photographed image of the earth ball 30 displayed on the display unit 25 (S56). Here, the control unit 21 displays the AR image of the border line image on the captured image of the earth ball 30 on which the AR image of the meteorological content is superimposed and displayed in steps S30 or S40 in FIGS. 6 and 7. .. The AR image of the border line image may be displayed on top of the AR image of the weather content, or may be displayed on top of the captured image of the earth ball 30 under the AR image of the weather content. .. As a result, as shown on the right side of FIG. 12, the AR image of the weather content processed in a circle and the AR image of the border line image can be superimposed and displayed on the captured image of the earth ball 30.

制御部21は、カメラ26にて順次撮影するアースボール30の撮影画像に基づいて、アースボール30の撮影範囲が変更されたか否かを判断する(S57)。アースボール30の撮影範囲が変更されたと判断した場合(S57:YES)、制御部21は、図6及び図7中のステップS27~S29又はS37~S39と同様に、変更後の撮影範囲に対して、カメラ26にてアースボール30の撮影画像を取得し(S58)、撮影画像に基づいてアースボール30の撮影範囲を特定し(S59)、変更後のアースボール30の撮影範囲に対応する気象コンテンツのAR画像を生成する(S60)。そして制御部21は、ステップS55の処理に戻り、変更後のアースボール30の撮影範囲に対応する国境線画像のAR画像を生成し(S55)、表示中のアースボール30の撮影画像に、生成した気象コンテンツのAR画像及び国境線画像のAR画像を重ねて表示する(S56)。 The control unit 21 determines whether or not the shooting range of the ground ball 30 has been changed based on the shot images of the ground ball 30 sequentially shot by the camera 26 (S57). When it is determined that the shooting range of the earth ball 30 has been changed (S57: YES), the control unit 21 refers to the changed shooting range as in steps S27 to S29 or S37 to S39 in FIGS. 6 and 7. Then, the photographed image of the earth ball 30 is acquired by the camera 26 (S58), the photographing range of the earth ball 30 is specified based on the photographed image (S59), and the weather corresponding to the photographed range of the earth ball 30 after the change. Generate an AR image of the content (S60). Then, the control unit 21 returns to the process of step S55, generates an AR image of the border line image corresponding to the changed shooting range of the earth ball 30 (S55), and generates the AR image of the ground ball 30 being displayed. The AR image of the meteorological content and the AR image of the border line image are superimposed and displayed (S56).

アースボール30の撮影範囲が変更されていないと判断した場合(S57:NO)、制御部21は、例えば入力部24を介して処理の終了が指示されたか否かを判断する(S61)。処理の終了が指示されていないと判断した場合(S61:NO)、制御部21は、ステップS57に戻り、上述した処理を繰り返す。処理の終了が指示されたと判断した場合(S61:YES)、制御部21は処理を終了する。上述した処理により、ユーザ端末20のカメラ26で撮影したアースボール30の撮影範囲が変更される都度、アースボール30の撮影範囲に応じたAR画像を重ねて表示することができる。また、気象コンテンツのAR画像に加えて、国境線画像のAR画像をアースボール30の撮影画像に重ねて表示することができる。 When it is determined that the photographing range of the earth ball 30 has not been changed (S57: NO), the control unit 21 determines whether or not the end of the process is instructed via, for example, the input unit 24 (S61). If it is determined that the end of the process has not been instructed (S61: NO), the control unit 21 returns to step S57 and repeats the above-mentioned process. When it is determined that the end of the process is instructed (S61: YES), the control unit 21 ends the process. By the above-mentioned processing, each time the shooting range of the earth ball 30 shot by the camera 26 of the user terminal 20 is changed, the AR image corresponding to the shooting range of the ground ball 30 can be superimposed and displayed. Further, in addition to the AR image of the meteorological content, the AR image of the border line image can be superimposed on the captured image of the earth ball 30 and displayed.

一方、OFF状態への切替指示を受け付けたと判断した場合(S53:NO)、即ち、図12右側に示すように国境線画像を表示するON状態が選択されている状態で国境線切替ボタンB2が操作された場合、制御部21は、国境線画像のAR画像の表示を終了する(S62)。即ち、制御部21は、アースボール30の撮影画像に気象コンテンツのAR画像のみを重ねて表示する。 On the other hand, when it is determined that the instruction to switch to the OFF state has been accepted (S53: NO), that is, the border line switching button B2 is selected while the ON state for displaying the border line image is selected as shown on the right side of FIG. When operated, the control unit 21 ends the display of the AR image of the border line image (S62). That is, the control unit 21 superimposes only the AR image of the meteorological content on the captured image of the earth ball 30 and displays it.

そして制御部21は、カメラ26にて順次撮影するアースボール30の撮影画像に基づいて、アースボール30の撮影範囲が変更されたか否かを判断する(S63)。アースボール30の撮影範囲が変更されたと判断した場合(S63:YES)、制御部21は、ステップS58~S60と同様に、変更後の撮影範囲に対して、カメラ26にてアースボール30の撮影画像を取得し(S64)、撮影画像に基づいてアースボール30の撮影範囲を特定し(S65)、変更後のアースボール30の撮影範囲に対応する気象コンテンツのAR画像を生成する(S66)。そして制御部21は、表示中のアースボール30の撮影画像に、生成した気象コンテンツのAR画像を重ねて表示し(S67)、ステップS63の処理に戻る。 Then, the control unit 21 determines whether or not the shooting range of the ground ball 30 has been changed based on the shot images of the ground ball 30 sequentially shot by the camera 26 (S63). When it is determined that the shooting range of the earth ball 30 has been changed (S63: YES), the control unit 21 shoots the ground ball 30 with the camera 26 with respect to the changed shooting range as in steps S58 to S60. An image is acquired (S64), the shooting range of the earth ball 30 is specified based on the shot image (S65), and an AR image of meteorological content corresponding to the changed shooting range of the earth ball 30 is generated (S66). Then, the control unit 21 superimposes the AR image of the generated meteorological content on the captured image of the earth ball 30 being displayed (S67), and returns to the process of step S63.

アースボール30の撮影範囲が変更されていないと判断した場合(S63:NO)、制御部21は、例えば入力部24を介して処理の終了が指示されたか否かを判断する(S68)。処理の終了が指示されていないと判断した場合(S68:NO)、制御部21は、ステップS63に戻り、上述した処理を繰り返す。処理の終了が指示されたと判断した場合(S68:YES)、制御部21は処理を終了する。上述した処理により、アースボール30の撮影画像に気象コンテンツのAR画像を重ねて表示している場合に、入力部24を介したユーザの操作に応じて、国境線画像のAR画像を追加で表示するか否かを切り替えることができる。よって、国境線画像のAR画像も表示した場合には、地球上の気象コンテンツを、国境線及び国名等と共に確認することができ、見易い気象コンテンツの提供が可能となる。なお、国境線画像のAR画像が表示されている場合でも、アースボール30の撮影範囲が変更される都度、アースボール30の撮影範囲に応じた気象コンテンツのAR画像及び国境線画像のAR画像がリアルタイムで切り替えられて表示される。よって、ユーザは、アースボール30の撮影範囲を変更することによって、気象コンテンツを見たい場所を容易に指定することができる。 When it is determined that the photographing range of the earth ball 30 has not been changed (S63: NO), the control unit 21 determines whether or not the end of the process is instructed via, for example, the input unit 24 (S68). If it is determined that the end of the process has not been instructed (S68: NO), the control unit 21 returns to step S63 and repeats the above-mentioned process. When it is determined that the end of the process is instructed (S68: YES), the control unit 21 ends the process. By the above-mentioned processing, when the AR image of the meteorological content is superimposed and displayed on the captured image of the earth ball 30, the AR image of the border line image is additionally displayed according to the user's operation via the input unit 24. You can switch whether to do it or not. Therefore, when the AR image of the border line image is also displayed, the weather content on the earth can be confirmed together with the border line, the country name, and the like, and the weather content that is easy to see can be provided. Even if the AR image of the border line image is displayed, each time the shooting range of the earth ball 30 is changed, the AR image of the weather content and the AR image of the border line image according to the shooting range of the earth ball 30 are displayed. It is switched and displayed in real time. Therefore, the user can easily specify the place where he / she wants to see the weather content by changing the shooting range of the earth ball 30.

次に、上述したAR画像の表示処理の実行中に、アースボール30の撮影画像に重ねて表示される気象コンテンツとして、24時間分の気象コンテンツと1週間分の気象コンテンツとを切り替える処理について説明する。本実施形態のユーザ端末20は、入力部24を介したユーザの操作に応じて、アースボール30の撮影画像に重ねて表示する気象コンテンツを、24時間分の気象コンテンツ又は1週間分の気象コンテンツのいずれかに切り替えることができるように構成されている。以下では、アースボール30の撮影画像に重ねて表示する気象コンテンツとして、24時間分の気象コンテンツ及び1週間分の気象コンテンツを用いるが、他の所定期間の気象コンテンツを用いてもよい。 Next, a process of switching between 24-hour weather content and one-week weather content as the weather content displayed superimposed on the captured image of the earth ball 30 during the execution of the AR image display process described above will be described. do. The user terminal 20 of the present embodiment displays the weather content to be superimposed on the captured image of the earth ball 30 according to the user's operation via the input unit 24 for 24 hours of weather content or one week's worth of weather content. It is configured to be able to switch to either. In the following, as the weather content to be displayed superimposed on the captured image of the earth ball 30, the weather content for 24 hours and the weather content for one week are used, but the weather content for another predetermined period may be used.

図13はAR画像の切替処理手順の一例を示すフローチャート、図14はAR画像の表示例を示す模式図である。図13では左側にユーザ端末20が行う処理を、右側にサーバ10が行う処理をそれぞれ示す。以下の処理は、ユーザ端末20の記憶部22に記憶してある制御プログラム22P及びARアプリ22APに従って制御部21によって実行され、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。 FIG. 13 is a flowchart showing an example of the AR image switching processing procedure, and FIG. 14 is a schematic diagram showing a display example of the AR image. In FIG. 13, the processing performed by the user terminal 20 is shown on the left side, and the processing performed by the server 10 is shown on the right side. The following processing is executed by the control unit 21 according to the control program 22P and the AR application 22AP stored in the storage unit 22 of the user terminal 20, and the control unit 11 is executed according to the control program 12P stored in the storage unit 12 of the server 10. Is executed by. A part of the following processing may be realized by a dedicated hardware circuit.

ユーザ端末20の制御部21は、例えば図6及び図7中のステップS30又はS40において、雲分布画像、雨量分布画像又は気温分布画像等の気象コンテンツを用いたAR画像を、アースボール30の撮影画像に重ねて表示している場合(S71)、以下の処理を行う。図14左側には、図12右側の画面と同様に、アースボール30の撮影画像に雲分布画像のAR画像及び国境線画像のAR画像が重ねて表示された画面を示す。図14等に示すようにAR画像の表示画面では、アースボール30の撮影画像に重ねて表示されるAR画像として、24時間分の気象コンテンツ(気象画像)を表示するか、1週間分の気象コンテンツ(気象画像)を表示するかを選択するための再生切替ボタンB3が表示されている。図14左側の画面では、再生切替ボタンB3は、24時間分の気象画像が表示された状態であることを示しており、この状態でユーザによるタッチ操作が行われた場合、図14右側の画面のように1週間分の気象画像の再生処理を指示するための再生操作ボタンB4に切り替えられる。なお、再生操作ボタンB4は、所定の操作が行われた場合に、図14左側の画面のように24時間分の気象画像の再生処理を指示するための再生切替ボタンB3に切り替えられるように構成されている。 The control unit 21 of the user terminal 20 captures an AR image using meteorological contents such as a cloud distribution image, a rainfall distribution image, or a temperature distribution image in steps S30 or S40 in FIGS. 6 and 7, for example, by taking an AR image of the earth ball 30. When the image is superimposed on the image (S71), the following processing is performed. Similar to the screen on the right side of FIG. 12, the left side of FIG. 14 shows a screen in which the AR image of the cloud distribution image and the AR image of the border line image are superimposed on the captured image of the earth ball 30. As shown in FIG. 14 and the like, on the AR image display screen, 24-hour weather content (weather image) is displayed as an AR image superimposed on the captured image of the earth ball 30, or one week's weather is displayed. A playback switching button B3 for selecting whether to display the content (weather image) is displayed. On the screen on the left side of FIG. 14, the playback switching button B3 indicates that the weather image for 24 hours is displayed, and when a touch operation is performed by the user in this state, the screen on the right side of FIG. 14 It is switched to the reproduction operation button B4 for instructing the reproduction processing of the meteorological image for one week like. The playback operation button B4 is configured to be switched to the playback switching button B3 for instructing the playback processing of the weather image for 24 hours as shown in the screen on the left side of FIG. 14 when a predetermined operation is performed. Has been done.

よって、制御部21は、アースボール30の撮影画像に24時間分の気象画像(気象コンテンツ)のAR画像を重ねて表示している場合に、再生切替ボタンB3が操作されたか否かを判断する(S72)。制御部21は、再生切替ボタンB3が操作されていないと判断した場合(S72:NO)、操作されたと判断するまで、図6及び図7の処理を含む他の処理を行いつつ待機する。再生切替ボタンB3が操作されたと判断した場合(S72:YES)、制御部21は、表示中の気象情報について1週間分の気象画像をサーバ10に要求する(S73)。例えば、表示中のAR画像が雲分布画像(第1気象画像)である場合、制御部21は、1週間分の雲分布画像(第1気象画像)のみをサーバ10に要求する。また、表示中のAR画像が雨量分布画像(第2気象画像)又は気温分布画像(第3気象画像)である場合、制御部21は、1週間分の雨量分布画像(第2気象画像)又は気温分布画像(第3気象画像)のみをサーバ10に要求する。 Therefore, the control unit 21 determines whether or not the playback switching button B3 has been operated when the AR image of the weather image (weather content) for 24 hours is superimposed and displayed on the captured image of the earth ball 30. (S72). When the control unit 21 determines that the reproduction switching button B3 has not been operated (S72: NO), the control unit 21 waits while performing other processes including the processes of FIGS. 6 and 7 until it is determined that the playback switching button B3 has been operated. When it is determined that the reproduction switching button B3 has been operated (S72: YES), the control unit 21 requests the server 10 for a week's worth of weather images for the displayed weather information (S73). For example, when the AR image being displayed is a cloud distribution image (first meteorological image), the control unit 21 requests only the cloud distribution image (first meteorological image) for one week from the server 10. When the AR image being displayed is a rainfall distribution image (second meteorological image) or a temperature distribution image (third meteorological image), the control unit 21 may use the rainfall distribution image (second meteorological image) for one week or the rain distribution image (second meteorological image). Only the temperature distribution image (third meteorological image) is requested from the server 10.

サーバ10の制御部11は、ユーザ端末20から1週間分の気象画像を要求された場合、気象コンテンツDB12aに記憶してある日時を参照して、現在日時を起点として過去の1週間分の気象画像のデータを気象コンテンツDB12aから読み出す(S74)。例えば制御部11は、気象コンテンツDBに記憶してある日時のうちから、現在日時から過去の1週間に含まれる日時を抽出し、抽出した日時に対応する気象画像のデータを、各データの日時と共に読み出す。なお、制御部11は、1週間分の気象画像のデータとして、12時間毎に1枚の気象画像のデータを読み出してもよく、6時間毎に1枚の気象画像のデータを読み出してもよく、これらに限定されない。 When the user terminal 20 requests a weather image for one week, the control unit 11 of the server 10 refers to the date and time stored in the weather content DB 12a, and the weather for the past week starting from the current date and time. Image data is read from the weather content DB 12a (S74). For example, the control unit 11 extracts the date and time included in the past week from the current date and time from the date and time stored in the weather content DB, and obtains the weather image data corresponding to the extracted date and time as the date and time of each data. Read with. The control unit 11 may read out one meteorological image data every 12 hours or one meteorological image data every 6 hours as the meteorological image data for one week. , Not limited to these.

制御部11は、気象コンテンツDB12aから読み出した1週間分の気象画像のデータをネットワークN経由でユーザ端末20へ送信する(S75)。このとき制御部11は、気象コンテンツDB12aから読み出した気象画像のデータのそれぞれに、各データの日時を含むファイル名を付与し、ファイル名の順に1週間分の気象画像のデータを組み合わせることにより、気象画像の時系列データ(動画像)を生成する。よって、ユーザ端末20は、正距円筒図法で表された気象画像の時系列データをサーバ10から取得(ダウンロード)することができる。ユーザ端末20の制御部21は、サーバ10から取得した気象画像の時系列データ(1週間分の気象画像のデータ)を記憶部22に記憶する(S76)。 The control unit 11 transmits the weather image data for one week read from the weather content DB 12a to the user terminal 20 via the network N (S75). At this time, the control unit 11 assigns a file name including the date and time of each data to each of the weather image data read from the weather content DB 12a, and combines the weather image data for one week in the order of the file names. Generate time-series data (moving images) of meteorological images. Therefore, the user terminal 20 can acquire (download) the time-series data of the meteorological image represented by the equirectangular projection from the server 10. The control unit 21 of the user terminal 20 stores the time-series data of the weather image (data of the weather image for one week) acquired from the server 10 in the storage unit 22 (S76).

そして、制御部21は、図6及び図7中のステップS27~S29又はS37~S39と同様の処理を行い、カメラ26によってアースボール30の撮影画像を取得し(S77)、撮影画像に基づいてアースボール30の撮影範囲を特定し(S78)、特定した撮影範囲に基づいて、サーバ10から取得した1週間分の気象画像のデータから、アースボール30の撮影画像に重ねて表示させるAR画像を生成する(S79)。ここでは制御部21は、正距円筒図法で表された1週間分の気象画像のデータのそれぞれに基づいて円形の気象画像を生成することにより、1週間分の円形の気象画像の時系列データ(動画データ)を生成する。そして制御部21は、生成したAR画像(1週間分の気象画像のデータ)を再生するための再生画面を生成して表示部25に表示する(S80)。再生画面は、図14右側に示すように、アースボール30の撮影画像に、生成したAR画像を重ねて表示し、AR画像(1週間分の気象画像)の再生処理を指示する再生操作ボタンB4を表示する。なお、再生画面において、制御部21は、生成したAR画像(1週間分の気象画像の時系列データ)のうちの1つのAR画像(例えば最初のAR画像)を重ねて表示する。 Then, the control unit 21 performs the same processing as in steps S27 to S29 or S37 to S39 in FIGS. 6 and 7, acquires a photographed image of the earth ball 30 by the camera 26 (S77), and is based on the photographed image. The shooting range of the earth ball 30 is specified (S78), and based on the specified shooting range, an AR image to be displayed superimposed on the shot image of the earth ball 30 is displayed from the data of the weather image for one week acquired from the server 10. Generate (S79). Here, the control unit 21 generates a circular meteorological image based on each of the data of the meteorological image for one week represented by the equirectangular projection, so that the time series data of the circular meteorological image for one week is generated. Generate (video data). Then, the control unit 21 generates a reproduction screen for reproducing the generated AR image (data of the weather image for one week) and displays it on the display unit 25 (S80). As shown on the right side of FIG. 14, the playback screen displays the generated AR image superimposed on the captured image of the earth ball 30, and instructs the playback operation button B4 to play back the AR image (weather image for one week). Is displayed. In the reproduction screen, the control unit 21 superimposes and displays one AR image (for example, the first AR image) of the generated AR images (time-series data of weather images for one week).

図14右側の画面中の再生操作ボタンB4は、左から順に、AR画像の再生開始を指示するための再生ボタン、1コマ前のAR画像(1つ前のAR画面)に戻す指示を行うためのコマ戻しボタン、1コマ後のAR画像(次のAR画像)の表示を指示するためのコマ送りボタンを有し、これらのボタンの上側に、1週間分の気象画像のうちの任意の時間(時刻)を指定するためのシークバーを有する。制御部21は、再生操作ボタンB4が操作されたか否かを判断しており(S81)、再生操作ボタンB4のいずれかのボタンが操作されたと判断した場合(S81:YES)、操作されたボタンに対応する再生処理を行う(S82)。例えば再生ボタンが操作された場合、制御部21は、アースボール30の撮影画像に重ねて表示中のAR画像から順に、1週間分の気象画像を順次表示する。なお、制御部21は、1週間分の気象画像において、過去の日時から未来の日時の順に、それぞれの気象画像(AR画像)を表示する。またコマ戻しボタン又はコマ送りボタンが操作された場合、制御部21は、アースボール30の撮影画像に重ねて表示されるAR画像を、表示中のAR画像の1つ前の気象画像(AR画像)又は1つ後の気象画像(AR画像)に変更する。またシークバーが操作された場合、制御部21は、1週間のうちで、シークバーで指定された日時を特定し、特定した日時に対応する気象画像(AR画像)を、表示画面中のアースボール30の撮影画像に重ねて表示する。これにより、制御部21は、アースボール30の撮影画像に重ねて表示するAR画像に対して、再生操作ボタンB4を介して指示された再生処理を実行することができる。 The playback operation button B4 in the screen on the right side of FIG. 14 is a playback button for instructing the start of playback of the AR image in order from the left, and is for instructing to return to the AR image one frame before (the previous AR screen). It has a frame back button and a frame advance button for instructing the display of the AR image (next AR image) after one frame, and above these buttons, any time of the weather image for one week. It has a seek bar for specifying (time). The control unit 21 determines whether or not the playback operation button B4 has been operated (S81), and if it is determined that any of the playback operation buttons B4 has been operated (S81: YES), the operated button. (S82). For example, when the play button is operated, the control unit 21 sequentially displays one week's worth of meteorological images in order from the AR image being displayed on top of the captured image of the earth ball 30. The control unit 21 displays each meteorological image (AR image) in the order of the past date and time to the future date and time in the meteorological image for one week. When the frame return button or the frame advance button is operated, the control unit 21 displays the AR image displayed superimposed on the captured image of the earth ball 30 as the weather image (AR image) immediately before the displayed AR image. ) Or change to the next meteorological image (AR image). When the seek bar is operated, the control unit 21 specifies the date and time specified by the seek bar within a week, and displays the weather image (AR image) corresponding to the specified date and time on the earth ball 30 on the display screen. It is displayed overlaid on the captured image of. As a result, the control unit 21 can execute the reproduction process instructed via the reproduction operation button B4 on the AR image to be displayed superimposed on the captured image of the earth ball 30.

再生操作ボタンB4が操作されていないと判断した場合(S81:NO)、制御部21はステップS82をスキップし、例えば入力部24を介して処理の終了が指示されたか否かを判断する(S83)。処理の終了が指示されていないと判断した場合(S83:NO)、制御部21は、ステップS81に戻り、再生操作ボタンB4に対して行われた操作に応じた再生処理を繰り返す。処理の終了が指示されたと判断した場合(S83:YES)、制御部21は処理を終了する。上述した処理により、雲分布画像、雨量分布画像又は気温分布画像の各気象画像について、入力部24を介したユーザの操作に応じて、24時間分の気象画像を表示させるか、1週間分の気象画像を表示させるかを切り替えることができる。よって、ユーザが24時間分の気象画像を見たいか、1週間分の気象画像を見たいかに応じて、それぞれの気象画像をユーザに提供することができる。なお、上述したように24時間分の気象画像又は1週間分の気象画像が表示されている場合でも、アースボール30の撮影範囲が変更される都度、アースボール30の撮影範囲に応じた気象コンテンツのAR画像がリアルタイムで切り替えられて表示される。よって、ユーザがアースボール30を手に持って回す、又はカメラ26によるアースボール30の撮影方向を変更することによってアースボール30の撮影範囲を変更することにより、変更された撮影範囲に応じて、アースボール30の撮影画像に重畳されるAR画像(気象コンテンツ)がリアルタイムで更新される。 When it is determined that the playback operation button B4 is not operated (S81: NO), the control unit 21 skips step S82 and determines whether or not the end of processing is instructed via, for example, the input unit 24 (S83). ). If it is determined that the end of the process has not been instructed (S83: NO), the control unit 21 returns to step S81 and repeats the reproduction process according to the operation performed on the reproduction operation button B4. When it is determined that the end of the process is instructed (S83: YES), the control unit 21 ends the process. By the above-mentioned processing, for each meteorological image of the cloud distribution image, the rainfall distribution image, or the temperature distribution image, the meteorological image for 24 hours is displayed or the meteorological image for one week is displayed according to the operation of the user via the input unit 24. You can switch whether to display the weather image. Therefore, each weather image can be provided to the user depending on whether the user wants to see the weather image for 24 hours or the weather image for one week. Even if the weather image for 24 hours or the weather image for one week is displayed as described above, the weather content according to the shooting range of the earth ball 30 each time the shooting range of the earth ball 30 is changed. AR images are switched and displayed in real time. Therefore, by changing the shooting range of the earth ball 30 by the user holding the ground ball 30 in his hand or changing the shooting direction of the ground ball 30 by the camera 26, the shooting range of the ground ball 30 is changed according to the changed shooting range. The AR image (weather content) superimposed on the captured image of the earth ball 30 is updated in real time.

本実施形態では、過去の気象に関する気象画像をAR画像に利用する構成であるが、これに限定されない。例えば天気予報に基づく将来の雲分布画像、雨量分布画像又は気温分布画像を用いて、将来の気象に関するAR画像を生成するように構成されていてもよい。また、AR画像に用いるコンテンツは、気象画像に限定されず、時々刻々と変化する地球の状態を示すコンテンツを用いてもよい。例えば、衛星から地球を撮影した衛星写真を用いてAR画像を生成するように構成されていてもよい。この場合、サーバ10は、衛星写真を公開しているウェブサーバから定期的に衛星写真をダウンロードしておき、ユーザ端末20からの要求に応じて衛星写真をユーザ端末20に提供する。これにより、ユーザ端末20は、サーバ10から取得した衛星写真を用いて、アースボール30の撮影画像に重ねて表示するAR画像を生成することができ、衛星写真を用いたAR画像の表示が可能となる。 In the present embodiment, a meteorological image related to past weather is used as an AR image, but the present embodiment is not limited to this. For example, a future cloud distribution image, a rainfall distribution image, or a temperature distribution image based on a weather forecast may be used to generate an AR image relating to the future weather. Further, the content used for the AR image is not limited to the meteorological image, and the content showing the state of the earth changing from moment to moment may be used. For example, it may be configured to generate an AR image using a satellite image taken of the earth from a satellite. In this case, the server 10 periodically downloads the satellite image from the web server that publishes the satellite image, and provides the satellite image to the user terminal 20 in response to a request from the user terminal 20. As a result, the user terminal 20 can generate an AR image to be superimposed on the captured image of the earth ball 30 by using the satellite image acquired from the server 10, and can display the AR image using the satellite image. It becomes.

(実施形態2)
異なる種類のアースボールを被写体として撮影するARシステムについて説明する。異なる種類のアースボールとは、球体の表面に印刷されたARマーカが異なるアースボールである。なお、異なる種類のアースボールは、球体のサイズ等が異なっていてもよい。本実施形態のユーザ端末20は、異なる種類のアースボールに対して、異なるマーカ認識システムを用いてマーカを認識する。従って、本実施形態のARアプリ22APは、それぞれの種類のアースボールについてそれぞれのARマーカを認識するマーカ認識処理を実現する。本実施形態のARシステムは、実施形態1のARシステムと同様の装置にて実現できるので、構成についての詳細な説明は省略する。
(Embodiment 2)
An AR system that shoots different types of earth balls as subjects will be described. Different types of earth balls are earth balls with different AR markers printed on the surface of the sphere. The different types of earth balls may have different sphere sizes and the like. The user terminal 20 of the present embodiment recognizes markers for different types of earth balls using different marker recognition systems. Therefore, the AR application 22AP of the present embodiment realizes a marker recognition process for recognizing each AR marker for each type of earth ball. Since the AR system of the present embodiment can be realized by the same device as the AR system of the first embodiment, detailed description of the configuration will be omitted.

図15はアースボールの他の構成例を示す模式図である。図15に示すアースボール50(地球儀)は、例えば空気を充填することにより球体となるPVC(ポリ塩化ビニル)製のボールであるが、これに限らない。アースボール50の表面には、地球上の地図が印刷されており、地図中の適宜位置にARマーカが付されている。図15に示す例では、地図中の海及び大陸のそれぞれに名称が付されており、各国及び都市のそれぞれに国名及び都市名が付されている。これらの文字はARマーカとして使用される。また、図15では省略しているが、地図中に各国の国境線が含まれており、国境線もARマーカとして使用される。また、地図中の河川、平野、山脈等は地形毎に所定の色で色分けされており、各色もARマーカとして使用される。更に、地図中の海にはそれぞれの海、海域等を識別するために所定のマークM1~M4(例えば船のマークM1、M2、亀又はカモメ等の動物のマークM3、M4)が付されている。また、地図中の大陸にはそれぞれの大陸、地域等を識別するために所定のマークM5~M7が付されている。これらのマークM1~M7もARマーカとして使用される。 FIG. 15 is a schematic view showing another configuration example of the earth ball. The earth ball 50 (the Decorative Globe) shown in FIG. 15 is, for example, a ball made of PVC (polyvinyl chloride) that becomes a sphere by being filled with air, but is not limited to this. A map on the earth is printed on the surface of the earth ball 50, and AR markers are attached at appropriate positions on the map. In the example shown in FIG. 15, each of the sea and the continent in the map is given a name, and each country and a city is given a country name and a city name. These characters are used as AR markers. Further, although omitted in FIG. 15, the border line of each country is included in the map, and the border line is also used as an AR marker. In addition, rivers, plains, mountain ranges, etc. in the map are color-coded by predetermined colors for each terrain, and each color is also used as an AR marker. Further, the seas in the map are marked with predetermined marks M1 to M4 (for example, ship marks M1, M2, animal marks such as turtles or seagulls M3, M4) in order to identify each sea, sea area, etc. There is. In addition, predetermined marks M5 to M7 are attached to the continents in the map in order to identify each continent, region, and the like. These marks M1 to M7 are also used as AR markers.

アースボール50についても、アースボール50の表面に印刷されている各ARマーカには、それぞれ地球上の位置情報(経度及び緯度の情報)が対応付けられており、各ARマーカ及び位置情報の対応情報は、ARアプリ22AP内に設定されている。よって、ユーザ端末20の制御部21は、アースボール50を撮影した場合に、撮影画像中に認識したARマーカに対応付けられている位置情報(経度及び緯度の情報)を特定することにより、アースボール50の撮影範囲を特定することができる。 As for the earth ball 50, each AR marker printed on the surface of the earth ball 50 is associated with position information (longitude and latitude information) on the earth, and each AR marker and the position information correspond to each other. The information is set in the AR application 22AP. Therefore, when the earth ball 50 is photographed, the control unit 21 of the user terminal 20 identifies the position information (longitude and latitude information) associated with the AR marker recognized in the photographed image, thereby grounding. The shooting range of the ball 50 can be specified.

図16は、実施形態2のAR画像の表示処理手順の一例を示すフローチャートである。図16に示す処理は、図6及び図7に示す処理において、ステップS22,S23の間にステップS91を追加し、ステップS28の代わりにステップS92~S94を追加したものである。図6及び図7と同じステップについては説明を省略し、図16では図6及び図7中のステップS31~S42の図示を省略している。 FIG. 16 is a flowchart showing an example of the AR image display processing procedure of the second embodiment. In the process shown in FIG. 16, in the processes shown in FIGS. 6 and 7, step S91 is added between steps S22 and S23, and steps S92 to S94 are added instead of step S28. The description of the same steps as those in FIGS. 6 and 7 is omitted, and the illustrations of steps S31 to S42 in FIGS. 6 and 7 are omitted in FIG.

本実施形態のARシステムにおいて、ユーザ端末20の制御部21は、図6中のステップS21~S22の処理を行う。そして制御部21は、カメラ26による撮影によって順次取得するアースボールの撮影画像に基づいて、撮影対象のアースボールの種類を特定する(S91)。ここでは、制御部21は、撮影対象のアースボールが、国境線及び国名等が印刷されていないアースボール30であるか、国境線及び国名、並びに各種マークM1~M7等が印刷されているアースボール50であるかを特定する。具体的には、制御部21は、撮影画像中のアースボールにおいて、国境線の有無、文字の有無、所定のマークM1~M7の有無等を判定し、いずれかが有ると判断した場合、アースボール50であると特定し、いずれも無いと判断した場合、アースボール30であると特定する。 In the AR system of the present embodiment, the control unit 21 of the user terminal 20 performs the processes of steps S21 to S22 in FIG. Then, the control unit 21 identifies the type of the earth ball to be photographed based on the photographed images of the earth balls sequentially acquired by the image taken by the camera 26 (S91). Here, in the control unit 21, the earth ball to be photographed is an earth ball 30 on which the border line and the country name are not printed, or the earth ball on which the border line and the country name and various marks M1 to M7 are printed. Identify if it is the ball 50. Specifically, the control unit 21 determines the presence / absence of a border line, the presence / absence of characters, the presence / absence of predetermined marks M1 to M7, etc. in the earth ball in the captured image, and if it is determined that any of them is present, the ground ball is grounded. If it is specified that it is the ball 50 and it is determined that there is neither of them, it is specified that it is the earth ball 30.

その後、ユーザ端末20の制御部21及びサーバ10の制御部11は、図6中のステップS23~S27の処理を行う。これにより、ユーザ端末20は、サーバ10から24時間分の雲分布画像のデータをダウンロードして記憶部22に記憶し(S26)、カメラ26により撮影したアースボールの撮影画像を取得する(S27)。次に制御部21は、ステップS91で特定したアースボールが、国境線及び国名を含む各種のマーク(図15ではマークM1~M7等)が印刷されていないマーク無しのアースボール30であったか否かを判断する(S92)。即ち、制御部21は、特定したアースボールが、図1に示すようなアースボール30であったか否かを判断する。 After that, the control unit 21 of the user terminal 20 and the control unit 11 of the server 10 perform the processes of steps S23 to S27 in FIG. As a result, the user terminal 20 downloads the cloud distribution image data for 24 hours from the server 10 and stores it in the storage unit 22 (S26), and acquires the captured image of the earth ball captured by the camera 26 (S27). .. Next, the control unit 21 determines whether or not the earth ball specified in step S91 is an unmarked earth ball 30 on which various marks including border lines and country names (marks M1 to M7, etc. in FIG. 15) are not printed. Is determined (S92). That is, the control unit 21 determines whether or not the specified earth ball is the earth ball 30 as shown in FIG.

マーク無しのアースボール30であったと判断した場合(S92:YES)、制御部21は、図6中のステップS28と同様の処理を行う。具体的には、制御部21は、ステップS27で取得したアースボール30の撮影画像中の地図(大陸図31及び海洋図32)及び雲マーク33をARマーカとして認識し、認識したARマーカに基づいて、アースボール30における撮影範囲を特定する(S93)。一方、国境線及び国名を含む各種のマークが印刷されたマーク有りのアースボール50であったと判断した場合(S92:NO)、制御部21は、ステップS94の処理に移行する。そして制御部21は、ステップS27で取得したアースボール50の撮影画像中の地図、地図中の海、大陸、国、都市等の名称、国境線、地形毎の色、各種のマークM1~M7をARマーカとして認識し、認識したARマーカに基づいて、アースボール50における撮影範囲を特定する(S94)。 When it is determined that the earth ball 30 has no mark (S92: YES), the control unit 21 performs the same process as step S28 in FIG. Specifically, the control unit 21 recognizes the map (continental map 31 and ocean map 32) and the cloud mark 33 in the captured image of the earth ball 30 acquired in step S27 as AR markers, and is based on the recognized AR markers. The shooting range of the earth ball 30 is specified (S93). On the other hand, when it is determined that the earth ball 50 has a mark on which various marks including the border line and the country name are printed (S92: NO), the control unit 21 shifts to the process of step S94. Then, the control unit 21 displays the map in the captured image of the earth ball 50 acquired in step S27, the names of the sea, continent, country, city, etc. in the map, the border line, the color of each terrain, and various marks M1 to M7. It is recognized as an AR marker, and the shooting range in the earth ball 50 is specified based on the recognized AR marker (S94).

その後、制御部21は、サーバ10から取得した雲分布画像のデータと、ステップS93又はS94で特定したアースボール30,50の撮影範囲とに基づいて、アースボール30,50の撮影画像に重ねて表示させるAR画像を生成する(S29)。そして制御部21は、ステップS30以降の処理を行う。これにより、本実施形態においても、アースボール30,50の撮影画像に対して、円形に処理された雲分布画像、雨量分布画像又は気温分布画像等の気象画像のAR画像を重ねて表示することができる。なお、アースボール30,50は、それぞれの撮影範囲を特定する際に使用するARマーカが異なるだけであり、制御部21は、アースボール30,50の撮影範囲を特定した後は、同様の処理によってAR画像を生成してアースボール30,50の撮影画像に重ねて表示することができる。また、本実施形態においても、ユーザがアースボール30,50を手に持って回す、又はカメラ26によるアースボール30,50の撮影方向を変更することによってアースボール30,50の撮影範囲が変更された場合に、変更された撮影範囲に応じて、アースボール30,50の撮影画像に重ねて表示するAR画像(気象コンテンツ)をリアルタイムで更新できる。 After that, the control unit 21 superimposes the captured image of the earth balls 30 and 50 on the captured image of the earth balls 30 and 50 based on the data of the cloud distribution image acquired from the server 10 and the imaging range of the earth balls 30 and 50 specified in step S93 or S94. Generate an AR image to be displayed (S29). Then, the control unit 21 performs the processing after step S30. As a result, also in the present embodiment, the AR image of the meteorological image such as the cloud distribution image, the rainfall distribution image, or the temperature distribution image processed in a circle is superimposed and displayed on the photographed images of the earth balls 30 and 50. Can be done. The earth balls 30 and 50 differ only in the AR marker used when specifying the respective shooting ranges, and the control unit 21 performs the same processing after specifying the shooting ranges of the ground balls 30 and 50. It is possible to generate an AR image and display it on the captured image of the earth balls 30 and 50. Further, also in the present embodiment, the shooting range of the earth balls 30 and 50 is changed by the user holding and turning the earth balls 30 and 50 or changing the shooting direction of the ground balls 30 and 50 by the camera 26. In this case, the AR image (meteorological content) displayed overlaid on the shot images of the earth balls 30 and 50 can be updated in real time according to the changed shooting range.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、異なるARマーカが印刷された異なる種類のアースボール30,50に対してARシステムを利用することができる。よって、異なる種類のアースボール30,50のいずれであっても、アースボール30,50を撮影することにより、アースボール30,50の撮影画像に地球上の気象に関する気象コンテンツを重ねて表示することができる。またユーザは、アースボール30,50上の任意の場所を撮影することによって、気象コンテンツを見たい地球上の場所を指定できるので操作性がよい。本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。 In this embodiment, the same effect as that of the first embodiment described above can be obtained. Further, in the present embodiment, the AR system can be used for different types of earth balls 30, 50 on which different AR markers are printed. Therefore, regardless of the different types of earth balls 30 and 50, by photographing the earth balls 30 and 50, the meteorological content related to the weather on the earth is superimposed and displayed on the photographed image of the earth balls 30 and 50. Can be done. Further, the user can specify the place on the earth where he / she wants to see the meteorological content by photographing an arbitrary place on the earth balls 30 and 50, so that the operability is good. Also in this embodiment, the modification described as appropriate in the above-described first embodiment can be applied.

上述した各実施形態では、ユーザ端末20はARアプリ22APを起動した場合に、雨量分布画像及び気温分布画像の気象コンテンツをサーバ10からダウンロードせずに、雲分布画像の気象コンテンツをサーバ10からダウンロードし、雲分布画像をAR画像として使用する構成であったが、この構成に限定されない。例えば、ユーザ端末20がARアプリ22APを起動した場合に、雨量分布画像又は気温分布画像の気象コンテンツをサーバ10からダウンロードして雨量分布画像又は気温分布画像をAR画像として使用するように構成されていてもよい。 In each of the above-described embodiments, when the user terminal 20 activates the AR application 22AP, the weather content of the cloud distribution image is downloaded from the server 10 without downloading the weather content of the rain amount distribution image and the temperature distribution image from the server 10. However, the configuration is such that the cloud distribution image is used as the AR image, but the configuration is not limited to this configuration. For example, when the user terminal 20 activates the AR application 22AP, the weather content of the rainfall distribution image or the temperature distribution image is downloaded from the server 10 and the rainfall distribution image or the temperature distribution image is used as the AR image. You may.

以上の各実施形態に関し、さらに以下の付記を開示する。 The following additional notes will be further disclosed with respect to each of the above embodiments.

(付記1)
世界の第1気象情報を正距円筒図法で示す第1気象画像の時系列データをダウンロードし、
世界の第2気象情報を正距円筒図法で示す第2気象画像の時系列データをダウンロードし、
世界の第3気象情報を正距円筒図法で示す第3気象画像の時系列データをダウンロードし、
第1気象画像、第2気象画像、又は第3気象画像のいずれかひとつを選択するための第1画像アイコン、第2画像アイコン、又は第3画像アイコンを選択可能に表示し、
カメラから地球儀の撮影画像を取得し、
前記第1画像アイコンが選択された場合に、正距円筒図法の各第1気象画像を、取得した前記撮影画像中の地球儀全体を覆い、かつ、前記地球儀上に描かれた画像に合致するように補正しながら、時系列で連続する補正後の第1気象画像を連続再生する
処理をコンピュータに実行させるプログラム。
(Appendix 1)
Download the time-series data of the first meteorological image showing the world's first meteorological information in equirectangular projection.
Download the time-series data of the second meteorological image showing the second meteorological information of the world in equirectangular projection.
Download the time series data of the 3rd meteorological image showing the 3rd meteorological information of the world in equirectangular projection.
A first image icon, a second image icon, or a third image icon for selecting any one of the first meteorological image, the second meteorological image, or the third meteorological image is displayed in a selectable manner.
Get the captured image of the globe from the camera and
When the first image icon is selected, each first meteorological image in equirectangular projection covers the entire globe in the acquired captured image and matches the image drawn on the globe. A program that causes a computer to continuously play back the corrected first meteorological image in chronological order while making corrections to.

(付記2)
世界の雲分布を正距円筒図法で示す雲分布画像の時系列データをダウンロードし、
世界の雨量分布を正距円筒図法で示す雨量分布画像の時系列データをダウンロードし、
世界の気温分布を正距円筒図法で示す気温分布画像の時系列データをダウンロードし、
雲分布画像、雨量分布画像、又は気温分布画像のいずれかひとつを選択するための雲画像アイコン、雨量画像アイコン、又は気温画像アイコンを選択可能に表示し、
カメラから、国境線及び国名の記載がなく、大陸図及び海洋図、並びに前記海洋図上にダミーの雲画像が描画された地球儀、或いは、国境線及び国名の記載があり、大陸図及び海洋図が描画された地球儀の撮影画像を取得し、
取得した前記撮影画像に基づいて、撮影対象の地球儀が、国境線及び国名の記載がない地球儀、或いは、国境線及び国名の記載がある地球儀のいずれであるかを判定し、
前記国境線及び国名の記載がない地球儀である場合、前記大陸図又はダミーの雲画像に基づいて、前記撮影画像中の地球儀の撮影領域を特定し、前記国境線及び国名の記載がある地球儀である場合、前記大陸図、国境線又は国名に基づいて、前記撮影画像中の地球儀の撮影領域を特定し、
特定した前記地球儀の撮影領域に基づいて、正距円筒図法の各雲分布画像、各雨量分布画像、又は各気温分布画像のいずれかを、前記撮影画像中の地球儀全体を覆い、かつ、前記地球儀上に描かれた画像に合致するように補正しながら、時系列で連続する補正後の雲分布画像、各雨量分布画像、又は各気温分布画像のいずれかを連続再生する
処理をコンピュータに実行させるプログラム。
(Appendix 2)
Download the time series data of the cloud distribution image showing the cloud distribution in the world by equirectangular projection.
Download the time-series data of the rainfall distribution image showing the world rainfall distribution in equirectangular projection.
Download the time-series data of the temperature distribution image showing the world temperature distribution in equirectangular projection,
A cloud image icon, a rain amount image icon, or a temperature image icon for selecting any one of a cloud distribution image, a rainfall distribution image, or a temperature distribution image is displayed in a selectable manner.
From the camera, there is no description of the border line and country name, but there is a continental map and ocean map, and a globe with a dummy cloud image drawn on the ocean map, or there is a description of the border line and country name, and the continental map and ocean map. Get the captured image of the globe drawn by
Based on the acquired image, it is determined whether the globe to be photographed is a globe without a border line and a country name, or a globe with a border line and a country name.
In the case of a globe without the border line and country name, the shooting area of the globe in the captured image is specified based on the continental map or the dummy cloud image, and the globe with the border line and country name is described. If so, identify the area of the globe in the image based on the continental map, borders, or country names.
Based on the identified imaging area of the globe, either the cloud distribution image, the rainfall distribution image, or the temperature distribution image of equirectangular projection covers the entire globe in the captured image, and the globe is covered. Have the computer execute the process of continuously playing back any of the corrected cloud distribution image, each rainfall distribution image, or each temperature distribution image in chronological order while correcting to match the image drawn above. program.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

10 サーバ
11 制御部
12 記憶部
13 通信部
20 ユーザ端末
21 制御部
22 記憶部
23 通信部
25 表示部
26 カメラ
30 アースボール
31 大陸図
32 海洋図
33 雲マーク
40 気象サーバ
50 アースボール
12a 気象コンテンツDB
10 Server 11 Control Unit 12 Storage Unit 13 Communication Unit 20 User Terminal 21 Control Unit 22 Storage Unit 23 Communication Unit 25 Display Unit 26 Camera 30 Earth Ball 31 Continental Map 32 Ocean Map 33 Cloud Mark 40 Meteorological Server 50 Earth Ball 12a Meteorological Content DB

Claims (8)

世界の雲分布を正距円筒図法で示す雲分布画像の時系列データをダウンロードし、
世界の雨量分布を正距円筒図法で示す雨量分布画像の時系列データをダウンロードし、
世界の気温分布を正距円筒図法で示す気温分布画像の時系列データをダウンロードし、
雲分布画像、雨量分布画像、又は気温分布画像のいずれかひとつを選択するための雲画像アイコン、雨量画像アイコン、又は気温画像アイコンを選択可能に表示し、
カメラから地球儀の撮影画像を取得し、
前記雲画像アイコンが選択された場合に、正距円筒図法の各雲分布画像を、取得した前記撮影画像中の地球儀全体を覆い、かつ、前記地球儀上に描かれた画像に合致するように補正しながら、時系列で連続する補正後の雲分布画像を連続再生する
処理をコンピュータに実行させるプログラム。
Download the time series data of the cloud distribution image showing the cloud distribution in the world by equirectangular projection.
Download the time-series data of the rainfall distribution image showing the world rainfall distribution in equirectangular projection.
Download the time-series data of the temperature distribution image showing the world temperature distribution in equirectangular projection,
A cloud image icon, a rain amount image icon, or a temperature image icon for selecting any one of a cloud distribution image, a rainfall distribution image, or a temperature distribution image is displayed in a selectable manner.
Get the captured image of the globe from the camera and
When the cloud image icon is selected, each cloud distribution image in equirectangular projection is corrected so as to cover the entire globe in the acquired captured image and match the image drawn on the globe. A program that causes a computer to continuously play back corrected cloud distribution images in chronological order.
起動命令を受け付け、
起動命令を受け付けた場合に、前記雨量分布画像の時系列データ及び気温分布画像の時系列データをダウンロードせずに、前記雲分布画像の時系列データのダウンロード要求をサーバコンピュータに対して実行し、
ダウンロードした前記雲分布画像を補正した補正後の雲分布画像を連続再生しているときに、前記雨量画像アイコンが選択された場合、前記雨量分布画像の時系列データのダウンロード要求をサーバコンピュータに対して実行する
処理を前記コンピュータに実行させる請求項1に記載のプログラム。
Accept the start command,
When the start command is received, the server computer is executed with a download request for the time-series data of the cloud distribution image without downloading the time-series data of the rainfall distribution image and the time-series data of the temperature distribution image.
If the rain amount image icon is selected while the corrected cloud distribution image corrected by the downloaded cloud distribution image is continuously played, a request to download the time-series data of the rain amount distribution image is sent to the server computer. The program according to claim 1, wherein the computer executes the processing to be executed.
前記地球儀は、国境線及び国名の記載がない地球儀であり、
前記雲分布画像、雨量分布画像、又は気温分布画像のいずれかを連続再生しているときに、前記撮影画像中の地球儀上に国境線及び国名を重ねて表示するか否かの切替命令を受け付け、
国境線及び国名を重ねて表示する切替命令を受け付けた場合、前記撮影画像中の地球儀上に、国境線及び国名と、補正後の雲分布画像、雨量分布画像、又は気温分布画像とを重ねて表示する
処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。
The above-mentioned globe is a globe without a border line and a country name.
When one of the cloud distribution image, the rainfall distribution image, and the temperature distribution image is continuously reproduced, a switching command for whether or not to display the border line and the country name on the globe in the captured image is accepted. ,
When a switching command to display the border line and country name in an overlapping manner is received, the border line and country name are superimposed on the globe in the captured image, and the corrected cloud distribution image, rainfall distribution image, or temperature distribution image is superimposed. The program according to claim 1 or 2, which causes the computer to execute the process to be displayed.
前記地球儀は、大陸図及び海洋図、並びに前記海洋図上にダミーの雲画像が描画された地球儀であり、
前記大陸図又はダミーの雲画像に基づいて、取得した前記撮影画像中の地球儀の中心位置を特定し、
特定した中心位置を中心とし、前記撮影画像中の地球儀上に描かれた画像に合致するように、正距円筒図法の前記雲分布画像、雨量分布画像、又は気温分布画像を補正する
処理を前記コンピュータに実行させる請求項1から3までのいずれかひとつに記載のプログラム。
The globe is a continental map, an ocean map, and a globe on which a dummy cloud image is drawn on the ocean map.
Based on the continental map or the dummy cloud image, the center position of the globe in the acquired captured image is specified.
The process of correcting the cloud distribution image, the rainfall distribution image, or the temperature distribution image of the equirectangular projection so as to match the image drawn on the globe in the captured image with the specified center position as the center is described above. The program according to any one of claims 1 to 3 to be executed by a computer.
前記雲分布画像、雨量分布画像、又は気温分布画像のいずれかを連続再生しているときに、取得した前記撮影画像中の地球儀上の画像が変更された場合、変更後の前記撮影画像中の地球儀の中心位置をリアルタイムで特定し、
特定した中心位置に基づいて、前記正距円筒図法の前記雲分布画像、雨量分布画像、又は気温分布画像を補正する
処理を前記コンピュータに実行させる請求項1から4までのいずれかひとつに記載のプログラム。
If the image on the globe in the acquired image is changed while any one of the cloud distribution image, the rainfall distribution image, or the temperature distribution image is continuously reproduced, the image in the photographed image after the change is changed. Identify the center position of the globe in real time and
The invention according to any one of claims 1 to 4, wherein the computer is made to perform a process of correcting the cloud distribution image, the rainfall distribution image, or the temperature distribution image of the equirectangular projection based on the specified center position. program.
プロセッサ及び表示部を備える情報処理装置において、
前記プロセッサが、
世界の雲分布を正距円筒図法で示す雲分布画像の時系列データをダウンロードし、
世界の雨量分布を正距円筒図法で示す雨量分布画像の時系列データをダウンロードし、
世界の気温分布を正距円筒図法で示す気温分布画像の時系列データをダウンロードし、
雲分布画像、雨量分布画像、又は気温分布画像のいずれかひとつを選択するための雲画像アイコン、雨量画像アイコン、又は気温画像アイコンを選択可能に前記表示部に表示し、
カメラから地球儀の撮影画像を取得し、
前記雲画像アイコンが選択された場合に、正距円筒図法の各雲分布画像を、取得した前記撮影画像中の地球儀全体を覆い、かつ、前記地球儀上に描かれた画像に合致するように補正しながら、時系列で連続する補正後の雲分布画像を連続再生する
情報処理装置。
In an information processing device including a processor and a display unit
The processor
Download the time series data of the cloud distribution image showing the cloud distribution in the world by equirectangular projection.
Download the time-series data of the rainfall distribution image showing the world rainfall distribution in equirectangular projection.
Download the time-series data of the temperature distribution image showing the world temperature distribution in equirectangular projection,
A cloud image icon, a rain amount image icon, or a temperature image icon for selecting any one of a cloud distribution image, a rainfall distribution image, or a temperature distribution image can be selected and displayed on the display unit.
Get the captured image of the globe from the camera and
When the cloud image icon is selected, each cloud distribution image in equirectangular projection is corrected so as to cover the entire globe in the acquired captured image and match the image drawn on the globe. An information processing device that continuously reproduces corrected cloud distribution images in chronological order.
世界の雲分布を正距円筒図法で示す雲分布画像の時系列データをダウンロードし、
世界の雨量分布を正距円筒図法で示す雨量分布画像の時系列データをダウンロードし、
世界の気温分布を正距円筒図法で示す気温分布画像の時系列データをダウンロードし、
雲分布画像、雨量分布画像、又は気温分布画像のいずれかひとつを選択するための雲画像アイコン、雨量画像アイコン、又は気温画像アイコンを選択可能に表示し、
カメラから地球儀の撮影画像を取得し、
前記雲画像アイコンが選択された場合に、正距円筒図法の各雲分布画像を、取得した前記撮影画像中の地球儀全体を覆い、かつ、前記地球儀上に描かれた画像に合致するように補正しながら、時系列で連続する補正後の雲分布画像を連続再生する
処理をコンピュータが実行する情報処理方法。
Download the time series data of the cloud distribution image showing the cloud distribution in the world by equirectangular projection.
Download the time-series data of the rainfall distribution image showing the world rainfall distribution in equirectangular projection.
Download the time-series data of the temperature distribution image showing the world temperature distribution in equirectangular projection,
A cloud image icon, a rain amount image icon, or a temperature image icon for selecting any one of a cloud distribution image, a rainfall distribution image, or a temperature distribution image is displayed in a selectable manner.
Get the captured image of the globe from the camera and
When the cloud image icon is selected, each cloud distribution image in equirectangular projection is corrected so as to cover the entire globe in the acquired captured image and match the image drawn on the globe. An information processing method in which a computer executes a process of continuously reproducing a corrected cloud distribution image that is continuous in time series.
国境線及び国名が描画されていない地球儀をユーザに提供しており、
世界の雲分布を正距円筒図法で示す雲分布画像の時系列データをダウンロードし、前記雲分布画像に日時情報を付与して記憶部に記憶し、
世界の雨量分布を正距円筒図法で示す雨量分布画像の時系列データをダウンロードし、前記雨量分布画像に日時情報を付与して記憶部に記憶し、
世界の気温分布を正距円筒図法で示す気温分布画像の時系列データをダウンロードし、前記気温分布画像に日時情報を付与して記憶部に記憶し、
前記ユーザがアプリケーションをインストールした端末装置から起動信号を受信した場合、前記雨量分布画像の時系列データ及び気温分布画像の時系列データを読み出さずに、前記記憶部に記憶した日時情報を参照して、現在日時を起点として所定期間分の前記雲分布画像の時系列データを読み出し、
読み出した前記雲分布画像の時系列データを前記端末装置へ送信する
処理をコンピュータが実行する情報処理方法。
It provides users with a globe with no borders or country names drawn on it.
The time-series data of the cloud distribution image showing the cloud distribution in the world by equirectangular projection is downloaded, the date and time information is added to the cloud distribution image, and the data is stored in the storage unit.
The time-series data of the rainfall distribution image showing the world rainfall distribution by equirectangular projection is downloaded, the date and time information is added to the rainfall distribution image, and the data is stored in the storage unit.
The time series data of the temperature distribution image showing the temperature distribution in the world by equirectangular projection is downloaded, the date and time information is added to the temperature distribution image, and the data is stored in the storage unit.
When the user receives the start signal from the terminal device in which the application is installed, the time-series data of the rainfall distribution image and the time-series data of the temperature distribution image are not read out, but the date and time information stored in the storage unit is referred to. , Read the time-series data of the cloud distribution image for a predetermined period starting from the current date and time,
An information processing method in which a computer executes a process of transmitting the time-series data of the read cloud distribution image to the terminal device.
JP2020147585A 2020-09-02 2020-09-02 Program, information processing device and information processing method Pending JP2022042249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020147585A JP2022042249A (en) 2020-09-02 2020-09-02 Program, information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020147585A JP2022042249A (en) 2020-09-02 2020-09-02 Program, information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2022042249A true JP2022042249A (en) 2022-03-14

Family

ID=80629338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020147585A Pending JP2022042249A (en) 2020-09-02 2020-09-02 Program, information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2022042249A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449436B1 (en) 2023-09-01 2024-03-13 株式会社ほぼ日 Program, information processing method, and information processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449436B1 (en) 2023-09-01 2024-03-13 株式会社ほぼ日 Program, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
US11381758B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
US11854149B2 (en) Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
CN103155538B (en) Image display device and method for displaying image
JP5250598B2 (en) Image display device and image display method
CN102483859B (en) Panoramic image display device and panoramic image display method
WO2015010165A1 (en) Geo-located activity visualisation, editing and sharing
US10818055B2 (en) Computer readable media, information processing apparatus and information processing method
JP2022042249A (en) Program, information processing device and information processing method
JP2001215941A (en) Image display method and device
WO2024022070A1 (en) Picture display method and apparatus, and device and medium
CN111246096B (en) System and method for generating three-dimensional panoramic roaming model
US11726740B2 (en) Immersive audio tours
CN115767291A (en) Virtual photographing method, device, equipment and storage medium
TW202322057A (en) 3d road scene generation system for simulating a real environment and method thereof
CN116152423A (en) Virtual reality live broadcasting room illumination processing method, device, equipment and storage medium
JP2020135416A (en) Information processing device and program
JP2014082764A (en) Image display device, image display method, server apparatus and image data structure
JP2019091456A (en) Program, information processor, and method for processing information

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230802