JP2021176024A - Remote imaging system using autonomous driving vehicle and remote traveling system of autonomous driving vehicle - Google Patents

Remote imaging system using autonomous driving vehicle and remote traveling system of autonomous driving vehicle Download PDF

Info

Publication number
JP2021176024A
JP2021176024A JP2020080961A JP2020080961A JP2021176024A JP 2021176024 A JP2021176024 A JP 2021176024A JP 2020080961 A JP2020080961 A JP 2020080961A JP 2020080961 A JP2020080961 A JP 2020080961A JP 2021176024 A JP2021176024 A JP 2021176024A
Authority
JP
Japan
Prior art keywords
driving vehicle
autonomous driving
terminal device
imaging
management center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020080961A
Other languages
Japanese (ja)
Other versions
JP7165950B2 (en
Inventor
恵恒 谷口
Keiko Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZMP Inc
Original Assignee
ZMP Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZMP Inc filed Critical ZMP Inc
Priority to JP2020080961A priority Critical patent/JP7165950B2/en
Publication of JP2021176024A publication Critical patent/JP2021176024A/en
Application granted granted Critical
Publication of JP7165950B2 publication Critical patent/JP7165950B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a remote imaging system using an autonomous driving vehicle that allows a person to tour a facility such as a zoo from a remote location.SOLUTION: A remote imaging system 10 using an autonomous driving vehicle is configured by comprising: an autonomous driving vehicle 20 that performs unmanned automatic driving; a management center 30 that manages operation of the autonomous driving vehicle via a first network 40; and a terminal device 60 that transmits traveling operation information regarding forward/backward/stop and traveling speed of the autonomous driving vehicle input by a user 50 via the management center and a second network 70, and imaging operation information related to various types of imaging to the autonomous driving vehicle via the management center. The autonomous driving vehicle moves only within a specified operating range according to the traveling operation information from the terminal device. An imaging unit provided in the autonomous driving vehicle shoots a video based on an imaging operation signal from the terminal device, and transmits the video data to the terminal device via the management center. The terminal device saves the video data or displays the video data on a screen of a display unit.SELECTED DRAWING: Figure 1

Description

本発明は、例えば動物園,植物園,水族館、企業その他の団体が運営する見学用の工場や博物館等の見学を主体とする施設やテーマパーク等あるいは美術館,博物館等の広大な施設で、利用者が所望の箇所をライブ映像にて見ることができるようにした自動運転車両による遠隔撮像システム並びに上記各種施設の管理や運営をする管理会社、商業ビル管理会社、物流会社等が利用可能な自動運転車両の遠隔走行システムに関するものである。 The present invention is, for example, a facility such as a zoo, a botanical garden, an aquarium, a factory or a museum for a tour operated by a company or another organization, a theme park, or a vast facility such as a museum or a museum. A remote imaging system using an automatic driving vehicle that allows you to see desired parts in live video, and an automatic driving vehicle that can be used by management companies, commercial building management companies, distribution companies, etc. that manage and operate the above various facilities. It is about the remote driving system of.

従来、動物園,植物園や水族館等の見学を主体とする施設においては、利用者は、実際に当該施設に出向いて入場することにより、施設内を自由に見学するようになっている。これにより、利用者は、展示されている動物,植物あるいは魚類等の自分が希望する実物を間近で見ることができる。 Conventionally, in facilities such as zoos, botanical gardens, and aquariums, users are free to tour the facilities by actually visiting the facilities and entering the facilities. As a result, the user can see the actual animals, plants, fish, etc. on display up close.

これに対して、例えば動物園内に所定箇所設置した固定カメラ(ウェブカメラ)により、特に人気の高い特定の動物の姿を、任意の時間に見ることができるようにした例も実際に実用化されている。 On the other hand, for example, a fixed camera (web camera) installed in a predetermined place in a zoo has been put into practical use so that a particularly popular animal can be seen at any time. ing.

しかしながら、このような固定カメラでは、例えば動き回る動物を追尾して撮影することは困難であると共に、アップ画像を撮ることも難しい。また、病気やケガなどの身体的その他の外出困難な事情により、直接現地へ出向いて見学できないこともある。 However, with such a fixed camera, for example, it is difficult to track and shoot a moving animal, and it is also difficult to take a close-up image. In addition, due to physical or other difficult circumstances such as illness or injury, it may not be possible to go directly to the site for a tour.

本発明は、以上の点に鑑み、例えば動物園,植物園,水族館等の見学を主体とする施設やテーマパーク等あるいは美術館,博物館等の広大な施設において、利用者が所望の箇所、例えば自宅で所望のアングルで撮影して、手元の端末機器で撮像画面を見ることにより、これらの施設を遠隔の場所から見学体験できるようにした自動運転車両による遠隔撮像システムを提供することを目的としている。 In view of the above points, the present invention is desired by the user at a desired place, for example, at home, in a facility mainly for visiting a zoo, a botanical garden, an aquarium, etc., a theme park, or a vast facility such as an art museum or a museum. The purpose is to provide a remote imaging system using an automatically driven vehicle that enables visitors to observe and experience these facilities from a remote location by taking pictures from the above angles and viewing the imaging screen with a terminal device at hand.

上記目的は、本発明の構成によれば、遠隔操作による無人自動走行を行なう自動運転車両と、自動運転車両とネットワークを介して接続され自動運転車両の運行を管理する管理センターと、管理センターと第二のネットワークを介して接続され利用者により入力された自動運転車両の前進・後退・停止・操舵及び走行速度等に関する走行操作情報と各種撮像に関する撮像操作情報とを管理センターを介して自動運転車両に送出する利用者の端末機器と、から構成されており、自動運転車両が、管理センターの運行管理により所定の運行範囲内でのみ移動可能で、端末機器からの走行操作情報に基づいて当該運行範囲内で移動すると共に、自動運転車両が撮像部を備えていて、撮像部が端末機器からの撮像操作信号に基づいて動画の撮影を行ない、その撮像結果である動画データを管理センターを介して端末機器に送信し、端末機器が、自動運転車両からの動画データを保存し又は表示部に画面表示する、自動運転車両による遠隔撮像システムにより達成される。 According to the configuration of the present invention, the above object is an autonomous driving vehicle that performs unmanned automatic driving by remote operation, a management center that is connected to the autonomous driving vehicle via a network and manages the operation of the autonomous driving vehicle, and a management center. Autonomous driving information related to forward / backward / stop / steering and running speed of the autonomous driving vehicle connected via the second network and input by the user and imaging operation information related to various imaging are automatically driven via the management center. It is composed of the user's terminal device to be sent to the vehicle, and the autonomous driving vehicle can move only within the specified operation range by the operation management of the management center, and it is said based on the driving operation information from the terminal device. While moving within the operating range, the autonomous driving vehicle is equipped with an imaging unit, and the imaging unit shoots a moving image based on the imaging operation signal from the terminal device, and the moving image data that is the imaging result is passed through the management center. This is achieved by a remote imaging system by an autonomous driving vehicle, which transmits to the terminal device and the terminal device stores moving image data from the autonomous driving vehicle or displays it on a screen on a display unit.

上記構成によれば、利用者は、例えばスマートフォンやタブレット又はパーソナルコンピュータ等の端末機器を操作して、走行操作情報を管理センターを介して自動運転車両に送出することで、自動運転車両を遠隔操作により所定の運行範囲内で所望の位置に自在に移動させると共に、撮像操作信号を管理センターを介して自動運転車両に送出することで、利用者は自動運転車両の撮像部を操作して動画の撮影を行ない、その撮像した動画データを管理センターを介して端末機器に送出する。これにより、端末機器の表示部に、当該動画データによる動画が表示されるので、利用者は、当該自動運転車両が移動する所定の運行範囲から離れた遠隔地、例えば自宅その他の施設に居ながらにして、所定の運行範囲内で撮像した動画をライブで端末機器の表示部で目視することができる。 According to the above configuration, the user remotely operates the autonomous driving vehicle by operating a terminal device such as a smartphone, a tablet, or a personal computer and sending driving operation information to the autonomous driving vehicle via the management center. By freely moving the image to a desired position within a predetermined operation range and sending an imaging operation signal to the autonomous driving vehicle via the management center, the user operates the imaging unit of the autonomous driving vehicle to obtain a moving image. Shooting is performed, and the captured video data is sent to the terminal device via the management center. As a result, the moving image based on the moving image data is displayed on the display unit of the terminal device, so that the user can stay in a remote place away from the predetermined operating range in which the autonomous driving vehicle moves, for example, at home or other facilities. Then, the moving image captured within the predetermined operation range can be visually observed live on the display unit of the terminal device.

その際、自動運転車両は、利用者の端末機器の操作により、利用者の希望に従って、走行、即ち前進・後退・停止すると共に、利用者の希望する走行速度で走行するので、利用者が自分のペースで運行範囲内の対象物を目視することが可能である。また、自動運転車両は、管理センターにより所定の運行範囲内でのみ移動するよう運行管理されているので、端末機器からの走行操作情報により運行範囲外に移動しようとしても、管理センターの運行管理により移動が制限されることから、自動運転車両は確実に運行範囲内でのみ安全且つ確実に移動し得る。 At that time, the self-driving vehicle travels, that is, moves forward, backward, and stops according to the user's wishes by operating the user's terminal device, and also travels at the user's desired running speed. It is possible to visually check the objects within the operating range at the pace of. In addition, since the autonomous driving vehicle is operated and managed so that it moves only within the specified operation range by the management center, even if it tries to move out of the operation range by the driving operation information from the terminal device, the operation management of the management center Since movement is restricted, self-driving vehicles can reliably and reliably move only within their operating range.

管理センターは、好ましくは運行範囲のマップデータを備え、自動運転車両の走行操作情報による自動運転中に、管理センターがマップデータを参照しながら当該自動運転車両が運行範囲から外側にはみ出さないように当該自動運転車両の走行を管理する。管理センターが自動運転車両の位置をマップデータを参照して把握することで、端末機器からの走行操作情報に基づいて走行する自動運転車両が運行範囲からはみ出ようとすると、管理センターが自動運転車両を管理して運行範囲内で移動させる。 The management center preferably has map data of the operating range so that the autonomous driving vehicle does not go out of the operating range while the management center refers to the map data during automatic driving based on the driving operation information of the autonomous driving vehicle. It manages the running of the self-driving vehicle. When the management center grasps the position of the autonomous driving vehicle by referring to the map data and the autonomous driving vehicle that travels based on the driving operation information from the terminal device tries to go out of the operating range, the management center will perform the autonomous driving vehicle. To manage and move within the operating range.

運行範囲内の各所に配置されたガイドエリアに関連づけられた音声ガイド情報が、マップデータに関連付けて登録されていると、自動運転車両が個々のガイドエリアに接近したとき、管理センターが対応する音声ガイド情報を読み込んで端末機器に送信し、端末機器が当該音声ガイド情報に基づいて音声ガイドをする。従って、利用者は、撮像部による動画の視覚的認知だけでなく、音声ガイドによる聴覚的認知により当該ガイドエリアに関する情報を取得することができる。 If the voice guide information associated with the guide areas located in various places within the operation range is registered in association with the map data, the management center responds to the voice when the autonomous vehicle approaches each guide area. The guide information is read and transmitted to the terminal device, and the terminal device performs voice guidance based on the voice guide information. Therefore, the user can acquire information about the guide area not only by the visual recognition of the moving image by the imaging unit but also by the auditory recognition by the voice guide.

本発明による自動運転車両による遠隔撮像システムは、好ましくは、複数台の自動運転車両を備え、管理センターが、各自動運転車両が相互に接近しないよう各自動運転車両の運行を管理する。複数の自動運転車両が、それぞれ対応する端末機器からの走行操作情報によりそれぞれ個別的に移動する際、自動運転車両同士の衝突を防止し、それぞれ安全に移動することができる。 The remote imaging system using an autonomous vehicle according to the present invention preferably includes a plurality of autonomous vehicles, and a management center manages the operation of the autonomous vehicles so that the autonomous vehicles do not approach each other. When a plurality of self-driving vehicles move individually according to travel operation information from the corresponding terminal devices, collisions between the self-driving vehicles can be prevented and each of them can move safely.

撮像部が、縦方向及び/又は横方向に揺動可能に支持され、端末機器からの撮像操作信号により縦方向及び/又は横方向に揺動されるようにすると、撮像部による撮影の際に、所謂パン及びチルトを実行でき、より広い範囲の撮像が可能となる。 When the image pickup unit is supported so as to be swingable in the vertical direction and / or the horizontal direction and is made to swing in the vertical direction and / or the horizontal direction by the image pickup operation signal from the terminal device, when the image pickup unit takes a picture. , So-called pan and tilt can be performed, and a wider range of images can be taken.

撮像部が垂直方向に移動可能に支持されていれば、撮像部の高さ位置が適宜に調整され、例えば自動運転車両の存在によりガイドエリアの撮像が妨げられてしまう場合でも、撮像部を上昇させて確実に撮像することができ、種々の視覚効果を備えた撮影を行なうことができる。 If the image pickup unit is supported so as to be movable in the vertical direction, the height position of the image pickup unit is appropriately adjusted, and the image pickup unit is raised even when the presence of an autonomous vehicle hinders the image pickup of the guide area, for example. It is possible to perform an image with certainty, and it is possible to perform an image with various visual effects.

撮像部がその被写界角度の変更可能なズーム機能を備えていれば、端末機器からの撮像操作信号によりズーミングを行ない、当該ガイドエリアの視認したい部分に接近できない場合にも、より大きなアップ画像を得ることが可能となる。 If the image pickup unit has a zoom function that can change the field angle, zooming is performed by the image pickup operation signal from the terminal device, and even if the desired part of the guide area cannot be approached, a larger up image is obtained. Can be obtained.

撮像部が周囲の音を音声信号に変換するマイクを備えていれば、撮影と同時に又は撮影と独立して、マイクによる音声信号を管理センターを介して端末機器に送信し端末機器が、マイクからの音声信号を再生する。よって、端末機器により運行範囲内で自動運転車両の周囲の音を聴覚的に認知することができる。 If the imaging unit is equipped with a microphone that converts ambient sound into an audio signal, the audio signal from the microphone is transmitted to the terminal device via the management center at the same time as shooting or independently of shooting, and the terminal device sends the microphone to the terminal device. Play the audio signal of. Therefore, the terminal device can audibly recognize the sound around the autonomous driving vehicle within the operating range.

撮像部が複数個の撮像カメラを備えていれば、各撮像カメラが互いに独立的に異なる高さ位置あるいは異なる画角又は方向に設定され又は調整されるので、自動運転車両からの視界がより効果的に視覚的に認知される。 If the imaging unit includes a plurality of imaging cameras, each imaging camera is independently set or adjusted to a different height position or a different angle of view or direction, so that the field of view from the automatically driven vehicle is more effective. It is visually recognized.

本発明による自動運転車両による遠隔撮像システムにおいて、第二のネットワークが第一のネットワークと同じである場合は、一つのネットワークを使用して低コストで簡便に本システムを構成することができる。
前記マップデータは、好ましくは、動物園、植物園、水族館、公園等の特定の閉鎖空間における運行路データを含み、利用者が端末機器に表示した映像により自動運転車両の遠隔操作を行なうことで、当該閉鎖空間内で自動運転車両を自動走行させることができる。
上記遠隔撮影システムを用いて、利用者が端末機器に表示した映像により自動運転車両の遠隔操作を行なうことで、自動運転車両を遠隔操作で自動走行させる走行システムを構成することができる。
In the remote imaging system using the autonomous driving vehicle according to the present invention, when the second network is the same as the first network, the system can be easily configured at low cost by using one network.
The map data preferably includes operation route data in a specific closed space such as a zoo, a botanical garden, an aquarium, or a park, and the user performs remote operation of the autonomous driving vehicle by a video displayed on a terminal device. Self-driving vehicles can be driven automatically in a closed space.
By using the remote photographing system and remotely controlling the autonomous driving vehicle by the image displayed on the terminal device by the user, it is possible to configure a traveling system in which the autonomous driving vehicle is automatically driven by remote control.

本発明によれば、利用者が自分の家その他の遠隔地に所在していても、利用者の端末機器により、例えば動物園,植物園,水族館等の見学を主体とする施設やテーマパーク等あるいは美術館,博物館等の遠く離れた広大な施設を居ながらにして、恰も当該施設で見物しているかのように所望のアングルで撮像し手元の携帯端末で撮像画面を見ることができると共に、遠隔撮影システムを用いて、利用者が端末機器に表示した映像により自動運転車両の遠隔操作を行ない、自動運転車両を自動走行させることができ、極めて優れた自動運転車両による遠隔撮像システム及び走行システムを提供することができる。 According to the present invention, even if the user is located in his / her own house or other remote place, the user's terminal device can be used to visit facilities, theme parks, or museums such as zoos, botanical gardens, and aquariums. , While you are in a vast facility such as a museum, you can take an image from a desired angle as if you were looking at the facility, and you can see the imaged screen on your mobile terminal, and a remote photography system. By using the above, the user can remotely control the autonomous driving vehicle by the image displayed on the terminal device, and the autonomous driving vehicle can be automatically driven. be able to.

本発明による自動運転車両による遠隔撮像システムの一実施形態の全体構成を示す概略図である。It is a schematic diagram which shows the whole structure of one Embodiment of the remote imaging system by the automatic driving vehicle by this invention. 図1の遠隔撮像システムの運行範囲の例を示す概略図である。It is the schematic which shows the example of the operation range of the remote imaging system of FIG. 図1の遠隔撮像システムで使用される自動運転車両の構成を示すブロック図である。It is a block diagram which shows the structure of the self-driving vehicle used in the remote imaging system of FIG. 図3の自動運転車両の具体的な構成を示す左側面図である。It is a left side view which shows the specific structure of the self-driving vehicle of FIG. 図3の自動運転車両を示す平面図である。It is a top view which shows the self-driving vehicle of FIG. 図3の自動運転車両を示す正面図である。It is a front view which shows the self-driving vehicle of FIG. 図1の遠隔撮像システムにおける管理センターの構成を示すブロック図である。It is a block diagram which shows the structure of the management center in the remote imaging system of FIG. 図1の遠隔撮像システムにおける端末機器の表示部の画面表示例を示す概略図である。It is the schematic which shows the screen display example of the display part of the terminal apparatus in the remote imaging system of FIG. 図1の遠隔撮像システムにおける自動運転車両の走行及び撮像の開始までの作業を順次に示すフローチャートである。It is a flowchart which sequentially shows the operation of the self-driving vehicle running in the remote imaging system of FIG. 1 and the start of imaging. 図1の遠隔撮像システムにおける自動運転車両の走行制御の作業を順次に示すフローチャートである。It is a flowchart which sequentially shows the operation of the traveling control of the self-driving vehicle in the remote imaging system of FIG. 図1の遠隔撮像システムにおける撮像部の撮像制御の作業を順次に示すフローチャートである。It is a flowchart which sequentially shows the work of the image pickup control of the image pickup part in the remote image pickup system of FIG. 自動運転車両の遠隔走行システムの変形例の構成を示すブロック図である。It is a block diagram which shows the structure of the modification of the remote traveling system of an autonomous driving vehicle.

以下、図面に示した実施形態に基づいて本発明を詳細に説明する。
図1は、本発明による自動運転車両による遠隔撮像システム(以下、遠隔撮像システムという)の一実施形態の全体構成を示している。遠隔撮像システム10は、運行範囲として例えば動物園内の一部領域において、出発位置から展示されている複数の動物展示エリアを巡回する走路に沿って移動しながら、動物展示エリア内の動物等を撮影して出発位置に戻るものであって、自動運転車両20と管理センター30と第一のネットワーク40と利用者50が使用する端末機器60と第二のネットワーク70とから構成されている。自動運転車両20,利用者50及び端末機器60は、図1にはそれぞれ一つのみが示されているが、実際には、複数台の自動運転車両20,複数人の利用者50及び端末機器60が配置されて複数の利用者50に対応することができる。以下の説明では、1人の利用者50が端末機器60を有していて、動物園内の複数の動物展示エリアを巡回して見学する場合を例にとる。
Hereinafter, the present invention will be described in detail based on the embodiments shown in the drawings.
FIG. 1 shows the overall configuration of an embodiment of a remote imaging system (hereinafter referred to as a remote imaging system) by an autonomous driving vehicle according to the present invention. The remote imaging system 10 photographs animals and the like in the animal exhibition area while moving along a runway that goes around a plurality of animal exhibition areas exhibited from the departure position in a part of the zoo, for example, as an operation range. Then, it returns to the departure position, and is composed of an autonomous driving vehicle 20, a management center 30, a first network 40, a terminal device 60 used by the user 50, and a second network 70. Although only one of the autonomous driving vehicle 20, the user 50, and the terminal device 60 is shown in FIG. 1, in reality, a plurality of autonomous driving vehicles 20, a plurality of users 50, and the terminal device 60 are shown. 60 can be arranged to accommodate a plurality of users 50. In the following description, an example will be taken in which one user 50 has a terminal device 60 and tours a plurality of animal exhibition areas in the zoo.

上述した運行範囲としての動物園内の一部領域の例としては、図2に示すように、例えば草原ゾーン80にて、複数の動物展示エリアを巡回する一周約350m程度の走路81に沿って、出発位置81aからスタートして同じ出発位置81aに戻るまで、自動運転車両20がゆっくりと周回走行するようになっている。各動物展示エリアのうち、ガイドエリア82には、後述するように、当該ガイドエリア82で展示される動物に関する音声ガイド情報が設定される。 As an example of a part of the zoo as the above-mentioned operation range, as shown in FIG. 2, for example, in the grassland zone 80, along a runway 81 of about 350 m around a plurality of animal exhibition areas. The self-driving vehicle 20 slowly orbits from the departure position 81a to the return to the same departure position 81a. Of the animal exhibition areas, the guide area 82 is set with audio guide information regarding the animals exhibited in the guide area 82, as will be described later.

第一のネットワーク40は、任意の構成のネットワークであって、専用回線ネットワーク、公衆回線ネットワークの何れでもよく、動物園の当該草食動物ゾーンに配置されたWi−Fi等の無線LANであってもよい。第一のネットワーク40により、自動運転車両20と管理センター30が相互に接続される。 The first network 40 is a network having an arbitrary configuration, and may be a dedicated line network or a public line network, or may be a wireless LAN such as Wi-Fi arranged in the herbivorous animal zone of the zoo. .. The first network 40 connects the self-driving vehicle 20 and the management center 30 to each other.

第二のネットワーク70は、同様に任意の構成のネットワークで、公衆回線ネットワークや動物園の当該草食動物ゾーンに配置されたWi−Fi(登録商標)やBluetooth(登録商標)等の無線LANであってもよい。第二のネットワーク70により、端末機器60と管理センター30が相互に接続される。第二のネットワーク70は、第一のネットワーク40と同じネットワークであってもよい。具体的には、第一のネットワーク40がLTE又は4Gの公衆回線ネットワークの場合には、第二のネットワーク70も同じ公衆回線ネットワークを使用してもよい。この場合には、通信速度が早く、通信範囲が広いという利点が生じる。 The second network 70 is a network having an arbitrary configuration, and is a public line network or a wireless LAN such as Wi-Fi (registered trademark) or Bluetooth (registered trademark) arranged in the herbivore zone of the zoo. May be good. The second network 70 connects the terminal device 60 and the management center 30 to each other. The second network 70 may be the same network as the first network 40. Specifically, when the first network 40 is an LTE or 4G public line network, the second network 70 may also use the same public line network. In this case, there are advantages that the communication speed is high and the communication range is wide.

自動運転車両20は、無人自動運転が可能な自動運転車両であり、一人乗りカートと同様の構成であって、図3に示すように、車両本体21(自動運転車両20の細部構成については、図4以下に図示。)の下部に設けられた走行部22と、走行部22を自動運転制御する制御部23と、着座部24と、各種操作を行なう車載端末25と、を備え、当該自動運転車両20を特定するための車両識別情報26が付されると共に、さらに撮像部27を備えている。自動運転車両20は、利用されない場合には、出発位置81a付近に待機している。自動運転車両20は図示の一人乗り用に限らず複数人乗車可能なものでも、或いは、遠隔操作専用の車両であれば乗用車タイプに限らず、遠隔操作による走行専用車両でも、或いは本出願人により提案している無人の商品配達専用の自動運転車両などであってもよい。 The autonomous driving vehicle 20 is an autonomous driving vehicle capable of unmanned automatic driving, and has the same configuration as a single-seater cart. A traveling unit 22 provided at the bottom of FIG. 4 and below), a control unit 23 that automatically controls the traveling unit 22, a seating unit 24, and an in-vehicle terminal 25 that performs various operations are provided, and the automatic operation thereof is provided. Vehicle identification information 26 for identifying the driving vehicle 20 is attached, and an imaging unit 27 is further provided. The self-driving vehicle 20 stands by near the departure position 81a when it is not used. The self-driving vehicle 20 is not limited to the one shown in the figure and can accommodate multiple passengers, or if it is a vehicle dedicated to remote control, it is not limited to the passenger car type, but it may be a vehicle dedicated to traveling by remote control, or by the applicant. It may be the proposed self-driving vehicle dedicated to unmanned product delivery.

車載端末25は、例えば市販のタブレット端末等の情報端末機器が使用され、その表示部25aは、着座部24に着座した人から見やすい位置に配置されている。本実施形態では、自動運転車両20の着座部24には、利用の際には人が乗車しないので、着座部24及び車載端末25は省略されてもよい。 As the in-vehicle terminal 25, for example, a commercially available information terminal device such as a tablet terminal is used, and the display unit 25a is arranged at a position that is easy for a person seated on the seating unit 24 to see. In the present embodiment, since no person gets on the seating portion 24 of the autonomous driving vehicle 20 at the time of use, the seating portion 24 and the in-vehicle terminal 25 may be omitted.

自動運転車両20の制御部23は、端末機器60から管理センター30を介して送られてくる走行操作情報60b及び撮像操作情報60cに基づいて走行部22及び撮像部27を駆動制御する。利用開始情報60aは、端末機器60を特定する端末識別情報60dを含んでおり、自動運転車両20の制御部23は、この端末識別情報60dにより特定された端末機器60と関連付けられて、当該端末機器60から送られてくる走行操作情報60b及び撮像操作情報60cにより、走行部22及び撮像部27の駆動制御を行なう。 The control unit 23 of the autonomous driving vehicle 20 drives and controls the traveling unit 22 and the imaging unit 27 based on the traveling operation information 60b and the imaging operation information 60c sent from the terminal device 60 via the management center 30. The use start information 60a includes terminal identification information 60d that identifies the terminal device 60, and the control unit 23 of the autonomous driving vehicle 20 is associated with the terminal device 60 specified by the terminal identification information 60d, and the terminal is associated with the terminal device 60. The driving control of the traveling unit 22 and the imaging unit 27 is performed by the traveling operation information 60b and the imaging operation information 60c sent from the device 60.

自動運転車両20の制御部23は、走行制御情報60bを受け取ると、この走行制御情報60bに基づいて自動運転車両20の走路81内の人や障害物等そして他の自動運転車両20を回避する際には、走行操作情報60bによる走行部22の駆動制御に対して割り込み制御を行なう。かくして、自動運転車両20は制御部23により制御されて、走行部22の駆動制御により、出発位置から草食動物ゾーン内の走路81に沿って走路81内の人や障害物等そして他の自動運転車両20を回避しながら、端末機器60からの走行操作情報60bに基づいて前進・後退・停止等、或いは右左折などの操舵を行なって、撮像部27の駆動制御により各展示エリアの動物等の撮影を行なう。自動運転車両20の制御部23は、走行部22の駆動制御の際に、その走行速度を複数段階に設定することができ、走行速度の変更は端末機器60からの走行操作情報60bに基づいて行なわれる。 When the control unit 23 of the autonomous driving vehicle 20 receives the travel control information 60b, the control unit 23 avoids people, obstacles, etc., and other autonomous driving vehicles 20 in the track 81 of the autonomous driving vehicle 20 based on the travel control information 60b. At this time, interrupt control is performed for the drive control of the traveling unit 22 based on the traveling operation information 60b. Thus, the autonomous driving vehicle 20 is controlled by the control unit 23, and by the drive control of the traveling unit 22, people, obstacles, etc. in the driving path 81 and other automatic driving along the running path 81 in the herbivore zone from the starting position. While avoiding the vehicle 20, steering forward, backward, stop, etc., or turning left or right based on the driving operation information 60b from the terminal device 60 is performed, and animals and the like in each exhibition area are controlled by the drive control of the imaging unit 27. Take a picture. The control unit 23 of the autonomous driving vehicle 20 can set the traveling speed in a plurality of stages at the time of driving control of the traveling unit 22, and the change of the traveling speed is based on the traveling operation information 60b from the terminal device 60. It is done.

撮像部27は、自動運転車両20の車両本体21の任意の位置、図示の場合には前部上方に設けられて二軸方向に揺動可能に支持され、図示しない揺動手段により縦方向及び横方向に所望の角度位置に揺動される。撮像部27は上下動可能な支持台27a上に取り付けられ、図示しない昇降手段により垂直方向に所望の高さ位置に昇降される。また、その撮像レンズがズームレンズとして構成されて図示しない駆動手段によりズーミングが行なわれる。 The image pickup unit 27 is provided at an arbitrary position of the vehicle body 21 of the autonomous driving vehicle 20, and in the case of the illustration, is provided above the front portion and is supported so as to be swingable in the biaxial direction. It is swung laterally to a desired angular position. The image pickup unit 27 is mounted on a support base 27a that can move up and down, and is moved up and down to a desired height position in the vertical direction by an elevating means (not shown). Further, the imaging lens is configured as a zoom lens, and zooming is performed by a driving means (not shown).

撮像部27の縦方向・横方向の揺動,昇降及びズーミングは、端末機器60から管理センター30及び自動運転車両20の制御部23を介して送られてくる撮像操作情報60cに基づいて行なわれる。撮像部27は、撮像操作情報60cに基づいて動画の撮影を開始・終了し、撮影した動画の撮像データ28を、制御部23から第一のネットワーク40,管理センター30及び第二のネットワーク70を介して端末機器60に送信する。端末機器60では、その表示画面に、撮像データ28による動画がカメラ画像62として表示される。 The vertical / horizontal swing, ascending / descending, and zooming of the imaging unit 27 are performed based on the imaging operation information 60c sent from the terminal device 60 via the management center 30 and the control unit 23 of the autonomous driving vehicle 20. .. The imaging unit 27 starts and ends shooting of a moving image based on the imaging operation information 60c, and outputs the captured moving image data 28 from the control unit 23 to the first network 40, the management center 30, and the second network 70. It is transmitted to the terminal device 60 via. In the terminal device 60, a moving image based on the captured data 28 is displayed as a camera image 62 on the display screen.

撮像部27は、左右一対の側方を撮像するカメラ27b及び27cを備え、この左右のカメラ27b及び27cの撮像データ28も同様にして第一のネットワーク40,管理センター30及び第二のネットワーク70を介して端末機器60に送信される。これらのカメラ27b及び27cは、撮像部27と同期して動画の撮影を行なうように制御される。これにより、同様に端末機器60では、その表示画面に撮像データ28による動画の撮像画面63,64が表示される。なお、カメラ27b及び27cは固定カメラであり、縦方向及び横方向の揺動、昇降あるいはズーミングを行なうことはできない。 The imaging unit 27 includes cameras 27b and 27c that image a pair of left and right sides, and the imaging data 28 of the left and right cameras 27b and 27c are similarly the first network 40, the management center 30, and the second network 70. Is transmitted to the terminal device 60 via. These cameras 27b and 27c are controlled so as to shoot a moving image in synchronization with the imaging unit 27. As a result, similarly, in the terminal device 60, the image pickup screens 63 and 64 of the moving image based on the image pickup data 28 are displayed on the display screen. The cameras 27b and 27c are fixed cameras and cannot swing, move up and down or zoom in the vertical and horizontal directions.

撮像部27は、撮像方向の音声を拾って音声信号29に変換するマイク27dを内蔵しこの音声信号29を第一のネットワーク40を介して管理センター30に送出する。これにより管理センター30の制御部23は、この音声信号29を第二のネットワーク70を介して端末機器60に送出し、端末機器60はこの音声信号29を図示しないスピーカにより再生する。 The imaging unit 27 has a built-in microphone 27d that picks up the audio in the imaging direction and converts it into an audio signal 29, and sends the audio signal 29 to the management center 30 via the first network 40. As a result, the control unit 23 of the management center 30 sends the audio signal 29 to the terminal device 60 via the second network 70, and the terminal device 60 reproduces the audio signal 29 by a speaker (not shown).

自動運転車両20は、具体的には図4〜図6に示すように、車両本体21に対して前後の下部に二対の車輪22aを含む走行部22を備え、車両本体21の左右両側にドア21aを、さらに安全走行に必要な前照灯21b,方向指示器21cや、無人自動運転のために必要な前方監視ステレオカメラ21d,監視センサ21e等を備えている。さらに、前方監視ステレオカメラ21dや監視センサ21eからの映像信号及び図示しない位置情報を含む検出信号が第一のネットワーク40を介して管理センター30に送信される。また、図6に示すように、車両本体21の前面の両側に一対の表示部21fを備えていてもよい。この表示部21fは、本出願人による特願2019−003919号に記載している自律走行車両100のディスプレイ110と同様に、目形状映像を表示するものであり、自動運転車両20の走行状態に応じて各種意味を有する目形状を表示するで、動物園に実際に来園している一般客等に対して円滑な走行を行なわせることができる。 Specifically, as shown in FIGS. 4 to 6, the autonomous driving vehicle 20 is provided with traveling portions 22 including two pairs of wheels 22a at the lower front and rear parts of the vehicle body 21, and is provided on both left and right sides of the vehicle body 21. The door 21a is further equipped with a headlight 21b and a direction indicator 21c necessary for safe driving, a forward monitoring stereo camera 21d and a monitoring sensor 21e necessary for unmanned automatic driving, and the like. Further, a video signal from the forward monitoring stereo camera 21d and the monitoring sensor 21e and a detection signal including position information (not shown) are transmitted to the management center 30 via the first network 40. Further, as shown in FIG. 6, a pair of display units 21f may be provided on both sides of the front surface of the vehicle body 21. The display unit 21f displays an eye-shaped image similar to the display 110 of the autonomous traveling vehicle 100 described in Japanese Patent Application No. 2019-003919 by the present applicant, and displays the eye shape image in the traveling state of the autonomous driving vehicle 20. By displaying the eye shapes having various meanings accordingly, it is possible to make the general customers who actually visit the zoo run smoothly.

管理センター30は、適宜の箇所に設けられたワークステーション,クラウドサーバ又はパーソナルコンピュータ等の情報処理装置から構成され、図7に示すように、送受信部31と記憶部32と制御部33とを有している。管理センター30での処理は、プログラムに制御されたワークステーション,クラウドサーバ又はパーソナルコンピュータ等のコンピュータにより実行され、記録媒体としては、例えば磁気ディスク,半導体メモリ,その他の任意のコンピュータで読取り可能なものが使用される。また、記録媒体に記録されたプログラムは、記録媒体を直接コンピュータに装着して当該コンピュータに読み込ませてもよく、各種ネットワークを介してコンピュータに読み込ませるようにしてもよい。 The management center 30 is composed of information processing devices such as workstations, cloud servers, and personal computers provided at appropriate locations, and has a transmission / reception unit 31, a storage unit 32, and a control unit 33 as shown in FIG. doing. The processing in the management center 30 is executed by a computer such as a workstation, a cloud server, or a personal computer controlled by a program, and the recording medium can be read by, for example, a magnetic disk, a semiconductor memory, or any other computer. Is used. Further, the program recorded on the recording medium may be read by the computer by directly mounting the recording medium on the computer, or may be read by the computer via various networks.

管理センター30の送受信部31は、第一のネットワーク40を介して各自動運転車両20の制御部23と、第二のネットワーク70を介して利用者50の端末機器60と、相互に通信可能に接続されている。管理センター30の送受信部31は、個々の自動運転車両20から、当該自動運転車両20の状態を示す走行開始通知23a及び走行終了通知23bを車両識別情報26と共に第一のネットワーク40を介して受け取ったとき、これらの通知23a,23bを車両識別情報26に関連付けて制御部33に送出する。これにより、管理センター30の制御部33は、これらの通知23a,23bから、管理するすべての自動運転車両20の利用状態を常に把握して一元管理することができる。 The transmission / reception unit 31 of the management center 30 can communicate with the control unit 23 of each autonomous driving vehicle 20 via the first network 40 and the terminal device 60 of the user 50 via the second network 70. It is connected. The transmission / reception unit 31 of the management center 30 receives the travel start notification 23a and the travel end notification 23b indicating the state of the autonomous driving vehicle 20 from the individual autonomous driving vehicle 20 via the first network 40 together with the vehicle identification information 26. At that time, these notifications 23a and 23b are associated with the vehicle identification information 26 and sent to the control unit 33. As a result, the control unit 33 of the management center 30 can always grasp the usage status of all the autonomous driving vehicles 20 to be managed from these notifications 23a and 23b and centrally manage them.

管理センター30の制御部33は、端末機器60から利用開始情報60aを受け取ったときには、空いている(利用状態でない)自動運転車両20を選択し、選択した自動運転車両20に対して第一のネットワーク40を介して利用開始情報60aを送信する。記憶部32には、動物園の一部エリアにおける自動運転車両20の運行範囲に関するマップデータ32aが登録されており、管理センター30の制御部33は、記憶部32からマップデータ32aを読み出して、このマップデータ32aと自動運転車両20の位置情報に基づいて、当該自動運転車両20が運行範囲である走路81からはみ出さないように又は走路81内の人や障害物あるいは他の自動運転車両20と所定距離以下に接近しないように、当該自動運転車両20の走行操作情報60bによる自動運転を管理する。即ち、管理センター30の制御部33は、自動運転車両20の走行操作情報60bによる走行中に、走路81からはみ出そうとしたり、走路81内の人や障害物あるいは他の自動運転車両20と所定距離以下に接近しつつある場合には、割込制御情報33aを第一のネットワーク40を介して当該自動運転車両20に対して送信する。これを受けて、当該自動運転車両20は、走行操作情報60bによる走行部22の駆動制御を中断し、割込制御情報33aに基づいて走行部22を駆動制御する。これにより、当該自動運転車両20は、割込制御情報33aに基づいて走路81内に戻り、又は走路81内の人や障害物あるいは他の自動運転車両20と所定距離以下に接近しないように徐行,後退又は停止する。 When the control unit 33 of the management center 30 receives the usage start information 60a from the terminal device 60, it selects a vacant (not in use) autonomous driving vehicle 20, and is the first with respect to the selected autonomous driving vehicle 20. The usage start information 60a is transmitted via the network 40. Map data 32a relating to the operating range of the autonomous driving vehicle 20 in a part of the area of the zoo is registered in the storage unit 32, and the control unit 33 of the management center 30 reads the map data 32a from the storage unit 32 and this map data 32a is registered. Based on the map data 32a and the position information of the self-driving vehicle 20, the self-driving vehicle 20 should not protrude from the driving range 81 or with a person, an obstacle or another self-driving vehicle 20 in the self-driving vehicle 81. The automatic driving based on the traveling operation information 60b of the automatic driving vehicle 20 is managed so as not to approach the predetermined distance or less. That is, the control unit 33 of the management center 30 tries to protrude from the runway 81 or is predetermined to be a person, an obstacle, or another self-driving vehicle 20 in the runway 81 while traveling by the running operation information 60b of the self-driving vehicle 20. When the vehicle is approaching the distance or less, the interruption control information 33a is transmitted to the autonomous driving vehicle 20 via the first network 40. In response to this, the autonomous driving vehicle 20 interrupts the drive control of the traveling unit 22 based on the traveling operation information 60b, and drives and controls the traveling unit 22 based on the interrupt control information 33a. As a result, the self-driving vehicle 20 returns to the track 81 based on the interruption control information 33a, or slows down so as not to approach a person, an obstacle, or another self-driving vehicle 20 in the track 81 below a predetermined distance. , Retreat or stop.

マップデータ32aには、運行範囲である動物園の一部領域80内の各所に配置されたガイドエリア82、即ち、種々の動物の展示エリアに関して、それぞれ前もって作成された音声ガイド情報32bが関連付けられ、自動運転車両20が当該ガイドエリア82付近に移動したとき、当該自動運転車両20の現在位置から管理センター30の制御部33が対応する音声ガイド情報32bを読み出して、第二のネットワーク70を介して端末機器60に送信する。これにより、端末機器60は、この音声ガイド情報32bに基づいて、図示しない内蔵するスピーカにより自動運転車両20の現在位置に近いガイドエリア82に関する音声ガイドを再生する。 The map data 32a is associated with guide areas 82 arranged in various places within a partial area 80 of the zoo, which is the operating range, that is, audio guide information 32b created in advance for each of various animal exhibition areas. When the self-driving vehicle 20 moves to the vicinity of the guide area 82, the control unit 33 of the management center 30 reads the corresponding voice guide information 32b from the current position of the self-driving vehicle 20 and reads the corresponding voice guide information 32b via the second network 70. It is transmitted to the terminal device 60. As a result, the terminal device 60 reproduces the voice guide regarding the guide area 82 near the current position of the autonomous driving vehicle 20 by the built-in speaker (not shown) based on the voice guide information 32b.

端末機器60には、本システム専用アプリをインストールすることにより以下の操作を行なうことができる。
端末機器60を使用して本遠隔撮像システム10を実行する場合には、先ず端末機器60を操作して上記専用アプリを起動する。これにより、端末機器60は利用開始情報60aを作成して、端末識別情報60dと共に第二のネットワーク70を介して管理センター30に送信する。
The following operations can be performed by installing the application dedicated to this system on the terminal device 60.
When the remote imaging system 10 is executed using the terminal device 60, the terminal device 60 is first operated to start the dedicated application. As a result, the terminal device 60 creates the usage start information 60a and transmits it together with the terminal identification information 60d to the management center 30 via the second network 70.

ここで、端末機器60がスマートフォンである場合、専用アプリ起動後には、図8に示すようにその表示部61に画面表示が行なわれる。図8において、端末機器60の表示部61は、画面全体に撮像部27のカメラ画像62、左上に左側のカメラ27bのカメラ画像63,右上に右側のカメラ27cのカメラ画像64,左下には、速度設定表示65,右下には、前進・後退設定表示66を備えていると共に、中央上には、プレイ時間表示67を備える。 Here, when the terminal device 60 is a smartphone, the screen is displayed on the display unit 61 as shown in FIG. 8 after the dedicated application is activated. In FIG. 8, the display unit 61 of the terminal device 60 has a camera image 62 of the imaging unit 27 on the entire screen, a camera image 63 of the camera 27b on the left side on the upper left, a camera image 64 of the camera 27c on the right side on the upper right, and a camera image 64 on the lower left. A speed setting display 65 and a forward / backward setting display 66 are provided at the lower right, and a play time display 67 is provided at the upper center.

カメラ画像62は、中央領域のカメラマーク62aのタップ操作により動画から静止画の画像を切り取ることができ、表示部分のスワイプ操作により縦方向及び横方向の揺動、そしてピンチイン又はピンチアウト操作によりズーミングを指示することができる。切り取られた静止画は端末機器60内に保存され、後で読み出して画面に表示させたり印刷することができる。 The camera image 62 can cut a still image from a moving image by tapping the camera mark 62a in the central region, swinging in the vertical and horizontal directions by swiping the display portion, and zooming by pinching in or pinching out. Can be instructed. The cut still image is stored in the terminal device 60, and can be read out later and displayed on the screen or printed.

ここで、利用直後においては、カメラ画像62は表示されておらず、カメラ画像62の領域をタップ操作するか、速度設定表示65又は前進・後退設定表示66をスワイプ操作したときに、端末機器60は、動画開始を指示する撮像操作情報60cを第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20の撮像部27に送信する。これにより、自動運転車両20の撮像部27は動画の撮影を開始して、撮像信号28を第一のネットワーク40,管理センター30及び第二のネットワーク70を介して端末機器60に送信する。かくして、端末機器60の表示部61に、カメラ画像62として撮像部27による動画が表示される。 Here, immediately after use, the camera image 62 is not displayed, and when the area of the camera image 62 is tapped or the speed setting display 65 or the forward / backward setting display 66 is swiped, the terminal device 60 Transmits the image pickup operation information 60c instructing the start of the moving image to the image pickup unit 27 of the automatic driving vehicle 20 via the second network 70, the management center 30, and the first network 40. As a result, the image pickup unit 27 of the autonomous driving vehicle 20 starts shooting a moving image, and transmits the image pickup signal 28 to the terminal device 60 via the first network 40, the management center 30, and the second network 70. Thus, the moving image by the imaging unit 27 is displayed as the camera image 62 on the display unit 61 of the terminal device 60.

速度設定表示65は、表示部分のスワイプ操作により速度の高低を調整することができると共に、前進・後退設定表示66は、表示部分の矢印位置のタップ操作により前進又は後退を設定することができる。プレイ時間表示67は、例えば本システムによる撮像時間に制限時間、例えば15分間を設ける場合に経過時間の表示を行なう。 The speed setting display 65 can adjust the speed by swiping the display portion, and the forward / backward setting display 66 can set forward or backward by tapping the arrow position of the display portion. The play time display 67 displays the elapsed time when, for example, the imaging time by this system is set to a time limit, for example, 15 minutes.

このようにして端末機器60は、表示部61のタッチパネルによる速度設定表示65及び前進・後退設定表示66のスワイプ操作により走行操作情報60bを生成して、また、カメラ画像62のタップ操作,スワイプ操作により、静止画撮像,縦方向及び横方向の揺動,昇降及びズーミングあるいは動画撮像開始及び終了の撮像操作情報60cを生成して、共に第二のネットワーク70を介して管理センター30に送信する。 In this way, the terminal device 60 generates running operation information 60b by swiping the speed setting display 65 and the forward / backward setting display 66 on the touch panel of the display unit 61, and also taps and swipes the camera image 62. The still image imaging, vertical and horizontal swinging, ascending / descending and zooming, or moving image imaging start / end imaging operation information 60c is generated and both transmitted to the management center 30 via the second network 70.

本発明による遠隔撮像システム10は以上のように構成され、以下のように動作する。先ず、自動走行車両20が走行及び撮像を開始するまでの手順を、図9のフローチャートに従って、以下に説明する。 The remote imaging system 10 according to the present invention is configured as described above and operates as follows. First, the procedure until the automatic traveling vehicle 20 starts traveling and imaging will be described below according to the flowchart of FIG.

図9のフローチャートにおいて、ステップST1にて、利用者50は端末機器60を操作して本システム専用アプリを起動する。これにより、ステップST2にて、端末機器60は第二のネットワーク70を介して利用開始情報60a及び端末識別情報60dを管理センター30に送信する。 In the flowchart of FIG. 9, in step ST1, the user 50 operates the terminal device 60 to activate the system-dedicated application. As a result, in step ST2, the terminal device 60 transmits the usage start information 60a and the terminal identification information 60d to the management center 30 via the second network 70.

これを受けて、管理センター30の制御部33は、ステップST3にて利用状態にない自動運転車両20を選択し、ステップST4にて当該自動運転車両20に対して第一のネットワーク40を介して利用開始情報60a及び端末識別情報60dを送信する。これにより当該自動運転車両20の制御部23はステップST5にて、利用開始通知23aを第一のネットワーク40を介して管理センター30に送信する。かくして、利用者50の端末機器60と選択された自動運転車両20との間で関連付けが行なわれ、利用の準備が完了する。 In response to this, the control unit 33 of the management center 30 selects the autonomous driving vehicle 20 that is not in use in step ST3, and in step ST4, the autonomous driving vehicle 20 is referred to the autonomous driving vehicle 20 via the first network 40. The usage start information 60a and the terminal identification information 60d are transmitted. As a result, the control unit 23 of the autonomous driving vehicle 20 transmits the use start notification 23a to the management center 30 via the first network 40 in step ST5. Thus, the terminal device 60 of the user 50 and the selected autonomous driving vehicle 20 are associated with each other, and the preparation for use is completed.

この状態からステップST6にて、利用者50が端末機器60の表示部61の画面上で、速度設定表示65又は前進・後退設定表示66をタッチ操作すると、ステップST7にて端末機器60から走行操作情報60bが第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23はステップST8にて、この走行操作情報60bに基づいて走行部22を駆動制御し、ステップST9にて自動運転車両20が走路81に沿って走行を開始する。 From this state, when the user 50 touches the speed setting display 65 or the forward / backward setting display 66 on the screen of the display unit 61 of the terminal device 60 in step ST6, the traveling operation is performed from the terminal device 60 in step ST7. Information 60b is transmitted to the autonomous driving vehicle 20 via the second network 70, the management center 30, and the first network 40. As a result, the control unit 23 of the autonomous driving vehicle 20 drives and controls the traveling unit 22 based on the traveling operation information 60b in step ST8, and the autonomous driving vehicle 20 starts traveling along the runway 81 in step ST9. do.

その後又はステップST7と同時に、端末機器60はステップST10にて、動画撮像開始の撮像操作情報60cを自動運転車両20に対して送信する。これにより、自動運転車両20の撮像部27及び側方カメラ27b及び27cが、ステップST11に示すように動画の撮影を開始し、ステップST12にて動画の撮像データ28を第一のネットワーク40,管理センター30及び第二のネットワーク70を介して端末機器60に送信する。従って、ステップST13にて、端末機器60の表示部61には動画のカメラ画面62〜64が表示されることになる。 After that, or at the same time as step ST7, the terminal device 60 transmits the imaging operation information 60c for starting moving image imaging to the autonomous driving vehicle 20 in step ST10. As a result, the image pickup unit 27 and the side cameras 27b and 27c of the autonomous driving vehicle 20 start shooting the moving image as shown in step ST11, and in step ST12, the image pickup data 28 of the moving image is managed by the first network 40. It transmits to the terminal device 60 via the center 30 and the second network 70. Therefore, in step ST13, the moving image camera screens 62 to 64 are displayed on the display unit 61 of the terminal device 60.

かくして、自動運転車両20による動物園内の撮像が開始される。このとき、端末機器60の表示部61には、撮像部27により撮像されたカメラ画面62だけでなく、左右の側方カメラ27b及び27cによりそれぞれ撮像されたカメラ画面63及び64も表示されるので、利用者50は、端末機器60の表示部61のカメラ画面62〜64を見ることによって、恰も自動運転車両20に乗車して走路81を走行しているかのような体験を獲得することができる。 Thus, the self-driving vehicle 20 starts imaging the inside of the zoo. At this time, not only the camera screen 62 captured by the imaging unit 27 but also the camera screens 63 and 64 captured by the left and right side cameras 27b and 27c are displayed on the display unit 61 of the terminal device 60. By looking at the camera screens 62 to 64 of the display unit 61 of the terminal device 60, the user 50 can obtain an experience as if he / she is riding on the automatic driving vehicle 20 and traveling on the runway 81. ..

ここで、ステップST14にて、管理センター30が自動運転車両20からの位置情報に基づいて前もって設定されたガイドエリア82に接近することを検出すると、ステップST15にて、当該ガイドエリア82に関する音声ガイド情報32bを読み出して、第二のネットワーク70を介して端末機器60に送信する。これにより端末機器60は、ステップST16にて内蔵されたスピーカにより当該音声ガイド情報32bを再生する。 Here, when it is detected in step ST14 that the management center 30 approaches the guide area 82 set in advance based on the position information from the autonomous driving vehicle 20, in step ST15, the voice guide regarding the guide area 82 is detected. The information 32b is read out and transmitted to the terminal device 60 via the second network 70. As a result, the terminal device 60 reproduces the voice guide information 32b by the speaker built in in step ST16.

次に、自動運転車両20の走行中における走行制御について、図10のフローチャートを参照して説明する。
自動運転車両20の走行中に、ステップST21にて端末機器60の速度設定表示65がスワイプ操作されると、ステップST22にて、速度設定の走行操作情報60bが第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23は、ステップST23にてこの走行操作情報60bに含まれる速度設定の指示内容に対応して走行部22を駆動制御して走行速度を変更する。
Next, the traveling control of the autonomous driving vehicle 20 during traveling will be described with reference to the flowchart of FIG.
When the speed setting display 65 of the terminal device 60 is swiped in step ST21 while the autonomous driving vehicle 20 is traveling, the speed setting travel operation information 60b is transmitted to the second network 70 and the management center 30 in step ST22. And is transmitted to the autonomous driving vehicle 20 via the first network 40. As a result, the control unit 23 of the autonomous driving vehicle 20 drives and controls the traveling unit 22 in response to the speed setting instruction content included in the traveling operation information 60b in step ST23 to change the traveling speed.

また、自動運転車両20の走行中に、ステップST24にて、端末機器60の前進・後退設定表示66がスワイプ操作されると、ステップST25にて、前進・後退又は停止の切替に関する走行操作情報60bが、第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23はステップST26にて、この走行操作情報60bに含まれる前進・後退又は停止の切替の指示内容に対応して走行部22を駆動制御して、走行方向を前進又は後退に切り替えて走行を継続しあるいは停止させる。 Further, when the forward / backward setting display 66 of the terminal device 60 is swiped in step ST24 while the autonomous driving vehicle 20 is running, the travel operation information 60b relating to switching between forward / backward or stop is performed in step ST25. Is transmitted to the autonomous driving vehicle 20 via the second network 70, the management center 30, and the first network 40. As a result, in step ST26, the control unit 23 of the autonomous driving vehicle 20 drives and controls the traveling unit 22 in response to the instruction content of switching forward / backward or stop included in the traveling operation information 60b, and drives and controls the traveling direction. To continue or stop running by switching to forward or backward.

ここで、走行操作情報60bにより自動運転車両20が運行範囲内の走路81からはみ出したり、走路81内の人や障害物あるいは他の自動運転車両20に所定距離より接近するような場合には、ステップST27にて、管理センター30の制御部33が、走行操作情報60bによる走行制御に割り込んで、当該自動運転車両20に対して走路81内に導く又は停止させる割込制御情報33aを送信する。これにより、自動運転車両20の制御部23は、ステップST28にて、走行操作情報60bによる走行部22の駆動制御を中断し、ステップST29にて管理センター30からの割込制御情報33aに基づいて走行部22を駆動制御して、走路81内に戻し、必要に応じて徐行,後退又は停止させる。 Here, when the self-driving vehicle 20 protrudes from the running path 81 within the operating range or approaches a person, an obstacle, or another self-driving vehicle 20 in the running range 81 from the predetermined distance according to the traveling operation information 60b, In step ST27, the control unit 33 of the management center 30 interrupts the travel control based on the travel operation information 60b, and transmits the interruption control information 33a for guiding or stopping the autonomous driving vehicle 20 into the track 81. As a result, the control unit 23 of the autonomous driving vehicle 20 interrupts the drive control of the traveling unit 22 by the traveling operation information 60b in step ST28, and based on the interrupt control information 33a from the management center 30 in step ST29. The traveling unit 22 is driven and controlled to return to the traveling path 81, and slow down, move backward, or stop as necessary.

続いて、自動運転車両20の走行中における撮像制御について、図11のフローチャートを参照して説明する。
図11のフローチャートにおいて、自動運転車両20の走行中に、ステップST31にて、端末機器60のカメラ画面62が左方又は右方にスワイプ操作されると、ステップST32にて、横方向揺動を示す撮像操作情報60cが、第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23は、ステップST33にてこの撮像操作情報60cに含まれる横方向揺動の指示内容に対応して、撮像部27の揺動手段を駆動制御して左方又は右方に揺動させる。かくして、撮像部27の撮像範囲が左方又は右方に変更され、利用者50が見たい方向の撮像が行なわれる。
Subsequently, the image pickup control while the autonomous driving vehicle 20 is traveling will be described with reference to the flowchart of FIG.
In the flowchart of FIG. 11, when the camera screen 62 of the terminal device 60 is swiped to the left or right in step ST31 while the autonomous driving vehicle 20 is traveling, lateral swing is caused in step ST32. The image pickup operation information 60c shown is transmitted to the autonomous driving vehicle 20 via the second network 70, the management center 30, and the first network 40. As a result, the control unit 23 of the autonomous driving vehicle 20 drives and controls the swing means of the image pickup unit 27 to the left in response to the instruction content of the lateral swing included in the image pickup operation information 60c in step ST33. Swing to the right or to the right. Thus, the imaging range of the imaging unit 27 is changed to the left or right, and imaging in the direction desired by the user 50 is performed.

また、自動運転車両20の走行中に、ステップST34にて、端末機器60のカメラ画面62が上方又は下方にスワイプ操作されると、ステップST35にて、縦方向揺動を示す撮像操作情報60cが、第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23は、ステップST36にてこの撮像操作情報60cに含まれる縦方向揺動の指示内容に対応して撮像部27の揺動手段を駆動制御して上方又は下方に揺動させる。かくして、撮像部27の撮像範囲が上方又は下方に変更され、利用者50が見たい方向の撮影が行なわれる。 Further, when the camera screen 62 of the terminal device 60 is swiped upward or downward in step ST34 while the autonomous driving vehicle 20 is traveling, the imaging operation information 60c indicating vertical swing is generated in step ST35. , Is transmitted to the autonomous driving vehicle 20 via the second network 70, the management center 30, and the first network 40. As a result, the control unit 23 of the autonomous driving vehicle 20 drives and controls the swing means of the image pickup unit 27 in response to the instruction content of the vertical swing included in the image pickup operation information 60c in step ST36 to move upward or upward. Swing downward. Thus, the imaging range of the imaging unit 27 is changed upward or downward, and the user 50 takes a picture in the desired direction.

これに対して、自動運転車両20の走行中に、ステップST37にて端末機器60のカメラ画面62がピンチイン又はピンチアウト操作されると、ステップST38にて、ズーミングを示す撮像操作情報60cが第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23は、ステップST39にてこの撮像操作情報60cに含まれるズーミングの指示内容に対応して撮像部27の駆動手段を駆動制御して広角側又は望遠側にズーミングを行なう。かくして、撮像部27の撮像範囲が広角側又は望遠側に変更され、利用者50が見たい範囲の撮影が行なわれる。このようにして、撮像部27の撮像に関して、縦横方向の揺動及びズーミングが行なわれ、利用者50が見たい撮像範囲に調整される。 On the other hand, when the camera screen 62 of the terminal device 60 is pinched in or pinched out in step ST37 while the autonomous driving vehicle 20 is traveling, the imaging operation information 60c indicating zooming is second in step ST38. It is transmitted to the autonomous driving vehicle 20 via the network 70, the management center 30, and the first network 40. As a result, the control unit 23 of the autonomous driving vehicle 20 drives and controls the driving means of the imaging unit 27 in response to the zooming instruction content included in the imaging operation information 60c in step ST39 to move to the wide-angle side or the telephoto side. Do zooming. Thus, the imaging range of the imaging unit 27 is changed to the wide-angle side or the telephoto side, and the user 50 takes a picture of the range desired to be seen. In this way, with respect to the image pickup of the image pickup unit 27, the vertical and horizontal directions are swung and zoomed, and the image pickup range is adjusted to the image pickup range desired by the user 50.

また、自動運転車両20の走行中に、ステップST40にて、端末機器60の表示部61にてカメラ画面62のカメラマーク62aがタップ操作されると、端末機器60は、ステップST41にてそのときのカメラ画面62に写っている画像を静止画データとして取り込み、端末機器60のメモリ等に保存する。保存された静止画データを読み出すことにより、静止画を表示部61に表示し、場合によっては印刷出力することもできる。 Further, when the camera mark 62a on the camera screen 62 is tapped on the display unit 61 of the terminal device 60 in step ST40 while the automatic driving vehicle 20 is traveling, the terminal device 60 is then in step ST41. The image captured on the camera screen 62 of the above is taken in as still image data and saved in the memory or the like of the terminal device 60. By reading out the saved still image data, the still image can be displayed on the display unit 61, and in some cases, it can be printed out.

さらに、自動運転車両20の走行中に、端末機器60の表示部61におけるカメラ画面62に表示されるカメラの位置を上下するためのアイコン62bがタップ操作されると、昇降を示す撮像操作情報60cが第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これにより、自動運転車両20の制御部23は、この撮像操作情報60cに含まれる昇降の指示内容に対応して撮像部27の昇降手段を駆動制御し、撮像部27の高さ位置を上昇又は下降させ、利用者50が見たい範囲の撮影が行なわれる。 Further, when the icon 62b for moving the position of the camera displayed on the camera screen 62 on the display unit 61 of the terminal device 60 is tapped while the autonomous driving vehicle 20 is traveling, the imaging operation information 60c indicating ascending / descending is operated. Is transmitted to the autonomous driving vehicle 20 via the second network 70, the management center 30, and the first network 40. As a result, the control unit 23 of the autonomous driving vehicle 20 drives and controls the elevating means of the imaging unit 27 in response to the elevating instruction content included in the imaging operation information 60c, and raises or raises the height position of the imaging unit 27. It is lowered and a picture is taken in the range that the user 50 wants to see.

また、自動運転車両20の走行中に、端末機器60の表示部61におけるカメラ画面62に表示される周囲の音声を聞くためのアイコン62cがタップ操作されると、周囲音声要求信号60eが、第二のネットワーク70,管理センター30及び第一のネットワーク40を介して自動運転車両20に送信される。これを受けて、自動運転車両20の撮像部27はマイク27dを作動させ、マイク27dからの音声信号29を第一のネットワーク40,管理センター30及び第二のネットワーク70を介して端末機器60に送信する。これにより、端末機器60は内蔵されたスピーカ等によりこの音声信号29を再生し、利用者50は端末機器60により自動運転車両20の周囲の音、例えば動物が発する鳴き声等を聴くことができる。 Further, when the icon 62c for listening to the surrounding voice displayed on the camera screen 62 on the display unit 61 of the terminal device 60 is tapped while the self-driving vehicle 20 is traveling, the surrounding voice request signal 60e becomes the first. It is transmitted to the autonomous driving vehicle 20 via the second network 70, the management center 30, and the first network 40. In response to this, the imaging unit 27 of the autonomous driving vehicle 20 operates the microphone 27d, and the audio signal 29 from the microphone 27d is sent to the terminal device 60 via the first network 40, the management center 30, and the second network 70. Send. As a result, the terminal device 60 reproduces the audio signal 29 by the built-in speaker or the like, and the user 50 can hear the sound around the autonomous driving vehicle 20 by the terminal device 60, for example, the bark of an animal or the like.

このようにして、本発明による遠隔撮像システム10によれば、例えば動物園,植物園,水族館等の見学を主体とする施設やテーマパーク等あるいは美術館,博物館、見学施設のある会社の工場や会社が運営している博物館等の広大な施設を、利用者が希望する遠隔の地で所望のアングルで撮影して、手元の端末機器60で撮像画面を見ることにより、これらの施設を遠隔の場所から見学体験できるようにした、きわめて優れた自動運転車両による遠隔撮像システム10が提供される。 In this way, according to the remote imaging system 10 according to the present invention, for example, a facility or theme park mainly for tours of zoos, botanical gardens, aquariums, etc., or a factory or company of a company having museums, tour facilities, etc. is operated. Visit these facilities from a remote location by taking a picture of a vast facility such as a museum in a remote location desired by the user from a desired angle and viewing the imaging screen with the terminal device 60 at hand. A remote imaging system 10 with an extremely excellent self-driving vehicle that can be experienced is provided.

本発明の自動運転車両の遠隔走行システム10によれば、上記の遠隔撮像システム10を使用し、マップデータ32aが、動物園、植物園、水族館、公園、博物館、見学のための工場等の特定の閉鎖空間における運行路データを含み、利用者50が端末機器60に表示した映像により自動運転車両20の遠隔操作を行なうことで、当該閉鎖空間内で自動運転車両20を遠隔で自動走行させることができる。また、これらの特定の閉鎖空間を管理するのは、施設の運営会社に限らず、施設を管理する商業ビル管理会社、商業施設管理会社、物流会社等でもよい。 According to the remote driving system 10 of the autonomous driving vehicle of the present invention, the remote imaging system 10 is used, and the map data 32a is a specific closure of a zoo, a botanical garden, an aquarium, a park, a museum, a factory for a tour, or the like. By remotely operating the autonomous driving vehicle 20 by the image displayed on the terminal device 60 by the user 50 including the operation route data in the space, the autonomous driving vehicle 20 can be remotely automatically driven in the closed space. .. Further, the management of these specific closed spaces is not limited to the facility operating company, but may be a commercial building management company, a commercial facility management company, a distribution company, or the like that manages the facility.

さらに、本発明の自動運転車両の走行システムによれば、上記の何れかに記載の遠隔撮影システム10を用いて、利用者50が端末機器60に表示した映像により自動運転車両20の遠隔操作を行ない、自動運転車両10を遠隔で自動走行させることができる。 Further, according to the traveling system of the autonomous driving vehicle of the present invention, the remote photographing system 10 described in any of the above can be used to remotely control the autonomous driving vehicle 20 by the image displayed on the terminal device 60 by the user 50. By doing so, the self-driving vehicle 10 can be automatically driven remotely.

(自動運転車両の遠隔走行システムの変形例)
図12は、自動運転車両の遠隔走行システムの変形例10Aの構成を示すブロック図であり、複数の施設、例えば異なる場所にある複数の動物園に配置されている複数の自動運転車両20の遠隔走行システムを示すブロック図である。図1に示す自動運転車両の遠隔走行システム10と異なるのは、複数の第1の管理センター30Aと、第2の管理センター90と、複数の第1の管理センター30Aと第2の管理センター90とを接続する第3のネットワーク100をさらに備えている点である。各第1の管理センター30Aは、管理センター30と同様の機能を有しており、例えばゲートウェイ93を介して第3のネットワーク100に接続されて第2の管理センター90と相互に通信が行われるように構成されている。第3のネットワーク100は、例えばインターネットである。
(Modification example of remote driving system for autonomous driving vehicle)
FIG. 12 is a block diagram showing a configuration of a modification 10A of the remote driving system of the autonomous driving vehicle, in which remote traveling of a plurality of autonomous driving vehicles 20 arranged in a plurality of facilities, for example, a plurality of zoos at different locations. It is a block diagram which shows a system. The difference from the remote traveling system 10 of the autonomous driving vehicle shown in FIG. 1 is a plurality of first management centers 30A, a second management center 90, and a plurality of first management centers 30A and a second management center 90. A third network 100 for connecting to and is further provided. Each first management center 30A has the same function as the management center 30, and is connected to the third network 100 via a gateway 93, for example, and communicates with the second management center 90. It is configured as follows. The third network 100 is, for example, the Internet.

各第1の管理センター30Aは、例えば、施設を管理する商業施設管理会社、物流会社等により運営されている。さらに、第2の管理センター90は、自動運転車両20の製造会社又は自動運転車両20の運行管理会社により運営されている。 Each first management center 30A is operated by, for example, a commercial facility management company, a distribution company, or the like that manages the facility. Further, the second management center 90 is operated by the manufacturing company of the autonomous driving vehicle 20 or the operation management company of the autonomous driving vehicle 20.

各第1の管理センター30Aは、自動運転車両20の製造会社により、自動運転車両20の運転に係る監視や割り込み制御の権限が付与されると共に、自動運転車両の製造会社が提供する自動運転車両20の運用のためのソフトウェアやソフトウェアのAPI(Application Program Interface)等の提供を受ける。 Each of the first management centers 30A is given the authority of monitoring and interrupt control related to the operation of the autonomous driving vehicle 20 by the manufacturer of the autonomous driving vehicle 20, and the autonomous driving vehicle provided by the autonomous driving vehicle manufacturer. Received provision of software for 20 operations and API (Application Program Interface) of software.

第1の管理センター30Aは、各管理センター30Aで対応できない障害、例えば自動運転車両20が故障したときには故障情報35を第2の管理センター90に送信し、これを受けた第2の管理センター90は、自動運転車両20の制御部23に第3のネットワーク100と第1のネットワーク40を介してリモートアクセスをして自動運転車両20の故障の原因を特定し、走行部22を駆動制御することで、走路81内に戻したり、必要に応じて徐行,後退又は停止させることができる。 The first management center 30A transmits failure information 35 to the second management center 90 when a failure that cannot be dealt with by each management center 30A, for example, the self-driving vehicle 20 fails, and the second management center 90 receives the failure information 35. Is to remotely access the control unit 23 of the autonomous driving vehicle 20 via the third network 100 and the first network 40 to identify the cause of the failure of the autonomous driving vehicle 20 and drive and control the traveling unit 22. Then, it can be returned to the track 81, or slowed down, retreated or stopped as needed.

第2の管理センター90は、第3のネットワーク100及び第1のネットワーク40を介してリモートアクセスをして自動運転車両20の保守作業を実施することもできる。保守作業は、例えば、バッテリの充放電の計測や充電作業等が挙げられる。 The second management center 90 can also perform maintenance work on the autonomous driving vehicle 20 by remote access via the third network 100 and the first network 40. Maintenance work includes, for example, measurement of battery charge / discharge and charging work.

本発明は、その趣旨を逸脱しない範囲において様々な形態で実施することができる。自動運転車両20は乗用カートに限らず、所謂宅配用ロボットや警備用ロボット等を流用することも可能である。 The present invention can be implemented in various forms without departing from the spirit of the present invention. The self-driving vehicle 20 is not limited to a passenger cart, and a so-called home delivery robot, a security robot, or the like can be diverted.

自動運転車両20の運行範囲は、動物園内の一部領域に限らず、植物園,水族館等の見学を主体とする施設、あるいはテーマパーク等の大型施設、さらには美術館,博物館等の広大な施設等の場合にも、特定の閉鎖空間における運行路データを含むマップデータ32aを用意しておくことによって、施設内を巡回する走路81に沿って利用者50の希望するペースで撮影を行なうことができる。これにより、本発明に記載の遠隔撮影システム10を用いて、利用者50が遠隔地において端末機器60に表示した映像により自動運転車両20を遠隔操作して走行させる自動運転車両の走行システム10,10Aを提供することができる。 The operating range of the self-driving vehicle 20 is not limited to a part of the zoo, but facilities such as botanical gardens and aquariums, large facilities such as theme parks, and vast facilities such as museums. In this case as well, by preparing the map data 32a including the operation route data in the specific closed space, it is possible to take a picture at the pace desired by the user 50 along the runway 81 that goes around the facility. .. As a result, using the remote photographing system 10 described in the present invention, the traveling system 10 of the autonomous driving vehicle in which the user 50 remotely controls the autonomous driving vehicle 20 by the image displayed on the terminal device 60 at a remote location. 10A can be provided.

側方カメラ27b及び27cは固定カメラに限らず、撮像部27のカメラと同様に上下左右に揺動可能、上下方向に昇降可能又はズーミング可能に構成されてもよい。 The side cameras 27b and 27c are not limited to fixed cameras, and may be configured to be swingable up / down / left / right, up / down in the vertical direction, or zoomable like the camera of the imaging unit 27.

上述の実施形態においては、利用者50が子供の場合にも適用できるように自動運転車両20の走行操作情報60bを、前進・後退又は停止の簡単な動作に限定したが、利用者50の年齢に応じて、走行操作情報60bにはさらに、左右の方向への操舵に関する手動操作ができるようにしてもよい。同様に、管理センター30,30Aの管理者は、利用者50の運転内容に対応して操舵を含む遠隔操作の割込制御情報33aを送信して、自動運転車両20を操縦してもよい。 In the above-described embodiment, the driving operation information 60b of the autonomous driving vehicle 20 is limited to simple forward / backward or stop movements so that the user 50 can be applied even when the user 50 is a child, but the age of the user 50 Depending on the situation, the traveling operation information 60b may further be capable of performing a manual operation related to steering in the left-right direction. Similarly, the manager of the management centers 30 and 30A may operate the autonomous driving vehicle 20 by transmitting interrupt control information 33a for remote control including steering according to the driving content of the user 50.

10 自動運転車両による遠隔撮像システム
10A 自動運転車両の遠隔走行システム
20 自動運転車両
21 車両本体
21a ドア
21b 前照灯
21c 方向指示器
21d 前方監視ステレオカメラ
21e 監視センサ
21f 表示部21
22 走行部
22a 車輪
23 制御部
23a 利用開始通知
23b 走行終了通知
24 着座部
25 車載端末
26 車両識別情報
27 撮像部
27a 支持台
27b,27c 側方カメラ
27d マイク
28 撮像データ
29 音声信号
30 管理センター
30A 第1の管理センター
31 送受信部
32 記憶部
32a マップデータ
32b 音声ガイド情報
33 制御部
35 故障情報
40 第一のネットワーク
50 利用者
60 端末機器
60a 利用開始情報
60b 走行操作情報
60c 撮像操作情報
60d 端末識別情報
61 表示部
62〜64 カメラ画像
62a カメラマーク
62b カメラの位置を上下するためのアイコン
62c 周囲の音声を聞くためのアイコン
65 速度設定表示
66 前進・後退設定表示
67 プレイ時間表示
70 第二のネットワーク
80 動物園の一部領域(草原ゾーン)
81 走路
82 ガイドエリア

90 第2の管理センター
93 ゲートウェイ
100 第3のネットワーク
10 Remote imaging system by autonomous driving vehicle 10A Remote driving system of autonomous driving vehicle 20 Autonomous driving vehicle 21 Vehicle body 21a Door 21b Headlight 21c Direction indicator 21d Forward monitoring stereo camera 21e Monitoring sensor 21f Display 21
22 Traveling unit 22a Wheels 23 Control unit 23a Usage start notification 23b Driving end notification 24 Seating unit 25 In-vehicle terminal 26 Vehicle identification information 27 Imaging unit 27a Support stand 27b, 27c Side camera 27d Microphone 28 Imaging data 29 Voice signal 30 Management center 30A 1st management center 31 Transmission / reception unit 32 Storage unit 32a Map data 32b Voice guide information 33 Control unit 35 Failure information 40 First network 50 User 60 Terminal equipment 60a Usage start information 60b Driving operation information 60c Imaging operation information 60d Terminal identification Information 61 Display 62-64 Camera image 62a Camera mark 62b Icon for moving the camera position up and down 62c Icon for listening to surrounding sounds 65 Speed setting display 66 Forward / backward setting display 67 Play time display 70 Second network 80 Part of the zoo (meadow zone)
81 Runway 82 Guide area

90 Second management center 93 Gateway 100 Third network

Claims (12)

遠隔操作による無人自動走行を行なう自動運転車両と、
前記自動運転車両と第一のネットワークを介して接続され、前記自動運転車両の運行を管理する管理センターと、
前記管理センターと第二のネットワークを介して接続され利用者により入力された前記自動運転車両の前進・後退・停止・操舵及び走行速度等を含む走行操作情報と、各種撮像に関する撮像操作情報と、を前記管理センターを介して前記自動運転車両に送出する前記利用者の端末機器と、
から構成されており、
前記自動運転車両が、前記管理センターの運行管理により所定の運行範囲内でのみ移動可能であり、前記端末機器からの走行操作情報に基づいて当該運行範囲内で移動すると共に、
前記自動運転車両が、撮像部を備えていて、
前記撮像部が、前記端末機器からの撮像操作信号に基づいて動画の撮影を行ない、その撮像結果である動画データを前記管理センターを介して前記端末機器に送信し、
前記端末機器が、前記自動運転車両からの動画データを保存し又は表示部に画面表示する、
自動運転車両による遠隔撮像システム。
Self-driving vehicles that perform unmanned automatic driving by remote control,
A management center that is connected to the self-driving vehicle via the first network and manages the operation of the self-driving vehicle.
Driving operation information including forward / backward / stop / steering and traveling speed of the autonomous driving vehicle connected to the management center via a second network and input by the user, imaging operation information related to various imaging, and imaging operation information. With the terminal device of the user, which sends the information to the autonomous driving vehicle via the management center.
Consists of
The self-driving vehicle can move only within a predetermined operation range by the operation management of the management center, and moves within the operation range based on the travel operation information from the terminal device.
The self-driving vehicle is provided with an imaging unit.
The imaging unit shoots a moving image based on an imaging operation signal from the terminal device, and transmits the moving image data as the imaging result to the terminal device via the management center.
The terminal device saves moving image data from the autonomous driving vehicle or displays it on a screen on a display unit.
Remote imaging system using an autonomous vehicle.
前記管理センターが、前記運行範囲のマップデータを備えており、
前記自動運転車両の走行操作情報による自動運転中に、前記管理センターが、前記マップデータを参照しながら当該自動運転車両が運行範囲から外側にはみ出さないように当該自動運転車両の走行を管理する、請求項1記載の自動運転車両による遠隔撮像システム。
The management center has the map data of the operation range,
During automatic driving based on the driving operation information of the autonomous driving vehicle, the management center manages the driving of the autonomous driving vehicle so that the autonomous driving vehicle does not protrude outside the operating range while referring to the map data. , The remote imaging system by the autonomous driving vehicle according to claim 1.
前記運行範囲内の各所に配置されたガイドエリアに関連づけられた音声ガイド情報が、前記マップデータに関連付けて登録されており、
前記自動運転車両が個々のガイドエリアに接近したとき、前記管理センターが、対応する音声ガイド情報を読み込んで前記端末機器に送信し、
前記端末機器が、当該音声ガイド情報に基づいて音声ガイドをする、
請求項2に記載の自動運転車両による遠隔撮像システム。
Voice guide information associated with the guide areas arranged in various places within the operation range is registered in association with the map data.
When the self-driving vehicle approaches an individual guide area, the management center reads the corresponding voice guide information and transmits it to the terminal device.
The terminal device provides voice guidance based on the voice guide information.
The remote imaging system by the autonomous driving vehicle according to claim 2.
複数台の自動運転車両を備えており、
前記管理センターが、各自動運転車両が相互に接近しないように、各自動運転車両の運行を管理する、請求項1〜3の何れかに記載の自動運転車両による遠隔撮像システム。
Equipped with multiple self-driving vehicles,
The remote imaging system by an autonomous driving vehicle according to any one of claims 1 to 3, wherein the management center manages the operation of the autonomous driving vehicles so that the autonomous driving vehicles do not approach each other.
前記撮像部が、縦方向及び/又は横方向に揺動可能に支持され、前記端末機器からの撮像操作信号により縦方向及び/又は横方向に揺動される、請求項1〜4の何れかに記載の自動運転車両による遠隔撮像システム。 Any of claims 1 to 4, wherein the image pickup unit is supported so as to be swingable in the vertical direction and / or the horizontal direction, and swings in the vertical direction and / or the horizontal direction by an image pickup operation signal from the terminal device. Remote imaging system by the automatic driving vehicle described in. 前記撮像部が、垂直方向に移動可能に支持され、前記端末機器からの撮像操作信号により垂直方向に移動される、請求項1〜5の何れかに記載の自動運転車両による遠隔撮像システム。 The remote imaging system by an autonomous driving vehicle according to any one of claims 1 to 5, wherein the imaging unit is supported so as to be movable in the vertical direction and is moved in the vertical direction by an imaging operation signal from the terminal device. 前記撮像部が、その被写界角度の変更可能なズーム機能を備え、前記端末機器からの撮像操作信号によりズーミングを行なう、請求項1〜6の何れかに記載の自動運転車両による遠隔撮像システム。 The remote imaging system by an autonomous driving vehicle according to any one of claims 1 to 6, wherein the imaging unit has a zoom function capable of changing the viewing angle, and zooms according to an imaging operation signal from the terminal device. .. 前記撮像部が、周囲の音を音声信号に変換するマイクを備え、
前記撮像部が、前記端末機器からの撮像操作信号により撮影と同時に又は撮影と独立して、マイクによる音声信号を前記管理センターを介して前記端末機器に送信し、
前記端末機器が、前記マイクからの音声信号を再生する、
請求項1〜7の何れかに記載の自動運転車両による遠隔撮像システム。
The imaging unit includes a microphone that converts ambient sound into an audio signal.
The imaging unit transmits an audio signal from the microphone to the terminal device via the management center at the same time as or independently of the shooting by the imaging operation signal from the terminal device.
The terminal device reproduces an audio signal from the microphone.
The remote imaging system by the autonomous driving vehicle according to any one of claims 1 to 7.
前記撮像部が、複数個の撮像カメラを備え、各撮像カメラが互いに独立的に異なる高さ位置あるいは異なる画角又は方向に設定され又は調整される、請求項1〜8の何れかに記載の自動運転車両による遠隔撮像システム。 The invention according to any one of claims 1 to 8, wherein the imaging unit includes a plurality of imaging cameras, and each imaging camera is independently set or adjusted to a different height position or a different angle of view or direction. Remote imaging system using an autonomous vehicle. 前記第二のネットワークが、前記第一のネットワークと同じである、請求項1〜9の何れかに記載の自動運転車両による遠隔撮像システム。 The remote imaging system by an autonomous driving vehicle according to any one of claims 1 to 9, wherein the second network is the same as the first network. 前記マップデータが、動物園、植物園、水族館、公園等の特定の閉鎖空間における運行路データを含み、利用者が前記端末機器に表示した映像により前記自動運転車両の遠隔操作を行なうことで、当該閉鎖空間内で前記自動運転車両を遠隔で自動走行させる、請求項1〜9の何れかに記載の自動運転車両の走行システム。 The map data includes operation route data in a specific closed space such as a zoo, a botanical garden, an aquarium, or a park, and the user performs remote operation of the autonomous driving vehicle by the image displayed on the terminal device to close the vehicle. The traveling system for an autonomous driving vehicle according to any one of claims 1 to 9, wherein the autonomous driving vehicle is automatically driven remotely in a space. 請求項1〜10の何れかに記載の遠隔撮影システムを用いて、利用者が前記端末機器に表示した映像により前記自動運転車両の遠隔操作を行ない、前記自動運転車両を遠隔で自動走行させる、前記自動運転車両の走行システム。 Using the remote photographing system according to any one of claims 1 to 10, the user performs remote operation of the autonomous driving vehicle by the image displayed on the terminal device, and the autonomous driving vehicle is automatically driven remotely. The driving system of the self-driving vehicle.
JP2020080961A 2020-05-01 2020-05-01 Remote imaging system using self-driving vehicle and remote driving system for self-driving vehicle Active JP7165950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080961A JP7165950B2 (en) 2020-05-01 2020-05-01 Remote imaging system using self-driving vehicle and remote driving system for self-driving vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080961A JP7165950B2 (en) 2020-05-01 2020-05-01 Remote imaging system using self-driving vehicle and remote driving system for self-driving vehicle

Publications (2)

Publication Number Publication Date
JP2021176024A true JP2021176024A (en) 2021-11-04
JP7165950B2 JP7165950B2 (en) 2022-11-07

Family

ID=78300377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080961A Active JP7165950B2 (en) 2020-05-01 2020-05-01 Remote imaging system using self-driving vehicle and remote driving system for self-driving vehicle

Country Status (1)

Country Link
JP (1) JP7165950B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497093B1 (en) 2023-08-30 2024-06-10 三栄通信工業株式会社 Information processing device and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189927A (en) * 1999-12-28 2001-07-10 Tokyo Gas Co Ltd Mobile station, control station and virtual experience system
JP2003241833A (en) * 2002-02-18 2003-08-29 Hitachi Ltd Information distribution service by mobile robot and information gathering system
JP2003532218A (en) * 2000-05-01 2003-10-28 アイロボット コーポレーション Method and system for remotely controlling a mobile robot
JP2006067393A (en) * 2004-08-27 2006-03-09 Tmsuk Co Ltd Viewing system
JP2017134794A (en) * 2016-01-29 2017-08-03 パナソニックIpマネジメント株式会社 Mobile robot control system, and server device for controlling mobile robots
US20190384320A1 (en) * 2019-07-24 2019-12-19 Lg Electronics Inc. Autonomous driving control method in restricted area and autonomous driving system using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189927A (en) * 1999-12-28 2001-07-10 Tokyo Gas Co Ltd Mobile station, control station and virtual experience system
JP2003532218A (en) * 2000-05-01 2003-10-28 アイロボット コーポレーション Method and system for remotely controlling a mobile robot
JP2003241833A (en) * 2002-02-18 2003-08-29 Hitachi Ltd Information distribution service by mobile robot and information gathering system
JP2006067393A (en) * 2004-08-27 2006-03-09 Tmsuk Co Ltd Viewing system
JP2017134794A (en) * 2016-01-29 2017-08-03 パナソニックIpマネジメント株式会社 Mobile robot control system, and server device for controlling mobile robots
US20190384320A1 (en) * 2019-07-24 2019-12-19 Lg Electronics Inc. Autonomous driving control method in restricted area and autonomous driving system using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497093B1 (en) 2023-08-30 2024-06-10 三栄通信工業株式会社 Information processing device and program

Also Published As

Publication number Publication date
JP7165950B2 (en) 2022-11-07

Similar Documents

Publication Publication Date Title
JP6749711B2 (en) Communication robot and communication system
EP3787257A1 (en) Patrol robot and patrol robot management system
JP3302188B2 (en) Telexistence-type video phone
JP4512830B2 (en) Communication robot
US6535226B1 (en) Navigable telepresence method and system utilizing an array of cameras
US11212437B2 (en) Immersive capture and review
US20080198225A1 (en) TVMS- a total view monitoring system
US20170010607A1 (en) Remotely controlled robotic sensor ball
CN107920263A (en) Volume adjusting method and device
JP2021176024A (en) Remote imaging system using autonomous driving vehicle and remote traveling system of autonomous driving vehicle
US20220152836A1 (en) Robot
JP6508770B2 (en) Mobile projection device
US11657574B2 (en) Systems and methods for providing an audio-guided virtual reality tour
JP2010093515A (en) A plurality of monitor selection transfer systems of mobile device data
KR20110068830A (en) System for museum or exhibition center by using a robot docent
JP2019161652A (en) Mobile projection apparatus and projection system
WO2021066359A1 (en) Robot ball having autopilot function and control system therefor
US11486712B2 (en) Providing video of space to calibrate user location relative to desired destination
JP6965735B2 (en) Information processing equipment, in-vehicle equipment and information processing methods
US20230033424A1 (en) Information processing method, information processing system, and information processor
TW202008092A (en) Panoramic live broadcast navigation robot enabling people without actual participation to have a first-person full-view experience and to interact through messages
JPWO2019065305A1 (en) Information provision system, information provision method and management device for information provision system
JP7126726B2 (en) Mobile projection device and program for mobile projection device
US20230196692A1 (en) Coordinating extended reality 3d space
US20230196681A1 (en) Extended reality 3d space creation and management

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7165950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150