JP7126995B2 - 運転支援方法、設備、無人運転設備及び読み取り可能な記憶媒体 - Google Patents
運転支援方法、設備、無人運転設備及び読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP7126995B2 JP7126995B2 JP2019127347A JP2019127347A JP7126995B2 JP 7126995 B2 JP7126995 B2 JP 7126995B2 JP 2019127347 A JP2019127347 A JP 2019127347A JP 2019127347 A JP2019127347 A JP 2019127347A JP 7126995 B2 JP7126995 B2 JP 7126995B2
- Authority
- JP
- Japan
- Prior art keywords
- equipment
- unmanned
- scene
- environment
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 93
- 230000007613 environmental effect Effects 0.000 claims description 66
- 230000006870 function Effects 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 34
- 238000005516 engineering process Methods 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 14
- 230000001960 triggered effect Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 230000001133 acceleration Effects 0.000 claims description 10
- 230000003993 interaction Effects 0.000 claims description 10
- 238000010295 mobile communication Methods 0.000 claims description 9
- 238000009432 framing Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 230000002708 enhancing effect Effects 0.000 description 7
- 238000007654 immersion Methods 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 238000011161 development Methods 0.000 description 4
- 230000009191 jumping Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0022—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Selective Calling Equipment (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報を受信することと、
前記シーン情報に対し処理を行って、VRシーンを生成することと、
ユーザが前記VRシーンに基づき遠隔運転支援操作をトリガできるように、ユーザに前記VRシーンを表示し、ただし、前記遠隔運転支援操作は前記無人運転設備が運転操作を実行するよう制御するために用いられることと、を含む。
対応するように、前記シーン情報に対し処理を行って、VRシーンを生成することは、
画像情報のそれぞれに対応する環境角度に基づき、合成してその時点の環境の環境画像情報を取得することと、
前記環境画像情報に対しビジュアル画像処理を行って、左目環境画像情報及び右目環境画像情報を含むVRシーンを取得することと、を含む。
対応するように、前記シーン情報に対し処理を行って、VRシーンを生成することは、
複数の環境角度の映像情報に対しフレーミング処理を行って、同一フレームに対応する複数の環境角度の画像データを取得することと、
フレームごとの複数の環境角度の画像データに対しビジュアル画像処理を行って、フレームごとの左目環境画像データ及び右目環境画像データを取得することと、
フレームごとの左目環境画像データ及び右目環境画像データに基づき、VRシーンを取得することと、を含む。
ユーザがトリガした遠隔運転支援操作を受信することと、
前記無人運転設備が操作コマンドに基づき運転操作を実行できるように、前記遠隔運転支援操作に基づき対応する前記操作コマンドを生成するとともに、前記無人運転設備に送信することとをさらに含む。
前記無人運転設備のその時点の設定パラメータ、無人運転設備の動作パラメータ、及び無人運転設備が置かれた環境の測定パラメータのうちの少なくとも1つを受信することと、
ユーザに前記VRシーンを表示すると同時に、前記無人運転設備のその時点の設定パラメータ、無人運転設備の動作パラメータ、及び無人運転設備が置かれた環境の測定パラメータのうちの少なくとも1つを表示することとをさらに含む。
遠隔自動運転機能をトリガする場合、シーン情報を収集することと、
運転支援設備が前記シーン情報に対し処理を行って、VRシーンを生成するとともに、ユーザに前記VRシーンを表示できるように、前記シーン情報を運転支援設備に送信することと、を含む。
運転支援設備が返す遠隔運転支援操作コマンドを受信して実行することをさらに含み、ただし前記遠隔運転支援操作コマンドはユーザが前記VRシーンに基づきトリガしたものである。
無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報を受信するために用いられる通信ユニットと、
前記シーン情報に対し処理を行って、VRシーンを生成するために用いられるVRシーン生成ユニットと、
ユーザが前記VRシーンに基づき遠隔運転支援操作をトリガできるように、ユーザに前記VRシーンを表示するために用いられ、ただし、前記遠隔運転支援操作は前記無人運転設備が運転操作を実行するよう制御するために用いられるVRシーン対話ユニットと、を含む。
VRシーン生成ユニットは、具体的に、
画像情報のそれぞれに対応する環境角度に基づき、合成してその時点の環境の環境画像情報を取得し、
前記環境画像情報に対しビジュアル画像処理を行って、左目環境画像情報及び右目環境画像情報を含むVRシーンを取得するために用いられる。
VRシーン生成ユニットは、具体的に、
複数の環境角度の映像情報に対しフレーミング処理を行って、同一フレームに対応する複数の環境角度の画像データを取得し、
フレームごとの複数の環境角度の画像データに対しビジュアル画像処理を行って、フレームごとの左目環境画像データ及び右目環境画像データを取得し、
フレームごとの左目環境画像データ及び右目環境画像データに基づき、VRシーンを取得するために用いられる。
前記VRシーン対話ユニットは、ユーザに前記VRシーンを表示した後、ユーザがトリガした遠隔運転支援操作を受信するために用いられ、
前記操作コマンド生成ユニットは前記遠隔運転支援操作に基づき対応する操作コマンドを生成して、前記通信ユニットは前記操作コマンドを前記無人運転設備に送信し、ただし、前記操作コマンドは前記無人運転設備が運転操作を実行するために用いられる。
前記VRシーン対話ユニットは、ユーザに前記VRシーンを表示すると同時に、前記無人運転設備のその時点の設定パラメータ、無人運転設備の動作パラメータ、及び無人運転設備が置かれた環境の測定パラメータのうちの少なくとも1つを表示するためにも用いられる。
遠隔自動運転機能をトリガする場合、シーン情報を収集するために用いられる収集ユニットと、
運転支援設備が前記シーン情報に対し処理を行って、VRシーンを生成するとともに、ユーザに前記VRシーンを表示できるように、前記シーン情報を運転支援設備に送信するために用いられる送受信ユニットと、を含む。
前記送受信ユニットは、運転支援設備が返す遠隔運転支援操作コマンドを受信するためにも用いられ、ただし前記遠隔運転支援操作コマンドはユーザが前記VRシーンに基づきトリガしたものであり、
前記実行ユニットは、前記遠隔運転支援操作コマンドを実行するために用いられる。
前記プロセッサは前記コンピュータプログラムを実行させる時、上記いずれか一つの態様に記載の方法を実行し、
前記表示機器は前記メモリ及び前記プロセッサに接続され、VR技術を利用してユーザにVRシーンを表示することを特徴とする。
前記プロセッサは前記コンピュータプログラムを実行させる時、上記方法を実行することを特徴とする。
ステップ101において、無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報を受信する。
ステップ201において、無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報を受信し、ただし前記シーン情報には無人運転設備のその時点の環境における複数の環境角度の画像情報が含まれる。ただし、前記複数の環境角度の画像情報は前記無人運転設備が同一時刻に収集して取得したものである。
ステップ301において、無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報を受信し、ただし前記シーン情報は無人運転設備のその時点の環境における複数の環境角度の映像情報を含む。
最後に、ユーザが前記VRシーンに基づき遠隔運転支援操作をトリガできるように、ユーザに前記VRシーンを表示し、ただし、前記遠隔運転支援操作は前記無人運転設備が運転操作を実行するよう制御するために用いられる。
ステップ401において、遠隔自動運転機能をトリガする場合、シーン情報を収集し、
ステップ402において、運転支援設備が前記シーン情報に対し処理を行って、VRシーンを生成するとともに、ユーザに前記VRシーンを表示できるように、前記シーン情報を運転支援設備に送信する。
無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報を受信するために用いられる通信ユニット10と、
前記シーン情報に対し処理を行って、VRシーンを生成するために用いられるVRシーン生成ユニット20と、
ユーザが前記VRシーンに基づき遠隔運転支援操作をトリガできるように、ユーザに前記VRシーンを表示するために用いられ、ただし、前記遠隔運転支援操作は前記無人運転設備が運転操作を実行するよう制御するために用いられるVRシーン対話ユニット30と、を含む。
VRシーン生成ユニット20は、具体的に、
画像情報のそれぞれに対応する環境角度に基づき、合成してその時点の環境の環境画像情報を取得し、
前記環境画像情報に対しビジュアル画像処理を行って、左目環境画像情報及び右目環境画像情報を含むVRシーンを取得するために用いられる。
VRシーン生成ユニット20は、具体的に、
複数の環境角度の映像情報に対しフレーミング処理を行って、同一フレームに対応する複数の環境角度の画像データを取得し、
フレームごとの複数の環境角度の画像データに対しビジュアル画像処理を行って、フレームごとの左目環境画像データ及び右目環境画像データを取得し、
フレームごとの左目環境画像データ及び右目環境画像データに基づき、VRシーンを取得するために用いられる。
前記VRシーン対話ユニット30は、ユーザに前記VRシーンを表示した後、ユーザがトリガした遠隔運転支援操作を受信するために用いられ、
前記操作コマンド生成ユニットは前記遠隔運転支援操作に基づき対応する操作コマンドを生成するために用いられ、そして前記通信ユニット10は前記操作コマンドを前記無人運転設備に送信し、ただし、前記操作コマンドは前記無人運転設備が運転操作を実行するために用いられる。
前記VRシーン対話ユニットは、ユーザに前記VRシーンを表示すると同時に、前記無人運転設備のその時点の設定パラメータ、無人運転設備の動作パラメータ、及び無人運転設備が置かれた環境の測定パラメータのうちの少なくとも1つを表示するためにも用いられる。
遠隔自動運転機能をトリガする場合、シーン情報を収集するために用いられる収集ユニット40と、
運転支援設備が前記シーン情報に対し処理を行って、VRシーンを生成するとともに、ユーザに前記VRシーンを表示できるように、前記シーン情報を運転支援設備に送信するために用いられる送受信ユニット50とを含む。
前記送受信ユニットは、運転支援設備が返す遠隔運転支援操作コマンドを受信するためにも用いられ、ただし前記遠隔運転支援操作コマンドはユーザが前記VRシーンに基づきトリガしたものであり、
前記実行ユニットは、前記遠隔運転支援操作コマンドを実行するために用いられる。
Claims (18)
- 運転支援方法であって、
無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを受信し、前記無人運転設備のその時点の設定パラメータは、前記無人運転設備の型番、自動運転モード及びその時点実行されているタスクを含み、前記無人運転設備の動作パラメータは、前記無人運転設備の速度、加速度、車載処理の動作状態及び車体の傾斜度を含み、前記無人運転設備が置かれた環境の測定パラメータは、前記無人運転設備が置かれた環境の天気パラメータ、及び前記無人運転設備が置かれた環境の地面又は地形状態を含むことと、
前記シーン情報に対し処理を行って、VRシーンを生成することと、
ユーザが前記VRシーン、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータに基づき遠隔運転支援操作をトリガできるように、ユーザに前記VRシーン、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを表示し、ただし、前記遠隔運転支援操作は前記無人運転設備が運転操作を実行するよう制御するために用いられることと、を含むことを特徴とする運転支援方法。 - 前記シーン情報には無人運転設備のその時点の環境における複数の環境角度の画像情報が含まれており、ただし、前記複数の環境角度の画像情報は前記無人運転設備が同一時刻に収集して取得したものであり、
対応するように、前記シーン情報に対し処理を行って、VRシーンを生成することは、
画像情報のそれぞれに対応する環境角度に基づき、合成してその時点の環境の環境画像情報を取得することと、
前記環境画像情報に対しビジュアル画像処理を行って、左目環境画像情報及び右目環境画像情報を含むVRシーンを取得することとを含むことを特徴とする請求項1に記載の運転支援方法。 - 前記シーン情報は無人運転設備のその時点の環境における複数の環境角度の映像情報を含み、
対応するように、前記シーン情報に対し処理を行って、VRシーンを生成することは、
複数の環境角度の映像情報に対しフレーミング処理を行って、同一フレームに対応する複数の環境角度の画像データを取得することと、
フレームごとの複数の環境角度の画像データに対しビジュアル画像処理を行って、フレームごとの左目環境画像データ及び右目環境画像データを取得することと、
フレームごとの左目環境画像データ及び右目環境画像データに基づき、VRシーンを取得することとを含むことを特徴とする請求項1に記載の運転支援方法。 - ユーザに前記VRシーンを表示した後に、
ユーザがトリガした遠隔運転支援操作を受信することと、
前記無人運転設備が操作コマンドに基づき運転操作を実行できるように、前記遠隔運転支援操作に基づき対応する前記操作コマンドを生成するとともに、前記無人運転設備に送信することとをさらに含むことを特徴とする請求項1に記載の運転支援方法。 - 前記無人運転設備が5G移動通信ネットワークにより送信するシーン情報を受信することを特徴とする請求項1~請求項4のいずれか1項に記載の運転支援方法。
- 運転支援方法であって、
遠隔自動運転機能をトリガする場合、シーン情報、無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを収集し、前記無人運転設備のその時点の設定パラメータは、前記無人運転設備の型番、自動運転モード及びその時点実行されているタスクを含み、前記無人運転設備の動作パラメータは、前記無人運転設備の速度、加速度、車載処理の動作状態及び車体の傾斜度を含み、前記無人運転設備が置かれた環境の測定パラメータは、前記無人運転設備が置かれた環境の天気パラメータ、及び前記無人運転設備が置かれた環境の地面又は地形状態を含むことと、
運転支援設備が前記シーン情報に対し処理を行って、VRシーンを生成するとともに、ユーザに前記VRシーン、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを表示できるように、前記シーン情報、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを運転支援設備に送信することとを含むことを特徴とする運転支援方法。 - 前記シーン情報を運転支援設備に送信した後に、
運転支援設備が返す遠隔運転支援操作コマンドを受信して実行することをさらに含み、ただし前記遠隔運転支援操作コマンドはユーザが前記VRシーンに基づきトリガしたものであることを特徴とする請求項6に記載の運転支援方法。 - 運転支援設備であって、
無人運転設備が自動運転の遠隔支援機能をトリガした場合、前記無人運転設備が収集したシーン情報、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを受信するために用いられ、前記無人運転設備のその時点の設定パラメータは、前記無人運転設備の型番、自動運転モード及びその時点実行されているタスクを含み、前記無人運転設備の動作パラメータは、前記無人運転設備の速度、加速度、車載処理の動作状態及び車体の傾斜度を含み、前記無人運転設備が置かれた環境の測定パラメータは、前記無人運転設備が置かれた環境の天気パラメータ、及び前記無人運転設備が置かれた環境の地面又は地形状態を含む通信ユニットと、
前記シーン情報に対し処理を行って、VRシーンを生成するために用いられるVRシーン生成ユニットと、
ユーザが前記VRシーン、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータに基づき遠隔運転支援操作をトリガできるように、ユーザに前記VRシーン、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを表示するために用いられ、ただし、前記遠隔運転支援操作は前記無人運転設備が運転操作を実行するよう制御するために用いられるVRシーン対話ユニットとを含むことを特徴とする運転支援設備。 - 前記シーン情報には無人運転設備のその時点の環境における複数の環境角度の画像情報が含まれており、ただし、前記複数の環境角度の画像情報は前記無人運転設備が同一時刻に収集して取得したものであり、
VRシーン生成ユニットは、具体的に、
画像情報のそれぞれに対応する環境角度に基づき、合成してその時点の環境の環境画像情報を取得し、
前記環境画像情報に対しビジュアル画像処理を行って、左目環境画像情報及び右目環境画像情報を含むVRシーンを取得するために用いられることを特徴とする請求項8に記載の運転支援設備。 - 前記シーン情報は無人運転設備のその時点の環境における複数の環境角度の映像情報を含み、
VRシーン生成ユニットは、具体的に、
複数の環境角度の映像情報に対しフレーミング処理を行って、同一フレームに対応する複数の環境角度の画像データを取得し、
フレームごとの複数の環境角度の画像データに対しビジュアル画像処理を行って、フレームごとの左目環境画像データ及び右目環境画像データを取得し、
フレームごとの左目環境画像データ及び右目環境画像データに基づき、VRシーンを取得するために用いられることを特徴とする請求項8に記載の運転支援設備。 - 操作コマンド生成ユニットをさらに含み、
前記VRシーン対話ユニットは、ユーザに前記VRシーンを表示した後、ユーザがトリガした遠隔運転支援操作を受信するために用いられ、
前記操作コマンド生成ユニットは前記遠隔運転支援操作に基づき対応する操作コマンドを生成して、前記通信ユニットは前記操作コマンドを前記無人運転設備に送信し、ただし、前記操作コマンドは前記無人運転設備が運転操作を実行するために用いられることを特徴とする請求項8に記載の運転支援設備。 - 前記通信ユニットは具体的に、前記無人運転設備が5G移動通信ネットワークにより送信するシーン情報を受信するために用いられることを特徴とする請求項8~請求項11のいずれか1項に記載の運転支援設備。
- 無人運転設備であって、
遠隔自動運転機能をトリガする場合、シーン情報、無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを収集するために用いられ、前記無人運転設備のその時点の設定パラメータは、前記無人運転設備の型番、自動運転モード及びその時点実行されているタスクを含み、前記無人運転設備の動作パラメータは、前記無人運転設備の速度、加速度、車載処理の動作状態及び車体の傾斜度を含み、前記無人運転設備が置かれた環境の測定パラメータは、前記無人運転設備が置かれた環境の天気パラメータ、及び前記無人運転設備が置かれた環境の地面又は地形状態を含む収集ユニットと、
運転支援設備が前記シーン情報に対し処理を行って、VRシーンを生成するとともに、ユーザに前記VRシーン、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを表示できるように、前記シーン情報、前記無人運転設備のその時点の設定パラメータ、前記無人運転設備の動作パラメータ、及び前記無人運転設備が置かれた環境の測定パラメータを運転支援設備に送信するために用いられる送受信ユニットとを含むことを特徴とする無人運転設備。 - 実行ユニットをさらに含み、
前記送受信ユニットは、運転支援設備が返す遠隔運転支援操作コマンドを受信するためにも用いられ、ただし前記遠隔運転支援操作コマンドはユーザが前記VRシーンに基づきトリガしたものであり、
前記実行ユニットは、前記遠隔運転支援操作コマンドを実行するために用いられることを特徴とする請求項13に記載の無人運転設備。 - 表示機器と、メモリと、前記メモリに接続されるプロセッサと、及び前記メモリに記憶されて前記プロセッサにおいて実行可能なコンピュータプログラムとを含む運転支援設備であって、
前記プロセッサは前記コンピュータプログラムを実行する時、請求項1~5のいずれか1項に記載の運転支援方法を実行し、
前記表示機器は前記メモリ及び前記プロセッサに接続され、VR技術を利用してユーザにVRシーンを表示することを特徴とする運転支援設備。 - メモリと、前記メモリに接続されるプロセッサと、前記メモリに記憶されて前記プロセッサにおいて実行可能なコンピュータプログラムとを含む無人運転設備であって、
前記プロセッサは前記コンピュータプログラムを実行する時、請求項6又は7に記載の運転支援方法を実行することを特徴とする無人運転設備。 - 読み取り可能な記憶媒体であって、端末において実行させられる時、前記端末に請求項1~5のいずれか1項に記載の運転支援方法を実行させるためのプログラムを含むことを特徴とする読み取り可能な記憶媒体。
- 読み取り可能な記憶媒体であって、端末において実行させられる時、前記端末に請求項6又は7に記載の運転支援方法を実行させるためのプログラムを含むことを特徴とする読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811045954.9A CN109389042A (zh) | 2018-09-07 | 2018-09-07 | 协助驾驶的方法、设备、无人驾驶设备及可读存储介质 |
CN201811045954.9 | 2018-09-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042780A JP2020042780A (ja) | 2020-03-19 |
JP7126995B2 true JP7126995B2 (ja) | 2022-08-29 |
Family
ID=65417780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019127347A Active JP7126995B2 (ja) | 2018-09-07 | 2019-07-09 | 運転支援方法、設備、無人運転設備及び読み取り可能な記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11295132B2 (ja) |
EP (1) | EP3620335A1 (ja) |
JP (1) | JP7126995B2 (ja) |
CN (1) | CN109389042A (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110809538B (zh) * | 2019-04-15 | 2023-09-19 | 深圳市大疆创新科技有限公司 | 一种自动驾驶的交互方法、设备、***及可读存储介质 |
CN110081898A (zh) * | 2019-05-28 | 2019-08-02 | 江苏盛海智能科技有限公司 | 一种无人驾驶车辆的遥控数据处理方法及*** |
CN112051840A (zh) * | 2019-06-06 | 2020-12-08 | 长沙智能驾驶研究院有限公司 | 车辆控制方法、装置、设备、***及存储介质 |
CN110228484B (zh) * | 2019-06-17 | 2021-02-19 | 福州视驰科技有限公司 | 一种具有辅助驾驶功能的低时延智能远程驾驶*** |
CN110347163B (zh) * | 2019-08-07 | 2022-11-18 | 京东方科技集团股份有限公司 | 一种无人驾驶设备的控制方法、设备及无人驾驶控制*** |
CN110488846A (zh) * | 2019-09-19 | 2019-11-22 | 广州文远知行科技有限公司 | 无人驾驶远程协助方法、装置、设备及储存介质 |
CN111611175B (zh) * | 2020-06-01 | 2023-05-26 | 深圳安途智行科技有限公司 | 自动驾驶软件开发方法、服务器端及客户端 |
CN114194210A (zh) * | 2021-11-19 | 2022-03-18 | 岚图汽车科技有限公司 | 一种高速公路领航***、控制方法及其设备 |
CN115743166A (zh) * | 2022-08-26 | 2023-03-07 | 惠州市德赛西威汽车电子股份有限公司 | 一种智能驾驶方法、装置、域控制器、介质、***及车辆 |
CN115346375B (zh) * | 2022-10-18 | 2023-02-07 | 深圳市九洲卓能电气有限公司 | 一种汽车5g信息传输方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000354257A (ja) | 1999-06-10 | 2000-12-19 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム提供媒体 |
JP2011150516A (ja) | 2010-01-21 | 2011-08-04 | Ihi Aerospace Co Ltd | 無人車両の半自律走行システム |
JP2013114321A (ja) | 2011-11-25 | 2013-06-10 | Chiba Inst Of Technology | 無人走行体の遠隔操縦システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195131A (ja) * | 1997-12-26 | 1999-07-21 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
US9270976B2 (en) * | 2005-11-02 | 2016-02-23 | Exelis Inc. | Multi-user stereoscopic 3-D panoramic vision system and method |
JP2014048859A (ja) * | 2012-08-31 | 2014-03-17 | Ihi Aerospace Co Ltd | 遠隔操縦システム |
TWI488764B (zh) * | 2013-03-15 | 2015-06-21 | Ind Tech Res Inst | 鄰車動態駕駛資訊輔助系統 |
US9720410B2 (en) * | 2014-03-03 | 2017-08-01 | Waymo Llc | Remote assistance for autonomous vehicles in predetermined situations |
CA2985539C (en) * | 2015-05-13 | 2023-04-04 | Uber Technologies, Inc. | Autonomous vehicle operated with guide assistance |
US10140878B2 (en) * | 2015-09-10 | 2018-11-27 | Beeper Avionics Inc. | Method and system for pilot target aircraft and target obstacle alertness and awareness |
CN105974929A (zh) * | 2016-06-11 | 2016-09-28 | 深圳市哈博森科技有限公司 | 一种基于智能装置操控的无人机控制方法 |
CN106251403B (zh) * | 2016-06-12 | 2018-02-16 | 深圳超多维光电子有限公司 | 一种虚拟立体场景实现的方法、装置和*** |
CN106303497A (zh) * | 2016-08-12 | 2017-01-04 | 南方科技大学 | 一种虚拟现实内容生成方法和装置 |
CN106394545A (zh) * | 2016-10-09 | 2017-02-15 | 北京汽车集团有限公司 | 驾驶***、无人驾驶车辆及车辆远程控制端 |
CN107153363B (zh) * | 2017-05-08 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 无人驾驶汽车的仿真测试方法及装置、设备与可读介质 |
WO2018232346A1 (en) * | 2017-06-15 | 2018-12-20 | Melencio Greg | Intelligent fusion middleware for spatially-aware or spatially-dependent hardware devices and systems |
CN107589745B (zh) * | 2017-09-22 | 2021-04-16 | 京东方科技集团股份有限公司 | 驾驶方法、车载驾驶端、远程驾驶端、设备和存储介质 |
-
2018
- 2018-09-07 CN CN201811045954.9A patent/CN109389042A/zh active Pending
-
2019
- 2019-06-18 EP EP19180898.9A patent/EP3620335A1/en not_active Ceased
- 2019-07-09 JP JP2019127347A patent/JP7126995B2/ja active Active
- 2019-07-18 US US16/516,065 patent/US11295132B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000354257A (ja) | 1999-06-10 | 2000-12-19 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム提供媒体 |
JP2011150516A (ja) | 2010-01-21 | 2011-08-04 | Ihi Aerospace Co Ltd | 無人車両の半自律走行システム |
JP2013114321A (ja) | 2011-11-25 | 2013-06-10 | Chiba Inst Of Technology | 無人走行体の遠隔操縦システム |
Also Published As
Publication number | Publication date |
---|---|
US20200082171A1 (en) | 2020-03-12 |
JP2020042780A (ja) | 2020-03-19 |
US11295132B2 (en) | 2022-04-05 |
EP3620335A1 (en) | 2020-03-11 |
CN109389042A (zh) | 2019-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7126995B2 (ja) | 運転支援方法、設備、無人運転設備及び読み取り可能な記憶媒体 | |
JP5473304B2 (ja) | 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム | |
CN109219785B (zh) | 一种多传感器校准方法与*** | |
US20200192354A1 (en) | Remote driving method, apparatus, device and computer readable storage medium | |
CN109196437B (zh) | 智能驾驶方法、装置及存储介质 | |
JP7317967B2 (ja) | 自動車の遠隔制御におけるユーザの支援方法、コンピュータプログラム製品、遠隔制御装置および自動車の運転支援システム | |
US11906963B2 (en) | Vehicle display device, vehicle control system, vehicle control method, and storage medium | |
CN107666507B (zh) | 用于在停车场内部远程控制机动车的方案 | |
WO2021124654A1 (ja) | 作業支援サーバ、作業支援方法および作業支援システム | |
JP7243714B2 (ja) | 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体 | |
KR20210098445A (ko) | 정보 처리 장치, 정보 처리 방법, 프로그램, 이동체 제어 장치, 및 이동체 | |
CN108629842B (zh) | 一种无人驾驶设备运动信息提供及运动控制方法与设备 | |
CN113885483B (zh) | 一种车辆远程控制方法及装置 | |
CN111459121A (zh) | 车辆辅助驾驶测试***和方法 | |
CN110741631A (zh) | 车辆的图像提供***、服务器***及车辆的图像提供方法 | |
CN105774657B (zh) | 一种单摄像头全景倒车影像*** | |
WO2019206044A1 (zh) | 信息处理装置、信息提示指示方法、程序以及记录介质 | |
WO2021251441A1 (ja) | 方法、システムおよびプログラム | |
CN114240769A (zh) | 一种图像处理方法以及装置 | |
JP7004374B1 (ja) | 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム | |
JP6684012B1 (ja) | 情報処理装置および情報処理方法 | |
JP6730764B1 (ja) | 飛行体の飛行経路表示方法及び情報処理装置 | |
US20220244726A1 (en) | Information processing apparatus, information processing method, and program | |
KR101382798B1 (ko) | 차량의 카메라를 이용한 지도 생성 장치 및 방법 | |
JP7370045B2 (ja) | 寸法表示システムおよび寸法表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210811 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211029 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220525 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220525 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220601 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7126995 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |