JP7143853B2 - 車両内に仮想環境を生成する表示制御システムおよび方法 - Google Patents

車両内に仮想環境を生成する表示制御システムおよび方法 Download PDF

Info

Publication number
JP7143853B2
JP7143853B2 JP2019548088A JP2019548088A JP7143853B2 JP 7143853 B2 JP7143853 B2 JP 7143853B2 JP 2019548088 A JP2019548088 A JP 2019548088A JP 2019548088 A JP2019548088 A JP 2019548088A JP 7143853 B2 JP7143853 B2 JP 7143853B2
Authority
JP
Japan
Prior art keywords
vehicle
video
travel route
ecu
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019548088A
Other languages
English (en)
Other versions
JP2020515886A (ja
Inventor
プラバーカラン ラーマリンガム
アバデ ビハーリ モーハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2020515886A publication Critical patent/JP2020515886A/ja
Application granted granted Critical
Publication of JP7143853B2 publication Critical patent/JP7143853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/165Videos and animations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示の様々な実施形態は、車両用の表示制御システムおよび方法に関する。より具体的には、本開示の様々な実施形態は、自律型または半自律型車両において仮想環境を生成するための表示制御システムおよび方法に関する。
現在、自律型車両技術およびそれに関連する自動車用電子機器は、自動車業界で最も急成長している分野の1つである。自律走行車などの車両に使用するための自動車用電子機器の開発に関して様々な実験が行われている。現在、自律走行機能を備えた車両は、主にエラーのない走行と先進運転者支援システム(ADAS)について評価される。しかしながら、自律運転能力を有するこのような車両の運転中の通勤者の車両内での体験の向上に関連する技術およびシステムの開発は、未だ初期段階にある。あるシナリオでは、車両内の通勤者は、車両内からの外部または内部環境を好まないことがある。したがって、運転中に車両内の通勤者に選択の仮想環境を提供するために、高度でインテリジェントで自己適応的な表示システムが望ましい場合がある。
本出願の残りの部分に記載され且つ図面を参照しながら記載されたシステムを本開示のいくつかの態様と比較することによって、従来および伝統的な手法のさらなる制限および不利点が当業者には明らかになるであろう。
特許請求の範囲にさらに完全に記載されているように、少なくとも図面の1つに関連して示されるおよび/または記載されるような実質的に車両内に仮想環境を生成する表示制御システムおよび方法である。
本開示のこれらのおよび他の特徴および利点は、全体を通して同様の参照符号が同様の部分を指す添付の図面とともに、本開示の以下の詳細な説明を精査することから理解されよう。
図1は、本開示の実施形態にかかる車両のネットワーク環境を示すブロック図である。 図2は、本開示の実施形態にかかる、車両の様々な例示的な構成要素またはシステムを示すブロック図である。 図3Aは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。 図3Bは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。 図3Cは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。 図3Dは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。 図3Eは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。 図3Fは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。 図4Aは、本開示の実施形態にかかる、車両内に仮想環境を生成する様々なモードにおける開示された表示制御システムおよび方法の実装の例示的なシナリオを示している。 図4Bは、本開示の実施形態にかかる、車両内に仮想環境を生成する様々なモードにおける開示された表示制御システムおよび方法の実装の例示的なシナリオを示している。 図4Cは、本開示の実施形態にかかる、車両内に仮想環境を生成する様々なモードにおける開示された表示制御システムおよび方法の実装の例示的なシナリオを示している。 図4Dは、本開示の実施形態にかかる、車両内に仮想環境を生成する様々なモードにおける開示された表示制御システムおよび方法の実装の例示的なシナリオを示している。 図5Aは、本開示の実施形態にかかる、車両の例示的な表示制御方法を示すフローチャートをまとめて示している。 図5Bは、本開示の実施形態にかかる、車両の例示的な表示制御方法を示すフローチャートをまとめて示している。 図5Cは、本開示の実施形態にかかる、車両の例示的な表示制御方法を示すフローチャートをまとめて示している。
以下に説明する実施態様は、車両内に仮想環境を生成する開示された表示制御システムおよび方法において見出すことができる。本開示の例示的な態様は、車両の電子制御ユニット(ECU)による入力の受信を含むことができる方法を備えることができる。車両は、自律型車両または半自律型車両とすることができる。入力は、車両内の1つまたは複数の表示媒体に表示される映像の選択に対応することができる。関連性ファクタは、車両の現在の移動ルートおよび選択された映像に関連する移動ルートとの間で判定されることができる。関連性ファクタは、車両が現在の移動ルートに沿って移動している場合に判定されてもよい。ECUは、判定された関連性ファクタに基づいて、選択された映像の1つまたは複数の映像パラメータを調整するように構成されることができる。ECUは、選択された映像の調整された1つまたは複数の映像パラメータに応じて、移動中の車両内の1つまたは複数の表示媒体上の少なくとも選択された映像の表示を制御するようにさらに構成されることができる。
実施形態によれば、関連性ファクタは、現在の移動ルートと選択された映像に関連する移動ルートとの間の曲率パラメータに基づいて判定されてもよい。関連性ファクタは、車両の現在の移動ルートの一部の第1の曲率度と、選択された映像に関連する移動ルートの対応する部分の第2の曲率度との間の比を指すことができる。
実施形態によれば、ECUは、車両によってとられるべき少なくとも現在の移動ルートを含む入力情報を受信するように構成されてもよい。ECUは、ECUに通信可能に結合されたメモリおよび/または外部通信装置から、第1の映像セットを検索するように構成されてもよい。第1の映像セットは、メモリおよび/または外部通信装置に記憶されている複数のタグ付き映像のタグ付き情報に対する入力情報の類似性検索に基づいて検索することができる。ECUは、第1の映像セットを検索するために、入力情報に含まれる現在の移動ルートのルート形状を複数のタグ付き映像に関連付けられた複数のルート形状と比較するように構成されることができる。
実施形態によれば、検索された第1の映像セットは、1つまたは複数の基準に基づいてフィルタリングされることができる。1つまたは複数の基準は、車両の車載ネットワークから抽出されたセンサデータおよび/または車両内の1人または複数の乗員の乗員情報に対応することができる。センサデータは、現在の移動ルートに沿った車両の移動中に車両に設けられた複数のセンサによって検出された交通状況および気象状況に対応することができる。ECUは、検索された第1の映像セットのフィルタリングのための1つまたは複数の基準に優先順位を割り当てるように構成されることができる。
実施形態によれば、洗練された映像セットは、車両内に設けられた1つまたは複数の表示媒体のうちの1つの表示媒体上にレンダリングされたインターフェース上に表示されることができる。洗練された映像セットの表示は、第1の映像セットのフィルタリングに基づいて行われてもよい。映像の選択に対応する入力は、インターフェース上に表示された洗練された映像セットのうちの1つの選択を指すことができる。
実施形態によれば、選択された映像の1つまたは複数の映像パラメータの調整は、車両の現在の速度に基づいて実行されることができる。選択された映像の1つまたは複数の映像パラメータの調整は、移動中の車両内の1つまたは複数の表示媒体上に選択された映像を表示する間の選択された映像のフレームレートの動的調整に対応することができる。フレームレートの動的調整は、判定された関連性ファクタに基づいて実行されてもよい。あるいは、選択された映像の1つまたは複数の映像パラメータの調整は、選択された映像の1つまたは複数の映像セグメントの輝度値またはオーディオの動的調整にさらに対応する。輝度値またはオーディオの動的調整は、移動中の車両内の1つまたは複数の表示媒体上に選択された映像を表示している間に実行されることができる。
実施形態によれば、車両内の1つまたは複数の表示媒体は、車両の外部環境の自然なビューが車両内から1人または複数の乗員にとって選択的に制限されるように配置されてもよい。自然なビューは、車両内からユーザに見える外部環境の実際のビューを指すことができる。車両の外部環境の自然なビューは、移動中の車両内の1つまたは複数の表示媒体上に選択された映像を表示している間、選択的に制限されることができる。ECUは、選択された映像の移動ルートに関連する第2の地理的領域の仮想環境が選択された映像の表示中に車両内で作成されるように、第1の地理的領域における現在の移動ルートに沿って移動中の車両内の選択された映像の表示を制御するように構成されることができる。
実施形態によれば、拡張現実感ビューは、車両の1つまたは複数のウィンドウおよび/またはフロントガラス上に生成されることができる。1つまたは複数のウィンドウおよび/またはフロントガラスは、1つまたは複数の表示媒体に対応することができる。拡張現実感ビューは、1つまたは複数の外部オブジェクトに重ね合わせられた、選択された映像のビューを含むことができる。車両外の1つまたは複数の外部オブジェクトは、車両に設けられている1つまたは複数の映像撮像ユニットによって撮像されてもよい。
図1は、本開示の実施形態にかかる車両用の仮想環境を生成するためのネットワーク環境を示すブロック図である。図1を参照すると、例示的なネットワーク環境100が示されている。例示的なネットワーク環境100は、第1の地理的領域104内に、車両102などの1つまたは複数の車両を含むことができる。ネットワーク環境100はまた、第2の地理的領域108内に、車両106などの1つまたは複数の他の車両を含むことができる。第1の通信装置110、第2の通信装置112などの1つまたは複数の外部通信装置、およびサーバ114などの中央通信装置、第1の無線通信チャネル116A、第2の無線通信チャネル116B、および無線通信ネットワーク118も示されている。
車両102は、電子制御ユニット(ECU)120、1つまたは複数の表示媒体122、および映像撮像ユニット124aから124fなどの複数の映像撮像ユニットを含むことができる。第1の地理的領域104内の第1の移動ルート128に沿って移動している可能性がある、車両102に関連付けられた第1のユーザ126がさらに示されている。車両106はまた、ECU130、1つまたは複数の表示媒体132、および映像撮像ユニット134aから134fなどの複数の映像撮像ユニットを含むことができる。さらに、第2の地理的領域108内の第2の移動ルート138に沿って移動している可能性がある、車両106に関連付けられた第2のユーザ136が示されている。第1の内部カメラ140Aは、車両102の内部に設置されて、車両102の乗員などの車両内ユーザの1つまたは複数の画像または映像を撮像することができる。同様に、第2の内部カメラ140Bは、車両106の内部に設置されて、車両106の乗員などの車両内ユーザの1つまたは複数の画像または映像を撮像することができる。
車両102は、自律型車両または半自律型車両を指すことができる。車両102は、第1の地理的領域104内の第1の移動ルート128に沿って移動することができる。車両102の例は、限定されるものではないが、自動車、ハイブリッド車両、および/または1つまたは複数の別個の再生可能または再生不可能な動力源を使用する自律駆動能力を有する車両を含むことができる。再生可能または再生不可能な動力源を使用する車両は、化石燃料ベースの車両、電気推進ベースの車両、水素燃料ベースの車両、太陽電池式車両、および/または代替エネルギー源の他の形態の動力によって駆動される車両を含むことができる。例えば、米国の国家高速道路交通***(NHTSA)は、以下のように駆動システムの分類を提案している。本開示のシステムおよび方法は、自律制動、自律走行制御、自律運転などの自律機能を有する車両に適用することができる。以下の例では、本開示のシステムおよび方法は、レベル1からレベル4の車両にも適用することができる。NHTSAによれば、車両の「レベル0」カテゴリでは、運転者は、常に車両を完全に制御する。「レベル1」カテゴリでは、電子安定性制御または自動制動など、個々の車両制御が自動化されることができる。「レベル2」カテゴリでは、車線維持制御と合わせた適応型巡航制御など、少なくとも2つの制御が一緒にまたは同時に自動化されることができる。「レベル3」カテゴリでは、自律制御のレベルが上がり、車両は、特定の状況下で安全上重要な機能を実行することができる。車両は、運転者が制御を取り戻すことを状況が要求するときを検知することができ、運転者がそれを行うために「十分に快適な移行時間」を提供する。「レベル4」カテゴリでは、車両は、運転者が常に車両を制御することが期待されていない場合、全ての安全上重要な機能を実行することができる。このカテゴリの車両は、全ての駐車機能を含む全ての機能を出発から停止まで制御することができるため、それは、無人車両(自動運転車両または自律型車両とも呼ばれる)とすることができる。
第1の地理的領域104は、車両102によってとられる第1の移動ルート128などの現在の移動ルートを含む、都市、州、県、国、または他の地域指定内の地理的領域を指すことができる。例えば、第1のユーザ126は、車両102の出発位置128Aなどの現在の位置から目的地位置128Bへの自律走行を開始したい場合がある。自律走行を開始するためには、車両102のナビゲーションユニット(図示せず)を用いて目的地位置128Bに少なくとも供給することが必要とされることができる。ナビゲーションユニットは、自律走行中に車両102によってとられるべき出発位置128Aから目的地位置128Bまでのルートを計算することができる。乗車の開始時に計算されたこのルートは、車両102の第1の移動ルート128などの現在の移動ルートと見なすことができる。したがって、第1の移動ルート128などの、車両102が現在の移動ルートに沿って移動するときに車両102を囲む地理的領域は、第1の地理的領域104と見なすことができる。車両102のECU120は、車両102の車載ネットワークを介して、ナビゲーションユニットから、車両102によってとられるべき第1の移動ルート128などの現在の移動ルートを含む入力情報を受信することができる。
車両106は、自律型車両、半自律型車両、または非自律型車両を指すことができる。車両106は、第2の地理的領域108内の第2の移動ルート138に沿って移動することができる。車両106の例は、限定されるものではないが、自動車、ハイブリッド車両、および/または1つまたは複数の別個の再生可能または再生不可能な動力源を使用する自律駆動能力を有するまたは有さない車両を含むことができる。再生可能または再生不可能な動力源の例は、化石燃料、電気推進、水素燃料、太陽光、および/または他の形態の代替エネルギーを含むことができる。
第2の地理的領域108は、第1の地理的領域104とは異なる地理的領域を指すことができる。第2の地理的領域108は、車両106などの異なる車両によって、または車両102などの同一車両であるが異なる時点でとられる、第2の移動ルート138などの移動ルートを含むことができる。第2の地理的領域108は、第1の地理的領域104と同一都市の異なる領域、または異なる都市、州、または国を指すことができる。車両106が第2の移動ルート138に沿って移動するときに車両106を囲む地理的領域は、第2の地理的領域108と見なすことができる。
第1の通信装置110は、専用の短距離通信(DSRC)チャネルまたは他の短距離もしくは中距離無線通信チャネルなどの第1の無線通信チャネル116Aを介して車両102と通信するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。第1の通信装置110はまた、無線通信ネットワーク118を介して、サーバ114などの中央通信装置と通信することができる。第1の通信装置110は、地理空間位置検出センサ、移動検出センサ、および/または速度センサなどの、定義された近位距離から車両102などの車両の位置、移動、または速度を検出するための1つまたは複数のセンサを備えることができる。第1の通信装置110は、車両102の無線通信システムとの間で1つまたは複数の映像を受信/送信するように構成されてもよい。第1の通信装置110の例は、限定されるものではないが、路側ユニット(RSU)、携帯装置、スマートグラスなどの車両102のユーザによって着用されるウェアラブル装置、および/または車両102に取り外し可能に結合された通信装置を含むことができる。
第2の通信装置112は、専用の短距離通信(DSRC)チャネルまたは他の短距離もしくは中距離無線通信チャネルなどの第2の無線通信チャネル116Bを介して車両106と通信するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。第2の通信装置112はまた、無線通信ネットワーク118を介して、サーバ114などの中央通信装置と通信することができる。第2の通信装置112は、車両106の無線通信システムとの間で1つまたは複数の映像を受信/送信するように構成されてもよい。第2の通信装置112の例は、第1の通信装置110の例と同様とすることができる。
サーバ114は、車両102および106などの1つまたは複数の車両との通信チャネルを確立するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。サーバ114は、追加情報によってタグ付けされた複数のタグ付き映像を記憶するように構成されることができる。サーバ114はまた、追加情報によってタグ付けされていない可能性がある複数の映像を記憶することができる。複数のタグ付き映像は、車両102および106などの様々な車両、あるいは第1の通信装置110および/または第2の通信装置112などの通信装置から受信することができる。サーバ114は、クラウドサーバ、ウェブサーバ、データベースサーバ、ファイルサーバ、アプリケーションサーバ、またはそれらの組み合わせとすることができる。サーバ114は、当業者にとって周知のいくつかの技術を使用して実装されることができる。
第1の無線通信チャネル116Aは、それを介して車両102が1つまたは複数の他の車両および/または第1の通信装置110と通信することができる短距離または中距離通信媒体を含むことができる。第1の無線通信チャネル116Aの例は、限定されるものではないが、専用短距離通信(DSRC)ネットワーク、モバイルアドホックネットワーク(MANET)、車両アドホックネットワーク(VANET)、インテリジェント車両アドホックネットワーク(InVANET)、インターネットベースのモバイルアドホックネットワーク(IMANET)、無線センサネットワーク(WSN)、無線メッシュネットワーク(WMN)、インターネット、ロングタームエボリューション(LTE)ネットワークなどのセルラーネットワーク、無線フィデリティ(Wi-Fi)ネットワーク、および/または無線ローカルエリアネットワーク(WLAN)を含むことができる。ネットワーク環境100内の様々な装置は、様々な無線通信プロトコルにしたがって、第1の無線通信チャネル116Aを介して互いに接続するように構成されることができる。そのような無線通信プロトコルの例は、限定されるものではないが、IEEE802.11、802.11p、802.15、802.16、1609、マイクロ波アクセスに関する世界規模相互運用性(Wi-MAX)、車両環境における無線アクセス(WAVE)、セルラー通信プロトコル、伝送制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ロングタームエボリューション(LTE)、ライトフィデリティ(Li-Fi)、IEEE-802.11x、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、ブルートゥース(BT)通信プロトコル、および/またはそれらの変形を含むことができる。
第2の無線通信チャネル116Bは、それを介して車両106が1つまたは複数の他の車両および/または第2の通信装置112と通信することができる短距離または中距離通信媒体を含むことができる。第2の無線通信チャネル116Bの例は、第1の無線通信チャネル116Aの例と同様とすることができる。
無線通信ネットワーク118は、車両102および106などの1つまたは複数の車両と第1の通信装置110および第2の通信装置112などの外部通信装置とがサーバ114と通信することができる長距離通信媒体を含むことができる。無線通信ネットワーク118の例は、限定されるものではないが、インターネット、インターネットベースのモバイルアドホックネットワーク(IMANET)、ロングタームエボリューション(LTE)ネットワークなどのセルラーネットワーク、クラウドネットワーク、および/または広域ネットワーク(WAN)を含むことができる。ネットワーク環境100内の様々な装置は、様々な無線通信プロトコルにしたがって、無線通信ネットワーク118に接続するように構成されることができる。そのような無線通信プロトコルの例は、限定されるものではないが、IEEE802.11、802.11p、802.15、802.16、1609、マイクロ波アクセスに関する世界規模相互運用性(Wi-MAX)、車両環境における無線アクセス(WAVE)、セルラー通信プロトコル、伝送制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ロングタームエボリューション(LTE)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、および/または他の無線通信プロトコルを含むことができる。
ECU120は、車両102によってとられるべき、第1の移動ルート128などの現在の移動ルートを少なくとも含む入力情報を検索するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。ECU120は、車両102の検知システムの複数の車両センサからのセンサデータにアクセスするように構成されることができる。センサデータは、車載エリアネットワーク(VAN)などの車載ネットワークおよび/またはコントローラエリアネットワーク(CAN)バスなどの車載データバスを介して、ECU120によってアクセスされることができる。実施形態によれば、ECU120は、第1の無線通信チャネル116Aを介して第1の通信装置110、および/または無線通信ネットワーク118を介してサーバ114などのクラウドサーバなどの様々な外部通信装置と通信するように構成されることができる。
1つまたは複数の表示媒体122は、ECU120の制御下で映像または関連する映像のグループを表示するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。映像は、車両102に設けられた1つまたは複数の表示媒体122のうちの少なくとも1つにレンダリングされたインターフェース上で第1のユーザ126によって選択されることができる。インターフェースは、映像および様々な種類の情報を第1のユーザ126などの車両102の乗員に表示するように構成されたカスタマイズされたユーザインターフェース(UI)とすることができる。実施形態によれば、1つまたは複数の表示媒体122は、車両102のフロントガラス、リアガラス、および他のサイドウィンドウに対応することができる。自律走行の場合、フロントおよびリアガラスは、手動自動車などの非自律型車両の(運転者の視点から)手動走行に対して透明または視覚的に干渉のないことを常に要求する必要はない。したがって、車両102のフロントガラス、リアガラス、および左ウィンドウおよび右ウィンドウなどの他のサイドウィンドウは、1つまたは複数の映像を表示するように構成されることができる。1つまたは複数の表示媒体122は、車両102内から第1のユーザ126からの入力を受信するように構成されたタッチスクリーンとすることができる。あるいは、実施形態によれば、車両102などの自律型車両の内部は、1つまたは複数の映像および様々な種類の情報が第1のユーザ126などの車両102の乗員に表示されるように適合されることができる。そのような場合、車両102の側部、前部、後部、およびフード領域などの車両の内部は、1つまたは複数の表示媒体122と呼ばれることがある。例えば、車両102の側部、前部、後部、およびフード領域などの車両の内部は、投影ベースのディスプレイ、エレクトロクロミックディスプレイ、またはディスプレイもしくは投影ベースの表示媒体として機能することができる特定の材料の積層などの1つまたは複数の表示媒体122として機能するように修正することができる。本開示の範囲は、車両102のフロントガラス、リアガラス、および他のサイドウィンドウ、あるいは車両102の修正された内部としての1つまたは複数の表示媒体122に限定されるものではない。他の表示媒体、例えば、ヘッドアップディスプレイ(HUD)、拡張現実システムを備えたヘッドアップディスプレイ(AR-HUD)、運転者情報コンソール(DIC)、投影ベースのディスプレイ、シースルーディスプレイ、および/またはエレクトロクロミックディスプレイは、1つまたは複数の表示媒体122として使用することができる。AR-HUDは、コンバイナベースのAR-HUDとすることができる。1つまたは複数の表示媒体122は、透明または半透明の表示画面とすることができる。
映像撮像ユニット124aから124fは、車両102が第1の移動ルート128に沿って移動している間に1つまたは複数の映像を撮像するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。画像センサを有する映像撮像ユニット124aから124fの例は、限定されるものではないが、アクションカム、画像センサ、広角カメラ、閉回路テレビ(CCTV)カメラ、カムコーダ、暗視カメラ、飛行時間センサベースのカメラ(ToFカメラ)、および/または他のそのような車両カメラを含むことができる。
実施形態によれば、車両106のECU130、1つまたは複数の表示媒体132、1つの映像撮像ユニット134aから134fは、車両102のECU120、1つまたは複数の表示媒体122、映像撮像ユニット124aから124fのそれぞれと同様とすることができる。ECU130は、無線通信ネットワーク118または第2の無線通信チャネル116Bを介して、RSUなどの第2の通信装置112、および/またはサーバ114などのクラウドサーバなどの様々な外部通信装置と通信するように構成されることができる。
動作中、第2のユーザ136などのユーザは、車両106のナビゲーションユニット(図示せず)を使用することによって目的地位置138Bを供給することができる。ナビゲーションユニットは、車両106によってとられるべき車両106の現在位置138Aから目的地位置138Bまでの第2の移動ルート138などのルートを計算することができる。車両106は、自律走行モード、半自律モード、または手動モードとすることができる。車両106のECU130は、映像撮像ユニット134aから134fのそれぞれによる映像の撮像を開始するために、映像撮像ユニット134aから134fのそれぞれに開始コマンドを通信することができる。実施形態によれば、開始コマンドは、全ての映像撮像ユニット134aから134fにおいて同時に映像撮像処理を開始するためのブロードキャストコマンドとすることができる。
様々な例示的な実施形態では、映像撮像ユニット134aは、車両106の外側のフロントビューを撮像するために、車両106の前面に設置されることができる。映像撮像ユニット134bおよび134cは、車両106の左側、例えばフロントおよびサイドウィンドウの近くに設置されることができる。同様に、映像撮像ユニット134dおよび134eは、例えば、車両106の右側のフロントおよびサイドウィンドウの近くに設置されることができる。車両106の左側および右側は、車両106の進行方向に沿っていると理解することができる。あるいは、映像撮像ユニット134bおよび134dは、車両106の外側のサイドビューを撮像するために、車両106の外側バックミラー(ORVM)に設置されてもよい。映像撮像ユニット134fは、車両106の外側のリアビューを撮像するために、車両106の後部に設置されることができる。あるいは、複数の映像カメラの代わりに、映像撮像ユニット134aから134fとして、第2の移動ルート138に沿って車両106の近傍の360度ビューを撮像するように構成されることができる1つまたは複数の回転可能な映像撮像ユニットが提供されてもよい。
映像撮像ユニット134aから134fは、以下で第1のグループの関連映像と呼ぶ、記録された各映像の撮像の時間を記録するように構成されることができる。第1のグループの関連映像は、車両106が第2の地理的領域108内の第2の移動ルート138に沿って動いている場合に撮像されてもよい。第1のグループの関連映像のそれぞれは、車両106が第2の地理的領域108内の第2の移動ルート138に沿って移動している間の、車両106の周囲の外部環境の異なる視野(FOV)に対応することができる。ECU130は、第1のグループの関連映像の撮像時に、撮像された第1のグループの関連映像を追加情報によって動的にタグ付けするように構成されてもよい。追加情報は、第2の移動ルート138の形状などのルート形状、山岳ルート、高速道路、海岸ルート、都市道路などのルート種類を含むことができる。追加情報はまた、第2の移動ルート138に沿った旅行の合計移動時間、および第1の映像セットの撮像時の車両106の平均速度を含むことができる。ECU130は、第1のグループの関連映像の撮像を中止または停止するために停止コマンドを通信するように構成されてもよい。車両106がその設定目的地に到達した場合に停止コマンドが自動的に伝達されることができる。
追加情報によってタグ付けされた撮像された第1のグループの関連映像は、ECU130のメモリ内のローカルデータベースなどの、車両106のローカル記憶装置に記憶されてもよい。実施形態によれば、追加情報によってタグ付けされた第1のグループの関連映像は、無線通信ネットワーク118を介してサーバ114に通信されることができる。あるいは、実施形態によれば、撮像された第1のグループの関連映像は、第2の無線通信チャネル116Bを介して、RSUなどの第2の通信装置112に通信されてもよい。そのような場合、第2の通信装置112は、さらに、無線通信ネットワーク118を介して、撮像された第1のグループの関連映像をサーバ114などの中央通信装置に通信することができる。車両106と同様に、車両102のECU120はまた、映像撮像ユニット124aから124fのそれぞれに映像の撮像を開始および停止させるために、車両102による運転中に開始および停止コマンドを各映像撮像ユニット124aから124fに伝達することができる。映像撮像ユニット124aから124fの設置は、映像撮像ユニット134aから134fのものと同様とすることができる。
映像撮像ユニット124aから124fは、以下で第2のグループの関連映像と呼ぶ、記録された各映像の撮像時間を記録するように構成されることができる。第2のグループの関連映像は、第1の地理的領域104または他の地理的領域などの特定の地理的領域内で車両102がその現在の移動ルートに沿って移動している場合に撮像されることができる。ECU120は、第2のグループの関連映像の撮像時に、撮像された第2のグループの関連映像を追加情報によって動的にタグ付けするように構成されることができる。追加情報は、第1の移動ルート128の形状などのルート形状、ルート種類、移動時間、および第2のグループの関連映像の撮像時における車両102の平均速度を含むことができる。実施形態によれば、追加情報は、停止コマンドが映像撮像ユニット124aから124fに伝達される場合に、第2のグループの関連映像の撮像後にタグ付けされてもよい。同様に、設定された移動ルートに沿った各乗車について、異なるグループの関連映像が記録され、とられたルートに関する追加情報によって動的にタグ付けされてもよい。追加情報によってタグ付けされた第2のグループの関連映像は、ECU120のメモリ内のローカルデータベースなどの、車両102のローカル記憶装置に記憶されてもよい。実施形態によれば、追加情報によってタグ付けされた第2のグループの関連映像は、無線通信ネットワーク118を介してサーバ114に通信されることができる。あるいは、実施形態によれば、第2のグループの関連映像は、第1の無線通信チャネル116Aを介して、RSUなどの第1の通信装置110に通信されてもよい。
サーバ114は、車両102および106などの複数の車両から追加情報によってタグ付けされた複数のタグ付き映像を受信することができる。実施形態によれば、サーバ114は、車両102および106などの複数の車両のそれぞれの記憶ユニット内の様々な地理的領域の新しい映像(新しいグループの関連映像)をリモートで更新するように構成されることができる。サーバ114は、直接的にまたは第1の通信装置110および/または第2の通信装置112などのRSUと連携して更新を実行することができる。追加情報によってタグ付けされた複数のタグ付き映像は、図2、図3Aから図3F、図4Aから図4D、図5A、および図5Bに記載されるように、車両102および106などの異なる車両内に仮想環境をリモートで生成するためのプラットフォームを提供することができる。
図2は、本開示の実施形態にかかる、車両の様々な例示的な構成要素またはシステムを示すブロック図である。図2は、図1の要素と併せて説明されている。図2を参照すると、車両102が示されている。車両102は、マイクロプロセッサ202およびメモリ204を含むことができるECU120を備えることができる。車両102は、さらに、オーディオインターフェース206と、外側バックミラー(ORVM)208と、ECU120に通信可能に結合された1つまたは複数の表示媒体122とを備えることができる。車両102は、車体制御モジュール210、検知システム212、およびパワートレイン制御システム214をさらに備えることができる。検知システム212は、複数の車両センサ212a、映像撮像ユニット124aから124f、および第1の内部カメラ140A(図1)を含むことができる。パワートレイン制御システム214は、ステアリングシステム216およびブレーキシステム218を含むことができる。車両102は、車両電力システム220、バッテリ222、無線通信システム224、および車載ネットワーク226をさらに備えることができる。1つまたは複数の表示媒体122は、ユーザインターフェース(UI)228aから228fなどの1つまたは複数のインターフェースと関連付けることができる。
様々な構成要素またはシステムは、車両エリアネットワーク(VAN)などの車載ネットワーク226、および/または車載データバスを介して通信可能に結合されることができる。マイクロプロセッサ202は、オーディオインターフェース206、1つまたは複数の表示媒体122、検知システム212、および無線通信システム224に通信可能に結合されることができる。マイクロプロセッサ202はまた、車体制御モジュール210、パワートレイン制御システム214、ステアリングシステム216、およびブレーキシステム218と動作可能に接続されてもよい。無線通信システム224は、マイクロプロセッサ202の制御下で第1の通信装置110およびサーバ114などの1つまたは複数の外部装置と通信するように構成されることができる。当業者は、本開示の機能および動作を記載および説明するために、本明細書に示される構成要素またはシステムに加えて、車両102がまた他の適切な構成要素またはシステムも含むことができることを理解されよう。
マイクロプロセッサ202は、メモリ204に記憶されている命令セットを実行するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。マイクロプロセッサ202は、車両102の1つまたは複数の表示媒体122に表示される映像の選択に対応する入力を受信するように構成されることができる。実施形態によれば、マイクロプロセッサ202は、車両102が自律動作モードにあるとき、車両102のパワートレイン制御システム214、ステアリングシステム216、ブレーキシステム218、検知システム212、および/または車体制御モジュール210などの1つまたは複数の構成要素またはシステムを自動的に制御するように構成されることができる。マイクロプロセッサ202の例は、X86ベースのプロセッサ、縮小命令セット計算(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セット計算(CISC)プロセッサ、マイクロコントローラ、中央処理装置(CPU)、グラフィック処理ユニット(GPU)、状態マシン、および/または他のプロセッサもしくは回路とすることができる。
メモリ204は、マイクロプロセッサ202によって実行可能な少なくとも1つのコードセクションを有する機械コードおよび/または命令セットを記憶するように構成されることができる適切なロジック、回路、および/またはインターフェースを備えることができる。メモリ204は、追加情報および/または他のデータによってタグ付けされた複数のタグ付き映像を含むことができるローカルデータベースを記憶することができる。複数のタグ付き映像は、タグ付き追加情報に含まれる複数のルート形状と関連付けることができる。メモリ204の実装形態の例は、限定されるものではないが、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスクドライブ(HDD)、フラッシュメモリ、セキュアデジタル(SD)カード、ソリッドステートドライブ(SSD)、および/またはCPUキャッシュメモリを含むことができる。
オーディオインターフェース206は、スピーカ、チャイム、ブザー、または音を生成するように構成されることができる他の装置に接続されることができる。オーディオインターフェース206はまた、車両102の第1のユーザ126などの乗員からの音声入力を受信するためにマイクロフォンまたは他の装置に接続されてもよい。オーディオインターフェース206はまた、マイクロプロセッサ202に通信可能に結合されてもよい。オーディオインターフェース206は、車両102の車載インフォテインメント(IVI)システムまたはヘッドユニットの一部とすることができる。実施形態によれば、1つまたは複数の表示媒体122はまた、IVIシステムに通信可能に結合されてもよい。
車体制御モジュール210は、車両102の様々な電子部品またはシステムを制御するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備える他の電子制御ユニットを指すことができる。車体制御モジュール210は、マイクロプロセッサ202からコマンドを受信するように構成されることができる。車体制御モジュール210は、車両102のアクセス制御のために他の適切な車両システムまたは構成要素にコマンドを中継することができる。
検知システム212は、複数の車両センサ212a、映像撮像ユニット124aから124f、および第1の内部カメラ140Aを備えることができる。複数の車両センサ212aは、交通状況検出センサおよび気象状況検出センサを含むことができる。複数の車両センサ212aは、第1の移動ルート128などの現在の移動ルートに沿った車両102の移動中に現在の交通状況および外部気象状況を検出することができる。交通状況検出センサは、無線検出および測距(RADAR)装置、ならびに光検出および測距(LIDAR)装置などのレーザベースの物体検出センサを含むことができる。交通状況検出センサはまた、車速センサと、車両102の車体の前側に設置された映像撮像ユニット124aなどの1つまたは複数の映像撮像ユニット124aから124fとを含むこともできる。気象状況検出センサは、温度センサ、湿度センサ、光センサ、雨検出センサ、および/または外部気象状況を検出するための他のセンサを含むことができる。検知システム212は、マイクロプロセッサ202に入力信号を供給するためにマイクロプロセッサ202に動作可能に接続されてもよい。例えば、検知システム212は、複数の車両センサ212aを使用することによってセンサデータを検知または検出するために使用されることができる。複数の車両センサ212aの他の例は、限定されるものではないが、ヨーレートセンサ、車速センサ、オドメトリセンサ、操舵角センサ、車両進行方向検出センサ、磁力計、イメージセンサ、タッチセンサ、赤外線センサ、ToFセンサ、深度センサ、および全地球測位システム(GPS)を含むナビゲーションユニットを含むことができる。
パワートレイン制御システム214は、車両102のエンジンおよびトランスミッションシステムの動作を制御する車両102の車載コンピュータを指すことができる。パワートレイン制御システム214は、点火、燃料噴射、排出システム、および/または(設けられている場合には)トランスミッションシステムおよびブレーキシステム218の動作を制御することができる。
ステアリングシステム216は、マイクロプロセッサ202から1つまたは複数のコマンドを受信するように構成されることができる。ステアリングシステム216は、半自律モードで車両102の動きを制御するために第1のユーザ126によって使用されることができるステアリングホイールおよび/または電気モータ(パワーアシストステアリングのために提供される)を含むことができる。実施形態によれば、車両102の移動または操舵は、車両102が自律モードにあるときに自動的に制御されることができる。ステアリングシステム216の例は、限定されるものではないが、自律ステアリング制御、パワーアシストステアリングシステム、真空/油圧式ステアリングシステム、電気油圧式パワーアシストシステム(EHPAS)、または当該技術分野で知られている「ステアバイワイヤ」システム、または自律ステアリングシステムを含むことができる。
ブレーキシステム218は、摩擦力を加えることによって車両102を停止または減速させるために使用されることができる。ブレーキシステム218は、車両102が自律モードまたは半自律モードにあるとき、マイクロプロセッサ202の制御下でパワートレイン制御システム214からコマンドを受信するように構成されることができる。実施形態によれば、ブレーキシステム218は、マイクロプロセッサ202が車両102の設定された現在の移動ルートに基づく急な曲率、障害物、または他の道路の危険を先制的に検出したときに車体制御モジュール210および/またはマイクロプロセッサ202からコマンドを受信するように構成されることができる。
車両電力システム220は、上述したように、様々な電気回路および車両102の負荷に対するバッテリ222の充電および電力出力を調整することができる。車両102がハイブリッド車両または自律型車両であるとき、車両電力システム220は、全ての構成要素に必要な電圧を供給し、車両102が十分な時間にわたってバッテリ222の電力を利用することを可能にすることができる。実施形態によれば、車両電力システム220は、パワーエレクトロニクスに対応することができ、車載ネットワーク226に通信可能に結合されることができる(破線によって示される)マイクロコントローラを含むことができる。そのような実施形態では、マイクロコントローラは、マイクロプロセッサ202の制御下でパワートレイン制御システム214からコマンドを受信することができる。
バッテリ222は、1つまたは複数の電気回路または負荷(図示せず)のための電力源とすることができる。例えば、負荷は、限定されるものではないが、ヘッドライトおよび室内キャビンライトなどの様々なライト、車両座席、ミラー、ウィンドウなどの電動調整可能構成要素、および/またはラジオ、スピーカ、電子ナビゲーションシステム、ステアリングシステム216などの電気制御式、電動式および/またはアシスト式ステアリングなどの他の車載インフォテインメントシステムおよび/またはアクセサリを含むことができる。バッテリ222は、充電式バッテリとすることができる。バッテリ222は、ECU120(破線で示す)、複数の車両センサ212a、映像撮像ユニット124aから124f、および検知システム212の第1の内部カメラ140A、および/または1つまたは複数の表示媒体122などの他のハードウェアユニットへの電力源とすることができる。バッテリ222は、車両102のイグニッションシステム(図示せず)に選択的に電力を供給することによって車両102のエンジンを始動させるための電力源とすることができる。
無線通信システム224は、第1の無線通信チャネル116Aを介して第1の通信装置110などの1つまたは複数の外部装置、および無線通信ネットワーク118を介して、サーバ114などの1つまたは複数のクラウドサーバと通信するように構成されることができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。無線通信システム224は、限定されるものではないが、アンテナ、テレマティックスユニット、無線周波数(RF)トランシーバ、1つまたは複数の増幅器、1つまたは複数の発振器、デジタルシグナルプロセッサ、コーダ-デコーダ(CODEC)チップセット、および/または加入者識別モジュール(SIM)カードを含むことができる。無線通信システム224は、(図1で説明したように)第1の無線通信チャネル116Aおよび無線通信ネットワーク118の様々な通信プロトコルを使用して無線通信することができる。
車載ネットワーク226は、ECU120、車体制御モジュール210、検知システム212、パワートレイン制御システム214、無線通信システム224、オーディオインターフェース206、および1つまたは複数の表示媒体122などの車両102の様々な制御ユニット、構成要素、および/またはシステムが互いに通信することができる媒体を含むことができる。実施形態によれば、マルチメディアコンポーネントのためのオーディオ/映像データの車載通信は、車載ネットワーク226のメディア指向システムトランスポート(MOST)マルチメディアネットワークプロトコルまたはオーディオ/映像データ通信のための他の適切なネットワークの使用によって起こることができる。MOSTベースのネットワークは、コントローラエリアネットワーク(CAN)とは別のネットワークとすることができる。MOSTベースのネットワークは、プラスチック光ファイバ(POF)を使用することができる。実施形態によれば、MOSTベースのネットワーク、CAN、および他の車載ネットワークは、車両102などの車両内に共存することができる。車載ネットワーク226は、マイクロプロセッサ202(およびECU120)と車両102のテレマティックス制御ユニット(TCU)などの他のECUとの間のアクセス制御および/または通信を容易にすることができる。車両102内の様々な装置または構成要素は、様々な有線および無線通信プロトコルにしたがって、車載ネットワーク226に接続するように構成されることができる。車載ネットワーク226のための有線および無線通信プロトコルの例は、限定されるものではないが、車両エリアネットワーク(VAN)、CANバス、ドメスティックデジタルバス(D2B)、タイムトリガプロトコル(TTP)、FlexRay、IEEE1394、衝突検知を伴う搬送波検知多重アクセス(CSMA/CD)ベースのデータ通信プロトコル、内部集積回路間(IC)、機器間バス(IEBus)、自動車技術者協会(SAE)J1708、SAE J1939、国際標準化機構(ISO)11992、ISO11783、メディア指向システム転送(MOST)、MOST25、MOST50、MOST150、プラスチック光ファイバー(POF)、電力線通信(PLC)、シリアル周辺機器インターフェース(SPI)バス、およびまたはローカルインターコネクトネットワーク(LIN)を含むことができる。
UI228aから228fなどの1つまたは複数のUIは、マイクロプロセッサ202の制御下で、1つまたは複数の表示媒体122上にレンダリングされることができる。ユーザ選択のための洗練された映像セット、拡張現実感ビュー、および車両102において仮想環境を生成するための(図4Aから図4Dに記載されるような)異なる表示モードでの他の生成されたビューの表示は、1つまたは複数のUI228aから228fの使用によって起こることができる。UI228aから228fは、例えば、図3D、図3F、および図4Aから図4DのUI228aから228cに示すように、1つまたは複数の表示媒体122にしたがって構成されることができる。
動作中、第1のユーザ126などの通勤者は、自律走行モードで車両102を運転することを望むことがある。第1のユーザ126は、車両102の検知システム212のナビゲーションユニットによって、自律走行モードで目的地位置128Bを供給するように促されることができる。車両102が自律型車両である場合には、第1のユーザ126は、例えば第1の地理的領域104内の第1の移動ルート128に沿った旅行を開始するために、旅行の開始時に目的地位置128Bを強制的に提供する必要がある。車両102が半自律型車両である場合、第1のユーザ126がIVIシステムなどの車両102の入出力(I/O)ユニットを使用して現在の手動モードから自律走行モードに制御を切り替える場合には、第1のユーザ126は、目的地位置128Bを提供する必要がある。
検知システム212のナビゲーションユニットは、車両102によってとられるべき車両102の出発位置128Aなどの現在位置から目的地位置128Bまでの第1の移動ルート128などのルートを計算することができる。車両102内の第1のユーザ126は、車両102内の仮想環境を体験することを望むことがある。第1のユーザ126は、1つまたは複数の表示媒体122のうちの表示媒体、例えば、車両102の左後部ウィンドウに触れることができる。ECU120のマイクロプロセッサ202は、タッチ入力に基づいて、UI228aなどのインターフェースを表示媒体上にレンダリングするように構成されることができる。あるいは、タッチ入力以外に、音声入力またはジェスチャ入力もまた、インターフェースをレンダリングするために提供されることができる。UI228aなどのインターフェースは、ユーザプロンプトによってレンダリングされることができる。ユーザプロンプトは、車両102の外部の気象状況などの情報メッセージの表示に対応することができ、および/または「仮想環境が欲しいですか?」などの入力を第1のユーザ126に促し、「はい」または「いいえ」の確認などの確認または応答を第1のユーザ126から求めることができる。第1のユーザ126が「はい」の確認を提供した場合、マイクロプロセッサ202は、車両102の車載ネットワーク226から入力情報を検索するように構成されてもよい。入力情報は、車両102によってとられるべき現在の移動ルート(ナビゲーションユニットの使用によって設定された第1の移動ルート128など)を含むことができる。
図3Aから図3Fは、本開示の実施形態にかかる、車両内に仮想環境を生成する開示された表示制御システムおよび方法の様々な動作を示している。図3Aから図3Fは、図1および図2の要素と併せて説明される。図3Aを参照すると、検索パラメータ302などの第1の基準、複数のタグ付き映像304、タグ付き情報306、第1の映像セット308、およびメモリ204が示されている。検索パラメータ302は、車両102のルート形状302a、総移動時間302b、平均速度302c、および第1の移動ルート128などの現在の移動ルートのルート種類302dを含むことができる。タグ付き情報306は、複数のタグ付き映像304のそれぞれに関連付けられたルート形状306a、総移動時間306b、平均速度306c、およびルート種類306dを含むことができる。タグ付き情報306を有する複数のタグ付き映像304は、車両102の映像撮像ユニット124aから124fによって以前に記録された追加情報をタグ付けされた複数のタグ付き映像、または(図1で説明したように)サーバ114から受信した異なる地理的領域の複数のタグ付き映像に対応することができる。複数のタグ付き映像304のそれぞれは、車両102または車両106などの他の車両によって以前にとられた複数の移動ルートのルート形状306a、総移動時間306b、平均速度306c、および/またはルート種類306dなどの追加情報に関連付けられることができる。いくつかの実施形態では、タグ付き情報306は、交通状況パラメータおよび気象状況パラメータ(図示せず)を含むことができ、複数のタグ付き映像304のそれぞれは、交通状況パラメータおよび気象状況パラメータの追加情報に関連付けられることができる。
実施形態によれば、ECU120のマイクロプロセッサ202は、検索された入力情報における第1の移動ルート128などの現在の移動ルートに基づいて、車両102の第1の移動ルート128などの現在の移動ルートにおけるルート形状302aおよび湾曲の総数を判定するように構成されることができる。マイクロプロセッサ202は、検索された入力情報を検索パラメータ302などの1つまたは複数の検索パラメータとして利用して、メモリ204および/またはサーバ114に予め記憶されている複数のタグ付き映像304のタグ付き情報306に対して類似性検索を実行するように構成されることができる。
ECU120のマイクロプロセッサ202は、少なくとも第1の移動ルート128などの現在の移動ルートのルート形状302aを、複数のタグ付き映像304に関連付けられた複数のルート形状と比較するように構成されることができる。マイクロプロセッサ202は、ルート形状の比較に基づいて、メモリ204から複数のタグ付き映像304の中から第1の映像セット308を検索するように構成されることができる。ルート形状の比較は、形状特徴の抽出および1つまたは複数の輪郭/形状比較アルゴリズムの使用によってマイクロプロセッサ202によって実行されることができる。
マイクロプロセッサ202は、形状特徴抽出および分類によって(車両102の現在の移動ルートの形状と同様の)1つまたは複数の同様の形状の移動ルートを見つけるように構成されることができる。実施形態によれば、形状特徴は、現在の移動ルートのルート形状およびメモリ204内の複数のタグ付き映像304に関連する全ての利用可能な移動ルートのルート形状について抽出されることができる。形状特徴は、重心、最小慣性軸(ALI)、面積、デジタル曲げエネルギー、偏心度、円形度比、楕円分散、矩形度、凸面度、ソリッド性、オイラー数、輪郭曲率、重心距離、弦長、接線角度などの異なるパラメータによって表すことができる。重心はまた、幾何学的形状の判定に使用される重心または輪郭の重心とも呼ばれることができる。同様に、ALIは、湾曲(「L」線)から湾曲の境界形状までの距離を最小にする湾曲内で「L」として形作られる1つまたは複数の仮想線を示すことができる。デジタル曲げエネルギーは、湾曲の形状を表すために弧長を使用する。偏心は、形状を表すための2つの軸(長軸および短軸など)の長さの比などのアスペクト比を指す。円形度比は、湾曲の形状が円にどれだけ類似しているかという観点から、湾曲の形状を定義する比率を表す。楕円分散は、楕円にフィットするための湾曲の形状のマッピング誤差の使用を指すことができる。矩形度は、湾曲の形状が矩形にどれだけ類似しているかという観点から、湾曲の形状を定義する。矩形度は、最小外接矩形の面積に対する湾曲の形状の面積の比とすることができる。同様に、凸面度は、元の輪郭に対する凸包の周囲長の比を指すことができる。ソリッド性は、形状が凸状または凹状である程度/度合いを指す。例えば、ムービングピクチャエキスパートグループ7(MPEG-7)形状記述子は、ルート形状比較のための形状特徴の抽出のために使用されることができる。当業者は、本開示の範囲が、MPEG-7形状記述子の使用によるルート形状の比較のための形状特徴抽出に限定されないことを理解するであろう。ルート形状比較は、本開示の範囲を限定することなく、他のアルゴリズムまたは当該技術分野で知られている他のグローバルおよびローカル形状記述子などの形状記述子を使用することによって実行されることができる。そして、抽出された特徴を使用して、複数のタグ付き映像304に関連付けられた複数のルート形状から類似のマッチング形状を分類して見つけ出すことができる。
実施形態によれば、マイクロプロセッサ202は、サーバ114などの外部通信装置から第1の映像セット308のうちの1つまたは複数の映像を検索するように構成されることができる。第1の映像セット308は、各映像に関連するルート形状306aが、車両102の第1の移動ルート128などの現在の走行ルートのルート形状302aと同一または同様であり得る映像を含むことができる。
実施形態によれば、マイクロプロセッサ202は、車両102の総移動時間302b、平均速度302c、および/またはルート種類302dなどの追加の検索パラメータを第1の映像セット308の検索に利用するように構成されることができる。追加の検索パラメータは、複数のタグ付き映像304の総移動時間306b、平均速度306c、および/またはルート種類306dなどのタグ付き情報306と直接比較されることができる。比較は、第1の映像セット308の検索のためにマイクロプロセッサ202によって実行されてもよい。
図3Bを参照すると、第1の映像セット308をフィルタリングするための、交通状況パラメータ310および気象状況パラメータ312などの第2の基準が示されている。示されるように、第1の映像セット308のフィルタリングに基づいて、第1の洗練された映像セット314が取得されることができる。図3Bは、図1、図2、および図3Aからの要素と併せて説明される。
実施形態によれば、マイクロプロセッサ202は、第2の基準などの1つまたは複数の基準に基づいて検索された第1の映像セット308をフィルタリングして、第1の洗練された映像セット314を取得するように構成されることができる。交通状況パラメータ310および気象状況パラメータ312を含む第2の基準は、車両102の車載ネットワーク226から抽出されたセンサデータに対応することができる。センサデータは、第1の移動ルート128などの現在の移動ルートに沿った車両102の移動中に抽出されることができる。センサデータは、第1の移動ルート128に沿って移動中の車両102に設けられた複数の車両センサ212aによって検出されるような交通状況および気象状況に関する様々な合図を指すことができる。例えば、交通状況は、車両102の前側に配置されたRADAR、LIDAR、および/または映像撮像ユニット124aによって検出されるような交通渋滞レベルとすることができる。検出された交通渋滞レベルは、交通状況パラメータ310として利用されて、同様の交通渋滞レベルを有する第1の映像セット308から関連映像を見つけることができる。同様に、各映像に関連するルート形状306a、総移動時間306b、平均速度306c、ルート種類306d、交通状況パラメータおよび気象状況パラメータなどのタグ付き情報306に基づいて、車両102における現在の温度および湿度などの検出された気象状況が気象状況パラメータ312として利用されて、同様の気象状況を有する第1の映像セット308における関連映像を見つけることができる。
図3Cを参照すると、第1の洗練された映像セット314をさらにフィルタリングして第2の洗練された映像セット318を取得するための、1つまたは複数の乗員パラメータ316などの第3の基準が示されている。図3Cは、図1、図2、図3A、および図3Bからの要素と併せて説明される。1つまたは複数の乗員パラメータ316は、年齢、性別、ユーザの嗜好、乗員数、および/または乗員間の関係を含むことができる。実施形態によれば、年齢、性別、および乗員数などの1つまたは複数の乗員パラメータ316は、車両102の第1の内部カメラ140Aを使用することによって推定されることができる。1つまたは複数の乗員パラメータ316の年齢、性別、および乗員数の推定のために、1つまたは複数の顔検出および/または人体検出および識別アルゴリズムが第1の内部カメラ140Aによって撮像された画像に適用されてもよい。実施形態によれば、1つまたは複数の乗員パラメータ316は、UI228aから228fのうちの1つを介して、第1のユーザ126によって事前設定されることができる。
実施形態によれば、マイクロプロセッサは、第1のユーザ126によって定義された優先度設定に基づいて、第1の基準、第2の基準および第3の基準などの異なる基準に優先度を割り当てるように構成されることができる。例えば、検索および関連映像検索の目的で、第1、第2、および第3の優先順位をそれぞれ第1の基準、第2の基準、および第3の基準に割り当てることができる。あるいは、第1の映像セット308を検索するためのルート形状302aなどの第1の基準のうちの少なくとも1つが、デフォルトで第1の優先順位として設定されることができる。車両102の総移動時間302b、平均速度302c、および/またはルート種類302dなどの第1の基準の追加の検索パラメータには、第1の映像セット308において検索された結果の数に基づいて優先順位を割り当てることができる。例えば、検索された結果の数が1000個を超えるタグ付き映像などの第1の閾値数値よりも大きい場合、第1の基準の追加の検索パラメータを適用して、第1の閾値数値の近くなどの定義された許容限度にカウントを低減することができる。その後、第2の基準および第3の基準のパラメータを適用して、トップ10の関連タグ付き映像などの、定義された表示制限内の特定の数の関連タグ付き映像を検索することができる。第1のユーザ126は、選択にしたがって、UI228aを介して、検索および比較のために特定のパラメータをオプトインまたはオプトアウトしたり、優先順位設定を変更したりすることができる。
マイクロプロセッサ202は、第1の映像セット308のフィルタリングに基づいて、第1の洗練された映像セット314および/または第2の洗練された映像セット318などの洗練された映像セットを表示するように構成されることができる。実施形態によれば、第2の洗練された映像セット318などの最終的な洗練された映像セットは、UI228aなどのインターフェースのうちの1つに表示されることができる。UI228aなどのインターフェースは、1つまたは複数の表示媒体122のうちの少なくとも1つの表示媒体上にレンダリングされることができる。
図3Dを参照すると、1つまたは複数の表示媒体122の左後部ウィンドウ324aなどの少なくとも1つの表示媒体上にレンダリングされた、UI228aなどのインターフェースを描くための車両102の内部部分322が示されている。図3Dは、図1、図2、および図3Aから図3Cの要素と併せて説明される。第2の洗練された映像セット318などの洗練された映像セットのリストは、UI228aに表示されることができる。第2の洗練された映像セット318は、映像のタイトル、車両102によるまたは車両106などの他の車両による映像の撮像日、撮像された映像のジオロケーション、映像の撮像時の気象条件、および29フレーム/秒などのプリセットフレームレートなどの追加の詳細を含むアイコンとして表示されることができる。動いている車両102の中に座っている第1のユーザ126は、異なるルートまたは異なる環境での移動を体験することを望むことがある。例えば、第1の移動ルート128などの現在の移動ルートに沿って、「ニューヨーク」などの第1の地理的領域104内を移動している車両102は、あたかも「東京」(異なる地理的領域)を移動しているかのように体験することを望むことがある。第1のユーザ126は、UI228aなどのインターフェース上に表示された第2の洗練された映像セット318などの洗練された映像セットのうちの1つを選択するための入力を提供することができる。言い換えれば、マイクロプロセッサ202は、表示された第2の洗練された映像セット318の表示されたリストから、映像の選択に対応する入力(選択された映像320と呼ばれる)を受信するように構成されることができる。選択された映像320は、車両106などの他の車両が「東京」などの第2の地理的領域108内で、第2の移動ルート138などのその移動ルートに沿って移動したときに、車両106などの他の車両から以前に撮像された追加情報(第1の関連映像セットなど)によってタグ付けされた映像または一群の関連映像とすることができる。マイクロプロセッサ202は、車両102の第1の移動ルート128などの現在の移動ルートと、選択された映像320に関連する第2の移動ルート138などの移動ルートとの間の関連性ファクタを判定するように構成されることができる。関連性ファクタは、車両102が現在の移動ルートに沿って移動している間に判定されてもよい。
図3Eは、車両102の第1の移動ルート128などの現在の移動ルートと、選択された映像320に関連する第2の移動ルート138などの移動ルートとの間の関連性ファクタの判定を示している。図3Eは、図1、図2、および図3Aから図3Dの要素と併せて説明される。図3Eを参照すると、車両102の第1の移動ルート128などの現在の移動ルートおよび選択された映像320に関連付けられる第2の移動ルート138などの移動ルートに沿った複数のジオロケーションポイント326aから326nが示されている。複数のジオロケーションポイント326aから326nは、第1の移動ルート128などの現在の移動ルートのGPS座標を指すことができる。選択された映像320に関連した、車両102の現在の移動ルート(第1の移動ルート128など)の部分330および移動ルート(第2の移動ルート138など)の別の部分332が示されている。複数のジオロケーションポイント326aから326nにおいて、ジオロケーションポイント326nは、最後の「N」個のジオロケーションポイントを指すことができる。
実施形態によれば、関連性ファクタは、第1の移動ルート128などの現在の移動ルートと、選択された映像320に関連する第2の移動ルート138などの移動ルートとの間の曲率パラメータに基づいて、マイクロプロセッサ202によって判定されることができる。マイクロプロセッサ202は、次の「N」個の連続するジオロケーションポイントについて、複数のジオロケーションポイント326aから326nの各ジオロケーションポイントでの曲率の度合いを計算するように構成されてもよく、「N」は、定義された数値である。各ジオロケーションポイントにおける曲率の度合いは、選択された映像320に関連付けられた第1の移動ルート128および第2の移動ルート138の両方に対して計算されることができる。例えば、ジオロケーションポイント326aにおいて、ジオロケーションポイント326fまでのような次の5つのジオロケーションポイントについて曲率の度合いが計算されてもよい。示されるように、移動ルート上の5つのジオロケーションポイントなどの次の「N」個のジオロケーションポイントによって曲線を形成することができる。第1の移動ルート128に対するジオロケーションポイント326aでの曲率は、「CK326a」とすることができ、第2の移動ルート138については、「CS326a」とすることができる。同様に、ジオロケーションポイント326b、326c、326d、および326eでは、それぞれ、示されるように、ジオロケーションポイント326f、326g、326h、326i、および326jなどの次の5つのジオロケーションポイントを使用することによって計算された曲率がある。第1の移動ルート128に対するジオロケーションポイント326b、326c、326d、および326eでの曲率は、「CK326b」、「CK326c」、「CK326d」、「CK326e」とすることができ、第2の移動ルート138については、それぞれ、「CS326b」、「CS326c」、「CS326d」、「CS326e」とすることができる。曲率の度合いはまた、湾曲量とも呼ぶことができる。
湾曲度の計算は、1つまたは複数の数学的モデルまたはアルゴリズムを使用してマイクロプロセッサ202によって実行されることができる。例えば、湾曲内の領域328などの領域は、積分方法(破線で示す)を使用して計算することができ、これは次に曲率の度合いを示すことができる。当業者は、本開示の範囲が、各湾曲内の領域328を計算するための統合方法の使用によるルート形状の曲率の度合いの計算に限定されないことを理解するであろう。曲率の計算は、本開示の範囲を限定することなく、当該技術分野で知られている他のアルゴリズムまたは数学的モデルを使用することによって実行されることができる。マイクロプロセッサ202は、(最後またはほぼN番目のジオロケーションポイント326nまで)複数のジオロケーションポイント326aから326nの各ジオロケーションポイントにおける計算された曲率を利用するように構成されてもよい。
実施形態によれば、複数のジオロケーションポイント326a、・・・、326n-1、326nのそれぞれにおいて、車両102が動いている間に、マイクロプロセッサ202は、第1の移動ルート128などの現在の移動ルートと選択された映像320に関連付けられた第2の移動ルート138との間の曲率パラメータに基づいて関連性ファクタを判定することができる。関連性ファクタは、第1の移動ルート128と第2の移動ルート138との間の1つまたは複数の曲率における類似性および/または偏差を示すことができる。関連性ファクタは、車両102の現在の移動ルート(第1の移動ルート128など)の部分330などの部分の第1の曲率と、選択された映像320に関連付けられた(第2の移動ルート138などの)移動ルートの部分332などの対応する部分の第2の曲率との間の比であってもよい。
ジオロケーションポイント326aから326eの曲率パラメータに関連する関連性ファクタの例は、以下の表1に与えられる。
Figure 0007143853000001
表1:現在の移動ルートの曲率および選択された映像に関連する移動ルートの対応する曲率に対する異なるジオロケーションポイントにおける関連性ファクタ。
ECU120のマイクロプロセッサ202は、判定された関連性ファクタに基づいて、選択された映像320の1つまたは複数の映像パラメータを調整するように構成されることができる。1つまたは複数の映像パラメータは、フレームレートおよび/または輝度値を含むことができる。1つまたは複数の映像パラメータは、車両102が第1の移動ルート128などの現在の移動ルートに沿って1つまたは複数の曲率に遭遇した場合に調整されることができる。例えば、車両102が垂直方向の曲率、水平方向の曲率、道路の交差点などの異なる曲率に沿って移動し、および/または左、右、またはUターンなどのターンを行う場合、1つまたは複数の映像パラメータを動的に調整することができる。実施形態によれば、1つまたは複数の映像パラメータは、複数の車両センサ212aのうちの操舵角センサを使用することによって検出された操舵角に基づいて動的に調整されることができる。
実施形態によれば、選択された映像320の1つまたは複数の映像パラメータの調整は、さらに車両102の速度ファクタに基づいて実行されてもよい。例えば、車両102が動いている間に複数のジオロケーションポイント326aから326nのそれぞれにおいて、マイクロプロセッサ202は、速度ファクタを計算することができる。速度ファクタは、例示的な式(1)によって与えられるように、選択された映像320が車両によって撮像されたときの車両の速度(この場合には車両106の速度など)に対する車両102の現在の移動速度の比とすることができる。マイクロプロセッサ202は、移動中の車両102内の1つまたは複数の表示媒体122上での選択された映像320または選択された映像に関連する関連映像のグループの表示を制御するように構成されることができる。選択された映像320または選択された映像に関連する関連する映像のグループの表示は、選択された映像320または関連する映像のグループの調整された1つまたは複数の映像パラメータにしたがって制御されることができる。

Figure 0007143853000002
ここで、SFは、各ジオロケーションにおける速度ファクタである。
図3Fを参照すると、映像320aから320c、UI228aから228c、車両102の左後部ウィンドウ324a、左前部ウィンドウ324b、およびフロントガラス324cなどの関連する映像のグループを表すために、車両102の内部部分322が示されている。映像320aから320cは、選択された映像320にリンクされてもよい。映像320aから320cのそれぞれは、前の時点での同一車両の外部環境、または車両106が第2の地理的領域108内の第2の移動ルート138に沿って動いていたときの車両106などの他の車両の外部環境の異なるFOVに対応することができる。
例えば、映像320aから320cは、映像撮像ユニット134aから134fによって以前に撮像された第1の関連映像グループ(図1)に対応することができ、選択された映像320は、第1の関連映像グループのうちの1つとすることができる。映像撮像ユニット134aによって以前に撮像された車両106の外側のフロントビューを含む映像320aは、フロントガラス324c上にレンダリングされたUI228c上に表示されることができる。同様に、映像撮像ユニット134bによって以前に撮像された車両106の外側の左サイドビューを含む映像320bは、左前部ウィンドウ324b上にレンダリングされたUI228b上に表示されることができる。示されるように、映像撮像ユニット134cによって以前に撮像された車両106の外側の左サイドビューを含む映像320cは、左後部ウィンドウ324a上にレンダリングされたUI228a上に表示されることができる。車両102の左側および右側は、車両102の進行方向に沿っていると理解することができる。したがって、「東京」などの第2の地理的領域108の仮想環境は、「ニューヨーク」などの第1の地理的領域104内を移動することができる車両102内に作成されることができる。第1のユーザ126による第2の洗練された映像セット318からの選択された映像320などの映像の選択に基づいて、所望の仮想環境が車両102内に作成される。簡潔にするために、車両102の左後部ウィンドウ324a、左前部ウィンドウ324b、およびフロントガラス324cなどの3つの表示媒体、3つのUI228aから228c、および関連映像のグループの映像320aから320cなどの3つの映像が示されている。しかしながら、右後部ウィンドウ、右前部ウィンドウ、およびリアガラスなどの他の表示媒体を車両102に設けることができ、UI228dから228fをレンダリングすることができることを理解されたい。さらに、関連映像グループの他の映像がUI228dから228fに表示されてもよく、表示制御は、映像320aから320cの表示制御と同様に行われてもよい。
実施形態によれば、マイクロプロセッサ202は、車両102の左後部ウィンドウ324a、左前部ウィンドウ324b、およびフロントガラス324cなどの1つまたは複数の表示媒体122上に表示している間、映像320aから320cのフレームレートを絶えず動的に調整するように構成されることができる。車両102が第1の移動ルート128に沿って急な曲率に沿って移動する場合、または第1の移動ルート128の曲率の度合いが、選択された映像320に関連する移動ルートの対応する曲率の度合いと異なる場合、映像320aから320cのフレームレートを増やすことができる。例えば、車両102内の仮想環境の現実的な体験を絶えず提供して維持するように、判定された関連性ファクタに基づいて第1の移動ルート128に沿って曲率を通過するときに映像320aから320cのフレームレートを29フレーム/秒から100フレーム/秒に増加させることができる。フレームレートの調整は、部分330(図3E)などの曲率部分に関連する複数のジオロケーションポイントについて、判定された関連性ファクタに基づいてマイクロプロセッサ202によって実行されることができる。実施形態によれば、フレームレートなどの1つまたは複数の映像パラメータの調整は、判定された関連性ファクタおよび速度ファクタの両方に基づいて行われることができる。複数のジオロケーションポイント326aから326nのそれぞれについて、調整されたフレームレートは、式(2)によって与えられるように判定されることができる。

AFR=(現在のフレームレート×判定された関連性ファクタ×速度ファクタ) (2)

ここで、AFRは、調整されたフレームレートである。
実施形態によれば、第1の重み係数を判定された関連性ファクタに割り当て、第2の重み係数を速度ファクタに割り当てることができる。第1の移動ルート128の曲率と第2の移動ルート138の曲率との間の高い関連性は、第1の移動ルート128と第2の移動ルート138との間の非常に類似した曲率を示す。そのような場合、第1の重み係数は、フレームレートなどの1つまたは複数の映像パラメータの調整が主に速度ファクタに基づくように、第2の重み係数と比較して小さく設定されることができる。同様に、第1の移動ルート128の曲率と第2の移動ルート138の曲率との間の低い関連性は、第1の移動ルート128と第2の移動ルート138との間の非常に異なる曲率を示すことができる。そのような場合、第1の重み係数は、フレームレートなどの1つまたは複数の映像パラメータの調整が主に関連性ファクタに基づくように、第2の重み係数と比較して大きく設定されることができる。1つまたは複数の類似度閾値を、曲率に関連する高いおよび低い関連性を計算するために定義することができ、その逆もまた同様である。
実施形態によれば、マイクロプロセッサ202は、動いている車両102における左後部ウィンドウ324a、左前部ウィンドウ324b、およびフロントガラス324cなどの1つまたは複数の表示媒体122上での表示中に、映像320aから320cの1つまたは複数の映像セグメントの輝度値または音量をさらに調整するように構成されることができる。左後部ウィンドウ324a、左前部ウィンドウ324b、およびフロントガラス324cに表示される映像320aから320cの1つまたは複数の映像セグメントの輝度値は、異なる時刻または外光状況に対して異なることができる。例えば、車両102が深夜または夜間に第1の移動ルート128に沿って移動する場合、映像320aから320cのうちの表示された1つまたは複数の映像セグメントの輝度値を増加させることができる。輝度の調整は、指定されたユーザの嗜好によって異なることができる。
実施形態によれば、映像320aから320cなどの関連映像のグループは、上述したように、異なる表示媒体で表示するのではなく、フロントガラス324cなどの同一の表示媒体に表示されることができる。そのような表示は、UI228aから228fのうちの1つを介して設定されたユーザの嗜好に基づいて行われてもよい。実施形態によれば、それは車両102の外部で雨が降っていることがあり、第1のユーザ126は、晴れた日の気象条件で同一のルートまたは同様のルートの仮想環境を作成することを望むことがある。したがって、第1の映像セット308の検索、または第1の映像セット308のフィルタリング(図3Aから図3Cで説明されるように)は、UI228aなどのUIのうちの1つを介して第1のユーザ126などの車両内ユーザによって提供される「晴れた日」などのユーザの嗜好に基づいて行われることができる。実施形態によれば、第1の基準、第2の基準、および第3の基準などの異なる基準、ならびに検索パラメータは、UI228aから228fのうちの少なくとも1つを介してECU120に供給されることができる。そして、ECU120は、車両102の現在の移動ルートの同一または同様のルート形状の洗練された映像セットを検索することができる。第1のユーザ126に提示された検索映像は、車両102の内部で「晴れた」日の仮想環境の作成を可能にするために「晴れた」日の気象条件とすることができる。
実施形態によれば、車両102内の1つまたは複数の表示媒体122は、車両102の外部環境の自然なビューが車両102内から1人以上の乗員にとって選択的に制限されるように配置される。移動中の車両102内の1つまたは複数の表示媒体122上に(選択された映像320にリンクされた)映像320aから320cを表示している間、外部環境の自然なビューは制限されることができる。自然なビューは、車両102の内側から、第1のユーザ126などの車両内ユーザの視点からの、街路、建物、または外側領域などの外部環境の実際のビューを指すことができる。
実施形態によれば、複数の定義された表示モードからの表示モードを選択して、異なる種類の仮想環境を生成することができる。定義された複数の表示モードは、仮想映像モード、オーバーラップビューモード、拡張現実感ビューモード、および実際の外部映像モードを含むことができる。マイクロプロセッサ202は、タッチ入力、音声入力、またはジェスチャ入力に基づいて複数の定義された表示モードのうちの1つの選択を可能にすることができる。モード選択のためのタッチ入力は、UI228aから228fのうちの1つに提供されてもよい。
図4Aから図4Dは、本開示の実施形態にかかる、車両内に仮想環境を生成する様々なモードにおける開示された表示制御システムおよび方法の実装の例示的なシナリオを示している。図4Aを参照すると、仮想映像モード(VVM)404Aで表示される第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループを表すための車両102の内部部分322が示されている。
例示的なシナリオによれば、第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループは、第1のグループの関連映像(図1)に対応することができる。第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループは、第2の洗練された映像セット318(図3C)などの洗練された映像セットのうちの1つの選択に基づいて表示されることができる。
VVM404Aは、車両102内の複数の表示媒体(1つまたは複数の表示媒体122など)に選択された映像または関連映像のグループ(選択された映像も含む)を表示するためのデフォルトモードとすることができる。第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループは、第1の地理的領域104内の第1の移動ルート128などの現在の移動ルートに沿って車両102が動いている場合に表示されることができる。複数の表示媒体上の関連映像のグループの表示は、選択された映像の移動ルート(第2の移動ルート138など)に関連する第2の地理的領域108の仮想環境が車両102内に作成されるように制御されることができる。
このシナリオでは、例えば、車両102は、実際には、「ニューヨーク」(第1の地理的領域104など)の第1の移動ルート128の道路部分に沿って移動することができ、「東京」(異なる地理的領域)の第2の移動ルート138の道路部分周囲のビューが表示されることができる。「東京」の道路部分のフロントビューに対応する第1の映像402aは、フロントガラス324cにレンダリングされたUI228cに表示されて示されている。「東京」の道路部分の左サイドビューに対応する第2の映像402bおよび第3の映像402cは、示されるように、左前部ウィンドウ324bにレンダリングされたUI228b、および左後部ウィンドウ324aにレンダリングされたUI228aに表示されることができる。第1の映像402a、第2の映像402b、および第3の映像402cの1つまたは複数の映像パラメータは、車両102が第1の移動ルート128に沿って移動するにつれてリアルタイムまたはほぼリアルタイムで調整されることができる。1つまたは複数の映像パラメータの調整は、図3Eおよび3Fで説明したように、判定された関連性ファクタおよび/または速度ファクタに基づいて実行されることができる。
実施形態によれば、表示された第1の映像402a、第2の映像402b、および第3の映像402cの音量は、車両102の周囲の外部の交通騒音に基づいて調整されることができる。音量の調整は、緊急事態におけるユーザの嗜好にさらに基づいてもよい。例えば、外部交通騒音が定義された閾値騒音よりも大きい場合、表示されている第1の映像402a、第2の映像402b、および第3の映像402cに関連するオーディオの音量を上げることができる。同様に、外部交通騒音が定義された閾値騒音よりも小さい場合、表示されている第1の映像402a、第2の映像402b、および第3の映像402cとともに現在再生されているオーディオの音量を下げることができる。実施形態によれば、単一のオーディオが、第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループに関連付けられてもよい。オーディオは、第2の地理的領域108内の第1の映像402a、第2の映像402b、および第3の映像402cの撮像時に同時に捕捉されることができる。さらに代替として、実施形態によれば、表示された第1の映像402a、第2の映像402b、および第3の映像402cに関連するオーディオは、検知システム212のマイクロフォンによって捕捉された車両102の外部環境のオーディオによって置き換えられてもよい。マイクロプロセッサ202は、緊急事態の間、例えば巡回車両のサイレンが車両102の近くで、または他の緊急事態で検出されたときに、オーディオ代替コマンドをオーディオインターフェース206に通信することができる。実施形態によれば、マイクロプロセッサ202は、車両102の第1の移動ルート128に沿った運転の停止および再開に基づいてまたは緊急事態に基づいて、第1の映像402a、第2の映像402b、および第3の映像402cの表示を自動的に一時停止および再開するように構成されることができる。
図4Bを参照すると、オーバーラップビューモード(OVM)404Bで表示された、第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループを表すための車両102の内部部分322が示されている。OVM404Bが選択された場合には、示されるように、第1の移動ルート128などの現在の移動ルートに沿った現在の外部環境に関連する有益なテキストメッセージが、第1の映像402aなどの関連映像のグループの少なくとも1つの上に表示されることができる。このシナリオでは、示されるように、例えば、摂氏25度などの現在の外気温406、「外で雨が降っている」などの気象条件408、または「外で大量の交通渋滞」などの現在の交通状況410を、UI228aから228cなどの1つまたは複数のインターフェースの定義された領域上に重ね合わせることができる。OVM404Bでは、現在の移動ルートに沿った車両102の移動中に、車両102に設けられた複数の車両センサ212aによって検出された交通状況や気象状況を用いることができる。車両102の車載ネットワーク226から抽出された交通状況および気象状況に関連するセンサデータは、OVM404Bに表示される第1の映像402a、第2の映像402bおよび第3の映像402cなどの関連映像のグループに重ね合わされる有益なテキストメッセージの生成に使用されることができる。
図4Cを参照すると、拡張現実感ビューモード(ARVM)404Cで表示された、第1の映像402a、第2の映像402b、および第3の映像402cなどの関連映像のグループを表すための車両102の内部部分322が示されている。第1の拡張メッセージ412および第2の拡張メッセージ414も示されている。ARVM404Cが選択された場合、第1の移動ルート128などの現在の移動ルートに沿った現在の外部環境に関連する拡張コンテンツは、示されるように、第1の映像402a、および第2の映像402bなどの1つまたは複数の映像に表示されることができる。ARVM404Cでは、交通状況および気象状況に加えて、車両102の周辺で検出された様々なオブジェクトに関する情報、表示された映像に関連するタグ付き情報、地図データ、第1のユーザ126などの1人または複数の乗員の乗員情報は、拡張コンテンツを生成するために使用されることができる。
第1の拡張メッセージ412は、第1の映像402a、第2の映像402b、および第3の映像402cの映像などの選択された映像および/または関連映像のグループに関連する移動ルート(第2の移動ルート138など)に沿って検出された関心地点(POI)に関する情報とすることができる。POIは、第3の映像402cなどの表示された映像内の検出されたPOI上に配置されることができる。POIに関連する情報は、第3の映像402cなどの表示された映像に関連するタグ付き情報から抽出されてもよい。他の例では、第1の映像402a上で現在見られている道路部分の名称(「東京」の道路部分の名称など)もまた、第1の拡張メッセージ412または第2の拡張メッセージ414などの拡張コンテンツとして表示されることができる。道路部分の名称は、表示された第1の映像402aに関連付けられたタグ付き情報に含まれる移動ルート(例えば、第2の移動ルート138)に基づいて地図データから抽出されてもよい。
第2の拡張メッセージ414は、車両102の前方で検出されたオブジェクトに関する情報とすることができる。例えば、第2の拡張メッセージ414は、「交通信号が前方で「赤」になった、車両102はしばらくの間停止する」とすることができる。マイクロプロセッサ202は、さらに、第1の映像402aの一部の透明度または不透明度を変更して、車両102の外側の交通信号ポールなどの実際のオブジェクトのビューを、第1の映像402aの透明部を介して第1のユーザ126に視認できるようにする。このような場合、フロントガラス324cなどの表示媒体もまた、透明ディスプレイとすることができる。例えば、第1の映像402aの部分の透明度は、動的に「90-100」に設定されることができ、不透明度は、「0-10」に設定されることができる。
ARVM404Cでは、ECU120のマイクロプロセッサ202は、車両102の1つまたは複数のウィンドウ(左後部ウィンドウ324aおよび左前部ウィンドウ324bなど)および/または(フロントガラス324cなどの)フロントガラス上に拡張現実感ビューを生成するように構成されることができる。1つまたは複数のウィンドウおよびフロントガラスは、1つまたは複数の表示媒体122に対応することができる。拡張現実感ビューは、第1の映像402aなどの選択された映像のビューを含むことができ、交通信号ポールなどの1つまたは複数の外部オブジェクトまたは車両102の外部の他のオブジェクトに重ね合わせられる。したがって、第1の拡張メッセージ412および第2の拡張メッセージ414などの拡張コンテンツは、UI228aから228fを使用することによって、表示された映像内のオブジェクトおよび/または映像撮像ユニット124cなどの1つまたは複数の映像撮像ユニットによってリアルタイムまたはほぼリアルタイムで撮像された(車両102の外部の)実際のオブジェクトに重ね合わせられることができる。
図4Dを参照すると、実際の外部映像モード(AOVM)404Dにおいて車両102の映像撮像ユニット124aから124cによってリアルタイムまたはほぼリアルタイムで撮像された関連映像のグループ416aから416cを表すための車両102の内部部分322が示されている。関連映像のグループ416aから416cは、第2の関連映像のグループ(図1)に対応することができる。
AOVM404Dが選択された場合、関連映像のグループ416aから416cの表示は、移動中の車両102における1つまたは複数の表示媒体122(示されるように、左後部ウィンドウ324a、左前部ウィンドウ324b、およびフロントガラス324cなど)上で制御されることができる。表示制御は、関連映像のグループ416aから416cの調整された1つまたは複数の映像パラメータにしたがって実行されてもよい。AOVM404Dにおいて、関連映像のグループ416aから416cは、車両102が動いている場合に車両102の映像撮像ユニット124aから124cによって撮像された車両102の外部環境の実際の映像とすることができる。AOVM404Dでは、フレームレートおよび輝度などの1つまたは複数の映像パラメータの調整は、いかなる他の移動ルートとも無関係に、車速と、第1の移動ルート128などの現在の移動ルートの曲率とに基づくことができる。
図5Aおよび図5Bは、本開示の実施形態にかかる、自律型車両のための例示的な表示制御方法を示すフローチャート500をまとめて示している。フローチャート500は、図1、図2、図3Aから図3F、および図4Aから図4Dに関連して説明される。フローチャート500の動作は、ECU120などのECU内で実装されることができる。本方法は、502で始まり、504に進む。
504において、UI228aなどのインターフェースが、車両102に設けられている1つまたは複数の表示媒体122などの複数の表示媒体のうちの1つにレンダリングされることができる。UI228aなどのインターフェースは、ECU120によって受信された入力に基づいてレンダリングされることができる。例えば、第1のユーザ126は、1つまたは複数の表示媒体122のうちの車両102の表示媒体、例えば左後部ウィンドウ324aに触れることができる。ECU120のマイクロプロセッサ202は、タッチ入力に基づいて、UI228aなどのインターフェースを左後部ウィンドウ324aなどの表示媒体上にレンダリングするように構成されることができる。あるいは、タッチ入力の代わりに、音声入力またはジェスチャ入力が第1のユーザ126によって提供されてインターフェースをレンダリングしてもよい。インターフェースは、第1のユーザ126から「はい」または「いいえ」の確認を求めるために、例えば「仮想環境が欲しいですか?」というユーザプロンプトでレンダリングされてもよい。
506において、仮想環境が必要かどうかの確認を受信することができる。ある場合には、第1のユーザ126は、「はい」の確認を提供し、制御は、508に移ることができる。ある場合には、第1のユーザ126は、「いいえ」の確認を提供し、制御は、534に移ることができる。
508において、入力情報は、車両102の車載ネットワーク226から検索されることができる。入力情報は、少なくとも車両102によってとられるべき現在の移動ルート(ナビゲーションユニットの使用によって設定された第1の移動ルート128など)を含むことができる。マイクロプロセッサ202は、車両102の車載ネットワーク226から入力情報を検索するように構成されてもよい。実施形態によれば、入力情報はまた、現在の移動ルートに沿った車両102の移動中に車両102の車載ネットワーク226から抽出されたセンサデータを含むことができる。例えば、センサデータは、現在の移動ルート(ナビゲーションユニットの使用によって設定された第1の移動ルート128など)に関連する総移動時間302b、および平均速度302c(例えば、図3A)などの車両102の現在速度を含むことができる。
510において、車両102の現在の移動ルート(第1の移動ルート128など)のルート形状(ルート形状302aなど)が判定されることができる。ECU120のマイクロプロセッサ202は、検索された入力情報に含まれる現在の移動ルート内のルート形状302aおよび/または湾曲の総数を判定するように構成されてもよい。
512において、検索された入力情報に含まれる現在の移動ルートのルート形状は、複数のタグ付き映像に関連する複数のルート形状と比較されることができる。複数のタグ付き映像は、メモリ204および/またはサーバ114もしくは第1の通信装置110などの外部通信装置に記憶されることができる。例えば、ECU120のマイクロプロセッサ202は、少なくとも第1の移動ルート128のルート形状302aを複数のタグ付き映像304(図3A)に関連する複数のルート形状と比較するように構成されてもよい。
514において、検索された入力情報は、複数のタグ付き映像のタグ付き情報に対して類似性検索を実行するための1つまたは複数の検索パラメータとして利用されることができる。例えば、マイクロプロセッサ202は、検索パラメータ302などの1つまたは複数の検索パラメータとして検索された入力情報を利用して、(図3Aに示すように)メモリ204に予め記憶されている複数のタグ付き映像304のタグ付き情報306に対して類似性検索を実行するように構成されることができる。
516において、複数のタグ付き映像の中から第1の映像セット(第1の映像セット308など)が検索されることができる。例えば、マイクロプロセッサ202は、図3Aで説明したように、ルート形状の比較に基づいて、メモリ204からの複数のタグ付き映像304の中から第1の映像セット308を検索するように構成されることができる。実施形態によれば、マイクロプロセッサ202は、車両102の総移動時間302b、平均速度302c、および/またはルート種類302dなどの追加の検索パラメータを第1の映像セット308の検索に利用するように構成されることができる(図3Aに示すように)。あるいは、実施形態によれば、マイクロプロセッサ202は、サーバ114などの外部通信装置から第1の映像セット308のうちの1つまたは複数の映像を検索するように構成されることができる。
518において、検索された第1の映像セット(第1の映像セット308など)は、1つまたは複数の基準に基づいてフィルタリングされることができる。1つまたは複数の基準は、車両102の車載ネットワーク226から抽出されたセンサデータと、車両102内の第1のユーザ126などの1人または複数の乗員の乗員情報とに対応することができる。検出された現在の交通状況および気象状況(交通状況パラメータ310、および気象状況パラメータ312など)に基づくフィルタリング処理の例が図3Bに示されて説明される。1人または複数の乗員の乗員情報に基づくさらなるレベルのフィルタリングの他の例が、図3Cに示されて説明される。
ステップ520において、車両102内に設けられた複数の表示媒体のうちの1つにレンダリングされたインターフェース上に洗練された映像セットが表示されることができる。洗練された映像セットは、第1の映像セットのフィルタリングに基づいて取得されてもよい。第1の洗練された映像セット314および/または第2の洗練された映像セット318などの洗練された映像セットの例が、図3Bおよび図3Cに示されて説明される。
522において、表示された洗練された映像セットからの映像の選択に対応する入力を受信することができる。例えば、第2の洗練された映像セット318などの洗練された映像セットのリストが、(図3Dに示されるように)UI228a上に表示されることができる。動いている車両102の中に座っている第1のユーザ126は、異なるルートまたは異なる環境での移動を体験することを望むことがある。そして、第1のユーザ126は、(図3Dに示されて説明されるように)UI228a上に表示された第2の洗練された映像セット318などの洗練された映像セットのうちの1つを選択するための入力を提供することができる。
524において、関連性ファクタが、車両102の現在の移動ルートおよび選択された映像に関連する移動ルートとの間で判定されることができる。関連性ファクタは、車両102が現在の移動ルートに沿って移動している場合に判定されることができる。関連性ファクタは、第1の移動ルート128などの現在の移動ルートと、選択された映像320に関連する第2の移動ルート138などの移動ルートとの間の曲率パラメータに基づいて、マイクロプロセッサ202によって判定されることができる。関連性ファクタの判定の例は、図3Eにおいて詳細に示されて説明される。
ステップ526において、速度ファクタが判定されることができる。速度ファクタは、選択された映像の撮像時における、車両102の現在の移動速度と他の車両(車両106など)の速度との間の関係に対応することができる。例えば、速度ファクタは、選択された映像320が撮像されたときの車両の速度に対する車両102の現在の移動速度の比とすることができる。
528において、選択された映像および/または選択された映像を含む関連映像のグループの1つまたは複数の映像パラメータが調整されることができる。1つまたは複数の映像パラメータの調整は、判定された関連性ファクタおよび/または速度ファクタに基づいて実行されることができる。1つまたは複数の映像パラメータは、フレームレートおよび/または輝度値を含むことができる。例えば、車両102内の仮想環境の現実的な体験を絶えず提供して維持するように、現在の曲率についての判定された関連性ファクタに基づいて第1の移動ルート128に沿って曲率を通過するときに映像320aから320cの設定フレームレートを29フレーム/秒から100フレーム/秒に増加させることができる。例えば、複数のジオロケーションポイント326aから326nのそれぞれについて、(図3Eおよび3Fに示されて説明されるように)調整されたフレームレート=(現在のフレームレート×判定された関連性ファクタ×速度ファクタ)である。
530において、複数の定義された表示モードの中から設定されている現在の表示モードが検出されることができる。複数の定義された表示モードは、(図4Aから図4Dに示されて説明されているように)VVM404A、OVM404B、ARVM404C、およびAOVM404Dを含むことができる。マイクロプロセッサ202は、タッチ入力、音声入力、またはジェスチャ入力に基づいて複数の定義された表示モードのうちの1つの選択を可能にすることができる。モード選択のためのタッチ入力は、UI228aから228fのうちの1つに提供されてもよい。VVM404Aが選択された場合には、制御は、532Aに移ることができる。OVM404Bが選択された場合には、制御は、532Bに移ることができる。ARVM404Cが選択された場合には、制御は、532Cに移ることができる。AOVM404Dが選択された場合には、制御は、532Dに移ることができる。
532Aにおいて、選択された映像または選択された映像を含む関連映像のグループの表示は、移動中の車両102内の複数の表示媒体(1つまたは複数の表示媒体122など)上で制御されることができる。選択された映像または選択された映像を含む関連映像のグループの表示は、選択された映像または選択された映像を含む関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって制御されることができる。VVM404Aにおける表示制御の例が図4Aに示されて説明される。制御は、次に終了534に進むことができる。
532Bにおいて、選択された映像または選択された映像を含む関連映像のグループの表示は、移動中の車両102内の複数の表示媒体(1つまたは複数の表示媒体122など)上で制御されることができる。現在の移動ルートに沿って動いている車両102の現在の外部環境に関連する有益なテキストメッセージは、少なくとも1つの表示された映像上にオーバーレイされることができる。表示された映像は、選択された映像または1つまたは複数の関連映像のグループに対応することができる。オーバーレイされた有益なテキストメッセージとともに選択された映像または関連映像のグループの表示は、選択された映像または関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって制御されることができる。OVM404Bにおける表示制御の例が図4Bに示されて説明される。制御は、次に終了534に進むことができる。
532Cにおいて、選択された映像または選択された映像を含む関連映像のグループの表示は、移動中の車両102内の複数の表示媒体(1つまたは複数の表示媒体122など)上で制御されることができる。現在の移動ルートに沿って動いている車両102の現在の外部環境に関連する拡張コンテンツは、少なくとも1つの表示された映像に重ね合わせられることができる。表示された映像は、選択された映像または1つまたは複数の関連映像のグループに対応することができる。重ね合わせられた拡張コンテンツとともに選択された映像または関連映像のグループの表示は、選択された映像または関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって制御されることができる。ARVM404Cにおける表示制御の例が図4Cに示されて説明される。制御は、次に終了534に進むことができる。
532Dにおいて、リアルタイムまたはほぼリアルタイムで車両102の映像撮像ユニット124aから124fによって撮像された映像または関連映像のグループの表示は、移動中の車両102における複数の表示媒体(1つまたは複数の表示媒体122)上で制御されることができる。表示制御は、車両102の映像撮像ユニット124aから124fによって撮像された映像または関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって実行されることができる。AOVM404Dにおける表示制御の例が図4Dに示されて説明される。制御は、次に終了534に進むことができる。
本開示の実施形態によれば、車両102などの車両内に仮想環境を生成するシステムが開示される。システム(ECU120(図1)など)は、1つまたは複数の回路(以下、マイクロプロセッサ202(図2)と呼ぶ)を備えることができる。マイクロプロセッサ202は、車両102内の1つまたは複数の表示媒体122に表示される映像の選択に対応する入力を受信するように構成されることができる。マイクロプロセッサ202は、車両102が現在の移動ルートに沿って移動している場合、車両の現在の移動ルート(第1の移動ルート128など)と選択された映像に関連付けられた移動ルート(第2の移動ルート138など)との間の関連性ファクタを判定するように構成されることができる。マイクロプロセッサ202は、判定された関連性ファクタに基づいて、選択された映像または選択された映像に関連する関連映像のグループの1つまたは複数の映像パラメータを調整するように構成されることができる。マイクロプロセッサ202は、選択された映像または選択された映像に関連する関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって、移動中の車両102内の1つまたは複数の表示媒体122上の選択された映像または選択された映像に関連する関連映像のグループの表示を制御するように構成されることができる。
車両102のECU120は、1つまたは複数の表示媒体122などの複数の表示媒体上にレンダリングされたUI228aから228fを使用して、第1のユーザ126と車両102との対話などの対話を管理する。車両102のECU120はまた、図3Aから図3Cで説明したように、様々な基準およびパラメータに基づいて、第2の洗練された映像セット318などの適切なタグ付き映像のリストを検索するように管理する。したがって、車両102内部の通勤者が、車両102内から外部環境または内部環境を好まない場合、または車両102の周囲の現在の環境とは異なる仮想環境または気象条件を体験したい場合、ECU120などの専用ハードウェアユニットは、第1のユーザ126などの車両内ユーザの選択にしたがって、自律走行中に車両102内に仮想環境を作成する。
映像撮像ユニット124aから124fなどの映像撮像ユニットによって撮像された映像を表示するための表示媒体の基本的な表示機能とは異なり、ECU120は、第2の移動ルート138などの異なる移動ルートに関連する選択された映像または関連映像のグループがどのように運転中に車両102内に表示されるかを制御する。ECU120は、現在の移動ルートが選択された映像に関連する移動ルートと同一でなくても(同様であるが同一ではない)、1つまたは複数の表示媒体122などの全ての表示媒体上の選択された映像または関連映像のグループの表示を円滑且つ同期的に制御する。選択された映像または関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって映像の表示を制御するECU120の能力は、異なる車両または同一車両であるが異なる時点に異なるルートにある他の映像撮像装置から撮像された映像をどのように表示するかという問題を少なくとも克服する。マイクロプロセッサ202は、車両102が現在の移動ルートに沿って動いている場合に、車両102の現在の移動ルート(第1の移動ルート128など)と選択された映像に関連付けられた移動ルート(第2の移動ルート138など)との間の関連性ファクタを判定する。1つまたは複数の映像パラメータの調整は、改善されたインテリジェントで自己適応型の表示システムを提供する少なくとも判定された関連性ファクタに基づいて実行され、それにより、車両102が動いている場合に、第1のユーザ126などの車両内ユーザに円滑で且つ向上した視聴体験を提供する。第1のユーザ126などの車両内ユーザは、あたかも異なる都市または異なる気象状況の選択などの異なる環境または気象状況で移動しているかのように感じることができる。
本開示の実施形態によれば、車両内に仮想環境を生成する車両(車両102(図1および図2)など)が開示される。車両は、(ECU120(図1および図2)などの)ECUと、ECU120に通信可能に結合されることができる1つまたは複数の表示媒体122とを備えることができる。ECUは、車両102内の1つまたは複数の表示媒体122に表示される映像の選択に対応する入力を受信するように構成された1つまたは複数の回路(以下、マイクロプロセッサ202(図2)と呼ぶ)を備えることができる。マイクロプロセッサ202は、車両102が現在の移動ルートに沿って移動している場合、車両の現在の移動ルート(第1の移動ルート128など)と選択された映像に関連付けられた移動ルート(第2の移動ルート138など)との間の関連性ファクタを判定するように構成されることができる。マイクロプロセッサ202は、判定された関連性ファクタに基づいて、選択された映像または選択された映像に関連する関連映像のグループの1つまたは複数の映像パラメータを調整するように構成されることができる。マイクロプロセッサ202は、選択された映像または選択された映像に関連する関連映像のグループの調整された1つまたは複数の映像パラメータにしたがって、移動中の車両102内の1つまたは複数の表示媒体122上の選択された映像または選択された映像に関連する関連映像のグループの表示を制御するように構成されることができる。
本開示の様々な実施形態は、機械および/またはコンピュータに(車両102などの)車両内に仮想環境を生成させるためのコンピュータ実行可能命令セットを記憶する非一時的コンピュータ可読媒体および/または記憶媒体を提供することができる。(ECU120などの)ECU内のコンピュータ実行可能命令セットは、機械および/またはコンピュータに、車両102のECU120による入力の受信を含む動作を実行させることができる。入力は、車両102内の1つまたは複数の表示媒体122に表示される映像の選択に対応することができる。車両102は、自律型車両または半自律型車両とすることができる。関連性ファクタは、車両102の現在の移動ルートおよび選択された映像に関連する移動ルートとの間で判定されることができる。関連性ファクタは、車両102が現在の移動ルートに沿って移動している場合に判定されてもよい。少なくとも選択された映像の1つまたは複数の映像パラメータは、判定された関連性ファクタに基づいて調整されることができる。移動中の車両102内の1つまたは複数の表示媒体122上の選択された映像の表示は、少なくとも選択された映像の調整された1つまたは複数の映像パラメータにしたがって制御されることができる。
本開示は、ハードウェア、またはハードウェアとソフトウェアとの組み合わせで実現されることができる。本開示は、集中型で、少なくとも1つのコンピュータシステムで、または異なる要素がいくつかの相互接続されたコンピュータシステムにわたって分散されることができる分散型で実現されることができる。本明細書に記載の方法を実行するように適合されたコンピュータシステムまたは他の装置が適している可能性がある。ハードウェアとソフトウェアとの組み合わせは、ロードされて実行されると、本明細書に記載の方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを有する汎用コンピュータシステムとすることができる。本開示は、他の機能も果たす集積回路の一部を備えるハードウェアで実現されることができる。実施形態に応じて、上述したステップのいくつかが削除されてもよい一方で、他の追加のステップが追加されてもよく、ステップの順序が変更されてもよいことを理解されよう。
本開示はまた、本明細書に記載の方法の実施を可能にし、且つコンピュータシステムにロードされたときにこれらの方法を実行することができる全ての特徴を備えるコンピュータプログラム製品に埋め込むことができる。本文脈におけるコンピュータプログラムは、情報処理能力を有するシステムに特定の機能を直接的に、または以下のいずれかもしくは両方の後に実行させることを意図した命令セットの任意の言語での任意の表現、コードまたは表記法を意味する:a)他の言語、コードまたは表記法への変換;b)異なる素材形式での複製。
本開示を特定の実施形態を参照して説明したが、本開示の範囲から逸脱することなく様々な変更を加えて均等物を置換できることが当業者によって理解されるであろう。さらに、本開示の範囲から逸脱することなく、特定の状況または材料を本開示の教示に適合させるために多くの変更を加えることができる。そのため、本開示は開示された特定の実施形態に限定されず、本開示は添付の特許請求の範囲内にある全ての実施形態を含むことを意図している。

Claims (20)

  1. 車両用システムにおいて、
    前記車両用の電子制御ユニット(ECU)内の1つまたは複数の回路を備え、前記1つまたは複数の回路が、
    1又は複数の車両がそれぞれ有する撮像ユニットにより撮像され、撮像された際の移動ルートが関連付けられた映像であって、前記車両内の1つまたは複数の表示媒体に表示される映像の選択に対応する入力を受信し、
    前記車両が現在の移動ルートに沿って移動している場合に、前記車両の前記現在の移動ルートと前記選択された映像に関連付けられた移動ルートとの間の関連性ファクタを判定し、
    前記判定された関連性ファクタに基づいて前記選択された映像の1つまたは複数の映像パラメータを調整し、
    前記選択された映像の前記調整された1つまたは複数の映像パラメータにしたがって、移動中の前記車両内の前記1つまたは複数の表示媒体上の少なくとも前記選択された映像の表示を制御するように構成されている、システム。
  2. 前記関連性ファクタが、前記現在の移動ルートと前記選択された映像に関連する前記移動ルートとの間の曲率パラメータに基づいて判定される、請求項1に記載のシステム。
  3. 前記関連性ファクタが、前記車両の前記現在の移動ルートの一部の第1の曲率度と前記選択された映像に関連する前記移動ルートの対応する部分の第2の曲率度との間の比である、請求項1に記載のシステム。
  4. 前記ECU内の前記1つまたは複数の回路が、前記車両によってとられるべき少なくとも前記現在の移動ルートを含む入力情報を検索するようにさらに構成されている、請求項1に記載のシステム。
  5. 前記ECU内の前記1つまたは複数の回路が、メモリまたは外部通信装置の少なくとも1つに記憶された複数のタグ付き映像のタグ付き情報に対する前記入力情報の類似性検索に基づいて、前記ECUに通信可能に結合された前記メモリまたは前記外部通信装置のうちの前記少なくとも1つから第1の映像セットを検索するようにさらに構成されている、請求項4に記載のシステム。
  6. 前記ECU内の前記1つまたは複数の回路が、前記入力情報に含まれる前記現在の移動ルートのルート形状と、前記第1の映像セットの前記検索のための前記複数のタグ付き映像に関連付けられた複数のルート形状とを比較するようにさらに構成されている、請求項5に記載のシステム。
  7. 前記ECU内の前記1つまたは複数の回路が、1つまたは複数の基準に基づいて前記検索された第1の映像セットをフィルタリングするようにさらに構成されており、前記1つまたは複数の基準が、前記車両の車載ネットワークおよび前記車両内の1人以上の乗員の乗員情報から抽出されたセンサデータの1つに対応する、請求項5に記載のシステム。
  8. 前記センサデータが、前記現在の移動ルートに沿った前記車両の移動中に前記車両に設けられた複数のセンサによって検出された交通状況および気象状況の一方または両方に対応する、請求項7に記載のシステム。
  9. 前記ECU内の前記1つまたは複数の回路が、前記検索された第1の映像セットの前記フィルタリングについて前記1つまたは複数の基準に優先順位を割り当てるようにさらに構成されている、請求項7に記載のシステム。
  10. 前記ECU内の前記1つまたは複数の回路が、前記第1の映像セットの前記フィルタリングに基づいて、前記車両内の前記1つまたは複数の表示媒体の表示画面上にレンダリングされたインターフェース上に洗練された映像セットを表示するようにさらに構成されており、前記映像の前記選択に対応する前記入力が、前記インターフェース上に表示された前記洗練された映像セットのうちの1つの選択に対応する、請求項7に記載のシステム。
  11. 前記選択された映像の前記1つまたは複数の映像パラメータの前記調整が、前記車両の現在の速度にさらに基づいている、請求項1に記載のシステム。
  12. 前記選択された映像の前記1つまたは複数の映像パラメータの前記調整が、前記判定された関連性ファクタに基づいて、移動中の前記車両内の前記1つまたは複数の表示媒体上に前記選択された映像を表示する間の前記選択された映像のフレームレートの動的調整に対応する、請求項1に記載のシステム。
  13. 前記車両内の前記1つまたは複数の表示媒体が、前記車両の外部環境の自然なビューが、移動中の前記車両内の前記1つまたは複数の表示媒体上の前記選択された映像の表示中に前記車両内から1人または複数の乗員にとって選択的に制限されるように配置されている、請求項1に記載のシステム。
  14. 前記ECU内の前記1つまたは複数の回路が、前記選択された映像の前記表示中に、前記選択された映像の前記移動ルートに関連する第2の地理的領域の仮想環境が前記車両内に作成されるように、第1の地理的領域内の前記現在の移動ルートに沿って移動中の前記車両内の前記1つまたは複数の表示媒体上の前記選択された映像の表示を制御するようにさらに構成されている、請求項1に記載のシステム。
  15. 前記ECU内の前記1つまたは複数の回路が、前記1つまたは複数の表示媒体に対応する前記車両の1つまたは複数のウィンドウおよび/またはフロントガラス上に拡張現実感ビューを生成するようにさらに構成されており、前記拡張現実感ビューが、前記車両の外部の1つまたは複数の外部オブジェクトに重ね合わされた前記選択された映像のビューを備える、請求項1に記載のシステム。
  16. 前記車両が、自律型車両または半自律型車両のうちの1つである、請求項1に記載のシステム。
  17. 車両内に仮想環境を生成する表示制御方法において、
    前記車両の電子制御ユニット(ECU)によって、1又は複数の車両がそれぞれ有する撮像ユニットにより撮像され、撮像された際の移動ルートが関連付けられた映像であって、前記車両の1つまたは複数の表示媒体に表示される映像の選択に対応する入力を受信することと、
    前記ECUによって、前記車両が現在の移動ルートに沿って移動している場合に、前記車両の前記現在の移動ルートと前記選択された映像に関連付けられた移動ルートとの間の関連性ファクタを判定することと、
    前記ECUによって、前記判定された関連性ファクタに基づいて前記選択された映像の1つまたは複数の映像パラメータを調整することと、
    前記ECUによって、前記選択された映像の前記調整された1つまたは複数の映像パラメータにしたがって、移動中の前記車両内の前記1つまたは複数の表示媒体上の前記選択された映像の表示を制御することとを備える、表示制御方法。
  18. 車両において、
    電子制御ユニット(ECU)と、
    前記ECUに通信可能に結合された1つまたは複数の表示媒体とを備え、前記ECUが、
    1又は複数の車両がそれぞれ有する撮像ユニットにより撮像され、撮像された際の移動ルートが関連付けられた映像であって、前記車両に設けられた前記1つまたは複数の表示媒体上に表示される映像の選択に対応する入力を受信し、
    前記車両が現在の移動ルートに沿って移動している場合に、前記車両の前記現在の移動ルートと前記選択された映像に関連する移動ルートとの間の関連性ファクタを判定し、
    前記判定された関連性ファクタに基づいて前記選択された映像の1つまたは複数の映像パラメータを調整し、
    前記選択された映像の前記調整された1つまたは複数の映像パラメータにしたがって、移動中の前記車両内の前記1つまたは複数の表示媒体上の前記選択された映像の表示を制御するように構成された1つまたは複数の回路を備える、車両。
  19. 前記車両が自律型車両または半自律型車両のうちの1つである、請求項18に記載の車両。
  20. 前記車両が非自律型車両である、請求項18に記載の車両。
JP2019548088A 2017-03-17 2018-03-02 車両内に仮想環境を生成する表示制御システムおよび方法 Active JP7143853B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/462,600 US10257582B2 (en) 2017-03-17 2017-03-17 Display control system and method to generate a virtual environment in a vehicle
US15/462,600 2017-03-17
PCT/JP2018/008053 WO2018168527A1 (en) 2017-03-17 2018-03-02 Display control system and method to generate a virtual environment in a vehicle

Publications (2)

Publication Number Publication Date
JP2020515886A JP2020515886A (ja) 2020-05-28
JP7143853B2 true JP7143853B2 (ja) 2022-09-29

Family

ID=61768372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019548088A Active JP7143853B2 (ja) 2017-03-17 2018-03-02 車両内に仮想環境を生成する表示制御システムおよび方法

Country Status (4)

Country Link
US (3) US10257582B2 (ja)
JP (1) JP7143853B2 (ja)
DE (1) DE112018001422T5 (ja)
WO (1) WO2018168527A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5957744B1 (ja) * 2015-07-31 2016-07-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
KR20180037828A (ko) * 2016-10-05 2018-04-13 현대자동차주식회사 주행 환경에 따른 차량용 사용자 인터페이스 제어 장치 및 제어 방법
US11747696B2 (en) 2017-04-26 2023-09-05 View, Inc. Tandem vision window and media display
US11747698B2 (en) 2017-04-26 2023-09-05 View, Inc. Tandem vision window and media display
CN110709765A (zh) 2017-04-26 2020-01-17 唯景公司 用于可着色窗户的显示器
US11493819B2 (en) 2017-04-26 2022-11-08 View, Inc. Displays for tintable windows
US11892738B2 (en) 2017-04-26 2024-02-06 View, Inc. Tandem vision window and media display
CN107323375B (zh) * 2017-06-27 2019-12-03 京东方科技集团股份有限公司 车载显示***、交通设备和图像显示方法
DE102017215901A1 (de) * 2017-09-08 2019-03-14 Audi Ag Assistenzsystem für ein Fahrzeug
US10854002B2 (en) * 2017-09-08 2020-12-01 Verizon Patent And Licensing Inc. Interactive vehicle window system including augmented reality overlays
US10235122B1 (en) * 2017-09-21 2019-03-19 Qualcomm Incorporated Transitioning displays in autonomous vehicles to increase driver attentiveness
US10303045B1 (en) * 2017-12-20 2019-05-28 Micron Technology, Inc. Control of display device for autonomous vehicle
DE102018206657A1 (de) * 2018-04-30 2019-10-31 Audi Ag Verfahren und Steuervorrichtung zum Betreiben eines Kraftfahrzeugs
US20200020143A1 (en) * 2018-07-12 2020-01-16 GM Global Technology Operations LLC Systems and methods for in-vehicle augmented virtual reality system
US11284051B2 (en) * 2018-07-30 2022-03-22 Pony Ai Inc. Systems and methods for autonomous vehicle interactive content presentation
DE102018213634A1 (de) * 2018-08-13 2020-02-13 Audi Ag Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Anzeigeeinrichtung und Anzeigeeinrichtung zum Verwenden in einem Kraftfahrzeug
JP2020053795A (ja) * 2018-09-26 2020-04-02 株式会社Jvcケンウッド 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム
DE102018008045B4 (de) 2018-10-11 2020-07-23 Daimler Ag Verfahren und Einrichtung zur Steuerung von Anzeigeinhalten auf einem Ausgabemittel eines Fahrzeugs
US10816987B2 (en) * 2018-10-15 2020-10-27 Zoox, Inc. Responsive vehicle control
US11042159B2 (en) * 2018-12-20 2021-06-22 Toyota Motor North America, Inc. Systems and methods for prioritizing data processing
WO2020159245A1 (ko) * 2019-01-31 2020-08-06 엘지전자 주식회사 차량 간 영상 공유 방법
US10694078B1 (en) * 2019-02-19 2020-06-23 Volvo Car Corporation Motion sickness reduction for in-vehicle displays
US11373527B2 (en) * 2019-03-25 2022-06-28 Micron Technology, Inc. Driver assistance for non-autonomous vehicle in an autonomous environment
CN110053626B (zh) * 2019-05-10 2021-07-06 深圳市元征科技股份有限公司 一种车辆控制方法及相关装置
CN110281950B (zh) * 2019-07-08 2020-09-04 睿镞科技(北京)有限责任公司 基于三维声像传感器的载运工具控制与可视化环境体验
US11182970B1 (en) 2019-12-09 2021-11-23 Rockwell Collins, Inc. Augmented reality aircraft window and method
CN113219656B (zh) * 2020-01-21 2022-12-02 未来(北京)黑科技有限公司 一种车载抬头显示***
JP7264837B2 (ja) * 2020-01-24 2023-04-25 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
GB2595889A (en) 2020-06-10 2021-12-15 Daimler Ag Methods and systems for displaying visual content on a motor vehicle and method for providing a motor vehicle
DE102020209453B4 (de) 2020-07-27 2023-07-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Augmented-Reality-Darstellung von Sprachlerninhalten
KR20220036456A (ko) * 2020-09-15 2022-03-23 현대자동차주식회사 증강현실 기반의 정보 표시 장치
JP2022054362A (ja) * 2020-09-25 2022-04-06 豊田合成株式会社 車両用映像表示システム及び車両用映像表示方法
JP2022071800A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び感情誘導方法
DE102021003887A1 (de) 2021-07-27 2023-02-02 Mercedes-Benz Group AG Verfahren zur Bereitstellung von auf die Bewegung eines Fahrzeugs abgestimmten Medieninhalten und Fahrzeug
JP7487714B2 (ja) * 2021-08-31 2024-05-21 トヨタ自動車株式会社 表示制御装置、表示システム、表示方法及び表示プログラム
DE102021126195A1 (de) 2021-10-08 2023-04-13 Bayerische Motoren Werke Aktiengesellschaft Projektionsanzeigevorrichtung für zusätzliche Fahrerinformationen im Innenspiegel über Reflexion an der Heckscheibe
CN114291106A (zh) * 2021-12-30 2022-04-08 阿波罗智联(北京)科技有限公司 用于车辆的信息展示方法、装置、电子设备和存储介质
GB2616648A (en) * 2022-03-16 2023-09-20 Wayray Ag System and method
CN114679613B (zh) * 2022-05-30 2022-09-20 南斗六星***集成有限公司 一种智能网联车历史数据循环播放的方法
WO2024124230A1 (en) * 2022-12-09 2024-06-13 Adeia Guides Inc. Method and system for providing media content items for display on a user device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020223A (ja) 2002-06-12 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 車載用画像表示装置および車載用画像表示方法
JP2009093076A (ja) 2007-10-11 2009-04-30 Mitsubishi Electric Corp 列車内画像表示システム
JP2011227469A (ja) 2010-03-30 2011-11-10 Ns Solutions Corp オブジェクト表示システム及びオブジェクト表示方法
JP2011226972A (ja) 2010-04-22 2011-11-10 Nikon Corp 交通手段の眺望予想表示システムおよびこれに用いられる表示手段
US20120262673A1 (en) 2011-04-15 2012-10-18 Volvo Car Corporation Vehicular information display system and method
JP2015111178A (ja) 2013-12-06 2015-06-18 三菱電機株式会社 映像処理装置及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616129B2 (en) * 2005-12-01 2009-11-10 Discrete Wireless, Inc. In-vehicle conditional multi-media center
US20090275285A1 (en) * 2008-05-01 2009-11-05 Zoran Maricevic Method and apparatus for wireless synchronization between host media center and remote vehicular devices
JP5209370B2 (ja) 2008-05-19 2013-06-12 株式会社Kddi研究所 再生装置、再生方法およびプログラム
DE102011100941A1 (de) * 2011-05-09 2012-11-15 Lear Corporation Gmbh Fahrzeuginformations- und/oder Unterhaltungssystem mit Steuereinheit zur Anpassung einer Anzeige einer grafischen Benutzerschnittstelle einer Anwendung
DE102012003921A1 (de) * 2012-02-28 2013-08-29 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Anzeige und Bedineinrichtung sowie Verfahren zum Betrieb einer Anzeige- und Bedieneinrichtung
US20140309813A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Guest vehicle user reporting
US20140309863A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Parental control over vehicle features and child alert system
JP2014126604A (ja) 2012-12-25 2014-07-07 Ricoh Co Ltd 光源装置、照明光学系及び画像表示装置
KR102129798B1 (ko) * 2014-05-08 2020-07-03 엘지전자 주식회사 비히클 및 그 제어 방법
US10717406B2 (en) * 2015-10-26 2020-07-21 Active Knowledge Ltd. Autonomous vehicle having an external shock-absorbing energy dissipation padding
US20180152628A1 (en) * 2016-11-30 2018-05-31 Waymo Llc Camera peek into turn

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020223A (ja) 2002-06-12 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 車載用画像表示装置および車載用画像表示方法
JP2009093076A (ja) 2007-10-11 2009-04-30 Mitsubishi Electric Corp 列車内画像表示システム
JP2011227469A (ja) 2010-03-30 2011-11-10 Ns Solutions Corp オブジェクト表示システム及びオブジェクト表示方法
JP2011226972A (ja) 2010-04-22 2011-11-10 Nikon Corp 交通手段の眺望予想表示システムおよびこれに用いられる表示手段
US20120262673A1 (en) 2011-04-15 2012-10-18 Volvo Car Corporation Vehicular information display system and method
JP2015111178A (ja) 2013-12-06 2015-06-18 三菱電機株式会社 映像処理装置及びプログラム

Also Published As

Publication number Publication date
US10257582B2 (en) 2019-04-09
WO2018168527A1 (en) 2018-09-20
US20190200091A1 (en) 2019-06-27
US20200145727A1 (en) 2020-05-07
US10560754B2 (en) 2020-02-11
US20180270542A1 (en) 2018-09-20
JP2020515886A (ja) 2020-05-28
US11388482B2 (en) 2022-07-12
DE112018001422T5 (de) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7143853B2 (ja) 車両内に仮想環境を生成する表示制御システムおよび方法
US10984655B2 (en) System and method for driving assistance along a path
JP7371671B2 (ja) 車両に安全に追い付けるように運転を支援するシステムおよび方法
US10528829B2 (en) Apparatus for parking vehicle and vehicle
US10240937B2 (en) Display apparatus for vehicle and vehicle
US10410069B2 (en) Apparatus for providing around view and vehicle
EP3617653A1 (en) Method for providing image to vehicle and electronic device therefor
US10703374B2 (en) Vehicle driving assisting apparatus and vehicle comprising same
US20220080829A1 (en) Vehicle image processing device and method for displaying visual information on display included in vehicle
US10547988B2 (en) Method for acquiring information about pedestrian and communication device for vehicle
US20210055116A1 (en) Get-off point guidance method and vehicular electronic device for the guidance
US20230304822A1 (en) Route guidance device and route guidance method thereof
WO2023206388A1 (zh) 换道决策方法、装置及存储介质
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
CN114572219A (zh) 自动超车方法、装置、车辆、存储介质及芯片

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R151 Written notification of patent or utility model registration

Ref document number: 7143853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151