JP2023076002A - 画像表示システム - Google Patents
画像表示システム Download PDFInfo
- Publication number
- JP2023076002A JP2023076002A JP2021189133A JP2021189133A JP2023076002A JP 2023076002 A JP2023076002 A JP 2023076002A JP 2021189133 A JP2021189133 A JP 2021189133A JP 2021189133 A JP2021189133 A JP 2021189133A JP 2023076002 A JP2023076002 A JP 2023076002A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- marker
- wearable device
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003550 marker Substances 0.000 claims abstract description 65
- 210000001747 pupil Anatomy 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 4
- 238000005401 electroluminescence Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/30—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
- G09G3/32—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
- G09G3/3208—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Closed-Circuit Television Systems (AREA)
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
【課題】ウェアラブルデバイスのディスプレイにAR表示を行う画像表示システムにおいて、夜間、逆光など視界内の特徴点の抽出が難しい環境下であっても、適切な位置に画像表示を行う。【解決手段】車両120に搭載されたマーカー投射器64により、前方の路面96H上にマーカー像98Hを形成する。運転者200が装着したウェアラブルデバイス20に備えられたカメラによりマーカー像98Hを含む風景を撮影し、マーカー像98Hの位置を利用してウェアラブルデバイス20の位置及び姿勢を検出する。検出されたウェアラブルデバイス20の位置・姿勢に基づき、ディスプレイ上の画像の表示位置を決定する。【選択図】図6
Description
本発明は、車両の乗員が見ている現実の風景に対して他の画像を重ねて表示し、当該乗員に対して拡張された風景を提供する画像表示システムに関する。
車両の乗員が眼鏡またはゴーグルのように装着したウェアラブルデバイスのディスプレイに、乗員が当該ディスプレイ越しに見ている現実の風景に対して他の画像を重ねて表示して、拡張された風景を乗員に提供する技術が知られている。他の画像は、例えば、後方、側方などの乗員の視界外の範囲を撮影した画像や、仮想的な画像である。
下記特許文献1には、自車両の前方に先行車両(ARペースカー140)を仮想的に表示する技術が開示されている。この先行車両(140)に追従するように自車両を操縦することで、自車両が目的地に向けて誘導される。運転者が装着するウェアラブルデバイス(スマートグラス500)はカメラ(515)を備え、カメラ(515)により撮影された画像に基づき、フロントウィンドー(100)などの固定された対象物を検知し、この対象物の位置に基づいて先行車両(140)の表示位置等が決定される。なお、上記の( )内の部材名および符号は、下記特許文献1で用いられている符号であり、本願の実施形態の説明で用いられる部材名および符号とは関連しない。
車外の風景に他の画像を重畳する場合、車外の対象物に対するウェアラブルデバイスの位置および姿勢の情報を取得するのが望ましい。しかし、車外の対象物は多種多様であり、対象物を認識するための演算処理の負荷が大きくなる。また、車外の対象物は、外部環境によりその像の取得が難しい場合がある。例えば、夜間の光量不足、逆光などによる白飛びにより対象物の判別が難しい場合がある。
本発明は、ウェアラブルデバイスの位置および姿勢の基準となる車外対象物に係る特徴点の取得に関し、車外対象物の認識のための演算負荷を軽減すること、外部環境の影響を受けにくくすることのうち少なくとも1つを目的とする。
本発明に係る画像表示システムは、車両の乗員に装着されるウェアラブルデバイスであって、乗員の視界内に画像を表示するディスプレイと、ウェアラブルカメラとを備えるウェアラブルデバイスと、車両に搭載され、前方路面に向けてマーカーを投射して当該前方路面上にマーカー像を形成するマーカー投射器と、ウェアラブルカメラにより撮影されたマーカー像に基づき、ウェアラブルデバイスの位置及び姿勢を検出するウェアラブルデバイス位置姿勢センサと、検出されたウェアラブルデバイスの位置及び姿勢を利用して、画像を配置する視界内の位置を決定し、当該画像をディスプレイに表示させる画像処理装置とを含む。
光量不足、白飛びなどによって車外の特徴点の取得が難しい環境下でも、マーカー像を取得することができ、前方路面とウェアラブルデバイスの相対位置及び姿勢を検出することができる。
さらに、マーカーの形状は、あらかじめ定められた二次元図形であってよい。マーカーの形状があらかじめ定められていることにより、前方視界の画像からマーカー像を抽出する演算処理の負担が軽減される。
さらに、画像表示システムは、マーカー像の位置および形状から、路面の傾きおよび凹凸の少なくとも一方を検出する路面形状検出部を含んでよい。路面上に所定画像を表示する場合、路面形状に合わせた表示が可能となる。
さらに、画像表示システムは、ディスプレイに対する乗員の瞳孔の位置を検出する瞳孔位置センサを含むものとでき、画像処理装置は、検出されたウェアラブルデバイスの位置及び姿勢に加え、検出された瞳孔の位置を利用して画像を配置する視界内の位置を決定するものとしてよい。ディスプレイに表示される画像の位置を、現実の風景に対して精度よく合わせることができる。
夜間、逆光などの外部環境下においてもマーカー像を取得することができ、ディスプレイの適切な位置に画像を表示することができる。また、マーカーの形状があらかじめ定められていることにより、マーカー像の抽出に係る演算負荷を低減することができる。
以下、本発明の実施形態を図面に従って説明する。説明においては、理解を容易にするため、具体的な態様について示すが、これらは実施形態を例示するものであり、他にも様々な実施形態をとることが可能である。
図1は、実施形態にかかる画像表示システム10の機能構成を示すブロック図である。画像表示システム10は、ウェアラブルデバイス20と車載システム40を含んで構築される。
ウェアラブルデバイス20は、車両に乗車した運転者を含む乗員が眼鏡あるいはゴーグルのように装着するデバイスである。ウェアラブルデバイス20には、デバイス位置姿勢センサ30、瞳孔位置センサ32、画像制御部34及び有機ELディスプレイ36が含まれる。
図2には、ウェアラブルデバイス20が概略的に示されている。図2は、運転者200がウェアラブルデバイス20を装着した状態を示す図である。ウェアラブルデバイス20は、メガネの形状に形成されたデバイスであり、スマートグラスなどと呼ばれることもある。ウェアラブルデバイス20は、耳に掛けるための概略直線状のフレームであるテンプル22と、テンプル22に接続され、目の周囲を囲むとともに鼻に掛けられる形状に形成されたフレームであるリム24を備える。
リム24の内側には、ディスプレイ、特に有機EL(Electro Luminescence)ディスプレイ36が設けられている。有機ELディスプレイ36は、運転者200の目の前方を覆うように配置されるが、画像を形成しない場合には、高い透明性(高い光透過性)を有しているため、運転者200は、有機ELディスプレイ36を透して前方を目視することができる。有機ELディスプレイ36は、画像制御部34の制御に基づいて、一部または全部の領域に画像を形成することができる。一部の領域に画像を形成することで、運転者が見ている現実の風景に、形成された画像を重畳表示して、拡張された風景を運転者200に提供することができる。
ウェアラブルデバイス20のリム24とテンプル22の接続部付近に、デバイス位置姿勢センサ30が設けられている。デバイス位置姿勢センサ30は、ウェアラブルデバイス20の車両内における位置および姿勢を検出する。具体的には、デバイス位置姿勢センサ30は、車両に固定された直交座標系における位置と、姿勢(つまりこの直交座標系の各座標軸に対する傾き)を検出する。デバイス位置姿勢センサ30は、例えば、ウェアラブルデバイス20に固定された前方を撮影するカメラ(ウェアラブルカメラ)を利用して構築することができる。すなわち、カメラが撮影する画像を、車内の部品、装備等の対象物のレイアウトのデータと比較することで、カメラの位置及び姿勢が分かる。そして、カメラを、有機ELディスプレイ36と一体のリム24に対して固定して設置することにより、ウェアラブルデバイス20の位置及び姿勢を検出することが可能となる。
リム24の上部の中央付近には、瞳孔位置センサ32が設けられている。瞳孔位置センサ32は、運転者200の右目と左目の瞳孔がリム24に対して相対的にどの位置にあるかを検出するセンサである。瞳孔位置センサ32も、デバイス位置姿勢センサ30と同様に、カメラを利用して形成することができる。
テンプル22の内部には、画像制御部34が組み込まれている。画像制御部34は、車載システム40から受信したデータに基づいて、有機ELディスプレイ36に画像表示を行う制御装置である。ウェアラブルデバイス20では、画像制御部34及び有機ELディスプレイ36により画像表示を行うことで、運転者200に、通常とは異なる視覚的環境を提供することができる。
図1に戻って、車載システム40について説明する。車載システム40は、車両に搭載されたシステムである。車載システム40は、操作入力部42、画像処理装置44、前方カメラ52、右アウタカメラ54、左アウタカメラ56、後方カメラ58、画像データ記憶装置62及びマーカー投射器64を備えている。
操作入力部42は、運転者200が画像表示システム10を操作するために設けられている。運転者200は操作入力部42を操作することで、ウェアラブルデバイス20に画像を表示するか否か、また、表示する場合にどのような画像を表示するかを指示することができる。画像表示の例については後述する。
操作入力部42は、例えば、インストルメントパネルのタッチパネルに表示されるボタンを利用して形成することができる。あるいは、インストルメントパネルに設ける機械式のボタンとして形成してもよい。なお、操作入力部42を、ウェアラブルデバイス20に設けることも可能である。
画像処理装置44は、ウェアラブルデバイス20に表示する画像を形成するための装置である。画像処理装置44は、メモリ、プロセッサなどを備えたコンピュータハードウエアを、OS(オペレーティングシステム)、アプリケーションプログラムなどのソフトウエアによって制御することで構築することができる。
画像処理装置44には、三次元マップ作成部45、デバイス・瞳孔位置演算部46、画像レイアウト演算部48、画像合成部50が構築されている。三次元マップ作成部45は、カメラであるデバイス位置姿勢センサ30からの車両前方視界の画像から、路面上の白線や矢印などの道路標示、案内標識や規制標識などの道路標識、道路に隣接する建築物などの対象物から特徴点を取得し、前方視界内の三次元マップを作成する。デバイス・瞳孔位置演算部46は、デバイス位置姿勢センサ30と瞳孔位置センサ32からの入力(例えば、上述のようにカメラで撮影した画像が入力される)に基づいて、車内におけるウェアラブルデバイス20の相対位置と、運転者200の瞳孔の相対位置とを演算する。
画像レイアウト演算部48は、操作入力部42から指示される画像表示を行うために、どの画像データを有機ELディスプレイ36上のどの位置に配置するか、つまり合成する画像のレイアウトをどのようにするべきかを演算する。画像レイアウト演算部48では、レイアウトを決定するにあたって、あらかじめ記憶している車両の各内装部品の相対位置データを利用するとともに、デバイス・瞳孔位置演算部46が演算したウェアラブルデバイス20の相対位置姿勢データと、瞳孔の相対位置データを利用する。これにより、運転者200の瞳孔と車両の特定の内装部品とを結ぶ直線が、有機ELディスプレイ36上のどの位置に当たるかを演算することができる。そして、車両の特定の内装部品に特定の画像を重ねるためには、有機ELディスプレイ36のどの位置に画像を表示すればよいかを演算する。また、画像レイアウト演算部48は、三次元マップ作成部45により構築された車両前方の対象物の位置に対するウェアラブルデバイス20の相対位置を算出し、有機ELディスプレイ36上のどの位置に特定の画像を表示させればよいかを演算する。例えば、路面上に経路誘導のための矢印を表示する際に、有機ELディスプレイ36上のどの位置に表示すべきかを演算する。
画像合成部50は、画像レイアウト演算部48が演算したレイアウトに、画像データ記憶装置62が記憶する画像などを合成する処理を行う。合成する画像としては、必要に応じて、画像データ記憶装置62に記憶された画像データが利用される。合成された画像データは、画像制御部34に送信され、有機ELディスプレイ36に表示される。送信は、有線通信で行うことも可能であるし、無線通信で行うことも可能である。無線通信を採用する場合、例えばBluetooth(登録商標)、Wi-Fi(登録商標)、赤外線通信などの近距離無線通信を利用することも考えられる。
前方カメラ52は、車両の前方を撮影するカメラである。右アウタカメラ54は、車両の右サイドに設けられ、右後方を撮影するカメラである。左アウタカメラ56は、車両の左サイドに設けられ、左後方を撮影するカメラである。右アウタカメラ54と左アウタカメラ56が撮影する画像は、光学的な右アウタミラー及び左アウタミラーの代わりとなる電子的なアウタミラーの画像として用いられる。後方カメラ58は、車両の車幅方向中央に設けられ、後方を撮影するカメラである。後方カメラ58が撮影する画像は、光学的なインナミラー(ルームミラーとも呼ばれる)の代わりとなる電子インナミラーの画像として用いられる。
画像データ記憶装置62は、例えば、半導体メモリを利用して構築され、画像処理装置44によって制御される装置である。画像データ記憶装置62は、ウェアラブルデバイスに表示される画像データを記憶している。記憶する画像データには、車両の内装部品の外観を表す画像データが含まれる。具体的には、ドアトリム、シート、ルーフなどの内装部品の外観を表すデータ、電子アウタミラー、電子インナミラーなどのミラー部品を表すデータ、さらには前方視界内に表示する誘導用の記号を挙げることができる。
マーカー投射器64は、車両の前方、特に前方の路面上に図3に示す所定の形状のマーカー66を白色光または特定の波長の光により投射する。マーカー投射器64は、ヘッドランプ内に組み込まれることができる。図3には、マーカー66の形状の一例が示されている。この実施形態では、マーカー66は、円を三角形の頂点に配置したマーカー66Aと、2本の横線および横線の側方に位置する1本の縦線を組み合わせたマーカー66Bとにより構成される。一方のマーカー66Aを左右のヘッドライトのうちの一方から、他方のマーカー66Bを他方のヘッドライトから投射することができる。マーカー66を投射することにより路面上にマーカー像が形成され、マーカー像が車外の三次元マップの作成に係る特徴点として使用される。マーカー66の形状は、画像データ記憶装置62に記憶され、三次元マップを作成する際に、三次元マップ作成部45に読み出されて使用される。
車載システム40では、短い時間間隔で、リアルタイム処理が行われる。すなわち、車載システム40では、ウェアラブルデバイス20のデバイス位置姿勢センサ30、瞳孔位置センサ32から短い時間間隔で検出データを取得する。デバイス・瞳孔位置演算部46は、取得した検出データから、ウェアラブルデバイス20の位置及び姿勢と、瞳孔の位置を速やかに演算する。そして、画像レイアウト演算部48は、操作入力部42から指示された画像を表示するためのレイアウトを演算する。画像合成部50は、画像データ記憶装置62からの画像をレイアウトに従って合成し、ウェアラブルデバイス20に送信する。
ウェアラブルデバイス20では、受信した合成画像データを画像制御部34において処理し、有機ELディスプレイ36に表示する。画像表示に至るまでの処理が高速で行われるため、運転者200が首を振ったような場合にも、高速で追従可能となる。このため、ウェアラブルデバイス20を装着した運転者200は、実際とは異なる表示がなされた車室を、あたかも、実際に存在するかのように感じることができる。また、車両前方の視界内に表示された画像を、前方の風景の一部として感じることができる。
なお、以上の説明では、ウェアラブルデバイス20として、画像制御部34と有機ELディスプレイ36を利用した装置を例に挙げた。しかし、ウェアラブルデバイス20は、他の原理を用いるものであってもよい。一例としては、網膜に画像を照射するプロジェクタを利用する態様が挙げられる。また、ウェアラブルデバイス20では、外部からの可視光が透過せず、代わりに、カメラで撮影した画像を表示するタイプのものを用いることも可能である。
また、図1に示したシステム構成は一例であり、例えば、車載システム40の構成の一部、例えば操作入力部42、画像処理装置44および画像データ記憶装置62をウェアラブルデバイス20に搭載するなどの変更を行うことができる。この場合、画像データ記憶装置62に記憶される画像データは、ウェアラブルデバイス20を装着する乗員が搭乗する車両に対応したデータ(例えば、車種ごとのデータ)をインターネットを介して取得して記憶するようにしてよい。
続いて、図4及び図5を参照して、ウェアラブルデバイス20による画像表示の例について説明する。図4,5は、いずれも、ウェアラブルデバイス20を装着した運転者200の視界を模式的に示した図である。
図4は、ウェアラブルデバイス20が特段動作していない状態を示す図である。この場合、運転者200の視界は、現実の風景と同じ状態である。運転者200の視界内には、運転者200の前方の車両の内装部品、車外前方の風景が存在している。
車両の内装部品として、視界の上部にルーフ70、ルーフ70の左右のサイドに左Aピラー72(左フロントピラーと呼ばれることもある)及び右Aピラー73が見える。ルーフ70、左Aピラー72及び右Aピラー73に囲まれた位置には、ウインドシールド74(フロントガラスと呼ばれることもある)が設けられている。ウインドシールド74を透して車外前方の風景、図4においては、平原の中を前方に延びる道路75が見えている。ウインドシールド74の上部付近には、ルーフ70に取り付けられたインナミラー76が見えており、後方を走行する車両が映っている。
運転者200の左右の側方には、内装部品として左フロントドアトリム78及び右フロントドアトリム79が見えている。さらに、左サイドウインドウガラス80越しに左アウタミラー82が、右サイドウインドウガラス81越しに右アウタミラー83が見えている。左右のアウタミラー82,83には、自車両の側面の一部と後方を走行する車両が映っている。
ウインドシールド74の下方には、内装部品としてインストルメントパネル86が見えている。インストルメントパネル86には、タッチパネル88と操作ボタン類90が配置されている。運転者200が装着するウェアラブルデバイス20の操作入力部42は、例えば、このタッチパネル88または操作ボタン類90に設けられる。
運転者200の前方には、インストルメントパネル86よりも手前に、ステアリング92が設けられている。また、ステアリング92の内側には、インストルメントパネル86に配置されたスピードメータなどの計器類94が見えている。
前方の道路75の路面96上には、マーカー投射器64から投射されたマーカー66の像98(以下、マーカー像98と記す。)が見えている。路面96上の白線などの車外の対象物と異なり、マーカー像98は、車両に対して概ね移動せず、車外の対象物の特徴点に比べ、抽出に係る演算負荷が軽減される。また、道路75上の現在車両が位置している路面96と、マーカー像98が形成されている路面96とは、多くの場合同一平面上にあるので、マーカー像98の位置は、車体に対してほぼ固定される。よって、内装部品の位置から、車両に対するウェアラブルデバイス20の位置及び姿勢を定めるのと同様、マーカー像98の位置から車両に対するウェアラブルデバイス20の位置及び姿勢を定めることができる。
図5は、運転者200が操作入力部42を操作して、ウェアラブルデバイス20の有機ELディスプレイ36に画像を形成し、前方の風景と重畳させた状態を示す図である。運転操作に直接関係しない内装部品の外観が変更されている。具体的には、ルーフ70、左右のAピラー72,73、左右のフロントドアトリム78,79、インストルメントパネル86の色、模様が変更されている。ウェアラブルデバイス20では、画像データ記憶装置62に記憶された画像データを利用することで、内装部品の色、模様、質感の少なくとも一つを変更することができる。ここで、質感とは、材質に関する特徴をいい、例えば、金属的質感、木製的質感、革張的質感、クッション材的質感などが挙げられる。
図5において、電子ミラーが有機ELディスプレイ36上に表示されている。図5に示した例では、ステアリング92の上部近傍に、左側から順に、電子左アウタミラー100、電子インナミラー102、電子右アウタミラー104が表示されている。
電子左アウタミラー100は、左アウタカメラ56によって撮影された車両左後方の風景を有機ELディスプレイ36上に表示した画像である。電子左アウタミラー100には、光学的なミラーである左アウタミラー82と同じく、自車両の側面の一部と後方を走行する車両が表示されている。
電子インナミラー102は、後方カメラ58によって撮影された車両後方の風景を有機ELディスプレイ36上に表示した画像である。電子インナミラー102には、インナミラー76と同じく、後方を走行する車両が表示されている。
電子右アウタミラー104は、右アウタカメラ54で撮影された車両右後方の風景を有機ELディスプレイ36上に表示した画像である。電子右アウタミラー104には、右アウタミラー83と同じく、自車両の側面の一部と後方を走行する車両が表示されている。
電子左アウタミラー100、電子インナミラー102、電子右アウタミラー104は、ステアリング92の上部付近において、ステアリング92よりも運転者200の側に表示されている。ステアリング92の上部に電子左アウタミラー100、電子インナミラー102、電子右アウタミラー104を表示することで、運転者200は、正面方向からほとんど視線をずらすことなく、車両後方を確認することが可能となる。また、電子左アウタミラー100、電子インナミラー102、電子右アウタミラー104は、ウインドシールド74越しの前方視界および計器類94と重ならない位置に配置されており、前方視界および計器類94の視認を妨げない。
さらに、前方の路面96に重畳されるように経路誘導のための誘導矢印110が有機ELディスプレイ36上に表示されている。誘導矢印110は、車載された経路誘導装置からの情報に基づき表示される。図5に示される誘導矢印110は直進を表しているが、左折または右折する交差点では、交差点の位置に合わせて左折または右折の矢印が表示される。
夜間など光量が不足する場合や、逆光などによって白飛びが発生する場合、デバイス位置姿勢センサ30であるウェアラブルカメラが撮影した画像では、内装部品や装備の位置および車外の対象物の位置を特定することが難しい場合がある。これに対して、マーカー像98は、光の照射により形成されたものであるので、暗環境などにおいても認識することができる。前述のように、マーカー像98の位置は、車両に対してほぼ固定されているので、マーカー像98に対するウェアラブルデバイス20の相対位置が分かれば、車両の内装部品等とウェアラブルデバイス20の相対位置も分かり、内装部品に対する表示や電子ミラーの表示の位置を、撮影されたマーカー像98を利用して定めることができる。よって、光量不足や白飛びが発生した場合でも、有機ELディスプレイ36上の適切な位置に画像を表示することが可能となる。
図6は、道路の傾斜によるマーカー像の位置及び形状の変化を概念的に示す図である。実線で平坦な道路75Hが示され、一点鎖線で車両120の前方の登坂路75Rが示されている。マーカー投射器64から平坦な道路75Hの路面96Hに投射されたマーカー66A(図3参照)の像がマーカー像98Hとして示され、また登坂路75Rの路面96R上に形成されたマーカー像がマーカー像98Rとして示されている。路面96Hは、車両120の位置の路面96Vと同一の平面に在る。
図7には、デバイス位置姿勢センサ30としてのウェアラブルカメラが撮影したマーカー像98H,98Rが示されている。ウェアラブルカメラの位置が、マーカー投射器64よりも高い位置にあるため、撮影された登坂路の路面96R上のマーカー像98Rは、平坦路の路面96H上のマーカー像98Hよりも上下方向において短縮され、また撮影画像上の位置も下方にずれる。この形状及び位置の違いに基づき、車両120が位置する路面96Vに対する前方の路面96H,96Rの傾斜を判断することができる。降坂路においては、逆に、マーカー像が平坦路に比べて上下方向において伸張され、位置は上方にずれる。
前方の路面96の傾斜を取得すれば、その傾斜に合わせて誘導矢印110(図5参照)を路面96に沿うように表示することができる。これによれば、誘導矢印110の先端が路面96に潜り込むように表示されたり(登坂路の場合)、路面96から浮き上がるように表示されたり(降坂路の場合)することを防止できる。
マーカー像98の変形に基づき、車速の減速を促すための減速バンプ(減速帯)などの路面の凹凸を検出することができる。減速バンプは、短い登坂路と短い降坂路が連続した形状となるので、マーカー像98が減速帯を通過すると、短時間の間に登坂路による変形と降坂路による変形が続いて検出される。減速バンプが検出されたとき、誘導矢印110を減速バンプに沿わせて表示してもよく、また有機ELディスプレイ36に減速を促す表示を行ってもよい。
以上のように、自車両から投射されたマーカーを利用して、ウェアラブルデバイス20の位置及び姿勢を取得することで、暗環境や逆光など、光量に係る外部環境が悪い場合であっても、ウェアラブルデバイス20に表示される画像の表示位置の精度を高めることができる。
10 画像表示システム、20 ウェアラブルデバイス、30 デバイス位置姿勢センサ(ウェアラブルカメラ)、32 瞳孔位置センサ、34 画像制御部、36 有機ELディスプレイ、40 車載システム、42 操作入力部、44 画像処理装置、45 三次元マップ作成部、46 デバイス・瞳孔位置演算部、48 画像レイアウト演算部、50 画像合成部、62 画像データ記憶装置、64 マーカー投射器、66 マーカー、70 ルーフ、72 左Aピラー、73 右Aピラー、74 ウインドシールド、75 道路、76 インナミラー、82 左アウタミラー、83 右アウタミラー、86 インストルメントパネル、88 タッチパネル、90 操作ボタン類、92 ステアリング、94 計器類、96 路面、98 マーカー像、100 電子左アウタミラー、102 電子インナミラー、104 電子右アウタミラー、110 誘導矢印、120 車両、200 運転者。
Claims (4)
- 車両の乗員に装着されるウェアラブルデバイスであって、前記乗員の視界内に画像を表示するディスプレイと、ウェアラブルカメラとを備えるウェアラブルデバイスと、
前記車両に搭載され、前方路面に向けてマーカーを投射して当該前方路面上にマーカー像を形成するマーカー投射器と、
前記ウェアラブルカメラにより撮影された前記マーカー像に基づき、前記ウェアラブルデバイスの位置及び姿勢を検出するウェアラブルデバイス位置姿勢センサと、
検出された前記ウェアラブルデバイスの位置及び姿勢を利用して、前記画像を配置する前記視界内の位置を決定し、当該画像を前記ディスプレイに表示させる画像処理装置と、
を含む、画像表示システム。 - 請求項1に記載の画像表示システムであって、前記マーカーの形状は、あらかじめ定められた二次元図形である、画像表示システム。
- 請求項2に記載の画像表示システムであって、前記マーカー像の位置および形状から、前記路面の傾きおよび凹凸の少なくとも一方を検出する路面形状検出部を含む、画像表示システム。
- 請求項1から3のいずれか1項に記載の画像表示システムであって、さらに、前記ディスプレイに対する前記乗員の瞳孔の位置を検出する瞳孔位置センサを含み、前記画像処理装置は検出された前記ウェアラブルデバイスの位置及び姿勢に加え、検出された前記瞳孔の位置を利用して前記画像を配置する前記視界内の位置を決定する、画像表示システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021189133A JP2023076002A (ja) | 2021-11-22 | 2021-11-22 | 画像表示システム |
US17/991,218 US11941173B2 (en) | 2021-11-22 | 2022-11-21 | Image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021189133A JP2023076002A (ja) | 2021-11-22 | 2021-11-22 | 画像表示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023076002A true JP2023076002A (ja) | 2023-06-01 |
Family
ID=86383697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021189133A Pending JP2023076002A (ja) | 2021-11-22 | 2021-11-22 | 画像表示システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11941173B2 (ja) |
JP (1) | JP2023076002A (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8605009B2 (en) * | 2010-12-05 | 2013-12-10 | Ford Global Technologies, Llc | In-vehicle display management system |
US20160023602A1 (en) * | 2014-07-28 | 2016-01-28 | Honda Motor Co., Ltd. | System and method for controling the operation of a wearable computing device based on one or more transmission modes of a vehicle |
JP2017129406A (ja) | 2016-01-19 | 2017-07-27 | 日本電気通信システム株式会社 | 情報処理装置、スマートグラスおよびその制御方法、並びにコンピュータ・プログラム |
JP2019217790A (ja) | 2016-10-13 | 2019-12-26 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
JP2021064906A (ja) | 2019-10-16 | 2021-04-22 | トヨタ自動車株式会社 | 画像表示システム |
-
2021
- 2021-11-22 JP JP2021189133A patent/JP2023076002A/ja active Pending
-
2022
- 2022-11-21 US US17/991,218 patent/US11941173B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11941173B2 (en) | 2024-03-26 |
US20230161406A1 (en) | 2023-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9001153B2 (en) | System and apparatus for augmented reality display and controls | |
JP6968676B2 (ja) | 車両用表示装置 | |
EP2936065B1 (en) | A system for a vehicle | |
US20210118192A1 (en) | Image display system | |
JP6410987B2 (ja) | 運転支援装置、運転支援方法、及び、運転支援プログラム | |
JP2005247224A (ja) | 車両用表示装置 | |
ES2704373B2 (es) | Método y sistema para mostrar información de realidad virtual en un vehículo | |
CN111284498B (zh) | 驾驶支援装置、***、方法、可穿戴装置以及存储介质 | |
EP3456574B1 (en) | Method and system for displaying virtual reality information in a vehicle | |
JP2015226304A (ja) | 車両用投影装置及びヘッドアップディスプレイシステム | |
US20230065018A1 (en) | Method for operating data glasses in a motor vehicle and system of a motor vehicle and data glasses | |
JP2017056909A (ja) | 車両用画像表示装置 | |
CN108725321A (zh) | 信息提示装置 | |
JP2008037118A (ja) | 車両用表示装置 | |
JP2023076002A (ja) | 画像表示システム | |
US11425364B2 (en) | Head-up display system for vehicle | |
JP2022122936A (ja) | 情報表示システム | |
JP2016071666A (ja) | 車両の視線誘導装置 | |
CN114127614B (zh) | 平视显示装置 | |
JP2021154888A (ja) | 車両用表示装置 | |
CN115088028A (zh) | 绘制***、显示***、移动体、绘制方法以及程序 | |
EP3457363A1 (en) | Method and system for displaying priority information in a vehicle | |
JP7446888B2 (ja) | 画像生成装置及び画像生成方法 | |
JP7379253B2 (ja) | 挙動推定システム及び挙動推定方法 | |
WO2023003045A1 (ja) | 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240614 |