JP7255608B2 - DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM - Google Patents
DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM Download PDFInfo
- Publication number
- JP7255608B2 JP7255608B2 JP2020557598A JP2020557598A JP7255608B2 JP 7255608 B2 JP7255608 B2 JP 7255608B2 JP 2020557598 A JP2020557598 A JP 2020557598A JP 2020557598 A JP2020557598 A JP 2020557598A JP 7255608 B2 JP7255608 B2 JP 7255608B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- information image
- driver
- visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004590 computer program Methods 0.000 title claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 62
- 238000004891 communication Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 15
- 230000006399 behavior Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000007423 decrease Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000033228 biological regulation Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 230000036626 alertness Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/177—Augmented reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/191—Highlight information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/33—Illumination features
- B60K2360/347—Optical elements for superposition of display information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/40—Hardware adaptations for dashboards or instruments
- B60K2360/48—Sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/302—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
- B60R2300/308—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/70—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/045—Zooming at least part of an image, i.e. enlarging it or shrinking it
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Traffic Control Systems (AREA)
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a display control device, a method, and a computer program that are used in a vehicle and superimpose an image on the foreground of the vehicle for visual recognition.
特許文献1には、車両の運転者の視線と一致した画像の目立ち具合を低下させることで、運転者によって知覚されていない画像の知覚のしやすさを相対的に高める車両用画像表示システムが開示されている。
しかしながら、特許文献1の車両用画像表示システムでは、知覚された画像の目立ち具合を低下させることで、他の目立ち具合を低下させていない画像への視覚的注意を相対的に向きやすくすることはできるものの、知覚された後の画像へも注意を向けるべきシチュエーションや、注意を払いたいという運転者の潜在的な願望も想定され、さらに利便性を向上させた表示制御装置が望まれている。
However, in the vehicle image display system of
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of certain embodiments disclosed herein follows. It should be understood that these aspects are presented only to provide the reader with an overview of these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may encompass various aspects not described below.
本開示の概要は、運転者の視界前方の実景、及びこの実景に重なって表示される画像の見やすさを向上させることに関する。より具体的には、実景に重なって表示される画像の視覚的刺激を抑えつつ、運転者に情報を伝達しやすくすることにも関する。 An overview of the present disclosure relates to improving visibility of a real scene in front of a driver's field of vision and an image displayed superimposed on the real scene. More specifically, it also relates to facilitating the transmission of information to the driver while suppressing the visual stimulus of an image displayed superimposed on the actual scene.
したがって、本明細書に記載される表示制御装置は、視線が向くと視認性を低下させる第1情報画像と、視線が向くと第1情報画像の視認性が低下する度合いより視認性を低下させない第2情報画像と、を表示させる。いくつかの実施形態では、情報画像が示す情報のリスクポテンシャルの大きさに応じて、視線が向けられた際の情報画像の視認性の変化度合いを決めてもよい。 Therefore, the display control device described in this specification provides the first information image whose visibility is lowered when the line of sight is directed, and the visibility which is not lowered to the extent that the visibility of the first information image is lowered when the line of sight is directed. A second information image is displayed. In some embodiments, the degree of change in the visibility of the information image when the line of sight is directed may be determined according to the magnitude of the information risk potential indicated by the information image.
以下、図1及び図2では、例示的なヘッドアップディスプレイ装置の構成の説明を提供する。図3、図4、図6では、例示的な表示制御の処理の流れを説明する。図5A、図5B、及び図7A、図7Bでは、表示例を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Below, FIGS. 1 and 2 provide a description of the configuration of an exemplary head-up display device. FIG. 3, FIG. 4, and FIG. 6 describe an exemplary display control process flow. 5A, 5B and 7A, 7B provide example displays. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Of course, modifications (including deletion of constituent elements) can be added to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.
図1を参照する。車両用表示システム10における画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head-Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、仮想的な表示領域100内に画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に重ねて画像200を視認させる。
Please refer to FIG. The
また、画像表示部11は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される画像200を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の画像200を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された画像200を視認することができる。
Also, the
画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両など)、路面、道路標識、及び地物(建物、橋など)などの実オブジェクト310の近傍(画像と実オブジェクトとの位置関係の一例)、実オブジェクト310に重なる位置(画像と実オブジェクトとの位置関係の一例)、又は実オブジェクト310を基準に設定された位置(画像と実オブジェクトとの位置関係の一例)に画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を形成することもできる。画像表示部11は、提供する情報の種類に応じて異なる第1情報画像210(AR画像)と、第2情報画像220(AR画像)と、を表示する(後で詳述する)。
Under the control of the
図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上の記憶部18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。
FIG. 2 is a block diagram of a
図示するように、プロセッサ16及び画像処理回路20は、記憶部18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、記憶部18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。記憶部18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
As shown,
図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。
As shown,
図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられた車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び車外通信接続機器420などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
As shown,
自車両1は、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)などを検出する車両ECU401を含んでいる。車両ECU401は、自車両1の各部を制御するものであり、例えば、自車両1の現在の車速を示す車速情報をプロセッサ16へ送信することができる。なお、車両ECU401は、単にセンサで検出したデータをプロセッサ16へ送信することに加え、又は代わりに、センサで検出したデータの判定結果、又は/及び解析結果をプロセッサ16へ送信することができる。例えば、自車両1が低速走行しているか、又は停止しているかを示す情報をプロセッサ16へ送信してもよい。また、車両ECU401は、車両用表示システム10が表示する画像200を指示する指示信号をI/Oインタフェース14に送信してもよく、この際、画像200の座標、画像200の報知必要度、又は/及び報知必要度を判定する元となる必要度関連情報を、指示信号に付加して送信してもよい。
The
自車両1は、ナビゲーションシステム等からなる道路情報データベース403を含んでいてもよい。道路情報データベース403は、後述する自車位置検出部405から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路を算出し、ナビゲーション情報としてプロセッサ16に送信してもよい。
The
自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部405を含んでいてもよい。道路情報データベース403、後述する携帯情報端末413、又は/及び車外通信接続機器420は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ16に送信することができる。
The
自車両1は、自車両1の周辺(本実施形態では特に前景300)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ407を含んでいてもよい。車外センサ407が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、又は/及び種類等の情報)をプロセッサ16に送信することができる。なお、これら実オブジェクト関連情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ16に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
The ego-
自車両1は、運転者4の注視方向(以下では「視線方向」ともいう)を検出する、運転者4の顔を撮像する赤外線カメラ等からなる視線方向検出部409を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から視線方向検出部409(又は他の解析部)が特定した運転者4の視線方向をI/Oインタフェース14から取得するものであってもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
The
自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部411を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。
The
携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース14は、携帯情報端末413とペアリングすることで、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ16に送信し、プロセッサ16及び画像処理回路20は、これらに関する画像データを生成又は/及び送信してもよい。
The
車外通信接続機器420は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器420は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ16に送信してもよい。また、車外通信接続機器420は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ16に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、車外通信接続機器420から取得される情報は、上述のものに限定されない。
The external
記憶部18に記憶されたソフトウェア構成要素は、実オブジェクト関連情報検出モジュール502、報知必要度検出モジュール504、画像種類決定モジュール506、画像位置決定モジュール508、画像サイズ決定モジュール510、目位置検出モジュール512、視認検出モジュール514、行動判定モジュール516、及びグラフィックモジュール518を含む。
The software components stored in the storage unit 18 are a real object related information detection module 502, a notification
実オブジェクト関連情報検出モジュール502は、後述する画像200の座標やサイズを決定する元となる、自車両1の前景300に存在する実オブジェクトの位置やサイズを検出する。実オブジェクト関連情報検出モジュール502は、例えば、道路情報データベース403、車外センサ407、又は車外通信接続機器420から、自車両1の前景300に存在する実オブジェクト310(例えば、図5Aに示された路面311、先行車312、歩行者313、及び建物314など)の位置(自車両1の運転者4が運転席から自車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクト310のサイズ(高さ方向、横方向のサイズ)、を取得してもよい。
The real object related information detection module 502 detects the position and size of a real object existing in the
また、実オブジェクト関連情報検出モジュール502は、車外センサ407による実オブジェクトの位置やサイズを検出する際、検出精度が低下する環境(雨、霧、雪などの悪天候)であるかを判定してもよい。例えば、実オブジェクトの位置検出精度を計算し、検出精度の低下の度合い、検出精度が低下している位置、検出精度が低下するような環境(悪天候)であるか否かの判定結果を、プロセッサ16に送信してもよい。なお、携帯情報端末413、車外通信接続機器420などから自車両1が走行する位置の天候情報を取得することで悪天候を判定してもよい。
Further, the real object-related information detection module 502 may determine whether the environment (bad weather such as rain, fog, or snow) lowers the detection accuracy when detecting the position and size of the real object by the sensor 407 outside the vehicle. good. For example, the position detection accuracy of a real object is calculated, and the degree of deterioration of the detection accuracy, the position where the detection accuracy is deteriorated, and the determination result of whether or not the environment (bad weather) is such that the detection accuracy is deteriorated are stored in the processor. 16 may be sent. It should be noted that bad weather may be determined by acquiring weather information for the location where the
また、実オブジェクト関連情報検出モジュール502は、後述する画像200の内容(以下では、適宜「画像の種類」ともいう)を決定する元となる、自車両1の前景300に存在する実オブジェクトに関する情報(実オブジェクト関連情報)を検出してもよい。実オブジェクト関連情報は、例えば、実オブジェクトが、歩行者である、又は他車両であるなどの実オブジェクトの種類を示す種類情報、実オブジェクトの移動方向を示す移動方向情報、実オブジェクトまでの距離や到達時間を示す距離時間情報、又は駐車場(実オブジェクト)の料金などの実オブジェクトの個別詳細情報、である(但し、これらに限定されない)。例えば、実オブジェクト関連情報検出モジュール502は、道路情報データベース403又は携帯情報端末413から種類情報、距離時間情報、又は/及び個別詳細情報を取得し、車外センサ407から種類情報、移動方向情報、又は/及び距離時間情報を取得し、車外通信接続機器420から種類情報、移動方向情報、距離時間情報、又は/及び個別詳細情報を検出してもよい。
The real object related information detection module 502 also detects information about real objects existing in the
報知必要度検出モジュール504は、実オブジェクト関連情報検出モジュール502が検出した実オブジェクトの位置情報とともに、実オブジェクト関連情報検出モジュール502が検出した実オブジェクト関連情報を運転者4に報知する必要度(報知必要度)を検出する。報知必要度検出モジュール504は、I/Oインタフェース14に接続される種々の他の電子機器から報知必要度を検出してもよい。また、図2でI/Oインタフェース14に接続された電子機器が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度検出モジュール504が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。
The notification necessity
また、報知必要度検出モジュール504は、画像200の報知必要度を推定する元となる必要度関連情報を検出し、これから報知必要度を推定してもよい。画像200の報知必要度を推定する元となる必要度関連情報は、例えば、実オブジェクトや交通規制(道路情報の一例)の位置、種類などで推定されてもよく、I/Oインタフェース14に接続される種々の他の電子機器から入力される他の情報に基づいて、又は他の情報を加味して推定されてもよい。なお、車両用表示システム10は、前記報知必要度を推定する機能を有していなくてもよく、前記報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置13とは別に設けられてもよい。
Further, the notification
画像種類決定モジュール506は、例えば、実オブジェクト関連情報検出モジュール502により検出された実オブジェクトの種類、位置、実オブジェクト関連情報検出モジュール502で検出された実オブジェクト関連情報の種類、数、又は/及び報知必要度検出モジュール504で検出された(推定された)報知必要度の大きさに基づいて、実オブジェクトに対して表示する画像200の種類を決定することができる。また、画像種類決定モジュール506は、後述する視認検出モジュール514による判定結果により、表示する画像200の種類を増減させてもよい。具体的には、実オブジェクト310が運転者4によって視認されにくい状態である場合、実オブジェクトの近傍に運転者4によって視認される画像200の種類を多くしてもよい。
The image
画像位置決定モジュール508は、実オブジェクト関連情報検出モジュール502により検出された実オブジェクトの位置に基づき、画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。特定の実オブジェクトに関連する画像200を表示する場合、画像位置決定モジュール508は、特定の実オブジェクトと所定の位置関係になるように画像200の座標を決定する。例えば、画像200の中心が実オブジェクトの中心と重なって視認されるように、画像200の左右方向、及び上下方向の位置を決定する。また、画像位置決定モジュール508は、画像200が直接関連しない実オブジェクトを基準に、所定の位置関係になるように、画像200の座標を決定することができる。例えば、図5Aに示すように、自車両1が走行する車線(路面310)の左側の区画線311a(実オブジェクトの一例)や右側の区画線311b(実オブジェクトの一例)を基準に、区画線とは直接関連しない先行車312(特定の実オブジェクトの一例)に関連する後述する第1FCW画像221の座標を決定(又は補正)してもよい。なお、『所定の位置関係』は、実オブジェクト又は自車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。
The image
画像サイズ決定モジュール510は、実オブジェクト関連情報検出モジュール502により検出された画像200を対応付けて表示する実オブジェクトの種類、位置、実オブジェクト関連情報検出モジュール502で検出された実オブジェクト関連情報の種類、数、又は/及び報知必要度検出モジュール504で検出された(推定された)報知必要度の大きさに基づいて、画像200のサイズを決定することができる。また、画像サイズ決定モジュール510は、画像200の種類の数に応じて、画像サイズを変更できる。例えば、画像200の種類が多くなれば、画像サイズを小さくしてもよい。
The image
目位置検出モジュール512は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール512は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、又は/及び運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール512は、例えば、目位置検出部411から運転者4の眼の位置を取得する、又は、目位置検出部411から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。
The eye
視認検出モジュール514は、自車両1の運転者4が所定の画像200を視認したかを検出する。視認検出モジュール514は、運転者4が所定の画像200を視認したかの判定、運転者4が所定の画像200の周辺(近傍)を視認したかの判定、に関する様々な動作を実行するための様々なソフトウェア構成要素を含む。視認検出モジュール514は、視線方向検出部409から取得した運転者4の後述する注視位置GZと、グラフィックモジュール518から取得した画像200の位置と、を比較して、画像200を運転者4が視認したかを判定し、視認しているか否かの判定結果と、視認された画像200を特定する情報を、プロセッサ16に送信してもよい。
The visual
また、視認検出モジュール514は、運転者4が所定の画像200の周辺(近傍)を視認したかの判定を行うために、画像200の外縁から外側に予め設定された所定の幅の領域を、画像200の周辺として設定し、この画像200の周辺に後述する注視位置GZが入ると、自車両1の運転者4が所定の画像200を視認したと判定してもよい。なお、視認判定は、これらの手段に限定されない。
In addition, the visual
また、視認検出モジュール514は、運転者4が画像200以外の何を視認しているかを検出してもよい。例えば、視認検出モジュール514は、実オブジェクト関連情報検出モジュール502が検出した自車両1の前景300に存在する実オブジェクト310の位置と、視線方向検出部409から取得した運転者4の後述する注視位置GZと、を比較することで、注視している実オブジェクト310を特定し、視認された実オブジェクト310を特定する情報を、プロセッサ16に送信してもよい。
The
行動判定モジュール516は、後述する第1情報画像210が示す情報に対して適当ではない運転者4の行動を検出する。いくつかの第1情報画像210には、それぞれ適当ではない運転者4の行動が対応づけて記憶部18に記憶されている。行動判定モジュール516は、特に、視認性が低下した第1情報画像210に対応付けられた適当ではない運転者4の行動が検出されたか否かを判定する。例えば、第1情報画像210が、経路案内情報を含む場合、経路案内が示す方向とは異なる分岐路を運転者4が注視していた場合、適当ではない運転者4の行動が検出されたと判定してもよい。また、第1情報画像210が、交通規制情報を含む場合、この交通規制を違反しそうな行動がなされた場合、適当ではない運転者4の行動が検出されたと判定してもよい。行動判定モジュール516が、行動を判定するために収集する情報は、車両ECU401から入力する自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)、視線方向検出部409から入力する視線方向などであるが、これらに限定されない。
The
グラフィックモジュール518は、表示される画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、表示距離(運転者4から画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール518は、画像種類決定モジュール506が設定した種類、画像位置決定モジュール508が設定した座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ決定モジュール510が設定した画像サイズで運転者4に視認されるように画像200を表示する。
The
グラフィックモジュール518は、自車両1の前景300の実オブジェクト310と所定の位置関係となるように配置される拡張現実画像(AR画像)である、第1情報画像210と、第2情報画像220と、を少なくとも表示する。第1情報画像210は、視認検出モジュール514により、視認されたと判定されると、視認性を低下させる(非表示も含む)。他方、第2情報画像220は、視認検出モジュール514により、視認されたと判定されると、第1情報画像210より視認性を低下させない(第1情報画像210の視認性の低下の度合いより小さく(少なく)視認性を低下させること、又は視認性を変化させないこと、又は視認性を上昇させることも含む)。
The
「視認性を低下させる」とは、輝度を低くする、透明度を高くする、彩度を低くする、コントラストを低くする、サイズを小さくする、画像の種類を少なくする、これらの組み合わせ、又はこれらと他の要素の組み合わせを含んでもよい。逆に、「視認性を上昇させる」とは、輝度を高くする、透明度を低くする、彩度を高くする、コントラストを高くする、サイズを大きくする、画像の種類を多くする、これらの組み合わせ、又はこれらと他の要素の組み合わせを含んでもよい。 "Reduce visibility" means lower brightness, higher transparency, lower saturation, lower contrast, lower size, fewer types of images, combinations thereof, or Combinations of other elements may also be included. Conversely, "increasing visibility" means increasing brightness, decreasing transparency, increasing saturation, increasing contrast, increasing size, increasing the number of types of images, combinations of these, or may include a combination of these and other elements.
第1情報画像210は、起こり得る自体の重大さの程度から導き出される危険度が比較的低い情報であり、例えば、路面に重ねて表示され経路を示す矢印画像(ナビゲーション情報の一例)、目的地のテキスト画像(ナビゲーション情報の一例)、次ターニング地点までの距離を示す画像(ナビゲーション情報の一例)、前景300に存在する店舗や施設などを指示するPOI(Point of Interest)画像(地物情報の一例)、道路標識(案内標識、警戒標識、規制標識、指示標識、補助標識)に関する画像、先行車に追従走行する際に設定される車間距離を路面に重ねて表示するACC(Adaptive Cruise Control)画像などである。 The first information image 210 is information with a relatively low degree of danger derived from the degree of seriousness that can occur. text image (an example of navigation information), an image indicating the distance to the next turning point (an example of navigation information), and a POI (Point of Interest) image indicating a store or facility existing in the foreground 300 (an example of feature information ACC (Adaptive Cruise Control), which superimposes on the road surface the distance between vehicles that is set when following the vehicle ahead such as images.
第2情報画像220は、起こり得る自体の重大さの程度から導き出される危険度が比較的高い情報であり、例えば、自車両1の前景300に存在する障害物の近傍に視認される前方衝突予測警報(FCW:Forward Collision Warning)の画像である。 The second information image 220 is information with a relatively high degree of danger derived from the severity of the possible occurrence itself. It is an image of a warning (FCW:Forward Collision Warning).
図3は、いくつかの実施形態に係る、画像の視認性を低下させる処理のフロー図である。まず、自車両1の運転者4の視線方向(後述する注視位置GZ)を取得(ステップS11)し、表示されている画像200の位置を取得する(ステップS12)。
FIG. 3 is a flow diagram of a process for reducing image visibility, according to some embodiments. First, the line-of-sight direction of the
次に、プロセッサ16は、ステップS11で取得した視線方向と、ステップS12で取得した画像200の位置と、を比較して、運転者4が視認した対象を特定する(ステップS13)。具体的には、プロセッサ16は、第1情報画像210が視認されているか、第2情報画像220が視認されているか、又は第1情報画像210あるいは第2情報画像220が視認されていないか判定する。第1情報画像210が視認されていれば、第1情報画像210のどの画像が視認されているかを特定する。
Next, the
プロセッサ16は、ステップS13で運転者4が第1情報画像210を視認したと判定した場合、視認された第1情報画像210の視認性を低下させる。この際、プロセッサ16は、第1情報画像210を非表示とさせてもよい。また、プロセッサ16は、ステップS13で運転者4が第2情報画像220を視認したと判定した場合、第2情報画像220の視認性を低下させない、又は第2情報画像220の視認性を第1情報画像210の視認性の低下の度合いより小さく(少なく)低下させる。
When the
図4は、いくつかの実施形態に係る、第2情報画像の視認性を上昇させる処理のフロー図である。少なくとも1つの第1情報画像210が、ステップS14の処理により、視認性が低下している場合に、処理が開始される。 FIG. 4 is a flow diagram of a process for increasing the visibility of a second information image, according to some embodiments. The process is started when the visibility of at least one first information image 210 is reduced by the process of step S14.
まず、プロセッサ16は、運転者4の行動を取得し(ステップS21)、ステップS14の処理により視認性が低下している第1情報画像210が示す情報に対して適当ではない運転者4の行動が検出されたかを判定し(ステップS22)、適当ではない運転者4の行動がなされたと判定された場合、視認性を低下させていた第2情報画像220の視認性を上昇させる(ステップS23)。
First, the
上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above may be implemented by executing one or more functional modules of an information processing device such as a general purpose processor or an application specific chip. All of these modules, combinations of these modules, and/or combinations with common hardware that can replace their functions fall within the scope of protection of the present invention.
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
The functional blocks of
図5A、図5Bは、第1情報画像210が視認されたと判定された場合の、車両用表示システム10が表示する画像200の変化を示す図である。図5Aでは、第1情報画像210は、路面311に重畳して視認され、案内経路を示すナビゲーション画像211と、建物314(実オブジェクト310)を指示する駐車場を示す「P」の表記を含むイラストであるPOI画像212と、を含む。第2情報画像220は、自車両1の前方を走行する先行車312の後方の路面311に線状(ライン状)に視認される第1FCW画像221と、自車両1の走行車線の対向車線側の歩道を歩行する歩行者313の周囲の路面311に円弧状に視認される第2FCW画像222と、を含む。この他に、自車両1の前景300の実オブジェクト310と所定の位置関係となるように配置される拡張現実画像(AR画像)ではない第3情報画像として、制限速度を示す「80」の表記を含むイラストである道路情報画像231と、自車両1の速度を示す「35km/h」と表記される速度画像232と、が表示される。表示領域100は、第1表示領域110と、自車両1の運転席から前方を視認した際に第1表示領域110より上下方向下側(Y軸負方向)に配置される第2表示領域120と、を含み、AR画像である第1情報画像210と第2情報画像220は、第1表示領域110に表示され、第3情報画像231,232は、第2表示領域120に表示される。
5A and 5B are diagrams showing changes in the
図5Aに示すように、注視位置GZが、第1情報画像210であるナビゲーション画像211にある場合、プロセッサ16は、図3のステップS14の命令を実行し、図5Bに示すように、視認されたナビゲーション画像211(第1情報画像210)を非表示にする(視認性低下の一例)。この際、表示される位置が実オブジェクト310の位置に関係する拡張現実画像(AR画像)であるナビゲーション画像211の代わりに、表示される位置が実オブジェクト310の位置に関係しない非AR画像である第1ナビゲーション画像213(関連画像の一例)と、第2ナビゲーション画像214(関連画像の一例)と、が第2表示領域120に表示される。第1ナビゲーション画像213は、次の分岐路のおおよその方向を示す簡略化された画像である。また、第2ナビゲーション画像214は、次の分岐路までの距離を示す「200m先」と表記されたテキストである。
As shown in FIG. 5A, when the gaze position GZ is in the
なお、図5Bに示す第1情報画像210であるナビゲーション画像211の視認性が低下している状況で、注視位置GZが直近の交差点の分岐路にあった場合、運転者4が直近の交差点で曲がろうとしていると推測することができる。ナビゲーション画像211が提示する分岐路が直近の交差点の分岐路ではないとすると、直近の交差点で曲がろうと推測できる運転者4の行動(直近の交差点の分岐路を注視している行動)は適当ではない行動である。したがって、このように適当ではない行動が検出された場合、プロセッサ16は、視認性を低下させていた第1情報画像210であるナビゲーション画像211の視認性を上昇させる。つまり、図5Bに示す状態から図5Aに示す状態に変化させる。これにより、運転者4に、直近の交差点で曲がるべきでないことを認識させることができる。
Note that when the visibility of the
図6は、いくつかの実施形態に係る、画像の視認性を低下させる処理のフロー図である。図6のフロー図は、図3のフロー図に対応しており、図6のステップS31,32,33は、図3のステップS11,S12,S13にそれぞれ対応している。ここでは、図3との変化点であるステップS34について説明する。 FIG. 6 is a flow diagram of a process for reducing image visibility, according to some embodiments. The flow chart in FIG. 6 corresponds to the flow chart in FIG. 3, and steps S31, 32 and 33 in FIG. 6 correspond to steps S11, S12 and S13 in FIG. 3, respectively. Here, step S34, which is a point of change from FIG. 3, will be described.
プロセッサ16は、ステップS13で運転者4が第1情報画像210を視認したと判定した場合、視認された第1情報画像210の視認性を低下させる。また、プロセッサ16は、ステップS33で運転者4が第2情報画像220を視認したと判定した場合、視認された第2情報画像220を静止画から動画に変える、又は視認された第2情報画像220及び近くの他の第2情報画像220を静止画から動画に変えてもよい。
When the
いくつかの実施形態では、プロセッサ16は、視認された第2情報画像220及び近くの他の第2情報画像220の数を連続的に変化させてもよい。具体的には、注視位置GZが第2情報画像220である第1FCW画像221の近傍にある場合、プロセッサ16は、視認された第1FCW画像221及び近くの他の第2FCW画像222を、図7Aに示す画像の数が少ない状態と、図7Bに示す画像の数が多い状態とで連続的/又は断続的に変化させてもよい。動画については、特に定義しないが、連続的/又は断続的に、画像の形状が繰り返し変化すること、画像の数が繰り返し変化すること、画像の位置が繰り返し変化すること、繰り返し点滅すること、繰り返しサイズが変化すること、などを含んでいてもよい。
In some embodiments,
以上に説明したように、本実施形態の表示制御装置は、自車両1の運転者4から見て前景300に重なる領域に画像200を表示する画像表示部11(12)を制御する表示制御装置13であって、1つ又はそれ以上のI/Oインタフェース14と、1つ又はそれ以上のプロセッサ16と、メモリ18と、メモリ18に格納され、1つ又はそれ以上のプロセッサ16によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、運転者4の視線方向を取得し、視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像210と、視認されたと判定されると第1情報画像210より視認性を低下させない第2情報画像220と、を表示させる、命令を実行する。これにより、画像の種類により、視認された後の視認性の変化が異なり、第1情報画像であれば、視認性が低下することで運転者4の視界前方の実景を見やすくすることができ、第2情報画像であれば、あまり視認性が低下しないので、視認したあとでも画像を見やすくすることができる。
As described above, the display control device of the present embodiment controls the image display unit 11 (12) that displays the
また、いくつかの実施形態では、第2情報画像220が示す情報のリスクポテンシャルの大きさに応じて、視線が向けられた際の第2情報画像220の視認性の変化度合いを決めてもよい。プロセッサ16は、第2情報画像220が示す情報のリスクポテンシャルが高いほど、視線が向けられた際の視認性の低下度合いを小さくしてもよい。すなわち、リスクポテンシャルが低ければ、視線が向けられた際の第2情報画像220の視認性を大きく低下させる(低下度合いを大きくする)。なお、プロセッサ16は、第2情報画像220の種類によって予め定められたリスクポテンシャルに応じて、視認性の低下度合いを変化させてもよく、第2情報画像220が表示されている状況(I/Oインタフェース14から得られる情報)に応じて算出されたリスクポテンシャルに応じて変化させてもよい。
Further, in some embodiments, the degree of change in visibility of the second information image 220 when the line of sight is directed may be determined according to the magnitude of the risk potential of the information indicated by the second information image 220. . The
また、いくつかの実施形態では、第2情報画像220に視線が向いた後、又は第2情報画像220に視線が向いて視認性を低下させた後、第2情報画像220が示す情報のリスクポテンシャルが高まらない場合、第2情報画像220の視認性を低下させてもよい。プロセッサ16は、第2情報画像220に視線が向いた後、又は第2情報画像220に視線が向いて視認性を低下させた後、第2情報画像220が示す情報のリスクポテンシャルを所定の期間だけ監視し、リスクポテンシャルが、定められた閾値より高くならない、大きく上昇しない、又は低下している場合、視認性をそのまま維持しておく必要度は低いと判定し、第2情報画像220の視認性を低下させてもよい。
Further, in some embodiments, after the line of sight is turned to the second information image 220, or after the line of sight is turned to the second information image 220 to reduce the visibility, the risk of the information shown by the second information image 220 is reduced. If the potential does not increase, the visibility of the second information image 220 may be lowered. After the line of sight is turned to the second information image 220, or after the line of sight is turned to the second information image 220 and visibility is reduced, the
また、いくつかの実施形態では、視線が第2情報画像220に向くと、第2情報画像220を動画表示させてもよい。プロセッサ16は、通常、第2情報画像220を静止画で表示しておき、視線が向くと、一部又は全部の第2情報画像220を動画にする。第1情報画像210は、視認されると視認性が低下するが、第2情報画像220が視認されると動画となるため、第1情報画像210が示す情報とは異なる情報であることを認識させ、第2情報画像220へ注意を向けさせることができる。なお、第2情報画像220は、一定期間、動画表示された後、再び静止画に変化させてもよい。また、プロセッサ16は、第2情報画像220を動画表示させるのと同じタイミングで視認された第2情報画像220の視認性を低下させてもよく、又は、動画表示された後、視認性を低下させてもよい。
Also, in some embodiments, the second information image 220 may be animated when the line of sight is directed toward the second information image 220 . The
また、いくつかの実施形態では、第2情報画像220が複数表示されている際、視線が所定の第2情報画像220に向くと、所定の第2情報画像220、及び他の第2情報画像220を動画表示させてもよい。例えば、図5Aにおいて、歩行者313に対応して表示された第2FCW画像222を運転者4が視認した場合、第2FCW画像222、及び他の先行車312に対応して表示された第1FCW画像221を動画としてもよい。このように他の情報画像も同様に動画表示させることで、視認した画像だけではなく、同様の画像にも視覚的注意を向かせることができる。
Further, in some embodiments, when a plurality of second information images 220 are displayed, when the line of sight is directed to a predetermined second information image 220, the predetermined second information image 220 and other second information images are displayed. 220 may be displayed as a moving image. For example, in FIG. 5A, when the
また、いくつかの実施形態では、第2情報画像220が複数表示されている際、視線が所定の第2情報画像220に向くと、所定の第2情報画像220、及び所定の第2情報画像220の近くの他の第2情報画像220を動画表示させてもよい。 Further, in some embodiments, when a plurality of second information images 220 are displayed and the line of sight is directed to the predetermined second information image 220, the predetermined second information image 220 and the predetermined second information image are displayed. Other second information images 220 near 220 may be animated.
また、いくつかの実施形態では、第2情報画像220が複数表示されている際、視線が所定の第2情報画像220に向くと、所定の第2情報画像220、及び他の第2情報画像220を同じ周期で動画表示させてもよい。これにより、視野を向けた画像と同様の画像がどのあたりに表示されているか識別しやすくすることができる。 Further, in some embodiments, when a plurality of second information images 220 are displayed, when the line of sight is directed to a predetermined second information image 220, the predetermined second information image 220 and other second information images are displayed. 220 may be displayed as a moving image in the same period. This makes it easier to identify where an image similar to the image to which the field of view is directed is displayed.
また、いくつかの実施形態では、第1情報画像210が示す情報に対して適当ではない行動に関する情報を取得し、第1情報画像210の視認性を低下させた後、第1情報画像210が示す情報に対して適当ではない行動を運転者4がすると判定できる場合、第1情報画像210の視認性を上昇させてもよい。
Further, in some embodiments, after acquiring information about behavior that is inappropriate for the information indicated by the first information image 210 and reducing the visibility of the first information image 210, the first information image 210 The visibility of the first information image 210 may be increased when it can be determined that the
また、いくつかの実施形態では、第1情報画像210の視認性を低下させた後、第1情報画像210に関連する関連画像(213、214)を、第1情報画像210又は第2情報画像220が表示される第1表示領域101とは異なる第2表示領域102に表示させてもよい。すなわち、第1情報画像210と重なる前景300の領域を見やすくすることができ、かつ第1情報画像210が示す情報を他の第2表示領域102で確認することができる。なお、プロセッサ16は、1つの第1情報画像210の視認性を低下させ、新たに2つ又はそれ以上の関連画像を表示させてもよい。これにより、関連画像により多くの情報を認識させることができ、AR画像である第1情報画像210の視認性の低下による情報の認識性の低下を抑制することができる。
Further, in some embodiments, after reducing the visibility of the first information image 210, the related images (213, 214) related to the first information image 210 are replaced with the first information image 210 or the second information image. 220 may be displayed in a second display area 102 different from the first display area 101 where 220 is displayed. That is, the area of the
1…自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…記憶部、20…画像処理回路、22…メモリ、100…表示領域、110…第1表示領域、120…第2表示領域、200…画像、210…第1情報画像、211…ナビゲーション画像、212…POI画像、213…第1ナビゲーション画像、214…第2ナビゲーション画像、220…第2情報画像、221…第1FCW画像、222…第2FCW画像、231…道路情報画像(第3情報画像)、232…速度画像(第3情報画像)、300…前景、310…実オブジェクト、311…路面、311a…区画線、311b…区画線、312…先行車、313…歩行者、314…建物、320…車線、401…車両ECU、403…道路情報データベース、405…自車位置検出部、407…車外センサ、409…視線方向検出部、411…目位置検出部、413…携帯情報端末、420…車外通信接続機器、502…実オブジェクト関連情報検出モジュール、504…報知必要度検出モジュール、506…画像種類決定モジュール、508…画像位置決定モジュール、510…画像サイズ決定モジュール、512…目位置検出モジュール、514…視認検出モジュール、516…行動判定モジュール、518…グラフィックモジュール、GZ…注視位置
DESCRIPTION OF
Claims (16)
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させ、
前記第2情報画像(220)に視線が向いた後、又は前記第2情報画像(220)に視線が向いて視認性を低下させた後、前記第2情報画像(220)が示す情報のリスクポテンシャルが高まらない場合、前記第2情報画像(220)の視認性を低下させる、
命令を実行する、表示制御装置。 In a display control device (13) for controlling image display units (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1),
one or more I/O interfaces (14);
one or more processors (16);
a memory (18);
one or more computer programs stored in said memory (18) and configured to be executed by said one or more processors (16);
The one or more processors (16) are
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
Based on the line-of-sight direction, a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (210) that does not reduce visibility compared to the first information image (210) when determined to be visually recognized. display an information image (220) ,
The risk of the information indicated by the second information image (220) after the line of sight is turned to the second information image (220) or after the line of sight is turned to the second information image (220) to reduce visibility. reducing the visibility of the second information image (220) if the potential does not increase;
A display controller that executes instructions.
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させ、
前記視線が前記第2情報画像(220)に向くと、前記第2情報画像(220)を動画表示させる、
命令を実行する、表示制御装置。 In a display control device (13) for controlling image display units (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1),
one or more I/O interfaces (14);
one or more processors (16);
a memory (18);
one or more computer programs stored in said memory (18) and configured to be executed by said one or more processors (16);
The one or more processors (16) are
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
Based on the line-of-sight direction, a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (210) that does not reduce visibility compared to the first information image (210) when determined to be visually recognized. display an information image (220) ,
When the line of sight turns to the second information image (220), displaying the second information image (220) as a moving image;
A display controller that executes instructions.
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させ、
前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222~)を動画表示させる、
命令を実行する、表示制御装置。 In a display control device (13) for controlling image display units (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1),
one or more I/O interfaces (14);
one or more processors (16);
a memory (18);
one or more computer programs stored in said memory (18) and configured to be executed by said one or more processors (16);
The one or more processors (16) are
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
Based on the line-of-sight direction, a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (210) that does not reduce visibility compared to the first information image (210) when determined to be visually recognized. display an information image (220) ,
When a plurality of second information images (220) are displayed, when the line of sight is directed to a predetermined second information image (221), the predetermined second information image (221) and other second information images (222 ~) is displayed as a video,
A display controller that executes instructions.
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させ、
前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び前記所定の第2情報画像(221)の近くの他の第2情報画像(222~)を動画表示させる、
命令を実行する、表示制御装置。 In a display control device (13) for controlling image display units (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1),
one or more I/O interfaces (14);
one or more processors (16);
a memory (18);
one or more computer programs stored in said memory (18) and configured to be executed by said one or more processors (16);
The one or more processors (16) are
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
Based on the line-of-sight direction, a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (210) that does not reduce visibility compared to the first information image (210) when determined to be visually recognized. display an information image (220) ,
When a plurality of the second information images (220) are displayed, when the line of sight turns to the predetermined second information image (221), the predetermined second information image (221) and the predetermined second information animately display other second information images (222-) near the image (221);
A display controller that executes instructions.
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させ、
前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222~)を同じ周期で動画表示させる、
命令を実行する、表示制御装置。 In a display control device (13) for controlling image display units (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1),
one or more I/O interfaces (14);
one or more processors (16);
a memory (18);
one or more computer programs stored in said memory (18) and configured to be executed by said one or more processors (16);
The one or more processors (16) are
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
Based on the line-of-sight direction, a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (210) that does not reduce visibility compared to the first information image (210) when determined to be visually recognized. display an information image (220) ,
When a plurality of second information images (220) are displayed, when the line of sight is directed to a predetermined second information image (221), the predetermined second information image (221) and other second information images (222 ~) is displayed in the same cycle as a video,
A display controller that executes instructions.
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させ、
前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすることを推測可能な推測情報を取得し、
前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすると判定できる場合、前記推測情報に対応する前記第1情報画像(210)の視認性を上昇させる、
命令を実行する、表示制御装置。 In a display control device (13) for controlling image display units (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1),
one or more I/O interfaces (14);
one or more processors (16);
a memory (18);
one or more computer programs stored in said memory (18) and configured to be executed by said one or more processors (16);
The one or more processors (16) are
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
Based on the line-of-sight direction, a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (210) that does not reduce visibility compared to the first information image (210) when determined to be visually recognized. display an information image (220) ,
Acquiring inferred information from which it can be inferred that the driver will act inappropriately in response to the information indicated by the first information image (210);
After the visibility of the first information image (210) is lowered, if it can be determined that the driver behaves inappropriately with respect to the information indicated by the first information image (210), then the speculation information is supported. increasing the visibility of the first information image (210) to
A display controller that executes instructions.
前記第2情報画像(220)が示す情報のリスクポテンシャルの大きさに応じて、前記視線が向けられた際の前記第2情報画像(220)の前記視認性の変化度合いを決める、
命令を実行する、請求項1乃至6のいずれか1項に記載の表示制御装置。 The one or more processors (16) are
Determining the degree of change in the visibility of the second information image (220) when the line of sight is directed according to the risk potential of the information indicated by the second information image (220);
7. A display control device according to any one of the preceding claims, for executing instructions.
前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)に関連する関連画像(213、214)を、前記第1情報画像(210)又は前記第2情報画像(220)が表示される第1表示領域(101)とは異なる第2表示領域(102)に表示させる、
命令を実行する、請求項1乃至6のいずれか1項に記載の表示制御装置。 The one or more processors (16) are
After reducing the visibility of the first information image (210), the related images (213, 214) related to the first information image (210) are replaced with the first information image (210) or the second information image (210). causing the image (220) to be displayed in a second display area (102) different from the first display area (101) in which it is displayed;
7. A display control device according to any one of the preceding claims, for executing instructions.
請求項1乃至6のいずれか1項に記載の表示制御装置。 The second information image (220) is an image displayed nearby so as to emphasize at least one of obstacles, pedestrians, and other vehicles existing in the foreground (300).
The display control device according to any one of claims 1 to 6 .
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得することと、
視認されたと判定されると視認性を低下させる第1情報画像(210)と、前記視線が向いても前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示することと、
前記視線が前記第2情報画像(220)に向くと、前記第2情報画像(220)を動画表示させること、
を含む、方法。 A method for controlling an image display unit (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1), comprising:
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (220) that does not reduce visibility more than the first information image (210) even if the line of sight is directed; and displaying
displaying a moving image of the second information image (220) when the line of sight is directed toward the second information image (220);
A method, including
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得することと、
視認されたと判定されると視認性を低下させる第1情報画像(210)と、前記視線が向いても前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示することと、
前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222~)を動画表示させること、
を含む、方法。 A method for controlling an image display unit (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1), comprising:
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (220) that does not reduce visibility more than the first information image (210) even if the line of sight is directed; and displaying
When a plurality of second information images (220) are displayed, when the line of sight is directed to a predetermined second information image (221), the predetermined second information image (221) and other second information images (222 ~) is displayed as a moving image,
A method, including
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得することと、
視認されたと判定されると視認性を低下させる第1情報画像(210)と、前記視線が向いても前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示することと、
前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び前記所定の第2情報画像(221)の近くの他の第2情報画像(222~)を動画表示させること、
を含む、方法。 A method for controlling an image display unit (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1), comprising:
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (220) that does not reduce visibility more than the first information image (210) even if the line of sight is directed; and displaying
When a plurality of the second information images (220) are displayed, when the line of sight turns to the predetermined second information image (221), the predetermined second information image (221) and the predetermined second information animately display other second information images (222-) near the image (221);
A method, including
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得することと、
視認されたと判定されると視認性を低下させる第1情報画像(210)と、前記視線が向いても前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示することと、
前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222~)を同じ周期で動画表示させること、
を含む、方法。 A method for controlling an image display unit (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1), comprising:
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (220) that does not reduce visibility more than the first information image (210) even if the line of sight is directed; and displaying
When a plurality of second information images (220) are displayed, when the line of sight is directed to a predetermined second information image (221), the predetermined second information image (221) and other second information images (222-) are displayed as a moving image at the same cycle,
A method, including
前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得することと、
視認されたと判定されると視認性を低下させる第1情報画像(210)と、前記視線が向いても前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示することと、
前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすることを推測可能な推測情報を取得することと、
前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすると判定できる場合、前記推測情報に対応する前記第1情報画像(210)の視認性を上昇させること、
を含む、方法。 A method for controlling an image display unit (11, 12) for displaying an image (200) in a region overlapping a foreground (300) viewed from a driver of a vehicle (1), comprising:
obtaining the driver's gaze direction from the one or more I/O interfaces (14);
a first information image (210) that reduces visibility when determined to be visually recognized, and a second information image (220) that does not reduce visibility more than the first information image (210) even if the line of sight is directed; and displaying
Acquiring inferred information from which it can be inferred that the driver will act inappropriately in response to the information indicated by the first information image (210);
After the visibility of the first information image (210) is lowered, if it can be determined that the driver behaves inappropriately with respect to the information indicated by the first information image (210), then the speculation information is supported. increasing the visibility of the first information image (210) to
A method, including
を含む、請求項10乃至14のいずれか1項に記載の方法。 After reducing the visibility of the first information image (210), the related images (213, 214) related to the first information image (210) are replaced with the first information image (210) or the second information image (210). displaying in a second display area (102) different from the first display area (101) in which the image (220) is displayed;
15. The method of any one of claims 10-14 , comprising
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219802 | 2018-11-23 | ||
JP2018219802 | 2018-11-23 | ||
PCT/JP2019/045494 WO2020105685A1 (en) | 2018-11-23 | 2019-11-20 | Display control device, method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020105685A1 JPWO2020105685A1 (en) | 2021-11-04 |
JP7255608B2 true JP7255608B2 (en) | 2023-04-11 |
Family
ID=70773132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557598A Active JP7255608B2 (en) | 2018-11-23 | 2019-11-20 | DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7255608B2 (en) |
CN (1) | CN113165510B (en) |
DE (1) | DE112019005849T5 (en) |
WO (1) | WO2020105685A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113434620A (en) * | 2021-06-25 | 2021-09-24 | 阿波罗智联(北京)科技有限公司 | Display method, device, equipment, storage medium and computer program product |
EP4265463A1 (en) * | 2022-04-19 | 2023-10-25 | Volkswagen Ag | Vehicle, head-up display, augmented reality device, apparatuses, methods and computer programs for controlling an augmented reality device and for controlling a visualization device |
CN116572837A (en) * | 2023-04-27 | 2023-08-11 | 江苏泽景汽车电子股份有限公司 | Information display control method and device, electronic equipment and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017039373A (en) | 2015-08-19 | 2017-02-23 | トヨタ自動車株式会社 | Vehicle video display system |
JP2017226272A (en) | 2016-06-21 | 2017-12-28 | 日本精機株式会社 | Information providing device for vehicle |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8330812B2 (en) * | 1995-05-30 | 2012-12-11 | Simulated Percepts, Llc | Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame |
JP3877127B2 (en) * | 2000-06-15 | 2007-02-07 | マツダ株式会社 | Vehicle display device |
JP4698002B2 (en) * | 2000-07-11 | 2011-06-08 | マツダ株式会社 | Vehicle display device |
JP3870409B2 (en) * | 2000-08-03 | 2007-01-17 | マツダ株式会社 | Vehicle display device |
JP2002293162A (en) * | 2001-03-30 | 2002-10-09 | Yazaki Corp | Vehicular display device |
JP4026144B2 (en) * | 2004-01-20 | 2007-12-26 | マツダ株式会社 | Image display device for vehicle |
JP2007045169A (en) * | 2005-08-05 | 2007-02-22 | Aisin Aw Co Ltd | Information processor for vehicle |
JP4715718B2 (en) * | 2006-10-24 | 2011-07-06 | 株式会社デンソー | Vehicle display device |
JP2008282168A (en) * | 2007-05-09 | 2008-11-20 | Toyota Motor Corp | Consciousness detector |
JP2009292409A (en) * | 2008-06-09 | 2009-12-17 | Yazaki Corp | Head-up display |
JP5245930B2 (en) * | 2009-03-09 | 2013-07-24 | 株式会社デンソー | In-vehicle display device |
JP5842419B2 (en) * | 2011-07-06 | 2016-01-13 | 日本精機株式会社 | Head-up display device |
JP5406328B2 (en) * | 2012-03-27 | 2014-02-05 | 株式会社デンソーアイティーラボラトリ | VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM |
JP6232691B2 (en) * | 2012-07-27 | 2017-11-22 | 株式会社Jvcケンウッド | VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY DEVICE, AND VEHICLE DISPLAY CONTROL METHOD |
WO2014097404A1 (en) * | 2012-12-18 | 2014-06-26 | パイオニア株式会社 | Head-up display, control method, program and storage medium |
JP6037923B2 (en) * | 2013-04-08 | 2016-12-07 | 三菱電機株式会社 | Display information generating apparatus and display information generating method |
JP6413207B2 (en) * | 2013-05-20 | 2018-10-31 | 日本精機株式会社 | Vehicle display device |
JP2015041969A (en) * | 2013-08-23 | 2015-03-02 | ソニー株式会社 | Image acquisition apparatus, image acquisition method, and information distribution system |
JP6225379B2 (en) * | 2013-12-23 | 2017-11-08 | 日本精機株式会社 | Vehicle information projection system |
JP6253417B2 (en) * | 2014-01-16 | 2017-12-27 | 三菱電機株式会社 | Vehicle information display control device |
JP6443716B2 (en) * | 2014-05-19 | 2018-12-26 | 株式会社リコー | Image display device, image display method, and image display control program |
JP6379779B2 (en) * | 2014-07-16 | 2018-08-29 | 日産自動車株式会社 | Vehicle display device |
JP6348791B2 (en) * | 2014-07-16 | 2018-06-27 | クラリオン株式会社 | Display control apparatus and display control method |
JP2016031603A (en) * | 2014-07-28 | 2016-03-07 | 日本精機株式会社 | Display system for vehicle |
JP2016055801A (en) * | 2014-09-11 | 2016-04-21 | トヨタ自動車株式会社 | On-vehicle display device |
JP2016107947A (en) * | 2014-12-10 | 2016-06-20 | 株式会社リコー | Information providing device, information providing method, and control program for providing information |
JP6504431B2 (en) * | 2014-12-10 | 2019-04-24 | 株式会社リコー | IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM |
US10232772B2 (en) * | 2015-03-26 | 2019-03-19 | Mitsubishi Electric Corporation | Driver assistance system |
JP2017097687A (en) * | 2015-11-26 | 2017-06-01 | 矢崎総業株式会社 | Vehicular information presentation device |
US20180356641A1 (en) * | 2015-12-01 | 2018-12-13 | Nippon Seiki Co., Ltd. | Head-up display |
JP2017138350A (en) * | 2016-02-01 | 2017-08-10 | アルプス電気株式会社 | Image display device |
JP6272375B2 (en) * | 2016-03-18 | 2018-01-31 | 株式会社Subaru | Display control device for vehicle |
JP2017200786A (en) * | 2016-05-02 | 2017-11-09 | 本田技研工業株式会社 | Vehicle control system, vehicle control method and vehicle control program |
JP2016193723A (en) * | 2016-06-24 | 2016-11-17 | パイオニア株式会社 | Display device, program, and storage medium |
JP2018022958A (en) * | 2016-08-01 | 2018-02-08 | 株式会社デンソー | Vehicle display controller and vehicle monitor system |
JP6643969B2 (en) * | 2016-11-01 | 2020-02-12 | 矢崎総業株式会社 | Display device for vehicles |
JP2018120135A (en) * | 2017-01-26 | 2018-08-02 | 日本精機株式会社 | Head-up display |
-
2019
- 2019-11-20 CN CN201980076258.0A patent/CN113165510B/en active Active
- 2019-11-20 WO PCT/JP2019/045494 patent/WO2020105685A1/en active Application Filing
- 2019-11-20 DE DE112019005849.5T patent/DE112019005849T5/en active Pending
- 2019-11-20 JP JP2020557598A patent/JP7255608B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017039373A (en) | 2015-08-19 | 2017-02-23 | トヨタ自動車株式会社 | Vehicle video display system |
JP2017226272A (en) | 2016-06-21 | 2017-12-28 | 日本精機株式会社 | Information providing device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
CN113165510A (en) | 2021-07-23 |
JPWO2020105685A1 (en) | 2021-11-04 |
WO2020105685A1 (en) | 2020-05-28 |
DE112019005849T5 (en) | 2021-09-02 |
CN113165510B (en) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2857886B1 (en) | Display control apparatus, computer-implemented method, storage medium, and projection apparatus | |
KR102000929B1 (en) | Mirror replacement system for a vehicle | |
US20160185219A1 (en) | Vehicle-mounted display control device | |
JP7255608B2 (en) | DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM | |
JP2018203169A (en) | Operation awareness estimation device | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
US9836814B2 (en) | Display control apparatus and method for stepwise deforming of presentation image radially by increasing display ratio | |
JP2024029051A (en) | In-vehicle display device, method and program | |
JP7459883B2 (en) | Display control device, head-up display device, and method | |
WO2022230995A1 (en) | Display control device, head-up display device, and display control method | |
WO2020158601A1 (en) | Display control device, method, and computer program | |
JP2020086884A (en) | Lane marking estimation device, display control device, method and computer program | |
WO2021200914A1 (en) | Display control device, head-up display device, and method | |
JP2020117105A (en) | Display control device, method and computer program | |
JP2020121607A (en) | Display control device, method and computer program | |
JP2020121704A (en) | Display control device, head-up display device, method and computer program | |
JP7434894B2 (en) | Vehicle display device | |
WO2021200913A1 (en) | Display control device, image display device, and method | |
WO2023145852A1 (en) | Display control device, display system, and display control method | |
JP2020154468A (en) | Driving support device, method, and computer program | |
JP2021160409A (en) | Display control device, image display device, and method | |
JP2020199883A (en) | Display control device, head-up display device, method and computer program | |
JP2020086882A (en) | Display control device, method and computer program | |
JP2020106911A (en) | Display control device, method, and computer program | |
WO2023003045A1 (en) | Display control device, head-up display device, and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7255608 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |