JP6421008B2 - Gaze guidance device for vehicle - Google Patents

Gaze guidance device for vehicle Download PDF

Info

Publication number
JP6421008B2
JP6421008B2 JP2014200853A JP2014200853A JP6421008B2 JP 6421008 B2 JP6421008 B2 JP 6421008B2 JP 2014200853 A JP2014200853 A JP 2014200853A JP 2014200853 A JP2014200853 A JP 2014200853A JP 6421008 B2 JP6421008 B2 JP 6421008B2
Authority
JP
Japan
Prior art keywords
vehicle
line
occupant
lane
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014200853A
Other languages
Japanese (ja)
Other versions
JP2016071664A (en
Inventor
勇 長澤
勇 長澤
恵二 浅井
恵二 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2014200853A priority Critical patent/JP6421008B2/en
Publication of JP2016071664A publication Critical patent/JP2016071664A/en
Application granted granted Critical
Publication of JP6421008B2 publication Critical patent/JP6421008B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自動車などの車両において、乗員の視線を誘導する視線誘導装置に関する。   The present invention relates to a line-of-sight guidance device for guiding the line of sight of an occupant in a vehicle such as an automobile.

近年の自動車では、特許文献1のように液晶ディスプレイに案内経路を表示するナビゲーション装置を搭載したり、特許文献2のように各種レーダにより走行環境を監視して緊急時の運転を支援する装置を搭載したりしている。   In recent automobiles, a navigation device that displays a guidance route on a liquid crystal display as in Patent Document 1 is installed, or a device that supports driving in an emergency by monitoring a traveling environment with various radars as in Patent Document 2. It is installed.

特開2007−263839号公報JP 2007-263839 A 特開2014−159249号公報JP 2014-159249 A

しかしながら、自動車は、依然、乗員による操作に基づいて走行している。乗員は、走行中に、フロントガラスなどの車窓から車外の安全等を確認し、確認した車外の状況を判断し、それに応じて自動車を操作する。この場合、自動車の走行安定性や安全性は、基本的に乗員の運転能力により決まる。乗員は、状況に応じて、車両の前方、斜め前方、左右、後方、斜め後方などを適宜確認するように目線を切り替えるように動かしたり、視線を一定方向に安定的に維持したりしながら、運転する。
このため、たとえば安全性についていえば、運転中に周囲を確認するための目線の使い方が解っていない初心者であっても、上級者と同様に、必要な車外の安全確認を適切に実施することが求められる。また、疲れた状態で運転するバスの乗務員においても、疲れていない一般的な乗員と同様に、必要な安全確認を実施することが求められる。また、乗員が車外を確認しようとしても、大雨などにより周囲が見え難くなり、十分な確認ができない状況も想定し得る。このよう悪天候の状況でも、乗員には必要な安全確認を実施することが求められる。すなわち、運転中の目線の使い方が解っていない初心者であっても、夜の大雨などの悪天候の際に、必要な安全確認を実施して、状況に応じた適切で安全な運転をし続けることが求められる。
However, automobiles are still traveling based on operations by passengers. While traveling, the occupant confirms safety outside the vehicle from the window of the windshield, etc., determines the confirmed status outside the vehicle, and operates the vehicle accordingly. In this case, the running stability and safety of the automobile are basically determined by the occupant's driving ability. Depending on the situation, the occupant moves to change the line of sight so as to check the front, diagonally forward, left and right, rearward, diagonally rear, etc. of the vehicle as appropriate, or while keeping the line of sight stable in a certain direction, drive.
Therefore, for safety, for example, even for beginners who do not know how to use the line of sight to check their surroundings while driving, the necessary safety checks outside the vehicle should be carried out appropriately, as with advanced users. Is required. In addition, a bus crew operating in a tired state is required to perform necessary safety checks in the same manner as a general crew member who is not tired. Further, even if the occupant tries to check the outside of the vehicle, it may be assumed that the surroundings are difficult to see due to heavy rain, and sufficient confirmation cannot be made. Even in such bad weather conditions, passengers are required to carry out necessary safety checks. In other words, even beginners who do not understand how to use their eyes while driving, perform necessary safety checks in the case of bad weather such as heavy rain at night and continue to drive appropriately and safely according to the situation Is required.

このように自動車などの車両では、案内経路の情報を提示したり、緊急時の運転を支援したりするのではなく、乗員の運転そのものを支援することが潜在的に求められている。   As described above, in vehicles such as automobiles, there is a potential demand for assisting the occupants themselves, rather than presenting information on guide routes or assisting in emergency driving.

本発明に係る車両の視線誘導装置は、車両に乗車した乗員が車外を視認するために透視可能なフロントガラスまたはスクリーンに映像を表示させる表示部材と、前記車両内から前記乗員が視認する風景についての風景情報を取得する風景情報取得部と、前記風景情報に基づいて、前記車両の通過が予想される予想進路を前記乗員が視認する際に視線が通過する前記フロントガラスまたは前記スクリーン上の透視位置又は前記車両の予想進路の右縁および左縁が透視される透視位置を特定する透視位置特定部と、記車両の周囲の他車両についての周辺情報を取得する周辺情報取得部と、を有し、前記表示部材は、前記透視位置に基づいて、前記車両の予想進路の右縁および左縁と重なって見えることが可能となるように、前記フロントガラスまたは前記スクリーンに、前記車両の車幅以上に相当する間隔にて、前記車両の予想進路の右縁および左縁に沿って延びる一対の車線ラインを横並びに表示させ、前記周辺情報取得部が取得した前記他車両と前記車両との関係に基づいて、前記一対の車線ラインの表示を変更する。 The line-of-sight guidance device for a vehicle according to the present invention relates to a display member that displays an image on a windshield or a screen that can be seen through so that an occupant riding in the vehicle can visually recognize the outside of the vehicle, and a landscape that the occupant visually recognizes from within the vehicle. A scenery information acquisition unit that acquires the scenery information of the vehicle, and a perspective on the windshield or the screen through which a line of sight passes when the occupant visually recognizes an expected course where the vehicle is expected to pass based on the scenery information a position or perspectives specifying section right and left edges of the predicted course of the vehicle to identify the perspectives are perspective, the peripheral information acquisition unit that acquires peripheral information about other vehicles around the front Symbol vehicle, the The windshield so that the display member can be seen to overlap with a right edge and a left edge of the expected course of the vehicle based on the fluoroscopic position. Others on the screen at intervals corresponding to more than a vehicle width of the vehicle, side by side to show a pair of lane line extending along the right and left edges of the predicted course of the vehicle, the peripheral information acquisition unit The display of the pair of lane lines is changed based on the acquired relationship between the other vehicle and the vehicle .

好適には、前記表示部材は、前記周辺情報取得部が前記予想進路についての追い越し禁止の車線情報を取得した場合、追い越し禁止用の車線ラインを表示する、とよい。   Preferably, the display member may display a lane line for prohibiting overtaking when the surrounding information acquisition unit acquires lane information for prohibiting overtaking for the predicted route.

好適には、前記表示部材は、前記周辺情報取得部が前記予想進路についての追い越し可能の車線情報を取得した場合、追い越し可能用の車線ラインを表示する、とよい。   Preferably, the display member displays a lane line for overtaking when the surrounding information acquisition unit acquires lane information for overtaking for the predicted route.

好適には、前記表示部材は、前記周辺情報取得部が自車を追い越そうとしている他の車両についての情報を取得した場合、追い越し車有り用の車線ラインを表示する、とよい。   Suitably, the said display member is good to display the lane line for overtaking vehicles, when the said surrounding information acquisition part acquires the information about the other vehicle which is going to pass the own vehicle.

本発明では、風景情報取得部が、車両内から乗員が視認する風景についての風景情報を取得し、透視位置特定部が、該風景情報に基づいて、車両の通過が予想される予想進路を乗員が視認する際に視線が通過するフロントガラスまたはスクリーン上の透視位置又は車両の予想進路の右縁および左縁が透視される透視位置を特定する。そして、表示部材は、該透視位置に基づいて、フロントガラスまたはスクリーンに、車両の車幅以上に相当する間隔にて、前記車両の予想進路の右縁および左縁に沿って延びる一対の車線ラインを横並びに表示させる。これにより、乗員は、フロントガラスまたはスクリーンに表示された一対の車線ラインを、車両の予想進路の右縁および左縁と重ねて見ることが可能になる。乗員の視線は、一対の車線ラインにより強調表示された車両の予想進路に誘導され得る。乗員は、運転中に確認が必要とされる予想進路について、確認することができる。一対の車線ラインの間を確認して、安全に走行し得るか否かを確認し得る。また、一対の車線ラインの表示により、乗員の視線は予想進路に安定し、その結果として車両は安定的に走行し得る。また、乗員が他の方向へ視線を動かした後でも、容易に且つ速やかに所望の予想進路の方向へ視線を戻すことができる。視線を戻す際に予想進路を探す必要がない。
特に、予想進路の右縁および左縁と重ねて一対の車線ラインを表示させているので、乗員の目線は、一点に集中し難くなり、予想進路の方向を全体的に観察し易くなる。予想進路上のみならず、予想進路の左右についても確認し易くなる。これに対して、仮にたとえば予想進路上に1つの走行基準マークを表示させた場合、乗員の目線は、その一点に集中し易くなる。その結果、一点の走行基準マークにより乗員の視線を誘導できたとしても、その一点のみに意識が集中してしまい、予想進路の方向を全体的に観察し難くなる。特に、一点の走行基準マークから微妙に離れた周囲である予想進路の左右の安全性について確認し難くなる。本発明では、このようなミスリードを生じ難い。
さらに、本発明では、周辺情報取得部が、車両の予想進路の走行規制または車両の周囲の物体についての周辺情報を取得し、表示部材は、周辺情報に応じて一対の車線ラインの表示を変更する。よって、乗員は、一対の車線ラインにより誘導された視線を動かすことなく、一対の車線ラインの表示が変更されることにより、車両の予想進路の走行規制または車両の周囲の物体についての周辺情報を得ることができる。
In the present invention, the landscape information acquisition unit acquires the landscape information about the scenery that the occupant visually recognizes from within the vehicle, and the fluoroscopic position specifying unit indicates the expected course where the vehicle is expected to pass based on the landscape information. A perspective position on the windshield or the screen through which the line of sight passes or a right edge and a left edge of the predicted course of the vehicle are transparently identified. The display member has a pair of lane lines extending along the right edge and the left edge of the predicted course of the vehicle on the windshield or the screen based on the perspective position at an interval corresponding to the vehicle width or more. Are displayed side by side. Thus, the occupant can see the pair of lane lines displayed on the windshield or the screen so as to overlap the right edge and the left edge of the expected course of the vehicle. The line of sight of the occupant can be guided to the expected course of the vehicle highlighted by the pair of lane lines. The occupant can confirm the expected course that needs to be confirmed while driving. By checking between a pair of lane lines, it can be confirmed whether or not the vehicle can travel safely. In addition, the display of the pair of lane lines stabilizes the sight line of the occupant in the expected course, and as a result, the vehicle can travel stably. In addition, even after the occupant moves his / her line of sight in another direction, the line of sight can be easily and quickly returned to the desired predicted course. There is no need to look for the expected course when returning the line of sight.
In particular, since a pair of lane lines are displayed overlapping the right and left edges of the expected course, it is difficult for the occupant's eyes to concentrate on one point, making it easier to observe the direction of the expected course as a whole. It becomes easy to confirm not only on the expected course but also on the left and right sides of the expected course. On the other hand, if, for example, one traveling reference mark is displayed on the predicted course, the occupant's eyes are likely to concentrate on that one point. As a result, even if the occupant's line of sight can be guided by one point of the travel reference mark, the consciousness is concentrated only on that one point, and it is difficult to observe the direction of the expected course as a whole. In particular, it becomes difficult to confirm the left and right safety of the predicted course that is slightly away from a single driving reference mark. In the present invention, it is difficult to cause such mislead.
Further, in the present invention, the peripheral information acquisition unit acquires the peripheral information about the travel restriction of the predicted course of the vehicle or the objects around the vehicle, and the display member changes the display of the pair of lane lines according to the peripheral information. To do. Therefore, the occupant can change the display of the pair of lane lines without moving the line of sight guided by the pair of lane lines, so that the travel restriction of the predicted course of the vehicle or the peripheral information about the objects around the vehicle can be obtained. Can be obtained.

図1は、本発明の第1実施形態に係る自動車の説明図である。FIG. 1 is an explanatory diagram of an automobile according to a first embodiment of the present invention. 図2は、図1の自動車に搭載される視線誘導システムの概略構成図である。FIG. 2 is a schematic configuration diagram of a line-of-sight guidance system mounted on the automobile of FIG. 図3は、図2の表示制御部が周期的に実行する表示処理のフローチャートである。FIG. 3 is a flowchart of a display process periodically executed by the display control unit of FIG. 図4は、フロントカメラによりフロントガラス越しに撮像される車窓画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of a vehicle window image captured through the windshield by the front camera. 図5は、図4の撮像された車窓画像に対して特定される各種の特定箇所の一例を説明する図である。FIG. 5 is a diagram for explaining an example of various specific parts specified for the captured window image of FIG. 4. 図6は、フロントガラス上の透視座標を得る演算処理の一例の説明図ある。FIG. 6 is an explanatory diagram of an example of a calculation process for obtaining perspective coordinates on the windshield. 図7は、乗員がフロントガラス越しに見る車窓風景の一例の説明図である。FIG. 7 is an explanatory diagram of an example of a vehicle window scenery seen by the passenger through the windshield. 図8は、図3のステップST9で実施される、一対の車線ラインの変更処理のフローチャートである。FIG. 8 is a flowchart of a process for changing a pair of lane lines, which is performed in step ST9 of FIG. 図9は、本発明の第2実施形態での、一対の車線ラインの変更処理のフローチャートである。FIG. 9 is a flowchart of a change process for a pair of lane lines in the second embodiment of the present invention.

以下、本発明の実施形態を、図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
第1実施形態では、フロントガラス8に、乗員Mの視線を誘導するための一対の車線ラインを表示する例について説明する。
図1は、本発明の第1実施形態に係る自動車1の説明図である。自動車1は、車両の一例である。図1は、自動車1を上から見た図である。
図1の自動車1は、車体2を有する。車体2は、エンジン等が配置される前室3、乗員Mが乗車する乗員室4、荷物等を入れる後室5、を有する。
乗員室4には、乗員Mが着座する複数のシート6が前後二列に配置されている。前側のシート6の前には、左右方向に延在するダッシュボード7が配置される。ダッシュボード7の上側には、フロントガラス8が配置される。フロントガラス8は、乗員室4に乗車した乗員Mが車外を視認するために透視可能な透明または半透明の部材である。
乗員Mは、乗員室4に乗車し、シート6に着座する。走行中の乗員Mは、シートベルト9によりシート6に拘束される。
フロントガラス8の上部には、車体2の後を確認するためのルームミラー10が配置される。前列のシート6の左方向および右方向には、乗員室4の外に、サイドミラー11が配置される。乗員Mは、フロントガラス8などを通じて自動車1の前方の周囲を確認するほかに、ルームミラー10やサイドミラー11を用いて自動車1の後方の周囲を確認することができる。
自動車1を運転する乗員Mのシート6の周囲には、ハンドル12、ブレーキペダル13、アクセルペダル14、シフトレバー15といった操作部材が配置される。シート6に着座した乗員Mは、操作部材を操作し、自動車1を走行させる。
[First Embodiment]
In the first embodiment, an example in which a pair of lane lines for guiding the line of sight of the occupant M is displayed on the windshield 8 will be described.
FIG. 1 is an explanatory diagram of an automobile 1 according to the first embodiment of the present invention. The automobile 1 is an example of a vehicle. FIG. 1 is a view of the automobile 1 as viewed from above.
The automobile 1 in FIG. 1 has a vehicle body 2. The vehicle body 2 has a front chamber 3 in which an engine or the like is disposed, a passenger chamber 4 in which an occupant M gets in, and a rear chamber 5 in which luggage or the like is placed.
In the passenger compartment 4, a plurality of seats 6 on which the passenger M sits are arranged in two rows in the front-rear direction. A dashboard 7 extending in the left-right direction is disposed in front of the front seat 6. A windshield 8 is disposed on the upper side of the dashboard 7. The windshield 8 is a transparent or translucent member that can be seen through so that the passenger M who gets into the passenger compartment 4 can visually recognize the outside of the vehicle.
The passenger M gets into the passenger compartment 4 and sits on the seat 6. The traveling passenger M is restrained by the seat 6 by the seat belt 9.
A room mirror 10 for confirming the rear of the vehicle body 2 is disposed on the top of the windshield 8. Side mirrors 11 are arranged outside the passenger compartment 4 in the left direction and right direction of the seats 6 in the front row. The occupant M can check the surroundings in the front of the automobile 1 through the windshield 8 and the like, and can also check the surroundings in the back of the automobile 1 using the rearview mirror 10 and the side mirror 11.
Operation members such as a handle 12, a brake pedal 13, an accelerator pedal 14, and a shift lever 15 are arranged around the seat 6 of the occupant M who drives the automobile 1. The occupant M seated on the seat 6 operates the operation member and causes the automobile 1 to travel.

ところで、近年の自動車1では、液晶ディスプレイに案内経路を表示するナビゲーション装置を搭載したり、各種レーダにより走行環境を監視して緊急時の運転を支援する装置を搭載したりしている。
しかしながら、自動車1は、依然、乗員Mによる操作に基づいて走行している。乗員Mは、走行中に、フロントガラス8などの車窓から車外の安全等を確認し、確認した車外の状況を判断し、それに応じて自動車1を操作する。この場合、自動車1の走行安定性や安全性は、基本的に乗員Mの運転能力により決まる。乗員Mは、状況に応じて、車体2の前方、斜め前方、左右、後方、斜め後方などを適宜確認するように目線を切り替えるように動かしたり、視線を一定方向に安定的に維持したりしながら、運転する。
このため、たとえば安全性についていえば、運転中に周囲を確認するための目線の使い方が解っていない初心者であっても、上級者と同様に、必要な車外の安全確認を適切に実施することが求められる。たとえば前方正面、前方右斜め前、前方左斜め前を目視により確認する必要がある。
また、疲れた状態で運転するバスの乗務員においても、疲れていない一般的な乗員Mと同様に、必要な安全確認を実施することが求められる。
また、乗員Mが車外を確認しようとしても、大雨などにより周囲が見え難くなり、十分な確認ができない状況も想定し得る。このよう悪天候の状況でも、乗員Mには必要な安全確認を実施することが求められる。
このように、運転中の目線の使い方が解っていない初心者であっても、夜の大雨などの悪天候の際に、必要な安全確認を適切に実施し、状況に応じた安全な運転をし続けることが求められる。
By the way, in recent automobiles 1, a navigation device that displays a guidance route on a liquid crystal display is mounted, or a device that supports driving in an emergency by monitoring a traveling environment by various radars.
However, the automobile 1 is still traveling based on an operation by the occupant M. While traveling, the occupant M confirms safety outside the vehicle from the window of the windshield 8 and the like, determines the confirmed condition outside the vehicle, and operates the automobile 1 accordingly. In this case, the running stability and safety of the automobile 1 are basically determined by the driving ability of the passenger M. Depending on the situation, the occupant M may move the line of sight so that the front, diagonally forward, left and right, rearward, diagonally rear, etc. of the vehicle body 2 may be appropriately checked, or may maintain the line of sight stably in a certain direction. While driving.
Therefore, for safety, for example, even for beginners who do not know how to use the line of sight to check their surroundings while driving, the necessary safety checks outside the vehicle should be carried out appropriately, as with advanced users. Is required. For example, it is necessary to visually confirm the front front, the front right diagonal front, and the front left diagonal front.
In addition, it is required that the crew members of the buses driving in a tired state perform necessary safety checks in the same manner as general passengers M who are not tired.
Further, even if the occupant M tries to confirm the outside of the vehicle, it may be assumed that the surroundings are difficult to see due to heavy rain and the like and cannot be sufficiently confirmed. Even in such bad weather conditions, the passenger M is required to perform necessary safety checks.
In this way, even beginners who do not know how to use their eyes while driving, perform necessary safety checks appropriately in bad weather such as heavy rain at night and continue to drive safely according to the situation Is required.

この他もたとえば、走行安定性においては、乗員Mは、適切な目線で進路を確認しながら運転することが求められる。
たとえば、曲がった道路にそってコーナリングをする場合、運転する乗員Mは、まずコーナ進入時に進路の外縁のブレーキポイントへ車体2を寄せたい。そのため、本表示方法を利用して、自然に車体2をブレーキポイント外側に寄るように仕向ける。クリッピングポイントへ本表示方法で車体2を誘導させる。それと同時に、より遠くへ視線を誘導することで、車体挙動を安定させて円弧を描くことができる。このような目線で乗員Mが自動車1を運転することにより、自動車1は、コーナーの後半が安定、および回避行動がとり易いアウトインインのラインをトレースできる。車体2が安定した状態でスムースにコーナを通過し得る。その結果、自動車1の走行安定性だけでなく、走行の安全性も向上し得る。
このように自動車1では、案内経路の情報を提示したり、緊急時の運転を支援したりするだけでなく、乗員Mの運転そのものを支援することが潜在的に求められている。
In addition to this, for example, in traveling stability, the occupant M is required to drive while confirming the course from an appropriate line of sight.
For example, when cornering along a curved road, the occupant M who wants to drive first wants to bring the vehicle body 2 to the brake point on the outer edge of the course when entering the corner. Therefore, using this display method, the vehicle body 2 is directed naturally toward the brake point outside. The vehicle body 2 is guided to the clipping point by this display method. At the same time, guiding the line of sight farther makes it possible to stabilize the vehicle body behavior and draw an arc. When the occupant M drives the automobile 1 with such a line of sight, the automobile 1 can trace an out-in-in line in which the second half of the corner is stable and easy to avoid. The vehicle body 2 can pass through the corner smoothly in a stable state. As a result, not only the running stability of the automobile 1 but also the running safety can be improved.
As described above, the automobile 1 is potentially required not only to present information on the guide route and to support driving in an emergency, but also to support the driving of the occupant M itself.

図2は、図1の自動車1に搭載される視線誘導システム20の概略構成図である。
図2の視線誘導システム20は、フロントカメラ21、リアカメラ22、車内カメラ23、走行支援装置24、ECU(Engine Control Unit)25、GPS(Global Positioning System)受信機26、ナビゲーション装置27、無線通信部28、マイクロコンピュータ29、プロジェクタ30、を有する。マイクロコンピュータ29には、表示制御部31が実現される。
FIG. 2 is a schematic configuration diagram of the line-of-sight guidance system 20 mounted on the automobile 1 of FIG.
2 includes a front camera 21, a rear camera 22, an in-vehicle camera 23, a driving support device 24, an ECU (Engine Control Unit) 25, a GPS (Global Positioning System) receiver 26, a navigation device 27, and wireless communication. A unit 28, a microcomputer 29, and a projector 30. A display control unit 31 is realized in the microcomputer 29.

フロントカメラ21は、車体2の前方の車外を撮像するカメラである。フロントカメラ21は、たとえば複数のCMOS(Complementary Metal Oxide Semiconductor)センサでよい。複数のCMOSセンサは、たとえばフロントガラス8の上縁に沿って車体2の左右方向に並べて前向きに固定設置される。複数のCMOSセンサは、ルームミラー10の前面に前向きで並べて固定設置されてもよい。車体2に固定設置された複数のCMOSセンサにより、車体2の前方の車外風景やたとえば他の自動車といった目標物について、左右方向で微妙にずれた複数の画像を得ることができる。画像中で撮像位置は、CMOSセンサから目標物へ向かう相対方向を示す。そして、自車(車体2)と目標物との相対方向および相対距離は、たとえば複数のCMOSセンサの設置位置を底辺の頂点とする三角法の演算により演算することができる。自車(車体2)を基準とした目標物の相対的な空間位置を得ることができる。   The front camera 21 is a camera that images the outside of the vehicle in front of the vehicle body 2. The front camera 21 may be, for example, a plurality of complementary metal oxide semiconductor (CMOS) sensors. The plurality of CMOS sensors are fixedly installed in a forward direction, for example, along the upper edge of the windshield 8 in the left-right direction of the vehicle body 2. The plurality of CMOS sensors may be fixedly installed side by side in front of the room mirror 10. With a plurality of CMOS sensors fixedly installed on the vehicle body 2, it is possible to obtain a plurality of images that are slightly shifted in the left-right direction with respect to a vehicle exterior scenery in front of the vehicle body 2 or a target such as another automobile. The imaging position in the image indicates a relative direction from the CMOS sensor toward the target. The relative direction and the relative distance between the host vehicle (vehicle body 2) and the target can be calculated by, for example, trigonometric calculation with the installation positions of the plurality of CMOS sensors as the base vertices. It is possible to obtain the relative spatial position of the target relative to the own vehicle (vehicle body 2).

リアカメラ22は、車体2の後方を撮像するカメラである。リアカメラ22は、たとえば複数のCMOSセンサでよい。複数のCMOSセンサは、たとえばリアガラスの上縁に沿って車体2の左右方向に並べて固定設置される。複数のCMOSセンサは、左右のサイドミラー11に後向きで並べて固定設置されてもよい。車体2に固定設置された複数のCMOSセンサにより、車体2の後方の車外風景やたとえば他の自動車といった目標物について、左右方向で微妙にずれた複数の画像を得ることができる。そして、自車(車体2)を基準とした目標物の相対的な空間位置を得ることができる。   The rear camera 22 is a camera that images the rear of the vehicle body 2. The rear camera 22 may be a plurality of CMOS sensors, for example. The plurality of CMOS sensors are fixedly installed side by side in the left-right direction of the vehicle body 2 along the upper edge of the rear glass, for example. The plurality of CMOS sensors may be fixedly installed side by side rearward on the left and right side mirrors 11. With a plurality of CMOS sensors fixedly installed on the vehicle body 2, it is possible to obtain a plurality of images that are slightly shifted in the left-right direction with respect to a target object such as an outside scenery behind the vehicle body 2 or, for example, another automobile. And the relative spatial position of the target object on the basis of the own vehicle (vehicle body 2) can be obtained.

車内カメラ23は、乗員室4内を撮像するカメラである。車内カメラ23は、たとえば複数のCMOSセンサでよい。複数のCMOSセンサは、たとえばフロントガラス8の上縁部分に車体2の左右方向に並べて後向きに固定設置される。なお、複数のCMOSセンサは、この三角法の配置ではなく、1つがダッシュボード7に後向きに固定設置され、もう一つがシート6の上方の車体2のルーフに下向きに固定設置されてもよい。この場合でも、直交座標系により、各画像におけるシート6に着座する乗員Mの頭部や眼球の撮像位置から、頭部や眼球について、自車(車体2)を基準とした相対的な空間位置を演算し得る。   The in-vehicle camera 23 is a camera that images the interior of the passenger compartment 4. The in-vehicle camera 23 may be a plurality of CMOS sensors, for example. For example, the plurality of CMOS sensors are fixedly installed rearward in the left and right direction of the vehicle body 2 on the upper edge portion of the windshield 8. The plurality of CMOS sensors may not be arranged in this triangulation, but one may be fixedly installed rearward on the dashboard 7 and the other may be fixedly installed downward on the roof of the vehicle body 2 above the seat 6. Even in this case, the relative spatial position of the head and the eyeball with respect to the own vehicle (vehicle body 2) from the imaging position of the head and the eyeball of the occupant M seated on the seat 6 in each image by the orthogonal coordinate system. Can be calculated.

走行支援装置24は、フロントカメラ21およびリアカメラ22に接続されるコンピュータ装置である。走行支援装置24は、これらのカメラで撮像された画像に基づいて、たとえば、自車(車体2)の周囲に存在する他の自動車1などの移動体の情報を生成する。移動体の情報には、相対的な方向および距離、相対的な移動方向といった情報が含まれる。相対的な移動体の移動方向は、時間を前後して撮像された複数の画像における移動体の方向および距離の変化に基づいて演算することができる。走行支援装置24は、生成した移動体の情報に基づいて衝突等の危険性を判断し、衝突の危険性がある場合には、ECU25へ制動信号やエアバッグの展開信号などを出力する。
また、走行支援装置24は、車体2の周囲のリスクを示す移動体情報とともに、フロントカメラ21やリアカメラ22の撮像画像のデータを、マイクロコンピュータ29の表示制御部31へ出力する。フロントカメラ21やリアカメラ22の撮像画像は、車内から乗員Mが視認する風景についての車窓風景の画像として用いることが可能である。
The driving support device 24 is a computer device connected to the front camera 21 and the rear camera 22. The driving support device 24 generates, for example, information on a moving body such as another car 1 existing around the own vehicle (vehicle body 2) based on images captured by these cameras. The information on the moving body includes information such as a relative direction and distance, and a relative moving direction. The relative moving direction of the moving body can be calculated based on changes in the direction and distance of the moving body in a plurality of images captured before and after time. The driving support device 24 determines the risk of a collision or the like based on the generated information on the moving body, and outputs a braking signal, an airbag deployment signal, or the like to the ECU 25 if there is a risk of a collision.
In addition, the driving support device 24 outputs data of the captured images of the front camera 21 and the rear camera 22 to the display control unit 31 of the microcomputer 29 together with the moving body information indicating the risk around the vehicle body 2. The captured images of the front camera 21 and the rear camera 22 can be used as an image of a car window scenery about a scenery that the occupant M visually recognizes from the inside of the car.

ECU25は、乗員Mの操作や走行支援装置24などからの信号に基づいて、自動車1の走行を制御するコンピュータ装置である。ECU25は、自動車1のエンジンやブレーキ装置へ制御信号を出力する。ECU25は、車速、ハンドル12の舵角、ブレーキペダル13の操作の有無および操作量といった車体2の走行自体についての関連情報を、表示制御部31へ出力する。   The ECU 25 is a computer device that controls the traveling of the vehicle 1 based on signals from the operation of the occupant M, the travel support device 24, and the like. The ECU 25 outputs a control signal to the engine and brake device of the automobile 1. The ECU 25 outputs related information about the traveling of the vehicle body 2 such as the vehicle speed, the steering angle of the steering wheel 12, whether or not the brake pedal 13 is operated, and the operation amount to the display control unit 31.

GPS受信機26は、GPS衛星からのGPS信号を受信する。GPS受信機26は、複数のGPS衛星から受信した複数のGPS信号から、自車(車体2)の空間位置(緯度、経度、標高)、移動速度、時刻といった情報を生成する。GPS受信機26は、生成した車体2の走行自体についての関連情報を、表示制御部31へ出力する。   The GPS receiver 26 receives GPS signals from GPS satellites. The GPS receiver 26 generates information such as the spatial position (latitude, longitude, altitude), moving speed, and time of the host vehicle (vehicle body 2) from a plurality of GPS signals received from a plurality of GPS satellites. The GPS receiver 26 outputs related information about the generated traveling of the vehicle body 2 to the display control unit 31.

ナビゲーション装置27は、GPS受信機26に接続される。ナビゲーション装置27は、地図データ、道路データ、地形データなどの蓄積情報を有する。道路データには、複数の道路の交差点等に関するノードデータと、交差点間の各道路区間に関するリンクデータと、が含まれる。ノードデータには、交差点での車線数、車線規制情報といった情報が含まれる。リンクデータには、各道路での車線数、車線規制情報といった情報が含まれる。ナビゲーション装置27は、目的地が設定されることにより、蓄積情報を用いてたとえば現在地から目的地までの移動経路を示すデータを生成し、生成した移動経路を地図とともにディスプレイに表示する。
また、ナビゲーション装置27は、地図データ、道路データ、地形データ、案内経路データを、マイクロコンピュータ29の表示制御部31へ出力する。地図データ、道路データ、地形データ、案内経路データは、車内から乗員Mが視認する車窓風景についての風景情報として用いることが可能である。
The navigation device 27 is connected to the GPS receiver 26. The navigation device 27 has accumulated information such as map data, road data, and terrain data. The road data includes node data related to intersections of a plurality of roads and link data related to each road section between the intersections. The node data includes information such as the number of lanes at the intersection and lane regulation information. The link data includes information such as the number of lanes on each road and lane regulation information. When the destination is set, the navigation device 27 uses the accumulated information to generate, for example, data indicating the movement route from the current location to the destination, and displays the generated movement route together with the map on the display.
Further, the navigation device 27 outputs map data, road data, terrain data, and guide route data to the display control unit 31 of the microcomputer 29. The map data, road data, terrain data, and guide route data can be used as landscape information about the vehicle window scenery that the occupant M sees from inside the vehicle.

無線通信部28は、たとえば地上に設置される基地局と無線通信する。無線通信部28は、基地局を通じてたとえばインターネットに接続されたサーバ装置から情報を取得する。このような情報としては、たとえば交通情報、規制情報、がある。また、無線通信部28は、たとえば周囲に存在する携帯電話機の位置情報、移動速度、移動方向などを取得してもよい。携帯電話機の位置情報などは、人、子供、犬といった移動体の位置情報などとして用いることができる。また、無線通信部28は、自車(車体2)が走行する周囲の地図データ、道路データ、地形データを取得してもよい。そして、ナビゲーション装置27は、取得した情報を、マイクロコンピュータ29の表示制御部31へ出力する。   The radio communication unit 28 performs radio communication with, for example, a base station installed on the ground. The wireless communication unit 28 acquires information from a server device connected to, for example, the Internet through the base station. Examples of such information include traffic information and regulation information. In addition, the wireless communication unit 28 may acquire, for example, position information, moving speed, moving direction, and the like of mobile phones that exist in the vicinity. The position information of the mobile phone can be used as position information of a moving object such as a person, a child, or a dog. Further, the wireless communication unit 28 may acquire map data, road data, and terrain data around the vehicle (the vehicle body 2) traveling. Then, the navigation device 27 outputs the acquired information to the display control unit 31 of the microcomputer 29.

なお、たとえばGPS受信機26、ナビゲーション装置27、無線通信部28といった構成要素は、車体2に対して取り外し可能に設けられてもよい。このような目的に利用できる機器としては、たとえば携帯電話機、多機能携帯通信機といった携帯情報端末がある。また、フロントカメラ21、リアカメラ22、車内カメラ23として、携帯情報端末の撮像デバイスを使用してもよい。この場合でも、たとえば携帯情報端末を所定の姿勢で車体2に取り付けることができるようにすることにより、車体2に対して所定の撮像方向へ向いて固定されたフロントカメラ21、リアカメラ22または車内カメラ23として用いることができる。   Note that components such as the GPS receiver 26, the navigation device 27, and the wireless communication unit 28 may be detachable from the vehicle body 2. Devices that can be used for such purposes include, for example, portable information terminals such as mobile phones and multi-function mobile communication devices. Moreover, you may use the imaging device of a portable information terminal as the front camera 21, the rear camera 22, and the in-vehicle camera 23. FIG. Even in this case, for example, by enabling the portable information terminal to be attached to the vehicle body 2 in a predetermined posture, the front camera 21, the rear camera 22 or the interior of the vehicle fixed to the vehicle body 2 in a predetermined imaging direction. It can be used as the camera 23.

プロジェクタ30は、たとえばフロントガラス8に映像を投影する。プロジェクタ30は、この他にも乗員Mとフロントガラス8との間に設置される透明または半透明のスクリーンや、乗員Mが装着するメガネに映像を投影してもよい。なお、フロントガラス8は、投影された映像を表示するために、たとえば透視可能なフィルムが貼着されてもよい。プロジェクタ30は、ダッシュボード7内に、フロントガラス8に向けて設置される。フロントガラス8の反射光により、乗員Mはフロントガラス8に投影された画像を視認できる。プロジェクタ30からフロントガラス8に投影する光量を調整したり、フロントガラス8に投影する映像の範囲や時間を制限したりすることにより、乗員Mはフロントガラス8を通じて車外の風景を視認しつつフロントガラス8に投影された画像を視認することができる。   The projector 30 projects an image on the windshield 8, for example. In addition to this, the projector 30 may project an image on a transparent or translucent screen installed between the occupant M and the windshield 8 or glasses worn by the occupant M. The windshield 8 may be attached with, for example, a transparent film in order to display the projected video. The projector 30 is installed in the dashboard 7 toward the windshield 8. The passenger M can visually recognize the image projected on the windshield 8 by the reflected light of the windshield 8. By adjusting the amount of light projected from the projector 30 onto the windshield 8 or limiting the range and time of the image projected onto the windshield 8, the occupant M can visually recognize the scenery outside the vehicle through the windshield 8. 8 can be visually recognized.

マイクロコンピュータ29は、車内カメラ23、走行支援装置24、ECU25、ナビゲーション装置27、無線通信部28、プロジェクタ30に接続される。マイクロコンピュータ29は、メモリ、CPU(Central Processing Unit)を有するコンピュータ装置である。CPUは、メモリに記憶されるプログラムを読み込んで実行する。これにより、マイクロコンピュータ29には、表示制御部31が実現される。   The microcomputer 29 is connected to the in-vehicle camera 23, the driving support device 24, the ECU 25, the navigation device 27, the wireless communication unit 28, and the projector 30. The microcomputer 29 is a computer device having a memory and a CPU (Central Processing Unit). The CPU reads and executes a program stored in the memory. Thereby, the display controller 31 is realized in the microcomputer 29.

表示制御部31は、これらの接続機器からマイクロコンピュータ29へ入力される情報を用いて、乗員Mの注意を喚起するように乗員Mの視線を誘導するための映像をプロジェクタ30へ出力する。これにより、車体2に乗車した乗員Mが車外を視認するために透視可能なフロントガラス8には、乗員Mの視線を誘導するための映像が表示される。表示制御部31は、たとえば後述するように、車外の風景情報に基づいて車体2の通過が予想される予想進路を乗員Mが視認する際に視線が通過するフロントガラス8上の透視座標および該予想進路の右縁および左縁が透視される透視座標を特定し、予想進路の右縁および左縁と重なる一対の車線ラインをフロントガラス8に表示させる。
なお、マイクロコンピュータ29には、表示制御部31とともにたとえば走行支援装置24としての機能、ECU25としての機能、ナビゲーション装置27としての機能、無線通信部28としての機能、が実現されてもよい。この場合、フロントカメラ21、リアカメラ22、GPS受信機26といったデバイスは、マイクロコンピュータ29に直接接続されればよい。
The display control unit 31 uses the information input to the microcomputer 29 from these connected devices to output an image for guiding the sight line of the occupant M to the projector 30 so as to alert the occupant M. As a result, an image for guiding the line of sight of the occupant M is displayed on the windshield 8 that can be seen through so that the occupant M who rides on the vehicle body 2 can visually recognize the outside of the vehicle. For example, as will be described later, the display control unit 31 includes a perspective coordinate on the windshield 8 through which a line of sight passes when an occupant M visually recognizes an expected course where the vehicle body 2 is expected to pass based on landscape information outside the vehicle. The perspective coordinates through which the right edge and the left edge of the predicted route are seen are specified, and a pair of lane lines overlapping the right edge and the left edge of the predicted route are displayed on the windshield 8.
For example, the microcomputer 29 may have a function as the driving support device 24, a function as the ECU 25, a function as the navigation device 27, and a function as the wireless communication unit 28 together with the display control unit 31. In this case, devices such as the front camera 21, the rear camera 22, and the GPS receiver 26 may be directly connected to the microcomputer 29.

次に、図2の視線誘導システム20による視線誘導のための処理の一例について説明する。視線誘導システム20は、乗員Mに見てほしい風景、たとえば進路に対して車線ラインを重ねて表示し、乗員Mの視線を誘導する。
図3は、図2の表示制御部31が周期的に実行する表示処理のフローチャートである。表示制御部31は、たとえば100ミリ秒毎に、図3の処理を繰り返し実行し、フロントガラス8の表示を更新する。
図4は、フロントカメラ21によりフロントガラス8越しに撮像される車窓画像IMの一例を示す図である。
図5は、図4の撮像された車窓画像IMに対して特定される各種の特定箇所の一例を説明する図である。
Next, an example of processing for visual guidance by the visual guidance system 20 of FIG. 2 will be described. The line-of-sight guidance system 20 displays the scenery that the occupant M wants to see, for example, a lane line superimposed on the course, and guides the sight line of the occupant M.
FIG. 3 is a flowchart of a display process periodically executed by the display control unit 31 of FIG. The display control unit 31 repeatedly executes the process of FIG. 3 every 100 milliseconds, for example, and updates the display of the windshield 8.
FIG. 4 is a diagram illustrating an example of a vehicle window image IM captured by the front camera 21 through the windshield 8.
FIG. 5 is a diagram for explaining an example of various specific parts specified for the captured window image IM of FIG. 4.

乗員Mの視線を誘導するために、表示制御部31は、図3の表示処理を周期的に実行する。表示制御部31は、まず、乗員Mの視線を誘導するための表示の要否を判断する(ステップST1)。
表示制御部31は、たとえば、車体2の不安定な挙動や乗員Mの緊張度合を計測して数値化し、その値が一定レベルを超える場合、視線誘導表示を要と判断する。
また、表示制御部31は、たとえば急カーブ、車体2の飛び出しといった走行環境の変化がある場合、視線誘導表示を要と判断する。
また、表示制御部31は、乗員Mの直近の過去の視線の動きを判断し、たとえば気づいていない移動体がある場合に、視線誘導表示を要と判断してもよい。
これら以外の場合、表示制御部31は、視線誘導表示を不要と判断し、図3の表示処理を終了する。
なお、表示制御部31は、視線誘導表示の要否判断を、後述する表示処理の直前に実施してもよい。
In order to guide the line of sight of the occupant M, the display control unit 31 periodically executes the display process of FIG. First, the display control unit 31 determines whether or not display is required for guiding the sight line of the occupant M (step ST1).
For example, the display control unit 31 measures and quantifies the unstable behavior of the vehicle body 2 and the degree of tension of the occupant M. If the value exceeds a certain level, the display control unit 31 determines that gaze guidance display is necessary.
In addition, the display control unit 31 determines that the line-of-sight guidance display is necessary when there is a change in the travel environment such as a sharp curve or the vehicle body 2 jumping out.
Further, the display control unit 31 may determine the most recent movement of the line of sight of the occupant M, and may determine that the line-of-sight guidance display is necessary, for example, when there is a moving body that is not noticed.
In cases other than these, the display control unit 31 determines that the line-of-sight guidance display is unnecessary, and ends the display process of FIG.
Note that the display control unit 31 may determine whether or not the line-of-sight guidance display is necessary immediately before the display process described later.

視線誘導表示を要と判断した場合、表示制御部31は、図3の表示処理を継続し、視線誘導のための情報を取得する(ステップST2)。
この処理で取得される情報には、たとえば、前方の車窓画像IMとして用いることができるフロントカメラ21による車体2前方の撮像画像、乗員Mの視線を判定するために用いることができる車内カメラ23による車内の撮像画像、がある。
When it is determined that the gaze guidance display is necessary, the display control unit 31 continues the display process of FIG. 3 and acquires information for gaze guidance (step ST2).
The information acquired by this process includes, for example, an image captured in front of the vehicle body 2 by the front camera 21 that can be used as the front vehicle window image IM, and an in-vehicle camera 23 that can be used to determine the line of sight of the occupant M. There are captured images in the car.

視線誘導のための情報を取得した後、表示制御部31は、乗員Mの視線を誘導したい方向または地点についての空間位置を見る場合に、乗員Mの視線が通過するフロントガラス8上の透視座標P(x,y)を推定する(ステップST3)。
この透視座標P(x,y)に、乗員Mの視線を誘導するための車線ライン41を表示することで、乗員Mの視線を、該方向または地点に向けさせることができる。ここでは、予想進路に対して乗員Mの視線を誘導する場合を例に説明する。図4の車窓画像IMでは、車体2の前方で、道路がまっすぐ前へ向かって延びている。この場合、図4中に点線枠で示すように、乗員Mは、自動車1の進路となる該道路の路面の状況を目視により確認する必要がある。
After acquiring the information for guiding the line of sight, the display control unit 31 sees the coordinates on the windshield 8 through which the line of sight of the occupant M passes when viewing the spatial position of the direction or point where the line of sight of the occupant M is to be guided. P (x, y) is estimated (step ST3).
By displaying the lane line 41 for guiding the sight line of the occupant M at the perspective coordinates P (x, y), the sight line of the occupant M can be directed to the direction or the point. Here, a case where the sight line of the occupant M is guided with respect to the expected course will be described as an example. In the vehicle window image IM of FIG. 4, the road extends straight forward in front of the vehicle body 2. In this case, as shown by a dotted frame in FIG. 4, the occupant M needs to visually confirm the road surface condition of the road that is the course of the automobile 1.

誘導地点への視線の透視座標P(x,y)の推定処理において、表示制御部31は、まず、車窓画像IMにおいて、予想進路(自車線)となる座標範囲を特定する(ステップST4)。
表示制御部31は、たとえば案内経路データや、道路データのリンクデータなどを用いて、車窓画像IM中の予想進路となる道路を撮像した撮像座標範囲を特定する。たとえば図4の車窓画像IMの場合、図5でハッチングを付した直線道路の撮像範囲が、予想進路となる道路の撮像座標範囲となる。
なお、道路データに基づいて対面二車線の道路であると判断される場合、片側二車線の道路であると判断される場合、自車が走行する車線の撮像範囲を、予想進路となる撮像座標範囲とすればよい。
また、車窓画像IMに対する処理により、道路を車線毎に区切る白線ライン、黄色線ラインを認識し得る場合、この情報に基づいて、自車が走行する車線の撮像範囲を特定してもよい。
In the process of estimating the perspective coordinates P (x, y) of the line of sight to the guidance point, the display control unit 31 first specifies a coordinate range that is an expected course (own lane) in the vehicle window image IM (step ST4).
The display control unit 31 specifies an imaging coordinate range in which a road that is an expected course in the vehicle window image IM is imaged using, for example, guide route data or road data link data. For example, in the case of the vehicle window image IM of FIG. 4, the imaging range of the straight road hatched in FIG. 5 is the imaging coordinate range of the road that is the expected course.
In addition, when it is determined that the road is a two-lane road based on the road data, when it is determined that the road is a one-lane two-lane road, the imaging range of the lane in which the vehicle is traveling is set as an imaging coordinate that is an expected course. A range may be used.
Moreover, when the white line line and yellow line line which divides a road for every lane can be recognized by the process with respect to the vehicle window image IM, you may identify the imaging range of the lane which the own vehicle drive | works based on this information.

予想進路(自車線)となる撮像座標範囲を特定した後、表示制御部31は、車窓画像IM中での、該予想進路の路面を全体的に見渡すことができる視野中心座標PCを特定する(ステップST5)。
表示制御部31は、たとえば予想進路上の所定距離の中央位置を視野中心座標PCとして特定する。図4の車窓画像IMの場合、図5に示すように、たとえば図4の点線枠の中心が視野中心座標PCとして特定される。
After specifying the imaging coordinate range that is the predicted course (own lane), the display control unit 31 identifies the visual field center coordinates PC that can overlook the road surface of the predicted course in the vehicle window image IM (see FIG. Step ST5).
The display control unit 31 specifies, for example, the center position of a predetermined distance on the expected course as the visual field center coordinates PC. In the case of the vehicle window image IM in FIG. 4, as shown in FIG. 5, for example, the center of the dotted frame in FIG. 4 is specified as the visual field center coordinate PC.

車窓画像IMについて誘導したい視野中心座標PCを特定した後、表示制御部31は、該視野中心座標PCから、車線幅または車幅に相当する距離で離れている左右一対の視線誘導座標PL,PRを特定する(ステップST6)。具体的には、図4の車窓画像IMの場合、表示制御部31は、図5の視野中心座標PCから左右方向(水平方向)に位置する、車線の右縁および左縁を撮像した一対の視線誘導座標PL,PRを特定する。
なお、車幅の情報、道路幅や車線幅の情報は、ナビゲーション装置27から取得し得る。表示制御部31は、取得した情報を参照し、車幅以上となる間隔で、左右一対の視線誘導座標PL,PRを特定する。道路幅や車線幅が車幅を下回る場合、車幅以上の間隔となるように、車線の右縁および左縁からずらして、一対の視線誘導座標PL,PRを特定する。
After specifying the visual field center coordinate PC to be guided for the vehicle window image IM, the display control unit 31 sets a pair of left and right visual line guidance coordinates PL and PR that are separated from the visual field center coordinate PC by a distance corresponding to the lane width or the vehicle width. Is identified (step ST6). Specifically, in the case of the vehicle window image IM in FIG. 4, the display control unit 31 captures the right edge and the left edge of the lane, which are located in the left-right direction (horizontal direction) from the visual field center coordinate PC in FIG. 5. The line-of-sight guidance coordinates PL and PR are specified.
The vehicle width information, the road width, and the lane width information can be acquired from the navigation device 27. The display control unit 31 refers to the acquired information, and identifies the pair of left and right line-of-sight guidance coordinates PL and PR at intervals that are equal to or greater than the vehicle width. When the road width or the lane width is smaller than the vehicle width, the pair of line-of-sight guidance coordinates PL and PR are specified by shifting from the right edge and the left edge of the lane so that the distance is greater than the vehicle width.

次に、表示制御部31は、車内カメラ23による車内の撮像画像に基づいて、乗員Mの視点(目線の起点)の空間位置を特定する(ステップST7)。
図2の場合、車内の撮像画像には、乗員Mの顔が含まれる。この場合、画像中の頭部または眼球の位置を特定することにより、車内カメラ23に対する頭部または眼球の方向を特定し得る。また、乗員Mはシート6に着座し、シートベルト9により拘束されている。よって、スライドするシート6の前後位置の情報から、車内カメラ23から頭部または眼球までの距離を推定し得る。これらの情報に基づいて、表示制御部31は、乗車している乗員Mの頭部または眼球の空間位置を特定する。
この他にもたとえば、車外の所定物と重なる基準マークを表示させた状態で、乗員Mに頭部を左右へ動かしてもらい、基準マークが車外の所定物と重なって見える状態での画像を基準画像として撮像して保持する。その後、該基準画像中の頭部または眼球の撮像位置と、処理時の車内画像中の頭部または眼球の撮像位置との差により、乗車している乗員Mの頭部または眼球の空間位置を特定してもよい。この場合でも、表示制御部31は、乗車している乗員Mの頭部または眼球のおよその空間位置を特定し得る。
Next, the display control unit 31 specifies the spatial position of the viewpoint of the occupant M (the starting point of the line of sight) based on the in-vehicle image captured by the in-vehicle camera 23 (step ST7).
In the case of FIG. 2, the captured image in the vehicle includes the face of the occupant M. In this case, the direction of the head or eyeball with respect to the in-vehicle camera 23 can be specified by specifying the position of the head or eyeball in the image. The occupant M is seated on the seat 6 and is restrained by the seat belt 9. Therefore, the distance from the in-vehicle camera 23 to the head or eyeball can be estimated from the information on the front and rear positions of the sliding seat 6. Based on these pieces of information, the display control unit 31 specifies the spatial position of the head or eyeball of the occupant M who is in the vehicle.
In addition to this, for example, in a state where a reference mark that overlaps a predetermined object outside the vehicle is displayed, the occupant M moves the head from side to side, and an image in a state where the reference mark appears to overlap with the predetermined object outside the vehicle is used as a reference. Capture and hold as an image. Thereafter, the spatial position of the head or eyeball of the occupant M who is on board is determined based on the difference between the imaging position of the head or eyeball in the reference image and the imaging position of the head or eyeball in the in-vehicle image at the time of processing. You may specify. Even in this case, the display control unit 31 can specify the approximate spatial position of the head or eyeball of the occupant M who is in the vehicle.

次に、表示制御部31は、乗員Mがフロントガラス8越しに視線誘導位置を見る場合に、視線が通過するフロントガラス8上の透視座標P(x,y)を演算する(ステップST8)。
図6は、フロントガラス8上の透視座標P(x,y)を得る演算処理の一例の説明図ある。図6は、車体2および道路を垂直面で切断した模式的な断面図である。図6には、道路の路面、車体2に固定設置されるフロントカメラ21、フロントガラス8、乗員Mの頭部および眼球が図示されている。また、フロントカメラ21により撮像される車窓画像IMが模式的に図示されている。この場合、車窓画像IMは、車体2の前方には、フロントカメラ21の撮像範囲の下縁と路面との交点において立設されている仮想画像として取り扱うことができる。
このような空間位置関係の下では、フロントカメラ21と車窓画像IM中の視線誘導座標PL,PRとを結ぶ線分を延長することにより、道路上の視線誘導地点P1の空間位置が得られる。そして、この道路上の視線誘導地点P1の空間位置と、乗員Mの頭部または眼球の空間位置とを結ぶ線分は、フロントガラス8と交差する。このような位置関係に基づいて演算することにより、表示制御部31は、乗員Mがフロントガラス8越しに視線誘導地点P1を見る場合に、視線が通過するフロントガラス8上の透視座標P(x,y)を演算し得る。
Next, when the occupant M sees the line-of-sight guidance position through the windshield 8, the display control unit 31 calculates the perspective coordinates P (x, y) on the windshield 8 through which the line of sight passes (step ST8).
FIG. 6 is an explanatory diagram illustrating an example of a calculation process for obtaining the perspective coordinates P (x, y) on the windshield 8. FIG. 6 is a schematic cross-sectional view of the vehicle body 2 and the road cut along a vertical plane. FIG. 6 shows a road surface of the road, a front camera 21 fixed on the vehicle body 2, the windshield 8, the head of the occupant M, and the eyeball. In addition, a car window image IM captured by the front camera 21 is schematically illustrated. In this case, the vehicle window image IM can be handled as a virtual image standing in front of the vehicle body 2 at the intersection of the lower edge of the imaging range of the front camera 21 and the road surface.
Under such a spatial positional relationship, the spatial position of the line-of-sight guidance point P1 on the road is obtained by extending the line connecting the front camera 21 and the line-of-sight guidance coordinates PL and PR in the vehicle window image IM. A line segment connecting the spatial position of the line-of-sight guidance point P1 on the road and the spatial position of the head or eyeball of the occupant M intersects the windshield 8. By calculating based on such a positional relationship, the display control unit 31 allows the perspective coordinates P (x on the windshield 8 through which the line of sight passes when the occupant M views the line of sight guidance point P1 through the windshield 8. , Y).

フロントガラス8上の透視座標P(x,y)を演算した後、表示制御部31は、該透視座標P(x,y)に一対の車線ライン41を横並びに表示させる処理を開始する(ステップST9)。
表示制御部31は、右側の透視座標P(x,y)に、右側の車線ライン41を表示させる。また、左側の透視座標P(x,y)に、左側の車線ライン41を表示させる。
図7は、乗員Mがフロントガラス8越しに見る車窓風景の一例の説明図である。図7では、一対の車線ライン41が、自車が走行する車線の右縁および左縁と重ねて横並びに表示されている。具体的には、右側の車線ライン41は、車線の右縁と重なって延びる。左側の車線ライン41は、車線の左縁と重なって延びる。
乗員Mの視線は、一対の車線ライン41により、車線へ誘導され得る。
After calculating the perspective coordinates P (x, y) on the windshield 8, the display control unit 31 starts a process of displaying the pair of lane lines 41 side by side on the perspective coordinates P (x, y) (step) ST9).
The display control unit 31 displays the right lane line 41 at the right perspective coordinates P (x, y). Further, the left lane line 41 is displayed at the left perspective coordinate P (x, y).
FIG. 7 is an explanatory diagram of an example of a vehicle window scenery that the occupant M sees through the windshield 8. In FIG. 7, a pair of lane lines 41 are displayed side by side so as to overlap the right edge and the left edge of the lane in which the vehicle travels. Specifically, the right lane line 41 extends to overlap the right edge of the lane. The left lane line 41 extends overlapping the left edge of the lane.
The line of sight of the occupant M can be guided to the lane by the pair of lane lines 41.

次に、図3の表示処理ステップST9で実施される詳細な表示処理について説明する。
図8は、図3のステップST9で実施される、一対の車線ラインの変更処理のフローチャートである。
図8において、表示制御部31は、まず、自車を追い越そうとしている他車の追い越しの有無を判断する(ステップST11)。表示制御部31は、たとえばリアカメラ22による車体2の後方の撮像画像中の他の自動車の有無を判断する。
追い越そうとしている他の自動車が存在しない場合、表示制御部31は、自車が走行する車線が追い越し可能であるか否かを判断する(ステップST12)。表示制御部31は、たとえばリンクデータに含まれる車線規制情報に基づいて、追い越し可否を判断する。この他にもたとえば、表示制御部31は、フロントカメラ21による前方の撮像画像中の車線ラインの色が黄色であるか白色であるかを判断してもよい。
自車が走行する車線が追い越し可能である場合、表示制御部31は、追越し側の車線ライン41を、標準の白色で表示させる(ステップST13)。これにより、プロジェクタ21は、フロントガラス8に、白色の車線ライン41を表示させる。
Next, detailed display processing performed in the display processing step ST9 of FIG. 3 will be described.
FIG. 8 is a flowchart of a process for changing a pair of lane lines, which is performed in step ST9 of FIG.
In FIG. 8, the display control unit 31 first determines whether or not an other vehicle that is overtaking the host vehicle is overtaken (step ST11). The display control unit 31 determines the presence or absence of another vehicle in the captured image behind the vehicle body 2 by the rear camera 22, for example.
If there is no other vehicle to be overtaken, the display control unit 31 determines whether or not the lane in which the vehicle is traveling can be overtaken (step ST12). For example, the display control unit 31 determines whether overtaking is possible based on lane restriction information included in the link data. In addition to this, for example, the display control unit 31 may determine whether the color of the lane line in the forward image captured by the front camera 21 is yellow or white.
If the lane in which the vehicle is traveling can be overtaken, the display control unit 31 displays the overtaking lane line 41 in standard white (step ST13). Accordingly, the projector 21 displays the white lane line 41 on the windshield 8.

これに対して、自車が走行する車線が追い越しを規制されている場合、表示制御部31は、追越し側の車線ライン41を、黄色に変更して表示させる(ステップST14)。これにより、プロジェクタ21は、フロントガラス8に、黄色の車線ライン41を表示させる。   On the other hand, when the lane in which the vehicle is traveling is restricted from being overtaken, the display control unit 31 changes the overtaking lane line 41 to yellow and displays it (step ST14). Thereby, the projector 21 displays the yellow lane line 41 on the windshield 8.

また、追い越そうとしている他の自動車が存在する場合、表示制御部31は、追越し側の車線ライン41を、赤色に変更して表示させる(ステップST15)。これにより、プロジェクタ21は、フロントガラス8に、赤色の車線ライン41を表示させる。   When there is another vehicle that is about to be overtaken, the display control unit 31 changes the overtaking side lane line 41 to red and displays it (step ST15). Accordingly, the projector 21 displays the red lane line 41 on the windshield 8.

以上のように、本実施形態では、表示制御部31が、車内から乗員Mが視認する風景についての風景情報を取得し、該風景情報に基づいて、自車(車体2)の通過が予想される予想進路を乗員Mが視認する際に視線が通過するフロントガラス8上の透視座標P(x,y)又は自車の予想進路の右縁および左縁が透視される透視座標P(x,y)を特定する。そして、プロジェクタ21は、該透視座標P(x,y)に基づいて、フロントガラス8に、自車の車幅以上に相当する間隔にて、自車の予想進路の右縁および左縁に沿って延びる一対の車線ライン41を横並びに表示させる。
これにより、乗員Mは、フロントガラス8に表示された一対の車線ライン41を、自車の予想進路の右縁および左縁と重ねて見ることが可能になる。乗員Mの視線は、一対の車線ライン41により強調表示された自車の予想進路に誘導され得る。乗員Mは、運転中に確認が必要とされる予想進路について、確認することができる。一対の車線ライン41の間を確認して、安全に走行し得るか否かを確認し得る。
また、一対の車線ライン41の表示により、乗員Mの視線は予想進路に安定し、その結果として自動車1は安定的に走行し得る。
また、乗員Mが他の方向へ視線を動かした後でも、容易に且つ速やかに所望の予想進路の方向へ視線を戻すことができる。視線を戻す際に予想進路を探す必要がない。
特に、予想進路の右縁および左縁と重ねて一対の車線ライン41を表示させているので、乗員Mの目線は、一点に集中し難くなり、予想進路の方向を全体的に観察し易くなる。予想進路上のみならず、予想進路の左右についても確認し易くなる。これに対して、仮にたとえば予想進路上に1つの走行基準マークを表示させた場合、乗員Mの目線は、その一点に集中し易くなる。その結果、一点の走行基準マークにより乗員Mの視線を誘導できたとしても、その一点のみに意識が集中してしまい、予想進路の方向を全体的に観察し難くなる。特に、一点の走行基準マークから微妙に離れた周囲である予想進路の左右の安全性について確認し難くなる。本実施形態では、このようなミスリードを生じ難い。
さらに、本実施形態では、表示制御部31が、自車の予想進路の走行規制を取得し、プロジェクタ21は、この情報に応じて一対の車線ライン41の表示を変更する。よって、乗員Mは、一対の車線ライン41により誘導された視線を動かすことなく、一対の車線ライン41の表示が変更されることにより、自車の予想進路の走行規制についての情報を得ることができる。
As described above, in the present embodiment, the display control unit 31 acquires the landscape information about the landscape visually recognized by the occupant M from the inside of the vehicle, and based on the landscape information, the vehicle (the vehicle body 2) is expected to pass. Perspective coordinates P (x, y) on the windshield 8 through which the line of sight passes when the occupant M visually recognizes the expected course, or perspective coordinates P (x, x) through which the right and left edges of the predicted course of the vehicle are seen. y) is specified. Based on the perspective coordinates P (x, y), the projector 21 moves along the right edge and the left edge of the predicted course of the own vehicle on the windshield 8 at intervals corresponding to the width of the own vehicle or more. A pair of extended lane lines 41 are displayed side by side.
Accordingly, the occupant M can see the pair of lane lines 41 displayed on the windshield 8 so as to overlap the right edge and the left edge of the predicted course of the own vehicle. The line of sight of the occupant M can be guided to the predicted course of the host vehicle highlighted by the pair of lane lines 41. The occupant M can confirm the expected course that needs to be confirmed during driving. By checking between the pair of lane lines 41, it can be confirmed whether or not the vehicle can travel safely.
Further, the line of sight of the occupant M is stabilized in the expected course due to the display of the pair of lane lines 41, and as a result, the automobile 1 can travel stably.
Further, even after the occupant M moves his / her line of sight in another direction, the line of sight can be easily and quickly returned to the desired predicted course. There is no need to look for the expected course when returning the line of sight.
In particular, since the pair of lane lines 41 are displayed so as to overlap the right edge and the left edge of the expected course, the line of sight of the occupant M becomes difficult to concentrate on one point, and the direction of the expected course is easily observed as a whole. . It becomes easy to confirm not only on the expected course but also on the left and right sides of the expected course. On the other hand, for example, if one traveling reference mark is displayed on the expected course, the line of sight of the occupant M is easily concentrated on that one point. As a result, even if the line of sight of the occupant M can be guided by one point of the travel reference mark, the consciousness is concentrated only on the one point, and it is difficult to observe the direction of the expected course as a whole. In particular, it becomes difficult to confirm the left and right safety of the predicted course that is slightly away from a single driving reference mark. In this embodiment, it is difficult for such misleads to occur.
Furthermore, in this embodiment, the display control unit 31 acquires the travel restriction of the predicted course of the own vehicle, and the projector 21 changes the display of the pair of lane lines 41 according to this information. Therefore, the occupant M can obtain information on the travel restriction of the predicted course of the own vehicle by changing the display of the pair of lane lines 41 without moving the line of sight guided by the pair of lane lines 41. it can.

また、本実施形態では、表示制御部31が予想進路についての追い越し禁止の車線情報を取得した場合、プロジェクタ21は、追い越し禁止用の黄色の車線ライン41を表示する。よって、乗員Mは、一対の車線ライン41により誘導された視線を動かすことなく、予想進路が追い越し禁止の道路であることを認識することができる。   Further, in the present embodiment, when the display control unit 31 acquires lane information prohibiting overtaking regarding the expected route, the projector 21 displays a yellow lane line 41 for prohibiting overtaking. Therefore, the occupant M can recognize that the predicted course is a road that is not overtaken without moving the line of sight guided by the pair of lane lines 41.

また、本実施形態では、表示制御部31が予想進路についての追い越し可能の車線情報を取得した場合、プロジェクタ21は、追い越し可能用の白色の車線ライン41を表示する。よって、乗員Mは、一対の車線ライン41により誘導された視線を動かすことなく、予想進路が追い可能な道路であることを認識することができる。   Further, in the present embodiment, when the display control unit 31 acquires lane information that can be overtaken for the expected route, the projector 21 displays a white lane line 41 that can be overtaken. Therefore, the occupant M can recognize that the expected course is a road that can be followed without moving the line of sight guided by the pair of lane lines 41.

また、本実施形態では、表示制御部31が自車を追い越そうとしている他の自動車についての情報を取得した場合、プロジェクタ21は、追い越し車有り用の赤色の車線ライン41を表示する。よって、乗員Mは、一対の車線ライン41により誘導された視線を動かすことなく、自車を追い越そうとしている他の自動車の存在を認識することができる。   Further, in the present embodiment, when the display control unit 31 acquires information about another vehicle that is about to pass the own vehicle, the projector 21 displays a red lane line 41 for passing the vehicle. Therefore, the occupant M can recognize the presence of another automobile that is about to pass the own vehicle without moving the line of sight guided by the pair of lane lines 41.

[第2実施形態]
第2実施形態では、車線ライン41についての他の変更処理について説明する。
図9は、本発明の第2実施形態での、一対の車線ラインの変更処理のフローチャートである。表示制御部31は、図3の表示処理ステップST9において、図9の処理を実行する。
図9において、表示制御部31は、まず、自車を追い越そうとしている他車の追い越しの有無を判断する(ステップST21)。表示制御部31は、たとえばリアカメラ22による車体2の後方の撮像画像中の他の自動車の有無を判断する。
追い越そうとしている他の自動車が存在しない場合、表示制御部31は、自車の挙動が安定しているか否かを判断する(ステップST22)。表示制御部31は、たとえば自車の加速度センサの検出値、速度変動の有無、ハンドル操作の有無に基づいて、自車の挙動が安定しているか否かを判断する。
自車の挙動が安定している場合、表示制御部31は、追越し側の車線ライン41の色として、標準の白色を選択する(ステップST23)。
[Second Embodiment]
In the second embodiment, another change process for the lane line 41 will be described.
FIG. 9 is a flowchart of a change process for a pair of lane lines in the second embodiment of the present invention. The display control unit 31 executes the process of FIG. 9 in the display process step ST9 of FIG.
In FIG. 9, the display control unit 31 first determines whether or not another vehicle that is overtaking the host vehicle has been overtaken (step ST <b> 21). The display control unit 31 determines the presence or absence of another vehicle in the captured image behind the vehicle body 2 by the rear camera 22, for example.
When there is no other vehicle to be overtaken, the display control unit 31 determines whether or not the behavior of the own vehicle is stable (step ST22). The display control unit 31 determines whether or not the behavior of the host vehicle is stable based on, for example, the detected value of the acceleration sensor of the host vehicle, the presence or absence of a speed fluctuation, and the presence or absence of a steering operation.
When the behavior of the host vehicle is stable, the display control unit 31 selects standard white as the color of the lane line 41 on the overtaking side (step ST23).

追い越そうとしている他の自動車が存在する場合、または、自車の挙動が安定していない場合、表示制御部31は、自車が他の自動車を追い越すことが可能であるか否かを判断する(ステップST24)。表示制御部31は、たとえばリンクデータに含まれる車線規制情報に基づいて、追い越し可否を判断する。この他にもたとえば、表示制御部31は、フロントカメラ21による前方の撮像画像中の車線ラインの色が黄色であるか白色であるかを判断してもよい。また、自車を追い越そうとしている他の自動車がある場合、表示制御部31は、不可能と判断する。
自車が他の自動車を追い越すことが可能である場合、表示制御部31は、追越し側の車線ライン41の色として、緑色を選択する(ステップST25)。
自車が他の自動車を追い越すことが可能でない場合、表示制御部31は、追越し側の車線ライン41の色として、赤色を選択する(ステップST26)。
When there is another vehicle to be overtaken or when the behavior of the own vehicle is not stable, the display control unit 31 determines whether or not the own vehicle can overtake the other vehicle. (Step ST24). For example, the display control unit 31 determines whether overtaking is possible based on lane restriction information included in the link data. In addition to this, for example, the display control unit 31 may determine whether the color of the lane line in the forward image captured by the front camera 21 is yellow or white. Further, when there is another automobile that is going to pass the host vehicle, the display control unit 31 determines that it is impossible.
When the own vehicle can pass another vehicle, the display control unit 31 selects green as the color of the lane line 41 on the overtaking side (step ST25).
When the own vehicle cannot pass another vehicle, the display control unit 31 selects red as the color of the lane line 41 on the overtaking side (step ST26).

ステップST23、ST25、ST26において追越し側の車線ライン41の色を選択した後、表示制御部31は、自動車1のウィンカの操作の有無を判断する(ステップST27)。ウィンカの操作の有無は、たとえばECU25から取得できる。
ウィンカが操作されていない場合、表示制御部31は、追越し側の車線ライン41を、選択した色の線分により表示させる。これにより、プロジェクタ21は、フロントガラス8に、選択した色の線分により車線ライン41を表示させる。
ウィンカが操作されている場合、表示制御部31は、追越し側の車線ライン41を、選択した色の破線により表示させる。これにより、プロジェクタ21は、フロントガラス8に、選択した色の破線により車線ライン41を表示させる。また、表示制御部31は、破線による輝点を、線分に沿って移動させる。
After selecting the color of the overtaking lane line 41 in steps ST23, ST25, ST26, the display control unit 31 determines whether or not the turn signal of the vehicle 1 is operated (step ST27). Whether or not the winker is operated can be acquired from the ECU 25, for example.
When the winker is not operated, the display control unit 31 displays the lane line 41 on the overtaking side with a line segment of the selected color. Thereby, the projector 21 displays the lane line 41 on the windshield 8 by the line segment of the selected color.
When the winker is operated, the display control unit 31 displays the lane line 41 on the overtaking side with a broken line of the selected color. Thereby, the projector 21 displays the lane line 41 on the windshield 8 by the broken line of the selected color. Further, the display control unit 31 moves the bright spot indicated by the broken line along the line segment.

以上のように、本実施形態でも、表示制御部31が、自車の予想進路の走行規制や自車の周囲の他の自動車に関する情報を取得し、プロジェクタ21は、この情報に応じて一対の車線ライン41の表示を変更する。よって、乗員Mは、一対の車線ライン41により誘導された視線を動かすことなく、一対の車線ライン41の表示が変更されることにより、自車の予想進路の走行規制についての情報を得ることができる。   As described above, also in the present embodiment, the display control unit 31 acquires information on the travel restriction of the predicted course of the own vehicle and other automobiles around the own vehicle, and the projector 21 receives a pair of information according to this information. The display of the lane line 41 is changed. Therefore, the occupant M can obtain information on the travel restriction of the predicted course of the own vehicle by changing the display of the pair of lane lines 41 without moving the line of sight guided by the pair of lane lines 41. it can.

以上の実施形態は、本発明の好適な実施形態の例であるが、本発明は、これに限定されるものではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。   The above embodiment is an example of a preferred embodiment of the present invention, but the present invention is not limited to this, and various modifications or changes can be made without departing from the scope of the invention.

たとえば上記実施形態では、プロジェクタ30は、フロントガラス8に映像を投影している。この他にもたとえば、プロジェクタ30は、フロントガラス8と乗員Mとの間に設置され、車体2に乗車した乗員Mが車外を視認するために透視可能なスクリーンに、映像を表示させてもよい。また、乗員Mが装着するメガネのガラスによるスクリーンに、映像を表示させてもよい。   For example, in the above embodiment, the projector 30 projects an image on the windshield 8. In addition to this, for example, the projector 30 may be installed between the windshield 8 and the occupant M, and may display an image on a screen through which the occupant M who gets on the vehicle body 2 can see through the vehicle. . Further, an image may be displayed on a screen made of glass of glasses worn by the occupant M.

上記実施形態では、表示制御部31は、撮像された車窓風景を風景情報として用いている。この他にもたとえば、ナビゲーション装置27の情報、無線通信部28の取得情報により、風景情報を得るようにしてもよい。   In the above-described embodiment, the display control unit 31 uses the captured vehicle window scenery as scenery information. In addition, for example, the landscape information may be obtained from the information of the navigation device 27 and the acquired information of the wireless communication unit 28.

上記実施形態では、案内経路を予想進路としている。この他にもたとえば、車窓画像IMそのものに映っている道路を、予想進路としてもよい。また、無線通信部28の取得情報に基づいて、予想進路を予想してもよい。   In the above embodiment, the guide route is the expected route. In addition to this, for example, a road reflected in the car window image IM itself may be set as the expected course. Further, the expected course may be predicted based on the acquired information of the wireless communication unit 28.

上記実施形態では、一対の車線ライン41は、車線幅に相当する間隔で表示されることを基準とし、必要に応じて車幅に相当する間隔で表示される。この他にもたとえば、一対の車線ライン41は、常に車幅に相当する間隔で表示されてもよい。   In the above-described embodiment, the pair of lane lines 41 are displayed at intervals corresponding to the vehicle width as necessary with reference to being displayed at intervals corresponding to the lane width. In addition to this, for example, the pair of lane lines 41 may always be displayed at intervals corresponding to the vehicle width.

上記実施形態は、本発明を自動車1に適用した例である。車両には、この他にも、二輪車、軌道を走る電車などがある。本発明は、これらの車両に対して適用し得る。   The above embodiment is an example in which the present invention is applied to an automobile 1. In addition to this, there are two-wheeled vehicles and trains running on tracks. The present invention can be applied to these vehicles.

1…自動車(車両)、8…フロントガラス、20…視線誘導システム(視線誘導装置)、21…フロントカメラ、22…リアカメラ、23…車内カメラ、24…走行支援装置、25…ECU、26…GPS受信機、27…ナビゲーション装置、28…無線通信部、29…マイクロコンピュータ、30…プロジェクタ(表示部材)、31…表示制御部(風景情報取得部、透視位置特定部、周辺情報取得部)、41…車線ライン、M…乗員、IM…車窓画像(風景情報)、PC…視野中心座標、PL,PR…視線誘導座標、P1…視線誘導地点、P(x,y)…透視座標
DESCRIPTION OF SYMBOLS 1 ... Motor vehicle (vehicle), 8 ... Windshield, 20 ... Gaze guidance system (gaze guidance device), 21 ... Front camera, 22 ... Rear camera, 23 ... In-vehicle camera, 24 ... Driving support device, 25 ... ECU, 26 ... GPS receiver, 27 ... navigation device, 28 ... wireless communication unit, 29 ... microcomputer, 30 ... projector (display member), 31 ... display control unit (landscape information acquisition unit, perspective position specifying unit, peripheral information acquisition unit), 41 ... Lane line, M ... Crew, IM ... Car window image (landscape information), PC ... Visual center coordinates, PL, PR ... Gaze guidance coordinates, P1 ... Gaze guidance point, P (x, y) ... Perspective coordinates

Claims (4)

車両に乗車した乗員が車外を視認するために透視可能なフロントガラスまたはスクリーンに映像を表示させる表示部材と、
前記車両内から前記乗員が視認する風景についての風景情報を取得する風景情報取得部と、
前記風景情報に基づいて、前記車両の通過が予想される予想進路を前記乗員が視認する際に視線が通過する前記フロントガラスまたは前記スクリーン上の透視位置又は前記車両の予想進路の右縁および左縁が透視される透視位置を特定する透視位置特定部と、
記車両の周囲の他車両についての周辺情報を取得する周辺情報取得部と、
を有し、
前記表示部材は、
前記透視位置に基づいて、前記車両の予想進路の右縁および左縁と重なって見えることが可能となるように、前記フロントガラスまたは前記スクリーンに、前記車両の車幅以上に相当する間隔にて、前記車両の予想進路の右縁および左縁に沿って延びる一対の車線ラインを横並びに表示させ、
前記周辺情報取得部が取得した前記他車両と前記車両との関係に基づいて、前記一対の車線ラインの表示を変更する、
車両の視線誘導装置。
A display member that displays an image on a windshield or a screen that can be seen through in order for an occupant riding in the vehicle to visually recognize the outside of the vehicle;
A landscape information acquisition unit for acquiring landscape information about the landscape visually recognized by the occupant from within the vehicle;
Based on the landscape information, the windshield or the see-through position on the screen through which the line of sight passes when the occupant visually recognizes the expected course where the vehicle is expected to pass, or the right edge and the left of the expected course of the vehicle A fluoroscopy position specifying unit for specifying a fluoroscopy position through which the edge is transparent;
A peripheral information acquisition unit that acquires peripheral information about other vehicles around the front Symbol vehicle,
Have
The display member is
Based on the fluoroscopic position, the windshield or the screen is spaced at an interval corresponding to the vehicle width or more so that it can be seen to overlap the right and left edges of the expected course of the vehicle. A pair of lane lines extending along the right and left edges of the expected course of the vehicle are displayed side by side,
Based on the relationship between the other vehicle and the vehicle acquired by the peripheral information acquisition unit , the display of the pair of lane lines is changed.
Gaze guidance device for vehicles.
前記表示部材は、前記周辺情報取得部が前記予想進路についての追い越し禁止の車線情報を取得した場合、追い越し禁止用の車線ラインを表示する、
請求項1記載の車両の視線誘導装置。
The display member displays a lane line for overtaking prohibition when the peripheral information acquisition unit acquires lane information for overtaking prohibition for the expected route.
The gaze guidance device for a vehicle according to claim 1.
前記表示部材は、前記周辺情報取得部が前記予想進路についての追い越し可能の車線情報を取得した場合、追い越し可能用の車線ラインを表示する、
請求項1記載の車両の視線誘導装置。
The display member displays a lane line for overtaking when the surrounding information acquisition unit acquires lane information that can be overtaken for the predicted route.
The gaze guidance device for a vehicle according to claim 1.
前記表示部材は、前記周辺情報取得部が自車を追い越そうとしている他の車両についての情報を取得した場合、追い越し車有り用の車線ラインを表示する、
請求項1記載の車両の視線誘導装置。
The display member displays a lane line for passing vehicles when the surrounding information acquisition unit acquires information about other vehicles that are about to pass the vehicle.
The gaze guidance device for a vehicle according to claim 1.
JP2014200853A 2014-09-30 2014-09-30 Gaze guidance device for vehicle Active JP6421008B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014200853A JP6421008B2 (en) 2014-09-30 2014-09-30 Gaze guidance device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014200853A JP6421008B2 (en) 2014-09-30 2014-09-30 Gaze guidance device for vehicle

Publications (2)

Publication Number Publication Date
JP2016071664A JP2016071664A (en) 2016-05-09
JP6421008B2 true JP6421008B2 (en) 2018-11-07

Family

ID=55864706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014200853A Active JP6421008B2 (en) 2014-09-30 2014-09-30 Gaze guidance device for vehicle

Country Status (1)

Country Link
JP (1) JP6421008B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005067370A (en) * 2003-08-22 2005-03-17 Nissan Motor Co Ltd Vehicular display device
JP4129421B2 (en) * 2003-09-01 2008-08-06 株式会社ケンウッド Other vehicle position display device near own vehicle position
JP2008262401A (en) * 2007-04-12 2008-10-30 Fujitsu Ten Ltd Following vehicle monitoring device and method
JP2010100093A (en) * 2008-10-21 2010-05-06 Nissan Motor Co Ltd Device and method for integrating sound output
JP5532039B2 (en) * 2011-10-05 2014-06-25 株式会社デンソー Vehicle display device

Also Published As

Publication number Publication date
JP2016071664A (en) 2016-05-09

Similar Documents

Publication Publication Date Title
US10131276B2 (en) Vehicle sightline guidance apparatus
WO2018147066A1 (en) Display control apparatus for vehicles
JP6699646B2 (en) Vehicle display control device
US9507345B2 (en) Vehicle control system and method
KR101855940B1 (en) Augmented reality providing apparatus for vehicle and control method for the same
JP5169884B2 (en) Head-up display device
JP6700454B2 (en) Vehicle gaze guidance device
KR20200016958A (en) Parking Assistance Method and Parking Assistance Device
CN110914882B (en) Display system and display method
KR101979276B1 (en) User interface apparatus for vehicle and Vehicle
JP2019091275A (en) Inattentive driving determination device, inattentive driving determination method, and program for determining inattentive driving
JP2009009446A (en) Information display apparatus for vehicle
JP7006235B2 (en) Display control device, display control method and vehicle
JP7151393B2 (en) Vehicle information providing device, vehicle information providing method and program
CN113544757A (en) Information processing apparatus, information processing method, and mobile device
KR102611337B1 (en) Vehicle AR display device and method of operation thereof
CN110462699B (en) Display control device for vehicle and display unit for vehicle
JP2016071666A (en) Visual guidance device for vehicle
JP6398182B2 (en) Signal information presentation device
US20230294517A1 (en) Vehicle display control device, display device, and vehicle display control method
EP3888966B1 (en) Vehicle display device
US20230054104A1 (en) Image processing apparatus, display system, image processing method, and recording medium
JP6421008B2 (en) Gaze guidance device for vehicle
JP6471707B2 (en) Driving teaching device
JP2016071665A (en) Visual guidance device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R150 Certificate of patent or registration of utility model

Ref document number: 6421008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250