JP2014153867A - Travel support system, travel support method and computer program - Google Patents
Travel support system, travel support method and computer program Download PDFInfo
- Publication number
- JP2014153867A JP2014153867A JP2013022314A JP2013022314A JP2014153867A JP 2014153867 A JP2014153867 A JP 2014153867A JP 2013022314 A JP2013022314 A JP 2013022314A JP 2013022314 A JP2013022314 A JP 2013022314A JP 2014153867 A JP2014153867 A JP 2014153867A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature
- occupant
- line
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両の乗員の視線に基づく案内を行うことによって走行の支援を行う走行支援システム、走行支援方法及びコンピュータプログラムに関する。 The present invention relates to a driving support system, a driving support method, and a computer program that support driving by performing guidance based on the line of sight of a vehicle occupant.
従来、車両において乗員に提供する情報は、車速やエンジン回転数等のごく限られた情報であった。しかしながら、近年、車載器の機能の向上に伴い車両において乗員に提供する情報が増加してり、例えば、目的地までの案内経路、渋滞情報、店舗等の施設情報等の提供が行われる。その結果、乗員が脇見運転を行う虞が向上することとなっていた。そこで、例えば特開2010−39933号公報には、車内に設置されたカメラによって乗員の視線方向を検出するとともに風景のオプティカルフローを算出し、検出した乗員の視線方向の移動ベクトルとオプティカルフローが所定時間一致した場合に乗員が脇見運転していると判定し、警告を行う技術について提案されている。 Conventionally, information provided to passengers in a vehicle has been limited information such as vehicle speed and engine speed. However, in recent years, information provided to passengers in a vehicle has increased as the functions of the vehicle-mounted device have been improved, and for example, guidance routes to destinations, traffic jam information, facility information such as stores, and the like are provided. As a result, the possibility that the occupant would perform a side-view operation was improved. Therefore, for example, in Japanese Patent Application Laid-Open No. 2010-39933, an occupant's line-of-sight direction is detected by a camera installed in a vehicle and an optical flow of a landscape is calculated, and the detected movement vector and optical flow of the occupant's line-of-sight are predetermined. A technique has been proposed in which it is determined that an occupant is driving aside when the times coincide, and a warning is issued.
しかしながら、乗員の視線方向からでは乗員が見ている方向を特定することは可能であるが、実際に乗員が視線方向の先にある何を見ているのかまでは特定することができない。即ち、乗員の視線方向が仮に同じ進行方向前方にあったとしても、図12に示すように乗員が車内に位置する物を見ている場合もあるし、フロントガラス上に位置する物を見ている場合もあるし、車外に位置する物を見ている場合もある。 However, although it is possible to identify the direction in which the occupant is looking from the sight line direction of the occupant, it is not possible to identify what the occupant is actually looking ahead of the sight line direction. That is, even if the sight line direction of the occupant is forward in the same traveling direction, the occupant may be looking at an object located in the vehicle as shown in FIG. There are cases where you are looking at things that are located outside the car.
ここで、上記特許文献1に記載の技術では、車両の乗員の視線方向については特定しているが、車両の乗員が視認する領域については特定していない。従って、車外を視認する必要がある状況にも関わらず、同一方向の車内やフロントガラスを視認している場合について、脇見運転と判定することができなかった。
Here, in the technique described in
本発明は前記従来における問題点を解消するためになされたものであり、車両の乗員が視認する領域を特定することによって、脇見運転が行われているか否かを正確に判定することを可能にした走行支援システム、走行支援方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been made to solve the above-described conventional problems, and it is possible to accurately determine whether or not the driver is looking aside by specifying an area visually recognized by a vehicle occupant. An object of the present invention is to provide a travel support system, a travel support method, and a computer program.
前記目的を達成するため本願の請求項1に係る走行支援システム(1)は、車両(55)の車内に設置された第1撮像装置(19)により、前記車両の車内からフロントガラス(52)方向を撮像する第1撮像手段(13)と、前記車両のフロントガラス前方の車外に設置された第2撮像装置(20)により、前記第1撮像装置と同一方向を撮像する第2撮像手段(13)と、前記車両の乗員(56)の視線が位置する視線位置を検出する視線位置検出手段(13)と、前記第1撮像手段により撮像された第1撮像画像と前記第2撮像手段により撮像された第2撮像画像と前記車両の乗員の視線位置とに基づいて、前記乗員によって視認する対象となる特徴物の有無を判定するとともに、前記特徴物が有ると判定された場合に、該特徴物の位置を前記車両の車内、フロントガラス又は車外のいずれかに特定する特徴物検出手段(13)と、前記車両の乗員の視線位置と前記特徴物検出手段の検出結果に基づいて、前記車両の乗員が視認する視認領域を前記車両の車内、フロントガラス又は車外のいずれかに特定する視認領域特定手段(13)と、前記特徴物検出手段の検出結果と前記視認領域特定手段により特定された前記車両の乗員の視認領域とに基づいて、前記乗員の視認領域又は視線位置の案内を行う案内手段(13)と、を有することを特徴とする。
尚、「特徴物」とは、乗員によって視認する対象となるものであり、例えば人、他車両、フロントガラスへの投影画像、メータ類、車載器等が該当する。
In order to achieve the above object, a driving support system (1) according to
The “characteristic object” is an object to be visually recognized by a passenger, and corresponds to, for example, a person, another vehicle, a projection image on a windshield, meters, an on-vehicle device, and the like.
また、請求項2に係る走行支援システム(1)は、請求項1に記載の走行支援システムにおいて、前記第1撮像装置(19)の撮像範囲は前記第2撮像装置(20)の撮像範囲を含み、前記第1撮像装置と前記第2撮像装置の撮像範囲の非共通領域(74)に前記特徴物の候補となる特徴物候補の画像を含む場合において、前記特徴物候補の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である場合には、前記特徴物検出手段(13)は前記特徴物候補が前記特徴物として前記車両の車内に有ることを検出するともに、前記視認領域特定手段(13)は前記視認領域が前記車両の車内に有ると特定し、前記特徴物候補の位置と前記乗員の視線位置が一致しない、又は両者の変位が異なる場合には、前記特徴物検出手段は前記特徴物が無いと判定することを特徴とする。
The driving support system (1) according to
また、請求項3に係る走行支援システム(1)は、請求項1に記載の走行支援システムにおいて、前記第1撮像装置(19)の撮像範囲は前記第2撮像装置(20)の撮像範囲を含み、前記第1撮像装置と前記第2撮像装置の撮像範囲の共通領域(73)であって、前記第1撮像画像のみに前記特徴物の候補となる特徴物候補の画像を含む場合において、前記特徴物候補の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である場合には、前記特徴物検出手段(13)は前記特徴物候補が前記特徴物として前記車両のフロントガラスに有ることを検出するともに、前記視認領域特定手段は(13)前記視認領域が前記車両のフロントガラスに有ると特定し、前記特徴物候補の位置と前記乗員の視線位置が一致しない、又は両者の変位が異なる場合には、前記特徴物検出手段は前記特徴物が無いと判定することを特徴とする。
The driving support system (1) according to claim 3 is the driving support system according to
また、請求項4に係る走行支援システム(1)は、請求項1に記載の走行支援システムにおいて、前記第1撮像装置(19)の撮像範囲は前記第2撮像装置(20)の撮像範囲を含み、前記第1撮像装置と前記第2撮像装置の撮像範囲の共通領域(73)であって、前記第1撮像画像及び前記第2撮像画像の両方に前記特徴物の候補となる特徴物候補の画像を含む場合において、前記特徴物候補の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である場合には、前記特徴物検出手段は前記特徴物候補が前記特徴物として前記車両の車外に有ることを検出するともに、前記視認領域特定手段は前記視認領域が前記車両の車外に有ると特定し、前記特徴物候補の位置と前記乗員の視線位置が一致しない、又は両者の変位が異なる場合には、前記特徴物検出手段は前記特徴物が無いと判定することを特徴とする。
The driving support system (1) according to claim 4 is the driving support system according to
また、請求項5に係る走行支援システム(1)は、請求項1乃至請求項4のいずれかに記載の走行支援システムにおいて、前記案内手段(13)は、前記特徴物検出手段(13)により前記特徴物が前記車両の車内又はフロントガラスに有ると検出された場合であって、前記特徴物が検出された後に前記特徴物の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である状態が継続する場合に、前記乗員に車外を視認するように案内することを特徴とする。
The driving support system (1) according to
また、請求項6に係る走行支援システム(1)は、請求項1乃至請求項4のいずれかに記載の走行支援システムにおいて、前記車両(55)の位置の変位を検出する車両位置検出手段(13)を有し、前記案内手段(13)は、前記特徴物検出手段(13)により前記特徴物が前記車両の車外に有ると検出された場合であって、前記特徴物が検出された後に前記乗員の視線位置が前記車両の位置の変位に伴って変位していない場合に、前記乗員に前記特徴物を視認するように案内することを特徴とする。 A driving support system (1) according to a sixth aspect of the present invention is the driving support system according to any one of the first to fourth aspects, wherein the vehicle position detecting means detects a displacement of the position of the vehicle (55). 13), and the guide means (13) is a case where the feature detection means (13) detects that the feature is outside the vehicle, and after the feature is detected. When the sight line position of the occupant is not displaced with the displacement of the position of the vehicle, the occupant is guided to visually recognize the feature.
また、請求項7に係る走行支援方法は、車両(55)の車内に設置された第1撮像装置(19)により、前記車両の車内からフロントガラス(52)方向を撮像する第1撮像ステップと、前記車両のフロントガラス前方の車外に設置された第2撮像装置(20)により、前記第1撮像装置と同一方向を撮像する第2撮像ステップと、前記車両の乗員(56)の視線が位置する視線位置を検出する視線位置検出ステップと、前記第1撮像ステップにより撮像された第1撮像画像と前記第2撮像ステップにより撮像された第2撮像画像と前記車両の乗員の視線位置とに基づいて、前記乗員によって視認する対象となる特徴物の有無を判定するとともに、前記特徴物が有ると判定された場合に、該特徴物の位置を前記車両の車内、フロントガラス又は車外のいずれかに特定する特徴物検出ステップと、前記車両の乗員の視線位置と前記特徴物検出ステップの検出結果に基づいて、前記車両の乗員が視認する視認領域を前記車両の車内、フロントガラス又は車外のいずれかに特定する視認領域特定ステップと、前記車両の乗員の視線位置と前記特徴物検出ステップの検出結果と前記視認領域特定ステップにより特定された前記車両の乗員の視認領域とに基づいて、前記乗員の視認領域又は視線位置の案内を行う案内ステップと、を有することを特徴とする。 According to a seventh aspect of the present invention, there is provided a driving support method according to a first imaging step of imaging the windshield (52) direction from the inside of the vehicle by the first imaging device (19) installed in the vehicle (55). The second imaging device (20) installed outside the vehicle in front of the windshield of the vehicle, the second imaging step of imaging the same direction as the first imaging device, and the line of sight of the vehicle occupant (56) A line-of-sight position detecting step for detecting a line-of-sight position, a first captured image captured by the first imaging step, a second captured image captured by the second imaging step, and a line-of-sight position of an occupant of the vehicle. Determining whether or not there is a feature to be visually recognized by the occupant, and if it is determined that the feature is present, the position of the feature is determined in the interior of the vehicle, on the windshield or Based on the feature detection step that identifies the outside of the vehicle, the line-of-sight position of the occupant of the vehicle, and the detection result of the feature detection step, the visual recognition area that is visible to the occupant of the vehicle Or a visual recognition area specifying step that specifies either outside the vehicle, a line-of-sight position of the occupant of the vehicle, a detection result of the feature detection step, and a visual recognition area of the occupant of the vehicle specified by the visual recognition area specifying step. And a guidance step for guiding the occupant's visual recognition area or line-of-sight position.
更に、請求項8に係るコンピュータプログラムは、コンピュータに、車両(55)の車内に設置された第1撮像装置(19)により、前記車両の車内からフロントガラス(52)方向を撮像する第1撮像機能と、前記車両のフロントガラス前方の車外に設置された第2撮像装置(20)により、前記第1撮像装置と同一方向を撮像する第2撮像機能と、前記車両の乗員(56)の視線が位置する視線位置を検出する視線位置検出機能と、前記第1撮像機能により撮像された第1撮像画像と前記第2撮像機能により撮像された第2撮像画像と前記車両の乗員の視線位置とに基づいて、前記乗員によって視認する対象となる特徴物の有無を判定するとともに、前記特徴物が有ると判定された場合に、該特徴物の位置を前記車両の車内、フロントガラス又は車外のいずれかに特定する特徴物検出機能と、前記車両の乗員の視線位置と前記特徴物検出機能の検出結果に基づいて、前記車両の乗員が視認する視認領域を前記車両の車内、フロントガラス又は車外のいずれかに特定する視認領域特定機能と、前記車両の乗員の視線位置と前記特徴物検出機能の検出結果と前記視認領域特定機能により特定された前記車両の乗員の視認領域とに基づいて、前記乗員の視認領域又は視線位置の案内を行う案内機能と、を実行させることを特徴とする。 Further, the computer program according to claim 8 is a first image pickup for picking up an image of the windshield (52) direction from the inside of the vehicle by the first image pickup device (19) installed in the vehicle (55). Functions, a second imaging function for imaging the same direction as the first imaging device by the second imaging device (20) installed outside the vehicle in front of the windshield of the vehicle, and the line of sight of the occupant (56) of the vehicle A line-of-sight position detection function for detecting a line-of-sight position, a first captured image captured by the first imaging function, a second captured image captured by the second imaging function, and the line-of-sight position of the vehicle occupant And determining whether there is a feature to be visually recognized by the occupant, and if it is determined that the feature is present, the position of the feature is determined in the vehicle interior, the front Based on the feature detection function that identifies either the vehicle or the outside of the vehicle, the line-of-sight position of the vehicle occupant and the detection result of the feature detection function, the visual recognition area that the vehicle occupant visually recognizes inside the vehicle, A visual recognition area specifying function for specifying either the windshield or the outside of the vehicle, a line of sight of the vehicle occupant, a detection result of the feature detection function, and a visual recognition area for the vehicle occupant specified by the visual recognition area specifying function; And a guidance function for guiding the occupant's visual recognition area or line-of-sight position.
前記構成を有する請求項1に記載の走行支援システムによれば、車両の乗員が視認する領域を特定することによって、脇見運転が行われているか否かを正確に判定することが可能となる。特に、第1撮像装置と第2撮像装置とをそれぞれ車内と車外に設置することによって、フロントガラスに特徴物が位置することや、乗員の視認領域がフロントガラスにあることについても検出することが可能となる。その結果、例えば車外を視認する必要がある状況にも関わらず、乗員が車内やフロントガラスを視認している場合について脇見運転と判定し、是正することが可能となる。
According to the driving support system according to
また、請求項2に記載の走行支援システムによれば、第1撮像装置と第2撮像装置の撮像範囲の非共通領域に特徴物候補があって、特徴物候補の位置と乗員の視線位置が一致し、且つ両者の変位が同一である場合には、特徴物候補が特徴物として車両の車内に有ることを検出するともに、乗員の視認領域が車両の車内に有ると特定し、特徴物候補の位置と乗員の視線位置が一致しない、又は両者の変位が異なる場合には、特徴物が無いと判定するので、特徴物候補の位置と乗員の視線位置とを比較することによって、特徴物の有無や乗員の視認領域を適切に特定することが可能となる。
According to the driving support system of
また、請求項3に記載の走行支援システムによれば、第1撮像装置と第2撮像装置の撮像範囲の共通領域に特徴物候補があって、第1撮像装置のみによって特徴物候補が撮像され、特徴物候補の位置と乗員の視線位置が一致し、且つ両者の変位が同一である場合には、特徴物候補が特徴物として車両のフロントガラスに有ることを検出するともに、乗員の視認領域が車両のフロントガラスに有ると特定し、特徴物候補の位置と乗員の視線位置が一致しない、又は両者の変位が異なる場合には、特徴物が無いと判定するので、特徴物候補の位置と乗員の視線位置とを比較することによって、特徴物の有無や乗員の視認領域を適切に特定することが可能となる。 According to the driving support system of claim 3, there is a feature candidate in the common area of the imaging range of the first imaging device and the second imaging device, and the feature candidate is imaged only by the first imaging device. When the position of the feature candidate matches the sight line position of the occupant and the displacement of both is the same, it is detected that the feature candidate is on the windshield of the vehicle as the feature and If the position of the candidate for feature does not match the position of the sight line of the occupant, or the displacement of the two is different, it is determined that there is no feature. By comparing with the sight line position of the occupant, it is possible to appropriately specify the presence / absence of a characteristic object and the sighted area of the occupant.
また、請求項4に記載の走行支援システムによれば、第1撮像装置と第2撮像装置の撮像範囲の共通領域に特徴物候補があって、第1撮像装置と第2撮像装置によって特徴物候補が撮像され、特徴物候補の位置と乗員の視線位置が一致し、且つ両者の変位が同一である場合には、特徴物候補が特徴物として車両の車外に有ることを検出するともに、乗員の視認領域が車両の車外に有ると特定し、特徴物候補の位置と乗員の視線位置が一致しない、又は両者の変位が異なる場合には、特徴物が無いと判定するので、特徴物候補の位置と乗員の視線位置とを比較することによって、特徴物の有無や乗員の視認領域を適切に特定することが可能となる。 According to the driving support system of the fourth aspect, there is a candidate for a feature in the common area of the imaging range of the first imaging device and the second imaging device, and the feature is detected by the first imaging device and the second imaging device. If the candidate is imaged, and the position of the feature candidate matches the occupant's line-of-sight position and the displacement of both is the same, it is detected that the feature candidate is outside the vehicle as a feature and the occupant If the position of the feature candidate does not match the position of the occupant's line of sight, or the displacement of the two is different, it is determined that there is no feature. By comparing the position and the sight line position of the occupant, it is possible to appropriately specify the presence / absence of a characteristic object and the occupant's visual recognition area.
また、請求項5に記載の走行支援システムによれば、特徴物が車両の車内又はフロントガラスに有ると検出された場合であって、特徴物が検出された後に特徴物の位置と乗員の視線位置が一致し、且つ両者の変位が同一である状態が継続する場合に、乗員に車外を視認するように案内するので、乗員が進行方向前方の車外を視認せずに車載器や表示画面等を視認している場合に、車外を視認させることが可能となる。その結果、脇見運転を防止し、適切に走行させることが可能となる。 According to the driving support system of the fifth aspect, when the feature is detected in the vehicle or on the windshield of the vehicle, the position of the feature and the line of sight of the occupant after the feature is detected. When the position is consistent and the displacement of both is the same, the occupant is guided to see the outside of the vehicle, so that the occupant does not see the outside of the vehicle ahead in the direction of travel. It is possible to visually recognize the outside of the vehicle. As a result, it is possible to prevent the driver from looking aside and travel appropriately.
また、請求項6に記載の走行支援システムによれば、特徴物が車両の車外に有ると検出された場合であって、特徴物が検出された後に乗員の視線位置が車両の位置の変位に伴って変位していない場合に、乗員に前記特徴物を視認するように案内するので、乗員が視認する必要がある車外の特徴物を視認していない場合に、特徴物を視認させることが可能となる。その結果、車両の走行に影響を及ぼす虞のある物の存在を乗員に事前に把握させ、適切に走行させることが可能となる。 According to the driving support system of the sixth aspect, when it is detected that the characteristic object is outside the vehicle, the sight line position of the occupant changes to the displacement of the vehicle position after the characteristic object is detected. When the feature is not displaced, the occupant is guided to visually recognize the feature, so that the feature can be visually recognized when the occupant does not visually recognize the feature outside the vehicle. It becomes. As a result, it is possible to allow the occupant to know in advance the presence of an object that may affect the traveling of the vehicle and to travel appropriately.
また、請求項7に記載の走行支援方法によれば、車両の乗員が視認する領域を特定することによって、脇見運転が行われているか否かを正確に判定することが可能となる。特に、第1撮像装置と第2撮像装置とをそれぞれ車内と車外に設置することによって、フロントガラスに特徴物が位置することや、乗員の視認領域がフロントガラスにあることについても検出することが可能となる。その結果、例えば車外を視認する必要がある状況にも関わらず、乗員が車内やフロントガラスを視認している場合について脇見運転と判定し、是正することが可能となる。 In addition, according to the driving support method of the seventh aspect, it is possible to accurately determine whether or not the driver is looking aside by specifying the region visually recognized by the vehicle occupant. In particular, by installing the first imaging device and the second imaging device respectively inside and outside the vehicle, it is possible to detect that a feature is located on the windshield and that the sighting area of the occupant is on the windshield. It becomes possible. As a result, for example, in the case where it is necessary to visually recognize the outside of the vehicle, it is possible to determine that the driver is looking aside and correct the case where the passenger is viewing the inside of the vehicle or the windshield.
更に、請求項8に記載のコンピュータプログラムによれば、車両の乗員が視認する領域を特定させることによって、脇見運転が行われているか否かを正確に判定させることが可能となる。特に、第1撮像装置と第2撮像装置とをそれぞれ車内と車外に設置することによって、フロントガラスに特徴物が位置することや、乗員の視認領域がフロントガラスにあることについても検出することが可能となる。その結果、例えば車外を視認する必要がある状況にも関わらず、乗員が車内やフロントガラスを視認している場合について脇見運転と判定し、是正することが可能となる。 Furthermore, according to the computer program according to the eighth aspect, it is possible to accurately determine whether or not the driver is looking aside by specifying the region visually recognized by the vehicle occupant. In particular, by installing the first imaging device and the second imaging device respectively inside and outside the vehicle, it is possible to detect that a feature is located on the windshield and that the sighting area of the occupant is on the windshield. It becomes possible. As a result, for example, in the case where it is necessary to visually recognize the outside of the vehicle, it is possible to determine that the driver is looking aside and correct the case where the passenger is viewing the inside of the vehicle or the windshield.
以下、本発明に係る走行支援システムについてナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。
Hereinafter, a driving support system according to the present invention will be described in detail with reference to the drawings based on an embodiment embodied in a navigation device. First, a schematic configuration of the
図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ダッシュボード上に設置され車両のフロントガラスに車両周辺の地図等の各種映像を投影するヘッドアップディスプレイ(HUD)15と、経路案内に関する音声ガイダンスや脇見運転に関する案内等を出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、から構成される。また、ナビゲーション装置1は、CAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置された第1フロントカメラ19、第2フロントカメラ20及びドライバカメラ21が接続されている。
As shown in FIG. 1, the
以下に、ナビゲーション装置1を構成する各構成要素について順に説明する。
現在位置検出部11は、GPS22、車速センサ23、ステアリングセンサ24、ジャイロセンサ25等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ23は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which comprises the
The current
また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や撮像画像DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクにより構成しても良い。
The
ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等が記憶された記憶手段である。
Here, the
また、撮像画像DB32は、第1フロントカメラ19、第2フロントカメラ20及びドライバカメラ21によって撮像された撮像画像が格納される記憶手段である。
そして、ナビゲーションECU13は、撮像画像DB32に格納された撮像画像に基づいて、車内、フロントガラス又は車外にあって運転者の視認対象となる特徴物や運転者の視線位置等を検出する。更に、検出された前方特徴物や運転者の視線位置に基づいて運転者が視認する領域(以下、視認領域という)についても特定する。
The captured
Then, the
一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図5参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を構成する。例えば、第1撮像手段は、車両の車内に設置された第1フロントカメラ19により、車両の車内からフロントガラス方向を撮像する。第2撮像手段は、車両のフロントガラス前方の車外に設置された第2フロントカメラ20により、第1フロントカメラ19と同一方向を撮像する。視線位置検出手段は、車両の乗員の視線が位置する視線位置を検出する。特徴物検出手段は、第1フロントカメラ19により撮像された撮像画像と第2フロントカメラ20により撮像された撮像画像と車両の乗員の視線位置とに基づいて、乗員によって視認する対象となる特徴物の有無を判定するとともに、特徴物が有ると判定された場合に、該特徴物の位置を車両の車内、フロントガラス又は車外のいずれかに特定する。視認領域特定手段は、車両の乗員の視線位置と特徴物検出手段の検出結果に基づいて、車両の乗員が視認する視認領域を車両の車内、フロントガラス又は車外のいずれかに特定する。案内手段は、特徴物検出手段の検出結果と視認領域特定手段により特定された車両の乗員の視認領域とに基づいて、乗員の視認領域又は視線位置の案内を行う。車両位置検出手段は、車両の位置の変位を検出する。
On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the
操作部14は、走行開始地点としての出発地、走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14はハンドルに設けたタッチパッドによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。
The
また、HUD15は、図2に示すようにダッシュボード51上に設置されており、映像の投射方向が運転席の前方のフロントガラス52の下縁付近となるように設定されている。そして、フロントガラス52の所定領域に対して各種投影画像53を表示する。尚、投影画像53としては、メニュー画面、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等がある。
Further, the
また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。また、本実施形態では特に脇見運転に関する案内についても出力する。
The
また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。
The
また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。
The
また、第1フロントカメラ19は、図3に示すようにナビゲーション装置1が搭載された車両55の天井に、車両55の車内からフロントガラス52方向を撮像するように設置される。一方、第2フロントカメラ20は、図3に示すようにナビゲーション装置1が搭載された車両55の車外のフロントノズル周辺に、第1フロントカメラ19と同一方向を撮像するように設置される。
Moreover, the 1st
そして、第1フロントカメラ19は車両55の進行方向前方の周辺環境を、車両55のフロントガラス52を介して撮影する。また、フロントガラス52周辺の車内についても撮像範囲に含まれる。一方、第2フロントカメラ20は車両55の進行方向方の周辺環境を、車両55のフロントガラス52を介さずに撮影する。また、第1フロントカメラ19の設置位置は運転者56の目の位置(視線開始点)と略同一となるように調整される。更に、第1フロントカメラ19の画角は運転者56の視野角よりも広くなるように設定する。その結果、正面を向く運転者56が視認できる範囲(視野領域)を少なくとも含む範囲が撮像可能に構成されている。一方、第2フロントカメラ20は、正面を向く運転者56がフロントガラスを介して視認できる車両55の進行方向前方の周辺環境の範囲(視野領域)を少なくとも含む範囲が撮像可能に構成されている。
The first
ここで、図4は第1フロントカメラ19による撮像範囲と第2フロントカメラ20による撮像範囲とを比較した図である。図4に示すように第1フロントカメラ19による撮像範囲61は、フロントガラス52を介して運転者から視認できる周辺環境62、フロントガラス52に投影された投影画像53及び車両内に配置されたメータ類63、車載器64等を含む範囲となる。一方、第2フロントカメラ20による撮像範囲65は、投影画像53等を含まず、フロントガラス52を介して運転者から視認できる周辺環境62のみとなる。また、図4では、第2フロントカメラ20の撮像範囲65の全体が第1フロントカメラ19の撮像範囲61に含まれることとなっているが、一部のみを含む構成としても良い。但し、第2フロントカメラ20の撮像範囲65には、第1フロントカメラ19の撮像範囲61中のフロントガラス52を介して視認できる周辺環境62については少なくとも含むようにする。
そして、ナビゲーションECU13は、後述のように第1フロントカメラ19や第2フロントカメラ20により撮像した撮像画像に基づいて、運転者に視認対象となる特徴物(人、他車両、投影画像53、メータ類63、車載器64等)を検出する。
Here, FIG. 4 is a diagram comparing the imaging range by the first
Then, the
また、ドライバカメラ21は、例えばCCD等の固体撮像素子を用いたものであり、図3に示すように車両55のダッシュボード51の上面に取り付けられ、撮像方向を運転席に向けて設置される。そして、運転席に座った運転者56の顔を撮像する。また、ナビゲーションECU13は、後述のようにドライバカメラ21により撮像した撮像画像から運転者56の目の位置(視線開始点)や視線方向を検出する。
The
続いて、上記構成を有する本実施形態に係るナビゲーション装置1においてCPU41が実行する走行支援処理プログラムについて図5に基づき説明する。図5は本実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは、車両のACCがONされた後に実行され、第1フロントカメラ19や第2フロントカメラ20によって撮像された画像から運転者によって視認対象となる特徴物を検出するとともに、検出された特徴物や運転者の視線位置から運転者の視認領域を特定し、脇見運転に関する警告を行うプログラムである。尚、以下の図5、図6、図9、図10及び図11にフローチャートで示されるプログラムは、ナビゲーションECU13が備えているRAM42、ROM43等に記憶されており、CPU41により実行される。
Next, a driving support processing program executed by the
先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1において、CPU41は、後述の初期画像処理(図6)を行う。尚、初期画像処理は、S2以降の処理を行う為の準備段階として、第1フロントカメラ19、第2フロントカメラ20及びドライバカメラ21によって撮像された各撮像画像に対して実行される各種処理である。
First, in the driving support processing program, in step (hereinafter abbreviated as S) 1, the
次に、S2においてCPU41は、後述の視認領域及び特徴物位置特定処理(図9、図10)を行う。尚、視認領域及び特徴物位置特定処理は、前記S1で処理された各撮像画像を用いて、運転者の視認対象となる特徴物の位置や運転者の視認領域を特定する処理である。
Next, in S <b> 2, the
続いて、S3においてCPU41は、後述の警告処理(図11)を行う。尚、警告処理は、前記S2で特定された特徴物の位置や運転者の視認領域に基づいて運転者が脇見運転を行っているか否かを判定し、脇見運転に関する案内を行う処理である。
Subsequently, in S3, the
次に、前記S1において実行される初期画像処理のサブ処理について図6に基づき説明する。図6は初期画像処理のサブ処理プログラムのフローチャートである。 Next, sub-processing of initial image processing executed in S1 will be described with reference to FIG. FIG. 6 is a flowchart of a sub-processing program for initial image processing.
先ず、S11においてCPU41は、直近に第1フロントカメラ19、第2フロントカメラ20及びドライバカメラ21で撮像された撮像画像を撮像画像DB32からそれぞれ取得する。
First, in S <b> 11, the
次に、S12においてCPU41は、第1フロントカメラ19の撮像画像の内、第2フロントカメラ20と撮像範囲が共通する領域(以下、共通領域という)を特定する。例えば、図7に示す第1フロントカメラ19により撮像された撮像画像71と第2フロントカメラ20により撮像された撮像画像72とが前記S11で取得された場合には、撮像画像71の内、撮像画像72と撮像内容が重複する範囲(具体的にはフロントガラスを介して前方環境が撮像されている領域)に共通領域73が設定される。
Next, in S <b> 12, the
次に、S13においてCPU41は、第1フロントカメラ19の撮像画像の内、第2フロントカメラ20と撮像範囲が共通しない領域(以下、非共通領域という)を特定する。例えば、図7に示す第1フロントカメラ19により撮像された撮像画像71と第2フロントカメラ20により撮像された撮像画像72とが前記S11で取得された場合には、撮像画像71の内、撮像画像72と撮像内容が重複しない範囲(具体的にはフロントガラス以外の領域)に非共通領域74が設定される。
Next, in S <b> 13, the
次に、S14においてCPU41は、ドライバカメラ21の撮像画像に基づいて、運転者の視線が位置する視線位置を特定する。以下に、S14の処理の詳細について説明する。
Next, in S <b> 14, the
先ずCPU41は、前記S11で取得したドライバカメラ21の撮像画像に基づいて、運転者の視線開始点(目の位置)及び視線方向を検出する。ドライバカメラ21は前記したように車両のインストルメントパネルに設置され、撮像方向を運転席に向けて設置されており(図3)、撮像画像には運転者の顔が含まれることとなる。尚、視線開始点や視線方向の検出方法としては、例えば角膜反射法により計測された瞳孔の中心位置やプルキニエ像を用いて検出する方法がある。それらの方法は既に公知の技術であるので、詳細は省略する。次に、CPU41は、図8に示すように、視線開始点Pから視線方向αへと延長した直線と検出面75との交点を視線位置Qとする。そして、視線位置Qは検出面75上を座標系としたX座標及びY座標によって特定される。尚、特に本実施形態では、検出面75は第1フロントカメラ19の撮像面とする。即ち、前記S14で特定された視線位置は、第1フロントカメラ19で撮像された撮像画像中において特定された視線位置に相当する。尚、前記S14で特定された運転者の視線位置はフラッシュメモリ44等の記憶媒体に累積的に記憶される。
First, the
次に、前記S2において実行される視認領域及び特徴物位置特定処理のサブ処理について図9及び図10に基づき説明する。図9及び図10は視認領域及び特徴物位置特定処理のサブ処理プログラムのフローチャートである。 Next, the sub-process of the visual recognition area and characteristic object position specifying process executed in S2 will be described with reference to FIGS. FIG. 9 and FIG. 10 are flowcharts of a sub-processing program for the visual recognition area and characteristic object position specifying process.
先ず、S21においてCPU41は、所定の時刻Tn及びTnよりも所定時間前のTn−1の2つのタイミングにおいて第1フロントカメラ19及び第2フロントカメラ20で撮像された撮像画像を、撮像画像DB32からそれぞれ取得する。尚、第1フロントカメラ19及び第2フロントカメラ20はそれぞれ所定の撮像間隔(フレームレート)で連続して撮像を行っており、例えばTnは直近の撮像タイミングとし、Tn−1は直近の撮像タイミングよりも1撮像間隔前の撮像タイミングとする。
First, in S21, the
次に、S22においてCPU41は、前記時刻Tn及びTn−1における運転者の視線位置を取得する。尚、運転者の視線位置は前記S14で検出され、前記したように第1フロントカメラ19で撮像された撮像画像内の座標系によって特定される。
Then,
続いて、S23においてCPU41は、前記S21で取得された第1フロントカメラ19及び第2フロントカメラ20の各撮像画像に対して画像処理を行うことによって、特徴物の候補となる特徴物候補について検出する。尚、“特徴物”は道路を走行する車両の運転者が認視する対象となる物であり、例えば車外にある他車両、人、信号機、道路標識、案内板、ランドマークの他、フロントガラス52にある投影画像53(図2)、車内にあるメータ類、車載器等がある。また、特徴物候補の検出には、例えば公知のテンプレートマッチング処理や特徴点検出処理等が用いられる。
Subsequently, in S23, the
その後、S24においてCPU41は、前記S23の特徴物検出結果に基づいて、第1フロントカメラ19で撮像された撮像画像において、前記S12で設定された共通領域に特徴物候補が検出されたか否か判定する。
Thereafter, in S24, the
そして、共通領域に特徴物候補が検出されたと判定された場合(S24:YES)には、S25へと移行する。それに対して、共通領域に特徴物候補が検出されなかったと判定された場合(S24:NO)には、S36へと移行する。 And when it determines with the feature object candidate having been detected in the common area (S24: YES), it transfers to S25. On the other hand, when it is determined that no feature candidate is detected in the common area (S24: NO), the process proceeds to S36.
S25においてCPU41は、共通領域に検出された特徴物候補が、第1フロントカメラ19により撮像された撮像画像のみに検出され、第2フロントカメラ20により撮像された撮像画像では検出されなかったか否か判定される。
In S <b> 25, the
そして、共通領域に検出された特徴物候補が、第1フロントカメラ19により撮像された撮像画像のみに検出されたと判定された場合(S25:YES)には、S26へと移行する。それに対して、第2フロントカメラ20により撮像された撮像画像でも検出されたと判定された場合(S25:NO)には、S31へと移行する。
If it is determined that the feature candidate detected in the common area is detected only in the captured image captured by the first front camera 19 (S25: YES), the process proceeds to S26. On the other hand, when it is determined that the captured image captured by the second
S26においてCPU41は、前記S22で取得した運転者の視線位置と前記S23の特徴物検出結果に基づいて、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致し、且つ時刻Tn−1からTnの間における両者の位置変位が一致しているか否か判定する。尚、一致とは完全に一致することに加えて、所定範囲の誤差がある場合も含む。 CPU41 In S26, the S22 on the basis of a characteristic object detection result of the line of sight position of the acquired driver S23, the position and the driver's line-of-sight position of the characteristic object candidate match at the timing of time T n, and the time It is determined whether or not the position displacements between T n−1 and T n coincide with each other. Note that the term “match” includes a case where there is an error within a predetermined range in addition to a perfect match.
そして、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致し、且つ時刻Tn−1からTnの間における両者の位置変位が一致していると判定された場合(S26:YES)には、特徴物候補を運転者の視線が追従していることから、共通領域において検出された特徴物候補は運転者が視認対象とする特徴物であると推定する。更に、該特徴物は車外に設置された第2フロントカメラ20では撮像できていないこととから、該特徴物はフロントガラスにあると特定する。このような特徴物としては、例えばフロントガラス52にある投影画像53(図2)等が該当する。更に、CPU41は、前記したように特徴物を運転者の視線が追従していることから、運転者の視認領域はフロントガラスであると特定する(S27、S28)。
When the line-of-sight positions of the driver of the characteristic object candidate at the timing of time T n match, both the position displacement between and the time T n-1 of T n is determined that they match ( In S26: YES), since the driver's line of sight follows the feature candidate, it is estimated that the feature candidate detected in the common area is a feature to be visually recognized by the driver. Further, since the feature is not captured by the second
一方、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致しない、又は時刻Tn−1からTnの間における両者の位置変位が一致しないと判定された場合(S26:NO)には、特徴物候補を運転者の視線が追従していないことから、共通領域において検出された特徴物候補は運転者が視認対象とする特徴物ではないと推定する。即ち、共通領域において検出された特徴物候補は、運転者が視認するようなものでは無く(例えば、フロントガラスに付着した付着物等)、特徴物は存在しないと特定する。更に、CPU41は、前記したようにフロントガラスに特徴物は存在しないが、特徴物候補のあったフロントガラスを運転者が視認している可能性が高いことから、運転者の視認領域はフロントガラスであると特定する(S29、S30)。
On the other hand, do not position the driver's line of sight position of the characteristic object candidate match at the timing of time T n, or time T when both the position displaced from the n-1 between the T n is determined to not match (S26: NO), since the driver's line of sight does not follow the feature candidate, it is estimated that the feature candidate detected in the common area is not a feature that the driver is to visually recognize. That is, the feature candidate detected in the common area is not something that the driver can visually recognize (for example, an attached matter attached to the windshield, etc.), and it is specified that no feature exists. Further, as described above, the
また、S31においてCPU41は、前記S22で取得した運転者の視線位置と前記S23の特徴物検出結果に基づいて、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致し、且つ時刻Tn−1からTnの間における両者の位置変位が一致しているか否か判定する。尚、一致とは完全に一致することに加えて、所定範囲の誤差がある場合も含む。
Further,
そして、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致し、且つ時刻Tn−1からTnの間における両者の位置変位が一致していると判定された場合(S31:YES)には、特徴物候補を運転者の視線が追従していることから、共通領域において検出された特徴物候補は、運転者が視認対象とする特徴物であると推定する。更に、該特徴物は車外に設置された第2フロントカメラ20でも撮像できていることとから、該特徴物は車外にあると特定する。このような特徴物としては、例えば他車両、人、信号機、道路標識、案内板、ランドマーク等が該当する。更に、CPU41は、前記したように特徴物を運転者の視線が追従していることから、運転者の視認領域は車外であると特定する(S32、S33)。
When the line-of-sight positions of the driver of the characteristic object candidate at the timing of time T n match, both the position displacement between and the time T n-1 of T n is determined that they match ( In S31: YES), since the driver's line of sight follows the feature candidate, it is estimated that the feature candidate detected in the common area is a feature to be visually recognized by the driver. Furthermore, since the feature is captured by the second
一方、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致しない、又は時刻Tn−1からTnの間における両者の位置変位が一致しないと判定された場合(S31:NO)には、特徴物候補を運転者の視線が追従していないことから、共通領域において検出された特徴物候補は運転者が視認対象とする特徴物ではないと推定する。即ち、共通領域において検出された特徴物候補は、運転者が視認するようなものでは無く(例えば、対向車線を走行する他車両や駐車車両等)、特徴物は存在しないと特定する。更に、CPU41は、前記したように車外に特徴物は存在しないが、特徴物候補のあった車外を運転者が視認している可能性が高いことから、運転者の視認領域はフロントガラスであると特定する(S34、S35)。
On the other hand, do not position the driver's line of sight position of the characteristic object candidate match at the timing of time T n, or time T when both the position displaced from the n-1 between the T n is determined to not match (S31: NO), since the driver's line of sight does not follow the feature candidate, it is estimated that the feature candidate detected in the common area is not a feature that the driver is to visually recognize. That is, the feature candidate detected in the common area is not something that the driver can visually recognize (for example, another vehicle or a parked vehicle traveling in the oncoming lane), and the feature is identified as not existing. Further, as described above, the
また、前記S24において共通領域に特徴物候補が無いと判定された場合に実行されるS36でCPU41は、前記S23の特徴物検出結果に基づいて、第1フロントカメラ19で撮像された撮像画像内、前記13で設定された非共通領域に特徴物候補が検出されたか否か判定する。
Further, in S36, which is executed when it is determined in S24 that there is no feature candidate in the common area, the
そして、非共通領域に特徴物候補が検出されたと判定された場合(S36:YES)には、S39へと移行する。それに対して、非共通領域にも特徴物候補が検出されなかったと判定された場合(S36:NO)には、特徴物は存在せず、また、運転者の視認領域が明確に特定できないので、運転者の視認領域が車外、フロントガラス、車内のいずれかにあると判定する(S37、S38)。 If it is determined that a feature candidate is detected in the non-common area (S36: YES), the process proceeds to S39. On the other hand, when it is determined that no feature candidate is detected in the non-common area (S36: NO), the feature does not exist and the driver's visual recognition area cannot be clearly identified. It is determined that the driver's visual recognition area is located outside the vehicle, the windshield, or inside the vehicle (S37, S38).
S39においてCPU41は、前記S22で取得した運転者の視線位置と前記S23の特徴物検出結果に基づいて、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致し、且つ時刻Tn−1からTnの間における両者の位置変位が一致しているか否か判定する。尚、一致とは完全に一致することに加えて、所定範囲の誤差がある場合も含む。 CPU41 In S39, the S22 on the basis of a characteristic object detection result of the line of sight position of the acquired driver S23, the position and the driver's line-of-sight position of the characteristic object candidate match at the timing of time T n, and the time It is determined whether or not the position displacements between T n−1 and T n coincide with each other. Note that the term “match” includes a case where there is an error within a predetermined range in addition to a perfect match.
そして、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致し、且つ時刻Tn−1からTnの間における両者の位置変位が一致していると判定された場合(S39:YES)には、特徴物候補を運転者の視線が追従していることから、非共通領域において検出された特徴物候補は運転者が視認対象とする特徴物であると推定する。更に、該特徴物は非共通領域で検出されたことから、該特徴物は車内にあると特定する。このような特徴物としては、例えばメータ類や車載器等が該当する。更に、CPU41は、前記したように特徴物を運転者の視線が追従していることから、運転者の視認領域は車内であると特定する(S40、S41)。
When the line-of-sight positions of the driver of the characteristic object candidate at the timing of time T n match, both the position displacement between and the time T n-1 of T n is determined that they match ( In S39: YES), since the driver's line of sight follows the feature candidate, it is estimated that the feature candidate detected in the non-common area is a feature to be visually recognized by the driver. Further, since the feature is detected in the non-common area, the feature is identified as being in the vehicle. Examples of such features include meters and vehicle-mounted devices. Further, since the driver's line of sight follows the feature as described above, the
一方、時刻Tnのタイミングにおいて特徴物候補の位置と運転者の視線位置が一致しない、又は時刻Tn−1からTnの間における両者の位置変位が一致しないと判定された場合(S39:NO)には、特徴物候補を運転者の視線が追従していないことから、非共通領域において検出された特徴物候補は運転者が視認対象とする特徴物ではないと推定する。即ち、共通領域において検出された特徴物候補は、運転者が視認するようなものでは無く(例えば、車内のディスプレイに表示されたマークや記号等の運転者にとって必要としない情報)、特徴物は存在しないと特定する。更に、CPU41は、運転者の視認領域が明確に特定できないので、運転者の視認領域が車外、フロントガラス、車内のいずれかにあると判定する(S37、S38)。
On the other hand, do not position the driver's line of sight position of the characteristic object candidate match at the timing of time T n, or time T when both the position displaced from the n-1 between the T n is determined to not match (S39: NO), since the driver's line of sight does not follow the feature candidate, it is estimated that the feature candidate detected in the non-common area is not the feature that the driver is to visually recognize. That is, the feature candidate detected in the common area is not something that the driver can visually recognize (for example, information that is not necessary for the driver, such as a mark or a symbol displayed on the display in the vehicle), and the feature is Identifies that it does not exist. Furthermore, since the driver's visual recognition area cannot be clearly specified, the
次に、前記S3において実行される警告処理のサブ処理について図11に基づき説明する。図11は警告処理のサブ処理プログラムのフローチャートである。 Next, the warning process sub-process executed in S3 will be described with reference to FIG. FIG. 11 is a flowchart of the warning processing sub-processing program.
先ず、S41においてCPU41は、前記時刻Tnよりも所定時間後のTn+1のタイミングにおいて第1フロントカメラ19及び第2フロントカメラ20で撮像された撮像画像を、撮像画像DB32からそれぞれ取得する。尚、第1フロントカメラ19及び第2フロントカメラ20はそれぞれ所定の撮像間隔(フレームレート)で連続して撮像を行っており、例えばTn+1は前記S21で撮像画像を取得したタイミングであるTnから1撮像間隔後の撮像タイミングとする。
First, in S41, the
次に、S42においてCPU41は、前記時刻Tn+1における運転者の視線位置を取得する。尚、運転者の視線位置は前記S14で検出され、前記したように第1フロントカメラ19で撮像された撮像画像内の座標系によって特定される。
Next, in S42, the
続いて、S43においてCPU41は、前記時刻Tn及びTn+1における車両の位置を現在位置検出部11の検出結果に基づいて取得する。
Then,
続いて、S44においてCPU41は、前記S2の視認領域及び特徴物位置特定処理(図9及び図10)で特定された運転者の視認領域が、車内又はフロントガラスであるか否か判定する。
Subsequently, in S44, the
そして、運転者の視認領域が車内又はフロントガラスであると判定された場合(S44:YES)には、S45へと移行する。それに対して、運転者の視認領域が車外又は特定できなかったと判定された場合(S44:NO)には、S49へと移行する。 And when it determines with a driver | operator's visual recognition area | region being a vehicle interior or a windshield (S44: YES), it transfers to S45. On the other hand, if it is determined that the driver's visual recognition area is outside the vehicle or cannot be specified (S44: NO), the process proceeds to S49.
次に、S45においてCPU41は、前記S2の視認領域及び特徴物位置特定処理(図9及び図10)で、特徴物が車内又はフロントガラスにあると特定されたか否か判定する。
Next, in S45, the
そして、特徴物が車内又はフロントガラスにあると特定されたと判定された場合(S45:YES)には、S46へと移行する。それに対して、特徴物が車外にあると特定された、又は特徴物が無いと判定された場合(S45:NO)には、運転者が脇見運転を行っていないと推定し、当該プログラムを終了する。 And when it determines with having specified that the characteristic object exists in the vehicle or a windshield (S45: YES), it transfers to S46. On the other hand, if it is determined that the feature is outside the vehicle, or if it is determined that there is no feature (S45: NO), it is estimated that the driver is not driving aside and the program ends. To do.
S46においてCPU41は、前記S41で取得された第1フロントカメラ19及び第2フロントカメラ20の各撮像画像に対して画像処理を行うことによって、車内又はフロントガラスにある特徴物の位置について検出する。尚、詳細は前記S23と同様であるので省略する。
In S46, the
その後、S47においてCPU41は、前記S22及びS42で取得した運転者の視線位置と前記S23及びS46の特徴物検出結果に基づいて、時刻Tn+1のタイミングにおいて特徴物の位置と運転者の視線位置が一致し、且つ時刻TnからTn+1の間における両者の位置変位が一致しているか否か判定する。尚、一致とは完全に一致することに加えて、所定範囲の誤差がある場合も含む。
Thereafter, in S47, the
そして、時刻Tn+1のタイミングにおいて特徴物の位置と運転者の視線位置が一致し、且つ時刻TnからTn+1の間における両者の位置変位が一致していると判定された場合(S47:YES)には、車内又はフロントガラスにある特徴物を運転者の視線が継続して追従していることから、運転者が進行方向前方の車外を視認していない、即ち脇見運転を行っていると判定する(S48)。 Then, when the position and the driver's line of sight position of the characteristic object coincide at the timing of time T n + 1, is determined both positional displacement is consistent between and from the time T n of T n + 1 (S47: YES ), Because the driver's line of sight continues to follow the features in the vehicle or on the windshield, the driver is not looking outside the vehicle ahead in the direction of travel, that is, when driving aside Determination is made (S48).
その後、S49においてCPU41は、視認領域を車外とする(即ち、車外を見る)ことを促す案内を行う。例えば、「前方に注意して下さい。」等の音声をスピーカ16から出力する。
Thereafter, in S49, the
それに対して、時刻Tn+1のタイミングにおいて特徴物の位置と運転者の視線位置が一致しない、又は時刻TnからTn+1の間における両者の位置変位が一致していないと判定された場合(S47:NO)には、車内又はフロントガラスにある特徴物を運転者は一旦視認したが、継続して追従しておらず、運転者が脇見運転を行っていないと推定し、当該プログラムを終了する。 On the other hand, when it is determined that the position of the feature does not match the driver's line-of-sight position at the timing of time T n + 1 , or the position displacement of both does not match between time T n and T n + 1 (S47). : NO), the driver once visually recognized the feature in the vehicle or on the windshield, but the driver did not continue to follow and presumed that the driver was not driving aside, and the program ends. .
一方、S50においてCPU41は、前記S2の視認領域及び特徴物位置特定処理(図9及び図10)で、特徴物が車外にあると特定されたか否か判定する。
On the other hand, in S50, the
そして、特徴物が車外にあると特定されたと判定された場合(S50:YES)には、S51へと移行する。それに対して、特徴物が車外に無いと判定された場合(S50:NO)には、運転者が脇見運転を行っていないと推定し、当該プログラムを終了する。 If it is determined that the characteristic object is outside the vehicle (S50: YES), the process proceeds to S51. On the other hand, if it is determined that there is no feature outside the vehicle (S50: NO), it is estimated that the driver is not driving aside and the program ends.
S51においてCPU41は、前記S41で取得された第1フロントカメラ19及び第2フロントカメラ20の各撮像画像に対して画像処理を行うことによって、車外にある特徴物の位置について検出する。尚、詳細は前記S23と同様であるので省略する。
In S51, the
その後、S52においてCPU41は、前記S22及びS42で取得した運転者の視線位置に基づいて、時刻TnからTn+1の間における運転者の視線位置の変位を算出する。
Then,
続いて、S53においてCPU41は、運転者の視線位置が車両の位置の変位に伴って変位しているか否か判定する。具体的には、運転者の視線位置の移動ベクトルと風景のオプティカルフローが一致した場合に、運転者の視線位置が車両の位置の変位に伴って変位していると判定する。尚、一致とは完全に一致することに加えて、所定範囲の誤差がある場合も含む。
Subsequently, in S53, the
そして、運転者の視線位置が車両の位置の変位に伴って変位していると判定された場合(S53:YES)には、車外にある特徴物を運転者の視線が継続して追従していることから、運転者が進行方向前方の車外を適切に視認している、即ち脇見運転を行っていないと判定し、当該プログラムを終了する。 When it is determined that the driver's line-of-sight position is displaced with the displacement of the vehicle position (S53: YES), the driver's line-of-sight continues to follow the feature outside the vehicle. Therefore, it is determined that the driver is appropriately viewing the outside of the vehicle ahead in the traveling direction, that is, the driver is not performing the side-view driving, and the program ends.
一方、運転者の視線位置が車両の位置の変位に伴って変位していないと判定された場合(S53:NO)には、車外に運転者が視認すべき特徴物があるにもかかわらず運転者の視線が追従をしなくなったことから、運転者が進行方向前方の車外を適切に視認していない、即ち脇見運転を行っていると判定する(S54)。 On the other hand, when it is determined that the driver's line-of-sight position is not displaced with the displacement of the vehicle position (S53: NO), driving is performed even though there is a feature that the driver should visually recognize outside the vehicle. Since the driver's line of sight no longer follows, it is determined that the driver has not properly visually recognized the outside of the vehicle ahead in the traveling direction, that is, the driver is looking aside (S54).
その後、S55においてCPU41は、視線位置を特徴物とする(即ち、特徴物を見る)ことを促す案内を行う。例えば、「前方に注意すべきものがあります。」等の音声をスピーカ16から出力する。
Thereafter, in S55, the
以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1による走行支援方法及びナビゲーション装置1で実行されるコンピュータプログラムでは、車両の車内に設置された第1フロントカメラ19と車外に設置された第2フロントカメラ20により夫々同一方向を撮像するとともに、車両の乗員の視線位置を検出し(S22、S42)、各撮像画像と車両の乗員の視線位置とに基づいて特徴物の有無を判定するとともに、特徴物が有ると判定された場合に該特徴物の位置を車両の車内、フロントガラス又は車外のいずれかに特定し(S28、S30、S33、S35、S38、S41)、更に、車両の乗員の視線位置と特徴物の検出結果に基づいて、車両の乗員が視認する視認領域を車両の車内、フロントガラス又は車外のいずれかに特定し(S27、S29、S32、S34、S37、S40)、特徴物の検出結果と車両の乗員の視認領域とに基づいて、乗員の視認領域又は視線位置の案内を行う(S49、S55)ので、車両の乗員が視認する領域を特定することによって、脇見運転が行われているか否かを正確に判定することが可能となる。特に、第1フロントカメラ19と第2フロントカメラ20とをそれぞれ車内と車外に設置することによって、フロントガラスに特徴物が位置することや、乗員の視認領域がフロントガラスにあることについても検出することが可能となる。その結果、例えば車外を視認する必要がある状況にも関わらず、乗員が車内やフロントガラスを視認している場合について脇見運転と判定し、是正することが可能となる。
また、第1フロントカメラ19と第2フロントカメラ20の撮像範囲の非共通領域に特徴物候補があって、特徴物候補の位置と乗員の視線位置が一致し、且つ両者の変位が同一である場合には、特徴物候補が特徴物として車両の車内に有ることを検出するともに、乗員の視認領域が車両の車内に有ると特定し(S40、S41)、特徴物候補の位置と乗員の視線位置が一致しない、又は両者の変位が異なる場合には、特徴物が無いと判定する(S38)ので、特徴物候補の位置と乗員の視線位置とを比較することによって、特徴物の有無や乗員の視認領域を適切に特定することが可能となる。
また、第1フロントカメラ19と第2フロントカメラ20の撮像範囲の共通領域に特徴物候補があって、第1フロントカメラ19のみによって特徴物候補が撮像され、特徴物候補の位置と乗員の視線位置が一致し、且つ両者の変位が同一である場合には、特徴物候補が特徴物として車両のフロントガラスに有ることを検出するともに、乗員の視認領域が車両のフロントガラスに有ると特定し(S27、S28)、特徴物候補の位置と乗員の視線位置が一致しない、又は両者の変位が異なる場合には、特徴物が無いと判定する(S30)ので、特徴物候補の位置と乗員の視線位置とを比較することによって、特徴物の有無や乗員の視認領域を適切に特定することが可能となる。
また、第1フロントカメラ19と第2フロントカメラ20の撮像範囲の共通領域に特徴物候補があって、第1フロントカメラ19と第2フロントカメラ20によって特徴物候補が撮像され、特徴物候補の位置と乗員の視線位置が一致し、且つ両者の変位が同一である場合には、特徴物候補が特徴物として車両の車外に有ることを検出するともに、乗員の視認領域が車両の車外に有ると特定し(S32、S33)、特徴物候補の位置と乗員の視線位置が一致しない、又は両者の変位が異なる場合には、特徴物が無いと判定する(S35)ので、特徴物候補の位置と乗員の視線位置とを比較することによって、特徴物の有無や乗員の視認領域を適切に特定することが可能となる。
また、特徴物が車両の車内又はフロントガラスに有ると検出された場合であって、特徴物が検出された後に特徴物の位置と乗員の視線位置が一致し、且つ両者の変位が同一である状態が継続する場合に、乗員に車外を視認するように案内する(S48)ので、乗員が進行方向前方の車外を視認せずに車載器や表示画面等を視認している場合に、車外を視認させることが可能となる。その結果、脇見運転を防止し、適切に走行させることが可能となる。
また、特徴物が車両の車外に有ると検出された場合であって、特徴物が検出された後に乗員の視線位置が車両の位置の変位に伴って変位していない場合に、乗員に前記特徴物を視認するように案内する(S55)ので、乗員が視認する必要がある車外の特徴物を視認していない場合に、特徴物を視認させることが可能となる。その結果、車両の走行に影響を及ぼす虞のある物の存在を乗員に事前に把握させ、適切に走行させることが可能となる。
As described above in detail, in the
In addition, there is a feature candidate in a non-common area of the imaging range of the first
Further, there is a feature candidate in the common area of the imaging range of the first
Further, there is a feature candidate in the common area of the imaging range of the first
Further, when it is detected that the feature is in the vehicle or on the windshield of the vehicle, after the feature is detected, the position of the feature coincides with the position of the passenger's line of sight, and the displacement of both is the same. When the state continues, the occupant is guided to visually recognize the outside of the vehicle (S48). Therefore, when the occupant is viewing the vehicle-mounted device, the display screen, etc. Visual recognition is possible. As a result, it is possible to prevent the driver from looking aside and travel appropriately.
Further, when it is detected that the characteristic object is outside the vehicle, and the sight line position of the occupant is not displaced in accordance with the displacement of the vehicle position after the characteristic object is detected, the characteristic is given to the occupant. Since the object is guided so as to be visually recognized (S55), it is possible to visually recognize the feature object when the occupant does not visually recognize the feature object outside the vehicle. As a result, it is possible to allow the occupant to know in advance the presence of an object that may affect the traveling of the vehicle and to travel appropriately.
尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では、S29において視認領域がフロントガラスにあると判定しているが、運転者の視認領域が車外、フロントガラス、車内のいずれかにある(即ち視認領域は特定できない)と判定しても良い。同様に、S34において視認領域が車外にあると判定しているが、運転者の視認領域が車外、フロントガラス、車内のいずれかにあると判定しても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in this embodiment, it is determined in S29 that the viewing area is on the windshield, but it is determined that the driver's viewing area is located outside the vehicle, on the windshield, or inside the vehicle (that is, the viewing area cannot be specified). You may do it. Similarly, although it is determined in S34 that the visual recognition area is outside the vehicle, it may be determined that the visual recognition area of the driver is located outside the vehicle, the windshield, or the interior of the vehicle.
また、本発明はナビゲーション装置以外に、他の車載器や端末装置に対して適用することが可能である。例えば、端末装置としては携帯電話機やスマートフォン等の携帯端末、パーソナルコンピュータ、タブレット型端末等がある。但し、端末装置に適用する場合には第1フロントカメラ19や第2フロントカメラ20の撮像画像が取得できるように車載器に接続する構成とする。また、サーバと端末装置等から構成されるシステムに対しても適用することが可能となる。その場合には、上述した走行支援処理プログラム(図5)の各ステップは、サーバと端末装置のいずれが実施する構成としても良い。
In addition to the navigation device, the present invention can be applied to other vehicle-mounted devices and terminal devices. For example, terminal devices include mobile terminals such as mobile phones and smartphones, personal computers, and tablet terminals. However, when applying to a terminal device, it is set as the structure connected to onboard equipment so that the captured image of the 1st
1 ナビゲーション装置
13 ナビゲーションECU
19 第1フロントカメラ
20 第2フロントカメラ
21 ドライバカメラ
41 CPU
42 RAM
43 ROM
52 フロントガラス
53 投影画像
55 車両
56 運転者
1
19 First
42 RAM
43 ROM
52
Claims (8)
前記車両のフロントガラス前方の車外に設置された第2撮像装置により、前記第1撮像装置と同一方向を撮像する第2撮像手段と、
前記車両の乗員の視線が位置する視線位置を検出する視線位置検出手段と、
前記第1撮像手段により撮像された第1撮像画像と前記第2撮像手段により撮像された第2撮像画像と前記車両の乗員の視線位置とに基づいて、前記乗員によって視認する対象となる特徴物の有無を判定するとともに、前記特徴物が有ると判定された場合に、該特徴物の位置を前記車両の車内、フロントガラス又は車外のいずれかに特定する特徴物検出手段と、
前記車両の乗員の視線位置と前記特徴物検出手段の検出結果に基づいて、前記車両の乗員が視認する視認領域を前記車両の車内、フロントガラス又は車外のいずれかに特定する視認領域特定手段と、
前記特徴物検出手段の検出結果と前記視認領域特定手段により特定された前記車両の乗員の視認領域とに基づいて、前記乗員の視認領域又は視線位置の案内を行う案内手段と、を有することを特徴とする走行支援システム。 First imaging means for imaging a windshield direction from the interior of the vehicle by means of a first imaging device installed in the interior of the vehicle;
Second imaging means for imaging in the same direction as the first imaging device by a second imaging device installed outside the vehicle in front of the windshield of the vehicle;
A line-of-sight position detecting means for detecting a line-of-sight position where a line of sight of an occupant of the vehicle is located;
Features to be visually recognized by the occupant based on the first captured image captured by the first imaging unit, the second captured image captured by the second imaging unit, and the line-of-sight position of the occupant of the vehicle And, when it is determined that the feature is present, a feature detection unit that identifies the position of the feature as one of the inside of the vehicle, the windshield, or the outside of the vehicle;
Based on the line-of-sight position of the vehicle occupant and the detection result of the feature object detection means, a visual recognition area specifying means for specifying a visual recognition area visually recognized by the vehicle occupant as one of the inside of the vehicle, the windshield, or the outside of the vehicle; ,
Guidance means for guiding the occupant's visual recognition area or line-of-sight position based on the detection result of the feature object detection means and the visual recognition area of the occupant of the vehicle specified by the visual recognition area specifying means. A featured driving support system.
前記第1撮像装置と前記第2撮像装置の撮像範囲の非共通領域に前記特徴物の候補となる特徴物候補の画像を含む場合において、
前記特徴物候補の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である場合には、前記特徴物検出手段は前記特徴物候補が前記特徴物として前記車両の車内に有ることを検出するともに、前記視認領域特定手段は前記視認領域が前記車両の車内に有ると特定し、
前記特徴物候補の位置と前記乗員の視線位置が一致しない、又は両者の変位が異なる場合には、前記特徴物検出手段は前記特徴物が無いと判定することを特徴とする請求項1に記載の走行支援システム。 The imaging range of the first imaging device includes the imaging range of the second imaging device,
In the case where an image of a feature candidate that is a candidate for the feature is included in a non-common area of the imaging range of the first imaging device and the second imaging device,
When the position of the feature candidate matches the line of sight of the occupant and the displacements are the same, the feature detection means has the feature candidate as the feature in the vehicle. And the visual recognition area specifying means specifies that the visual recognition area is in the vehicle,
2. The feature detection unit according to claim 1, wherein the feature detection unit determines that the feature is not present when the position of the feature candidate and the sight line position of the occupant do not coincide with each other or when the displacements of the two differ. Driving support system.
前記第1撮像装置と前記第2撮像装置の撮像範囲の共通領域であって、前記第1撮像画像のみに前記特徴物の候補となる特徴物候補の画像を含む場合において、
前記特徴物候補の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である場合には、前記特徴物検出手段は前記特徴物候補が前記特徴物として前記車両のフロントガラスに有ることを検出するともに、前記視認領域特定手段は前記視認領域が前記車両のフロントガラスに有ると特定し、
前記特徴物候補の位置と前記乗員の視線位置が一致しない、又は両者の変位が異なる場合には、前記特徴物検出手段は前記特徴物が無いと判定することを特徴とする請求項1に記載の走行支援システム。 The imaging range of the first imaging device includes the imaging range of the second imaging device,
In a common area of the imaging range of the first imaging device and the second imaging device, and only when the first captured image includes an image of a feature candidate that is a candidate for the feature,
When the position of the feature candidate matches the line of sight of the occupant and the displacements are the same, the feature detection means has the feature candidate as the feature on the windshield of the vehicle. The visual recognition area specifying means specifies that the visual recognition area is on the windshield of the vehicle,
2. The feature detection unit according to claim 1, wherein the feature detection unit determines that the feature is not present when the position of the feature candidate and the sight line position of the occupant do not coincide with each other or when the displacements of the two differ. Driving support system.
前記第1撮像装置と前記第2撮像装置の撮像範囲の共通領域であって、前記第1撮像画像及び前記第2撮像画像の両方に前記特徴物の候補となる特徴物候補の画像を含む場合において、
前記特徴物候補の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である場合には、前記特徴物検出手段は前記特徴物候補が前記特徴物として前記車両の車外に有ることを検出するともに、前記視認領域特定手段は前記視認領域が前記車両の車外に有ると特定し、
前記特徴物候補の位置と前記乗員の視線位置が一致しない、又は両者の変位が異なる場合には、前記特徴物検出手段は前記特徴物が無いと判定することを特徴とする請求項1に記載の走行支援システム。 The imaging range of the first imaging device includes the imaging range of the second imaging device,
A common area of the imaging range of the first imaging device and the second imaging device, wherein both the first captured image and the second captured image include an image of a feature candidate that is a candidate for the feature In
When the position of the feature candidate matches the sight line position of the occupant and the displacement of both is the same, the feature detection means has the feature candidate as the feature outside the vehicle. And the visual recognition area specifying means specifies that the visual recognition area is outside the vehicle,
2. The feature detection unit according to claim 1, wherein the feature detection unit determines that the feature is not present when the position of the feature candidate and the sight line position of the occupant do not coincide with each other or when the displacements of the two differ. Driving support system.
前記特徴物検出手段により前記特徴物が前記車両の車内又はフロントガラスに有ると検出された場合であって、
前記特徴物が検出された後に前記特徴物の位置と前記乗員の視線位置が一致し、且つ両者の変位が同一である状態が継続する場合に、
前記乗員に車外を視認するように案内することを特徴とする請求項1乃至請求項4のいずれかに記載の走行支援システム。 The guiding means includes
When the feature detection unit detects that the feature is in the vehicle or on the windshield of the vehicle,
After the feature is detected, when the position of the feature matches the sight line position of the occupant and the displacement of both continues,
The travel support system according to any one of claims 1 to 4, wherein the occupant is guided to visually recognize the outside of the vehicle.
前記案内手段は、
前記特徴物検出手段により前記特徴物が前記車両の車外に有ると検出された場合であって、
前記特徴物が検出された後に前記乗員の視線位置が前記車両の位置の変位に伴って変位していない場合に、前記乗員に前記特徴物を視認するように案内することを特徴とする請求項1乃至請求項4のいずれかに記載の走行支援システム。 Vehicle position detecting means for detecting displacement of the position of the vehicle;
The guiding means includes
When the feature detection unit detects that the feature is outside the vehicle,
The guidance is provided so that the occupant visually recognizes the feature when the sight line position of the occupant is not displaced with the displacement of the position of the vehicle after the feature is detected. The driving support system according to any one of claims 1 to 4.
前記車両のフロントガラス前方の車外に設置された第2撮像装置により、前記第1撮像装置と同一方向を撮像する第2撮像ステップと、
前記車両の乗員の視線が位置する視線位置を検出する視線位置検出ステップと、
前記第1撮像ステップにより撮像された第1撮像画像と前記第2撮像ステップにより撮像された第2撮像画像と前記車両の乗員の視線位置とに基づいて、前記乗員によって視認する対象となる特徴物の有無を判定するとともに、前記特徴物が有ると判定された場合に、該特徴物の位置を前記車両の車内、フロントガラス又は車外のいずれかに特定する特徴物検出ステップと、
前記車両の乗員の視線位置と前記特徴物検出ステップの検出結果に基づいて、前記車両の乗員が視認する視認領域を前記車両の車内、フロントガラス又は車外のいずれかに特定する視認領域特定ステップと、
前記車両の乗員の視線位置と前記特徴物検出ステップの検出結果と前記視認領域特定ステップにより特定された前記車両の乗員の視認領域とに基づいて、前記乗員の視認領域又は視線位置の案内を行う案内ステップと、を有することを特徴とする走行支援方法。 A first imaging step of imaging a windshield direction from the interior of the vehicle by a first imaging device installed in the interior of the vehicle;
A second imaging step of imaging in the same direction as the first imaging device by a second imaging device installed outside the vehicle in front of the windshield of the vehicle;
A line-of-sight position detecting step for detecting a line-of-sight position where the line of sight of the vehicle occupant is located;
Features to be visually recognized by the occupant based on the first captured image captured by the first imaging step, the second captured image captured by the second imaging step, and the line-of-sight position of the occupant of the vehicle And a feature detection step of specifying the position of the feature in the vehicle, the windshield, or the outside of the vehicle when it is determined that the feature exists.
A visual recognition area identifying step for identifying a visual recognition area visually recognized by an occupant of the vehicle based on the line-of-sight position of the occupant of the vehicle and the detection result of the feature detection step; ,
Guidance of the occupant's visual recognition area or visual line position is performed based on the sight line position of the occupant of the vehicle, the detection result of the feature detection step, and the visual recognition area of the occupant of the vehicle specified by the visual recognition area specifying step. And a guidance step.
車両の車内に設置された第1撮像装置により、前記車両の車内からフロントガラス方向を撮像する第1撮像機能と、
前記車両のフロントガラス前方の車外に設置された第2撮像装置により、前記第1撮像装置と同一方向を撮像する第2撮像機能と、
前記車両の乗員の視線が位置する視線位置を検出する視線位置検出機能と、
前記第1撮像機能により撮像された第1撮像画像と前記第2撮像機能により撮像された第2撮像画像と前記車両の乗員の視線位置とに基づいて、前記乗員によって視認する対象となる特徴物の有無を判定するとともに、前記特徴物が有ると判定された場合に、該特徴物の位置を前記車両の車内、フロントガラス又は車外のいずれかに特定する特徴物検出機能と、
前記車両の乗員の視線位置と前記特徴物検出機能の検出結果に基づいて、前記車両の乗員が視認する視認領域を前記車両の車内、フロントガラス又は車外のいずれかに特定する視認領域特定機能と、
前記車両の乗員の視線位置と前記特徴物検出機能の検出結果と前記視認領域特定機能により特定された前記車両の乗員の視認領域とに基づいて、前記乗員の視認領域又は視線位置の案内を行う案内機能と、
を実行させることを特徴とするコンピュータプログラム。 On the computer,
A first imaging function for imaging a windshield direction from the interior of the vehicle by a first imaging device installed in the interior of the vehicle;
A second imaging function for imaging in the same direction as the first imaging device by a second imaging device installed outside the vehicle in front of the vehicle windshield;
A line-of-sight position detection function for detecting a line-of-sight position where the line of sight of the passenger of the vehicle is located;
Features to be visually recognized by the occupant based on the first captured image captured by the first imaging function, the second captured image captured by the second imaging function, and the line-of-sight position of the occupant of the vehicle And a feature detection function for specifying the position of the feature as either inside the vehicle, windshield or outside the vehicle when it is determined that the feature exists.
A visual recognition area specifying function for specifying a visual recognition area to be visually recognized by an occupant of the vehicle based on a line-of-sight position of the occupant of the vehicle and a detection result of the feature detection function; ,
Guidance of the occupant's visual recognition area or visual line position is performed based on the sight line position of the occupant of the vehicle, the detection result of the feature detection function, and the visual recognition area of the occupant of the vehicle specified by the visual recognition area specifying function. Guide function,
A computer program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013022314A JP2014153867A (en) | 2013-02-07 | 2013-02-07 | Travel support system, travel support method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013022314A JP2014153867A (en) | 2013-02-07 | 2013-02-07 | Travel support system, travel support method and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014153867A true JP2014153867A (en) | 2014-08-25 |
Family
ID=51575695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013022314A Pending JP2014153867A (en) | 2013-02-07 | 2013-02-07 | Travel support system, travel support method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014153867A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107851423A (en) * | 2015-07-29 | 2018-03-27 | 富士胶片株式会社 | Projection display device and method for controlling projection |
-
2013
- 2013-02-07 JP JP2013022314A patent/JP2014153867A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107851423A (en) * | 2015-07-29 | 2018-03-27 | 富士胶片株式会社 | Projection display device and method for controlling projection |
CN107851423B (en) * | 2015-07-29 | 2020-09-22 | 富士胶片株式会社 | Projection display device and projection control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190251374A1 (en) | Travel assistance device and computer program | |
JP4935145B2 (en) | Car navigation system | |
JP5729176B2 (en) | Movement guidance system, movement guidance apparatus, movement guidance method, and computer program | |
JP2014120111A (en) | Travel support system, travel support method, and computer program | |
JP2018173862A (en) | Driving support apparatus and computer program | |
JP5327025B2 (en) | Vehicle travel guidance device, vehicle travel guidance method, and computer program | |
JP2014163814A (en) | Travel guide system, travel guide method, and computer program | |
JP2014120114A (en) | Travel support system, travel support method, and computer program | |
JP2018173399A (en) | Display device and computer program | |
WO2018180756A1 (en) | Drive assistance system | |
JP6825433B2 (en) | Virtual image display device and computer program | |
JP6136238B2 (en) | Driving support system, driving support method, and computer program | |
JP2019056884A (en) | Superimposed image display device | |
JP2019010919A (en) | Travel support device and computer program | |
JP2014120113A (en) | Travel support system, travel support method, and computer program | |
JP2009031943A (en) | Facility specification device, facility specification method, and computer program | |
JP2017062706A (en) | Travel support system, travel support method, and computer program | |
JP5803624B2 (en) | Vehicle control system, vehicle control device, vehicle control method, and computer program | |
JP6435798B2 (en) | Vehicle information guidance system, vehicle information guidance method, and computer program | |
JP2008090683A (en) | Onboard navigation device | |
JP5712847B2 (en) | Traffic light increase / decrease detection system, traffic light increase / decrease detection device, traffic light increase / decrease detection method, and computer program | |
JP2014154125A (en) | Travel support system, travel support method and computer program | |
JP2010085203A (en) | Navigation device and guidance method | |
JP6136237B2 (en) | Driving support system, driving support method, and computer program | |
JP2014153867A (en) | Travel support system, travel support method and computer program |