JP7228472B2 - 認識装置、認識方法、およびプログラム - Google Patents

認識装置、認識方法、およびプログラム Download PDF

Info

Publication number
JP7228472B2
JP7228472B2 JP2019107386A JP2019107386A JP7228472B2 JP 7228472 B2 JP7228472 B2 JP 7228472B2 JP 2019107386 A JP2019107386 A JP 2019107386A JP 2019107386 A JP2019107386 A JP 2019107386A JP 7228472 B2 JP7228472 B2 JP 7228472B2
Authority
JP
Japan
Prior art keywords
driver
target
recognition
visual field
field range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019107386A
Other languages
English (en)
Other versions
JP2020201670A (ja
Inventor
雅紀 丸山
実 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019107386A priority Critical patent/JP7228472B2/ja
Priority to US16/884,105 priority patent/US11390297B2/en
Priority to CN202010492306.9A priority patent/CN112052716B/zh
Publication of JP2020201670A publication Critical patent/JP2020201670A/ja
Application granted granted Critical
Publication of JP7228472B2 publication Critical patent/JP7228472B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、認識装置、認識方法、およびプログラムに関する。
従来、ドライバカメラで撮像された撮像画像から運転者の視線位置、視線円及び視野領域を検出し、フロントカメラで撮像された撮像画像から車両の進行方向前方にある特徴物を検出し、特徴物と視線円との重複態様に基づいて、特徴物への運転者の視認態様を特定し、特定された視認態様に基づいて特徴物に関する案内を行う走行支援システムに関する技術が開示されている(例えば、特許文献1参照)。
特開2014-120114号公報
従来の技術では、特徴物の領域と運転者における視線円の領域との重複度合いを求めるための処理の負荷が高かった。
本発明は、上記の課題認識に基づいてなされたものであり、移動体の進行方向における物標を運転者が認識しているか否かを低負荷で判定することができる認識装置、認識方法、およびプログラムを提供することを目的としている。
この発明に係る認識装置は、以下の構成を採用した。
(1):この発明の一態様に係る認識装置は、視線検知装置の検知結果を参照し、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識する視野認識部と、前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識し、前記認識した物標の領域を所定形状で設定する物標領域設定部と、前記物標の領域において複数の判定点を設定し、前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定する運転者認識判定部と、を備える認識装置である。
(2):上記(1)の態様において、前記複数の判定点は、少なくとも、前記物標の領域の中心点と、前記視線方向上の直線または点と前記物標の領域との最近接点および最遠隔点とを含むものである。
(3):上記(2)の態様において、前記所定形状は、前記物標を中心とした直方体形状である。
(4):上記(3)の態様において、前記運転者認識判定部は、前記画像データが表す画像平面上に前記視野範囲を射影し、射影した前記視野範囲と前記複数の判定点との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定するものである。
(5):上記(4)の態様において、前記運転者認識判定部は、前記物標の属性に基づいて、前記運転者が前記物標を認識していると判定する際の基準となる、前記視野範囲内に位置する前記判定点の数を変更するものである。
(6):上記(5)の態様において、前記運転者認識判定部は、前記基準となる数の前記判定点が所定時間を超えて前記視野範囲内に位置している場合に、当該判定点を含む前記物標を前記運転者が認識している状態であると判定するものである。
(7):上記(6)の態様において、前記所定時間は、前記基準となる数の前記判定点が所定期間内で前記視野範囲内に位置している複数の時間を積算した時間である。
(8):上記(6)または(7)の態様において、前記運転者認識判定部は、前記物標の属性に基づいて、前記所定時間を変更するものである。
(9):上記(8)の態様において、前記運転者認識判定部は、前記判定点が前記視野範囲内に位置している時間の長さに応じて、前記運転者が前記物標を認識している状態が、前記物標を部分的に認識している状態であるか、前記物標を認識している状態であるかを判定し、前記運転者が認識をしていないと判定した前記物標の存在を、第1の態様で報知装置に報知させ、前記運転者による認識が前記部分的に認識している状態であると判定した前記物標の存在を、第2の態様で前記報知装置に報知させるものである。
(10):上記(9)の態様において、前記運転者認識判定部は、存在を報知した前記物標に対する前記運転者による認識が前記認識している状態となった場合に、前記報知装置に当該前記物標に関する報知を終了させるものである。
(11):上記(1)から(10)のうちいずれか一態様において、前記運転者認識判定部は、それぞれの前記物標に対する前記運転者の認識の状態を付与し、前記付与される状態は所定時間記録されるとともに、前記視野範囲に前記物標が複数存在する場合に、前記認識状態が付与された前記物標が認識中の対象であると判定するものである。
(12):また、この発明の一態様に係る認識方法は、コンピュータが、視線検知装置の検知結果を参照し、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識し、前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識し、前記認識した物標の領域を所定形状で設定し、前記物標の領域において複数の判定点を設定し、前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定する、認識方法である。
(13):また、この発明の一態様に係るプログラムは、コンピュータに、視線検知装置の検知結果を参照して、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識させ、前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識させ、前記認識した物標の領域を所定形状で設定させ、前記物標の領域において複数の判定点を設定させ、前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定させる、プログラムである。
上述した(1)~(11)の態様によれば、移動体の進行方向における物標を運転者が認識しているか否かを低負荷で判定することができる。
実施形態に係る認識装置を備える認識システム1の概略構成図である。 視線検知装置200の一例を示す図である。 視線検知装置200が検知する視線の方向と、運転者認識判定部350が射影する視野範囲との関係の一例を示す図である。 運転者認識判定部350が運転者DRによる物標に対する認識状態を判定する方法の一例を示す図である。 運転者認識判定部350が運転者DRによる物標に対する認識状態を判定する具体例を示す図である。 運転者認識判定部350が運転者DRによる物標に対する認識状態を判定する別の具体例を示す図である。 運転者認識判定部350が運転者DRによる物標に対する認識状態を判定するより具体的な一例を示す図である。 認識装置300により実行される処理の流れの一例を示すフローチャートである。 運転者認識判定部350が運転者DRによる認識がされている物標を判定する一例の第1シーンを示す図である。 運転者認識判定部350が運転者DRによる認識がされている物標を判定する一例の第2シーンを示す図である。
以下、図面を参照し、本発明の認識装置の実施形態について説明する。以下の説明においては、本発明の認識装置を含む認識システムの一例について説明する。なお、以下では、左側通行の法規が適用される場合について説明するが、右側通行の法規が適用される場合には、左右を逆に読み替えればよい。
[認識システム1の全体構成例]
図1は、実施形態に係る認識装置を備える認識システム1の概略構成図である。認識システム1が搭載される車両は、例えば、四輪の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
認識システム1は、例えば、視覚センサ100と、視線検知装置200と、認識装置300と、報知装置400とを備える。
視覚センサ100は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。視覚センサ100は、認識システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、視覚センサ100は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。視覚センサ100は、例えば、周期的に繰り返し自車両Mの周囲を撮像する。視覚センサ100は、自車両Mの周囲を撮像した画像の画像データを、認識装置300に出力する。
なお、視覚センサ100は、平面画像を撮像するものではなく、距離を含めた3次元画像を撮像するものであってもよい。例えば、視覚センサ100は、ステレオカメラであってもよい。また、例えば、視覚センサ100は、LIDAR(Light Detection and Ranging)であってもよい。LIDARである場合、視覚センサ100は、自車両Mの周囲に光を照射し、散乱光を測定する。視覚センサ100は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。視覚センサ100が、自車両Mの周囲を3次元空間として撮像する構成である場合、撮像した画像に含まれるそれぞれの被写体(他車両や、歩行者、自転車、固定物など)との間の距離の情報が含まれる画像データを認識装置300に出力してもよい。以下の説明においては、視覚センサ100が平面画像を撮像し、画像データを認識装置300に出力するものとする。
視線検知装置200は、例えば、CCDやCMOS等の固体撮像素子とLED(light emitting diode:発光ダイオード)を利用した視線計測(検知)カメラを含む。視線検知装置200は、認識システム1が搭載される自車両Mの車室内において、自車両Mの運転席に着座している運転者の視線の方向を検知することができる任意の箇所に取り付けられる。視線検知装置200は、画像解析装置を含み、例えば、人間の目における角膜の部分とその周囲の部分(いわゆる、強膜の部分)とで一定方向から照射された光に対する歪みに差があることを利用して、運転者の視線の方向を検知する。より具体的には、視線検知装置200は、例えば、LEDに運転者の目の方向に近赤外光を照射させ、撮像した運転者の目の領域において照射した近赤外光の像が歪んでいる部分を検出することによって、運転者の視線の方向を検知する。視線検知装置200は、検知した運転者の視線の方向を表す情報(以下、視線情報)を、検知結果として認識装置300に出力する。
[視線検知装置200の一例]
ここで、認識システム1を構成する視線検知装置200の一例について説明する。図2は、視線検知装置200の一例を示す図である。図2に示した視線検知装置200は、2つの視線検知部210を備える。図2には、2つの視線検知部210のそれぞれを自車両Mの車室内に配置する一例を示している。
自車両Mの車室内には、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中Y方向)に設けられた助手席ASとが存在する。また、自車両Mの車室には、前方の窓枠にフロント窓ガラス10が存在し、運転席ドアの窓枠にサイド窓ガラス11Rが存在し、助手席ドアの窓枠にサイド窓ガラス11Lが存在する。運転席DSに着座している運転者は、フロント窓ガラス10、サイド窓ガラス11R、およびサイド窓ガラス11Lを通して、自車両Mの車外の前方および側方の状況を認識することができる。また、自車両Mの車室には、前方の上部にルームミラー12が存在し、運転席ドアの前方の車外にサイドミラー13Rが存在し、助手席ドアの前方車外にサイドミラー13Lが存在する。運転席DSに着座している運転者は、ルームミラー12、サイドミラー13R、およびサイドミラー13Lを介して、車外の後方の状況を認識することができる。
図2に示したような自車両Mの車室内において、視線検知装置200が備える第1視線検知部210-1と第2視線検知部210-2とのそれぞれは、車幅方向において運転者を挟む異なる位置に配置される。より具体的には、第1視線検知部210-1は、フロント窓ガラス10の右側とサイド窓ガラス11Rの前方との間の右側のフロントピラー(いわゆる、Aピラー)ARに配置される。また、第2視線検知部210-2は、運転席DSと助手席ASとの間のダッシュボードに設けられた、例えば、ナビゲーション装置のディスプレイDPの上部に配置される。これにより、視線検知装置200は、運転席DSに着座している運転者の顔の向きに関係なく、運転者の視線の方向を検知することができる。例えば、視線検知装置200は、運転者の顔の向きが変わることが想定されるサイドミラー13Rからサイドミラー13Lまでの間で、少なくともいずれかの視線検知部210によって、運転者の視線の方向を検知することができる。
なお、図2に示した第1視線検知部210-1と第2視線検知部210-2とのそれぞれの配置はあくまで一例であり、それぞれの視線検知部210を配置する位置は、自車両Mの車室内の構成に応じて適宜変更されてもよい。例えば、自車両Mが、フロント窓ガラス10とサイド窓ガラス11Rとの間や、フロント窓ガラス10とサイド窓ガラス11Lとの間にコーナ窓ガラスが設けられている場合、第1視線検知部210-1は、フロント窓ガラス10とサイド窓ガラス11Rとの間の右側のコーナ窓ガラスとの間のフロントピラーに配置されてもよい。また、第1視線検知部210-1と第2視線検知部210-2とのそれぞれを配置するための構成に関しては、車室内の構造物に埋め込む方法に限定されるものではなく、運転者が自車両Mの車外の状況を認識することができる、つまり、車外の様子を見る際に妨げとならない構成であれば、いかなる構成であってもよい。例えば、第1視線検知部210-1は、フロントピラーARから運転者の方向に延びる支持部材の運転者側の端部に取り付けられる構成であってもよい。
図1に戻り、認識装置300は、視覚センサ100により出力された画像データと、視線検知装置200により出力された視線情報とに基づいて、運転者が、自車両Mの周囲に存在する物標を認識しているか否かを判定する。また、認識装置300は、運転者が認識していないと判定した物標、または認識度合いが低いと判定した物標が存在する方向を、報知装置400に指示して運転者を含む乗員に報知させる。
認識装置300は、例えば、物標領域設定部310と、視野認識部330と、運転者認識判定部350とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサと、プログラム(ソフトウェア)を記憶した記憶装置(非一過性の記憶媒体を備える記憶装置)とを備え、プロセッサがプログラムを実行することによりそれぞれの構成要素の機能が実現される。また、認識装置300が備える構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)などによって実現されてもよいし、ソフトウェアとハードウェアの協働によってそれぞれの構成要素の機能が実現されてもよい。また、認識装置300が備える構成要素のうち一部または全部は、専用のLSIによってそれぞれの構成要素の機能が実現されてもよい。ここで、プログラム(ソフトウェア)は、予めROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶装置にインストールされてもよい。また、プログラム(ソフトウェア)は、他のコンピュータ装置から近距離通信または広域通信によって予めダウンロードされて、記憶装置にインストールされてもよい。
物標領域設定部310は、視覚センサ100により出力された画像データ内に写された物標を認識し、認識した物標の領域を所定の形状で表した物標領域を設定する。ここで、物標領域設定部310が画像データから認識する物標としては、例えば、自車両Mの周囲に存在する他車両、歩行者、自転車、静止物などがある。他車両には、同じ走行車線または隣接する走行車線を走行している他車両や、対向車線を走行する対向車両が含まれる。また、静止物には、信号機や駐車車両などが含まれる。物標領域設定部310は、認識したそれぞれの物標を中心としてその物標の周囲を直方体形状で囲んだ(部分的に物標の内部に入り込んでもよい)物標領域を設定する。例えば、物標領域設定部310は、認識した物標の特徴点を抽出し、抽出したそれぞれの特徴点を包含する、十分に小さい直方体形状を、物標領域として設定する。なお、物標領域設定部310は、認識する物標が画像データ内に写されている角度によっては、その物標に対して直方体形状の物標領域ではなく、矩形形状の物標領域を設定してもよい。このような物標の特徴点の抽出や、物標領域の設定は、例えば、既存の画像処理の技術においてバウンディングボックスを生成する処理を用いて行うことができる。このため、物標領域設定部310が設定した物標領域を、バウンディングボックスと称してもよい。
物標領域設定部310は、視覚センサ100により出力された画像データと、設定した物標領域を表す情報とを、運転者認識判定部350に出力する。物標領域設定部310が運転者認識判定部350に出力する物標領域を表す情報には、物標領域設定部310が認識した物標の属性に関する情報を含む。物標領域設定部310は、認識した物標の属性を判定する属性判定機能を有する。ここで、属性とは、物標領域設定部310が認識した物標が、高速で移動する他車両などの移動体であるか、低速で移動する歩行者や自転車などの移動体であるか、道路に設置された信号機などの移動しない固定物であるか、走行経路上に存在する駐車車両などの移動物ではあるが現在は静止している静止物であるかを表すものである。
視野認識部330は、視線検知装置200により出力された視線情報を参照して、運転者の視線の方向に広がる視野の範囲(視野範囲)を認識する。例えば、視野認識部330は、運転者の視点を頂点として視線の方向に延出し、視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識する。視野認識部330は、視線検知装置200により出力された視線情報と、認識した視野範囲を表す情報とを、運転者認識判定部350に出力する。
運転者認識判定部350は、物標領域設定部310により出力された画像データおよび物標領域の情報と、視野認識部330により出力された視線情報および視野範囲の情報とに基づいて、自車両Mの周囲に存在する物標に対する運転者が物標を認識しているか否か(以下、認識状態)を判定する。例えば、運転者認識判定部350は、物標領域設定部310により出力された画像データ、つまり、視覚センサ100が撮像した画像空間内で運転者の認識状態を判定する。このため、運転者認識判定部350は、まず、物標領域設定部310により出力された画像データ、つまり、視覚センサ100が撮像した画像の画像データを仮想的なスクリーンに射影する。運転者認識判定部350が画像データを射影する仮想的なスクリーンとしては、例えば、フロント窓ガラスに相当するスクリーンが考えられる。以下の説明においては、運転者認識判定部350が画像データを射影するスクリーンが、フロント窓ガラスの面に沿って仮想的に存在するものとする。
そして、運転者認識判定部350は、仮想的に射影した画像データが表す画像平面上に、物標領域設定部310が設定した物標領域を射影する。さらに、運転者認識判定部350は、物標領域を射影した同じ画像平面上に、視野認識部330により出力された運転者の視野範囲を射影する。なお、物標領域を射影した同じ画像平面上に運転者の視野範囲を射影する際には、画像データ内に写された物標の3次元空間内の位置と、画像平面上での運転者DRの視線の位置とが整合されるように射影する。この物標の3次元空間内の位置と画像平面上での運転者DRの視線の位置との整合は、運転者認識判定部350が画像データ、物標領域、および視野範囲を射影する際に行ってもよいし、自車両Mにおいて視覚センサ100が取り付けられた位置と視線検知装置200が取り付けられた位置との差(例えば、角度の差)に応じて予め定められた位置に運転者認識判定部350が射影するようにしておいてもよい。また、視覚センサ100と視線検知装置200とのそれぞれにおける検出位置が同じ位置となるように、自車両Mに視覚センサ100を取り付ける位置と、視線検知装置200を取り付ける位置とが決められてもよい。
そして、運転者認識判定部350は、視野認識部330により出力された運転者の視線の方向を表す直線または視野範囲の中心点を運転者の注視点とし、この注視点と物標領域との位置関係に基づいて、物標領域に対して複数の判定点を設定する。ここで、運転者認識判定部350が設定する判定点には、少なくとも、物標領域の中心点、運転者の視線の方向を表す直線または注視点と物標領域との間の最近接点、および最遠隔点を含む。
運転者認識判定部350は、設定したそれぞれの判定点と視野範囲との重複度合いに基づいて、物標領域設定部310が認識した自車両Mの周囲に存在するそれぞれの物標に対する運転者の認識状態を判定する。このとき、運転者認識判定部350は、物標領域設定部310が認識したそれぞれの物標の属性に基づいて、それぞれの物標に対する運転者の認識状態を判定する際の基準となる、判定点と視野範囲との重複度合いを変更してもよい。例えば、運転者認識判定部350は、運転者が物標を認識していると判定する際の基準となる、視野範囲内に位置する判定点の数を、物標領域の属性に基づいて変更してもよい。
また、運転者認識判定部350は、それぞれの判定点が視野範囲に重複している時間の長さに応じて、それぞれの物標に対する運転者の認識状態を判定する。例えば、運転者認識判定部350は、それぞれの判定点が視野範囲に重複している時間が第1所定時間以下である場合に、この物標は自車両Mの走行を継続する際にリスクとなる可能性がある物標として運転者が認識をしていない状態(以下、未認識状態)であると判定する。また、例えば、運転者認識判定部350は、それぞれの判定点が視野範囲に重複している時間が第1所定時間を超えているが、第2所定時間以下である場合に、この物標は運転者の視野に入ってはいたが、自車両Mの走行を継続する際にリスクとなる可能性がある物標として運転者が十分な認識をしていない(認識度合いが低い)状態(以下、部分的な認識状態)であると判定する。また、例えば、運転者認識判定部350は、それぞれの判定点が視野範囲に重複している時間が第2所定時間を超えている場合に、この物標は運転者の視野に入り、さらに自車両Mの走行を継続する際にリスクとなる可能性がある物標として運転者が十分に認識をしている状態(以下、十分な認識状態)であると判定する。このとき、運転者認識判定部350は、物標領域設定部310が認識したそれぞれの物標の属性に基づいて、それぞれの物標に対する運転者の認識状態を判定する際の基準となる、判定点が視野範囲に重複している時間、例えば、第1所定時間や第2所定時間を変更してもよい。
なお、運転者認識判定部350は、所定期間内にそれぞれの判定点が視野範囲に重複している複数の時間を積算(累積)した時間の長さに応じて、それぞれの物標に対する運転者の認識状態を判定してもよい。これは、運転者が自車両Mを運転する際には、常に同じ方向を向いているわけではなく、様々な方向に視線の向きが変わるためである。そして、所定の短い期間以内に物標が運転者の視野に複数回入った場合には、運転者による認識状態が十分な認識状態であると判定することができる物標もあるからである。
また、運転者認識判定部350は、判定したそれぞれの物標に対する運転者の認識状態に基づいて、未認識状態または部分的な認識状態の物標(つまり、自車両Mの走行を継続する際にリスクとなる可能性がある物標として運転者が認識をしていないまたは認識度合いが低い物標)が存在する方向を、報知装置400に報知させる。このとき、運転者認識判定部350は、物標の存在を報知させるための報知指示を、報知装置400に出力する。運転者認識判定部350が報知装置400に出力する報知指示には、運転者に報知する物標が存在する方向の情報が含まれる。
報知装置400は、例えば、自車両Mの車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。報知装置400は、運転者認識判定部350からの報知指示に従って、複数のスピーカのうち一部または全部に音声を出力させる。このとき、報知装置400は、運転者認識判定部350からの報知指示に含まれる運転者に報知する物標が存在する方向の情報が表す方向に、報知のための音像を定位させる制御を行う。なお、音像を定位させる制御とは、例えば、運転者の左右の耳に伝達される音の大きさを調節することにより、運転者が感じる音源の空間的な位置を定めることである。なお、本発明においては、音像を定位させる空間的な位置を制御する方法や構成に関しては特に規定しない。従って、音像の定位する位置は、音源が元々保有している音特性や、自車両Mの車室内環境の情報、頭部伝達関数(HRTF;Head-related transfer function)に基づいて定まるため、報知装置400は、予め官能試験などで得られた最適な出力配分でそれぞれのスピーカを制御することで、音像を所定の位置に定位させてもよい。これにより、運転者は、自車両Mが走行を継続する際にリスクとして認識する必要がある、未認識状態または部分的な認識状態の物標が存在する方向を知ることができる。
なお、報知装置400は、例えば、自車両Mのフロント窓ガラスの面内に画像や情報を表示させる表示装置(いわゆる、ヘッドアップディスプレイ装置)を含んでもよい。これにより、運転者は、自車両Mが走行を継続する際にリスクとして認識する必要がある物標の存在を、視覚的に知ることができる。
このように、認識システム1では、視覚センサ100が撮像した物標と、視線検知装置200により検出した運転者の視線の方向とに基づいて、自車両Mの周囲に存在する物標に対する運転者の認識状態を判定し、自車両Mの走行を継続する際にリスクとなる可能性がある物標の存在を、運転者に報知する。これにより、認識システム1が搭載される自車両Mでは、運転者が、報知された物標に対応する自車両Mの操作(運転)やその準備を事前に行うことができ、より安全に走行を継続することができる。
[視野範囲の一例]
次に、認識システム1において視線検知装置200が検知する視線の方向と、認識装置300における視野範囲との関係について説明する。図3は、視線検知装置200が検知する視線の方向と、運転者認識判定部350が射影する視野範囲との関係の一例を示す図である。図3には、自車両Mの前方のフロント窓ガラス10、サイド窓ガラス11R、およびサイド窓ガラス11Lを模式的に示し、自車両Mの運転者DRが前方を見ている場合において、視線検知装置200が検知した運転者DRの視線の方向と、運転者認識判定部350が画像平面上に射影した視野認識部330が認識した視野範囲との関係を示している。なお、図3では、説明を容易にするため、フロントピラーARおよびフロント窓ガラス10の左側とサイド窓ガラス11Lの前方との間の左側のフロントピラー(Aピラー)ALの図示を省略している。また、図3には、物標領域設定部310が物標として認識して設定した物標領域の一例も併せて示している。
運転者DRの視野範囲VRは、運転者DRの視点VPを頂点として運転者DRの視線を表す視線ベクトルGVの方向(奥行き方向)に延出し、視点VPから遠くなるのにつれて所定角度(頂角AA)で広がる円錐状の視線ビーム範囲GRの範囲内にある。認識装置300において視野範囲VRは、視線ビーム範囲GRの範囲内において、視線ベクトルGV上で運転者DRが注視している注視点APの位置を中心とした楕円形の範囲である。これは、認識装置300(より具体的には、運転者認識判定部350)が、物標領域設定部310により出力された画像データをフロント窓ガラス10の面に沿って仮想的に射影した場合であっても、運転者DRが自車両Mの前方の路面を見ている、つまり、運転者DRの注視点APが路面上に存在するものと仮定するためである。言い換えれば、フロント窓ガラス10の面に沿って画像データを射影した場合でも、運転者DRが物体を見ているときの視線ビームは、路面に対する距離が一定の距離ではないことを、画像平面に沿って射影する円錐状の視線ビーム範囲GRの範囲内の視野範囲VRに反映させるためである。
運転者認識判定部350は、フロント窓ガラス10に沿って射影した画像データが表す画像平面上を注視点APおよび視野範囲VRが移動する、例えば、フロント窓ガラス10の面内を注視点APおよび視野範囲VRが移動するものとして、それぞれの物標に対する運転者DRの認識状態を判定する処理を行う。より具体的には、運転者認識判定部350は、フロント窓ガラス10に沿って射影した画像データが表す画像平面上で、物標領域設定部310が認識して設定したそれぞれの物標の物標領域BB(より具体的には、それぞれの物標領域BBに対して設定したそれぞれの判定点)と視野範囲VRとの重複度合いに基づいて、それぞれの物標に対する運転者DRの認識状態を判定する処理を行う。図3において運転者認識判定部350は、視線ビーム範囲GRと重複していない物標領域BB3が設定された他車両を、運転者DRによって認識されていない状態(未認識状態)であると判定する。また、図3において運転者認識判定部350は、視線ビーム範囲GRと重複している物標領域BB1および物標領域BB2が設定されたそれぞれの他車両を、運転者DRによって認識されている状態であると判定する。なお、運転者認識判定部350は、物標領域BB1が設定された他車両と物標領域BB2が設定された他車両とのそれぞれについて、部分的な認識状態であるか十分な認識状態であるかも判定する。
[認識状態の判定方法の一例]
次に、認識システム1において運転者認識判定部350が運転者DRにおける物標の認識状態を判定する方法について説明する。図4は、運転者認識判定部350が運転者DRによる物標に対する認識状態を判定する方法の一例を示す図である。図4には、運転者DRの視線を表す視線ベクトルGVと、運転者認識判定部350が射影した物標領域BBおよび視野範囲VRとの関係を示している。運転者認識判定部350が、物標に対する運転者DRの認識状態を判定する際、射影した物標領域BBに対して、中心点CPと、視線ベクトルGVまたは注視点APと物標領域BBの間の最近接点NPと、視線ベクトルGVまたは注視点APと物標領域BBの間の最遠隔点FPとのそれぞれの判定点を設定する。そして、運転者認識判定部350は、視野範囲VRの範囲内にいくつの判定点が位置しているかに基づいて、物標領域BBが設定された物標に対する運転者DRの認識状態を判定する。図4においては、視野範囲VRの範囲内に1つの判定点(最近接点NP)が位置している状態を示している。
ここで、運転者認識判定部350が射影した物標領域BBと視野範囲VRとの関係における具体的な一例について説明する。図5および図6は、運転者認識判定部350が運転者DRによる物標に対する認識状態を判定する具体例を示す図である。なお、図5および図6では、説明を容易にするため、視覚センサ100が撮像した1フレームの画像IMの画像平面上に、物標領域設定部310が設定した物標領域BBと、視野認識部330が認識した視野範囲VRを射影した場合の一例を示している。また、図5および図6では、説明を容易にするため、注視点APに基づいてそれぞれの判定点を設定した場合の一例を示している。
まず、図5を用いて、運転者DRにおける物標に対する認識状態を判定する具体例を説明する。図5は、例えば、自車両Mが走行している方向と同じ方向に走行している前方の他車両、いわゆる、先行車両に対する運転者DRの認識状態を判定する場合の一例である。運転者DRの認識状態を判定する対象が、先行車両のような場合、物標領域設定部310によって、図5に示すような直方体形状の物標領域BBが設定される。
運転者認識判定部350は、画像IMの画像平面上に射影した直方体形状の物標領域BBに対して、中心点CPと、最近接点NPと、最遠隔点FPとのそれぞれの判定点を設定する。また、運転者認識判定部350は、画像IMの画像平面上に視野範囲VRを射影する。そして、運転者認識判定部350は、それぞれの判定点が視野範囲VR内に位置するか否かを判定する。図5に示した一例において運転者認識判定部350は、最近接点NPと中心点CPとが視野範囲VR内に位置する、つまり、2つの判定点が視野範囲VR内に位置すると判定する。そして、運転者認識判定部350は、視野範囲VR内に位置すると判定した判定点の数と視野範囲VR内に位置している時間の長さに応じて、運転者DRによる直方体形状の物標領域BB、つまり、直方体形状の物標領域BBが設定された先行車両に対する運転者DRの認識状態(部分的な認識状態または十分な認識状態)を判定する。
続いて、図6を用いて、運転者DRにおける物標に対する認識状態を判定する別の具体例を説明する。図6は、例えば、交差点などにおいて自車両Mの前方を横切るように走行している他車両、いわゆる、交差車両に対する運転者DRの認識状態を判定する場合の一例である。運転者DRの認識状態を判定する対象が、交差車両のような場合、物標領域設定部310によって、図6に示すような矩形形状の物標領域BBが設定される。
運転者認識判定部350は、画像IMの画像平面上に射影した矩形形状の物標領域BBに対して、中心点CPと、最近接点NPと、最遠隔点FPとのそれぞれの判定点を設定する。また、運転者認識判定部350は、画像IMの画像平面上に視野範囲VRを射影する。そして、運転者認識判定部350は、それぞれの判定点が視野範囲VR内に位置するか否かを判定する。図6に示した一例において運転者認識判定部350は、最近接点NPと中心点CPとの2つの判定点が視野範囲VR内に位置すると判定する。そして、運転者認識判定部350は、視野範囲VR内に位置すると判定した判定点の数と視野範囲VR内に位置している時間の長さに応じて、矩形形状の物標領域BBが設定された交差車両に対する運転者DRの認識状態を判定する。
次に、運転者認識判定部350が射影した物標領域BBと視野範囲VRとの関係におけるより具体的な一例について説明する。図7は、運転者認識判定部350が運転者DRによる物標に対する認識状態を判定するより具体的な一例を示す図である。なお、図7でも、説明を容易にするため、視覚センサ100が撮像した1フレームの画像IMの画像平面上に、物標領域設定部310が設定した物標領域BBと、視野認識部330が認識した視野範囲VRを射影した場合の一例を示している。また、図7でも、説明を容易にするため、注視点APに基づいてそれぞれの判定点を設定した場合の一例を示している。
図7には、画像IM内に、4つの物標が写されている場合を示している。より具体的には、自車両Mが走行している走行車線に隣接する走行車線(左側車線)を走行している他車両(以下、併走車両V1)と、同じ走行車線で前方を走行している他車両(以下、先行車両V2)と、隣接する反対側の走行車線を走行している他車両(以下、対向車両V3)と、歩道を通行している歩行者Hとが写されている場合を示している。この場合、物標領域設定部310は、認識したそれぞれの物標に対して物標領域BBを設定する。
運転者認識判定部350は、画像IMの画像平面上に物標領域設定部310によって設定されたそれぞれの物標領域BBを射影し、それぞれの物標領域BBに対して中心点CPと、最近接点NPと、最遠隔点FPとのそれぞれの判定点を設定する。また、運転者認識判定部350は、画像IMの画像平面上に、視野認識部330によって認識されたそれぞれの物標に対応する視野範囲VRを射影する。なお、運転者認識判定部350は、自車両Mとそれぞれの物標との間の距離に応じた大きさの視野範囲VRを、画像IMの画像平面上に射影する。なお、視野範囲VRの大きさは、円錐状の視線ビーム範囲GRの範囲内にあるため、運転者DRから近い位置ほど小さく、運転者DRから遠くなるほど大きくなる。このため、画像IMの画像平面上では、下端に近づくほど視野範囲VRの大きさが小さくなり、上端に近づくほど視野範囲VRの大きさが大きくなる。図7に示した一例において運転者認識判定部350は、併走車両V1に対応する視野範囲VR1を射影し、先行車両V2に対応する視野範囲VR2を射影し、対向車両V3に対応する視野範囲VR3を射影し、歩行者Hに対応する視野範囲VR4を射影している。
そして、運転者認識判定部350は、それぞれの物標領域BBに対して設定したそれぞれの判定点が視野範囲VR内に位置するか否かを判定する。図7に示した一例において運転者認識判定部350は、先行車両V2に対応する物標領域BB2の中心点CP2、最近接点NP2、および最遠隔点FP2が視野範囲VR2内に位置する、つまり、全ての判定点が視野範囲VR2内に位置すると判定する。また、図7に示した一例において運転者認識判定部350は、対向車両V3に対応する物標領域BB3の中心点CP3と最近接点NP3との2つの判定点が視野範囲VR3内に位置すると判定する。また、図7に示した一例において運転者認識判定部350は、歩行者Hに対応する物標領域BB4の中心点CP4、最近接点NP4、および最遠隔点FP4の全ての判定点が視野範囲VR4内に位置すると判定する。
なお、図7に示した一例において運転者認識判定部350は、併走車両V1に対応する物標領域BB1に対して設定した中心点CP1、最近接点NP1、および最遠隔点FP1のいずれも、視野範囲VR1内に位置しないと判定する。しかし、視野範囲VR1は全て、物標領域BB1である。この場合、運転者認識判定部350は、例えば、中心点CP1が視野範囲VR1内に位置する、つまり、1つの判定点が視野範囲VR1内に位置するものとして判定する。なお、視野範囲VR1のように、運転者DRに近い、つまり、自車両Mに近い位置の視野範囲VRおける判定点の判定をする場合、運転者認識判定部350は、例えば、視野範囲VR1の範囲を仮想的に広げた仮想視野範囲VVR1を設定し、仮想視野範囲VVR1内に位置する物標領域BB1の判定点を、視野範囲VR1内に位置する物標領域BB1の判定点として判定するようにしてもよい。
そして、運転者認識判定部350は、それぞれの視野範囲VR内に位置すると判定した判定点の数に応じて、それぞれの物標に対する運転者DRの認識状態を判定する。このとき、運転者認識判定部350は、物標領域設定部310が認識したそれぞれの物標の属性に基づいて、運転者DRにおける認識状態を判定するための基準となる判定点の数を変更してもよい。
例えば、物標領域設定部310が認識した物標の属性が、高速で移動している状態の他車両などの移動体である場合や道路に設置された信号機や駐車車両などの移動しない静止物である場合、運転者認識判定部350は、物標と運転者DR(つまり、自車両M)との間の距離に基づいて、運転者DRにおける認識状態を判定するための基準となる判定点の数を変更してもよい。例えば、運転者認識判定部350は、物標が運転者DRに近い(自車両Mに近い)位置に存在している場合には、運転者DRがこの物標を認識していると判定する際の基準となる視野範囲VR内に位置している判定点の数を1つとしてもよい。また、例えば、運転者認識判定部350は、物標が運転者DRから遠い(自車両Mから遠い)位置に物標が存在している場合には、運転者DRがこの物標を認識していると判定する際の基準となる視野範囲VR内に位置している判定点の数を3つとしてもよい。つまり、運転者認識判定部350は、視野範囲VR内に全ての判定点が位置していることを、運転者DRがこの物標を認識していると判定する際の基準としてもよい。そして、運転者認識判定部350は、物標が中間付近の位置に物標が存在している場合には、運転者DRがこの物標を認識していると判定する際の基準となる視野範囲VR内に位置している判定点の数を2つとしてもよい。
これにより、図7に示した一例において運転者認識判定部350は、1つの判定点(例えば、中心点CP1)のみが視野範囲VR1内に位置している併走車両V1を、基準を満足する物標として判定する。また、図7に示した一例において運転者認識判定部350は、全て(3つ)の判定点が視野範囲VR2内に位置している先行車両V2を、基準を満足する物標として判定する。また、図7に示した一例において運転者認識判定部350は、中間付近の位置に物標が存在し、2つの判定点(中心点CP3と最近接点NP3)が視野範囲VR3内に位置している対向車両V3を、基準を満足する物標として判定する。
なお、図7に示した一例のように、運転者認識判定部350が、先行車両V2に対応する視野範囲VR2を、画像IMの画像平面上で視野範囲VR2-2の位置に射影した場合、物標領域BB2の中心点CP2と最近接点NP2との2つの判定点のみが視野範囲VR2-2内に位置する。このため、運転者認識判定部350は、先行車両V2を、基準を満足する物標として判定しない。
また、画像処理の手法として、例えば、画像を点群と捉えて処理をする方法や、画像内における輝度の差が大きい点をエッジ点として認識し、それらの点により物標を認識する手法がある。このような画像処理の手法を用いる場合、すべての点を判定点とするのでなく、それぞれの物標においてより特徴のある点(例えば、自動車のテールライト部やナンバー、バイクのヘッドライトなど)や、物標における最遠隔点もしくは中心点などを代表点として設定し、設定した代表点を判定点として、基準を満足する物標であるか否かの判定をしてもよい。この場合、物標に応じて、代表点の位置を変えてもよい。
また、例えば、物標領域設定部310が認識した物標の属性が低速で移動している状態の歩行者や自転車などの小さな移動体である場合、運転者認識判定部350は、物標と運転者DR(つまり、自車両M)との間の距離にかかわらず、運転者DRがこの物標を認識していると判定する際の基準となる視野範囲VR内に位置している判定点の数を3つとしてもよい。つまり、運転者認識判定部350は、視野範囲VR内に全ての判定点が位置していることを、運転者DRがこの物標を認識していると判定する際の基準としてもよい。これにより、図7に示した一例において運転者認識判定部350は、全て(3つ)の判定点が視野範囲VR4内に位置している歩行者Hを、基準を満足する物標として判定する。
そして、運転者認識判定部350は、それぞれの視野範囲VR内に基準とする数の判定点が位置している(基準を満足する)時間の長さに応じて、それぞれの物標に対する運転者DRの認識状態(未認識状態、部分的な認識状態、または十分な認識状態)を判定する。言い換えれば、運転者認識判定部350は、運転者DRの視線が物標の位置に停留している時間の長さに応じて、それぞれの物標に対する運転者DRの認識状態を判定する。なお、運転者DRの視線が物標の位置に停留している時間の長さは、視野範囲VR内に基準とする数の判定点が位置している(基準を満足する)状態が継続している時間を計測することによって判定してもよいが、基準を満足する状態が視覚センサ100が撮像した何フレーム分にわたって継続しているかによって判定してもよい。
視野範囲VR内に基準とする数の判定点が位置している時間が、例えば、200[ms]程度の第1所定時間以下である場合、運転者認識判定部350は、この物標に対する運転者DRの認識状態が「未認識状態」であると判定する。また、視野範囲VR内に基準とする数の判定点が位置している時間が第1所定時間を超えているが、例えば、600[ms]程度の第2所定時間以下である場合、運転者認識判定部350は、この物標に対する運転者DRの認識状態が「部分的な認識状態」であると判定する。また、視野範囲VR内に基準とする数の判定点が位置している時間が第2所定時間を超えている場合、運転者認識判定部350は、この物標に対する運転者DRの認識状態が「十分な認識状態」であると判定する。
なお、上述した第1所定時間および第2所定時間はあくまで一例であり、それぞれの所定時間は、運転者DRにおける認識状態を複数段階に判定するために適宜変更されてもよい。また、運転者認識判定部350は、物標領域設定部310が認識したそれぞれの物標の属性に基づいて、第1所定時間および第2所定時間の長さを変更してもよい。例えば、物標領域設定部310が認識した物標の属性が高速で移動している状態の他車両などの移動体である場合、運転者認識判定部350は、第1所定時間や第2所定時間を長めの時間に変更してもよい。これにより、運転者認識判定部350は、運転者DRが他車両をより確実に認識している状態を判定することができる。また、例えば、物標領域設定部310が認識した物標の属性が低速で移動している状態の歩行者や自転車などの移動体、道路に設置された信号機や駐車車両などの移動しない静止物である場合、運転者認識判定部350は、第1所定時間や第2所定時間を短めの時間に変更してもよい。そして、運転者認識判定部350は、視野範囲VR内に基準とする数の判定点が位置している複数の時間を積算した時間の長さによって、歩行者などの移動体や静止物に対する運転者DRの認識状態を判定してもよい。これにより、運転者認識判定部350は、運転者DRが歩行者や自転車などの移動体、信号機や駐車車両など静止物を複数回見ることによって認識している状態を判定することができる。
そして、運転者認識判定部350は、判定したそれぞれの物標に対する運転者DRの認識状態に基づいて、運転者DRの認識状態が「未認識状態」である、または運転者DRの認識状態が「部分的な認識状態(認識度合いが低い)」である物標が存在する方向を報知させるための報知指示を、報知装置400に出力して、報知装置400に報知させる。
[認識装置300の処理一例]
次に、認識システム1における認識装置300の処理について説明する。図8は、認識装置300により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理は、視覚センサ100が1フレームの画像IMを撮像する所定の時間間隔ごとに繰り返し実行される。また、認識装置300が備える運転者認識判定部350は、視覚センサ100が撮像した画像IMの画像データ内に写されたそれぞれの物標に対する運転者DRの認識状態を判定する。しかし、以下の説明においては、説明を容易にするため、視覚センサ100が撮像した画像IMには1つの物標のみが写されているものとする。例えば、図7に示した具体的な一例において、画像IMの画像データ内に先行車両V2のみが写されているものとする。そして、運転者認識判定部350は、図7に示した先行車両V2に対する運転者DRの認識状態を判定するものとする。
視覚センサ100が1フレームの画像IMを撮像すると、物標領域設定部310は、視覚センサ100により出力された画像データを取得し、取得した画像データ内に写された物標(先行車両V2)を認識する(ステップS100)。そして、物標領域設定部310は、認識した(先行車両V2)に対して物標領域BB(物標領域BB2)を設定する(ステップS101)。物標領域設定部310は、取得した画像データと設定した物標領域BB2を表す情報とを、運転者認識判定部350に出力する。
次に、視野認識部330は、視線検知装置200により出力された視線情報を取得し、取得した視線情報を参照して、運転者DRの視野範囲VR(視野範囲VR2)を認識する(ステップS102)。そして、視野認識部330は、取得した視線情報と認識した視野範囲VR2を表す情報とを、運転者認識判定部350に出力する。
次に、運転者認識判定部350は、物標領域設定部310により出力された画像データを、フロント窓ガラス10の面に沿って仮想的に射影し、画像データが表す画像平面上に、物標領域設定部310が設定した物標領域BB2と、視野認識部330により出力された視野範囲VR2とのそれぞれを射影する。そして、運転者認識判定部350は、射影した物標領域BB2に対して判定点(中心点CP2、最近接点NP2、および最遠隔点FP2)を設定する(ステップS103)。
次に、運転者認識判定部350は、設定した物標領域BB2の判定点が視野範囲VR2内に位置する数を判定する(ステップS104)。そして、運転者認識判定部350は、視野範囲VR2内に位置する判定点の数が、射影した先行車両V2の位置における判定点の数の基準を満足するか否かを判定する(ステップS105)。つまり、運転者認識判定部350は、先行車両V2が基準を満足する物標であるか否かを判定する。
ステップS105において、先行車両V2が基準を満足する物標ではないと判定した場合、運転者認識判定部350は、先行車両V2が運転者DRの認識状態が「未認識状態」であるとして、先行車両V2が存在する方向を第1の態様で報知させるための報知指示を、報知装置400に出力する(ステップS106)。これにより、報知装置400は、先行車両V2が存在する方向を、第1の態様で運転者DRに報知する。そして、運転者認識判定部350は、視覚センサ100が撮像した現在の画像IMに対する本フローチャートの処理を終了する。
なお、報知装置400における第1の態様による報知方法としては、例えば、複数のスピーカによって先行車両V2が存在する方向に音像を定位させる方法であってもよい。また、報知装置400における第1の態様による報知方法としては、例えば、ヘッドアップディスプレイ装置によって先行車両V2が存在する方向を示す矢印や先行車両V2の位置を示す情報(例えば、物標領域BB)をフロント窓ガラス10に表示させる方法であってもよい。また、報知装置400における第1の態様による報知方法としては、音像の定位とフロント窓ガラス10への表示とを合わせた方法であってもよい。なお、上述した第1の態様による報知方法はあくまで一例であり、第1の態様による報知方法は、報知装置400の構成に応じて適宜変更されてもよい。
一方、ステップS105において、先行車両V2が基準を満足する物標であると判定した場合、運転者認識判定部350は、基準を満足する時間が第1所定時間(例えば、200[ms]程度)を超えているか否かを判定する(ステップS107)。ステップS107において、基準を満足する時間が第1所定時間を超えていないと判定した場合、運転者認識判定部350は、処理をステップS106に戻す。つまり、運転者認識判定部350は、先行車両V2が運転者DRの認識状態が「未認識状態」であるとして、報知装置400に第1の態様で運転者DRに報知させる。
一方、ステップS107において、基準を満足する時間が第1所定時間を超えていると判定した場合、運転者認識判定部350は、基準を満足する時間が第2所定時間(例えば、600[ms]程度)を超えているか否かを判定する(ステップS108)。ステップS108において、基準を満足する時間が第2所定時間を超えていないと判定した場合、運転者認識判定部350は、先行車両V2が運転者DRの認識状態が「部分的な認識状態」であるとして、先行車両V2が存在する方向を第2の態様で報知させるための報知指示を、報知装置400に出力する(ステップS109)。これにより、報知装置400は、先行車両V2が存在する方向を、第2の態様で運転者DRに報知する。そして、運転者認識判定部350は、視覚センサ100が撮像した現在の画像IMに対する本フローチャートの処理を終了する。
なお、報知装置400における第2の態様による報知方法は、第1の態様による報知方法よりは報知の度合いが低い方法である。例えば、第1の態様による報知方法が音像の定位とフロント窓ガラス10への表示とを合わせた方法である場合、第2の態様による報知方法としては、音像の定位を行わず、フロント窓ガラス10への表示のみを行う方法であってもよい。このとき、フロント窓ガラス10に表示させる情報は、先行車両V2が存在する方向を示す矢印、または先行車両V2の位置を示す情報のいずれか一方であってもよい。なお、上述した第2の態様による報知方法はあくまで一例であり、第2の態様による報知方法は、報知装置400の構成や第1の態様による報知方法との関係に応じて適宜変更されてもよい。
一方、ステップS108において、基準を満足する時間が第2所定時間を超えていると判定した場合、運転者認識判定部350は、先行車両V2が運転者DRの認識状態が「十分な認識状態」であるとして、視覚センサ100が撮像した現在の画像IMに対する本フローチャートの処理を終了する。
運転者認識判定部350は、このような処理(より具体的には、ステップS104~ステップS109処理)によって、視覚センサ100が撮像した現在の画像IMの画像データに含まれる全ての物標に対する運転者DRの認識状態を判定する。なお、運転者認識判定部350は、それぞれの物標に対する運転者DRの認識状態の判定結果を、所定時間(例えば、3~5[s]程度)の間保持する。これは、視覚センサ100が撮像したそれぞれの画像IMごとの判定結果では、運転者DRの視野、つまり視野範囲VRに入っている同じ物標に対する判定結果が常に「未認識状態」となり、報知装置400による報知が煩雑になるからである。運転者DRの認識状態の判定結果を保持することにより、視覚センサ100が撮像した画像IMの画像データに継続的に写され、運転者DRの視野に入っている同じ物標は、「未認識状態」→「部分的な認識状態」→「十分な認識状態」というように、運転者DRの認識状態が遷移していく。そして、運転者DRによる認識状態が「十分な認識状態」となった物標に対しては、報知装置400による報知がされなくなる。例えば、時間の経過に伴って歩行者が併走車両の影に隠れて基準を満足しない状態になってしまったが、その後に併走車両の影から再び表れて基準を満足することができるようになった場合、運転者認識判定部350は、保持している判定結果に基づいて、歩行者を基準を満足する物標として再度判定することができる。これにより、歩行者に対する報知装置400による再度の報知がされなくなる。
ただし、運転者認識判定部350は、運転者DRの認識状態の判定結果を保持している時間が所定時間を経過した後は、保持している判定結果をクリア(破棄)する。そして、運転者認識判定部350は、同じ物標に対する運転者DRの認識状態の判定を再度行うようにする。これは、例え運転者DRが自車両Mの走行を継続する際にリスクとなる可能性がある物標として十分に認識した「十分な認識状態」であっても、自車両Mが走行を継続している間は、周囲に存在するそれぞれの物標の状況は変化するため、定常的に物標を認識(変化を監視)する必要があるからである。
上記に述べたとおり、認識装置300では、視覚センサ100により出力された画像データを仮想的なスクリーンに射影し、画像平面上に画像データ内に写された物標の物標領域BBと、視線検知装置200により出力された視線情報を参照して認識した視野範囲VRとを射影して、自車両Mの周囲に存在する物標に対する運転者DRの認識状態を判定する。また、認識装置300では、運転者DRが自車両Mの走行を継続する際にリスクとなる可能性がある未認識状態または認識度合いが低い部分的な認識状態の物標が存在する方向を、報知装置400により運転者DRに報知させる。これにより、認識装置300を備える認識システム1が搭載される自車両Mでは、運転者DRが、報知された物標に対応する自車両Mの操作(運転)やその準備を事前に行うことができ、より安全に走行を継続することができる。
なお、認識装置300が備える運転者認識判定部350は、視覚センサ100が撮像した複数フレームの画像IMの画像データに基づいて、それぞれの物標に対する運転者DRの認識状態を判定する。このため、運転者認識判定部350は、例えば、自車両Mが走行している走行車線に隣接する走行車線の後方から自車両Mを追い抜いてきた他車両など、視覚センサ100が撮像した現在の画像IMに新たに撮像されたが、運転者DRはすでに十分な認識状態(以下、既認識状態)であると考えることができる他車両に関しては、運転者DRに認識させるための報知装置400による報知をしないようにすることもできる。
[既認識状態の判定方法の一例]
次に、認識システム1において運転者認識判定部350が、運転者DRがすでに十分な認識状態であると考えることができる物標に対する認識状態の判定方法について説明する。図9および図10は、運転者認識判定部350が運転者DRによる認識がされている物標を判定する一例のシーンを示す図である。図9および図10には、自車両Mの前方のフロント窓ガラス10、サイド窓ガラス11R、サイド窓ガラス11L、サイドミラー13R、サイドミラー13L、フロントピラーAR、およびフロントピラーALを模式的に示し、運転者DRにおけるそれぞれの物標に対する認識状態を判定している状態を示している。なお、図9に示したシーンが時間的に前の第1シーンであり、図10に示したシーンが時間的に後の第2シーンである。
以下の説明においては、視覚センサ100が、図9および図10に示した自車両Mの左側のサイド窓ガラス11L~右側のサイド窓ガラス11Rまでの間の画像と、サイドミラー13Lおよびサイドミラー13Rに対応する画像とを撮像するものとする。また、視線検知装置200が、図9および図10に示したサイドミラー13L~サイドミラー13Rまでの間の運転者DRの視線の方向を検知するものとする。そして、自車両Mが走行している走行車線に隣接する走行車線(左側車線)の後方を走行している自動二輪車が、自車両Mを追い抜いてきたものとする。
まず、図9を用いて、時間的に前の第1シーンにおける運転者DRの認識状態について説明する。運転者DRは、併走車両V1、先行車両V2、対向車両V3、および歩行者Hのそれぞれの物標を認識している状態である。なお、第1シーンにおいてそれぞれの物標を認識する際の物標領域BBと視野範囲VRとの関係に関する再度の説明は省略する。第1シーンにおいて、運転者DRがサイドミラー13Lにも視線を向けると、自動二輪車Cが左側車線の後方から自車両Mに近づいていることを認識することができる。このため、運転者認識判定部350は、第1シーンの画像平面上に、視野認識部330によって認識された、サイドミラー13Lに向けた運転者DRの視野範囲VR5を射影する。なお、物標領域設定部310は、サイドミラー13Lの範囲の画像では、自動二輪車Cの領域が小さいため、自動二輪車Cに対応する物標領域BBを設定できないことも考えられる。このため、第1シーンでは、運転者認識判定部350が、自動二輪車Cに対応する物標領域BBを画像平面上に射影していない場合を示している。
続いて、図10を用いて、第1シーンから時間が経過した後の第2シーンにおける運転者DRの認識状態について説明する。第1シーンから第2シーンに遷移した場合、自車両Mと併走車両V1および対向車両V3との位置関係が変化する。これに伴って、運転者DRにおけるそれぞれの物標の認識状態も変化する。第2シーンにおいて運転者DRは、先行車両V2のみを継続して認識している。このとき、第2シーンのように、左側車線を走行している自動二輪車が自車両Mを追い抜いてくると、運転者認識判定部350は、第2シーンの画像平面上に、物標領域設定部310が新たに設定した物標領域BB6と、視野認識部330が新たに認識した視野範囲VR6とのそれぞれを射影する。また、運転者認識判定部350は、物標領域BB6に対して中心点CP6と、最近接点NP6と、最遠隔点FP6とのそれぞれの判定点を設定する。そして、運転者認識判定部350は、物標領域BB6に対して設定したそれぞれの判定点が視野範囲VR6内に位置するか否かを判定して、自動二輪車Cに対する運転者DRの認識状態を判定する。
このとき、運転者認識判定部350は、第2シーンのみから自動二輪車Cに対する運転者DRの認識状態を判定すると、自動二輪車Cに対応する物標領域BB6に対して設定した中心点CP6が視野範囲VR6内に位置する、つまり、1つの判定点が視野範囲VR6内に位置すると判定する。なお、物標領域BB6は、運転者DRに近い(自車両Mに近い)位置に存在している物標領域BBであるため、1つの判定点(中心点CP6)のみ視野範囲VR6内に位置している場合でも、運転者認識判定部350は、判定点の数の基準を満足する物標として判定する。なお、視野範囲VR6内にいずれの判定点が位置していない場合、運転者認識判定部350は、仮想視野範囲VVR1と同様の考え方に基づいて視野範囲VR6の範囲を仮想的に広げた仮想視野範囲VVR6を設定して、視野範囲VR6内に位置する物標領域BB6の判定点を判定するようにしてもよい。
ここで、自動二輪車Cは、第2シーンにおいて視覚センサ100によって新たに撮像された物標である。このため、運転者認識判定部350は、視野範囲VR6内に判定点の数の基準数以上の判定点が位置している場合でも、少なくとも「十分な認識状態」であるとは自動二輪車Cを判定しない。このため、運転者認識判定部350は、自動二輪車Cが存在する方向を報知させるための報知指示を報知装置400に出力する。これにより、報知装置400は、自動二輪車Cが存在する方向を運転者DRに報知することになる。
しかし、第1シーンにおいて説明したように、運転者DRはサイドミラー13Lにも視線を向けており、すでに自動二輪車Cを十分に認識している状態であると考えることができる。このため、運転者認識判定部350は、運転者DRにおける物標の認識状態を所定時間だけ遡って判定する。これにより、運転者認識判定部350は、自動二輪車Cが存在する方向を報知させるための報知指示を、報知装置400に出力しないようにすることもできる。これにより、運転者認識判定部350は、すでに運転者DRの認識状態が十分な認識状態である物標に対して不必要な報知をしてしまうのを回避することができる。
なお、運転者認識判定部350が運転者DRの認識状態を遡って判定する所定時間は、判定結果を保持する所定時間(例えば、3~5[s]程度)以下の時間である。これは、運転者DRが自車両Mの走行を継続する際にリスクとなる可能性がある物標として自動二輪車Cを十分に認識した「十分な認識状態」であっても、上述したようにそれぞれの物標の状況は変化するため、定常的に物標を認識(変化を監視)する必要があることに変わりはないからである。
上記に述べたとおり、認識装置300では、すでに十分な認識状態であると考えることができる物標に対する運転者DRの認識状態の判定を遡って行うことができる。これにより、認識装置300を備える認識システム1が搭載される自車両Mでは、すでに運転者DRの認識状態が十分な認識状態である物標が存在する方向を不必要に報知しないようにすることができる。
なお、既認識状態の判定方法の一例において、図9に示した第1シーンでは、サイドミラー13Lの範囲の画像に基づいて物標領域設定部310が自動二輪車Cに対応する物標領域BBを設定できないものとして説明した。しかし、物標領域設定部310は、サイドミラー13Lの範囲の画像に基づいて自動二輪車Cのような小さい領域の物標に対応する物標領域BBを設定することができる場合もある。この場合、運転者認識判定部350は、第1シーンにおいて射影した物標領域BB5と、第2シーンにおいて射影した物標領域BB6とが、同じ自動二輪車Cに対応する物標領域BBであると判定することができた場合には、運転者DRにおける自動二輪車Cの認識状態を所定時間だけ遡らなくても判定することができる。これにより、運転者認識判定部350は、同様に、自動二輪車Cが存在する方向を報知させるための報知指示を報知装置400に出力せず、すでに運転者DRの認識状態が十分な認識状態である自動二輪車Cに対する不必要な報知を回避することができる。
また、本実施形態では、認識装置300が画像データを射影する仮想的なスクリーンが、フロント窓ガラス10の面に沿って存在するものとして説明した。しかし、仮想的なスクリーンが存在する位置は、フロント窓ガラス10の面に沿った位置に限定されない。例えば、仮想的なスクリーンが、自車両Mの車長方向の先端の位置に存在するものとしてもよい。
また、本実施形態では、視覚センサ100が自車両Mの周囲を2次元空間として撮像した画像の画像データに基づいて、認識装置300が運転者DRにおける物標の認識状態を判定する場合について説明した。しかし、認識装置300が運転者DRにおける物標の認識状態の判定に用いる画像は、自車両Mの周囲を3次元空間として撮像した画像の画像データであってもよい。この場合、認識装置300は、画像平面上ではなく、画像の3次元空間内で運転者DRにおける物標の認識状態を判定することができる。しかしながら、この場合における認識装置300の処理では、自車両Mから物標までの距離の情報を利用することができる以外は、上述した2次元空間の画像データに基づいて運転者DRにおける物標の認識状態を判定する処理と同様に考えることができる。従って、認識装置300が3次元空間の画像データに基づいて運転者DRにおける物標の認識状態を判定する処理に関する説明は省略する。
以上説明した実施形態の認識装置300によれば、視線検知装置200の検知結果を参照し、自車両Mの運転者DRの視点VPから視線方向(視線ベクトルGVの方向:奥行き方向)に延出し、視点VPから遠くなるのにつれて所定角度(頂角AA)で広がる範囲を視野範囲VRとして認識する視野認識部330と、自車両Mに配置された視覚センサ100により自車両Mの周囲が撮像された画像データに基づいて、画像データ内に写された自車両Mの周囲の環境に存在する物標(実施形態では、他車両や歩行者)を認識し、認識した物標の領域(物標領域BB)を所定形状で設定する物標領域設定部310と、物標の領域(物標領域BB)において複数の判定点(中心点CP、最近接点NP、最遠隔点FP)を設定し、複数の判定点と視野範囲VRとの重複度合いに基づいて、運転者DRが物標を認識しているか否かを判定する運転者認識判定部350と、を備えることにより、自車両Mの走行を継続する際にリスクとなる可能性がある物標の存在を、運転者DRに報知することができる。これにより、認識装置300を備える認識システム1が搭載される自車両Mでは、運転者DRが、報知された物標に対応する自車両Mの操作(運転)やその準備を事前に行うことができ、より安全に走行を継続することができる。
上記説明した実施形態は、以下のように表現することができる。
ハードウェアプロセッサと、
プログラムを記憶した記憶装置と、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを読み出して実行することにより、
視線検知装置の検知結果を参照し、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識し、
前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識し、前記認識した物標の領域を所定形状で設定し、
前記物標の領域において複数の判定点を設定し、前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定する、
ように構成されている、認識装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1・・・認識システム
10・・・フロント窓ガラス
11R,11L・・・サイド窓ガラス
12・・・ルームミラー
13R,13L・・・サイドミラー
100・・・視覚センサ
200・・・視線検知装置
210・・・視線検知部
210-1・・・第1視線検知部
210-2・・・第2視線検知部
300・・・認識装置
310・・・物標領域設定部
330・・・視野認識部
350・・・運転者認識判定部
400・・・報知装置
M・・・自車両
DR・・・運転者
SW・・・ステアリングホイール
DS・・・運転席
AS・・・助手席
AR,AL・・・フロントピラー
DP・・・ディスプレイ
BB,BB1,BB2,BB3,BB4,BB6・・・物標領域
CP,CP1,CP2,CP3,CP4,CP6・・・中心点
NP,NP1,NP2,NP3,NP4,NP6・・・最近接点
FP,FP1,FP2,FP3,FP4,FP6・・・最遠隔点
VR,VR1,VR2,VR2-2,VR3,VR4,VR5,VR6・・・視野範囲
AP,AP1,AP2,AP3,AP4,AP5,AP6・・・注視点
VVR1,VVR6・・・仮想視野範囲
V1,V2,V3・・・他車両(物標)
C・・・自動二輪車(物標)
H・・・歩行者(物標)
VP・・・視点
GV・・・視線ベクトル
AA・・・頂角
GR・・・視線ビーム範囲
IM・・・画像

Claims (12)

  1. 視線検知装置の検知結果を参照し、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識する視野認識部と、
    前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識し、前記認識した物標の領域を所定形状で設定する物標領域設定部と、
    前記物標の領域において複数の判定点を設定し、前記物標の属性に基づいて変更した前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定する運転者認識判定部と、
    を備え
    前記運転者認識判定部は、前記物標の属性に基づいて、前記運転者が前記物標を認識していると判定する際の基準となる、前記視野範囲内に位置する前記判定点の数を変更する、
    認識装置。
  2. 前記複数の判定点は、少なくとも、前記物標の領域の中心点と、前記視線方向上の直線または点と前記物標の領域との最近接点および最遠隔点とを含む、
    請求項1に記載の認識装置。
  3. 前記所定形状は、前記物標を中心とした直方体形状である、
    請求項2に記載の認識装置。
  4. 前記運転者認識判定部は、前記画像データが表す画像平面上に前記視野範囲を射影し、射影した前記視野範囲と前記複数の判定点との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定する、
    請求項3に記載の認識装置。
  5. 前記運転者認識判定部は、前記基準となる数の前記判定点が所定時間を超えて前記視野範囲内に位置している場合に、当該判定点を含む前記物標を前記運転者が認識している状態であると判定する、
    請求項に記載の認識装置。
  6. 前記所定時間は、前記基準となる数の前記判定点が所定期間内で前記視野範囲内に位置している複数の時間を積算した時間である、
    請求項に記載の認識装置。
  7. 前記運転者認識判定部は、前記物標の属性に基づいて、前記所定時間を変更する、
    請求項または請求項に記載の認識装置。
  8. 前記運転者認識判定部は、前記判定点が前記視野範囲内に位置している時間の長さに応じて、前記運転者が前記物標を認識している状態が、前記物標を部分的に認識している状態であるか、前記物標を認識している状態であるかを判定し、
    前記運転者が認識をしていないと判定した前記物標の存在を、第1の態様で報知装置に報知させ、
    前記運転者による認識が前記部分的に認識している状態であると判定した前記物標の存在を、第2の態様で前記報知装置に報知させる、
    請求項に記載の認識装置。
  9. 前記運転者認識判定部は、存在を報知した前記物標に対する前記運転者による認識が前記認識している状態となった場合に、前記報知装置に当該前記物標に関する報知を終了させる、
    請求項に記載の認識装置。
  10. 前記運転者認識判定部は、それぞれの前記物標に対する前記運転者の認識の状態を付与し、前記付与される状態は所定時間記録されるとともに、前記視野範囲に前記物標が複数存在する場合に、前記認識状態が付与された前記物標が認識中の対象であると判定する、
    請求項1から請求項のうちいずれか1項に記載の認識装置。
  11. コンピュータが、
    視線検知装置の検知結果を参照し、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識し、
    前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識し、前記認識した物標の領域を所定形状で設定し、
    前記物標の領域において複数の判定点を設定し、前記物標の属性に基づいて変更した前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定し、
    前記物標の属性に基づいて、前記運転者が前記物標を認識していると判定する際の基準となる、前記視野範囲内に位置する前記判定点の数を変更する、
    認識方法。
  12. コンピュータに、
    視線検知装置の検知結果を参照して、移動体の運転者の視点から視線方向に延出し、前記視点から遠くなるのにつれて所定角度で広がる範囲を視野範囲として認識させ、
    前記移動体に配置された視覚センサにより前記移動体の周囲が撮像された画像データに基づいて、前記画像データ内に写された前記移動体の周囲の環境に存在する物標を認識させ、前記認識した物標の領域を所定形状で設定させ、
    前記物標の領域において複数の判定点を設定させ、前記物標の属性に基づいて変更させた前記複数の判定点と前記視野範囲との重複度合いに基づいて、前記運転者が前記物標を認識しているか否かを判定させ
    前記物標の属性に基づいて、前記運転者が前記物標を認識していると判定させる際の基準となる、前記視野範囲内に位置する前記判定点の数を変更させる、
    プログラム。
JP2019107386A 2019-06-07 2019-06-07 認識装置、認識方法、およびプログラム Active JP7228472B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019107386A JP7228472B2 (ja) 2019-06-07 2019-06-07 認識装置、認識方法、およびプログラム
US16/884,105 US11390297B2 (en) 2019-06-07 2020-05-27 Recognition device, recognition method, and storage medium
CN202010492306.9A CN112052716B (zh) 2019-06-07 2020-06-02 识别装置、识别方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019107386A JP7228472B2 (ja) 2019-06-07 2019-06-07 認識装置、認識方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020201670A JP2020201670A (ja) 2020-12-17
JP7228472B2 true JP7228472B2 (ja) 2023-02-24

Family

ID=73608803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019107386A Active JP7228472B2 (ja) 2019-06-07 2019-06-07 認識装置、認識方法、およびプログラム

Country Status (3)

Country Link
US (1) US11390297B2 (ja)
JP (1) JP7228472B2 (ja)
CN (1) CN112052716B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220165073A1 (en) * 2019-02-22 2022-05-26 Panasonic Intellectual Property Management Co., Ltd. State detection device and state detection method
US11107238B2 (en) * 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
JP2022155703A (ja) * 2021-03-31 2022-10-14 本田技研工業株式会社 脇見判定装置
JP7350823B2 (ja) * 2021-11-22 2023-09-26 本田技研工業株式会社 報知装置、車両および報知制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357498A (ja) 2000-06-15 2001-12-26 Mazda Motor Corp 車両用情報提供装置
JP2008172441A (ja) 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP2010105502A (ja) 2008-10-29 2010-05-13 Toyota Motor Corp 前方監視装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
JP4887980B2 (ja) * 2005-11-09 2012-02-29 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
CN100462047C (zh) * 2007-03-21 2009-02-18 汤一平 基于全方位计算机视觉的安全驾驶辅助装置
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
JP4952765B2 (ja) * 2009-10-21 2012-06-13 トヨタ自動車株式会社 車両用夜間視界支援装置
JP2014120114A (ja) 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
GB2528446B (en) * 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof
US9487139B1 (en) * 2015-05-15 2016-11-08 Honda Motor Co., Ltd. Determining a driver alert level for a vehicle alert system and method of use
JP6563798B2 (ja) * 2015-12-17 2019-08-21 大学共同利用機関法人自然科学研究機構 視覚認知支援システムおよび視認対象物の検出システム
EP3496069B1 (en) * 2016-10-07 2022-10-26 Aisin Corporation Travel assistance device and computer program
US10246014B2 (en) * 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
JP6454368B2 (ja) * 2017-03-15 2019-01-16 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
WO2018229548A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for contextualized vehicle operation determination

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357498A (ja) 2000-06-15 2001-12-26 Mazda Motor Corp 車両用情報提供装置
JP2008172441A (ja) 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP2010105502A (ja) 2008-10-29 2010-05-13 Toyota Motor Corp 前方監視装置

Also Published As

Publication number Publication date
US20200385012A1 (en) 2020-12-10
JP2020201670A (ja) 2020-12-17
US11390297B2 (en) 2022-07-19
CN112052716A (zh) 2020-12-08
CN112052716B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
JP7228472B2 (ja) 認識装置、認識方法、およびプログラム
JP6485732B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP6372402B2 (ja) 画像生成装置
JP7254832B2 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
KR101855940B1 (ko) 차량용 증강현실 제공 장치 및 그 제어방법
US20110234802A1 (en) On-vehicle lighting apparatus
JP6516151B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
JP6876277B2 (ja) 制御装置、表示装置、表示方法及びプログラム
JP6668975B2 (ja) 電子機器および自動車
JP2016107947A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
KR102227371B1 (ko) 차량용 영상투사장치 및 이를 구비한 차량
JP7223283B2 (ja) 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置
JP6814416B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
WO2019130860A1 (ja) ヘッドアップディスプレイ装置、および制御プログラム
US11968352B2 (en) Display method and system
JP6726412B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
WO2023190338A1 (ja) 画像照射装置
EP4112387A1 (en) Image processing device, display system, image processing method, and recording medium
JP2022044623A (ja) 画像表示方法及び画像表示装置
JP2022066080A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び画像の表示制御方法
JP2023074703A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2022113292A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2021117703A (ja) 車載表示装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7228472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150