JP6593692B2 - 運転支援方法およびそれを利用した運転支援装置 - Google Patents

運転支援方法およびそれを利用した運転支援装置 Download PDF

Info

Publication number
JP6593692B2
JP6593692B2 JP2015176155A JP2015176155A JP6593692B2 JP 6593692 B2 JP6593692 B2 JP 6593692B2 JP 2015176155 A JP2015176155 A JP 2015176155A JP 2015176155 A JP2015176155 A JP 2015176155A JP 6593692 B2 JP6593692 B2 JP 6593692B2
Authority
JP
Japan
Prior art keywords
monitoring target
user input
management unit
monitoring
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015176155A
Other languages
English (en)
Other versions
JP2017055181A (ja
Inventor
渉 仲井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015176155A priority Critical patent/JP6593692B2/ja
Priority to US15/753,564 priority patent/US10477155B2/en
Priority to PCT/JP2016/003995 priority patent/WO2017043056A1/ja
Priority to DE112016004049.0T priority patent/DE112016004049B4/de
Publication of JP2017055181A publication Critical patent/JP2017055181A/ja
Application granted granted Critical
Publication of JP6593692B2 publication Critical patent/JP6593692B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、運転支援技術、特に運転者にとって監視すべき対象に対する制御を支援する運転支援方法およびそれを利用した運転支援装置に関する。
車両に搭載されたカメラにより車両周辺に存在する対象物が監視される。監視の結果に応じて、運転者にとって適切な報知表示を実行することが望まれる。そのため、監視領域内に存在する対象物を含む複数の対象物が検知されているときには、表示個数を所定の表示上限数以下に制限して表示器に表示がなされる。一方、監視領域外に存在する対象物のみが検知されているときには、表示上限数よりも多い表示個数を許容して表示器に表示がなされる(例えば、特許文献1参照)。
特開2014−6776号公報
監視領域を自動的に設定する場合、運転者にとっての利便性は高いが、運転者にとって気になる対象物が検知されなかったり、不要な対象物が検知されたりするおそれがある。それにより、監視の機能が十分に発揮されない。
本発明はこうした状況に鑑みなされたものであり、その目的は、運転者の意志を反映した監視対象を設定する技術を提供することにある。
上記課題を解決するために、本発明のある態様の運転支援装置は、車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定する監視対象管理部と、監視対象管理部において特定した監視対象を強調表示させる表示制御部と、監視対象管理部において特定した監視対象を更新するためのユーザ入力を受けつける入力部とを備える。監視対象管理部は、入力部がユーザ入力を受けつけた場合、監視対象更新、追加、または、削除を行い、監視対象管理部は、強制的な監視対象に関する情報を保持しており、入力部がユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行とする。
本発明のさらに別の態様は、運転支援方法である。この方法は、車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定するステップと、特定した監視対象を強調表示させるステップと、特定した監視対象を更新するためのユーザ入力を受けつけるステップと、ユーザ入力を受けつけた場合、監視対象更新、追加、または、削除を行うステップと、強制的な監視対象に関する情報を保持するステップと、ユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行とするステップと、を備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、運転者の意志を反映した監視対象を設定できる。
本発明の実施例1に係る車両の構成を示す図である。 図2(a)−(f)は、図1の表示部に表示される画像を示す図である。 図1の運転支援装置による監視対象に対する処理手順を示すフローチャートである。 本発明の実施例2に係る車両の構成を示す図である。 図4の車両における処理概要を示す図である。 図6(a)−(f)は、図4のHUDに表示される画像を示す図である。 図7(a)−(f)は、図4のHUDに表示される別の画像を示す図である。 図4の運転支援装置による監視対象に対する処理手順を示すフローチャートである。 図4の運転支援装置による監視対象に対する続きの処理手順を示すフローチャートである。
(実施例1)
車両に搭載した車外画像センサが撮像した画像における監視対象を表示する運転支援装置に関する。車両が自動操舵モードを実行し、かつ運転支援装置が監視対象を自動的に検出する場合、運転者は監視をし続けるだけとなるので、単調状態に陥ってしまう。また、自動的に検出した監視対象が、運転者にとって不十分であったり、不要であったりすることもあり得る。そのような状況において、運転者が監視対象を更新できなければ、単調状態に陥りながらも、自ら監視をしなければならなくなる。一方、運転者が監視対象を更新できる場合であっても、更新処理が運転者にとって面倒であれば、運転者の利便性が低減する。そのため、運転者の利便性を向上しながらも、運転者の意志を反映した監視対象を設定することが望まれる。
これに対応するために、本実施例に係る運転支援装置は、タッチパネルを備えた表示装置に、車外画像センサが撮像した画像を表示するとともに、画像中での監視対象を強調表示する。そのような状況下において、運転者が、監視対象の検出もれ、誤検出、追加で監視してほしいものを見つけると、表示装置を直接タッチすることによって、運転支援装置は、監視対象を追加あるいは削除する。
図1は、本発明の実施例1に係る車両100の構成を示す。車両100は、運転支援装置10、車外画像センサ12、表示装置14、自動運転制御装置16を含む。運転支援装置10は、I/O部20、処理部22を含み、I/O部20は、画像入力部30、操作信号入力部32、画像出力部34、監視結果出力部36を含み、処理部22は、監視対象管理部38、表示制御部40、監視部42を含む。表示装置14は、表示部50、操作部52を含み、自動運転制御装置16は、I/O部60、処理部62を含む。
車外画像センサ12は、図示しない車両100の前方から側方を撮像するために、車両100のルームミラー裏に取り付けられた撮像部である。車外画像センサ12によって撮像された画像は、車両周辺情報といえる。車外画像センサ12には、公知技術が使用されればよいので、ここでは説明を省略する。車外画像センサ12において撮像される画像は動画像である。なお、画像は、動画像を構成する各静止画像に対しても使用される。運転支援装置10と車外画像センサ12との間は、専用線、USB、Ethernet(登録商標)、CAN(Controller Area Network)等の有線通信で接続される。そのため、車外画像センサ12は、撮像した画像を運転支援装置10に出力する。
表示装置14は、カーナビゲーションシステム、ディスプレイオーディオ等のヘッドユニットであってもよいし、スマートフォン、タブレット等の携帯端末機器であってもよいし、専用のコンソール端末装置であってもよい。表示部50は、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイである。操作部52は、運転者の入力を受けつけるためのユーザインタフェースである。表示部50と操作部52は一体化したタッチパネルディスプレイであってもよい。なお、操作部52は、マウス、スタイラスペン、トラックボール等のジェスチャー入力を補助する入力デバイスを備えていてもよい。また可視光または赤外線を発光するペンを使用してもよい。さらに、表示部50と操作部52が一体型のタッチパネルディスプレイではなく、物理的に別々に構成されていてもよい。
運転支援装置10と表示装置14との間は、専用線、CAN等の有線通信で接続されていてもよいし、USB、Ethernet(登録商標)、Wi−Fi(登録商標)、Bluetooth(登録商標)等の有線通信または無線通信で接続されていてもよい。
自動運転制御装置16は、自動運転制御機能を実装した自動運転コントローラである。処理部62の構成はハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用でき、ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。I/O部60は、各種の通信フォーマットに応じた各種の通信制御を実行する。
運転支援装置10は、車両100と運転者との間のインタフェース機能を実行するためのHMI(Human Machine Interface)コントローラである。処理部22は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用でき、ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。I/O部20は、各種の通信フォーマットに応じた各種の通信制御を実行する。運転支援装置10と自動運転制御装置16との間は直接、信号線で接続される。なお、これらはCANを介して接続されてもよい。また、運転支援装置10と自動運転制御装置16を統合して1つのコントローラとされてもよい。
以下では、このような構成における監視対象の設定について説明する。監視対象の設定は、(1)監視対象の自動検知、(2)監視対象の更新によって実行される。まず、(1)監視対象の自動検知を説明する。車外画像センサ12は、撮像した画像を画像入力部30に出力する。画像入力部30は、車外画像センサ12からの画像を入力する。画像入力部30は、画像を監視対象管理部38、表示制御部40を出力する。
監視対象管理部38は、画像入力部30からの画像を入力する。監視対象管理部38は、画像から監視対象を検出・特定する。ここでの監視対象は、画像上に配置されており、2次元の存在領域であるといえる。監視対象管理部38における物体検出は、2段階の処理によって実行される。まず、監視対象管理部38は、画像からHaar−liike、LBP(Local Binary Pattern)、HOG(Histograms of Oriented Gradients)などの特徴量を抽出する。次に、監視対象管理部38は、抽出した特徴量をAdaBoost、SVM(Support Vector Machine)などの識別器において識別することによって、監視対象とすべき物体を抽出する。
監視対象管理部38は、抽出した物体をトラッキングしていない場合、当該物体を監視対象に追加し、トラッキングを開始する。ここで、抽出した物体をトラッキングしていない場合とは、抽出した物体の存在領域と、既にトラッキングしているすべての監視対象の領域とが所定の値以上異なる場合に相当する。また、抽出した物体をトラッキングしていない場合とは、抽出した物体の存在領域の中心座標と、既にトラッキングしているすべての監視対象の領域の中心座標とが所定の値以上離れている場合であってもよい。これらにおいて、所定の値は予め定められればよい。
監視対象管理部38は、トラッキングを開始すると、既に監視対象を特定した画像(以下、「第1画像」という)での情報を利用して、第1画像よりも後段の画像(以下、「第2画像」という)において監視対象を特定する。具体的に説明すると、監視対象管理部38は、第1画像において監視対象が存在している座標の近くを優先して、第2画像から当該監視対象を探す。一方、監視対象管理部38は、監視対象が画像に含まれなくなると、当該監視対象に対するトラッキングを終了する。監視対象管理部38は、トラッキングを終了すると、その物体を監視対象から削除する。監視対象管理部38は、各画像に対する監視対象に関する情報を表示制御部40、監視部42に出力する。
表示制御部40は、画像入力部30から、画像を入力するとともに、監視対象管理部38から、監視対象に関する情報を入力する。ここで、監視対象に関する情報は、例えば、画像において監視対象が含まれる存在領域の中心座標と、存在領域の大きさを含む。表示制御部40は、監視対象が含まれる存在領域を示す枠の図形(以下、「監視対象枠」という)を画像に重畳することによって、表示用の画像を生成する。監視対象が複数含まれる場合、複数の監視対象枠が画像に示される。表示制御部40は、表示用の画像を画像出力部34に出力し、画像出力部34は、表示用の画像を表示部50に出力する。表示部50は、画像出力部34から入力した表示用の画像を表示する。つまり、表示制御部40は、監視対象管理部38において特定した監視対象を表示部50に強調表示させる。
監視部42は、監視対象管理部38から、監視対象に関する情報を入力する。監視部42は、監視対象に対する監視を実行する。なお、監視対象が複数存在する場合、監視部42は、各監視対象に対する監視を実行する。監視とは、例えば、車両100と監視対象との衝突を防止するために両者の距離を逐次測定する処理である。そのため、監視部42は、監視対象管理部38において特定した監視対象と車両100との距離を測定する。ここで、監視部42は、画像入力部30に入力した画像から距離を測定してもよく、図示しない距離センサを使用して距離を測定してもよい。このような距離の測定には公知の技術が使用されればよいので、ここでは説明を省略する。監視部42は、各監視対象に対する距離を監視結果として監視結果出力部36に出力する。
監視結果出力部36は、監視部42における監視結果を自動運転制御装置16に出力する。自動運転制御装置16の処理部62は、I/O部60を介して、監視結果出力部36からの監視結果を入力する。処理部62は、監視結果において示されている距離を自動運転に反映させる。例えば、距離がしきい値よりも小さい場合、処理部62は、車両100を停止させる。
次に、(2)監視対象の更新を説明する。監視対象の更新には、監視対象の追加と削除が含まれる。ここでは、表示部50に表示用の画像が表示されていることを前提にする。運転者は、表示部50に表示された表示用の画像における監視対象枠を確認する。監視対象枠を更新したい場合、運転者は、表示装置14のタッチパネルをタッチする。これは、運転者が操作部52を操作することに相当する。つまり、操作部52は、表示部50に表示した監視対象枠を更新するためのユーザ入力を受けつける。表示部50に表示した監視対象枠を更新するためのユーザ入力は、監視対象管理部38において特定した監視対象を更新するためのユーザ入力でもある。その際、操作部52が受けつけたユーザ入力は、表示部50を介して、操作信号入力部32に入力される。
操作信号入力部32は、操作部52に対してなされた運転者によるユーザ入力を入力し、ユーザ入力を監視対象管理部38に出力する。監視対象管理部38は、操作信号入力部32からのユーザ入力を入力する。監視対象管理部38は、表示部50上においてユーザ入力による選択がなされた座標を取得する。また、ユーザ入力が、表示部50上の1点以上の選択ではなく、所定のパターンを描くような動作であった場合、監視対象管理部38は、パターンに対応した座標の組合せを取得する。
以下では、「選択された座標」を取得した場合を説明してから、「パターンに対応した座標の組合せ」を取得した場合を説明する。監視対象管理部38は、「選択された座標」を取得した場合、選択された座標と監視対象枠の座標とを比較する。なお、監視対象枠が複数設けられている場合、すべての監視対象枠との比較がなされる。つまり、監視対象管理部38は、ユーザ入力で選択された位置が監視対象枠の外であるか、中であるかを判定する。
選択された位置が監視対象枠の外である場合、監視対象管理部38は、ユーザ入力によって示された対象を監視対象として追加する。具体的に説明すると、ユーザ入力による選択がなされた座標に、前述の物体検出によって物体が検出されていれば、監視対象管理部38は、当該物体を監視対象として追加する。また、監視対象管理部38は、ユーザ入力による選択がなされた座標を中心として、予め定められた広さを有する領域を監視対象として追加してもよい。なお、前者の場合、これまでと同様にトラッキングが開始されるが、後者の場合、前述のトラッキングが開始されても、監視対象の位置は固定である。このような処理は、表示制御部40が強調表示させている監視対象枠とは別の対象に対するユーザ入力であって、かつ表示部50に表示された対象に対するユーザ入力を受けつけた場合、ユーザ入力によって示された対象を監視対象として追加する処理といえる。
図2(a)−(f)は、表示部50に表示される画像を示す。図2(a)においては、第1監視対象枠200、第2監視対象枠202が監視対象として強調表示されている。図2(b)において、運転者は、第1監視対象枠200、第2監視対象枠202以外の対象をタッチする。これは、操作部52がユーザ入力を受けつけることに相当する。図2(c)では、第1監視対象枠200、第2監視対象枠202に加えて、ユーザ入力による選択がなされた第3監視対象枠204も強調表示される。図2(d)−(f)については後述する。図1に戻る。
一方、選択された位置が監視対象枠の中である場合、監視対象管理部38は、当該監視対象を削除する。つまり、監視対象管理部38は、表示制御部40が強調表示させている監視対象に対するユーザ入力を受けつけた場合、監視対象を削除する。その場合、監視対象管理部38は、削除した監視対象に対するトラッキングも終了する。図2(d)では、図2(a)と同様の表示がなされる。図2(b)において、運転者は、第2監視対象枠202をタッチする。これは、操作部52がユーザ入力を受けつけることに相当する。図2(c)では、第1監視対象枠200のみが強調表示され続け、第2監視対象枠202が強調表示されなくなる。図1に戻る。このように、監視対象管理部38は、入力部がユーザ入力を受けつけた場合、監視対象を更新する。
監視対象管理部38は、「パターンに対応した座標の組合せ」を取得した場合、座標の組合せに対応したパターンの形状を特定する。一方、監視対象管理部38は、監視対象を追加するためのパターンの形状と、監視対象を削除するためのパターンの形状とを予め定める。特定したパターンの形状が、監視対象を追加するために予め定められたパターンの形状である場合、監視対象管理部38は、パターンの形状で示された物体を監視対象として追加する。
具体的に説明すると、監視対象を追加するために予め定められたパターンの形状が、枠の形状である場合、枠の形状によって囲まれた物体、あるいは枠の形によって示された領域が監視対象として追加される。なお、監視対象を追加するために予め定められたパターンの形状は、枠の形状に限定されず、丸の形状やその他の形状であってもよい。さらに、監視対象管理部38は、追加した監視対象に対して、これまでと同様にトラッキングを開始する。このような処理は、監視対象を追加するために予め定められたユーザ入力であって、かつ表示部50に表示された対象に対するユーザ入力を受けつけた場合、監視対象を追加する処理といえる。
特定したパターンの形状が、監視対象を削除するために予め定められたパターンの形状である場合、監視対象管理部38は、パターンの形状で示された物体を監視対象から削除する。具体的に説明すると、監視対象を追加するために予め定められたパターンの形状が、スワイプによる形状である場合、スワイプによって示された物体が監視対象から削除される。なお、監視対象を削除するために予め定められたパターンの形状は、スワイプによる形状に限定されない。さらに、監視対象管理部38は、削除した監視対象に対するトラッキングを終了する。このような処理は、監視対象を削除するために予め定められたユーザ入力を受けつけた場合、監視対象を削除する処理といえる。
監視対象管理部38は、受けつけたユーザ入力に応じて、監視対象を特定するための基準を更新してもよい。つまり、監視対象管理部38は、ユーザ入力によって追加された監視対象と同様の物体を新たな画像において検出した場合、当該物体を監視対象として特定するように再学習する。また、監視対象管理部38は、ユーザ入力によって削除された監視対象と同様の物体を新たな画像において検出した場合、当該物体を監視対象として特定しないように再学習する。
以上の構成による運転支援装置10の動作を説明する。図3は、運転支援装置10による監視対象に対する処理手順を示すフローチャートである。画像入力部30は、画像を取得する(S10)。監視対象管理部38は、学習器を用いて対象を検知する(S12)。対象がトラッキングされていなければ(S14のY)、監視対象管理部38は、対象を監視対象に追加し(S16)、対象をトラッキング開始する(S18)。一方、対象がトラッキングされていれば(S14のN)、ステップ16、ステップ18はスキップされる。対象のトラッキングが終了すれば(S20のY)、監視対象管理部38は、監視対象を削除する(S22)。一方、対象のトラッキングが終了しなければ(S20のN)、ステップ22はスキップされる。
表示制御部40は、取得した画像に監視対象を枠で描画した画像を生成する(S24)。表示制御部40は、生成した画像を表示部50に表示させる(S26)。表示部50がタッチされた場合(S28のY)、監視対象管理部38は、タッチした座標を取得する(S30)。監視対象の枠内がタッチされれば(S32のY)、監視対象管理部38は、監視対象を削除する(S34)。監視対象の枠内がタッチされなければ(S32のN)、監視対象管理部38は、タッチされた物体を監視対象に追加する(S36)。監視対象管理部38は、監視対象をトラッキング開始する(S38)。一方、表示部50がタッチされなければ(S28のN)、ステップ30からステップ38はスキップされる。
本実施例によれば、車外画像センサから取得した車両周辺情報をもとに監視対象を特定するとともに、強調表示させた監視対象に対して、監視対象を更新するためのユーザ入力を受けつけると監視対象を更新するので、運転者の意志を反映した監視対象を設定できる。また、監視対象の更新として監視対象を追加するので、運転者の意志を反映した監視対象を設定できる。また、強調表示させている監視対象枠とは別の対象に対するユーザ入力を受けつけると、監視対象を追加するので、運転者の追加の意志を明確に入力できる。また、表示部に表示された対象に対するユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。また、監視対象を追加するために予め定められたパターンのユーザ入力を受けつけると、監視対象を追加するので、運転者の意志を明確に入力できる。また、表示部に表示された対象に対するパターンのユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。
また、監視対象の更新として監視対象を削除するので、運転者の意志を反映した監視対象を設定できる。また、強調表示させている監視対象枠に対するユーザ入力を受けつけると、監視対象を削除するので、運転者の意志を明確に入力できる。また、監視対象を削除するために予め定められたパターンのユーザ入力を受けつけると、監視対象を削除するので、運転者の意志を明確に入力できる。また、再学習を実行するので、監視対象の特定精度を向上できる。また、運転者はシステムの挙動や周辺を監視し続けるだけではなく”自身が”気になるもの、気にならないものの選択・解除のための操作を実施するので、単調状態になりにくくできる。また、検出もれ・誤検出を低減することができ、機械では検知しにくい運転者の感性を反映した周辺検知が可能となるため、より運転者の嗜好に合った運転ができる。
(実施例2)
次に、実施例2を説明する。実施例2は、実施例1と同様に、監視対象を表示する運転支援装置に関する。実施例1では、運転者が、表示装置を直接タッチすることによって、運転支援装置が、監視対象を更新している。一方、実施例2は、HUD(Head−Up Display)によるAR(Augmented Reality)表示を前提としており、運転者によるジェスチャーによって、監視対象が更新される。ここでは、これまでとの差異を中心に説明する。
図4は、本発明の実施例2に係る車両100の構成を示す。車両100は、運転支援装置10、自動運転制御装置16、ミリ波レーダ70、車内画像センサ72、HUD74を含む。運転支援装置10は、I/O部20、処理部22を含み、I/O部20は、操作信号入力部32、監視結果出力部36、情報入力部80、出力部82を含み、処理部22は、監視対象管理部38、表示制御部40、監視部42を含む。自動運転制御装置16は、I/O部60、処理部62を含む。
ミリ波レーダ70は、ミリ波帯の電波を使用することによって100m程度の範囲の状況を探知可能である。ミリ波レーダ70には、レーダ前方の物体までの距離を測定する距離測定機能と、レーダ前方の物体に対する速度を測定する速度測定機能が含まれる。運転支援装置10とミリ波レーダ70との間は、専用線、USB、Ethernet、CAN等の有線通信で接続される。そのため、ミリ波レーダ70は、物体までの距離と物体が存在する方向に関する情報(車両周辺情報)を情報入力部80に出力する。
車内画像センサ72は、車外画像センサ12と同様の撮像部であるが、車内の運転者を撮像可能に設置される。車内画像センサ72において撮像される画像は動画像である。なお、前述のごとく、画像は、動画像を構成する各静止画像に対しても使用される。運転支援装置10と車内画像センサ72との間は、専用線、USB、Ethernet、CAN等の有線通信で接続される。そのため、車内画像センサ72は、撮像した画像を運転支援装置10に出力する。
HUD74は、人間の視野に直接情報を映し出す手段であり、透明な光学ガラス素子に画像を投影する。HUD74は、画像を投影するために、液晶ディスプレイ(LCD)、反射型液晶パネル(LCOS)、ホログラフィック光学素子などで構成された小型ディスプレイを備える。運転支援装置10とHUD74との間は、専用線、CAN等の有線通信で接続されていてもよいし、USB、Ethernet、Wi−Fi、Bluetooth等の有線通信または無線通信で接続されていてもよい。
以下では、このような構成における監視対象の設定について説明する。監視対象の設定は、(1)監視対象の自動検知、(2)監視対象の更新によって実行される。まず、(1)監視対象の自動検知を説明する。情報入力部80は、ミリ波レーダ70からの情報を入力すると、情報を監視対象管理部38に出力する。また、操作信号入力部32は、車内画像センサ72において撮像した画像であって、かつ運転者が撮像された画像を入力すると、画像を監視対象管理部38に出力する。
監視対象管理部38は、情報入力部80からの情報を入力するとともに、操作信号入力部32からの画像を入力する。監視対象管理部38は、情報から監視対象を検出・特定する。ここでの監視対象は、実空間に配置されており、3次元の存在領域であるといえる。監視対象管理部38における物体検出は、画像に対する処理と同様の処理によってなされる。また、監視対象管理部38は、これまでと同様に、監視対象を追加することによってトラッキングを開始したり、監視対象が情報に含まれなくなることによってトラッキングを終了したりする。さらに、監視対象管理部38は、画像をもとに運転者の目の位置を特定する。目の位置の特定にも、これまでの画像に対する物体検出と同様の処理が実行されればよい。監視対象管理部38は、監視対象に関する情報を表示制御部40、監視部42に出力し、目の位置に関する情報を表示制御部40に出力する。
表示制御部40は、監視対象管理部38から、監視対象に関する情報、目の位置に関する情報を入力する。ここで、監視対象に関する情報は、例えば、監視対象が含まれる存在領域の位置と、存在領域の大きさを含む。表示制御部40は、目の位置から、監視対象が含まれる存在領域の位置を結ぶ軸上において、監視対象を囲むような枠の図形(以下、「監視対象枠」という)を生成する。監視対象枠は、監視対象が含まれる存在領域を示す。監視対象が複数含まれる場合、複数の監視対象枠が生成される。表示制御部40は、1つ以上の監視対象枠が含まれた表示用の画像を出力部82に出力し、出力部82は、表示用の画像をHUD74に出力する。HUD74は、出力部82において入力した表示用の画像を虚像として投影する。これにより、表示制御部40は、監視対象管理部38において特定した監視対象をHUD74に強調表示させる。
図5は、車両100における処理概要を示す。ここでは、図の右側が車両100の進行方向を示しており、運転者300は、進行方向を向いている。運転者300の目302からの視界の先には、対象物体308が存在する。ここで、対象物体308は、車両100の外に存在する。目302と対象物体308の間に、虚像306が、図示しないHUD74によって形成される。虚像306には、前述の監視対象枠が含まれているが、この監視対象枠は、運転者300にとって、対象物体308を囲むような監視対象枠310として見る。図4に戻る。監視対象に対する監視部42、自動運転制御装置16の処理はこれまでと同様であるので、ここでは説明を省略する。
次に、(2)監視対象の更新を説明する。監視対象の更新には、監視対象の追加と削除が含まれる。ここでは、HUD74が虚像を投影していることを前提にする。運転者は、HUD74によって投影された虚像における監視対象枠を確認する。監視対象枠を更新したい場合、運転者は、車内画像センサ72が撮像可能な範囲において手あるいは指を使用したジェスチャー動作を実行する。車内画像センサ72は、運転者によるジェスチャー動作を撮像する。運転手によるジェスチャー動作を撮像した画像が、HUD74が投影した虚像に含まれた監視対象枠を更新するためのユーザ入力であり、監視対象管理部38において特定した監視対象を更新するためのユーザ入力でもある。車内画像センサ72は、画像を操作信号入力部32に出力し、操作信号入力部32は、画像を監視対象管理部38に出力する。
監視対象管理部38は、操作信号入力部32からの画像を入力する。監視対象管理部38は、画像に含まれた指の位置を特定する。指の位置の特定にも、これまでの画像に対する物体検出と同様の処理が実行されればよい。監視対象管理部38は、特定した指の位置の変化を追従することによって、ジェスチャー動作を特定する。一方、監視対象管理部38は、監視対象を追加するためのジェスチャー動作と、監視対象を削除するためのジェスチャー動作とを予め定める。特定したジェスチャー動作が、監視対象を追加するために予め定められたジェスチャー動作である場合、監視対象管理部38は、情報入力部80からの情報に含まれる物体を監視対象として追加する。
具体的に説明すると、監視対象管理部38は、ジェスチャー動作によって示されている方向を特定する。例えば、図5において、目302から指304に向かって延びる軸の方向が、特定した方向である。また、監視対象管理部38は、特定した方向に存在する物体を、情報入力部80からの情報において特定する。これらの特定には公知の技術が使用されればよいので、ここでは説明を省略する。さらに、監視対象管理部38は、特定した物体を監視対象として追加する。ここで特定される物体は、実空間での物体である。さらに、監視対象管理部38は、追加した監視対象に対して、これまでと同様にトラッキングを開始する。このような処理は、監視対象を追加するために予め定められたジェスチャー動作であって、かつ実空間に存在する対象に対するジェスチャー動作を受けつけた場合、監視対象を追加する処理といえる。
特定したジェスチャー動作が、監視対象を削除するために予め定められたジェスチャー動作である場合、監視対象管理部38は、ジェスチャー動作で示された物体を監視対象から削除する。監視対象管理部38は、ジェスチャー動作によって示されている方向を特定する。また、監視対象管理部38は、特定した方向に存在する監視対象を削除する。さらに、監視対象管理部38は、削除した監視対象に対するトラッキングを終了する。このような処理は、監視対象を削除するために予め定められたユーザ入力を受けつけた場合、監視対象を削除する処理といえる。
なお、ユーザ入力は、ジェスチャー動作に限定されない。運転者は、HUD74によって投影された虚像における監視対象枠を確認する。監視対象枠を更新したい場合、運転者は、車内画像センサ72が撮像可能な範囲における1点を指さす。車内画像センサ72は、運転者による指さし動作を撮像する。運転手による指さし動作を撮像した画像が、HUD74が投影した虚像に含まれた監視対象枠を更新するためのユーザ入力であり、監視対象管理部38において特定した監視対象を更新するためのユーザ入力でもある。車内画像センサ72は、画像を操作信号入力部32に出力し、操作信号入力部32は、画像を監視対象管理部38に出力する。
監視対象管理部38は、操作信号入力部32からの画像を入力する。監視対象管理部38は、画像に含まれた指の位置を特定する。指の位置の特定にも、これまでの画像に対する物体検出と同様の処理が実行されればよい。監視対象管理部38は、特定した指の位置が監視対象枠の外であるか、中であるかを判定する。具体的に説明すると、監視対象管理部38は、目の位置から指の位置を通って延びる軸が監視対象枠の外であるか、中であるかを判定する。
選択された位置が監視対象枠の外である場合、監視対象管理部38は、ユーザ入力によって示された対象を監視対象として追加する。この処理は、表示制御部40が強調表示させている監視対象枠とは別の対象に対するユーザ入力であって、かつ実空間に存在する対象に対するユーザ入力を受けつけた場合、ユーザ入力によって示された対象を監視対象として追加する処理といえる。一方、選択された位置が監視対象枠の中である場合、監視対象管理部38は、ユーザ入力によって監視対象を削除する。なお、ここでも、監視対象管理部38は、再学習を実行してもよい。さらに、監視対象管理部38は、ジェスチャー動作、指さし動作に応じて、再学習をするか否かを決定してもよい。
図6(a)−(f)は、HUD74に表示される画像を示す。これらは、運転者がフロントガラスごしに車両100の前方を見ている視界に相当する。図6(a)では、第1監視対象枠400、第2監視対象枠402が投影されている。図6(b)では、運転者が、第1監視対象枠400、第2監視対象枠402外で囲むジェスチャー動作をした場合、監視対象管理部38は、囲まれた実空間上の対象を監視対象に追加する。図6(c)では、追加された監視対象が第3監視対象枠404と示される。ここでは、囲むジェスチャー動作が監視対象を永久追加するジェスチャーと決められていた場合、監視対象管理部38は、第3監視対象枠404に対するトラッキングを開始するとともに、再学習を実行する。
図6(d)は、図6(a)と同様に示される。図6(e)は、運転者が、第1監視対象枠400、第2監視対象枠402外の位置を示した場合、つまりタッチのジェスチャー動作をした場合、監視対象管理部38は、タッチされた実空間上の対象を監視対象に追加する。図6(f)では、図6(c)と同様に、追加された監視対象が第3監視対象枠404と示される。ここでは、タッチが監視対象を一時追加するジェスチャーと決められていた場合、監視対象管理部38は、第3監視対象枠404に対するトラッキングを開始するが、再学習を実行しない。
図7(a)−(f)は、HUD74に表示される別の画像を示す。これらも、運転者がフロントガラスごしに車両100の前方を見ている視界に相当する。図7(a)は、図6(a)と同様に示される。図7(b)では、運転者が、第2監視対象枠402内に×印を描くジェスチャー動作をした場合、監視対象管理部38は、×印が描かれた第2監視対象枠402を監視対象から削除する。図7(c)では、第2監視対象枠402が削除されて、第1監視対象枠400のみが示される。ここでは、×印を描くジェスチャー動作が監視対象を永久追加するジェスチャーと決められていた場合、また、監視対象管理部38は、第2監視対象枠402に対するトラッキングを終了するとともに、再学習を実行する。
図7(d)は、図7(a)と同様に示される。図7(e)では、運転者が、第2監視対象枠402内をスワイプするジェスチャー動作をした場合、監視対象管理部38は、スワイプされた第2監視対象枠402を監視対象から削除する。図7(f)は、図7(c)と同様に示される。また、ここでは、スワイプするジェスチャー動作が監視対象を一時追加するジェスチャーと決められていた場合、監視対象管理部38は、第2監視対象枠402に対するトラッキングを終了するが、再学習を実行しない。
以上の構成による運転支援装置10の動作を説明する。図8は、運転支援装置10による監視対象に対する処理手順を示すフローチャートである。情報入力部80は、センサデータを取得する(S50)。監視対象管理部38は、学習器を用いて対象を検知する(S52)。対象がトラッキングされていなければ(S54のY)、監視対象管理部38は、対象を監視対象に追加し(S56)、対象をトラッキング開始する(S58)。一方、対象がトラッキングされていれば(S54のN)、ステップ56、ステップ58はスキップされる。対象のトラッキングが終了すれば(S60のY)、監視対象管理部38は、監視対象を削除する(S62)。一方、対象のトラッキングが終了しなければ(S60のN)、ステップ62はスキップされる。監視対象管理部38は、運転者の目の位置を検知する(S64)。監視対象管理部38は、監視対象の枠を虚像として表示するための画像を生成する(S66)。表示制御部40は、生成した画像をHUD74に表示させる(S68)。
図9は、運転支援装置10による監視対象に対する続きの処理手順を示すフローチャートである。これは図8に続く処理のフローチャートである。監視対象管理部38は、運転者の指の位置を検知し(S70)、空間上での指の動作を検知する(S72)。指が枠内に存在し(S74のY)、「×」を書く動作であれば(S76のY)、監視対象管理部38は、「×」を書かれた枠に対応する対象を監視対象から削除し(S78)、対象を検出した際のセンサデータを用いて再学習する(S80)。「×」を書く動作でなく(S76のN)、スワイプであれば(S82のY)、監視対象管理部38は、スワイプされた枠に対応する対象を監視対象から削除する(S84)。スワイプでなければ(S82のN)、処理は終了される。
指が枠内に存在せず(S74のN)、囲む動作であれば(S86のY)、監視対象管理部38は、囲まれた実空間上の対象を検出し(S88)、検出した対象を監視対象に追加する(S90)。監視対象管理部38は、対象をトラッキング開始し(S92)、囲まれた実空間上の対象のセンサデータを用いて再学習する(S94)。囲む動作でなく(S86のN)、タッチであれば(S96のY)、監視対象管理部38は、タッチされた実空間上の対象を検出し(S98)、検出した対象を監視対象に追加する(S100)。監視対象管理部38は、対象をトラッキング開始する(S102)。タッチでなければ(S96のN)、処理は終了される。
本実施例によれば、強調表示させている監視対象とは別の対象に対するユーザ入力を受けつけると、監視対象を追加するので、運転者の意志を反映した監視対象を設定できる。また、監視対象を追加するために予め定められたジェスチャー動作のユーザ入力を受けつけると、監視対象を追加するので、運転者の意志を明確に入力できる。また、実空間に存在する対象に対するユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。また、ジェスチャー動作に応じて再学習をするか否かを決定するので、利便性を向上できる。また、監視対象を再学習することで、周辺検知性能を向上できる。また、強調表示させている監視対象に対するユーザ入力を受けつけると、監視対象を削除するので、運転者の意志を反映した監視対象を設定できる。また、監視対象を削除するために予め定められたジェスチャー動作のユーザ入力を受けつけると、監視対象を削除するので、運転者の意志を明確に入力できる。
以上、本発明を実施例をもとに説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
本発明の一態様の概要は、次の通りである。本発明のある態様の運転支援装置は、車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定する監視対象管理部と、監視対象管理部において特定した監視対象を強調表示させる表示制御部と、監視対象管理部において特定した監視対象を更新するためのユーザ入力を受けつける入力部とを備える。監視対象管理部は、入力部がユーザ入力を受けつけた場合、監視対象を更新する。
この態様によると、センサから取得した車両周辺情報をもとに監視対象を特定するとともに、強調表示させた監視対象に対して、監視対象を更新するためのユーザ入力を受けつけると監視対象を更新するので、運転者の意志を反映した監視対象を設定できる。
本発明の別の態様もまた、運転支援装置である。この装置は、車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定する監視対象管理部と、監視対象管理部において特定した監視対象を強調表示させる表示制御部と、監視対象管理部において特定した監視対象を更新するためのユーザ入力を受けつける入力部とを備える。監視対象管理部は、入力部がユーザ入力を受けつけた場合、監視対象を追加する。
この態様によると、センサから取得した車両周辺情報をもとに監視対象を特定するとともに、強調表示させた監視対象に対して、監視対象を更新するためのユーザ入力を受けつけると監視対象を追加するので、運転者の意志を反映した監視対象を設定できる。
監視対象管理部は、表示制御部が強調表示させている監視対象とは別の対象に対するユーザ入力を受けつけた場合、ユーザ入力によって示された対象を監視対象として追加してもよい。この場合、強調表示させている監視対象とは別の対象に対するユーザ入力を受けつけると、監視対象を追加するので、運転者の意志を明確に入力できる。
監視対象管理部は、表示制御部が強調表示させている監視対象とは別の対象であって、かつ表示部に表示された対象に対するユーザ入力を受けつけた場合、監視対象を追加してもよい。この場合、表示部に表示された対象に対するユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。
監視対象管理部は、表示制御部が強調表示させている監視対象とは別の対象であって、かつ実空間に存在する対象に対するユーザ入力を受けつけた場合、監視対象を追加してもよい。この場合、実空間に存在する対象に対するユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。
監視対象管理部は、監視対象を追加するために予め定められたユーザ入力を受けつけた場合、ユーザ入力によって示された対象を監視対象として追加してもよい。この場合、監視対象を追加するために予め定められたユーザ入力を受けつけると、監視対象を追加するので、運転者の意志を明確に入力できる。
監視対象管理部は、監視対象を追加するために予め定められたユーザ入力であって、かつ表示部に表示された対象に対するユーザ入力を受けつけた場合、監視対象を追加してもよい。この場合、表示部に表示された対象に対するユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。
監視対象管理部は、監視対象を追加するために予め定められたユーザ入力であって、かつ実空間に存在する対象に対するユーザ入力を受けつけた場合、監視対象を追加してもよい。この場合、実空間に存在する対象に対するユーザ入力を受けつけると、監視対象を追加するので、指示を簡易にできる。
本発明のさらに別の態様もまた、運転支援装置である。この装置は、車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定する監視対象管理部と、監視対象管理部において特定した監視対象を強調表示させる表示制御部と、監視対象管理部において特定した監視対象を更新するためのユーザ入力を受けつける入力部とを備える。監視対象管理部は、入力部がユーザ入力を受けつけた場合、監視対象を削除する。
この態様によると、センサから取得した車両周辺情報をもとに監視対象を特定するとともに、強調表示させた監視対象に対して、監視対象を更新するためのユーザ入力を受けつけると監視対象を削除するので、運転者の意志を反映した監視対象を設定できる。
監視対象管理部は、表示制御部が強調表示させている監視対象に対するユーザ入力を受けつけた場合、監視対象を削除してもよい。この場合、強調表示させている監視対象に対するユーザ入力を受けつけると、監視対象を削除するので、運転者の意志を明確に入力できる。
監視対象管理部は、監視対象を削除するために予め定められたユーザ入力を受けつけた場合、監視対象を削除してもよい。この場合、監視対象を削除するために予め定められたユーザ入力を受けつけると、監視対象を削除するので、運転者の意志を明確に入力できる。
監視対象管理部は、強制的な監視対象に関する情報を保持しており、入力部がユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行としてもよい。この場合、ユーザ入力に関係なく監視対象を維持し続けるので、運転に対する安全性を確保できる。
監視対象管理部は、入力部において受けつけたユーザ入力に応じて、車両周辺情報をもとに監視対象を特定するための基準を更新してもよい。この場合、車両周辺情報をもとに監視対象を特定するための基準を更新するので、監視対象の特定精度を向上できる。
センサは、カメラ、ミリ波、レーザーのうち少なくともひとつを含んでもよい。
本発明のさらに別の態様は、運転支援方法である。この方法は、車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定するステップと、特定した監視対象を強調表示させるステップと、特定した監視対象を更新するためのユーザ入力を受けつけるステップと、ユーザ入力を受けつけた場合、監視対象を更新するステップと、を備える。
実施例1、2において、運転支援装置10は専用のLSIで実装する例を想定したが、表示装置14として使用するスマートフォンやタブレット等の携帯機器内のCPUを用いて運転支援装置10の機能を実現してもよい。この場合、表示装置14として使用する携帯機器と自動運転制御装置16とが直接接続されることになる。また運転支援装置10の機能を、カーナビゲーション装置やディスプレイオーディオ等のヘッドユニット内のCPUで実現してもよい。また運転支援装置10を実装した専用のLSIをヘッドユニット内に含める構成でもよい。本変形例によれば、構成の自由度を向上できる。
実施例1、2において、監視対象管理部38は、ユーザ入力に応じて監視対象を削除する。しかしながらこれに限らず例えば、監視対象管理部38は、強制的な監視対象に関する情報を保持してもよい。一例として、緊急車両等が、強制的な監視対象に関する情報として保持される。監視対象管理部38は、ユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行としてもよい。本変形例によれば、ユーザ入力に関係なく、緊急車両等を監視対象として維持するので、車両100の運転に対する安全性を確保できる。
実施例1における車外画像センサ12、実施例2におけるミリ波レーダ70が車両周辺情報を取得するためのセンサとして使用される。しかしながらこれに限らず例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー、レーザーのうちの少なくとも1つがセンサとして使用されてもよい。さらに、実施例1において、ミリ波レーダ70、車内画像センサ72が使用されてもよく、実施例2において、車外画像センサ12が使用されてもよい。また、複数のセンサを組み合わせてもよい。本変形例によれば、構成の自由度を向上できる。なお、センサから取得した情報は車両周辺情報とする。
10 運転支援装置、 12 車外画像センサ、 14 表示装置、 16 自動運転制御装置、 20 I/O部、 22 処理部、 30 画像入力部、 32 操作信号入力部、 34 画像出力部、 36 監視結果出力部、 38 監視対象管理部、 40 表示制御部、 42 監視部、 50 表示部、 52 操作部、 60 I/O部、 62 処理部、 100 車両。

Claims (13)

  1. 車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定する監視対象管理部と、
    前記監視対象管理部において特定した監視対象を強調表示させる表示制御部と、
    前記監視対象管理部において特定した監視対象を更新するためのユーザ入力を受けつける入力部とを備え、
    前記監視対象管理部は、前記入力部がユーザ入力を受けつけた場合、監視対象更新、追加、または、削除を行い、
    前記監視対象管理部は、強制的な監視対象に関する情報を保持しており、前記入力部がユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行とすることを特徴とする運転支援装置。
  2. 前記監視対象管理部は、前記表示制御部が強調表示させている監視対象とは別の対象に対するユーザ入力を受けつけた場合、ユーザ入力によって示された対象を監視対象として追加することを特徴とする請求項に記載の運転支援装置。
  3. 前記監視対象管理部は、前記表示制御部が強調表示させている監視対象とは別の対象であって、かつ表示部に表示された対象に対するユーザ入力を受けつけた場合、監視対象を追加することを特徴とする請求項に記載の運転支援装置。
  4. 前記監視対象管理部は、前記表示制御部が強調表示させている監視対象とは別の対象であって、かつ実空間に存在する対象に対するユーザ入力を受けつけた場合、監視対象を追加することを特徴とする請求項に記載の運転支援装置。
  5. 前記監視対象管理部は、監視対象を追加するために予め定められたユーザ入力を受けつけた場合、ユーザ入力によって示された対象を監視対象として追加することを特徴とする請求項に記載の運転支援装置。
  6. 前記監視対象管理部は、監視対象を追加するために予め定められたユーザ入力であって、かつ表示部に表示された対象に対するユーザ入力を受けつけた場合、監視対象を追加することを特徴とする請求項に記載の運転支援装置。
  7. 前記監視対象管理部は、監視対象を追加するために予め定められたユーザ入力であって、かつ実空間に存在する対象に対するユーザ入力を受けつけた場合、監視対象を追加することを特徴とする請求項に記載の運転支援装置。
  8. 前記監視対象管理部は、前記表示制御部が強調表示させている監視対象に対するユーザ入力を受けつけた場合、監視対象を削除することを特徴とする請求項に記載の運転支援装置。
  9. 前記監視対象管理部は、監視対象を削除するために予め定められたユーザ入力を受けつけた場合、監視対象を削除することを特徴とする請求項に記載の運転支援装置。
  10. 前記監視対象管理部は、前記入力部において受けつけたユーザ入力に応じて、車両周辺情報をもとに監視対象を特定するための基準を更新することを特徴とする請求項1からのいずれかに記載の運転支援装置。
  11. 前記センサは、カメラ、ミリ波、レーザーのうち少なくともひとつを含むことを特徴とする請求項1から10のいずれかに記載の運転支援装置。
  12. 車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定するステップと、
    特定した監視対象を強調表示させるステップと、
    特定した監視対象を更新するためのユーザ入力を受けつけるステップと、
    ユーザ入力を受けつけた場合、監視対象更新、追加、または、削除を行うステップと、
    強制的な監視対象に関する情報を保持するステップと、
    ユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行とするステップと、
    を備えることを特徴とする運転支援方法。
  13. 車両に搭載されたセンサから取得した車両周辺情報をもとに、監視対象を特定するステップと、
    特定した監視対象を強調表示させるステップと、
    特定した監視対象を更新するためのユーザ入力を受けつけるステップと、
    ユーザ入力を受けつけた場合、監視対象更新、追加、または、削除を行うステップと、
    強制的な監視対象に関する情報を保持するステップと、
    ユーザ入力を受けつけた場合であっても、当該強制的な監視対象の削除を非実行とするステップとをコンピュータに実行させるためのプログラム。
JP2015176155A 2015-09-07 2015-09-07 運転支援方法およびそれを利用した運転支援装置 Active JP6593692B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015176155A JP6593692B2 (ja) 2015-09-07 2015-09-07 運転支援方法およびそれを利用した運転支援装置
US15/753,564 US10477155B2 (en) 2015-09-07 2016-09-01 Driving assistance method, driving assistance device, and recording medium recording program using same
PCT/JP2016/003995 WO2017043056A1 (ja) 2015-09-07 2016-09-01 運転支援方法およびそれを利用した運転支援装置とプログラム
DE112016004049.0T DE112016004049B4 (de) 2015-09-07 2016-09-01 Fahrassistenzverfahren und Fahrassistenzvorrichtung und diese benutzendes Programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015176155A JP6593692B2 (ja) 2015-09-07 2015-09-07 運転支援方法およびそれを利用した運転支援装置

Publications (2)

Publication Number Publication Date
JP2017055181A JP2017055181A (ja) 2017-03-16
JP6593692B2 true JP6593692B2 (ja) 2019-10-23

Family

ID=58239374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015176155A Active JP6593692B2 (ja) 2015-09-07 2015-09-07 運転支援方法およびそれを利用した運転支援装置

Country Status (4)

Country Link
US (1) US10477155B2 (ja)
JP (1) JP6593692B2 (ja)
DE (1) DE112016004049B4 (ja)
WO (1) WO2017043056A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6840998B2 (ja) * 2016-11-02 2021-03-10 アイシン精機株式会社 障害物検知装置
JP7073628B2 (ja) * 2017-03-22 2022-05-24 日本電気株式会社 事故回避情報画像生成装置、事故回避情報表示システム、事故回避情報画像生成方法及びプログラム
JP6907920B2 (ja) 2017-12-15 2021-07-21 株式会社デンソー 自動運転支援装置
JP6806107B2 (ja) 2018-03-20 2021-01-06 日本電気株式会社 障害物認識支援装置、障害物認識支援方法、プログラム
JP7242232B2 (ja) * 2018-09-28 2023-03-20 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7353366B2 (ja) * 2018-11-07 2023-09-29 サービスナウ・カナダ・インコーポレイテッド トレーニングセットとして用いる文書からの機密データの除去
KR20230005034A (ko) * 2021-06-30 2023-01-09 현대자동차주식회사 자율 주행 차량, 그를 원격 제어하는 관제 시스템 및 그 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130784A (ja) * 1995-08-25 1997-05-16 Matsushita Electric Works Ltd 自動追尾方法及びその装置
JP4893593B2 (ja) * 2007-11-13 2012-03-07 マツダ株式会社 車両用運転支援装置
US20130226390A1 (en) * 2012-02-29 2013-08-29 Robert Bosch Gmbh Hitch alignment assistance
JP5898001B2 (ja) 2012-06-26 2016-04-06 本田技研工業株式会社 車両周辺監視装置
US9396538B2 (en) * 2012-09-19 2016-07-19 Nec Corporation Image processing system, image processing method, and program
JP5438861B1 (ja) * 2013-07-11 2014-03-12 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Also Published As

Publication number Publication date
US20180241970A1 (en) 2018-08-23
US10477155B2 (en) 2019-11-12
DE112016004049T5 (de) 2018-07-19
DE112016004049B4 (de) 2023-11-09
JP2017055181A (ja) 2017-03-16
WO2017043056A1 (ja) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6593692B2 (ja) 運転支援方法およびそれを利用した運転支援装置
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US11524578B2 (en) Control method and control device for vehicle display device
US20200132474A1 (en) SIMULTANEOUS LOCALIZATION AND MAPPING (SLAM) COMPENSATION FOR GESTURE RECOGNITION IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS
US11899848B2 (en) Method, mobile device, head-mounted display, and system for estimating hand pose
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US20130187845A1 (en) Adaptive interface system
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
KR101257871B1 (ko) 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법
KR102312601B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US20220043509A1 (en) Gaze tracking
KR101612821B1 (ko) 차선 인식 장치 및 그 방법
US11893165B2 (en) Display apparatus communicably connected to external control apparatus that receives operator's operation, control method for same, and storage medium
US20180332266A1 (en) Spatially translated dimensions of unseen object
KR102473669B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US11842119B2 (en) Display system that displays virtual object, display device and method of controlling same, and storage medium
JP7505113B2 (ja) ウェアラブル端末装置、プログラムおよび表示方法
JP7478902B2 (ja) ウェアラブル端末装置、プログラムおよび表示方法
US20240126369A1 (en) Information processing system and information processing method
US20230125410A1 (en) Information processing apparatus, image capturing system, method, and non-transitory computer-readable storage medium
US20240160294A1 (en) Detection processing device, detection processing method, information processing system
JP6547476B2 (ja) 情報処理システム、情報処理装置、およびプログラム
KR20130015974A (ko) 광류를 기반으로 한 검출 장치 및 검출 방법
JP2014191818A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2017044949A (ja) 撮像装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190912

R150 Certificate of patent or registration of utility model

Ref document number: 6593692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150