JP6673242B2 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP6673242B2
JP6673242B2 JP2017017449A JP2017017449A JP6673242B2 JP 6673242 B2 JP6673242 B2 JP 6673242B2 JP 2017017449 A JP2017017449 A JP 2017017449A JP 2017017449 A JP2017017449 A JP 2017017449A JP 6673242 B2 JP6673242 B2 JP 6673242B2
Authority
JP
Japan
Prior art keywords
display
image
display device
unit
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017017449A
Other languages
English (en)
Other versions
JP2018125749A (ja
JP2018125749A5 (ja
Inventor
亮太郎 市川
亮太郎 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017017449A priority Critical patent/JP6673242B2/ja
Priority to PCT/JP2018/003248 priority patent/WO2018143285A1/ja
Publication of JP2018125749A publication Critical patent/JP2018125749A/ja
Publication of JP2018125749A5 publication Critical patent/JP2018125749A5/ja
Application granted granted Critical
Publication of JP6673242B2 publication Critical patent/JP6673242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は画像表示装置に関する。
特許文献1には、以下のような画像表示装置が開示されている。画像表示装置は、車載カメラを用いて、車両の周囲を撮影した撮影画像を取得する。画像表示装置は、撮影画像の一部である表示画像を、車室内のモニタに表示する。画像表示装置は、撮影画像のうち、表示画像を除く領域に物体が存在する場合、モニタに、物体の存在を表す表示を行う。
特許第5861449号公報
表示画像を除く領域に存在する物体には、歩行者、他の車両等、様々な種類がある。表示画像を除く領域に存在する物体の種類が何であるかに応じて、ドライバの対処方法は異なることがある。特許文献1記載の技術では、ドライバは、モニタの表示を見ても、表示画像を除く領域に存在する物体の種類を判断できない。そのため、ドライバは、表示画像を除く領域に存在する物体の種類に応じて適切な対処を行うことが困難であった。本開示は、表示画像を除く領域に存在する物体の種類を反映した表示を行うことができる画像表示装置を提供する。
本開示の一態様は、車両に搭載される画像表示装置(1)であって、車両の周囲を撮影した撮影画像(29)を取得する画像取得ユニット(7)と、前記撮影画像の一部である表示画像(27)を表示装置(25)に表示する表示ユニット(9)と、前記撮影画像のうち、前記表示画像を除く領域(31)に存在する物体を認識する物体認識ユニット(11)と、前記物体認識ユニットで認識した前記物体を表す物体表示(35、37)を、前記表示画像に重畳させた重畳画像(33)を作成する画像作成ユニット(13)と、を備える。
前記表示ユニットは、前記物体認識ユニットが前記物体を認識した場合、前記重畳画像を前記表示装置に表示するように構成される。前記物体表示は、(a)前記撮影画像のうち、前記物体の少なくとも一部を含む領域、又は(b)前記物体の種類を表すアイコンを含む。
本開示の一態様である画像表示装置は、撮影画像のうち、表示画像を除く領域で認識した物体を表す物体表示を表示画像に重畳させて重畳画像を作成する。そして、本開示の一態様である画像表示装置は、その重畳画像を表示装置に表示する。
本開示の一態様である画像表示装置によれば、ドライバは、撮影画像のうち、表示画像を除く領域に物体が存在することを知ることができる。また、物体表示は、撮影画像のうち、物体の少なくとも一部を含む領域、又は、物体の種類を表すアイコンを含む。この物体表示は、物体の種類を反映したものである。そのため、ドライバは、物体表示を見れば、撮影画像のうち、表示画像を除く領域に存在する物体の種類を知ることができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
画像表示装置1の構成を表すブロック図である。 画像表示装置1の機能的構成を表すブロック図である。 画像表示装置1が実行する処理を表すフローチャートである。 撮影画像29と表示画像27とを表す説明図である。 重畳画像33を表す説明図である。 画像表示装置1が実行する処理を表すフローチャートである。 画像表示装置1の機能的構成を表すブロック図である。 重畳画像33を表す説明図である。 重畳画像33を表す説明図である。 重畳画像33を表す説明図である。 重畳画像33を表す説明図である。
本開示の実施形態を図面に基づき説明する。
<第1実施形態>
1.画像表示装置1の構成
画像表示装置1の構成を図1、図2に基づき説明する。画像表示装置1は車両に搭載される車載装置である。以下では、画像表示装置1を搭載する車両を自車両とする。図1に示すように、画像表示装置1は、CPU3と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ5とする)と、を有する周知のマイクロコンピュータを中心に構成される。画像表示装置1の各種機能は、CPU3が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ5が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、画像表示装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。
画像表示装置1は、CPU3がプログラムを実行することで実現される機能の構成として、図2に示すように、画像取得ユニット7と、表示ユニット9と、物体認識ユニット11と、画像作成ユニット13と、距離算出ユニット15と、態様変化ユニット17と、方向取得ユニット19と、位置取得ユニット21と、を備える。
画像表示装置1を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。
図1に示すように、自車両は、画像表示装置1に加えて、カメラ23、及び表示装置25を備える。カメラ23は自車両に搭載されている。カメラ23は、自車両の周囲を撮影し、撮影画像を作成する。カメラ23は撮影画像を画像表示装置1に出力する。表示装置25は自車両の車室内に設置されており、自車両のドライバは表示装置25を視認可能である。表示装置25は、画像表示装置1から送られる信号に基づき画像を表示する。
2.画像表示装置1が実行する処理
画像表示装置1が実行する処理を図3〜図5に基づき説明する。画像表示装置1は、以下の処理を所定時間ごとに繰り返し実行する。
図3のステップ1では、画像取得ユニット7が、カメラ23を用いて撮影画像を取得する。
ステップ2では、表示ユニット9が、前記ステップ1で取得した撮影画像から、表示画像を作成する。図4に示すように、表示画像27は、撮影画像29の一部である。さらに詳しくは、表示画像27は、撮影画像29のうち、左右両側の端部に位置する領域31を除いた画像である。領域31は、撮影画像29のうち、表示画像27を除く領域である。
ステップ3では、物体認識ユニット11が、撮影画像において物体を認識する処理を行う。物体としては、例えば、他の車両、歩行者等が挙げられる。物体を認識する方法としては、例えば、公知のパターン認識の方法を用いることができる。
ステップ4では、前記ステップ3において物体を認識できたか否かを物体認識ユニット11が判断する。物体を認識できなかった場合はステップ5に進み、物体を認識できた場合はステップ6に進む。
ステップ5では、前記ステップ2で作成した表示画像27を表示ユニット9が表示装置25に表示する。
ステップ6では、自車両から、前記ステップ4で認識したと判断した物体までの距離Rを、距離算出ユニット15が算出する。距離算出ユニット15は、撮影画像29における物体の上下方向での位置から、距離Rを算出する。撮影画像29において物体が上方向にあるほど、距離Rは大きい。
ステップ7では、前記ステップ4で認識したと判断した物体の移動方向Dを、方向取得ユニット19が取得する。方向取得ユニット19は、過去の撮影画像29における物体の位置と、最新の撮影画像29における同一の物体の位置との変化に基づき、物体の移動方向Dを取得する。
ステップ8では、前記ステップ4で認識したと判断した物体の、撮影画像29における位置Pを位置取得ユニット21が取得する。
ステップ9では、前記ステップ8で取得した位置Pが、表示画像を除く領域31に存在するか否かを位置取得ユニット21が判断する。位置Pが表示画像27の中に存在する場合はステップ5に進み、位置Pが表示画像27を除く領域31に存在する場合はステップ10に進む。
ステップ10では、画像作成ユニット13が、物体表示を作成する。物体表示とは、前記ステップ4で認識したと判断した物体を表す表示である。具体的には、物体表示とは、撮影画像29のうち、前記ステップ4で認識したと判断した物体を含む領域(以下では物体領域とする)を含む。物体領域は、撮影画像29の全体に比べて十分小さい。物体表示は、物体領域そのものであってもよいし、物体領域に他の表示を追加したものであってもよい。他の表示として、例えば、物体領域の外周を囲む枠等が挙げられる。
ステップ11では、態様変化ユニット17が、前記ステップ6で算出した距離Rに応じて、後述する重畳画像33における物体表示の表示態様を決定する。表示態様とは、物体表示の大きさである。態様変化ユニット17は、距離Rが小さいほど、物体表示を大きくする。
ステップ12では、画像作成ユニット13が、前記ステップ7で取得した移動方向Dを表す方向表示を作成する。方向表示とは、移動方向Dを表す矢印の表示である。
ステップ13では、画像作成ユニット13が、前記ステップ8で取得した位置Pを表す位置表示を作成する。
ステップ14では、画像作成ユニット13が、前記ステップ2で作成した表示画像27に、前記ステップ10で作成した物体表示と、前記ステップ12で作成した方向表示と、前記ステップ13で作成した位置表示とを重畳して、図5に示す重畳画像33を作成する。
図5において、35、37は、それぞれ、前記ステップ10で作成した物体表示である。物体表示35は、他の車両を表す物体表示である。物体表示37は、歩行者を表す物体表示である。物体表示35、37の大きさは、前記ステップ11で決定した大きさである。物体表示37が表す物体の距離Rは、物体表示35が表す物体の距離Rよりも小さいため、物体表示37は物体表示35よりも大きい。
図5において、39は、前記ステップ12で作成した方向表示である。図5に示す重畳画像33では、方向表示39は、物体の移動方向Dが左方向であることを表す。図5において、41は、前記ステップ13で作成した位置表示である。図5に示す重畳画像33では、位置表示41は、物体の位置Pが、物体表示35、37の位置よりも右方向にあることを表す。
重畳画像33のうち、物体表示35、37、方向表示39、及び位置表示41以外の部分は、前記ステップ2で作成した表示画像27と同じである。
ステップ15では、前記ステップ14で作成した重畳画像33を表示ユニット9が表示装置25に表示する。
3.画像表示装置1が奏する効果
(1A)画像表示装置1は、撮影画像29のうち、表示画像27を除く領域31で認識した物体を表す物体表示35、37を表示画像27に重畳させて重畳画像33を作成する。そして、画像表示装置1は、その重畳画像33を表示装置25に表示する。
ユーザは、重畳画像33に表示された物体表示35、37を見ることで、撮影画像29のうち、表示画像27を除く領域31に物体が存在することを知ることができる。また、物体表示35、37は、撮影画像29のうち、物体領域を含むものであるから、物体の種類を反映したものである。そのため、ユーザは、物体表示35、37を見ることで、撮影画像29のうち、表示画像27を除く領域31に存在する物体の種類を知ることができる。
(1B)画像表示装置1は、自車両から物体までの距離Rを算出する。そして、画像表示装置1は、距離Rに応じて、重畳画像33における物体表示35、37の表示態様を変化させる。そのため、ドライバは、物体表示35、37の表示態様から、自車両から物体までの距離Rを知ることができる。
(1C)画像表示装置1は、距離Rに応じて、重畳画像33における物体表示35、37の大きさを変化させる。そのため、ドライバは、物体表示35、37の大きさから、自車両から物体までの距離Rを容易に知ることができる。
(1D)画像表示装置1は、物体の移動方向Dを取得する。そして、画像表示装置1は、移動方向Dを表す方向表示39を、表示画像27に重畳する。そのため、ドライバは、方向表示39から、移動方向Dを知ることができる。
(1E)画像表示装置1は、物体の位置Pを取得する。そして、画像表示装置1は、位置Pを表す位置表示41を、表示画像27に重畳する。そのため、ドライバは、位置表示41から、位置Pを知ることができる。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、物体表示35、37は、撮影画像29のうち、物体領域を含むものである。これに対し、第2実施形態では、物体表示35、37は、物体の種類を表すアイコンを含むものであるという点で、第1実施形態と相違する。物体表示35、37に含まれるアイコンの種類と、物体表示35、37が表す物体の種類とは、1:1に対応する。よって、物体の種類が決まれば、それに対応するアイコンの種類は一義的に決まる。アイコンとして、例えば、歩行者を表すアイコン、他の車両を表すアイコン等が挙げられる。物体表示35、37は、アイコンそのものであってもよいし、アイコンに加えて他の表示を含んでいてもよい。
2.画像表示装置1が実行する処理
画像表示装置1が実行する処理を、図6に基づき説明する。画像表示装置1は、以下の処理を所定時間ごとに繰り返し実行する。
図6のステップ21〜28の処理は、第1実施形態におけるステップ1〜8の処理と同様である。
ステップ29では、物体認識ユニット11が、前記ステップ24で認識したと判断した物体の種類を判断する。物体の種類として、例えば、他の車両、歩行者等が挙げられる。
ステップ30の処理は、第1実施形態におけるステップ9の処理と同様である。
ステップ31では、画像作成ユニット13が、物体表示を作成する。物体表示とは、前記ステップ24で認識したと判断した物体を表す表示である。具体的には、物体表示とは、前記ステップ29で判断した物体の種類を表すアイコンを含む表示である。なお、メモリ5には、物体の種類に対応するアイコンが予め記憶されている。例えば、メモリ5には、歩行者を表すアイコン、他の車両を表すアイコン等がそれぞれ記憶されている。
ステップ32〜36の処理は、基本的には、第1実施形態におけるステップ11〜15の処理と同様である。ただし、ステップ35において、表示画像27に重畳する物体表示は、物体の種類を表すアイコンを含む表示である。また、ステップ36において示す重畳画像33には、物体表示として、物体の種類を表すアイコンを含むものが表示されている。
3.画像表示装置1が奏する効果
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1B)〜(1E)を奏し、さらに、以下の効果を奏する。
(2A)画像表示装置1は、撮影画像29のうち、表示画像27を除く領域31で認識した物体を表す物体表示を表示画像に重畳させて重畳画像33を作成する。そして、画像表示装置1は、その重畳画像33を表示装置25に表示する。
ドライバは、重畳画像33に表示された物体表示を見ることで、撮影画像29のうち、表示画像27を除く領域31に物体が存在することを知ることができる。また、物体表示は、物体の種類を表すアイコンを含む表示であるから、物体の種類を反映したものである。そのため、ドライバは、物体表示を見ることで、撮影画像29のうち、表示画像27を除く領域31に存在する物体の種類を知ることができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)画像表示装置1は、図7に示すように、物体判断ユニット43を備えていてもよい。物体判断ユニット43は、表示画像27のうち、物体表示35、37を重畳する位置に、他の物体が存在するか否かを判断する。他の物体として、例えば、他の車両、歩行者等が挙げられる。表示ユニット9は、物体表示35、37を重畳する位置に他の物体が存在すると物体判断ユニット43が判断した場合、物体表示35、37を重畳することなく表示画像27を表示装置25に表示する。そのことにより、表示画像27に存在する物体が、物体表示35、37により隠れてしまうことを抑制できる。
(2)重畳画像は、図8〜図11に示すものであってもよい。図8に示す重畳画像33では、距離Rによらず、物体表示35、37の大きさは一定である。また、方向表示39は重畳されていない。
図9に示す重畳画像33は、その左右両側に、自車両の周囲の風景を表示していない非表示領域45を含む。非表示領域45は、表示装置25のうち、左右両側の部分に表示される。物体表示35、37は、非表示領域45に重畳されている。また、距離Rによらず、物体表示35、37の大きさは一定である。また、位置表示41は重畳されていない。
図10に示す重畳画像33では、後方の視点から自車両を見た風景が表示されている。重畳画像33は、その左右両側及び下側に、自車両の周囲の風景を表示していない非表示領域45を含む。非表示領域45は、表示装置25のうち、左右両側及び下側の部分に表示される。物体表示35、37は、非表示領域45に重畳されている。また、距離Rによらず、物体表示35、37の大きさは一定である。また、位置表示41は重畳されていない。
図11に示す重畳画像33では、上方の視点から自車両を見た鳥瞰図が表示されている。重畳画像33は、その左右両側に、自車両の周囲の風景を表示していない非表示領域45を含む。非表示領域45は、表示装置25のうち、左右両側の部分に表示される。物体表示35、37は、非表示領域45に重畳されている。また、距離Rによらず、物体表示35、37の大きさは一定である。また、位置表示41は重畳されていない。
(3)第1実施形態において、物体表示35、37が含む物体領域は、撮影画像29のうち、物体の全部ではなく一部を含む領域であってもよい。
(4)第1実施形態のステップ11において、態様変化ユニット17は、距離Rに応じて、物体表示35、37の上下方向における位置、物体表示35、37の少なくとも一部の色、物体表示35、37の少なくとも一部における点滅の有無を変化させてもよい。
例えば、距離Rが小さいほど、物体表示35、37の上下方向における位置を低くすることができる。また、例えば、距離Rが小さい場合は、距離Rが大きい場合に比べて、物体表示35、37の一部又は全部の色を目立ち易い色にすることができる。色を変化させる物体表示35、37の一部として、例えば、物体領域を囲む枠等が挙げられる。
また、例えば、距離Rが所定の閾値より小さい場合は、物体表示35、37の全部又は一部を点滅させ、距離Rが所定の閾値以上である場合は、その点滅を行わないようにすることができる。点滅させる物体表示35、37の一部として、例えば、物体領域を囲む枠等が挙げられる。上記の場合も、ドライバは、物体表示35、37の表示態様から、自車両から物体までの距離Rを知ることができる。
第2実施形態におけるステップ32の処理についても上記と同様とすることができる。
(5)物体認識ユニット11は、表示画像27を除く領域31では物体を認識する処理を実行し、表示画像27では物体を認識する処理を実行しないようにしてもよい。
(6)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
(7)上述した画像表示装置の他、当該画像表示装置を構成要素とするシステム、当該画像表示装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像表示方法、画像作成方法等、種々の形態で本開示を実現することもできる。
1…画像表示装置、7…画像取得ユニット、9…表示ユニット、11…物体認識ユニット、13…画像作成ユニット、25…表示装置、27…表示画像、29…撮影画像、31…領域、33…重畳画像、35、37…物体表示

Claims (5)

  1. 車両に搭載される画像表示装置(1)であって、
    車両の周囲を撮影した撮影画像(29)を取得する画像取得ユニット(7)と、
    前記撮影画像の一部と、前記車両の周囲の風景を表示していない非表示領域とを含む表示画像(27)を表示装置(25)に表示する表示ユニット(9)と、
    前記撮影画像のうち、前記撮影画像の一部を除く領域(31)に存在する物体を認識する物体認識ユニット(11)と、
    前記物体認識ユニットで認識した前記物体の位置を取得する位置取得ユニット(21)と、
    前記物体認識ユニットで認識した前記物体を表す物体表示(35、37)を、前記表示画像のうち前記非表示領域に重畳させるとともに、前記位置取得ユニットで取得した前記物体の位置を表す位置表示(41)を、前記表示画像にさらに重畳させた重畳画像(33)を作成する画像作成ユニット(13)と、
    を備え、
    前記表示ユニットは、前記物体認識ユニットが前記物体を認識した場合、前記重畳画像を前記表示装置に表示するように構成され、
    前記物体表示は、(a)前記撮影画像のうち、前記物体の少なくとも一部を含む領域、又は(b)前記物体の種類を表すアイコンを含み、
    前記位置表示は、前記物体の位置が、前記物体表示の位置に対しどちらの方向にあるかを表す画像表示装置。
  2. 請求項1に記載の画像表示装置であって、
    前記車両から、前記物体認識ユニットで認識した前記物体までの距離を算出する距離算出ユニット(15)と、
    前記距離算出ユニットで算出した前記距離に応じて、前記重畳画像における前記物体表示の表示態様を変化させる態様変化ユニット(17)と、
    をさらに備える画像表示装置。
  3. 請求項2に記載の画像表示装置であって、
    前記態様変化ユニットが変化させる前記表示態様は、前記物体表示の上下方向における位置、前記物体表示の大きさ、前記物体表示の少なくとも一部の色、及び、前記物体表示の少なくとも一部における点滅の有無から成る群から選択される1以上である画像表示装置。
  4. 請求項1〜3のいずれか1項に記載の画像表示装置であって、
    前記物体認識ユニットで認識した前記物体の移動方向を取得する方向取得ユニット(19)をさらに備え、
    前記画像作成ユニットは、前記方向取得ユニットで取得した前記移動方向を表す方向表示(39)を、前記表示画像にさらに重畳して前記重畳画像を作成するように構成された画像表示装置。
  5. 請求項1〜のいずれか1項に記載の画像表示装置であって、
    前記表示画像のうち、前記物体表示を重畳する位置に、他の物体が存在するか否かを判断する物体判断ユニット(43)をさらに備え、
    前記表示ユニットは、前記他の物体が存在すると前記物体判断ユニットが判断した場合、前記物体表示を重畳することなく前記表示画像を前記表示装置に表示するように構成された画像表示装置。
JP2017017449A 2017-02-02 2017-02-02 画像表示装置 Active JP6673242B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017017449A JP6673242B2 (ja) 2017-02-02 2017-02-02 画像表示装置
PCT/JP2018/003248 WO2018143285A1 (ja) 2017-02-02 2018-01-31 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017017449A JP6673242B2 (ja) 2017-02-02 2017-02-02 画像表示装置

Publications (3)

Publication Number Publication Date
JP2018125749A JP2018125749A (ja) 2018-08-09
JP2018125749A5 JP2018125749A5 (ja) 2019-01-17
JP6673242B2 true JP6673242B2 (ja) 2020-03-25

Family

ID=63040713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017017449A Active JP6673242B2 (ja) 2017-02-02 2017-02-02 画像表示装置

Country Status (2)

Country Link
JP (1) JP6673242B2 (ja)
WO (1) WO2018143285A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4846426B2 (ja) * 2006-04-20 2011-12-28 パナソニック株式会社 車両周囲監視装置
JP5099451B2 (ja) * 2008-12-01 2012-12-19 アイシン精機株式会社 車両周辺確認装置
JP5495071B2 (ja) * 2011-06-16 2014-05-21 アイシン精機株式会社 車両周辺監視装置
JP6149379B2 (ja) * 2012-10-25 2017-06-21 アイシン精機株式会社 画像表示制御装置

Also Published As

Publication number Publication date
JP2018125749A (ja) 2018-08-09
WO2018143285A1 (ja) 2018-08-09

Similar Documents

Publication Publication Date Title
JP5143235B2 (ja) 制御装置および車両周囲監視装置
WO2016002163A1 (ja) 画像表示装置、画像表示方法
JP6443559B2 (ja) 車両用表示装置及び車両用表示方法
US10464484B2 (en) Apparatus for presenting support images to a driver and method thereof
JP5503728B2 (ja) 車両の周辺監視装置
US10521894B2 (en) Apparatus for presenting support images to a driver and method thereof
US9826166B2 (en) Vehicular surrounding-monitoring control apparatus
JP7077616B2 (ja) 表示制御装置および表示制御方法
US20170028917A1 (en) Driving assistance device and driving assistance method
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2018142884A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2008004989A (ja) 車両周囲表示装置
JP2015171106A (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6673242B2 (ja) 画像表示装置
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法
JP7209442B2 (ja) 画像処理装置及び画像処理方法
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
US10926700B2 (en) Image processing device
JP5617678B2 (ja) 車両用表示装置
CN108431866B (zh) 显示控制装置以及显示控制方法
JP4598011B2 (ja) 車両用表示装置
JP6256508B2 (ja) 電子ミラー制御装置
US11258963B2 (en) Image creation device and image creation method
JP6464952B2 (ja) 表示制御装置、表示制御プログラム及び表示制御方法
US10986286B2 (en) Image creation device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200217

R151 Written notification of patent or utility model registration

Ref document number: 6673242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250