JP2024007203A - カメラシステムおよびその制御方法、プログラム - Google Patents

カメラシステムおよびその制御方法、プログラム Download PDF

Info

Publication number
JP2024007203A
JP2024007203A JP2022108513A JP2022108513A JP2024007203A JP 2024007203 A JP2024007203 A JP 2024007203A JP 2022108513 A JP2022108513 A JP 2022108513A JP 2022108513 A JP2022108513 A JP 2022108513A JP 2024007203 A JP2024007203 A JP 2024007203A
Authority
JP
Japan
Prior art keywords
image
vehicle
area
display
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022108513A
Other languages
English (en)
Inventor
大樹 碇
Daiki Ikari
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022108513A priority Critical patent/JP2024007203A/ja
Priority to EP23177640.2A priority patent/EP4304191A2/en
Priority to US18/345,778 priority patent/US20240015269A1/en
Priority to CN202310811300.7A priority patent/CN117341583A/zh
Publication of JP2024007203A publication Critical patent/JP2024007203A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/108Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 'non-standard' camera systems, e.g. camera sensor used for additional purposes i.a. rain sensor, camera sensor split in multiple image areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8046Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8073Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle security, e.g. parked vehicle surveillance, burglar detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 本発明は、電子ミラーの後方確認の視認性を低下させることなく、適切に検出物体をモニタへ表示できるカメラシステムを提供することを目的とする。【解決手段】 本実施形態に係るカメラシステムは、撮像手段により撮像された画像から前記撮像された画像の一部である前記車両の側後方の領域を切り出す切り出し手段と、前記車両の側後方の領域の画像を表示する表示手段と、撮像された画像の一部である前記車両の予め決められた死角領域において物体を検出する検出手段と、を有し、前記切り出し手段は、前記検出手段によって物体が検出された領域を含むように、前記撮像された画像から切り出し領域を切り出し、前記車両の側後方の領域と、前記切り出し領域と、に基づいて表示画像を生成する生成手段を有し、前記表示手段は、前記表示画像を表示する。【選択図】 図6

Description

本発明は、移動体の運転操作を支援するカメラシステムに関する。
従来から、自動車といった車両では、左右後方を確認するためのドアミラー(サイドミラー)を備えている。近年、悪天候時の視認性向上や死角低減などを目的として、従来の鏡からなるドアミラーに代えて、車両周囲の画像をカメラ(以下、側方カメラ)で撮像し、モニターに表示する電子ミラー技術が知られている。
このとき、側方カメラの役割として左右の後方確認の他に、車線変更支援や自車両の側方部の人や物の確認といった幅広い役割が考えられる。このような多種の役割を担うため、側方カメラは幅広い画角で撮影できることと左右の後方を高解像度で撮影できることを両立できるカメラが望ましい。言い換えると、側方カメラとして、車両進行方向から車両後方まで撮影可能な幅広い画角を持ちつつ、車両後方の画角方向を高解像度とすることができる光学系を用いることが望ましいと言える。
そしてそのような側方カメラを用いて、車両側方の隣接車線の他車両などを検出し、電子ミラー用モニターの表示内容を変更することが考えられる。このようにすることで、車両側方に注意すべき場合のみ表示を広角とし、死角を減らすことで車両運転者が車両側方へ注意を向けることが可能となる。
そこで例えば、特許文献1では、レーダー等のセンサーによって自車両の近接範囲の他車両の検出処理を実行する。そして他車両が検出されなければカメラからの挟角画像を電子ミラー用モニターに表示し、他車両が検出された場合は、広角画像を電子ミラー用モニターに表示する装置が提案されている。
特開2015-136056
しかしながら特許文献1の技術では、例えば側方180度(車両進行の前方方向から後方まで)撮影可能なカメラを側方カメラに用いて、カメラ前方側で周辺車両等が検出された場合、カメラ映像に検出された車両を表示するために広角になり過ぎる懸念があった。そのような場合、広角表示によって車両後方確認方向が小さく表示されてしまい、ドアミラー本来の役割である後方確認の視認性が低下する恐れがあった。
そこで本発明は、電子ミラーの後方確認の視認性を低下を抑制しつつ、適切に検出物体をモニタへ表示できるカメラシステムを提供することを目的とする。
上記課題を解決するために、本発明のカメラシステムは、
車両の側方を撮像する撮像手段と、前記撮像手段により撮像された画像から前記撮像された画像の一部である前記車両の側後方の領域を切り出す切り出し手段と、前記切り出し手段によって切り出された前記車両の側後方の領域の画像を表示する表示手段と、前記撮像手段により撮像された画像の一部である前記車両の予め決められた死角領域において物体を検出する検出手段と、を有し、前記切り出し手段は、前記検出手段によって物体が検出された領域を含むように、前記撮像された画像から切り出し領域を切り出し、前記車両の側後方の領域と、前記切り出し手段によって切り出された前記切り出し領域と、に基づいて表示画像を生成する生成手段を有し、前記表示手段は、前記生成手段によって生成された前記表示画像を表示することを特徴としている。
本発明によれば、電子ミラーの後方確認の視認性を低下を抑制しつつ、適切に検出物体をモニタへ表示できるカメラシステムを提供できる。
本実施形態における自車両10と撮像部の構成を示す図 実施形態1におけるカメラシステム100の構成を示す図 本実施形態における撮像部20、処理部110、統合処理部130の内部構成を示す図 本実施形態における撮像部20、21で撮像された画像と表示部140への表示の一例を示す図 本実施形態における処理部110が実行するフローチャートを示す図 本実施形態における統合処理部130が実行するフローチャートを示す図 本実施形態における撮像された画像内の領域定義の一例を示す図 本実施形態における目視可能領域51での物体検出と表示部140への表示の一例を示す図 本実施形態における後方死角領域52での物体検出と表示部140への表示の一例を示す図 実施形態1における前方死角領域53での物体検出と表示部140への表示の一例を示す図 実施形態2におけるカメラシステム200の構成を示す図 実施形態2における前方死角領域53での物体検出と表示部140、142への表示の一例を示す図
以下、本発明を実施するための形態について図面を用いて説明する。
<第1の実施形態>
以下、本発明の実施形態1について説明する。
図1は本発明の実施形態1における撮像部を設置した移動体である自車両を示す図である。図1に示すように自車両10は自車両10の周囲を撮影する側方カメラである撮像部20および撮像部21とを備える。撮像部20および撮像部21は同様の構成であり、撮像部20を例に撮像領域について説明する。
撮像部20は本実施形態では画角180度程度の撮像範囲を有している。撮像部20による撮像範囲は撮像範囲30aおよび撮像範囲30bに分けられ、特に撮像範囲30bは撮像部20の光学系の特性によって高解像度で画像を取得できる領域を模式的に示している。図示されているように側方カメラである撮像部20、21は撮像範囲30bで表される画角中央の光軸から離れた画角周辺領域が撮像範囲30aよりも高解像度で取得できる。そのためドアミラーの役割となる自車両10の左右後方確認方向を高解像度で撮像することが可能である。撮像された画像は自車両10の備える表示部に表示され、自車両10の運転者は表示される画像を確認することで左右および左右後方の確認をすることが可能である。
図2は本発明におけるカメラシステム100の構成例を示す図である。カメラシステム100は撮像部20、21と処理部110、120と統合処理部130及び表示部140、141で構成される。
統合処理部130および処理部110、120は、演算や制御を行うCPU(Central Processing Unit)を備える。また主記憶装置であるROM(Read Only Memory)やRAM(Random Access Memory)を備える(いずれも図示略)。ROMには、基本的な設定データや本実施形態に係るカメラ処理プログラムが記憶されており、CPUが、処理内容に応じたコンピュータプログラムをROMから呼び出してRAMに展開し、各ブロックの動作を実行する。
撮像部20は右ドアミラーの代わりとして自車両10の右側方、右側前方及び右側後方を撮像する。処理部110は撮像部20と接続され、撮像部20で撮像された画像を元に主に映像処理や物体検出といった処理を担う(詳細は後述)。また処理部110は統合処理部130とも接続され、統合処理部130から受け取った情報を元に撮像部20を制御し、また撮像部20で撮像された画像を元に処理した結果を統合処理部130へ送信する。
撮像部21は左ドアミラーの代わりとして自車両10の左側方、右側前方及び左側後方を撮像する。処理部120は撮像部21および統合処理部130と接続され、撮像部21で撮像された画像を元に各種処理を実行するが、その役割は処理部110と同様である。
表示部140は、液晶ディスプレイなどの表示手段である。表示部140は主に撮像部20が撮像し、処理部110、統合処理部130が処理した自車両10の右側後方に関する画像を受け取り表示する。よって右ドアミラーの代わりとなる表示部となる。また、表示部141は主に撮像部21が撮像し、処理部120、統合処理部130が処理した自車両10の左側方に関する画像を受け取り表示する。よって左ドアミラーの代わりとなる表示部となる。
統合処理部130は処理部110、120および表示部140、141と接続され、カメラシステム100全体の統合的な処理(カメラシステム制御)を担う。本実施形態では、主に撮像部20または撮像部21で撮像された画像を加工し、表示部140、141へ送付する役割を担う。
次に図3を用いて撮像部20、処理部110、統合処理部130の内部処理を詳細に説明する。なお、撮像部21、処理部120は撮像部20、処理部110と同様の内部処理となっており、説明は割愛する。
まず、撮像部20について説明する。撮像部20は外部光から光学的な被写体像(光学像)を形成する光学部101を有する。この光学部101は複数枚のレンズを組み合わせ、2つの異なる画角を結像させる。即ち、光軸から離れた周辺の画角領域において高解像度な光学像を形成し、光軸周辺の狭い画角領域において低解像度の光学像を形成する光学特性を有する。そして、光学部101によって形成された光学像は画像センサ部102へ入力される。
画像センサ部102は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサである。これらイメージセンサには光電変換素子上の光電変換エリアである撮像素子受光面があり、前記光学像はそこで電気的な信号である電気信号に光電変換される。撮像素子により変換された電気信号は、画像センサ部102内部で所定の画像信号に変換処理され、後段の処理部110へ出力される。
次に処理部110について説明する。映像処理部111は、撮像部20から伝送された画像信号を映像に現像し、WDR(Wide Dynamic Range)補正、ガンマ補正、LUT処理、歪曲補正等の処理を行う。この処理により、表示部140に表示した際に視認しやすく、また後述する物体検出部112内部で行われる物体検出処理の検出率が向上するようになる。映像処理部111が処理した画像信号は物体検出部112および統合処理部130内部の画像切り出し部131に入力される。
物体検出部112では、映像処理部111から出力された画像信号を用いて物体検出処理を行い、画像内に車両や人などの物体が存在するか否か判定する。物体の検出には深層学習を用いる。例えば、深層学習として、学習が容易で検出が速いYOLO(You Only Look Once)を用いることが好ましい。また、その他の深層学習として、SSD(Single Shot MultiBox Detector)、Faster R-CNN(Regional Convolution Neural Network)を用いてもよい。また、Fast R-CNN、R-CNN等を用いてもよい。物体検出結果は、物体が検出された位置を示す矩形(バウンディングボックス)の4つの頂点座標である4点座標情報と、検出された物体の分類を示す物体名情報となる。また、人、車両などについての画像を深層学習を用いて予め学習させておくことで、映像処理部111から出力された画像信号を基に、検出した物体が人か、車両か、それ以外かを分類するようにしてもよい。また、接触のおそれがある物体か否かを分類するようにしてもよく、移動する可能性のある物体と静止物体(構造物など)を分類するようにしてもよい。例えば、人とポールの画像を深層学習を用いて予め学習させ、人は移動の可能性がある物体、ポールは静止物体と予め紐づけを行う。
次に測距部113では自車両から物体検出部112で検出された物体までの距離を算出する。測距方法として例えば、車両等の検出物体の幅情報を事前に設定し、画像内の検出物体の幅の画素数と設定された幅情報および撮像部の撮影範囲の情報から比を用いて距離を推定する方法がある。また、その他の手法として、検出された物体の画像のボケといった情報を深層学習で解析することで距離値を算出するような方法であってもよい。前記物体検出部112の物体検出結果と併せて、測距部113によって推定されたその物体までの距離情報は後段の統合処理部130へ出力される。
次に統合処理部130について説明する。統合処理部130はシステム全体の統合的な処理を担うが、ここでは本実施形態のカメラシステムに関わる部分を説明する。
画像切出し部131は、映像処理部111から送付された画像信号を受け取り、その画像信号に対して切り出し処理を行う。本処理は、撮像部20で撮像された画像信号からドアミラーと同様の目的のために右側後方画像を切り出す。また、このとき画像切り出し部131は処理部110内部の測距部113から物体検出結果と測距結果の距離情報を受け取る。そして、物体検出結果と測距結果の内容に応じて画像信号の切り出し方を変更する。この切り出し方の変更は、例えば、検出された物体が表示できるように変更する。また、本処理は検出された物体の種類や位置に応じて切り出し方を複数パターン変更するものであって、詳細は後述される。画像切出し部131によって切り出された画像信号は表示処理部132へ出力される。
次に表示処理部132では表示部140に表示する画像を生成する。表示処理部132は処理部110の映像処理部111から受信した画像信号を基として例えば表示部140の表示解像度に合わせた表示画像を生成する。
表示部140はドアミラーの代わりとなる電子ミラーの表示部であって、基本的には右側方カメラとなる撮像部20の画像から画像切り出し部131によって切り出された右側後方の映像を表示する。
表示画像の一例を図4に示す。図4(a)は、右側方カメラとなる撮像部20によって撮像された画像の一例である。図1で前述したように撮像部20は画角180度程度の撮像範囲を有していて、図4(a)には自車両10の右側側方に対して前方から後方まで幅広く撮影されている。また、撮像部20の光学系の特性によって光軸から離れた周辺画角領域が高解像度で取得できる特徴を有している。
図4(a)において、切り出し領域40は画像切り出し部131によって切り出される領域の一例を示している。画像切り出し部131はドアミラーの代わりとなるように右側後方の画像領域を切り出す動作を基本としている。切り出された画像は図4(b)のようになり、この画像が表示部140に表示される。これにより、自車両10の運転者はドアミラーの代わりとして表示部140を確認することで、自車両の側方後方確認が可能となる。本実施形態の場合は隣接車線後方領域が切り出されていて、そこを走行している他車両11が表示される。本実施形態は、切り出し領域40以外の自車両10の周辺において、物体検出処理によって特に何も物体が検出されなかった場合の一例である。
また、表示処理部132は処理部110の測距部113から物体検出結果と測距結果を受け取り、物体検出結果の内容に応じて、画像切出し部131から受け取った画像を加工し、表示内容を変更する。さらに、その内容が警告を発する必要ありの場合には前述の表示画像に対して警告画像を合成する。例えば、自車両10周辺で物体検出された場合、警告を発する必要ありと判断する。これにより自車両10の周囲に車両運転者が注意を払うべき物体が存在した場合など適切に運転者に警告を通知することが可能となる。警告画像の一例は物体検出の一例と併せて後述される。また、表示処理部132の機能は画像切り出し部131が有していてもよい。
図5は、処理部110が実行するカメラシステム処理の一例を示すフローチャートである。処理部110内の不図示のCPUが処理内容に応じたプログラムをROMから呼び出してRAMに展開し、本フローチャートを実行する。なお、本フローチャート実施時は、自車両10は走行状態でも停止状態でもどちらでもよく、エンジン起動中は常に実行されているものである。
まずステップS101では、処理部110は自車両10の側方カメラである撮像部20、21を制御し、特に画像センサ部102を適切に設定、制御することで撮像データを取得する。これにより前述の図4(a)のような自車両側方の撮像データを取得できる。
次にステップS102では、映像処理部111を制御し、前述の撮像データの画像信号に対して各種画像処理を実行し、視認しやすくかつ物体検出しやすい映像に現像する。なお、本実施形態では図4に示したように光学系の特性によって歪みを持った画像を用いて説明しているが、映像処理部111で歪曲補正を実施し、歪みを除去した画像を生成して後段で扱っても良い。
次にステップS103では物体検出部112を制御し、映像処理部111で処理された画像を用いて物体検出処理を実行する。これにより図4(a)で示したような画像内の自車両10の周辺に物体があった場合に、その物体の位置と種類を検出することが可能となる。
次にステップS104では、測距部113を制御し、物体検出部112で検出された物体に対して自車両からの距離を算出する。これにより検出された物体が自車両10の近傍にあるのか遠方にあるのかを把握することが可能となる。本距離値を活用することで後段の統合処理部130にて、検出された物体の自車両までの近さに応じて処理を分けるといった制御が可能となる。
次にステップS105では、映像処理部111によって処理された画像信号を後段の統合処理部へデータ送信する。また、物体検出部112による物体検出結果(バウンディングボックスの座標情報と物体分類を示す物体名情報)と測距部113によって算出された物体までの距離情報を後段の統合処理部へデータ送信する。本処理で送信する物体検出結果と距離情報は同時に送信する画像信号を用いて処理された内容となる。言い換えると画像信号はフレーム毎に送信されるが、送信される画像信号のフレームと物体検出結果および距離情報のフレームは揃った状態でデータ送信される。
図6は、統合処理部130が実行するカメラシステム処理の一例を示すフローチャートである。統合処理部130内の不図示のCPUが処理内容に応じたプログラムをROMから呼び出してRAMに展開し、本フローチャートを実行する。なお、本フローチャート実施時は、自車両10は走行状態でも停止状態でもどちらでもよく、エンジン起動中は常に実行されているものである。
ステップS201では統合処理部130は、前段の処理部110から画像信号と物体検出結果と検出された物体までの距離情報を受信する。これらは前述のとおり共通の同一フレーム内の情報となる。受信した各種データは統合処理部130内の画像切り出し部131の切り出し方の制御や表示処理部132内部での表示内容の制御に利用される。
次にステップS202では、受信した物体検出結果を参照し、物体を検出したかどうかの判定をする。物体を検出していた場合はステップS203へ進み、物体を何も検出していなかった場合はステップS204へ進む。
次にステップS203では、受信した物体検出結果のうち位置を示す座標情報を参照し、検出された物体が受信した画像信号内部の所定の領域内で検出されたかどうかの判定をする。このときの所定の領域について、図7を用いて説明する。図7は処理部110から受信した画像信号を示しており、画像内部が各領域に分けられている様子を示す図である。まず後方監視領域50は自車両の右側後方を示す領域で言い換えるとドアミラーの代わりとして運転手が通常確認する方向を示す領域である。次に目視可能領域51は自車両10の運転者が運転席から目視で確認可能な方向を示す領域である。よって後方監視領域50と目視可能領域51は合わせて非死角領域と言える。次に後方死角領域52は自車両10の運転者が運転席から目視で確認できない死角となる領域であって、さらに後方監視領域50に近い後方方向の死角を示す領域である。後方死角領域52は、撮像部20の画角下部後方である。次に画角中央よりも前方にある前方死角領域53は自車両10の運転者が運転席から目視で確認できない死角となる領域であって、さらに後方監視領域50から遠い前方方向の死角を示す領域である。この領域は運転席のドアウィンドウの下方向の領域であって、運転席からはドアウィンドウ越しに視認できない死角領域となる。前方死角領域52は、撮像部20の画角下部前方である。最後に対象外領域54は自車両10から上空方向を示す領域である。よって対象外領域54は表示部140に表示すべき領域としても物体検出すべき領域としても対象外としてよい領域となる。画像内部の各領域をどのように分けるかはユーザもしくはシステムにより予め決定される。
このように側方カメラになる撮像部20に画角180度程度の撮像範囲を有する光学系を用いた場合、ドアミラーの役割となる後方監視領域50は周辺画角領域となる。さらにその光学系が光軸から離れた周辺の画角領域において高解像度な光学像を形成できる特性を有していた場合、後方監視領域50には高解像度な領域が割り当たる。よって本領域を表示部140に表示させた場合、運転者は良好に後方監視領域を確認することが可能となる。一方で中心画角付近は低解像度領域となり、本実施形態のように後方死角領域52等が割り当たる。しかしながら死角領域は自車両10の周辺を注視すべきであって、遠方の確認の重要性は低い。よって低解像度領域であっても問題は発生しにくい。
なお、検出された物体が複数の領域に跨っていた場合には、物体の接地位置を算出し、設置位置がどの領域かで判断するものでよい。
そして本ステップS203のおける所定領域とは、本実施形態では後方死角領域52および前方死角領域53を合わせた死角領域全体を示す。つまり自車両10の運転者が表示部140で確認できる後方監視領域50や目視で確認できる目視可能領域51でのみ物体が検出されていた場合はステップS204へ進み、前述の死角領域で物体が検出されていた場合にはステップS205へ進む。もし複数の領域で複数の物体が検出されていた場合には、死角領域で1つでも物体が検出されていればステップS205へ進むものとする。また対象外領域54で物体を検出していた場合、その検出結果は無視され、本判定処理に結果を及ぼさないものとする。
次にステップS204では、画像切り出し部131を制御し前述の後方監視領域50を表示領域として切り出し、表示処理部132を用いて表示部140に表示する画像を生成する。本処理は撮像された画像データ内で何も物体が検出されなかった場合、もしくは前述の所定の領域内で物体が検出されなかった場合の表示画像の生成処理となる。前述した図4は、他車両11が後方監視領域内に存在しているため、死角領域には物体が何も存在しない一例となっている。よって、図4を用いて説明した切り出し領域40と本ステップで切り出される後方監視領域50は同様の領域を示す。よって、ステップS204では前述の図4で説明したように画像を切り出すことを示している。
次にステップS205では、検出された物体の位置が前方死角領域53か否か判断する。後方監視領域50から遠い前方死角領域53であればステップS210へ進み、前方死角領域53ではなく、後方監視領域50から近い後方死角領域52であればステップS206へ進む。
次にステップS206では、前段の処理部110から受信した物体までの距離情報を参照し、検出されている物体までの距離が所定閾値以下かどうか判断する。例えば検出された物体が自車両10から所定メートル以内であるか否かの判断である。所定距離以内であると判断された場合にはステップS208へ進み、所定距離を超えて自車両から離れていると判断された場合にはステップS207へ進む。
次にステップS207では、前段の処理部110から受信した物体の分類を示す物体名情報を参照し、検出されている物体が所定の物体かどうか判断する。所定の物体とは本実施形態では人やバイク、自動車といった接触の可能性がある障害物のことを指す。検出された物体が所定の物体で合った場合ステップS208へ進み、検出された物体が所定の物体ではなかった場合、ステップS204へ進む。つまり、検出物体が所定距離を超えて離れていて、所定の物体でなければステップS204の処理を実施する。また、検出物体が所定距離以内で近いか、また検出物体が所定距離を超えて離れていても、注視すべき所定の物体であった場合にはステップS208の処理を実施する。
ここで、ステップS204への分岐処理に関して図8を用いて補足する。図8(a)は処理部110から受信した画像信号を示しており、画像内部での物体検出の様子を示す図である。図8(a)では後方監視領域50以外の領域でカラーコーン(登録商標)61および人62が画像内に含まれている。まず、人62に関して、ステップS202の物体検出したか、という分岐はYesとなるが、ステップS203の検出位置が所定の領域か、という分岐は人62が画像内で目視可能領域51に含まれているため、Noとなり、ステップS204の処理の実行となる。また、カラーコーン61に関して、ステップS203の検出位置が所定の領域か、という分岐はカラーコーン61が画像内で後方死角領域52に含まれているため、Yesとなる。そして図8(a)の例ではカラーコーン61の検出位置が所定距離よりも離れており、カラーコーンは注視すべき所定物体にも含まれていないものとする。よってステップS207まで進み、ステップS207の分岐はNoとなり、ステップS204の処理の実行となる。その結果、画像切り出し部131はドアミラーの代わりとなるように後方監視領域50を切り出す動作をするため、表示処理部132で生成される表示用画像は図8(b)となる。
次にステップS208では、後方監視領域50と検出された物体を含むように画像切り出し部131によって受信した画像信号から画像領域を切り出す処理をする。本処理は画像信号内で後方死角領域52で物体が検出された場合であって、さらに検出された物体が所定距離以内か、または所定距離を超えて離れていても検出された物体が所定物体であった場合の表示画像の生成処理となる。本処理を図9を用いて説明する。
図9(a)は処理部110から受信した画像信号を示しており、画像内部での物体検出の様子を示す図である。図9(a)では後方監視領域50以外の領域で人60が画像内に含まれている。人60に関して、ステップS202の物体検出したか、という分岐はYesとなり、ステップS203の検出位置が所定の領域か、という分岐も人60が画像内で後方死角領域52に含まれているため、Yesとなる。そして、人60が所定距離以内にて検出されていればステップS208の処理となる。また、人60が所定距離以内にて検出されなかったとしてもステップS207にて所定物体に人が含まれていればYesとなり、ステップS208の処理となる。ステップS208では、後方監視領域50と検出された物体である人60を含む切り出し領域55を画像切り出し部131を用いて元の画像信号から切り出す。
次にステップS209では、前述のステップS208による切り出し領域55の画像を用いて、表示処理部132によって表示用画像を生成する。さらに本処理では切り出し領域55内部に検出された物体が表示されているため、その強調処理を行う。一例を図9(b)に示す。図9(b)では検出された物体である人60に対して、物体検出結果であるバウンディングボックスの座標情報を用いて枠付け処理を行っている。これにより人60を囲むように枠線が画像内に描画される。また、物体検出結果である物体分類を示す物体名情報を用いて、アラート文70を生成し、画像内に合成表示している。このような表示用画像を表示処理部132で生成し、表示部140に表示することで、自車両10の運転者は、自車両10の周辺のどの位置にどのような物体があるかを迅速に把握し、安全走行のためどう注意して運転すべきか、を迅速に判断することが可能となる。
次にステップS210では、後方監視領域50と検出された物体を含む領域をそれぞれ別々に画像切り出し部131によって受信した画像信号から切り出し、それぞれの画像を表示用に合成する処理をする。本処理は画像信号内で前方死角領域53で物体が検出された場合の表示画像の生成処理となる。なお、図7で示した通り前方死角領域53は、目視可能領域51の下方にあり、自車両10の近距離となる領域となる。また、物体の分類や物体までの距離に応じた制御を実施してもよい。本処理を図10を用いて説明する。
図10(a)は処理部110から受信した画像信号を示しており、画像内部での物体検出の様子を示す図である。図10(a)では後方監視領域50以外の領域でボール63が画像内に含まれている。ボール63に関して、ステップS202の物体検出したか、という分岐はYesとなり、ステップS203の検出位置が所定の領域か、という分岐もボール63が画像内で前方死角領域53に含まれているため、Yesとなる。そして、ステップS210の処理となる。ステップS210では、後方監視領域50に加えて、検出された物体であるボール63を含む切り出し領域56を画像切り出し部131を用いて元の画像信号から切り出す。そして、切り出し領域56の画像を必要に応じて拡大や縮小処理し、別途切り出された後方監視領域50に合成し、合成画像を生成する。
次にステップS211では、前述のステップS210による合成画像を用いて、表示処理部132によって表示用画像を生成する。本処理では切り出し領域56内部に検出された物体が表示されているため、そのアラート処理を行う。一例を図10(b)に示す。図10(b)では検出された物体であるボール63を含む切り出し領域56に対して縮小処理が実施され、画像左下部分に合成されている。図上の枠点線は縮小された切り出し領域56であって、合成画像領域を明確にするため描画されている。また、物体が検出された位置情報を用いて、アラート文71を生成し、画像内に合成表示している。このような表示用画像を表示処理部132で生成し、表示部140に表示することで、自車両10の運転者は、ドアミラーの代わりとしての後方確認と、自車両周辺の物体を注視しての安全確認の両立が可能となる。
このとき、もし前方死角領域53で検出された物体の表示をステップS208で説明した後方死角領域52で検出された物体表示と同様の手法で表示してしまうと、後方確認方向の画像が小さくなってしまう。これにより、ドアミラーの代わりとしての後方確認の視認性が低下してしまう恐れがある。一方で、後方確認方向と近しい位置で物体を検出した場合は、ステップS208の手法で表示した方が運転者は迅速に物体の位置を把握し、安全確認することができる。よって物体検出結果に応じてステップS208とステップS210のように画像の切り出し方を変更することで運転者に対して適切な検出物体の位置の把握と後方確認の視認性の両立という価値を提供することが可能となる。
次にステップS212では、表示処理部132によって生成された画像を表示部140へ送信する。これによりステップS204、ステップS209、ステップS211のいずれかの方法で生成された表示画像は表示部140へ表示される。
以上で本フローチャートは終了となる。本フローチャートによって物体検出結果に応じて表示部140への表示方法は適切に切り替えられ、自車両10の運転者は適切な検出物体の位置の把握と後方確認の視認性の両立が可能となる。
以上の本実施形態により、撮像部を側方カメラとして用いて物体検出した場合に、後方確認の視認性を低下させることなく、適切に検出物体のモニタへの表示をすることが可能となる。これにより車両運転者は後方確認と自車両周辺の安全性の確認を両立することが可能となる。
<第2の実施形態>
実施形態1では前方死角領域53で物体が検出された場合、その画像を後方監視領域の画像と合成し、ドアミラーの代わりとなる表示部140に表示する方法について説明した。実施形態2では、検出された物体の画像をドアミラーの代わりとなる表示部以外に表示する場合について説明する。
図11は、本発明の実施形態2における撮像およびカメラシステム200の構成例を示す図である。カメラシステム200は撮像部20、21と処理部110、120と統合処理部130及び表示部140、141、142で構成される。実施形態2のカメラシステム200では、統合処理部130に表示部142が接続されている点が実施形態1と異なる。それ以外の部分は実施形態1と同様である。よって、実施形態2の統合処理部130内部の表示処理部132は表示部142へ表示出力することが可能な構成となる。
なお、表示部140および表示部141は実施形態1と同様に左右のドアミラーの代わりとなる側方カメラ(撮像部20、21)の電子ミラー用モニタの表示部として主に使用されるので、表示部を複数有している。
表示部142は、ドアミラーの代わりとなる電子ミラー用モニタ以外の表示部であって、例えば、自車両の状態(燃費履歴やエアコン表示等)を示す液晶モニタや、カーナビゲーション用のモニタ等である。また、インストルメントパネル(インパネ)の各種メーター表示を液晶モニタで表示している車両であれば、そのような表示部であってもよい。
次に図12を用いて実施形態2の特徴的な動作を説明する。本処理は実施形態1の図7で説明した画像信号内で前方死角領域53で物体が検出された場合の実施形態2における表示画像の生成処理の説明である。なお、図7で示した通り前方死角領域53は、目視可能領域51の下方にあり、自車両10の近距離となる前方方向の死角領域となる。
図12(a)は処理部110から受信した画像信号を示しており、画像内部での物体検出の様子を示す図である。図12(a)では前方死角領域53の領域内でボール63が画像内に含まれている。よってこの場合、処理フローとしては実施形態1の図6で示したフローチャートのステップS210およびステップS211に当たる処理を実行する。よってここでは、実施形態2において、ステップS210およびステップS211の代わり実行する処理を説明する。
実施形態2では、後方監視領域50に加えて、検出された物体であるボール63を含む切り出し領域56を画像切り出し部131を用いて元の画像信号から切り出す。そして、切り出し領域56の画像を必要に応じて拡大や縮小処理し、後方監視領域50の切り出し画像とは別にして画像を保持する。
そして、後方監視領域50の切り出し画像と前方死角領域53の切り出し画像は、表示処理部132によって別々の表示部へ送信される。まず後方監視領域50の切り出し画像は、表示処理部132によってドアミラーの代わりとなる電子ミラー用モニタの表示部140へ送信される。表示部140では図12(b)に示したような画像が表示され、運転者は、ドアミラーの役割として後方を表示部140を通して確認可能となる。また、前方死角領域53内の切り出し領域56の画像は、表示処理部132によって表示部142へ送信される。表示部142は本実施形態では、カーナビゲーション用のモニタである。よって表示処理部132ではカーナビゲーション用の画像に検出された物体が表示されている前方死角領域53の切り出し画像を合成する。さらに合成画像に対して、物体が検出された位置情報を用いてアラート文72を生成し、画像内に合成し、表示部142へ送信する。これにより表示部142では図12(c)に示したような画像が表示され、運転者は自車両10の周辺の物体の位置を把握することができる。
以上の図12による表示方法は、実施形態1の図6で示したフローチャートのステップS210およびステップS211に該当するため、実施形態2の場合であっても、実施形態1と同様に物体検出結果に応じて表示方法は切り替えられる。例えば、後方死角領域52で物体を検出した場合は、実施形態1と同様にステップS208やステップS204の表示方法となり、前方死角領域53で物体を検出した場合には、図12で説明した表示方法となる。
以上の本実施形態により、前方死角領域53で物体を検出した場合、実施形態1と異なり、表示部140で表示するドアミラーの役割となる画像表示に影響を与えずに、検出した物体を表示することが可能となる。そして、運転者に適切に検出物体を確認することが可能となる。これにより後方確認の視認性が低下させることなく、車両運転者は後方確認と自車両周辺の安全性の確認を両立することが可能となる。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
本発明は、情報処理装置のみならず以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、データ通信用のネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供してもよい。
100 カメラシステム
10 自車両
20、21 撮像部
30 撮像部が撮像する画角
110、120 処理部
130 統合処理部
140、141 表示部
上記課題を解決するために、本発明のカメラシステムは、
車両の側方を撮像する撮像手段と、前記撮像手段により撮像された画像の一部である前記車両の死角領域において物体を検出する検出手段と、前記検出手段によって物体が検出された領域を含むように、前記撮像手段により撮像された画像から前記撮像された画像の一部である前記車両の側後方の領域を切り出す切り出し手段と、前記切り出し手段によって切り出された前記車両の側後方の領域の画像を表示する表示手段と、を有することを特徴としている。

Claims (17)

  1. 車両の側方を撮像する撮像手段と、
    前記撮像手段により撮像された画像から前記撮像された画像の一部である前記車両の側後方の領域を切り出す切り出し手段と、
    前記切り出し手段によって切り出された前記車両の側後方の領域の画像を表示する表示手段と、
    前記撮像手段により撮像された画像の一部である前記車両の予め決められた死角領域において物体を検出する検出手段と、を有し、
    前記切り出し手段は、前記検出手段によって物体が検出された領域を含むように、前記撮像された画像から切り出し領域を切り出し、
    前記車両の側後方の領域と、前記切り出し手段によって切り出された前記切り出し領域と、に基づいて表示画像を生成する生成手段を有し、
    前記表示手段は、前記生成手段によって生成された前記表示画像を表示する
    ことを特徴とするカメラシステム。
  2. 前記撮像手段は、画角中央の解像度よりも前記画角中央の周辺の解像度が高い画像を撮像する光学系を有することを特徴とする請求項1に記載のカメラシステム。
  3. 前記検出手段によって物体が検出されなかった場合、
    前記切り出し手段は、前記車両の側後方の領域の画像を切り出し、
    前記表示手段は、前記切り出し手段によって切り出した前記車両の側後方の領域の画像を前記表示手段に表示する
    ことを特徴とする請求項1に記載のカメラシステム。
  4. 前記切り出し手段は、前記検出手段によって画角中央よりも前方にある前方死角領域において物体が検出された場合、前記車両の側後方の領域と、前記切り出し領域とを切り出し、
    前記生成手段は、前記車両の側後方の領域と、前記検出された物体を含む領域とを合成することで表示画像を生成する
    ことを特徴とする請求項1に記載のカメラシステム。
  5. 前記切り出し手段は、前記検出手段によって前記死角領域のうち前記前方死角領域よりも後方にある後方死角領域において物体が検出された場合、前記車両の側後方および検出された物体が含まれるように前記切り出し領域を切り出すことを特徴とする請求項4に記載のカメラシステム。
  6. 前記後方死角領域は、前記撮像された画像の画角中央および画角下部後方の領域であり、
    前記前方死角領域は、画角下部前方の領域である
    ことを特徴とする請求項5に記載のカメラシステム。
  7. 前記切り出し手段は、前記検出手段により検出された前記撮像手段から前記物体までの距離に基づいて切り出す
    ことを特徴とする請求項1に記載のカメラシステム。
  8. 前記検出手段により検出された前記撮像手段から前記物体までの距離の値が所定閾値以下であった場合、前記切り出し手段は、前記切り出し領域を切り出す
    ことを特徴とする請求項1に記載のカメラシステム。
  9. 前記検出手段は、前記物体の分類を検出し、
    前記切り出し手段は、前記検出手段により検出された前記物体の分類に基づいて切り出す
    ことを特徴とする請求項8に記載のカメラシステム。
  10. 前記検出手段は、前記分類の画像の入力よって予め学習されることにより、前記撮像手段により撮像された画像に基づいて前記物体の分類を検出する
    ことを特徴とする請求項9に記載のカメラシステム。
  11. 前記検出手段により検出された前記撮像手段から前記物体までの距離の値が所定閾値である場合、前記検出手段は、接触の可能性がある物体であるという分類を検出し、
    前記検出手段により接触の可能性がある物体を検出した場合、前記切り出し手段により前記切り出し領域の切り出しを行う
    ことを特徴とする請求項8から10のいずれか1項に記載のカメラシステム。
  12. 前記検出手段は、前記物体の分類を前記接触の可能性がある物体である移動する可能性のある物体と、静止物体と、で分ける
    ことを特徴とする請求項11に記載のカメラシステム。
  13. 前記検出手段は、前記検出手段により検出された前記物体の分類を示す物体名情報を検出し、
    前記生成手段は、前記検出手段により検出された前記物体名情報を前記表示画像へと合成する
    ことを特徴とする請求項9に記載のカメラシステム。
  14. 前記表示手段を複数有し、
    前記検出手段によって画角中央よりも前方にある前方死角領域において物体が検出された場合、前記切り出し手段は、前記車両の側後方の切り出し領域と、検出された物体を含む切り出し領域とをそれぞれ切り出し、それぞれ異なる前記表示手段に表示する
    ことを特徴とする請求項1に記載のカメラシステム。
  15. 車両の側方を撮像する撮像工程と、
    前記撮像工程により撮像された画像から前記撮像された画像の一部である前記車両の側後方の領域を切り出す第1切り出し工程と、
    前記切り出し工程によって切り出された前記車両の側後方の領域の画像を表示する第1表示工程と、
    前記撮像工程により撮像された画像の一部である前記車両の予め決められた死角領域において物体を検出する検出工程と、
    前記検出工程によって物体が検出された領域を含むように、前記撮像された画像から切り出し領域を切り出す第2切り出し工程と、
    前記車両の側後方の領域と、前記第2切り出し工程によって切り出された前記切り出し領域と、に基づいて表示画像を生成する生成工程と、
    前記生成工程によって生成された前記表示画像を表示する第2表示工程と、
    ことを特徴とするカメラシステム制御方法。
  16. コンピュータが読み込み実行することで、前記コンピュータに、請求項1乃至14のいずれか1項に記載の各工程を実行させるためのプログラム。
  17. 車両の側方を撮像する撮像手段により撮像された画像から前記撮像された画像の一部である前記車両の側後方の領域を切り出し、切り出された前記車両の側後方の領域の画像を表示手段へと表示させる切り出し手段と、
    前記撮像手段により撮像された画像の一部である前記車両の予め決められた死角領域において物体を検出する検出手段と、を有し、
    前記切り出し手段は、前記検出手段によって物体が検出された領域を含むように、前記撮像された画像から切り出し領域を切り出し、
    前記車両の側後方の領域と、前記切り出し手段によって切り出された前記切り出し領域と、に基づいて表示画像を生成し、前記生成された前記表示画像を前記表示手段へと表示させる生成手段を有する
    ことを特徴とする情報処理装置。
JP2022108513A 2022-07-05 2022-07-05 カメラシステムおよびその制御方法、プログラム Pending JP2024007203A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022108513A JP2024007203A (ja) 2022-07-05 2022-07-05 カメラシステムおよびその制御方法、プログラム
EP23177640.2A EP4304191A2 (en) 2022-07-05 2023-06-06 Camera system, method for controlling the same, and computer program
US18/345,778 US20240015269A1 (en) 2022-07-05 2023-06-30 Camera system, method for controlling the same, storage medium, and information processing apparatus
CN202310811300.7A CN117341583A (zh) 2022-07-05 2023-07-04 照相机***及其控制方法、存储介质和信息处理设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022108513A JP2024007203A (ja) 2022-07-05 2022-07-05 カメラシステムおよびその制御方法、プログラム

Publications (1)

Publication Number Publication Date
JP2024007203A true JP2024007203A (ja) 2024-01-18

Family

ID=86732030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022108513A Pending JP2024007203A (ja) 2022-07-05 2022-07-05 カメラシステムおよびその制御方法、プログラム

Country Status (4)

Country Link
US (1) US20240015269A1 (ja)
EP (1) EP4304191A2 (ja)
JP (1) JP2024007203A (ja)
CN (1) CN117341583A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6323018B2 (ja) 2014-01-17 2018-05-16 株式会社デンソー 運転支援装置

Also Published As

Publication number Publication date
CN117341583A (zh) 2024-01-05
US20240015269A1 (en) 2024-01-11
EP4304191A2 (en) 2024-01-10

Similar Documents

Publication Publication Date Title
US11472338B2 (en) Method for displaying reduced distortion video images via a vehicular vision system
US10116873B1 (en) System and method to adjust the field of view displayed on an electronic mirror using real-time, physical cues from the driver in a vehicle
JP5099451B2 (ja) 車両周辺確認装置
US11910123B2 (en) System for processing image data for display using backward projection
JP4766841B2 (ja) 車両に搭載されるカメラ装置及び車両周辺監視装置
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP5093611B2 (ja) 車両周辺確認装置
JP2009206747A (ja) 車両用周囲状況監視装置及び映像表示方法
JP5036891B2 (ja) 車両に搭載されるカメラ装置及び車両周辺監視装置
JP3847547B2 (ja) 車両周辺監視支援装置
KR101765556B1 (ko) 차량 속도에 따른 영상 처리 장치 및 방법
JP2019110492A (ja) 画像表示装置
JPH09202180A (ja) 車載カメラ装置
CN110809780A (zh) 用于生成机动车辆及机动车辆的环境区域的至少一个合并的视角观察图像的方法、相机***以及机动车辆
JP2019001325A (ja) 車載用撮像装置
US20220408062A1 (en) Display control apparatus, display control method, and program
US20230098424A1 (en) Image processing system, mobile object, image processing method, and storage medium
EP4156125A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP2024007203A (ja) カメラシステムおよびその制御方法、プログラム
JP5245471B2 (ja) 撮像装置、並びに、画像処理装置および方法
WO2021084818A1 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
JP2005217482A (ja) 車両周辺監視方法および装置
EP4408006A1 (en) Image processing system, movable apparatus, image processing method, and storage medium
CN118413752A (zh) 图像处理***、可移动设备、图像处理方法和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230426

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521