JP7244562B2 - 移動体の制御装置及び制御方法並びに車両 - Google Patents

移動体の制御装置及び制御方法並びに車両 Download PDF

Info

Publication number
JP7244562B2
JP7244562B2 JP2021049122A JP2021049122A JP7244562B2 JP 7244562 B2 JP7244562 B2 JP 7244562B2 JP 2021049122 A JP2021049122 A JP 2021049122A JP 2021049122 A JP2021049122 A JP 2021049122A JP 7244562 B2 JP7244562 B2 JP 7244562B2
Authority
JP
Japan
Prior art keywords
vehicle
control device
distortion reduction
oblique
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021049122A
Other languages
English (en)
Other versions
JP2022147742A (ja
Inventor
裕司 安井
輝 金原
謙治 後藤
彩 美浦
一郎 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021049122A priority Critical patent/JP7244562B2/ja
Priority to CN202210148611.5A priority patent/CN115179863A/zh
Priority to US17/688,084 priority patent/US11893715B2/en
Publication of JP2022147742A publication Critical patent/JP2022147742A/ja
Application granted granted Critical
Publication of JP7244562B2 publication Critical patent/JP7244562B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)

Description

本発明は、移動体の制御装置及び制御方法並びに車両に関する。
複数のカメラを用いて車両の外界を認識する技術が実用化されている。外界の認識結果は、運転支援や自動運転に利用される。特許文献1では、広角レンズのカメラによって車両の周囲を広範囲で撮影する技術を提案する。広角レンズのカメラによって撮影された画像に対して、歪みを軽減するために座標変換が行われる。
特開2018-171964号公報
広角レンズや魚眼レンズが取り付けられたカメラによって撮影された画像の歪みを軽減するための処理は電力を消費する。そのため、車両の外界を認識するために歪みを軽減する処理を過度に実行すると、電力消費量が多くなってしまう。このような電力消費量の増加は、車両に限られず、他の移動体についても当てはまる。本発明の一部の側面は、移動シーンに応じて移動体の外界を適切に認識するための技術を提供することを目的とする。
上記課題に鑑みて、1つ以上の撮影装置を有する移動体の制御装置であって、前記1つ以上の撮影装置から前記移動体の外界の画像を取得する画像取得手段と、前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正手段と、前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識手段と、を備え、前記補正手段は、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、前記所定の規則は、前記歪み軽減処理の対象とする領域の水平方向の位置と、前記位置にある領域を前記歪み軽減処理の対象とするタイミングと、を規定する、制御装置が提供される。
上記手段により、移動シーンに応じて移動体の外界を適切に認識できる。
実施形態に係る車両の構成例を説明するブロック図。 実施形態に係るカメラの撮影範囲を説明する模式図。 実施形態に係る歪み軽減処理を説明する模式図。 実施形態に係る歪み軽減処理の対象領域を説明する模式図。 実施形態に係る車両の制御装置の動作例を説明するフロー図。 実施形態に係る歪み軽減処理の対象候補を説明するタイミング図。 実施形態に係る通常の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の規則に従う領域の垂直方向の位置を説明する模式図。 実施形態に係る特定の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の規則に従う領域の垂直方向の位置を説明する模式図。 実施形態に係る特定の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。 実施形態に係る特定の走行シーンを説明する模式図。 実施形態に係る特定の規則に従う状態遷移を説明する模式図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。なお、以下の実施形態では、移動体が車両であるものとして説明するが、移動体は車両に限られず飛行体やロボット等であってもよい。
図1は、本発明の一実施形態に係る車両1のブロック図である。図1において、車両1の概略が平面図と側面図とで示されている。車両1は一例としてセダンタイプの四輪の乗用車である。車両1はこのような四輪車両であってもよいし、二輪車両や他のタイプの車両であってもよい。
車両1は、車両1を制御する車両用制御装置2(以下、単に制御装置2と呼ぶ)を含む。制御装置2は車内ネットワークにより通信可能に接続された複数のECU(Electronic Control Unit)20~29を含む。各ECUは、CPU(Central Processing Unit)等のプロセッサ、半導体メモリ等のメモリ、外部デバイスとのインタフェース等を含む。メモリにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、メモリ及びインタフェース等を複数備えていてもよい。例えば、ECU20は、プロセッサ20aとメモリ20bとを備える。メモリ20bに格納されたプログラムを含む命令をプロセッサ20aが実行することによって、ECU20による処理が実行される。これに代えて、ECU20は、ECU20による処理を実行するためのASIC(Application Specific Integrated Circuit)等の専用の集積回路を備えてもよい。他のECUについても同様である。
以下、各ECU20~29が担当する機能等について説明する。なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、統合したりすることが可能である。
ECU20は、車両1の自動走行に関わる制御を実行する。自動運転においては、車両1の操舵と、加減速の少なくともいずれか一方を自動制御する。ECU20による自動走行は、運転者による走行操作を必要としない自動走行(自動運転とも呼ばれうる)と、運転者による走行操作を支援するための自動走行(運転支援とも呼ばれうる)とを含んでもよい。
ECU21は、電動パワーステアリング装置3を制御する。電動パワーステアリング装置3は、ステアリングホイール31に対する運転者の運転操作(操舵操作)に応じて前輪を操舵する機構を含む。また、電動パワーステアリング装置3は操舵操作をアシストしたり、前輪を自動操舵したりするための駆動力を発揮するモータや、操舵角を検知するセンサ等を含む。車両1の運転状態が自動運転の場合、ECU21は、ECU20からの指示に対応して電動パワーステアリング装置3を自動制御し、車両1の進行方向を制御する。
ECU22及び23は、車両の周囲の状況を検知する検知ユニットの制御及び検知結果の情報処理を行う。車両1は、車両の状況を検知する検知ユニットとして、1つの標準カメラ40と、4つの魚眼カメラ41~44とを含む。標準カメラ40並びに魚眼カメラ42及び44はECU22に接続されている。魚眼カメラ41及び43はECU23に接続されている。ECU22及び23は、標準カメラ40及び魚眼カメラ41~44が撮影した画像を解析することにより、物標の輪郭や、道路上の車線の区画線(白線等)を抽出可能である。
魚眼カメラ41~44とは、魚眼レンズが取り付けられたカメラのことである。以下、魚眼カメラ41の構成について説明する。他の魚眼カメラ41~44も同様の構成を有してもよい。魚眼カメラ41の画角は、標準カメラ40の画角よりも広い。そのため、魚眼カメラ41は、標準カメラ40よりも広い範囲を撮影可能である。魚眼カメラ41によって撮影された画像は、標準カメラ40によって撮影された画像と比較して大きな歪みを有する。そのため、ECU23は、魚眼カメラ41によって撮影された画像を解析する前に、当該画像に対して歪みを軽減するための変換処理(以下、「歪み軽減処理」という)を行ってもよい。一方、ECU22は、標準カメラ40によって撮影された画像を解析する前に、当該画像に対して歪み軽減処理を行わなくてもよい。このように、標準カメラ40は、歪み軽減処理の対象とならない画像を撮影する撮影装置であり、魚眼カメラ41は、歪み軽減処理の対象となる画像を撮影する撮影装置である。標準カメラ40のかわりに、歪み軽減処理の対象とならない画像を撮影する他の撮影装置、例えば広角レンズや望遠レンズが取り付けられたカメラが使用されてもよい。
標準カメラ40は、車両1の前部中央に取り付けられており、車両1の前方の状況を撮影する。魚眼カメラ41は、車両1の前部中央に取り付けられており、車両1の前方の状況を撮影する。図1では、標準カメラ40と魚眼カメラ41とが水平方向に並んでいるように示されている。しかし、標準カメラ40及び魚眼カメラ41の配置はこれに限られず、例えばこれらは垂直方向に並んでいてもよい。また、標準カメラ40と魚眼カメラ41との少なくとも一方は、車両1のルーフ前部(例えば、フロントウィンドウの車室内側)に取り付けられてもよい。例えば、魚眼カメラ41が車両1の前部中央(例えば、バンパー)に取り付けられ、標準カメラ40が車両1のルーフ前部に取り付けられてもよい。魚眼カメラ42は、車両1の右側部中央に取り付けられており、車両1の右方の状況を撮影する。魚眼カメラ43は、車両1の後部中央に取り付けられており、車両1の後方の状況を撮影する。魚眼カメラ44は、車両1の左側部中央に取り付けられており、車両1の左方の状況を撮影する。
車両1が有するカメラの種類、個数及び取り付け位置は、上述の例に限られない。また、車両1は、車両1の周囲の物標を検知したり、物標との距離を測距したりするための検知ユニットとして、ライダ(Light Detection and Ranging)やミリ波レーダを含んでもよい。
ECU22は、標準カメラ40並びに魚眼カメラ42及び44の制御及び検知結果の情報処理を行う。ECU23は、魚眼カメラ41及び43の制御及び検知結果の情報処理を行う。車両の状況を検知する検知ユニットを2系統に分けることによって、検知結果の信頼性を向上できる。
ECU24は、ジャイロセンサ5、GPSセンサ24b、通信装置24cの制御及び検知結果あるいは通信結果の情報処理を行う。ジャイロセンサ5は車両1の回転運動を検知する。ジャイロセンサ5の検知結果や、車輪速等により車両1の進路を判定することができる。GPSセンサ24bは、車両1の現在位置を検知する。通信装置24cは、地図情報や交通情報を提供するサーバと無線通信を行い、これらの情報を取得する。ECU24は、メモリに構築された地図情報のデータベース24aにアクセス可能であり、ECU24は現在地から目的地へのルート探索等を行う。ECU24、地図データベース24a、GPSセンサ24bは、いわゆるナビゲーション装置を構成している。
ECU25は、車車間通信用の通信装置25aを備える。通信装置25aは、周辺の他車両と無線通信を行い、車両間での情報交換を行う。
ECU26は、パワープラント6を制御する。パワープラント6は車両1の駆動輪を回転させる駆動力を出力する機構であり、例えば、エンジンと変速機とを含む。ECU26は、例えば、アクセルペダル7Aに設けた操作検知センサ7aにより検知した運転者の運転操作(アクセル操作あるいは加速操作)に対応してエンジンの出力を制御したり、車速センサ7cが検知した車速等の情報に基づいて変速機の変速段を切り替えたりする。車両1の運転状態が自動運転の場合、ECU26は、ECU20からの指示に対応してパワープラント6を自動制御し、車両1の加減速を制御する。
ECU27は、方向指示器8(ウィンカ)を含む灯火器(ヘッドライト、テールライト等)を制御する。図1の例の場合、方向指示器8は車両1の前部、ドアミラー及び後部に設けられている。
ECU28は、入出力装置9の制御を行う。入出力装置9は運転者に対する情報の出力と、運転者からの情報の入力の受け付けを行う。音声出力装置91は運転者に対して音声により情報を報知する。表示装置92は運転者に対して画像の表示により情報を報知する。表示装置92は例えば運転席表面に配置され、インストルメントパネル等を構成する。なお、ここでは、音声と表示を例示したが振動や光により情報を報知してもよい。また、音声、表示、振動又は光のうちの複数を組み合わせて情報を報知してもよい。更に、報知すべき情報のレベル(例えば緊急度)に応じて、組み合わせを異ならせたり、報知態様を異ならせたりしてもよい。入力装置93は運転者が操作可能な位置に配置され、車両1に対する指示を行うスイッチ群であるが、音声入力装置も含まれてもよい。
ECU29は、ブレーキ装置10やパーキングブレーキ(不図示)を制御する。ブレーキ装置10は例えばディスクブレーキ装置であり、車両1の各車輪に設けられ、車輪の回転に抵抗を加えることで車両1を減速あるいは停止させる。ECU29は、例えば、ブレーキペダル7Bに設けた操作検知センサ7bにより検知した運転者の運転操作(ブレーキ操作)に対応してブレーキ装置10の作動を制御する。車両1の運転状態が自動運転の場合、ECU29は、ECU20からの指示に対応してブレーキ装置10を自動制御し、車両1の減速及び停止を制御する。ブレーキ装置10やパーキングブレーキは車両1の停止状態を維持するために作動することもできる。また、パワープラント6の変速機がパーキングロック機構を備える場合、これを車両1の停止状態を維持するために作動することもできる。
図2を参照して、標準カメラ40及び魚眼カメラ41~44の撮影範囲について説明する。図2(a)は、各カメラの水平方向の撮影範囲を示し、図2(b)は車両1の前部の魚眼カメラ41の垂直方向の撮影範囲を示し、図2(c)は車両1の右側部の魚眼カメラ42の垂直方向の撮影範囲を示し、図2(d)は車両1の後部の魚眼カメラ43の垂直方向の撮影範囲を示す。本明細書において、水平方向及び垂直方向は、車両1の車体を基準とする。車両1の左側部の魚眼カメラ42の垂直方向の撮影範囲は図2(c)と同様としてよいため省略する。
まず、図2(a)を参照して、車両1の平面図(すなわち、車両1の水平方向)における撮影範囲について説明する。標準カメラ40は、撮影範囲200に含まれる状況を撮影する。標準カメラ40の撮影中心200Cは、車両1の前方正面を向いている。撮影中心200Cは、レンズの光軸の方向によって規定されてもよい。標準カメラ40の水平方向の画角は、90°未満であってもよく、例えば45°程度又は30°程度であってもよい。
魚眼カメラ41は、撮影範囲201に含まれる状況を撮影する。魚眼カメラ41の撮影中心201Cは、車両1の前方正面を向いている。魚眼カメラ42は、撮影範囲202に含まれる状況を撮影する。魚眼カメラ42の撮影中心202Cは、車両1の右方正面を向いている。魚眼カメラ43は、撮影範囲203に含まれる状況を撮影する。魚眼カメラ43の撮影中心203Cは、車両1の後方正面を向いている。魚眼カメラ44は、撮影範囲204に含まれる状況を撮影する。魚眼カメラ44の撮影中心204Cは、車両1の左方正面を向いている。魚眼カメラ41~44の水平方向の画角は、例えば90°よりも大きくてもよく、150°よりも大きくてもよく、180°よりも大きくてもよく、例えば180°程度であってもよい。図2(a)は、魚眼カメラ41~44の水平方向の画角が180°である例を示している。
続いて、図2(b)~図2(d)を参照して、車両1の垂直方向における撮影範囲について説明する。図2(b)では、魚眼カメラ41の垂直方向の撮影範囲について説明し、図2(c)では、魚眼カメラ42の垂直方向の撮影範囲について説明し、図2(d)では、魚眼カメラ43の垂直方向の撮影範囲について説明する。他の魚眼カメラ44の垂直方向の撮影範囲は図2(c)と同様であってもよい。
魚眼カメラ41~44の垂直方向の画角は、例えば90°よりも大きくてもよく、150°よりも大きくてもよく、180°よりも大きくてもよく、例えば180°程度であってもよい。図2(b)~図2(d)は、魚眼カメラ41~44の垂直方向の画角が180°となる例を示している。魚眼カメラ43の撮影中心203Cは、地面に平行な方向よりも下側(地面の側)を向いている。これにかえて、魚眼カメラ43の撮影中心203Cは、地面に平行な方向を向いていてもよいし、地面に平行な方向よりも上側(地面とは反対側)を向いていてもよい。また、魚眼カメラ41~44の撮影中心201C~204Cが、垂直方向において、個別の方向を向いていてもよい。
標準カメラ40及び魚眼カメラ41~44が上述のような撮影範囲200~204を有することによって、車両1の正面前方及び4つの斜め方向は、2つの別個のカメラの撮影範囲に含まれる。具体的に、車両1の正面前方は、標準カメラ40の撮影範囲200と、魚眼カメラ41の撮影範囲201との両方に含まれる。車両1の右斜め前方は、魚眼カメラ41の撮影範囲201と、魚眼カメラ42の撮影範囲202との両方に含まれる。車両1の他の3つの斜め方向についても同様である。
図3及び図4を参照して、魚眼カメラ41~44によって撮影された画像の歪み軽減処理について説明する。図3は歪み軽減処理の前後の画像を示す。図4は、歪み軽減処理の対象となる領域を示す。図4(a)は、車両1を上方から見た図を示し、図4(b)は車両1を後方から見た図を示す。画像300は、魚眼カメラ43によって撮影された車両1の右方の状況の画像である。図3に示されるように、画像300は、特に周辺部分において大きな歪みを有する。
魚眼カメラ43に接続されているECU22は、画像300に対して歪み軽減処理を行う。具体的に、図3に示すように、ECU22は、画像300内の1点を変換中心301として決定する。図4に示すように、変換中心301は、水平方向において魚眼カメラ42から見て撮影領域202内の右側に位置し、垂直方向において地面と平行な方向を向く。
ECU22は、画像300から、変換中心301を中心とする矩形の領域302を切り出す。この領域302は、図4に示すように、撮影範囲202のうち魚眼カメラ42から見て右側に位置する領域202Rに対応する。ECU22は、この領域302に対して歪み軽減処理を行うことによって、歪みが軽減された画像303を生成する。この画像303は、領域202Rの状況を表す画像である。
歪み軽減処理の結果として、変換中心301に近い位置ほど歪みが軽減され、変換中心301から遠い位置では歪みが軽減されないか、歪みが増大される。画像300全体を歪み軽減処理の対象とした場合に、変換中心301から遠い位置にある領域では歪みが大きくなる。そのため、この遠い位置にある領域を利用して車両1の外界を解析したとしても、精度の良い解析を行えない。そこで、制御装置2は、解析対象の領域に変換中心301を設定し、変換中心301の周囲の領域について歪み軽減処理を行い、処理後の画像を用いて解析対象の領域の状況を解析する。
撮影範囲201は、解析対象の領域として、車両1の左斜め前方を撮影する領域201Lと、車両1の正面前方を撮影する領域201Fと、車両1の右斜め前方を撮影する領域201Rとを含む。撮影範囲202は、解析対象の領域として、車両1の右斜め前方を撮影する領域202Lと、車両1の右方正面を撮影する領域202Fと、車両1の右斜め後方を撮影する領域202Rとを含む。撮影範囲203は、解析対象の領域として、車両1の右斜め後方を撮影する領域203Lと、車両1の後方正面を撮影する領域203Fと、車両1の左斜め後方を撮影する領域203Rとを含む。撮影範囲204は、解析対象の領域として、車両1の左斜め後方を撮影する領域204Lと、車両1の左方正面を撮影する領域204Fと、車両1の左斜め前方を撮影する領域204Rとを含む。撮影範囲201は、水平方向において、3つの領域201L、201F、及び201Rが均等となるように(すなわち、各領域の水平方向の画角が等しくなるように)分割されてもよい。他の撮影範囲202~204についても均等に3分割されてもよい。
制御装置2は、車両1の右斜め前方の状況を解析したい場合に、魚眼カメラ42の撮影範囲202に含まれる領域202L内(例えば、領域202Lの中心)に変換中心301を設定し、変換中心301の周囲の領域について歪み軽減処理を行い、処理後の画像を用いて右斜め前方の状況を解析する。制御装置2は、車両1の右方正面の状況を解析したい場合に、魚眼カメラ42の撮影範囲202に含まれる領域202F内(例えば、領域202Fの中心)に変換中心301を設定し、変換中心301の周囲の領域について歪み軽減処理を行い、処理後の画像を用いて右方正面の状況を解析する。制御装置2は、車両1の右斜め後方の状況を解析したい場合に、魚眼カメラ42の撮影範囲202に含まれる領域202R内(例えば、領域202Rの中心)に変換中心301を設定し、変換中心301の周囲の領域について歪み軽減処理を行い、処理後の画像を用いて右斜め後方の状況を解析する。
図5を参照して、一部の実施形態において制御装置2が車両1を制御する方法の例について説明する。この方法は、制御装置2の各ECU20~29のプロセッサ20aがメモリ20b内のプログラムを実行することによって行われてもよい。図5の方法は、制御装置2による運転支援機能又は自動運転機能がオンになったことに応じて開始されてもよい。
ステップS501で、制御装置2は、標準カメラ40及び魚眼カメラ41~44のそれぞれから車両1の外界の画像を取得する。各画像は、車両1の外界のうち、図2で説明した範囲の状況を含む。
ステップS502で、制御装置2は、車両1の現在の走行シーンを判定する。以下に説明する例では、車両の走行シーンとして、(1)丁字交差点へ進入するシーン又は一時停止後に再発進するシーン、(2)狭路を走行するシーン、(3)交差点で右折又は左折を行うシーン、(4)後退するシーン、(5)車線変更を行うシーンを扱う。これら以外のシーンは、通常(デフォルト)のシーンとして扱う。通常のシーンは、例えば車両1が道路を道なりに走行しているシーンを含む。本明細書では、左側通行が採用されている国を車両1が走行する場合を扱う。右側通行が採用されている国では、以下の説明における左折及び右折が入れ替わる。
ステップS503で、制御装置2は、車両1の現在の走行シーンに応じた規則に従って、ステップS501で取得された画像のうち歪み軽減処理の対象とする1つ以上の領域を決定する。以下、この規則を領域決定規則と呼ぶ。領域決定規則は事前に定められており、例えばメモリ20bに記憶されている。領域決定規則の具体例については後述する。
ステップS504で、制御装置2は、図3に示したように、歪み軽減処理の対象として決定された1つ以上領域のそれぞれについて歪み軽減処理を行う。この歪み軽減処理は、魚眼カメラ41~44から取得された画像の歪みを軽減するための処理である。歪み軽減処理には既存の技術を用いてもよいため、詳細な説明を省略する。標準カメラ40から取得された画像については歪み軽減処理を行う必要はない。
ステップS505で、制御装置2は、標準カメラ40から取得された画像及び魚眼カメラ41~44から取得され歪み軽減処理が行われた画像に基づいて車両1の外界を認識する。例えば、制御装置2は、補正された画像を、事前に学習されメモリ20bに格納されているモデルに適用することのよって、車両1の周囲の物標を特定してもよい。さらに、制御装置2は、外界の認識結果に応じて車両1の制御(例えば、自動ブレーキや運転者への通知、自動運転レベルの変更など)を行ってもよい。外界の認識結果に応じた車両1の制御には既存の技術を適用してもよいため、詳細な説明を省略する。
ステップS506で、制御装置2は、動作を終了するかどうかを判定する。制御装置2は、動作を終了すると判定された場合(ステップS506で「YES」)に動作を終了し、それ以外の場合(ステップS506で「NO」)に動作をステップS501に戻す。制御装置2は、例えば運転支援機能又は自動運転機能がオフになったことに応じて動作を終了すると判定してもよい。
上述のように、ステップS501~S505は繰り返し実行される。制御装置2は、ステップS501~S505の動作を周期的に実行してもよい。この実行周期は、S504の歪み軽減処理及びS505の認識処理の所要時間によって異なり、例えば100ms程度であってもよい。
図6を参照して、制御装置2による周期的な動作について説明する。図6の丸印は、ステップS505の認識処理で使用される画像の候補を示す。図6のΔtは、ステップS501~S505を実行する周期を示す。標準カメラ40から取得された画像は歪みが少ないため、ステップS504の歪み軽減処理を行うことなくステップS505の認識処理で使用可能である。魚眼カメラ41~44から取得された画像は、ステップS504で歪み軽減処理を行った後にステップS505の認識処理で使用される。上述のように、魚眼カメラから取得された画像は、水平方向に分割された3つの領域のそれぞれについて歪み軽減処理が行われた画像を生成可能である。そのため、周期的な動作の1回の動作タイミングにおいて、制御装置2は、最大で13個の画像を用いて認識処理を実行可能である。13個の画像のうちの12個は魚眼カメラから取得されるものであるため、認識処理の前に歪み軽減処理が行われる。これら12個の領域のすべてについて歪み軽減処理を行うと、処理負荷が大きくなり、消費電力も高くなる。そこで、以下の実施形態では、車両1の走行シーンに基づいて、各動作タイミングにおいて12個の領域のうちのどの領域について歪み軽減処理を行い、認識処理に使用するかを決定する。
図7~図9を参照して、通常のシーンの領域決定規則について説明する。図7は、走行シーンの一例を示す。図7に示される例では、車両1は、直線道路を道なりに走行中である。
図8は、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態800~802を順番に繰り返す。すなわち、時刻tの動作タイミングにおいて状態800であったとすると、時刻t+Δt(上述のように、Δtは周期を示す)の動作タイミングにおいて状態801となり、時刻t+2×Δtの動作タイミングにおいて状態802となり、時刻t+3×Δtの動作タイミングにおいて状態800に戻る。後述の他の走行シーンにおける領域決定規則についても同様である。
状態800では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ42による領域202Rと、魚眼カメラ43による領域203Lと、魚眼カメラ44による領域204Rとが解析対象となる。状態801では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Fとが解析対象となる。状態802では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Rと、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203Rと、魚眼カメラ44による領域204Lとが解析対象となる。
魚眼カメラの撮影範囲に含まれる領域が解析対象となる場合に、制御装置2は、この領域に対して上述のように歪み軽減処理を行う。したがって、領域決定規則は、歪み軽減処理の対象となる領域の水平方向の位置と、この位置にある領域を歪み軽減処理の対象とするタイミングと、を規定する。また、領域決定規則は、複数の魚眼カメラ41~44のそれぞれについて個別に規則を規定する。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右斜め前方、右方正面、右斜め後方、後方正面、左斜め後方、左方正面、及び左斜め前方のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。さらに、車両1の前方正面について、3周期ごとに、標準カメラ40の画像と魚眼カメラの画像との両方を用いた解析が行われ、車両1の4つの斜め方向のそれぞれについて、3周期ごとに、2つの魚眼カメラの画像の両方を用いた解析が行われる。このように、各動作タイミングにおいて、歪み補正処理が行われる魚眼カメラ41~44の画像の一部を解析対象とすることによって、制御装置2の処理負荷が軽減し、消費電力が低減する。
図9は、解析対象の領域の垂直方向における位置を示す。図9(a)は、魚眼カメラ41による領域201Fの垂直方向における位置を示す。図9(b)は、魚眼カメラ42による領域202Fの垂直方向における位置を示す。図9(c)は、魚眼カメラ43による領域203Fの垂直方向における位置を示す。魚眼カメラ44による各領域の垂直方向における位置は図9(b)と同様であってもよいため、説明を省略する。
領域決定規則では、図9(a)に示すように、領域201Fを規定する変換中心301と、車両1の垂直下向きとのなす角がθ1に規定されている。θ1は、90度であってもよし、90度よりも小さな値(例えば、80度)であってもよい。領域201R及び201Lについても、変換中心301と、車両1の垂直下向きとのなす角がθ1に規定されていてもよい。同様に、魚眼カメラ42~44の領域についても、変換中心301と、車両1の垂直下向きとのなす角がθ1に規定されていてもよい。このように、領域決定規則は、歪み軽減処理の対象となる領域の垂直方向の位置を規定する。変換中心301と、車両1の垂直下向きとのなす角をθ1(例えば、90度)とすることによって、車両1の遠方と近傍とをバランスよく解析できる。
図10~図12を参照して、車両1が丁字交差点へ進入するシーン又は車両1が一時停止後に再発進するシーンの領域決定規則について説明する。図10は、このようなシーンの一例を示す。図10に示される例では、車両1が丁字交差点へ進入しようとしている。丁字交差点の前に一時停止の標識があるため、車両1はここで一時停止し、再発進する。図10の例では、丁字交差点への進入と一時停止後の再発進との両方が行われるシーンを示すが、これらのうちの一方のみが行われるシーンについて以下の領域決定規則が適用されてもよい。車両1が丁字交差点へ進入するシーン又は車両1が一時停止後に再発進するシーンの解析対象の領域の垂直方向における位置は図9での説明と同様であってもよいので、重複する説明を省略する。
図11は、領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態1100を繰り返す。状態1100では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ42による領域202Lと、魚眼カメラ44による領域204Rとが解析対象となる。この例では、制御装置2は、車両1の前方正面、右斜め前方、及び左斜め前方のそれぞれを1周期ごとに(すなわち、毎回)解析対象とする。一方、車両1の右方正面、右斜め後方、後方正面、左斜め後方、及び左方正面を解析対象としない。また、車両1の右斜め前方及び左斜め前方について、毎回、2つの魚眼カメラの画像の両方を用いた解析が行われる。2つの異なる魚眼カメラからの画像を用いて解析を行うことによって、ステレオ視による測距を実行可能となるため、いっそう精度の高い解析が可能となる。
図12は、領域決定規則の別の例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態1200~1202を順番に繰り返す。状態1200では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ43による領域203R及び203Rとが解析対象となる。状態1201では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ42による領域202Fと、魚眼カメラ44による領域204Fとが解析対象となる。状態1202では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ42による領域202Lと、魚眼カメラ44による領域204Rとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面、右斜め前方、及び左斜め前方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右方正面、右斜め後方、後方正面、左斜め後方、及び左方正面のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。さらに、車両1の右斜め前方及び左斜め前方について、3周期ごとに、2つの魚眼カメラの画像の両方を用いた解析が行われる。
上述の何れの例においても、領域決定規則は、車両1の左斜め前方及び右斜め前方を、車両1の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で歪み軽減処理の対象とすることを規定する。車両1が丁字交差点へ進入するシーン又は車両1が一時停止後に再発進するシーンでは、車両1の左斜め前方及び右斜め前方から他の交通参加者(歩行者や自転車、他の車両)が現れる可能性が高い。そこで、車両1の左斜め前方及び右斜め前方を高頻度で解析対象とすることによって、制御装置2の処理負荷を低減しつつ、走行シーンに応じた適切な解析を実行可能となる。
図13~図16を参照して、車両1が狭路を走行するシーンの領域決定規則について説明する。狭路とは、車両1と障害物との距離が閾値以下(例えば、50cm以下)となる走行シーンのことであってもよい。図13は、このようなシーンの一例を示す。図13(a)は、車両1がS字カーブを走行するシーンを示す。図13(b)は、車両1がL字路を走行するシーンを示す。図13(c)は、車両1が対向車両とすれ違うシーンを示す。車両13(d)は、車両1が、右折しようとしている先行車両の横をすり抜けて走行するシーンを示す。図13(a)及び図13(b)のように、道路形状に応じて狭路が発生する場合もあり、図13(c)及び図13(d)のように、交通状況に応じて狭路が発生する場合もある。
図14は、領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態1400~1406を順番に繰り返す。状態1400では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202L及び202Fと、魚眼カメラ44による領域204Rとが解析対象となる。状態1401では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202L及び202Rと、魚眼カメラ44による領域204Rとが解析対象となる。状態1402では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203Lと、魚眼カメラ44による領域204Rとが解析対象となる。状態1403では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Rとが解析対象となる。状態1404では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203Rと、魚眼カメラ44による領域204Rとが解析対象となる。状態1405では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Lと、魚眼カメラ44による領域204R及び204Lとが解析対象となる。状態1406では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Lと、魚眼カメラ44による領域204R及び204Fとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面、右斜め前方、及び左斜め前方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右方正面、後方正面、及び左方正面のそれぞれを7周期ごとに解析対象とし、車両1の右斜め後方及び左斜め後方のそれぞれを7周期のうち2回、解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
図15は、領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態1500~1502を順番に繰り返す。状態1500では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Rとが解析対象となる。状態1501では、標準カメラ40による撮影範囲200と、魚眼カメラ42による領域202L及び202Fと、魚眼カメラ44による領域204F及び204Rとが解析対象となる。状態1502では、標準カメラ40による撮影範囲200と、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203L及び203Rと、魚眼カメラ44による領域204Rとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面、右斜め前方、及び左斜め前方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右方正面、右斜め後方、後方正面、左斜め後方、及び左方正面のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
図16は、解析対象の領域の垂直方向における位置を示す。図16(a)は、魚眼カメラ41による領域201Fの垂直方向における位置を示す。図16(b)は、魚眼カメラ42による領域202Fの垂直方向における位置を示す。図16(c)は、魚眼カメラ43による領域203Fの垂直方向における位置を示す。魚眼カメラ44による各領域の垂直方向における位置は図16(b)と同様であってもよいため、説明を省略する。
領域決定規則では、図16(a)に示すように、領域201Fを規定する変換中心301と、車両1の垂直下向きとのなす角がθ2に規定されている。θ2は、図9のθ1よりも小さい値であり、例えば70度であってもよい。領域201R及び201Lについても、変換中心301と、車両1の垂直下向きとのなす角がθ2に規定されていてもよい。魚眼カメラ42~44の領域についても、変換中心301と、車両1の垂直下向きとのなす角がθ3に規定されている。θ3は、θ2よりも小さい値であり、例えば45度であってもよい。
このように、車両1の前方正面、右斜め前方、右方正面、右斜め後方、後方正面、左斜め後方、左方正面、左斜め前方のいずれの領域においても、車両1が狭路を走行する場合の解析対象の領域の垂直方向における位置は、車両1が狭路以外を走行する場合(例えば、上述の通常のシーンの場合)と比較して、下側にある(例えば、変換中心301が下向きである)。車両1が狭路を走行する場合に、車両1の車輪が縁石に乗り上げたり、側溝に落ちたりする可能性がある。解析対象の領域を下側に位置することによって、地面付近の状況の解析精度が向上する。また、車両1が狭路を走行する場合の領域決定規則では、魚眼カメラ41による前方正面の領域201Fが解析対象となる。これによって、図16(a)に示すように、標準カメラ40の撮影範囲200に含まれない車両1の前方正面の近傍を解析することが可能となる。また、車両1の右斜め前方の状況を、魚眼カメラ42による領域202Lに基づいて解析する。これによって、車両1の前輪近傍の領域を解析することが可能となる。左斜め前方の状況についても同様である。
車両1が狭路を走行する場合に、車両の側方正面は障害物が近くにあるため、遠方を解析する必要性が低いが、車両の前方(右斜め前方及び左斜め前方を含む)は、ある程度遠方まで解析した方がよい。そこで、上述の例では、車両1の右斜め前方及び左斜め前方を含む領域の垂直方向における位置を、車両1の右方正面及び左方正面を含む領域の垂直方向における位置よりも上側にする(すなわち、θ2>θ3)。
上述の何れの例においても、領域決定規則は、車両1の右斜め前方及び左斜め前方を、車両1の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で歪み軽減処理の対象とすることを規定する。車両1が狭路を走行するシーンでは、車両1が左斜め前方及び右斜め前方にある物体に接触する可能性が高い。そこで、車両1の左斜め前方及び右斜め前方を高頻度で解析対象とすることによって、制御装置2の処理負荷を低減しつつ、走行シーンに応じた適切な解析を実行可能となる。
図17~図20を参照して、車両1が交差点において曲がるシーンの領域決定規則について説明する。図17及び図19は、このようなシーンの一例を示す。図17に示される例では、車両1が交差点を左折する。左側通行の国において、左折とは、車両1が交差点において対向車線と交差しない方に曲がることをいう。図19に示される例では、車両1が交差点を右折する。左側通行の国において、右折とは、車両1が交差点において対向車線と交差する方に曲がることをいう。車両1が交差点で曲がるシーンの解析対象の領域の垂直方向における位置は図9での説明と同様であってもよいので、重複する説明を省略する。
図18は、車両1が交差点を左折するシーンの領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態1800~1802を順番に繰り返す。状態1800では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ42による領域202Rと、魚眼カメラ43による領域203Rと、魚眼カメラ44による領域204Fとが解析対象となる。状態1801では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203F及び203Rと、魚眼カメラ44による領域204Fとが解析対象となる。状態1802では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ42による領域202Lと、魚眼カメラ43による領域203L及び203Rと、魚眼カメラ44による領域204Fとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面、左斜め前方、左方正面、及び左斜め後方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右斜め前方、右方正面、右斜め後方、及び後方正面のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
図20は、車両1が交差点を右折するシーンの領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態2000~2002を順番に繰り返す。状態2000では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201F及び201Rと、魚眼カメラ43による領域203Lと、魚眼カメラ44による領域204Fとが解析対象となる。状態2001では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201F及び201Rと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Rとが解析対象となる。状態2002では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201F及び201Rと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Rとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面及び右斜め前方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右方正面、右斜め後方、後方正面、左斜め後方、左方正面、及び左斜め後方のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
上述の何れの例においても、領域決定規則は、車両1が曲がる方向の車両1の斜め前方を、車両1の後方正面及び車両1が曲がる方向とは反対側の車両1の側方(斜め前方、側方正面、及び斜め後方を含む)よりも高い頻度で歪み軽減処理の対象とすることを規定する。車両1が交差点で曲がるシーンでは、車両1の曲がる方向の斜め前方から他の交通参加者(歩行者や自転車、他の車両)が現れる可能性が高い。そこで、車両1が曲がる方向の斜め前方を高頻度で解析対象とすることによって、制御装置2の処理負荷を低減しつつ、走行シーンに応じた適切な解析を実行可能となる。
上述の例では、車両1が左折する場合に、車両1の左斜め後方を、車両1が曲がる方向とは反対側の車両1の側方(斜め前方、側方正面、及び斜め後方を含む)よりも高い頻度で歪み軽減処理の対象とする。このように車両1の左斜め後方を高頻度で解析対象とすることによって、左折時の巻き込み事故の原因となる交通参加者の認識精度が向上する。領域決定規則は、車両1が右折する場合に、車両1の前方正面を、車両1が曲がる方向とは反対側の車両1の側方(斜め前方、側方正面、及び斜め後方を含む)よりも高い頻度で歪み軽減処理の対象とすることを規定する。このように車両1の前方正面を高頻度で解析対象とすることによって、右折時の対向車両の認識精度が向上する。
図21~図23を参照して、車両1が後退するシーンの領域決定規則について説明する。図21は、このようなシーンの一例を示す。図21に示される例では、車両1が駐車スペースから発進するために後退しようとしている。車両1が後退するシーンの解析対象の領域の垂直方向における位置は図16での説明と同様であってもよいので、重複する説明を省略する。
図22は、領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態2200~2204を順番に繰り返す。状態2200では、標準カメラ40による撮影範囲200と、魚眼カメラ43による領域203L、203F及び203Rと、魚眼カメラ44による領域204Fとが解析対象となる。状態2201では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。状態2202では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。状態2203では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Rと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。状態2204では、標準カメラ40による撮影範囲200と、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面、右斜め後方、後方正面、及び左斜め後方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の左斜め前方、右斜め前方、右方正面、左方正面、及び左斜め前方のそれぞれを5周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
図23は、領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。制御装置2は、状態2300~2205を順番に繰り返す。状態2300では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。状態2301では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Fとが解析対象となる。状態2302では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Rと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。状態2303では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Lと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Fとが解析対象となる。状態2304では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Fと、魚眼カメラ43による領域203L、203F及び203Rとが解析対象となる。状態2305では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201Rと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Fと、魚眼カメラ44による領域204Fとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の前方正面及び後方正面を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右斜め後方及び左斜め後方のそれぞれを2周期ごとに解析対象とし、車両1の右斜め前方、右方正面、左方正面、及び左斜め前方のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
上述の何れの例においても、領域決定規則は、車両1の後方正面、右斜め後方及び左斜め後方を、車両1の右斜め前方及び左斜め前方よりも高い頻度で歪み軽減処理の対象とすることを規定する。車両1が後退するシーンでは、車両1の左斜め後方、後方正面、及び右斜め後方から他の交通参加者(歩行者や自転車、他の車両)が現れる可能性が高い。そこで、車両1の後方正面、右斜め後方及び左斜め後方を高頻度で解析対象とすることによって、制御装置2の処理負荷を低減しつつ、走行シーンに応じた適切な解析を実行可能となる。さらに、図23の例では、車両1の後方正面を、車両1の右斜め後方及び左斜め後方よりも高い頻度で歪み軽減処理の対象とする。車両1の前方正面は標準カメラ40からの画像が毎回解析対象となるが、車両1の後方正面にはこのような標準カメラが存在しない。そこで、魚眼カメラ43が撮影した後方正面の画像を高頻度で解析対象としてもよい。
上述の例では、領域決定規則は、車両1が後退する場合に、車両1が前進する場合と比較して、車両1の後方正面を含む領域の垂直方向における位置を下側にすることを規定する。これによって、運転者からは死角になる車両1の後方正面の近傍の解析精度を向上できる。
図24及び図25を参照して、車両1が車線変更を行うシーンの領域決定規則について説明する。図24は、このようなシーンの一例を示す。車線変更は、目的地への走行計画に従って行われるものであってもよいし、車両1の前方の障害物(例えば、他の車両の割り込みや歩行者の飛び出し)を回避するために行われるものであってもよい。
図25は、領域決定規則の一例において、各動作タイミングに解析対象となる領域を示す。図25は、車両1が右側の車線へ移動する場合を扱う。車両1が左側の車線へ移動する場合には、左右が反転する。制御装置2は、状態2500~2505を順番に繰り返す。状態2500では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ42による領域202Fと、魚眼カメラ44による領域204Fとが解析対象となる。状態2501では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ43による領域203L及び203Rとが解析対象となる。状態2502では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Fとが解析対象となる。状態2503では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ43による領域203Lと、魚眼カメラ44による領域204Fとが解析対象となる。状態2504では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ42による領域202Fと、魚眼カメラ43による領域203Rとが解析対象となる。状態2505では、標準カメラ40による撮影範囲200と、魚眼カメラ41による領域201L及び201Rと、魚眼カメラ43による領域203L及び203Fとが解析対象となる。
上述のように動作タイミングごとに状態を遷移することによって、制御装置2は、車両1の左斜め前方、前方正面、及び右斜め前方を1周期ごとに(すなわち、毎回)解析対象とし、車両1の右方正面及び右斜め後方のそれぞれを2周期ごとに解析対象とし、車両1の後方正面、左斜め後方、及び左方正面のそれぞれを3周期ごとに解析対象とする。また、特定の動作タイミングで制御装置2に負荷が集中しないように、解析対象としない領域を複数の動作タイミングに分散している。
上述の例において、領域決定規則は、車両1の右斜め前方及び左斜め前方を、左右のうち車両1の移動方向の正面及び左右のうち車両1の移動方向の斜め後ろよりも高い頻度で歪み軽減処理の対象とすることを規定する。さらに、領域決定規則は、左右のうち車両1の移動方向の正面及び左右のうち車両1の移動方向の斜め後ろを、左右のうち車両1の移動方向とは反対側の正面及び左右のうち車両1の移動方向とは反対側の斜め後ろよりも高い頻度で歪み軽減処理の対象とすることを規定する。車両1が車線変更を行う場合に、車両の進行方向である前方(左斜め前方、前方正面、及び右斜め前方を含む)を高頻度で解析対象としつつ、車両の移動方向(例えば、右側の車線への移動であれば、右方正面及び右斜め後方)を、その反対側(例えば、右側の車線への移動であれば、左方正面及び左斜め後方)よりも高い頻度で解析対象とする。これによって、制御装置2の処理負荷を低減しつつ、走行シーンに応じた適切な解析を実行可能となる。
車両1が車線変更を行うシーンの解析対象の領域の垂直方向における位置は図9での説明と同様であってもよい。これにかえて、領域決定規則は、左右のうち車両1の移動方向とは反対側の斜め前方を含む領域の垂直方向における位置を、左右のうち車両1の移動方向の斜め前方を含む領域の垂直方向における位置よりも下側にすることを規定してもよい。例えば、車両1が右側への車線への移動であれば、魚眼カメラ44による領域204Rの垂直方向における位置を、魚眼カメラ42による領域204Lの垂直方向における位置よりも下側にしてもよい。例えば緊急回避のために車線変更を行う場合に、緊急回避の原因となる物体は、車両1の近傍に存在する可能性が高い。そこで、左右のうち車両1の移動方向とは反対側の斜め前方を含む領域の垂直方向における位置を下側にすることによって、この物体を精度よく認識できるようになる。
上述の実施形態に変形例について説明する。制御装置2は、車両1の現在の走行シーンに応じた規則に加えて、車両1の運転者の視線方向に基づいて歪み軽減処理の対象とする1つ以上の領域を決定する。制御装置2は、例えば車両1に取り付けられたドライバーモニタカメラ(不図示)によって撮影された画像に基づいて運転者の視線方向を判定してもよい。運転者の視線方向は、制御装置2が認識処理を行わなくても、運転者によって状況に応じた動作が行われると考えられる。そこで、制御装置2は、車両1の外界のうち運転者の視線方向の領域について、歪み軽減処理の対象とする頻度を低減してもよい。例えば、運転者が車両1の左斜め後方を見ている場合に、制御装置2は、魚眼カメラ41の領域201L又は魚眼カメラ44の領域204Rを解析対象とする頻度を低減してもよい。
<実施形態のまとめ>
<項目1>
1つ以上の撮影装置(41~44)を有する移動体(1)の制御装置(2)であって、
前記1つ以上の撮影装置から前記移動体の外界の画像(300)を取得する画像取得手段と、
前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域(302)のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正手段と、
前記歪み軽減処理が行われた画像(303)に基づいて前記移動体の外界を認識する認識手段と、を備え、
前記補正手段は、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定する、制御装置。
この項目によれば、移動シーンに応じて移動体の外界を適切に認識できる。
<項目2>
前記補正手段は、所定の周期ごとに前記歪み軽減処理を行い、
前記所定の規則は、前記所定の周期ごとの前記歪み軽減処理の対象とする領域を定める規則である、項目1に記載の制御装置。
この項目によれば、着目すべき領域を、指定の頻度で分析できる。
<項目3>
前記所定の規則は、
前記歪み軽減処理の対象とする領域の水平方向の位置と、
前記位置にある領域を前記歪み軽減処理の対象とするタイミングと、
を規定する、項目1又は2に記載の制御装置。
この項目によれば、水平方向において着目すべき位置を、指定の頻度で分析できる。
<項目4>
前記所定の規則は、前記歪み軽減処理の対象とする領域の垂直方向の位置を規定する、項目1乃至3の何れか1項に記載の制御装置。
この項目によれば、垂直方向において着目すべき位置を重点的に分析できる。
<項目5>
前記移動体は複数の撮影装置を有し、
前記画像取得手段は、前記複数の撮影装置のそれぞれから前記移動体の外界の画像を取得し、
前記所定の規則は、前記複数の撮影装置のそれぞれについて個別の規則を規定する、項目1乃至4の何れか1項に記載の制御装置。
この項目によれば、複数の撮影装置の撮影範囲に含まれる個別の領域を選択して重点的に分析できる。
<項目6>
前記複数の撮影装置は、
前記移動体の前方正面、右斜め前方及び左斜め前方を撮影する第1撮影装置(41)と、
前記移動体の後方正面、右斜め後方及び左斜め後方を撮影する第2撮影装置(43)と、
前記移動体の右方正面、右斜め前方及び右斜め後方を撮影する第3撮影装置(42)と、
前記移動体の左方正面、左斜め前方及び左斜め後方を撮影する第4撮影装置(44)と、
を含む、項目5に記載の制御装置。
この項目によれば、移動体の周囲を全方位的に分析できる。
<項目7>
前記移動体は車両(1)であり、前記移動シーンは前記車両の走行シーンである、項目1乃至6の何れか1項に記載の制御装置。
この項目によれば、車両が走行する際に着目すべき方向を重点的に分析できる。
<項目8>
前記所定の規則は、前記車両が丁字交差点へ進入する場合又は前記車両が一時停止後に再発進する場合に、
前記車両の左斜め前方及び右斜め前方を、前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目7に記載の制御装置。
この項目によれば、丁字交差点へ進入する際又は一時停止後に再発進する際に着目すべき方向を重点的に分析できる。
<項目9>
前記所定の規則は、前記車両が丁字交差点へ進入する場合又は前記車両が一時停止後に再発進する場合に、
2つの撮影装置から取得された2つの画像のうち、前記車両の斜め前方を含む2つの領域を同じタイミングで前記歪み軽減処理の対象とすることを規定する、項目7又は8に記載の制御装置。
この項目によれば、丁字交差点へ進入する際又は一時停止後に再発進する際に着目すべき方向を重点的に分析できる。
<項目10>
前記所定の規則は、前記車両が狭路を走行する場合に、
前記車両の左斜め前方及び右斜め前方を、前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目7乃至9の何れか1項に記載の制御装置。
この項目によれば、狭路を走行する際に着目すべき方向を重点的に分析できる。
<項目11>
前記所定の規則は、前記車両が狭路を走行する場合に、
前記車両の右斜め前方及び左斜め前方を、前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目7乃至10の何れか1項に記載の制御装置。
この項目によれば、狭路を走行する際に着目すべき方向を重点的に分析できる。
<項目12>
前記所定の規則は、前記車両が狭路を走行する場合に、前記車両が狭路以外を走行する場合と比較して、
前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面を含む領域の垂直方向における位置を下側にすることを規定する、項目7乃至11の何れか1項に記載の制御装置。
この項目によれば、狭路を走行する際に着目すべき方向を重点的に分析できる。
<項目13>
前記所定の規則は、前記車両が狭路を走行する場合に、前記車両が狭路以外を走行する場合と比較して、
前記車両の前方正面、右斜め前方及び左斜め前方を含む領域の垂直方向における位置を下側にすることを規定する、項目7乃至11の何れか1項に記載の制御装置。
この項目によれば、狭路を走行する際に着目すべき方向を重点的に分析できる。
<項目14>
前記所定の規則は、前記車両が狭路を走行する場合に、
前記車両の右斜め前方及び左斜め前方を含む領域の垂直方向における位置を、前記車両の右方正面及び左方正面を含む領域の垂直方向における位置よりも上側にすることを規定する、項目7乃至13の何れか1項に記載の制御装置。
この項目によれば、狭路を走行する際に着目すべき方向を重点的に分析できる。
<項目15>
前記所定の規則は、前記車両が交差点において曲がる場合に、
前記車両が曲がる方向の前記車両の斜め前方を、前記車両の後方正面及び前記車両が曲がる方向とは反対側の前記車両の斜め後方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目7乃至14の何れか1項に記載の制御装置。
この項目によれば、交差点を曲がる際に着目すべき方向を重点的に分析できる。
<項目16>
前記所定の規則は、前記車両が交差点において対向車線と交差する方に曲がる場合に、
前記車両の前方正面を、前記車両の後方正面及び前記車両の曲がる方向とは反対側の前記車両の斜め後方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目15に記載の制御装置。
この項目によれば、交差点を曲がる際に着目すべき方向を重点的に分析できる。
<項目17>
前記所定の規則は、前記車両が交差点において対向車線と交差しない方に曲がる場合に、
前記車両が曲がる方向の前記車両の斜め後方を、前記車両の後方正面及び前記車両の曲がる方向とは反対側の前記車両の斜め後方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目15又は16に記載の制御装置。
この項目によれば、交差点を曲がる際に着目すべき方向を重点的に分析できる。
<項目18>
前記所定の規則は、前記車両が後退する場合に、
前記車両の後方正面、右斜め後方及び左斜め後方を、前記車両の右斜め前方及び左斜め前方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目7乃至17の何れか1項に記載の制御装置。
この項目によれば、後退する際に着目すべき方向を重点的に分析できる。
<項目19>
前記所定の規則は、前記車両が後退する場合に、
前記車両の後方正面を、前記車両の右斜め後方及び左斜め後方よりも高い頻度で前記歪み軽減処理の対象とする、項目18に記載の制御装置。
この項目によれば、後退する際に着目すべき方向を重点的に分析できる。
<項目20>
前記所定の規則は、前記車両が後退する場合に、前記車両が前進する場合と比較して、
前記車両の後方正面を含む領域の垂直方向における位置を下側にすることを規定する、項目7乃至19の何れか1項に記載の制御装置。
この項目によれば、後退する際に着目すべき方向を重点的に分析できる。
<項目21>
前記所定の規則は、前記車両が車線変更を行う場合に、
前記車両の右斜め前方及び左斜め前方を、左右のうち前記車両の移動方向の正面及び左右のうち前記車両の移動方向の斜め後ろよりも高い頻度で前記歪み軽減処理の対象とすることを規定し、
左右のうち前記車両の移動方向の正面及び左右のうち前記車両の移動方向の斜め後ろを、左右のうち前記車両の移動方向とは反対側の正面及び左右のうち前記車両の移動方向とは反対側の斜め後ろよりも高い頻度で前記歪み軽減処理の対象とすることを規定する、項目7乃至20の何れか1項に記載の制御装置。
この項目によれば、車線変更する際に着目すべき方向を重点的に分析できる。
<項目22>
前記所定の規則は、前記車両が車線変更を行う場合に、
左右のうち前記車両の移動方向とは反対側の斜め前方を含む領域の垂直方向における位置を、左右のうち前記車両の移動方向の斜め前方を含む領域の垂直方向における位置よりも下側にすることを規定する、項目7乃至21の何れか1項に記載の制御装置。
この項目によれば、車線変更する際に着目すべき方向を重点的に分析できる。
<項目23>
前記1つ以上の撮影装置はそれぞれ、魚眼レンズが取り付けられた撮影装置である、項目1乃至22の何れか1項に記載の制御装置。
この項目によれば、撮影装置の撮影範囲を広くすることができる。
<項目24>
前記移動体は、前記1つ以上の撮影装置よりも歪みが少ない画像を撮影する別の撮影装置(40)をさらに有し、
前記画像取得手段は、前記別の撮影装置から前記移動体の外界の画像を取得し、
前記認識手段は、前記別の撮影装置からの画像にさらに基づいて前記移動体の外界を認識する、項目1乃至23の何れか1項に記載の制御装置。
この項目によれば、複数のタイプの撮影装置を用いて外界を認識できる。
<項目25>
項目1乃至24の何れか1項に記載の制御装置を備える車両。
この項目によれば、車両の形態で上記の効果が得られる。
<項目26>
コンピュータを項目1乃至24の何れか1項に記載の制御装置の各手段として機能させるためのプログラム。
この項目によれば、プログラムの形態で上記の効果が得られる。
<項目27>
1つ以上の撮影装置(41~44)を有する移動体(1)の制御方法であって、
前記1つ以上の撮影装置から前記移動体の外界の画像(300)を取得する画像取得工程と、
前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域(302)のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正工程と、
前記歪み軽減処理が行われた画像(303)に基づいて前記移動体の外界を認識する認識工程と、を備え、
前記補正工程において、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定する、制御方法。
この項目によれば、移動シーンに応じて移動体の外界を適切に認識できる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
1 車両、2 制御装置、40 標準カメラ、41~44 魚眼カメラ

Claims (27)

  1. 1つ以上の撮影装置を有する移動体の制御装置であって、
    前記1つ以上の撮影装置から前記移動体の外界の画像を取得する画像取得手段と、
    前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正手段と、
    前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識手段と、を備え、
    前記補正手段は、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、
    前記所定の規則は、
    前記歪み軽減処理の対象とする領域の水平方向の位置と、
    前記位置にある領域を前記歪み軽減処理の対象とするタイミングと、
    を規定する、制御装置。
  2. 1つ以上の撮影装置を有する移動体の制御装置であって、
    前記1つ以上の撮影装置から前記移動体の外界の画像を取得する画像取得手段と、
    前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正手段と、
    前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識手段と、を備え、
    前記補正手段は、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、
    前記所定の規則は、前記歪み軽減処理の対象とする領域の垂直方向の位置を規定する、制御装置。
  3. 複数の撮影装置を有する移動体の制御装置であって、
    前記複数の撮影装置のそれぞれから前記移動体の外界の画像を取得する画像取得手段と、
    前記複数の撮影装置のそれぞれから取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正手段と、
    前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識手段と、を備え、
    前記補正手段は、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、
    前記所定の規則は、前記複数の撮影装置のそれぞれについて個別の規則を規定する、制御装置。
  4. 前記複数の撮影装置は、
    前記移動体の前方正面、右斜め前方及び左斜め前方を撮影する第1撮影装置と、
    前記移動体の後方正面、右斜め後方及び左斜め後方を撮影する第2撮影装置と、
    前記移動体の右方正面、右斜め前方及び右斜め後方を撮影する第3撮影装置と、
    前記移動体の左方正面、左斜め前方及び左斜め後方を撮影する第4撮影装置と、
    を含む、請求項に記載の制御装置。
  5. 前記移動体は車両であり、前記移動シーンは前記車両の走行シーンである、請求項1乃至の何れか1項に記載の制御装置。
  6. 前記所定の規則は、前記車両が丁字交差点へ進入する場合又は前記車両が一時停止後に再発進する場合に、
    前記車両の左斜め前方及び右斜め前方を、前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項に記載の制御装置。
  7. 前記所定の規則は、前記車両が丁字交差点へ進入する場合又は前記車両が一時停止後に再発進する場合に、
    2つの撮影装置から取得された2つの画像のうち、前記車両の斜め前方を含む2つの領域を同じタイミングで前記歪み軽減処理の対象とすることを規定する、請求項5又は6に記載の制御装置。
  8. 前記所定の規則は、前記車両が狭路を走行する場合に、
    前記車両の左斜め前方及び右斜め前方を、前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項5乃至7の何れか1項に記載の制御装置。
  9. 前記所定の規則は、前記車両が狭路を走行する場合に、
    前記車両の右斜め前方及び左斜め前方を、前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項5乃至8の何れか1項に記載の制御装置。
  10. 前記所定の規則は、前記車両が狭路を走行する場合に、前記車両が狭路以外を走行する場合と比較して、
    前記車両の右方正面、左方正面、右斜め後方、左斜め後方及び後方正面を含む領域の垂直方向における位置を下側にすることを規定する、請求項5乃至9の何れか1項に記載の制御装置。
  11. 前記所定の規則は、前記車両が狭路を走行する場合に、前記車両が狭路以外を走行する場合と比較して、
    前記車両の前方正面、右斜め前方及び左斜め前方を含む領域の垂直方向における位置を下側にすることを規定する、請求項5乃至9の何れか1項に記載の制御装置。
  12. 前記所定の規則は、前記車両が狭路を走行する場合に、
    前記車両の右斜め前方及び左斜め前方を含む領域の垂直方向における位置を、前記車両の右方正面及び左方正面を含む領域の垂直方向における位置よりも上側にすることを規定する、請求項5乃至11の何れか1項に記載の制御装置。
  13. 前記所定の規則は、前記車両が交差点において曲がる場合に、
    前記車両が曲がる方向の前記車両の斜め前方を、前記車両の後方正面及び前記車両が曲がる方向とは反対側の前記車両の斜め後方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項5乃至12の何れか1項に記載の制御装置。
  14. 前記所定の規則は、前記車両が交差点において対向車線と交差する方に曲がる場合に、
    前記車両の前方正面を、前記車両の後方正面及び前記車両の曲がる方向とは反対側の前記車両の斜め後方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項13に記載の制御装置。
  15. 前記所定の規則は、前記車両が交差点において対向車線と交差しない方に曲がる場合に、
    前記車両が曲がる方向の前記車両の斜め後方を、前記車両の後方正面及び前記車両の曲がる方向とは反対側の前記車両の斜め後方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項13又は14に記載の制御装置。
  16. 前記所定の規則は、前記車両が後退する場合に、
    前記車両の後方正面、右斜め後方及び左斜め後方を、前記車両の右斜め前方及び左斜め前方よりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項5乃至15の何れか1項に記載の制御装置。
  17. 前記所定の規則は、前記車両が後退する場合に、
    前記車両の後方正面を、前記車両の右斜め後方及び左斜め後方よりも高い頻度で前記歪み軽減処理の対象とする、請求項16に記載の制御装置。
  18. 前記所定の規則は、前記車両が後退する場合に、前記車両が前進する場合と比較して、
    前記車両の後方正面を含む領域の垂直方向における位置を下側にすることを規定する、請求項5乃至17の何れか1項に記載の制御装置。
  19. 前記所定の規則は、前記車両が車線変更を行う場合に、
    前記車両の右斜め前方及び左斜め前方を、左右のうち前記車両の移動方向の正面及び左右のうち前記車両の移動方向の斜め後ろよりも高い頻度で前記歪み軽減処理の対象とすることを規定し、
    左右のうち前記車両の移動方向の正面及び左右のうち前記車両の移動方向の斜め後ろを、左右のうち前記車両の移動方向とは反対側の正面及び左右のうち前記車両の移動方向とは反対側の斜め後ろよりも高い頻度で前記歪み軽減処理の対象とすることを規定する、請求項5乃至18の何れか1項に記載の制御装置。
  20. 前記所定の規則は、前記車両が車線変更を行う場合に、
    左右のうち前記車両の移動方向とは反対側の斜め前方を含む領域の垂直方向における位置を、左右のうち前記車両の移動方向の斜め前方を含む領域の垂直方向における位置よりも下側にすることを規定する、請求項5乃至19の何れか1項に記載の制御装置。
  21. 記撮影装置はそれぞれ、魚眼レンズが取り付けられた撮影装置である、請求項1乃至20の何れか1項に記載の制御装置。
  22. 前記移動体は、前記撮影装置よりも歪みが少ない画像を撮影する別の撮影装置をさらに有し、
    前記画像取得手段は、前記別の撮影装置から前記移動体の外界の画像を取得し、
    前記認識手段は、前記別の撮影装置からの画像にさらに基づいて前記移動体の外界を認識する、請求項1乃至21の何れか1項に記載の制御装置。
  23. 請求項1乃至22の何れか1項に記載の制御装置を備える車両。
  24. コンピュータを請求項1乃至22の何れか1項に記載の制御装置の各手段として機能させるためのプログラム。
  25. 1つ以上の撮影装置を有する移動体の制御方法であって、
    前記1つ以上の撮影装置から前記移動体の外界の画像を取得する画像取得工程と、
    前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正工程と、
    前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識工程と、を備え、
    前記補正工程において、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、
    前記所定の規則は、
    前記歪み軽減処理の対象とする領域の水平方向の位置と、
    前記位置にある領域を前記歪み軽減処理の対象とするタイミングと、
    を規定する、制御方法。
  26. 1つ以上の撮影装置を有する移動体の制御方法であって、
    前記1つ以上の撮影装置から前記移動体の外界の画像を取得する画像取得工程と、
    前記1つ以上の撮影装置から取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正工程と、
    前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識工程と、を備え、
    前記補正工程において、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、
    前記所定の規則は、前記歪み軽減処理の対象とする領域の垂直方向の位置を規定する、制御方法。
  27. 複数の撮影装置を有する移動体の制御方法であって、
    前記複数の撮影装置のそれぞれから前記移動体の外界の画像を取得する画像取得工程と、
    前記複数の撮影装置のそれぞれから取得された画像に含まれる1つ以上の領域のそれぞれについて画像の歪みを軽減するための歪み軽減処理を行う補正工程と、
    前記歪み軽減処理が行われた画像に基づいて前記移動体の外界を認識する認識工程と、を備え、
    前記補正工程において、前記移動体の移動シーンに応じた所定の規則に従って、前記歪み軽減処理の対象とする前記1つ以上の領域を決定し、
    前記所定の規則は、前記複数の撮影装置のそれぞれについて個別の規則を規定する、制御方法。
JP2021049122A 2021-03-23 2021-03-23 移動体の制御装置及び制御方法並びに車両 Active JP7244562B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021049122A JP7244562B2 (ja) 2021-03-23 2021-03-23 移動体の制御装置及び制御方法並びに車両
CN202210148611.5A CN115179863A (zh) 2021-03-23 2022-02-18 移动体的控制装置及控制方法、存储介质以及车辆
US17/688,084 US11893715B2 (en) 2021-03-23 2022-03-07 Control device and control method for mobile object, storage medium, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021049122A JP7244562B2 (ja) 2021-03-23 2021-03-23 移動体の制御装置及び制御方法並びに車両

Publications (2)

Publication Number Publication Date
JP2022147742A JP2022147742A (ja) 2022-10-06
JP7244562B2 true JP7244562B2 (ja) 2023-03-22

Family

ID=83364755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021049122A Active JP7244562B2 (ja) 2021-03-23 2021-03-23 移動体の制御装置及び制御方法並びに車両

Country Status (3)

Country Link
US (1) US11893715B2 (ja)
JP (1) JP7244562B2 (ja)
CN (1) CN115179863A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054302A1 (ja) 2021-09-30 2023-04-06 キヤノン株式会社 圧着シート製造方法、圧着シート製造装置及び画像形成装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014819A (ja) 2013-07-03 2015-01-22 クラリオン株式会社 接近物検出システム、及び車両
JP2015172876A (ja) 2014-03-12 2015-10-01 株式会社デンソーアイティーラボラトリ 車両周辺監視装置、車両周辺監視システム、及びプログラム
JP2016143308A (ja) 2015-02-04 2016-08-08 パイオニア株式会社 報知装置、制御方法、プログラム及び記憶媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
JP5884439B2 (ja) * 2011-11-24 2016-03-15 アイシン精機株式会社 車両周辺監視用画像生成装置
KR101376210B1 (ko) * 2012-08-06 2014-03-21 현대모비스 주식회사 어라운드 뷰 모니터 시스템 및 모니터링 방법
KR101942527B1 (ko) * 2015-11-09 2019-01-25 엘지전자 주식회사 차량용 어라운드 뷰 제공 장치 및 차량
DE102016217488A1 (de) * 2016-09-14 2018-03-15 Robert Bosch Gmbh Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs
JP6888950B2 (ja) * 2016-12-16 2021-06-18 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置、外界認識装置
JP6573218B2 (ja) 2017-03-31 2019-09-11 マツダ株式会社 車両用画像表示装置及び設定方法
US10836312B2 (en) * 2017-06-19 2020-11-17 Rom Acquisition Corporation Dynamic 360 degree view accident avoidance system
US10796402B2 (en) * 2018-10-19 2020-10-06 Tusimple, Inc. System and method for fisheye image processing
EP4131944A4 (en) * 2020-03-27 2023-07-26 JVCKENWOOD Corporation DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND PROGRAM
US11636689B2 (en) * 2020-09-08 2023-04-25 Nvidia Corporation Adaptive object tracking algorithm for autonomous machine applications
KR20220097656A (ko) * 2020-12-30 2022-07-08 현대자동차주식회사 운전자 보조 장치, 차량 및 그 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014819A (ja) 2013-07-03 2015-01-22 クラリオン株式会社 接近物検出システム、及び車両
JP2015172876A (ja) 2014-03-12 2015-10-01 株式会社デンソーアイティーラボラトリ 車両周辺監視装置、車両周辺監視システム、及びプログラム
JP2016143308A (ja) 2015-02-04 2016-08-08 パイオニア株式会社 報知装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP2022147742A (ja) 2022-10-06
US11893715B2 (en) 2024-02-06
CN115179863A (zh) 2022-10-14
US20220309625A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
US10580303B2 (en) Collision avoidance device
JP6592074B2 (ja) 車両制御装置、車両制御方法、プログラム、および情報取得装置
US9902399B2 (en) Vehicle travelling control device for controlling a vehicle in traffic
JP2019156174A (ja) 車両制御装置、車両、車両制御方法およびプログラム
US10803307B2 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
US20200247415A1 (en) Vehicle, and control apparatus and control method thereof
JPWO2019043847A1 (ja) 走行制御装置、車両および走行制御方法
JP7156988B2 (ja) 走行制御装置、走行制御方法、およびプログラム
CN110281925B (zh) 行驶控制装置、车辆以及行驶控制方法
JP7244562B2 (ja) 移動体の制御装置及び制御方法並びに車両
JP7245653B2 (ja) 信号機認識方法及び信号機認識装置
US11654931B2 (en) Driving assistance device and vehicle
JP7181956B2 (ja) 移動体の制御装置及び制御方法並びに車両
US11100353B2 (en) Apparatus of controlling region of interest of image and method for controlling the same
JP2019121300A (ja) 車両の運転支援制御装置、車両の運転支援システムおよび車両の運転支援制御方法
JP2022148585A (ja) 車両並びにその制御装置及び制御方法
US20220319191A1 (en) Control device and control method for mobile object, and storage medium
WO2024069689A1 (ja) 運転支援方法及び運転支援装置
US20220318960A1 (en) Image processing apparatus, image processing method, vehicle control apparatus, and storage medium
JP2014100957A (ja) 駐車支援装置及び制御装置
CN113875223B (zh) 外部环境识别装置
US20230064724A1 (en) Danger notification method, danger notification device, and non-transitory storage medium
US20220306120A1 (en) Driving support device
JP2022149731A (ja) 制御装置、制御装置の動作方法及びプログラム
JP2022172928A (ja) 遠隔監視装置、遠隔監視システム、遠隔監視方法、及び遠隔監視プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150