JP6669182B2 - 乗員監視装置 - Google Patents

乗員監視装置 Download PDF

Info

Publication number
JP6669182B2
JP6669182B2 JP2018033132A JP2018033132A JP6669182B2 JP 6669182 B2 JP6669182 B2 JP 6669182B2 JP 2018033132 A JP2018033132 A JP 2018033132A JP 2018033132 A JP2018033132 A JP 2018033132A JP 6669182 B2 JP6669182 B2 JP 6669182B2
Authority
JP
Japan
Prior art keywords
camera
image
rotation angle
monitoring device
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018033132A
Other languages
English (en)
Other versions
JP2019148491A (ja
Inventor
義朗 松浦
義朗 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018033132A priority Critical patent/JP6669182B2/ja
Priority to US16/260,228 priority patent/US20190266743A1/en
Priority to CN201910090311.4A priority patent/CN110194173B/zh
Priority to DE102019103197.4A priority patent/DE102019103197B4/de
Publication of JP2019148491A publication Critical patent/JP2019148491A/ja
Application granted granted Critical
Publication of JP6669182B2 publication Critical patent/JP6669182B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/001Vehicle control means, e.g. steering-wheel or column
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両内に設置されたカメラで乗員を監視する乗員監視装置に関し、特に、乗員の所定部位の空間上の位置を測定する技術に関する。
車両において、運転者の顔の位置に応じて所定の制御を行うために、顔の空間上の位置を検出したいというニーズがある。たとえば、運転者が覚醒していて正面を向いた姿勢にある場合と、運転者が居眠りをしていて俯いた姿勢にある場合とでは、基準位置(たとえばカメラの位置)から顔までの距離が異なる。そこで、この距離を顔位置として検出することで、運転者が覚醒状態にあるか居眠り状態にあるかを判別することができる。また、HUD(Head-UP Display)システムを搭載した車両にあっては、運転者の顔位置(特に目の位置)を検出することで、運転席の前方に目の位置に合わせた最適の映像を表示することができる。
運転者の顔を検出する手段としては、ドライバモニタが知られている。ドライバモニタは、カメラで撮像した運転者の顔画像に基づいて運転者の状態を監視し、運転者が居眠りや脇見運転をしている場合は、警報などの所定の制御を行う装置である。ドライバモニタで得られた顔画像からは、顔の向きや視線の方向に関する情報は得られるが、顔の空間上の位置(基準位置からの距離)に関する情報は得られない。
顔の空間上の位置を測定する方法には、2台のカメラ(ステレオカメラ)を用いる方法、被写体にパターン光を照射する方法、超音波センサを用いる方法などがある。ステレオカメラを用いる場合は、複数のカメラが必要となってコストが高くなる。パターン光を用いる場合は、カメラは1台で済むが、専用の光学系が必要となる。超音波センサを用いる場合は、部品が増えてコストが高くなることに加え、被写体のどの部位までの距離を検出しているかの特定が難しいため、ドライバモニタによる検出結果と整合しにくいという問題がある。
特許文献1には、車両のステアリングホイールにカメラを設置し、このカメラで撮像した運転者の画像を、ステアリングホイールの操舵角に基づいて正立画像に修正する運転者監視システムが示されている。特許文献2には、車両のインストルメントパネルに設置された2台のカメラを用いて、運転者の顔の向きを検出する顔向き検出装置が示されている。しかしながら、これらの文献は、カメラによる顔位置の測定に関してなんら言及しておらず、上述した問題点の解決に資するものではない。
特開2007−72774号公報 特開2007−257333号公報
本発明の課題は、1台のカメラによって、乗員の所定部位の空間上の位置を測定することが可能な乗員監視装置を提供することにある。
本発明に係る乗員監視装置は、車両の乗員を撮像するカメラと、このカメラで撮像された乗員の画像に対して所定の処理を行う画像処理部と、この画像処理部で処理された画像に基づいて、乗員の所定部位の空間上の位置を算出する位置算出部とを備えている。カメラは、車両のステアリングホイールにおける、回転軸から離れた場所に設置されていて、ステアリングホイールと共に回転する。画像処理部は、ステアリングホイールの回転に伴ってカメラが2つの異なる位置で撮像した、2つの画像に対して所定の処理を行う。位置算出部は、画像処理部で処理された2つの画像に基づいて、乗員の所定部位の空間上の位置を算出する。
このような乗員監視装置によると、ステアリングホイールにおける回転軸から離れた場所に、乗員を撮像するカメラを設置しているので、ステアリングホイールと共に回転するカメラにより、2つの異なる位置で撮像した2つの撮像画像を得ることができる。そして、これらの撮像画像に対して、画像処理部で所定の処理を行い、処理された2つの画像に基づいて、乗員の所定部位の空間上の位置を算出することができる。このため、カメラを複数設けたり、専用の光学系を設けたりする必要がなく、構成が簡単で安価な乗員監視装置が得られる。
本発明において、画像処理部は、カメラで撮像された画像から乗員の顔を検出する顔検出部を有し、位置算出部は、カメラから顔の特定部分までの距離を、当該顔の空間上の位置として算出してもよい。
本発明において、前記2つの画像は、たとえば、カメラが第1回転角だけ回転したときの第1位置で撮像した第1撮像画像、およびカメラが第2回転角だけ回転したときの第2位置で撮像した第2撮像画像である。この場合、画像処理部は、第1撮像画像を所定量回転させた第1回転画像、および第2撮像画像を所定量回転させた第2回転画像を生成する。位置算出部は、第1位置と第2位置との間の直線距離である基線長と、第1回転画像および第2回転画像から得られる視差と、カメラの焦点距離とに基づいて、所定部位の空間上の位置を算出する。
具体的には、所定部位の空間上の位置は、たとえば次のようにして算出することができる。ステアリングホイールの回転軸からカメラまでの距離をL、第1回転角をθ、第2回転角をθ、基線長をB、視差をδ、焦点距離をfとし、所定部位の空間上の位置を、カメラから当該所定部位までの距離Dとしたとき、画像処理部は、1撮像画像を、第1方向へ|θ−θ|/2の角度だけ回転させて、第1回転画像を生成し、第2撮像画像を、第1方向と逆の第2方向へ|θ−θ|/2の角度だけ回転させて、第2回転画像を生成する。位置算出部は、基線長を、B=2・L・sin(|θ−θ|/2)により算出し、所定部位の空間上の位置を、D=B・(f/δ)により算出する。
本発明において、カメラの回転角を検出する回転角検出部を設け、この回転角検出部が、カメラから取得した第1撮像画像および第2撮像画像に基づいて、第1回転角および第2回転角を検出するようにしてもよい。
あるいは、回転角検出部は、カメラの姿勢を検出する姿勢センサの出力に基づいて、第1回転角および第2回転角を検出するようにしてもよい。
あるいは、回転角検出部は、ステアリングホイールの操舵角を検出する操舵角センサの出力に基づいて、第1回転角および第2回転角を検出するようにしてもよい。
本発明において、位置算出部は、カメラが2つの異なる位置の間で、所定時間内に所定角度以上回転した場合に、2つの画像に基づいて所定部位の空間上の位置を算出するようにしてもよい。
本発明によれば、1台のカメラによって、乗員の所定部位の空間上の位置を検出することが可能な乗員監視装置を提供することができる。
本発明の第1実施形態による乗員監視装置のブロック図である。 カメラが設置されたステアリングホイールの平面図である。 カメラによる運転者の監視を説明する図である。 ステアリングホイールの回転に伴うカメラの位置の変化を示した図である。 カメラが撮像した画像を示す図である。 第1回転画像と第2回転画像を示す図である。 撮像画像における目の領域を示す図である。 基線長を算出する原理を説明する図である。 ステレオ視による距離演算の原理図である。 乗員監視装置の動作を示したフローチャートである。 本発明の第2実施形態による乗員監視装置のブロック図である。 本発明の第3実施形態による乗員監視装置のブロック図である。 本発明の第4実施形態による乗員監視装置のブロック図である。
本発明による乗員監視装置の第1実施形態につき、図面を参照しながら説明する。まず、乗員監視装置の構成を、図1を参照しながら説明する。図1において、乗員監視装置100は、車両に搭載されており、カメラ1、画像処理部2、位置算出部3、運転者状態判定部4、制御部5、および記憶部6を備えている。
カメラ1は、図2に示すように、車両のステアリングホイール51に設置されており、ステアリングホイール51と共に回転する。カメラ1が設置されている場所は、ステアリングホイール51の回転軸52から離れている。このため、ステアリングホイール51が回転すると、カメラ1は回転軸52を中心に矢印方向へ回転する。図1に示すように、カメラ1には、CMOSイメージセンサのような撮像素子11と、レンズなどを含む光学部品12とが備わっている。
図3に示すように、カメラ1は、車両50の運転席のシート53に着座している乗員40(運転者)の顔41を撮像する。破線は、カメラ1の撮像範囲を示している。Dは、カメラ1から顔41までの距離を表している。後述するように、距離Dが求まれば、顔41の空間上の位置を特定することができる。車両50は、たとえば自動四輪車である。
画像処理部2は、画像メモリ21、顔検出部22、第1画像回転部23、第2画像回転部24、および回転角検出部25を備えている。画像メモリ21は、カメラ1が撮像した画像を一時的に保存する。顔検出部22は、カメラ1が撮像した画像から運転者の顔を検出するとともに、顔における特徴点(たとえば目)を抽出する。顔の検出方法や特徴点の抽出方法はよく知られているので、これらの詳細説明は省略する。
第1画像回転部23および第2画像回転部24は、カメラ1が撮像した撮像画像G1、G2(後述)を画像メモリ21から読み出して、これらを回転させる処理を行う。回転角検出部25は、画像メモリ21から取得したカメラ1の撮像画像に基づいて、カメラ1の回転角θ、θ(後述)を検出する。回転角検出部25で検出された回転角θ、θは、第1画像回転部23および第2画像回転部24へ与えられ、各画像回転部23、24は、これらの回転角θ、θに基づいて、撮像画像G1、G2を所定量回転させる。この画像回転の詳細については後述する。
位置算出部3は、第1画像回転部23および第2画像回転部24で生成された回転画像H1、H2(後述)と、顔検出部22で検出された顔の情報(顔領域や特徴点など)に基づき、図3におけるカメラ1から顔41までの距離D、すなわち顔41の空間上の位置を算出する。この詳細についても後述する。位置算出部3の出力は、CAN(Controller Area Network)を介して、車両に搭載されている図示しないECU(Electronic Control Unit)へ送られる。
運転者状態判定部4は、顔検出部22から取得した顔の情報に基づいて、瞼の動きや視線の方向などを検出し、その結果に応じて運転者40の状態を判定する。たとえば、瞼が一定時間以上閉じた状態にある場合は、運転者40が居眠りをしていると判定し、視線が横を向いている場合は、運転者40が脇見運転をしていると判定する。運転者状態判定部4の出力は、CANを介してECUへ送られる。
制御部5は、CPUなどから構成されており、乗員監視装置100の動作を統轄的に制御する。このため、制御部5は、乗員監視装置100の各部と信号線で接続され(図示省略)、各部との間で通信を行う。また、制御部5は、CANを介してECUとも通信を行う。
記憶部6は、半導体メモリから構成されており、制御部5を動作させるためのプログラムや、制御に必要なパラメータなどが格納されている。また、記憶部6には、各種のデータが一時的に格納される記憶エリアが設けられている。
なお、顔検出部22、第1画像回転部23、第2画像回転部24、回転角検出部25、位置算出部3、および運転者状態判定部4のそれぞれの機能は、実際にはソフトウェアによって実現されるが、図1では便宜上、ブロック図で示している。
次に、上述した乗員監視装置100において顔の空間上の位置を測定する原理について説明する。
図4は、ステアリングホイール51の回転に伴う、カメラ1の位置の変化を示した図である。図4において、(a)はステアリングホイール51が基準位置にある状態、(b)はステアリングホイール51が基準位置から角度θだけ回転した状態、(c)はステアリングホイール51がさらに回転して、基準位置から角度θまで回転した状態を示している。(b)のカメラ1の位置は、本発明における「第1位置」に相当し、(c)のカメラ1の位置は、本発明における「第2位置」に相当する。
図5は、図4の(a)〜(c)の各状態において、カメラ1により撮像した画像の一例を示している。ここでは便宜上、顔の画像のみを示しており、背景画像は省略してある。
図5(a)は、図4(a)に対応していて、カメラ1が基準位置にある場合の撮像画像である。この画像は、傾きのない正立画像となっている。図5(b)は、図4(b)に対応していて、ステアリングホイール51がθ回転したことに伴い、カメラ1での撮像画像G1も基準位置からθ回転したものとなっている。角度θは、本発明における「第1回転角」に相当し、撮像画像G1は、本発明における「第1撮像画像」に相当する。図5(c)は、図4(c)に対応していて、ステアリングホイール51がθまで回転したことに伴い、カメラ1での撮像画像G2も基準位置からθまで回転したものとなっている。角度θは、本発明における「第2回転角」に相当し、撮像画像G2は、本発明における「第2撮像画像」に相当する。
図5からわかるように、ステアリングホイール51と共に回転するカメラ1が、異なる位置(回転角度)で撮像した画像は、傾きが異なったものとなり、また、画面上での位置も異なったものとなる。
本発明では、カメラ1が2つの異なる位置で撮像した2つの画像を用いて、図3で示した距離Dを算出する。カメラ1は1台であるが、カメラ1を移動(回転)させることで、異なる位置における2つの画像が得られる。このため、2台のカメラを用いてステレオ視により距離測定を行う場合と同様の原理(詳細は後述)に基づいて、距離Dの測定が可能となる。このように、1台のカメラを移動させて、擬似的なステレオ視を作り出すことにより距離測定を行う方式を、モーションステレオ方式と呼ぶ。
以下、モーションステレオ方式を用いた本発明の距離測定手順について説明する。まず、上述したように、カメラ1が2つの異なる位置で撮像した2つの画像を取得する。ここでは、2つの画像として、カメラ1が図4(b)の回転角θの位置で撮像した図5(b)の撮像画像G1と、図4(c)の回転角θの位置で撮像した図5(c)の撮像画像G2を用いる。
次に、取得した2つの撮像画像G1、G2を、それぞれ所定量だけ回転させる。詳しくは、撮像画像G1については、図6(a)に示すように、時計回り方向へ|θ−θ|/2だけ回転させて、実線で示す回転画像H1を生成する。また、撮像画像G2については、図6(b)に示すように、反時計回り方向へ|θ−θ|/2だけ回転させて、実線で示す回転画像H2を生成する。回転画像H1は、本発明における「第1回転画像」に相当し、回転画像H2は、本発明における「第2回転画像」に相当する。時計回り方向は、本発明における「第1方向」に相当し、反時計回り方向は、本発明における「第2方向」に相当する。
回転画像H1は、撮像画像G1を画像G1、G2の中間の角度まで回転させた画像であり、回転画像H2も、撮像画像G2を画像G1、G2の中間の角度まで回転させた画像である。したがって、両回転画像H1、H2の画面上での傾きは等しくなる。このように、撮像画像G1、G2を|θ−θ|/2の角度だけ逆方向へ回転させることで、通常のステレオカメラで撮像した場合と同様の、姿勢が同じ2つの画像H1、H2を得ることができる。
なお、ここでは、撮像画像G1、G2をそのまま回転させて、回転画像H1、H2を生成したが、図7に示すように、撮像画像G1からたとえば目の領域Zを切り出し、この領域のみを回転させて回転画像を生成してもよい。撮像画像G2についても同様である。
次に、上記のようにして得られた回転画像H1、H2を用いて、ステレオ視による距離演算を行うが、そのためには、まず2つのカメラ位置間の直線距離である「基線長」を求める必要がある。これを図8により説明する。
図8において、Oはステアリングホイール51の回転軸52(図2)の位置、X1は図4(b)におけるカメラ1の位置、X2は図4(c)におけるカメラ1の位置、Lは回転軸52からカメラ位置X1、X2までの距離である。Bはカメラ位置X1、X2間の直線距離であり、これが基線長となる。基線長Bは、図8より幾何学的に、次式で算出される。
B=2・L・sin(|θ−θ|/2) ・・・ (1)
ここで、Lは既知であるから、θとθの値を取得できれば、基線長Bを求めることができる。θとθは、図5(b)、(c)の撮像画像G1、G2から検出することができる。
こうして基線長Bが求まると、次は、一般的なステレオ視による距離測定方法に従い、カメラ1から被写体までの距離を演算する。この距離演算の詳細を、図9を参照しながら説明する。
図9は、ステレオ視による距離演算の原理図を示している。ここでの演算は、三角測量の原理に基づいている。図9において、撮像素子11aおよびレンズ12aを有する第1カメラ1aと、撮像素子11bおよびレンズ12bを有する第2カメラ1bとで、ステレオカメラが構成されている。第1カメラ1aは、図8のX1にあるカメラ1に対応し、第2カメラ1bは、図8のX2にあるカメラ1に対応している。なお、図8のカメラ位置X1、X2は、図9では各カメラ1a、1bの光学中心(レンズ12a、12bの中心)として表されている。この光学中心X1、X2間の距離Bが基線長である。
各カメラ1a、1bで撮像された被写体Yの画像は、撮像素子11a、11bの撮像面上に形成される。ここで、被写体Yの特定部分の画像に着目した場合、第1カメラ1aでは当該画像が撮像面のP1の位置に形成され、第2カメラ1bでは当該画像が撮像面のP2の位置に形成される。P2の位置は、第1カメラ1aにおけるP1に対応するP1’の位置からδだけずれており、このずれ量δを「視差」と呼ぶ。カメラ1a、1bの焦点距離をf、カメラ1a、1bから被写体Yまでの距離をDとしたとき、幾何学的にf/δ=D/Bが成立する。したがって、距離Dは次式で算出される。
D=B・f/δ ・・・ (2)
上記(2)式において、基線長Bは前述の(1)式から算出することができ、焦点距離fは既知であるから、視差δを求めることによって、距離Dを算出することができる。視差δは、公知のステレオマッチングの手法を用いて求めることができる。たとえば、第1カメラ1aの撮像画像における特定領域の輝度分布と同じ輝度分布の領域を、第2カメラ1bの撮像画像から探索し、双方の領域のずれ量を視差として求める。
図9の原理に基づき、本発明では、図6に示した回転画像H1、H2から両画像の視差δを検出する。この場合、前述したように、2つの回転画像H1、H2は傾き(姿勢)が同じであるため、両者間のステレオマッチングを容易に行うことができる。そして、マッチングを行う領域を、顔41の特定部分(たとえば目)の領域とすることで、当該特定部分の視差δを用いて、前記(2)式により、カメラ1と顔41の特定部分との間の距離Dを算出することができる。ここで、カメラ1の空間上の位置は、ステアリング51の回転角に応じて定まる。したがって、上記の距離Dを以って、カメラ1から顔41までの距離とすることで、顔41の空間上の位置を特定することが可能となる。
図10は、乗員監視装置100の動作を示したフローチャートである。このフローチャートの各ステップは、制御部5の制御の下で、記憶部6に格納されているプログラムに従って実行される。
ステップS1では、カメラ1により撮像を行う。カメラ1が撮像した画像は、画像メモリ21に保存される。ステップS2では、回転角検出部25が、ステアリングホイール51と共に回転するカメラ1の回転角を、カメラ1の撮像画像G1、G2(図5)から検出する。ステップS3では、顔検出部22が、カメラ1の撮像画像から顔を検出する。ステップS4では、顔検出部22が、検出した顔における特徴点(目など)を抽出する。ステップS5では、ステップS2〜S4で取得した回転角、顔画像、特徴点などのデータを記憶部6に保存する。この場合、顔画像や特徴点は、回転角と紐付けされて記憶される。
ステップS6では、ステップS5で保存したデータを用いてモーションステレオ方式による距離測定が可能か否かを、制御部5が判定する。モーションステレオ方式で被写体までの距離を測定するには、カメラ1が撮像を行った2つの位置が、一定以上離れていることが必要である。また、モーションステレオ方式では、2回の撮像の間に被写体が動かないことが前提となるので、2回の撮像の時間間隔が長いと、被写体が動いて正確な距離測定ができなくなるおそれがある。そこで、ステップS6では、カメラ1が2つの異なる位置の間で、所定時間内(たとえば5秒以内)に所定角度以上(たとえば10°以上)回転した場合に、モーションステレオ方式による距離測定が可能と判定し、所定時間内に所定角度以上回転しなかった場合は、モーションステレオ方式による距離測定が不可能と判定する。
ステップS6での判定の結果、距離測定が可能であれば(ステップS6:YES)、ステップS7へ進む。ステップS7では、画像回転部23、24により、最新の画像とそれよりN秒前(N≦5)の画像を、|θ−θ|/2の角度だけ回転させる処理を行う(|θ−θ|≧10°)。たとえば、図5(b)の撮像画像G1は、最新画像よりN秒前の画像であり、第1画像回転部23により、図6(a)のように、時計回り方向へ|θ−θ|/2だけ回転させられる。また、図5(c)の撮像画像G2は、最新の画像であり、第2画像回転部24により、図6(b)のように、反時計回り方向へ|θ−θ|/2だけ回転させられる。
ステップS8では、位置算出部3が、記憶部6から取得した回転角θ、θに基づいて、前記の(1)式により基線長Bを算出する。ステップS9では、位置算出部3が、画像回転部23、24で生成された各回転画像H1、H2(図6)に基づいて、視差δを算出する。ステップS10では、ステップS8で算出した基線長Bと、ステップS9で算出した視差δと、カメラ1の焦点距離f(既知)とを用いて、前記の(2)式により、カメラ1から顔41までの距離Dを算出する。ステップS11では、ステップS10で算出した距離データを、CANを介してECUへ出力する。ECUは、この距離データに基づいて、たとえば冒頭に述べたHUDの制御などを実行する。
なお、ステップS6での判定の結果、モーションステレオ方式による距離測定が不可能であれば(ステップS6:NO)、ステップS12へ進む。ステップS12では、撮像画像における顔の大きさの変化に基づき、顔までの距離Dを補正する。詳しくは、モーションステレオ方式による距離測定が可能な場合に(ステップS6:YES)、ステップS10において、算出した距離Dとともに、顔における任意の2箇所の特徴点間の画像上の距離(ピクセル数)を記憶しておく。2箇所の特徴点は、たとえば左右の目のそれぞれの中心である。そして、ステップS12では、今回の特徴点間の距離の前回からの変化分に応じて、ステップS10で算出された前回の距離を補正する。具体的には、前回のステップS10において、特徴点間の距離(ピクセル数)がmで、顔までの距離がDxと算出された場合、今回のステップS12において、特徴点間の距離(ピクセル数)がnであれば、今回の顔までの距離Dyは、Dy=Dx・(m/n)により算出され、これが顔までの距離の補正値となる。一例として、m=100ピクセル、Dx=40cm、n=95ピクセルとした場合、距離の補正値は、Dy=40cm×(100/95)=42.1cmとなる。カメラ1から顔が遠ざかって画像上の顔が小さくなると、これに応じて特徴点間の画像上の距離も小さくなり(n<m)、カメラ1から顔までの距離の算出値が増加する(Dy>Dx)ことがわかる。
上述した実施形態によると、ステアリングホイール51における、回転軸52から離れた場所にカメラ1を設置しているので、ステアリングホイール51と共に回転するカメラ1により、2つの異なる位置で撮像した2つの撮像画像G1、G2を得ることができる。そして、これらの撮像画像G1、G2を回転させた回転画像H1、H2を生成し、これらの回転画像H1、H2から得られる視差δを用いて、カメラ1から顔41の特定部分(本例では目)までの距離Dを算出することができる。このため、カメラを複数設けたり、専用の光学系を設けたりする必要がなく、簡単な構成によって顔の空間上の位置を測定できる乗員監視装置が得られる。
図11は、本発明の第2実施形態による乗員監視装置200を示している。図11では、図1と同一部分に同一符号を付してある。
図1の乗員監視装置100では、回転角検出部25が、画像メモリ21から取得したカメラ1の撮像画像(顔の画像以外に背景の画像も含む)に基づいて、カメラ1の回転角θ、θを検出した。これに対して、図11の乗員監視装置200では、回転角検出部25が、顔検出部22で検出された顔の画像に基づいて、カメラ1の回転角θ、θを検出する。また、画像回転部23、24は、顔検出部22で検出された顔の画像に対して回転処理を行って、回転画像H1、H2を生成する。この場合、回転画像H1、H2には顔の情報が反映されているので、位置算出部3は、顔検出部22から顔の情報を取得する必要がない。
図11の乗員監視装置200においても、図1の場合と同様の原理に基づいて、カメラ1から顔41までの距離Dを算出することができる。
図12は、本発明の第3実施形態による乗員監視装置300を示している。図12では、図1と同一部分に同一符号を付してある。
図1の乗員監視装置100では、回転角検出部25が、カメラ1で撮像された画像に基づいて、カメラ1の回転角θ、θを検出した。これに対して、図12の乗員監視装置300では、回転角検出部25が、カメラ1に設けられた姿勢センサ13の出力に基づいて、カメラ1の回転角θ、θを検出する。姿勢センサ13としては、ジャイロセンサなどを用いることができる。
図13は、本発明の第4実施形態による乗員監視装置400を示している。図13では、図1と同一部分に同一符号を付してある。
図12の乗員監視装置300では、回転角検出部25が、姿勢センサ13の出力に基づいて、カメラ1の回転角θ、θを検出した。これに対して、図13の乗員監視装置400では、回転角検出部25が、ステアリングホイール51の操舵角を検出する操舵角センサ30の出力に基づいて、カメラ1の回転角θ、θを検出する。操舵角センサ30としては、ロータリエンコーダなどを用いることができる。
図12および図13の乗員監視装置300、400においても、図1の場合と同様の原理に基づいて、カメラ1から顔41までの距離Dを算出することができる。
なお、図12および図13において、図11のように、画像回転部23、24が、顔検出部22から取得した顔の画像に対して回転処理を行って、回転画像H1、H2を生成してもよい。
本発明では、上述した実施形態以外にも、以下のような種々の実施形態を採用することができる。
上述した実施形態では、カメラ1を、ステアリングホイール51における図2の位置に設置した例を挙げたが、カメラ1は、ステアリングホイール51上の、回転軸52から離れた位置に設置すればよく、図2の位置に限定されない。
上述した実施形態では、撮像画像G1を時計回り方向に|θ−θ|/2の角度だけ回転させ、撮像画像G2を反時計回り方向に|θ−θ|/2の角度だけ回転させた例を挙げたが(図6)、本発明はこれに限定されない。たとえば、撮像画像G1を、時計回り方向に|θ−θ|回転させて、撮像画像G2と同じ傾きの画像にしてもよい。あるいは、撮像画像G2を、反時計回り方向に|θ−θ|回転させて、撮像画像G1と同じ傾きの画像にしてもよい。
上述した実施形態では、カメラ1から顔41までの距離Dを算出するにあたって、顔41の特定部分として目を例に挙げたが、特定部分は目に限らず、鼻、口、耳、眉などであってもよい。また、特定部分は、目、鼻、口、耳、眉などの顔の特徴点に限らず、特徴点以外の任意点であってもよい。さらに、本発明において距離測定の対象となる部位は、顔に限らず、頭や首などの他の部位であってもよい。
上述した実施形態では、カメラ1から顔41までの距離Dを、顔41の空間上の位置としたが、空間上の位置は、距離に限らず座標値で表してもよい。
上述した実施形態では、乗員監視装置100〜400に運転者状態判定部4が設けられている例を挙げたが、運転者状態判定部4は、乗員監視装置100〜400の外部に設けてもよい。
1 カメラ
2 画像処理部
3 位置算出部
13 姿勢センサ
22 顔検出部
25 回転角検出部
30 操舵センサ
40 乗員
41 顔
50 車両
51 ステアリングホイール
52 回転軸
100、200、300、400 乗員監視装置
B 基線長
δ 視差
f 焦点距離
L ステアリングホイールの回転軸からカメラまでの距離
D カメラから被写体までの距離
θ 第1回転角
θ 第2回転角
G1 第1撮像画像
G2 第2撮像画像
H1 第1回転画像
H2 第2回転画像

Claims (8)

  1. 車両の乗員を撮像するカメラと、
    前記カメラで撮像された乗員の画像に対して所定の処理を行う画像処理部と、
    前記画像処理部で処理された画像に基づいて、前記乗員の所定部位の空間上の位置を算出する位置算出部と、を備え、
    前記カメラは、前記車両のステアリングホイールにおける、回転軸から離れた場所に設置されていて、前記ステアリングホイールと共に回転し、
    前記画像処理部は、前記ステアリングホイールの回転に伴って前記カメラが2つの異なる位置で撮像した、2つの画像に対して所定の処理を行い、
    前記位置算出部は、前記画像処理部で処理された2つの画像に基づいて、前記所定部位の空間上の位置を算出する、ことを特徴とする乗員監視装置。
  2. 請求項1に記載の乗員監視装置において、
    前記画像処理部は、前記カメラで撮像された画像から乗員の顔を検出する顔検出部を有し、
    前記位置算出部は、前記カメラから前記顔の特定部分までの距離を、当該顔の空間上の位置として算出する、ことを特徴とする乗員監視装置。
  3. 請求項1または請求項2に記載の乗員監視装置において、
    前記2つの画像は、前記カメラが第1回転角だけ回転したときの第1位置で撮像した第1撮像画像、および前記カメラが第2回転角だけ回転したときの第2位置で撮像した第2撮像画像であり、
    前記画像処理部は、前記第1撮像画像を所定量回転させた第1回転画像、および前記第2撮像画像を所定量回転させた第2回転画像を生成し、
    前記位置算出部は、前記第1位置と前記第2位置との間の直線距離である基線長と、前記第1回転画像および前記第2回転画像から得られる視差と、前記カメラの焦点距離とに基づいて、前記所定部位の空間上の位置を算出する、ことを特徴とする乗員監視装置。
  4. 請求項3に記載の乗員監視装置において、
    前記ステアリングホイールの回転軸から前記カメラまでの距離をL、前記第1回転角をθ、前記第2回転角をθ、前記基線長をB、前記視差をδ、前記焦点距離をfとし、前記所定部位の空間上の位置を、前記カメラから当該所定部位までの距離Dとしたとき、
    前記画像処理部は、
    前記第1撮像画像を、第1方向へ|θ−θ|/2の角度だけ回転させて、前記第1回転画像を生成し、
    前記第2撮像画像を、前記第1方向と逆の第2方向へ|θ−θ|/2の角度だけ回転させて、前記第2回転画像を生成し、
    前記位置算出部は、
    前記基線長を、B=2・L・sin(|θ−θ|/2)により算出し、
    前記所定部位の空間上の位置を、D=B・(f/δ)により算出する、ことを特徴とする乗員監視装置。
  5. 請求項3または請求項4に記載の乗員監視装置において、
    前記カメラの回転角を検出する回転角検出部を備え、
    前記回転角検出部は、前記カメラから取得した前記第1撮像画像および前記第2撮像画像に基づいて、前記第1回転角および前記第2回転角を検出する、ことを特徴とする乗員監視装置。
  6. 請求項3または請求項4に記載の乗員監視装置において、
    前記カメラの回転角を検出する回転角検出部を備え、
    前記回転角検出部は、前記カメラの姿勢を検出する姿勢センサの出力に基づいて、前記第1回転角および前記第2回転角を検出する、ことを特徴とする乗員監視装置。
  7. 請求項3または請求項4に記載の乗員監視装置において、
    前記カメラの回転角を検出する回転角検出部を備え、
    前記回転角検出部は、前記ステアリングホイールの操舵角を検出する操舵角センサの出力に基づいて、前記第1回転角および前記第2回転角を検出する、ことを特徴とする乗員監視装置。
  8. 請求項1ないし請求項7のいずれかに記載の乗員監視装置において、
    前記位置算出部は、
    前記カメラが、前記2つの異なる位置の間で、所定時間内に所定角度以上回転した場合に、前記2つの画像に基づいて前記所定部位の空間上の位置を算出する、ことを特徴とする乗員監視装置。
JP2018033132A 2018-02-27 2018-02-27 乗員監視装置 Expired - Fee Related JP6669182B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018033132A JP6669182B2 (ja) 2018-02-27 2018-02-27 乗員監視装置
US16/260,228 US20190266743A1 (en) 2018-02-27 2019-01-29 Occupant monitoring apparatus
CN201910090311.4A CN110194173B (zh) 2018-02-27 2019-01-30 乘员监视装置
DE102019103197.4A DE102019103197B4 (de) 2018-02-27 2019-02-08 Insassenüberwachungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018033132A JP6669182B2 (ja) 2018-02-27 2018-02-27 乗員監視装置

Publications (2)

Publication Number Publication Date
JP2019148491A JP2019148491A (ja) 2019-09-05
JP6669182B2 true JP6669182B2 (ja) 2020-03-18

Family

ID=67550240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018033132A Expired - Fee Related JP6669182B2 (ja) 2018-02-27 2018-02-27 乗員監視装置

Country Status (4)

Country Link
US (1) US20190266743A1 (ja)
JP (1) JP6669182B2 (ja)
CN (1) CN110194173B (ja)
DE (1) DE102019103197B4 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10891502B1 (en) * 2017-01-19 2021-01-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for alleviating driver distractions
US11527081B2 (en) * 2020-10-20 2022-12-13 Toyota Research Institute, Inc. Multiple in-cabin cameras and lighting sources for driver monitoring
JPWO2022113275A1 (ja) * 2020-11-27 2022-06-02
CN112667084B (zh) * 2020-12-31 2023-04-07 上海商汤临港智能科技有限公司 车载显示屏的控制方法及装置、电子设备和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198732A (ja) * 2002-12-18 2004-07-15 Sony Computer Entertainment Inc 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
JP4380412B2 (ja) * 2004-05-10 2009-12-09 株式会社デンソー 撮像制御装置及びプログラム
JP4706917B2 (ja) * 2005-09-07 2011-06-22 アイシン精機株式会社 運転者監視システム
JP4735361B2 (ja) * 2006-03-23 2011-07-27 日産自動車株式会社 車両乗員顔向き検出装置および車両乗員顔向き検出方法
US20110025836A1 (en) * 2008-03-18 2011-02-03 Satoshi Tamaki Driver monitoring apparatus, driver monitoring method, and vehicle
KR100921092B1 (ko) * 2008-07-04 2009-10-08 현대자동차주식회사 스티어링 휠에 장착된 카메라를 이용하는 운전자 상태 감시시스템
JP4911230B2 (ja) * 2010-02-01 2012-04-04 カシオ計算機株式会社 撮影装置、並びに制御プログラム及び制御方法
EP2688764A4 (en) * 2011-03-25 2014-11-12 Tk Holdings Inc SYSTEM AND METHOD FOR DETERMINING THE GROWTH OF A DRIVER
JP2013078039A (ja) * 2011-09-30 2013-04-25 Sharp Corp 三次元画像を取得可能な電子機器、当該電子機器を制御するための方法、および、当該電子機器を制御するためのプログラム
US9405982B2 (en) * 2013-01-18 2016-08-02 GM Global Technology Operations LLC Driver gaze detection system
TW201441075A (zh) * 2013-04-23 2014-11-01 Hon Hai Prec Ind Co Ltd 安全氣囊啟動控制系統及方法
DE102014214352A1 (de) * 2014-07-23 2016-01-28 Robert Bosch Gmbh Verfahren und Anordnung zum Betreiben eines Insassenbeobachtungssystems
JP2016032257A (ja) * 2014-07-30 2016-03-07 株式会社デンソー ドライバ監視装置
US9533687B2 (en) * 2014-12-30 2017-01-03 Tk Holdings Inc. Occupant monitoring systems and methods
CN107187490A (zh) * 2017-06-01 2017-09-22 北京汽车研究总院有限公司 一种方向盘、汽车和监测方法

Also Published As

Publication number Publication date
JP2019148491A (ja) 2019-09-05
US20190266743A1 (en) 2019-08-29
CN110194173A (zh) 2019-09-03
CN110194173B (zh) 2022-06-10
DE102019103197A1 (de) 2019-08-29
DE102019103197B4 (de) 2020-12-17

Similar Documents

Publication Publication Date Title
JP7161410B2 (ja) シーンにおけるカメラの姿勢を特定するシステム及び方法
JP6669182B2 (ja) 乗員監視装置
JP5230748B2 (ja) 視線方向判定装置及び視線方向判定方法
JP4690476B2 (ja) 車載カメラの校正装置
JP6364627B2 (ja) 視線方向検出装置および視線方向検出方法
JP5491235B2 (ja) カメラキャリブレーション装置
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
TWI574224B (zh) An image processing apparatus, an image processing method, a video product processing apparatus, a recording medium, and an image display apparatus
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
US10169885B2 (en) Vehicle display system and method of controlling vehicle display system
JP6596678B2 (ja) 視線測定装置および視線測定方法
WO2015029443A1 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
KR20200071960A (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP2006268076A (ja) 運転支援システム
JP2008085710A (ja) 運転支援システム
JP2014154898A (ja) 物体検知装置
CN109345591A (zh) 一种车辆自身姿态检测方法和装置
JP2018101212A (ja) 車載器および顔正面度算出方法
JP2008037118A (ja) 車両用表示装置
JP2018151930A (ja) 運転者状態推定装置、及び運転者状態推定方法
JP6161704B2 (ja) 撮影装置、車両および画像補正方法
US10997861B2 (en) Luminance control device, luminance control system, and luminance control method
JP2018101211A (ja) 車載器

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190319

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200210

R150 Certificate of patent or registration of utility model

Ref document number: 6669182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees