JP6814977B2 - 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP6814977B2
JP6814977B2 JP2016199340A JP2016199340A JP6814977B2 JP 6814977 B2 JP6814977 B2 JP 6814977B2 JP 2016199340 A JP2016199340 A JP 2016199340A JP 2016199340 A JP2016199340 A JP 2016199340A JP 6814977 B2 JP6814977 B2 JP 6814977B2
Authority
JP
Japan
Prior art keywords
image
seat
conversion
learning
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016199340A
Other languages
English (en)
Other versions
JP2018060466A (ja
Inventor
荒井 結子
結子 荒井
新 浩治
浩治 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016199340A priority Critical patent/JP6814977B2/ja
Priority to US15/713,604 priority patent/US10417511B2/en
Publication of JP2018060466A publication Critical patent/JP2018060466A/ja
Application granted granted Critical
Publication of JP6814977B2 publication Critical patent/JP6814977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • B60Y2400/3015Optical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、所定の状態の学習および検知に用いられる画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラムに関する。
近年、移動体(例えば、自動車等の車両)の乗員の状態を検知する技術が開発されている。例えば特許文献1には、乗員の状態の検知精度を向上させるシステム(以下、従来技術という)が開示されている。
従来技術では、まず、車両内の座席を撮影可能なカメラからの距離データに基づいて、予め用意された頭部テンプレート(人物の頭部を表現する型紙)のサイズが正規化される。次に、カメラにより撮影された画像と、正規化された頭部テンプレートとのテンプレートマッチングにより相関値が算出される。そして、算出された相関値が閾値以上である場合、乗員が着座していると判定される。
特開2007−198929号公報
しかしながら、従来技術では、頭部テンプレートのサイズの正規化に必要な距離データを得るために、多大なコストがかかる。
本発明の目的は、低コストで精度良く乗員の状態を検知できる画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラムを提供することである。
本開示の画像処理装置は、座席を撮影するためのカメラが設置された位置に対応して算出された変換パラメータを記憶する変換パラメータ記憶部と、前記変換パラメータに基づいて、前記カメラによって撮影された画像を変換し、変換後の画像を出力する画像変換部と、を有し、前記変換パラメータは、前記画像上の座席の見え方を予め定められた見え方に近似させるように、前記画像を変換させるパラメータであって、前記画像上の座席の所定点に基づく線分の傾きと予め定められた傾きとに基づいて前記画像を変換させるパラメータである
本開示の検知装置は、本開示の画像処理装置を含む検知装置であって、学習モデルと前記画像処理装置に含まれる画像変換部から出力された変換後の画像から抽出された特徴量とに基づいて、該画像における所定状態を検知する検知部、を有する。
本開示の学習装置は、本開示の画像処理装置を含む学習装置であって、前記カメラによって撮影された、前記座席における第1状態を示す正解画像と、前記座席における第2状態を示す不正解画像とを受け取る画像入力部と、前記正解画像および前記不正解画像から抽出された特徴量に基づいて学習モデルを生成する学習部と、を有し、前記画像処理装置に含まれる画像変換部は、前記変換パラメータに基づいて、前記画像入力部が受け取った前記正解画像および前記不正解画像を変換し、変換後の正解画像および変換後の不正解画像を前記学習部へ出力し、前記学習部は、前記画像変換部から出力された前記変換後の正解画像および前記変換後の不正解画像から抽出された特徴量に基づいて学習モデルを生成する。
本開示の画像処理方法は、座席を撮影するためのカメラが設置された位置に対応して算出された変換パラメータを記憶し、前記変換パラメータに基づいて、前記カメラによって撮影された画像を変換し、変換後の画像を出力し、前記変換パラメータは、前記画像上の座席の見え方を予め定められた見え方に近似させるように、前記画像を変換させるパラメータであって、前記画像上の座席の所定点に基づく線分の傾きと予め定められた傾きとに基づいて前記画像を変換させるパラメータである
本開示の画像処理プログラムは、座席を撮影するためのカメラが設置された位置に対応して算出された変換パラメータを記憶する処理と、前記変換パラメータに基づいて、前記カメラによって撮影された画像を変換し、変換後の画像を出力する処理と、をコンピュータに実行させ、前記変換パラメータは、前記画像上の座席の見え方を予め定められた見え方に近似させるように、前記画像を変換させるパラメータであって、前記画像上の座席の所定点に基づく線分の傾きと予め定められた傾きとに基づいて前記画像を変換させるパラメータである
本発明によれば、低コストで精度良く乗員の状態を検知できる。
車両におけるカメラの設置例を示す図 着座状態の撮影画像と非着座状態の撮影画像の一例を示す図 特徴量のプロット例を示す図 着座状態の撮影画像の一例を示す図 特徴量のプロット例を示す図 本発明の実施の形態に係る学習装置の構成例を示すブロック図 本発明の実施の形態に係る学習装置の動作例を示すフローチャート 変換パラメータの算出処理に用いられる画像の一例を示す図 算出された座標および基準座標の一例を示す図 変換パラメータを用いて変換された画像の一例を示す図 本発明の実施の形態に係る検知装置の構成例を示すブロック図 本発明の実施の形態に係る検知装置の動作例を示すフローチャート 本発明の変形例に係るパラメータの算出処理の一例を説明する図 本発明の変形例に係るパラメータの算出処理の一例を説明する図 本発明の変形例に係る学習装置の構成例を示すブロック図 本発明の変形例に係る検知装置の構成例を示すブロック図
<発明に至った知見>
従来、車両の乗員の状態を学習し、学習結果に基づいて検知する技術では、車室内に設置されたカメラが用いられる。カメラの設置例を、図1(a)および図1(b)に示す。図1(a)は車両を側方から見た断面図であり、図1(b)は車両を真上から見た断面図である。
カメラ10は、例えば近赤外線カメラであり、図1(a)および図1(b)に示すように、車両1の車室内において天井近くに設置される。カメラ10の角度は、運転席20に着座した乗員を撮影できるように調整される。
このように設置されたカメラ10により撮影された画像の一例を図2(a)および図2(b)に示す。図2(a)は、乗員が運転席20に着座している状態(以下、着座状態という)を撮影した画像の一例である。図2(b)は、乗員が運転席20に着座していない状態(以下、非着座状態という)を撮影した画像の一例である。
そして、図2(a)の画像および図2(b)の画像は、例えば、SVM(Support Vector Machine)などの、教師つき機械学習に用いられる。SVMでは、例えば、図2(a)に示した着座状態の画像が正解画像(正解サンプル)として、図2(b)に示した非着座状態の画像が不正解画像(不正解サンプル)として、それぞれ大量に学習される。これにより、着座状態と非着座状態とを識別するための学習モデルが生成される。
この学習モデルについて、図3を用いて説明する。図3は、正解画像および不正解画像のそれぞれから抽出された特徴量のプロット例を示す図である。なお、図3では、説明の便宜上、抽出された特徴量が2次元で表現される場合を示している。
図3において、丸で示される点は、正解画像から抽出された特徴量(以下、第1特徴量という)であり、菱形で示される点は、不正解画像から抽出された特徴量(以下、第2特徴量という)である。このように第1特徴量群と第2特徴量群が抽出された場合、第1特徴量群と第2特徴量群の双方から最大距離となる直線Lが決定される。直線Lの上側は正解(着座状態)であり、直線Lの下側は不正解(非着座状態)である。学習モデルは、特徴量が直線Lの上側にあるか下側にあるかを識別するための数値を算出する関数である。
ところで、車両には様々な車種が存在し、車種によって例えば車高、バックミラーおよびルームランプの位置、内装デザインなどが異なる。そのため、カメラの設置位置は、車種によって異なる可能性がある。なお、本実施の形態でいう「カメラの設置位置」には、カメラの設置角度が含まれるとする。
カメラの設置位置が異なれば、撮影された画像における乗員の映り方(以下、見かけという)も異なることになる。例えば、図2(a)の画像の撮影時に比べて、カメラ10をより乗員に近い位置に、かつ、ピッチ角が大きくなるよう設置して着座状態を撮影した場合、図4に示す画像となる。図4の画像では、図2(a)の画像に比べて、乗員はより大きく映り、乗員の上半身は左側に傾くように映っている。すなわち、図2(a)の画像と図4の画像は両方とも、着座状態を撮影した画像であるが、乗員の見かけが異なる。
図4のような画像を正解画像として学習する場合、抽出される特徴量も異なる。この例を図5に示す。図5において、星型の点は、図4のような画像から抽出された特徴量である。図5に示すように、星型の点は、直線Lの上側と下側に分布している。そのため、着座状態または非着座状態の識別を精度良く行うことができない。
高精度の識別を実現するためには、カメラの設置位置毎に学習モデルを生成すればよい。しかし、そのためには、一般的には少なくとも十万オーダーの正解画像と不正解画像を準備する必要がある。また、正解画像は、様々な条件(例えば、姿勢、体格、服装等)の乗員が撮影された画像である必要がある。このようなことから、カメラの設置位置毎に学習モデルを生成するためには、多大なコストがかかる。
そこで、本願発明者は、複数のカメラの設置位置に対応する1つの学習モデル(換言すれば、カメラの設置位置に依存しない1つの学習モデル)を生成することに着目した。そのために、学習に用いられる正解画像と不正解画像、状態検知の対象である撮影画像において乗員が同じような見え方(同じような見かけ)となるように、各画像を変換(正規化ともいう)することとした。画像上の乗員の見かけが同じであれば、特徴量も近い値が抽出されるため、状態検知を高精度に実現できる学習モデルを生成できる。画像の変換には、変換パラメータを用いるが、これについては後述する。
座席に着座した乗員は様々な体勢をとるため、乗員の身体の角度は座席の背もたれの角度で常に近似できる訳ではないが、乗員の体勢は座席の背もたれの角度または座席の位置によって制限されるため、乗員の見かけの違いは、座席の見かけの違いで近似できると言える。
また、車両の座席は、車種によって形状に多少の違いはあるものの、大きさ、位置などはほとんど同じである。よって、座席の見かけは、カメラの設置位置と相関関係にあると言える。
以上のことから、本発明は、学習時において、正解画像および不正解画像のそれぞれを、座席が同じ見え方となるように変換し、変換後の各画像に基づいて、カメラの設置位置に依存しない1つの学習モデルを生成するようにする。これにより、本発明は、学習用の画像をカメラの設置位置ごとに大量に用意する必要がなくなり、コストを低減できる。
また、本発明は、乗員の状態の検知時において、状態検知の対象となる撮影画像を、学習時における座席の見かけと同じ見え方となるように変換し、変換後の画像と上記学習モデルに基づいて、乗員の状態を検知するようにする。これにより、本発明は、乗員の状態の検知を精度良く実現できる。
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
<学習装置の構成>
本実施の形態に係る学習装置100の構成について、図6を用いて説明する。図6は、学習装置100の構成例を示すブロック図である。
図6に示すように、学習装置100は、画像処理装置110および学習部120を有する。画像処理装置110は、画像記憶部111、変換パラメータ記憶部112、および画像変換部113を有する。学習装置100は、後述する検知装置101で使用される学習モデルを生成する装置である。
なお、図示は省略するが、学習装置100および画像処理装置110は、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリ、および通信回路を有する。この場合、図6に示す各部の機能は、CPUが制御プログラムを実行することにより実現される。
画像記憶部111は、学習用の画像として、複数の正解画像と複数の不正解画像を記憶する。正解画像は、例えば、乗員の着座状態を示す画像(例えば、図2(a)、図4参照)である。不正解画像は、例えば、乗員の非着座状態を示す画像である。不正解画像は、着座していない状態の乗員の画像のほか、乗員が着座していない座席の画像(例えば、図2(b)参照)を含む。
正解画像と不正解画像は、カメラの設置位置毎に撮影されたものであればよく、乗員の体勢毎、服装毎に用意される必要はない。
また、正解画像および不正解画像には、それらの画像を撮影したカメラの設置位置を示す情報(以下、設置位置情報という)が対応付けられている。
なお、本実施の形態では、座席に着座する乗員が人間である場合を例に挙げて説明するが、乗員は、人間に限らず、その他の生物であってもよい。
変換パラメータ記憶部112は、変換パラメータを記憶する。変換パラメータは、設置位置が異なる各カメラで撮影された正解画像、不正解画像および撮影画像のそれぞれにおける座席の見かけ(見え方)を、予め定められた座席の見かけに近似させる(または、予め定められた座席の見かけと同じにする)ように、画像を変換するためのパラメータである。
変換パラメータは、カメラの設置位置毎に算出される(算出方法については後述する)。よって、変換パラメータ記憶部112は、複数の変換パラメータを記憶する。各変換パラメータには、カメラの設置位置を示す設置位置情報が対応付けられている。
画像変換部113は、画像記憶部111から正解画像および不正解画像を読み出し、それらの画像に付された設置位置情報に対応する変換パラメータを変換パラメータ記憶部112から読み出す。
そして、画像変換部113は、読み出された変換パラメータに基づいて、読み出された正解画像および不正解画像の変換を行う。以下、変換後の正解画像を「変換正解画像」といい、変換後の不正解画像を「変換不正解画像」という。
この画像変換処理によって、設置位置が異なるカメラによって撮影された各正解画像および各不正解画像における座席の見かけは、同じようになる。
そして、画像変換部113は、変換正解画像および変換不正解画像を学習部120へ出力する。
学習部120は、画像変換部113から変換正解画像および変換不正解画像を受け取る。
そして、学習部120は、変換正解画像および変換不正解画像から特徴量を抽出し、抽出された特徴量に基づいて、学習モデルを生成する。
そして、学習部120は、生成された学習モデルを所定装置へ出力する。所定装置は、例えば、後述する検知装置101の検知部140(図11参照)、または、検知部140がアクセス可能な記憶装置(図示略)などである。
以上、学習装置100の構成について説明した。
<学習装置の動作>
本実施の形態に係る学習装置100の動作について、図7を用いて説明する。図7は、学習装置100の動作例を示すフローチャートである。
まず、画像変換部113は、正解画像、不正解画像、および、それらに対応する変換パラメータを読み出す(ステップS101)。
次に、画像変換部113は、変換パラメータを用いて、正解画像および不正解画像の変換を行う(ステップS102)。そして、画像変換部113は、変換正解画像および変換不正解画像を学習部120へ出力する。
次に、学習部120は、画像変換部113から受け取った変換正解画像および変換不正解画像に基づいて、学習モデルを生成する(ステップS103)。そして、学習部120は、生成された学習モデルを所定装置へ出力する。
以上、学習装置100の動作について説明した。
<変換パラメータの算出例>
変換パラメータの算出例について、図8〜図10を用いて説明する。以下では、射影変換を例に挙げて説明する。また、以下に説明する変換パラメータの算出処理は、学習装置100またはそれ以外の装置(図示略)により行われるが、以下では学習装置100が行う場合を例に挙げて説明する。
まず、学習装置100は、例えば図8に示す画像31〜33を所定装置(カメラまたは画像記憶装置)から受け取る。画像31〜33は、座席が撮影された画像である。画像31〜33を撮影したカメラの設置位置は、それぞれ、異なるものとする。このため、画像31〜33上の座席の見かけは異なる。例えば、図8に示した点線は、各画像上の座席における点a〜dの位置の違い(ずれ)を示している。
次に、学習装置100は、画像31〜33上の各座席における点a〜dの座標を算出する。点aは、座席の背もたれの右側上方の点であり、点bは、座席の背もたれの左側上方の点である。また、点cは、座席の座面の左側前方の点であり、点dは、座席の座面の右側前方の点である。
このようにして算出された座標の一例を図9に示す。図9は、画像毎に算出された点a〜dのx座標とy座標を示している。また、図9に示した基準座標は、変換後の目標として定められた座標である。
学習装置100は、各画像31〜33における点a〜dの座標が、基準座標として定められた点a〜dの座標と一致するように変換パラメータを算出する。これにより、画像31〜33毎に変換パラメータが算出される。すなわち、カメラの設置位置毎に変換パラメータが算出される。
そして、学習装置100は、算出された変換パラメータを、例えば変換パラメータ記憶部112に記憶させる。このとき、上述したとおり、各変換パラメータには、カメラの設置位置を示す設置位置情報が対応付けられる。なお、算出された変換パラメータは、例えば、学習装置100の製品出荷前に、変換パラメータ記憶部112に記憶される。
算出された変換パラメータによって変換された各画像の例を図10に示す。画像31aは、図8に示した画像31が変換パラメータによって変換された画像である。画像32aは、図8に示した画像32が変換パラメータによって変換された画像である。画像33aは、図8に示した画像33が変換パラメータによって変換された画像である。このように変換後の画像31a〜33aでは、図10の点線に示すように、各画像上の座席における点a〜dの見かけの位置が同じようになる(図8に示したずれが解消される)。すなわち、画像31a〜33a上の座席の見かけは同じようになる。
なお、カメラの設置位置の違いだけではなく、撮影された座席の車室内における実際の座席角度(例えば、背もたれの角度)および座席位置(例えば、座面の前端の位置)の違いによっても各画像上の座席の見かけは異なる。そのため、画像31〜33毎に座席角度の情報および座席位置の情報が対応付けられている場合には、各変換パラメータは、座席角度、座席位置、およびカメラの設置位置に基づいて決定される、画像上の座席における複数点の座標を用いて算出されてもよい。また、変換パラメータがカメラの設置位置毎に算出される場合には、変換パラメータは、カメラ設置位置毎に予め設定された座席角度および座席位置それぞれの代表的な数値を用いて算出されてもよい。座席角度および座席位置それぞれの代表的な数値とは、例えば車両の乗員となることが想定される一般的な体格の男性が着座した場合の座席角度および座席位置である。
以上、変換パラメータの算出例について説明した。
<検知装置の構成>
本実施の形態に係る検知装置101の構成について、図11を用いて説明する。図11は、検知装置101の構成例を示すブロック図である。
図11に示す検知装置101は、例えば、車両等の移動体において用いられる。すなわち、検知装置101は、車載機器であってもよいし、車両に持ち込まれる機器であってもよい。なお、本実施の形態では、検知装置101が車両に適用されたものとして説明するが、車両に限定されない。
図11に示すように、検知装置101は、画像処理装置130および検知部140を有する。画像処理装置130は、画像入力部131、変換パラメータ記憶部132、および画像変換部133を有する。
なお、図示は省略するが、検知装置101および画像処理装置130は、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、RAM等の作業用メモリ、および通信回路を有する。この場合、図11に示す各部の機能は、CPUが制御プログラムを実行することにより実現される。
画像入力部131は、カメラ200から、状態検知の対象となる撮影画像を受け取る。カメラ200は、図1に示したカメラ10と同様に、車室内の所定位置に設置され、座席、または、その座席に着座した乗員を撮影する。なお、ここでは例として、カメラ200は、車両の出荷前に、車室内の所定位置に固定して取り付けられているとする。
そして、画像入力部131は、カメラ200から受け取った撮影画像を画像変換部133へ出力する。
なお、ここでは、画像入力部131がカメラ200から撮影画像を受け取る場合を例に挙げて説明したが、画像入力部131は、カメラ200以外の装置(例えば、カメラ200から撮影画像を受け取る記憶装置)から撮影画像を受け取ってもよい。
変換パラメータ記憶部132は、カメラ200の設置位置に対応する1つの変換パラメータを記憶する。この変換パラメータは、上記「変換パラメータの算出例」で説明したように、カメラ200の設置位置に対応して予め算出されたものであり、例えば、検知装置101の製品出荷前に、変換パラメータ記憶部132に記憶される。
画像変換部133は、画像入力部131から撮影画像を受け取り、変換パラメータ記憶部132から変換パラメータを読み出す。
そして、画像変換部133は、変換パラメータに基づいて、撮影画像の変換を行う。変換後の撮影画像を、以下「変換撮影画像」という。
そして、画像変換部133は、変換撮影画像を検知部140へ出力する。
検知部140は、画像変換部133から変換撮影画像を受け取り、その変換撮影画像から特徴量を抽出する。
そして、検知部140は、抽出された特徴量と、学習装置100によって生成された学習モデルとに基づいて、乗員の状態(例えば、乗員が着座状態であるかまたは非着座状態であるか)を検知する。
そして、検知部140は、検知結果を示す情報(以下、検知結果情報という)を所定装置へ出力する。所定装置は、図示は省略するが、例えば、車両の走行を制御するECU(Electronic Control Unit)、または記憶装置等が挙げられる。
以上、検知装置101の構成について説明した。
<検知装置の動作>
本実施の形態に係る検知装置101の動作について、図12を用いて説明する。図12は、検知装置101の動作例を示すフローチャートである。
まず、画像入力部131は、カメラ200から撮影画像を受け取る(ステップS201)。そして、画像入力部131は、その撮影画像を画像変換部133へ出力する。
次に、画像変換部133は、画像入力部131から撮影画像を受け取り、変換パラメータ記憶部132から変換パラメータを読み出す(ステップS202)。
次に、画像変換部133は、変換パラメータを用いて撮影画像の変換を行う(ステップS203)。そして、画像変換部133は、変換撮影画像を検知部140へ出力する。
検知部140は、画像変換部133から受け取った変換撮影画像に基づいて、乗員の状態を検知する(ステップS204)。そして、検知部140は、検知結果情報を所定装置へ出力する。
以上、検知装置101の動作について説明した。
<本実施の形態の効果>
以上説明したように、本実施の形態によれば、学習時において、設置位置が異なるカメラによって撮影された正解画像および不正解画像のそれぞれを、座席が同じ見え方となるように変換し、変換後の各画像に基づいて、カメラの設置位置に依存しない1つの学習モデルを生成する。これにより、学習用の画像をカメラの設置位置ごとに大量に用意する必要がなくなり、コストを低減できる。
また、本実施の形態によれば、乗員の状態の検知時において、状態検知の対象となる撮影画像を、学習時における座席の見かけと同じ見え方となるように変換し、変換後の画像と上記学習モデルに基づいて、乗員の状態を検知する。これにより、乗員の状態を精度良く検知できる。
<本発明の変形例>
以上、本発明の実施の形態について説明したが、本発明は上記説明に限定されず、種々の変形が可能である。以下、各変形例について説明する。
(変形例1)
上記実施の形態では、画像上の座席の4点(点a〜d)の座標が基準座標と同じになるように変換パラメータを算出する場合を例に挙げて説明したが、変換パラメータの算出方法は、これに限定されない。例えば、画像上の座席の予め定められた点を結ぶ線を用いて変換パラメータを算出してもよい。この具体例について、図13、図14を用いて以下に説明する。
まず、第1の算出方法について、図13を用いて説明する。
例えば、まず、学習装置100は、所定装置(カメラまたは画像記憶装置)から画像41、42を受け取る。画像41および画像42は、それぞれ、異なる設置位置のカメラにより撮影された座席の画像である。
次に、学習装置100は、画像41、42のそれぞれにおいて、線分L1、L2を算出する。線分L1、L2は、それぞれ、画像上のヘッドレストの頂点eと、画像上の背もたれと画像上の座面の境界の中点fとを結ぶ仮想線である。また、学習装置100は、線分L1、L2それぞれの傾き(角度)を算出する。ここでいう傾きは、例えば、画像41、42の垂直方向に対する傾き(角度)である。
次に、学習装置100は、線分L1、L2の傾きが、予め定められた傾き(例えば、垂直)に一致するように変換パラメータを算出する。そして、学習装置100は、算出された変換パラメータに設置位置情報を対応付けて、変換パラメータ記憶部112に記憶させる。
図13に示す画像41a、42aは、それぞれ、算出された変換パラメータを用いて画像41、42が変換された画像である。画像41a、42aでは、それぞれ、線分L1、L2が垂直に変換され、座席の見かけが近似している。
次に、第2の算出方法について、図14を用いて説明する。
例えば、まず、学習装置100は、所定装置(カメラまたは画像記憶装置)から画像51、52を受け取る。画像51および画像52は、それぞれ、異なる設置位置のカメラにより撮影された座席および着座状態の乗員の画像である。
次に、学習装置100は、画像41、42のそれぞれにおいて、線分L1、L2を算出する。線分L1、L2は、第1の算出方法で説明した通りである。
次に、学習装置100は、線分L1、L2の傾きが、予め定められた傾き(例えば、垂直)に一致するように変換パラメータを算出する。
図14に示す画像51a、52aは、それぞれ、算出された変換パラメータを用いて画像51、52が変換された画像である。画像51a、52aでは、それぞれ、線分L1、L2が垂直に変換され、座席および着座状態の乗員の見かけが近似している。
次に、学習装置100は、線分L1、L2の長さが、予め定められた長さになるように変換パラメータを補正する。そして、学習装置100は、補正された変換パラメータに設置位置情報を対応付けて、変換パラメータ記憶部112に記憶させる。
図14に示す画像51b、52bは、それぞれ、補正された変換パラメータを用いて画像51a、52aが変換された画像である。図14の例では、線分L1と線分L2が同じ長さとなるように、画像51aが拡大されて画像51bとなり、画像52aが縮小されて画像52bとなっている。これにより、画像51b、51bでは、それぞれ、座席および着座状態の乗員の見かけが近似している。
このようにして算出された本変形例の変換パラメータは、実施の形態と同様に、学習装置100における画像変換処理(図7のステップS102)、および、検知装置101における画像変換処理(図12のステップS203)に用いられる。
(変形例2)
上記実施の形態では、検知装置101の変換パラメータ記憶部132には、カメラ200の設置位置に対応した1つの変換パラメータが記憶されている場合を例に挙げて説明したが、複数の変換パラメータが記憶されてもよい。
例えば、複数の変換パラメータは、座席角度毎および座席位置毎に予め算出されたものである。よって、変換パラメータ記憶部132に記憶される複数の変換パラメータの各々には、座席角度情報および座席位置情報が対応付けられている。
この場合、まず、画像変換部133は、座席角度および座席位置を検知可能な座席センサ(図示略)から、例えばCAN(Controller Area Network)経由で座席角度情報および座席位置情報を受け取る。ここでの座席角度情報および座席位置情報は、それぞれ、カメラ200による撮影画像の撮影時における、座席角度および座席位置を示す情報である。
次に、画像変換部133は、変換パラメータ記憶部132に記憶されている複数の変換パラメータの中から、座席センサから受け取った座席角度情報および座席位置情報が対応付けられている変換パラメータを選択する。そして、画像変換部133は、その変換パラメータをパラメータ記憶部132から読み出し、その変換パラメータを用いて撮影画像の変換を行う。
なお、上記説明では、画像変換部133が座席センサから座席角度情報および座席位置情報を受け取る場合を例に挙げて説明したが、これに限定されない。例えば、画像変換部133は、画像入力部131から受け取った撮影画像に対して所定の画像解析を行い、座席角度情報および座席位置情報を取得してもよい。
また、上記説明では、複数の変換パラメータが、座席角度情報および座席位置情報に対応付けられている場合を例に挙げて説明したが、座席角度情報または座席位置情報のいずれか一方に対応付けられていてもよい。
本変形例によれば、座席角度毎および/または座席位置毎に算出された変換パラメータを用いて撮影画像の変換を行うので、検知の際に、乗員が座席角度および/または座席位置を変更した場合に対応でき、より検知の精度が向上する。
(変形例3)
上記実施の形態では、カメラが車室内の所定位置に予め固定されている場合を例に挙げて説明したが、カメラは、車両の製品出荷後に、ユーザによって車室内に後付けされてもよい。この場合では、検知時における変換パラメータは、以下のようにして算出または決定される。
まず、変換パラメータが算出される場合の一例について説明する。
検知装置101の製品出荷時には、カメラの設置位置が未定であるため、変換パラメータ記憶部132には、変換パラメータは記憶されていない。その代わり、基準座標(例えば、図9に示した点a〜dの座標)が変換パラメータ記憶部132に記憶されている。
ユーザにより車室内に設置されたカメラにより、状態検知の対象となる撮影画像が取得される。
まず、画像変換部133は、画像入力部131からその撮影画像を受け取り、変換パラメータ記憶部132から4点の基準座標を読み出す。次に、画像変換部133は、撮影画像上の座席における4点(例えば、図8に示した点a〜d)の座標を算出し、それらの座標が基準座標になるように変換パラメータを算出する。そして、画像変換部133は、算出された変換パラメータを用いて撮影画像の変換を行う。また、画像変換部133は、算出された変換パラメータを変換パラメータ記憶部132に記憶させる。
次に、変換パラメータが決定される場合の一例について説明する。
検知装置101の製品出荷時には、想定されるカメラの設置位置に対応して複数の変換パラメータが、変換パラメータ記憶部132に記憶されている。また、基準座標(例えば、図9に示した点a〜dの座標)も記憶されているとする。
その後、ユーザによりカメラが車室内に設置され、そのカメラにより、状態検知の対象となる撮影画像が取得されたとする。
まず、画像変換部133は、画像入力部131からその撮影画像を受け取り、変換パラメータ記憶部132から、全ての変換パラメータと、4点の基準座標とを読み出す。次に、画像変換部133は、撮影画像上の座席における4点(例えば、図8に示した点a〜d)の座標を算出し、それらの座標を、各変換パラメータを用いて変換する。次に、画像変換部133は、各変換後の座標と、基準座標との比較を行う。この比較の結果、画像変換部133は、最も基準座標に近い変換後の座標を選択し、その変換後の座標に対して用いられた変換パラメータを、撮影画像の変換に用いる変換パラメータに決定する。そして、画像変換部133は、決定された変換パラメータを用いて撮影画像の変換を行う。
(変形例4)
また、上記実施の形態では、座席の所定の点の画像における見かけの位置に基づいて変換パラメータを算出したが、これに限定されない。例えば、車室内の装置(乗員が乗車した際に座席位置に制限を与える装置。例えば、ステアリング)の所定の点の画像における見かけの位置に基づいて変換パラメータを算出してもよい。または、座席の所定の点の画像における見かけの位置と、車室内の装置の所定の点の画像における見かけの位置とに基づいて変換パラメータを算出してもよい。
(変形例5)
上記実施の形態では、学習の対象および検知の対象が着座状態または非着座状態である場合を例に挙げて説明したが、学習の対象および検知の対象は、これに限定されず、例えば、人物の体勢、顔などであってもよい。
(変形例6)
上記実施の形態では、学習装置100と検知装置101が別々の構成である場合を例に挙げて説明したが、学習装置100と検知装置101とを合わせて1つの学習検知装置として構成してもよい。その場合、画像処理装置110と画像処理装置130とを合わせて1つの画像処理装置として構成してもよい。
(変形例7)
上記実施の形態では、学習装置100の画像処理装置110が画像記憶部111と変換パラメータ記憶部112を有する場合を例に挙げて説明したが、画像記憶部111と変換パラメータ記憶部112は、例えば図15に示すように、画像処理装置110の外部に設けられてもよい。その場合、画像処理装置110は、画像記憶部111から正解画像および不正解画像を受け取る画像入力部114と、変換パラメータ記憶部112から変換パラメータを受け取る変換パラメータ入力部115とを備える構成としてもよい。なお、画像入力部114と変換パラメータ入力部115を合わせて1つの入力部として構成してもよい。
また、上記実施の形態では、検知装置101の画像処理装置130が変換パラメータ記憶部132を有する場合を例に挙げて説明したが、変換パラメータ記憶部132は、例えば図16に示すように、画像処理装置130の外部に設けられてもよい。その場合、画像処理装置130は、変換パラメータ記憶部132から変換パラメータを受け取る変換パラメータ入力部135を備える構成としてもよい。なお、画像入力部131と変換パラメータ入力部135を合わせて1つの入力部として構成してもよい。
本発明は、所定の状態の学習および検知に用いられる画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラムに有用である。
1 車両
10、200 カメラ
20 運転席
100 学習装置
101 検知装置
110、130 画像処理装置
111 画像記憶部
112、132 変換パラメータ記憶部
113、133 画像変換部
114、131 画像入力部
115、135 変換パラメータ入力部
120 学習部
140 検知部

Claims (7)

  1. 座席を撮影するためのカメラが設置された位置に対応して算出された変換パラメータを記憶する変換パラメータ記憶部と、
    前記変換パラメータに基づいて、前記カメラによって撮影された画像を変換し、変換後の画像を出力する画像変換部と、を有し、
    前記変換パラメータは、前記画像上の座席の見え方を予め定められた見え方に近似させるように、前記画像を変換させるパラメータであって前記画像上の座席の所定点に基づく線分の傾きと予め定められた傾きとに基づいて前記画像を変換させるパラメータである、
    画像処理装置。
  2. 前記変換パラメータは、
    前記画像上の座席の所定点に基づく線分の傾きが予め定められた傾きと一致するように、前記画像を変換させるパラメータである、
    請求項1に記載の画像処理装置。
  3. 請求項1または2に記載の画像処理装置を含む検知装置であって、
    学習モデルと前記画像処理装置に含まれる画像変換部から出力された変換後の画像から抽出された特徴量とに基づいて、該画像における所定状態を検知する検知部、を有する、
    検知装置。
  4. 請求項1または2に記載の画像処理装置を含む学習装置であって、
    前記カメラによって撮影された、前記座席における第1状態を示す正解画像と、前記座席における第2状態を示す不正解画像とを受け取る画像入力部と、
    前記正解画像および前記不正解画像から抽出された特徴量に基づいて学習モデルを生成する学習部と、を有し、
    前記画像処理装置に含まれる画像変換部は、前記変換パラメータに基づいて、前記画像入力部が受け取った前記正解画像および前記不正解画像を変換し、変換後の正解画像および変換後の不正解画像を前記学習部へ出力し、
    前記学習部は、前記画像変換部から出力された前記変換後の正解画像および前記変換後の不正解画像から抽出された特徴量に基づいて学習モデルを生成する、
    学習装置。
  5. 前記第1状態は、
    前記座席に人物が着座している状態であり、
    前記第2状態は、
    前記座席に人物が着座していない状態である、
    請求項に記載の学習装置。
  6. 座席を撮影するためのカメラが設置された位置に対応して算出された変換パラメータを記憶し、
    前記変換パラメータに基づいて、前記カメラによって撮影された画像を変換し、変換後の画像を出力し、
    前記変換パラメータは、前記画像上の座席の見え方を予め定められた見え方に近似させるように、前記画像を変換させるパラメータであって前記画像上の座席の所定点に基づく線分の傾きと予め定められた傾きとに基づいて前記画像を変換させるパラメータである、
    画像処理方法。
  7. 座席を撮影するためのカメラが設置された位置に対応して算出された変換パラメータを記憶する処理と、
    前記変換パラメータに基づいて、前記カメラによって撮影された画像を変換し、変換後の画像を出力する処理と、をコンピュータに実行させ、
    前記変換パラメータは、前記画像上の座席の見え方を予め定められた見え方に近似させるように、前記画像を変換させるパラメータであって前記画像上の座席の所定点に基づく線分の傾きと予め定められた傾きとに基づいて前記画像を変換させるパラメータである、
    画像処理プログラム。
JP2016199340A 2016-10-07 2016-10-07 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム Active JP6814977B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016199340A JP6814977B2 (ja) 2016-10-07 2016-10-07 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム
US15/713,604 US10417511B2 (en) 2016-10-07 2017-09-23 Image processor, detection apparatus, learning apparatus, image processing method, and computer program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016199340A JP6814977B2 (ja) 2016-10-07 2016-10-07 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2018060466A JP2018060466A (ja) 2018-04-12
JP6814977B2 true JP6814977B2 (ja) 2021-01-20

Family

ID=61829684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016199340A Active JP6814977B2 (ja) 2016-10-07 2016-10-07 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム

Country Status (2)

Country Link
US (1) US10417511B2 (ja)
JP (1) JP6814977B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7173811B2 (ja) * 2018-09-27 2022-11-16 株式会社アイシン 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
US11783602B2 (en) 2018-11-05 2023-10-10 Nec Corporation Object recognition system, recognition device, object recognition method, and object recognition program
KR20190103085A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 지능형 진단 디바이스
CN114981837A (zh) * 2020-01-24 2022-08-30 三菱电机株式会社 物体识别装置及物体识别方法
US11951935B2 (en) * 2021-07-22 2024-04-09 GM Global Technology Operations LLC System and method for assessing seatbelt routing using seatbelt routing zones that are based on size and shape of occupant

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609893B2 (en) * 2004-03-03 2009-10-27 Trw Automotive U.S. Llc Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model
JP4438753B2 (ja) 2006-01-27 2010-03-24 株式会社日立製作所 車両内状態検知システム,車両内状態検知装置および方法
JP2011210087A (ja) * 2010-03-30 2011-10-20 Panasonic Corp 車両周囲監視装置および車両周囲監視方法
JP2012044404A (ja) * 2010-08-18 2012-03-01 Toyota Motor Corp 車室内監視装置
US8582819B2 (en) * 2011-11-18 2013-11-12 Xerox Corporation Methods and systems for improving yield in wanted vehicle searches
WO2016012041A1 (en) * 2014-07-23 2016-01-28 Metaio Gmbh Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US9996772B2 (en) * 2016-04-28 2018-06-12 International Business Machines Corporation Detection of objects in images using region-based convolutional neural networks
US10210451B2 (en) * 2016-07-22 2019-02-19 Alpine Electronics of Silicon Valley, Inc. Neural network applications in resource constrained environments

Also Published As

Publication number Publication date
US20180101741A1 (en) 2018-04-12
JP2018060466A (ja) 2018-04-12
US10417511B2 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
JP6814977B2 (ja) 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム
JP2021504236A5 (ja)
US9822576B2 (en) Method for operating an activatable locking device for a door and/or a window, securing device for a vehicle, vehicle
JP2021504236A (ja) 車両シート知能化調節方法及び装置、車両、電子機器並びに媒体
US7065230B2 (en) Image processing system and driving support system
US20170004354A1 (en) Determination device, determination method, and non-transitory storage medium
JP6739672B2 (ja) 体格推定装置および体格推定方法
JP5790762B2 (ja) 瞼検出装置
JP6870294B2 (ja) 乗員情報検出装置およびプログラム
US20060280336A1 (en) System and method for discriminating passenger attitude in vehicle using stereo image junction
US7295123B2 (en) Method for detecting a person in a space
JP2020047273A (ja) 3次元特徴点情報生成装置
EP3545818A1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
JP7134364B2 (ja) 体格判定装置および体格判定方法
JP2019189101A (ja) 乗員情報判定装置
US7134688B2 (en) Safety apparatus against automobile crash
JP5082620B2 (ja) 余所見判定装置
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
EP3650267B1 (en) Control device for vehicle, system, method and storage medium
JP2022038225A (ja) 顔情報取得装置および顔情報取得方法
JP2021056968A (ja) 物体判定装置
JPH11217056A (ja) 乗員の姿勢判別装置
JP7259550B2 (ja) 物***置検出装置
KR20180031146A (ko) 차량 및 장애물 검출 방법
CN117121061A (zh) 用于生成注意区域的计算机实现的方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201204

R151 Written notification of patent or utility model registration

Ref document number: 6814977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03