JP6979229B2 - 魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens} - Google Patents

魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens} Download PDF

Info

Publication number
JP6979229B2
JP6979229B2 JP2020008409A JP2020008409A JP6979229B2 JP 6979229 B2 JP6979229 B2 JP 6979229B2 JP 2020008409 A JP2020008409 A JP 2020008409A JP 2020008409 A JP2020008409 A JP 2020008409A JP 6979229 B2 JP6979229 B2 JP 6979229B2
Authority
JP
Japan
Prior art keywords
specific
pose
point
passenger
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020008409A
Other languages
English (en)
Other versions
JP2020123342A (ja
Inventor
− ヒョン キム、ケイ
キム、ヨンジュン
− キョン キム、ハク
ナム、ウヒョン
ブー、ソッフン
ソン、ミュンチュル
シン、ドンス
ヨー、ドンフン
リュー、ウジュ
− チュン イ、ミョン
イ、ヒョンス
チャン、テウン
ジョン、キュンチョン
チェ、ホンモ
チョウ、ホジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020123342A publication Critical patent/JP2020123342A/ja
Application granted granted Critical
Publication of JP6979229B2 publication Critical patent/JP6979229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、2Dカメラを利用して乗客の状態を検出する方法及び装置に関し、より詳細には、魚眼レンズが装着された2Dカメラから取得される車両の2D室内イメージを利用して各乗客の状態を検出する方法及び装置に関する。
一般的に、車両には使用者の便宜及び安全のための様々な安全装置が設置されている。
特に、車両事故の際に、ドライバーのような乗客と安全装置との距離を利用して乗客の安全のための安全装置を作動させるための様々なアプリケーションを遂行している。
一例として、車両の事故によるエアバッグの展開の際に、エアバッグと乗客との間の距離が遠い場合にはエアバッグの膨張時間が増加し、エアバッグと乗客との間の距離が近い場合にはエアバッグの膨張時間が減少する。したがって、エアバッグと乗客との間の距離に応じてエアバッグの展開が効率的に行われるようにして車両の衝突による2次事故を防止している。
また、車両の乗客のうち一部である運転者との距離を利用して、運転者が運転中の姿勢を傾けるなどの非正常な動作状態を検出して警報することによって、前方不注視の場合などによる事故を未然に防止している。
このような安全装置の動作を遂行ために使用される乗客との距離は、様々なセンサを利用して測定している。
しかし、各センサを利用して乗客との距離を測定する場合には、乗客の様々な位置及び変化する運行環境に応じて正確なセンシング情報を確保することが難しく、距離測定のための多様なセンサを適用しなければならないため、費用が増加する問題点がある。
したがって、本発明では、従来に比べて安価な費用で各乗客の身***置を測定し得るようにする方案を提案することにする。
本発明は、前述した問題点を全て解決することをその目的とする。
本発明は、費用の増加なしに一人以上の乗客の一つ以上の状態を検出し得るようにすることを他の目的とする。
本発明は、走行環境に影響されずに各乗客の状態を検出し得るようにすることをまた他の目的とする。
本発明は、処理すべき情報を最小化して、各乗客の状態を検出し得るようにすることをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下のとおりである。
本発明の一態様によると、車両の室内イメージを分析することによって、一人以上の乗客の状態を検出する方法において、(a)魚眼レンズが装着された少なくとも一つのカメラにより撮影された車両の室内に対する少なくとも一つの2D室内イメージが取得されると、乗客状態検出装置が、前記2D室内イメージをポーズ予測ネットワークに入力することによって、前記ポーズ予測ネットワークをもって、前記2D室内イメージから一人以上の乗客それぞれに対応する一つ以上のポーズポイントを取得させる段階;及び(b)前記乗客状態検出装置が、(i)予め設定されたピクセル及び角度(pixel−angle)テーブルを参照して前記車両の予め設定されたファレンスポイントを基準として前記乗客それぞれに対応する前記ポーズポイントに関する各位置情報を演算し、(ii)前記乗客それぞれに対応する前記ポーズポイントに関する前記位置情報を参照して前記乗客それぞれの状態を検出する段階;を含み、前記ピクセル及び角度テーブルは、前記車両の室内にグリッドセル(grid cells)からなるグリッドボード(grid board)を設置した状態で、第1ライン及びそれぞれの第2ラインにより形成されたそれぞれの垂直角度及びそれぞれの水平角度が前記グリッドセルの各コーナーのピクセルそれぞれに対応するように生成されたテーブルであり、前記第1ラインは、前記カメラで撮影したグリッドイメージ上の前記グリッドボードの上端中央及び前記カメラを連結し、前記それぞれの第2ラインは、前記それぞれのコーナー及び前記カメラを連結したことを特徴とする方法が提供される。
一実施例において、前記(b)段階で、前記乗客状態検出装置は、(i)前記乗客それぞれに対応する前記各ポーズポイントのうち特定のポーズポイントが位置する特定のグリッドセルのコーナーに関する前記各位置情報を利用してバイリニア補間法(bilinear interpolation)により前記特定のポーズポイントの特定高さを取得し、(ii)前記各グリッドセルの前記各コーナーの前記垂直角度及び前記水平角度を利用してバイリニア補間法により前記特定のポーズポイントの特定の垂直角度及び特定の水平角度を取得し、(iii)前記特定高さ、前記特定の垂直角度及び前記特定の水平角度を参照して、前記特定のポーズポイント及び前記リファレンスポイントの間の特定の車軸方向距離及び特定の車幅方向距離を取得することを特徴とする方法が提供される。
一実施例において、前記リファレンスポイント及び前記特定のポーズポイントを前記車両の全体の車軸方向及び全体の車幅方向により形成された平面上にそれぞれ投影して、投影されたリファレンスポイント及び投影された特定のポーズポイントそれぞれを取得した状態で、前記特定の車軸方向距離は、前記投影されたリファレンスポイント及び前記投影された特定のポーズポイントの間の距離であり、前記特定の車幅方向距離は、前記投影されたリファレンスポイントから全体の車軸方向に延長されたベースライン及び前記投影されたポーズポイントの間の距離であることを特徴とする方法が提供される。
一実施例において、(c)前記乗客状態検出装置が、(i)前記車両の非常状況で前記各乗客を保護するための、前記車両の少なくとも一つのアプリケーションをもって、前記乗客それぞれの状態にしたがって動作させるか、(ii)前記乗客それぞれの状態を参照して前記乗客それぞれの一つ以上の行動パターンを分析して前記乗客それぞれの走行安全状態それぞれを確認させる段階;をさらに含むことを特徴とする方法が提供される。
一実施例において、前記(a)段階で、前記乗客状態検出装置は、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソル(feature tensor)を出力させ、(ii)キーポイントヒートマップ及びパートアフィニティフィールド抽出器を通じて前記特徴テンソルそれぞれに対応する一つ以上のチャンネルを有する少なくとも一つのキーポイントヒートマップ及び少なくとも一つのパートアフィニティフィールドを生成させ、(iii)キーポイント検出器を通じて前記キーポイントヒートマップにおいて一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドを参照して前記抽出されたキーポイントをグルーピングして前記乗客それぞれに対応する前記ポーズポイントを生成させることを特徴とする方法が提供される。
一実施例において、前記(a)段階で、前記乗客状態検出装置は、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソルを出力させ、(ii)フルコンボリューションネットワーク(fully convolution network)を通じて前記特徴テンソルにフルコンボリューション演算を適用して一つ以上のヒートマップを生成させ、(iii)前記ヒートマップにおいて前記各ポーズポイントを取得させることを特徴とする方法が提供される。
本発明の他の態様によると、車両の室内イメージを分析することによって一人以上の乗客の状態を検出する乗客状態検出装置において、少なくとも一つのインストラクションを格納する少なくとも一つのメモリと、前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)魚眼レンズが装着された少なくとも一つのカメラにより撮影された車両の室内に対する少なくとも一つの2D室内イメージが取得されると、前記2D室内イメージをポーズ予測ネットワークに入力することによって、前記ポーズ予測ネットワークをもって、前記2D室内イメージから一人以上の乗客それぞれに対応する一つ以上のポーズポイントを取得させるプロセス;及び(II)(i)予め設定されたピクセル及び角度(pixel−angle)テーブルを参照して前記車両の予め設定されたファレンスポイントを基準として前記乗客それぞれに対応する前記ポーズポイントに関する各位置情報を演算し、(ii)前記乗客それぞれに対応する前記ポーズポイントに関する前記位置情報を参照して前記乗客それぞれの状態を検出するプロセス;を遂行し、前記ピクセル及び角度テーブルは、前記車両の室内にグリッドセル(grid cells)からなるグリッドボード(grid board)を設置した状態で、第1ライン及びそれぞれの第2ラインにより形成されたそれぞれの垂直角度及びそれぞれの水平角度が前記グリッドセルの各コーナーのピクセルそれぞれに対応するように生成されたテーブルであり、前記第1ラインは、前記カメラで撮影したグリッドイメージ上の前記グリッドボードの上端中央及び前記カメラを連結し、前記それぞれの第2ラインは、前記それぞれのコーナー及び前記カメラを連結したことを特徴とする装置が提供される。
一実施例において、前記(II)プロセスは、前記プロセッサが、(i)前記乗客それぞれに対応する前記各ポーズポイントのうち特定のポーズポイントが位置する特定のグリッドセルのコーナーに関する前記各位置情報を利用してバイリニア補間法(bilinear interpolation)により前記特定のポーズポイントの特定高さを取得し、(ii)前記各グリッドセルの前記各コーナーの前記垂直角度及び前記水平角度を利用してバイリニア補間法により前記特定のポーズポイントの特定の垂直角度及び特定の水平角度を取得し、(iii)前記特定高さ、前記特定の垂直角度及び前記特定の水平角度を参照して前記特定のポーズポイント及び前記リファレンスポイントの間の特定の車軸方向距離及び特定の車幅方向距離を取得することを特徴とする装置が提供される。
一実施例において、前記リファレンスポイント及び前記特定のポーズポイントを前記車両の全体の車軸方向及び全体の車幅方向により形成された平面上にそれぞれ投影して、投影されたリファレンスポイント及び投影された特定のポーズポイントそれぞれを取得した状態で、前記特定の車軸方向距離は前記投影されたリファレンスポイント及び前記投影された特定のポーズポイントの間の距離であり、前記特定の車幅方向距離は、前記投影されたリファレンスポイントから全体の車軸方向に延長されたベースライン及び前記投影されたポーズポイントの間の距離であることを特徴とする装置が提供される。
一実施例において、(III)(i)前記車両の非常状況において、前記各乗客を保護するための、前記車両の少なくとも一つのアプリケーションをもって、前記乗客それぞれの状態によって作動させるか、(ii)前記乗客それぞれの状態を参照して前記乗客それぞれの一つ以上の行動パターンを分析して、前記乗客それぞれの走行安全状態それぞれを確認させるプロセス;をさらに遂行することを特徴とする装置が提供される。
一実施例において、前記(I)プロセスは、前記プロセッサが、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソル(feature tensor)を出力させ、(ii)キーポイントヒートマップ及びパートアフィニティフィールド抽出器を通じて前記特徴テンソルそれぞれに対応する一つ以上のチャンネルを有する少なくとも一つのキーポイントヒートマップ及び少なくとも一つのパートアフィニティフィールドを生成させ、(iii)キーポイント検出器を通じて前記キーポイントヒートマップにおいて一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドを参照して前記抽出されたキーポイントをグルーピングして前記乗客それぞれに対応する前記ポーズポイントを生成させることを特徴とする装置が提供される。
一実施例において、前記(I)プロセスは、前記プロセッサが、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソルを出力させ、(ii)フルコンボリューションネットワーク(fully convolution network)を通じて前記特徴テンソルにフルコンボリューション演算を適用して一つ以上のヒートマップを生成させ、(iii)前記ヒートマップにおいて前記各ポーズポイントを取得させることを特徴とする装置が提供される。
その他にも、本発明の方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、カメラを利用して撮影された車両室内の2D室内イメージを分析して各乗客の状態を検出するため、従来のセンサ方式に比べて費用を節減することができる。
本発明は、カメラを利用して撮影された車両室内の2D室内イメージを分析して各乗客の状態を検出するため、車両の周辺環境に影響されずに各乗客の状態を検出することができるようになる。
本発明は、カメラを利用して撮影された車両室内の2D室内イメージを分析して各乗客の状態を検出するため、従来のセンサ方式に比べて処理しなければならない情報が少ないので、従来のセンサ方式に比べて処理速度を向上させることが可能になる。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
本発明の一実施例にしたがって、少なくとも一つの2Dカメラを利用して一人以上の乗客の状態を検出する乗客状態検出装置を簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用して乗客の状態を検出するためのカメラの設置状態と、カメラを基準として車両に対する座標とを簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出するための乗客のポーズポイントを検出するプロセスを簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出するための乗客のポーズポイントを検出する方法を簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出する方法において、ポーズポイントの位置を確認するのに利用されるグリッドボードを簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出する方法において、ポーズポイントの位置を確認するのに利用されるグリッドボードに対応するピクセル及び角度テーブルを簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出する方法において、ピクセル及び角度テーブルを利用して特定のポーズポイントに対応する高さ及び角度を測定する過程を簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出する方法において、ポーズポイントの車軸方向距離を検出する状態を簡略に示した図面である。 本発明の一実施例にしたがって、2Dカメラを利用した乗客の状態を検出する方法において、ポーズポイントの車幅方向距離を検出する状態を簡略に示した図面である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、類似する機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は、本説明書から、また一部は、本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、少なくとも一つの2Dカメラを利用して一人以上の乗客の状態を検出する乗客状態検出装置を簡略に示した図面である。図1を参照すると、乗客状態検出装置100は、少なくとも一つの2Dカメラを利用して乗客の状態を検出するための各インストラクションを格納するメモリ110と、メモリ110に格納された各インストラクションに対応して2Dカメラを利用して乗客の状態を検出する動作を遂行するプロセッサ120と、を含むことができる。
具体的に、乗客状態検出装置100は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置、出力装置、その他既存のコンピューティング装置の各構成要素を含むことができる装置;ルータまたはスイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージ領域ネットワーク(SAN)のような電子情報ストレージシステム)と少なくとも一つのコンピュータソフトウェア(コンピューティング装置をもって特定の方式で機能させる各インストラクション)との組み合わせを利用して所望のシステム性能を達成するものであり得る。
また、コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、このようにコンピューティング装置が描写されたからといって、コンピューティング装置が本発明を実施するためのミディアム、プロセッサ、及びメモリが統合された形態である統合プロセッサを含む場合を排除するわけではない。
このように構成された本発明の一実施例による乗客状態検出装置100を利用して、2Dカメラを通じて撮影された車両室内の少なくとも一つの2D室内イメージを分析して乗客の状態を検出する方法を説明すると次のとおりである。
まず、図2を参照すると、車両の室内に設けられた少なくとも一つのカメラ10により撮影された車両の2D室内イメージが取得され得る。ここで、2D室内イメージは、車両の運転者のような一人以上の乗客を含むことができる。
ここで、カメラ10は、車両室内の前方上部領域に設けられ得、カメラ10の設置高さは予め設定されたファレンスポイントからカメラ10が設けられた位置までの垂直距離により取得され得る。そして、リファレンスポイントは、車両の室内床面、車両の座席、車両のダッシュボードなどに設定され得るが、本発明がこれに限定されるわけではなく、車両において垂直高さを取得するために使用され得る任意の位置をリファレンスポイントとして設定することができる。リファレンスポイントは、車両の緊急状況において各乗客を保護するために使用される車両のアプリケーション、一例として、エアバッグなどが設けられた位置であり得る。
また、カメラ10は2Dカメラであり得、車両の室内全体を広い視野角で撮影することができるように魚眼レンズ(fisheye lens)を備えることができる。
ここで、x軸は車両の車幅方向に対応するように設定され得、y軸は高さ方向、すなわち、カメラの高さ方向に対応するように設定され得、z軸は車両の車軸方向に対応するように設定され得る。
次に、図3を参照すると、乗客状態検出装置100は、コンピュータビジョン技術を利用したポーズ予測ネットワークを通じて2D室内イメージから乗客それぞれに対応する各ポーズポイント(pp1、pp2、…、ppn)を取得することができる。
一例として、図4を参照すると、2D室内イメージが取得されると、ポーズ予測ネットワーク150は2D室内イメージを特徴抽出ネットワーク151に入力することによって、特徴抽出ネットワーク151をもって2D室内イメージにコンボリューション演算を適用して、2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソルを生成させることができる。ここで、特徴抽出ネットワーク151は、少なくとも一つのコンボリューション演算を遂行することができる一つ以上のコンボリューションレイヤを含む一つ以上のコンボリューションブロックをもって、2D室内イメージに多重コンボリューション演算を適用させることができる。
そして、ポーズ予測ネットワーク150は、特徴テンソルをキーポイントヒートマップ及びパートアフィニティフィールド抽出器152に入力することによって、キーポイントヒートマップ及びパートアフィニティフィールド抽出器152をもって、特徴テンソルそれぞれに対応する一つ以上のキーポイントヒートマップ及び一つ以上のパートアフィニティフィールドを生成させることができる。ここで、キーポイントヒートマップ及びパートアフィニティフィールド抽出器152は、フルコンボリューションネットワークを含むことができる。また、キーポイントヒートマップ及びパートアフィニティフィールド抽出器152は、特徴テンソルに少なくとも一つの1x1コンボリューション演算を適用する一つ以上の1x1コンボリューションレイヤを含むことができる。
一方、キーポイントヒートマップは、熱を意味するヒート(heat)と地図を意味するマップ(map)とを結合させたものであって、色相で表現することができる様々な情報を所定のイメージ上に熱分布形態のビジュアルなグラフィックで生成したものであり得る。
そして、パートアフィニティフィールドは、各キーポイント間の関係を表現する一種のベクトルマップであり得る。すなわち、パートアフィニティフィールドは、特定のキーポイントと他の各キーポイントとの連結を表すマップであり得、それぞれのキーポイントヒートマップのペアに含まれているそれぞれの各キーポイントが相互に連結される確率を表すマップであり得る。
ここで、キーポイントヒートマップ及びパートアフィニティフィールド抽出器152は、二部分マッチング(bipartite matching)を利用して各キーポイントの間の関係を検出することによってパートアフィニティフィールドを生成することができる。すなわち、各キーポイントがそれぞれどの乗客のものであるのか、各キーポイントの関係がどのようなものであるのかを二部分マッチングにより確認することができる。
以後、ポーズ予測ネットワーク150は、キーポイントヒートマップ及びパートアフィニティフィールドをキーポイント検出器153に入力することによって、キーポイント検出器153をもってキーポイントヒートマップから少なくとも一つのキーポイントを抽出し得るようにし、パートアフィニティフィールドを参照して抽出された各キーポイントをグルーピングして、2D室内イメージ内に位置する乗客それぞれに対応するそれぞれの乗客ごとの各ポーズポイントを検出させることができる。ここで、キーポイント検出器153は、キーポイントヒートマップそれぞれのチャンネルそれぞれにおいて最も高いポイント、すなわち、キーポイントヒートマップそれぞれに対応する各キーポイントとして最も高いヒート値を有するポイントそれぞれを抽出することができ、抽出された各キーポイントのうち相互に連結される確率が最も高い各キーポイントをペアリングすることによって、パートアフィニティフィールドを参照して抽出された各キーポイントをグルーピングし、結果として、各ポーズポイントを取得することができる。一例として、抽出されたキーポイントのうちで第2キーポイントが第1キーポイントに連結される可能性が最も高いものと決定される場合、抽出されたキーポイントのうち第1キーポイント及び抽出されたキーポイントのうち第2キーポイントをペアとして連結する過程が遂行され得る。ここで、このようなプロセスは、抽出された全てのキーポイントに対して遂行され得る。結果として、抽出されたキーポイントは、一つ以上のグループに分類され得る。ここで、グループの数は、2D室内イメージにおいて乗客の数によって決定され得る。
その他の例として、乗客状態検出装置100は、ポーズ予測ネットワーク150をもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応するチャンネルを有する特徴テンソルを出力させ、(ii)フルコンボリューションネットワークを通じて前記特徴テンソルにフルコンボリューション演算を適用して少なくとも一つのヒートマップを生成させ、(iii)前記ヒートマップにおいて、前記各ポーズポイントを取得させることができる。
これ以外にも、ポーズポイントは様々な方法により取得され得、本発明では各乗客のポーズポイントを求める方法について限定されない。
すなわち、ポーズ予測ネットワークは、CPM(Convolutional Pose Machines)、コンボリューションニューラルネットワーク、フルコンボリューションネットワークまたはヒートマップなどを利用して各乗客のポーズポイントを取得することができる。
次に、乗客状態検出装置100は、(i)予め設定されたピクセル及び角度(pixel−angle)テーブルを参照して前記車両の予め設定されたファレンスポイントを基準として前記乗客それぞれに対応する前記ポーズポイントに関する各位置情報を算出し、(ii)前記乗客それぞれに対応する前記ポーズポイントに関する前記各位置情報を参照して、前記乗客それぞれの状態を検出することができる。
ここで、ピクセル及び角度テーブルは、前記車両の室内にグリッドセル(grid cells)からなるグリッドボード(grid board)を設置した状態で、第1ライン及びそれぞれの第2ラインにより形成されたそれぞれの垂直角度及びそれぞれの水平角度が前記グリッドセルの各コーナーのピクセルそれぞれに対応するように生成されたテーブルであり、前記第1ラインは、魚眼レンズが装着された2Dカメラで撮影したグリッドイメージ上の前記グリッドボードの上端中央TC及び2Dカメラを連結し、前記それぞれの第2ラインは前記それぞれのコーナーSP及び2Dカメラを連結したものである。
一例として、図5を参照すると、それぞれのサイドが2インチであるグリッドセルからなるグリッドボードは車両室内のカメラの正面方向に設けられ、魚眼レンズを装着した2Dカメラでグリッドボードを撮影して、2Dイメージであるグリッドイメージを取得することができる。
そして、グリッドセルそれぞれのコーナーSPのピクセル値は、グリッドイメージから検出され得る。ここで、グリッドボードが車両の室内をいっぱいに満たすことができない場合に仮想で拡張することもできる。
そうすると、リファレンスポイントからそれぞれのグリッドセルのそれぞれのコーナーSPまでの垂直距離であるそれぞれの高さが計算され得る。
そして、(i)第1ライン及びそれぞれの第2ラインにより形成されたそれぞれの垂直角度及びそれぞれの水平角度を測定し、(ii)それぞれの垂直角度及びそれぞれの水平角度をグリッドセルの各コーナーに対応するピクセルそれぞれにマッチングしてピクセル及び角度テーブルを生成することができる。ここで、第1ラインは、グリッドイメージ上の前記グリッドボードの上端中央TC及び2Dカメラを連結し、前記それぞれの第2ラインは、グリッドイメージ上の前記それぞれのコーナーSP及び2Dカメラを連結したものである。
ここで、図6を参照すると、グリッドセルのすべてのコーナーSPにおいて角度を測定することとは異なり、上端中央から垂直方向に位置するすべてのピクセルにおける垂直角度
Figure 0006979229

は、上端中央から垂直方向のコーナーにおける垂直角度
Figure 0006979229

を測定し、これらの関係を示す数学式を導き出すことによって取得され得、上端中央から水平方向に位置するすべてのピクセルにおける水平角度
Figure 0006979229

は、上端中央から水平方向のコーナーにおける水平角度
Figure 0006979229

を測定し、これらの関係を示す数学式を導き出すことによって取得され得る。
一方、第1ライン及び第2ラインの間の角度を測定するために、カメラ位置においてレーザーポイントを利用することができる。レーザーポイントを利用して上端中央TCとコーナーSPとの間の回転角度を測定することによって、第1ライン及び第2ラインの間の角度を測定することができる。
一方、2Dカメラからイメージの深さを取得する方法は、論文‘Depth and geometry from a single 2d image using triangulation, Y Salih, AS Malik−Multimedia and Expo Workshops(ICMEW),2012’に開示されている。
しかし、前記論文には、イメージ上の幅と高さとが互いに線形に比例して一定の間隔に分けることができるという仮定、すなわち、イメージから角度を計算することができると仮定する。しかしながら、現在車両に利用される車両のアプリケーションは、一般的に広い視野角を確保するために魚眼レンズを使用するので、線形によって一定の間隔に分けることは不可能である。
したがって、魚眼レンズによる歪曲により非線形に一定でない間隔に分けられて、前記論文における方法が使用することができなくなる。
つまり、一般のカメラはFOV(Field Of View)が約60度ないし70度であるので、車両の内部全体を見ることができない。よって、このような場合、魚眼レンズを使用しなければならないが、魚眼レンズで歪曲されたイメージは歪曲されていない状態に戻すことが難しいため、前記論文で提示した方法を使用することができない。
したがって、本発明では、前記のように非線形で一定でない間隔を有する2D室内イメージに対応するグリッドボードを利用して各グリッドセルのそれぞれのコーナーで測定された角度を示すピクセル及び角度テーブルを生成し、ピクセル及び角度テーブルを利用して各乗客のポーズポイントの深さを検出することができるようになる。
すなわち、図7を参照すると、乗客状態検出装置100は、乗客それぞれに対応するポーズポイントのうち特定のポーズポイントPPが位置する特定のグリッドセルのコーナーSP1、SP2、SP3、SP4の位置情報を利用して、バイリニア補間法(bilinear interpolation)により特定のポーズポイントPPの特定高さを取得することができる。
一例として、乗客状態検出装置100は(i)特定のポーズポイントPPが位置する特定のグリッドセルのコーナーSP1、SP2、SP3、SP4のうちコーナーSP1とコーナーSP2との各高さを利用したバイリニア補間法、または(ii)コーナーSP3とコーナーSP4との高さを利用したバイリニア補間法により特定のポーズポイントPPの特定高さを取得することができる。
そして、乗客状態検出装置100は、特定のポーズポイントPPが位置する特定のグリッドセルの各コーナーSP1、SP2、SP3、SP4の位置情報に含まれた各垂直角度及び各水平角度を利用したバイリニア補間法により、特定のポーズポイントPPの特定の垂直角度及び特定の水平角度を取得することができる。
一例として、乗客状態検出装置100は、(i)特定のグリッドセルのコーナーSP1、SP2、SP3、SP4の各垂直角度及び各水平角度を利用したバイリニア補間法により(i−1)特定のポーズポイントPPが垂直方向に特定のグリッドセルの面と接する各接点RP1、RP3、及び(i−2)特定のポーズポイントPPが水平方向に特定のグリッドセルの面と接する接点RP2、RP4における各垂直角度及び各水平角度を計算するか、(ii)図6のように、数学式により生成されたピクセル及び角度テーブルから各接点RP1、RP2、RP3、RP4それぞれにおける垂直角度及び水平角度を検索することができる。
そして、乗客状態検出装置100は、接点RP1の垂直角度と接点RP3の垂直角度とを利用したバイリニア補間法により特定のポーズポイントPPの特定の垂直角度を取得することができ、接点RP2の水平角度と接点RP4の水平角度とを利用したバイリニア補間法により特定のポーズポイントPPの特定の水平角度を取得することができる。
以後、乗客状態検出装置100は、特定のポーズポイントの特定高さと、特定のポーズポイントの特定の垂直角度と、特定のポーズポイントの特定の水平角度とを参照して特定のポーズポイントとファレンスポイントとの間の特定の車軸方向距離及び特定の車幅方向距離を取得することができる。
一例として、図8を参照すると、ファレンスポイントからの、カメラ10の高さH、特定のポーズポイントPPの高さY、及び特定のポーズポイントPPの特定の垂直角度
Figure 0006979229

が取得された状態で、乗客状態検出装置100は、下記の数学式1を利用して特定のポーズポイントPPとファレンスポイントとの間の特定の車軸方向距離Zを測定することができる。ここで、特定の車軸方向距離Zは、リファレンスポイント及び特定のポーズポイントPPを車両の全体の車軸方向及び全体の車幅方向により形成された平面上に投影して、投影されたリファレンスポイント及び投影された特定のポーズポイントそれぞれを取得した状態で、投影されたリファレンスポイント及び投影された特定のポーズポイントとの間の距離であり得る。
[数学式1]
Figure 0006979229

Figure 0006979229

Figure 0006979229

すなわち、数学式1によると、乗客状態検出装置100は、カメラの高さH及び特定のポーズポイントPPの間の各垂直角度を利用して、カメラ10及び特定のポーズポイントPPを通り過ぎるラインがファレンスポイントに対応する平面と接する接点A及びリファレンスポイントOの間の距離Z2を計算することができる。そして、乗客状態検出装置100は、計算された接点A及びリファレンスポイントOの間の距離Z2、カメラ10の高さH、特定のポーズポイントPPの高さYを利用して、接点Aと特定のポーズポイントPPとの間の車方向距離Z1を計算することができる。以後、乗客状態検出装置100は、接点Aと特定のポーズポイントPPとの間における車方向距離Z1及び接点AとファレンスポイントOとの間の距離Z2を利用して、特定のポーズポイントPPの車方向距離Zを計算することができる。
以後、図9を参照すると、(i)特定のポーズポイントPPの水平角度、(ii)数学式1を使用して取得された距離Z2、(iii)数学式1を使用して取得された車方向距離Zが取得された状態で、乗客状態検出装置100は、以下の数学式2を利用して特定のポーズポイントPP及びファレンスポイントとの間の特定の車幅方向距離Xを計算することができる。ここで、リファレンスポイント及び特定のポーズポイントPPそれぞれを車両の全体の車軸方向及び全体の車幅方向により形成される平面上に投影して、投影されたリファレンスポイント及び投影された特定のポーズポイントそれぞれを取得した状態で、特定の車幅方向距離Xは、投影されたリファレンスポイントから全体の車軸方向に延長されるベースライン及び投影されたポーズポイントの間の距離であり得る。
[数学式2]
Figure 0006979229

Figure 0006979229

Figure 0006979229

すなわち、数学式2によって、(i)接点(A)と特定のポーズポイントPPとの間の車幅方向距離Z2、及び(ii)特定のポーズポイントPPの特定の水平角度を利用して接点Bとファレンスポイントとの間の距離T2を演算し、前記接点Bは、ファレンスポイントOから車方向に延長されたラインと接点Aから延長されたラインとが直交する点である。そして、乗客状態検出装置100は、接点Bとファレンスポイントとの間の距離T2及び特定のポーズポイントPPの特定の水平角度を利用して接点Aと接点Bとの間の距離X2を計算することができ、接点Aと接点Bとの間の距離X2、接点AとファレンスポイントOとの間の距離Z2、及び特定のポーズポイントPPの車方向距離Zを利用して、特定のポーズポイントPPの車幅方向距離Xを計算することができる。
次に、前記のような方法により乗客状態検出装置100はカメラ及び乗客それぞれに対応するポーズポイントそれぞれの間の距離それぞれを測定することによって、各乗客の状態に関する情報、すなわち、乗客が位置する高さ、車両室内における左右方向への乗客の位置、ファレンスポイントから乗客の距離などの情報を認識することができるようになり、認識された各乗客の状態にしたがって、乗客の安全及び便宜のためにさまざまな車両のアプリケーションを遂行することができる。
一例として、乗客状態検出装置100は、前記車両の非常状況において、前記乗客を保護するための、少なくとも一つの車両のアプリケーション(例えば、エアバック)をもって、乗客それぞれの状態に対応して動作させることができる。
また、乗客状態検出装置100は、乗客それぞれの状態を参照して乗客それぞれの動作パターンを分析して、乗客それぞれの走行安全状態を確認することができる。
一例として、乗客状態検出装置100は、各乗客のポーズポイントに関する位置情報の移動パターンを使用することによって、運転者のような乗客の居眠り運転状態、前屈した危険状態、疾病などにより正しい運転姿勢を保持することが難しい運転不可能な状態などを判断することができ、各乗客の状態にしたがって警報を発生させるか非常の状況に対応するための車両のアプリケーションを遂行することができる。
前記で説明したように、本発明は、カメラにより取得された室内イメージに対してポーズ予測を遂行ことによって各乗客に対応するポーズポイントを検出し、検出されたポーズポイントに対して単一カメラで深さ予測を遂行し、予測された深さを利用して乗客の座席位置、乗客の位置高さ、乗客との距離などのような状態を認識し、乗客の認識された状態にしたがって車両のアプリケーションを遂行することができる。
また、以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは、本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限定されるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
したがって、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (12)

  1. 車両の室内イメージを分析することによって、一人以上の乗客の状態を検出する方法において、
    (a)魚眼レンズが装着された少なくとも一つのカメラにより撮影された車両の室内に対する少なくとも一つの2D室内イメージが取得されると、乗客状態検出装置が、前記2D室内イメージをポーズ予測ネットワークに入力することによって、前記ポーズ予測ネットワークをもって、前記2D室内イメージから一人以上の乗客それぞれに対応する一つ以上のポーズポイントを取得させる段階;及び
    (b)前記乗客状態検出装置が、(i)予め設定されたピクセル及び角度(pixel−angle)テーブルを参照して前記車両の予め設定されたファレンスポイントを基準として前記乗客それぞれに対応する前記ポーズポイントに関する各位置情報を演算し、(ii)前記乗客それぞれに対応する前記ポーズポイントに関する前記位置情報を参照して前記乗客それぞれの状態を検出する段階;を含み、前記ピクセル及び角度テーブルは、前記車両の室内にグリッドセル(grid cells)からなるグリッドボード(grid board)を設置した状態で、第1ライン及びそれぞれの第2ラインにより形成されたそれぞれの垂直角度及びそれぞれの水平角度が前記グリッドセルの各コーナーのピクセルそれぞれに対応するように生成されたテーブルであり、前記第1ラインは、前記カメラで撮影したグリッドイメージ上の前記グリッドボードの上端中央及び前記カメラを連結し、前記それぞれの第2ラインは、前記それぞれのコーナー及び前記カメラを連結したことを特徴とする方法。
  2. 前記(b)段階で、
    前記乗客状態検出装置は、(i)前記乗客それぞれに対応する前記各ポーズポイントのうち特定のポーズポイントが位置する特定のグリッドセルのコーナーに関する前記各位置情報を利用してバイリニア補間法(bilinear interpolation)により前記特定のポーズポイントの特定高さを取得し、(ii)前記各グリッドセルの前記各コーナーの前記垂直角度及び前記水平角度を利用してバイリニア補間法により前記特定のポーズポイントの特定の垂直角度及び特定の水平角度を取得し、(iii)前記特定高さ、前記特定の垂直角度及び前記特定の水平角度を参照して、前記特定のポーズポイント及び前記リファレンスポイントの間の特定の車軸方向距離及び特定の車幅方向距離を取得することを特徴とする請求項1に記載の方法。
  3. 前記リファレンスポイント及び前記特定のポーズポイントを前記車両の全体の車軸方向及び全体の車幅方向により形成された平面上にそれぞれ投影して、投影されたリファレンスポイント及び投影された特定のポーズポイントそれぞれを取得した状態で、前記特定の車軸方向距離は、前記投影されたリファレンスポイント及び前記投影された特定のポーズポイントの間の距離であり、前記特定の車幅方向距離は、前記投影されたリファレンスポイントから全体の車軸方向に延長されたベースライン及び前記投影されたポーズポイントの間の距離であることを特徴とする請求項2に記載の方法。
  4. (c)前記乗客状態検出装置が、(i)前記車両の非常状況で前記各乗客を保護するための、前記車両の少なくとも一つのアプリケーションをもって、前記乗客それぞれの状態にしたがって作動させるか、(ii)前記乗客それぞれの状態を参照して前記乗客それぞれの一つ以上の行動パターンを分析して前記乗客それぞれの走行安全状態それぞれを確認させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  5. 前記(a)段階で、
    前記乗客状態検出装置は、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソル(feature tensor)を出力させ、(ii)キーポイントヒートマップ及びパートアフィニティフィールド抽出器を通じて前記特徴テンソルそれぞれに対応する一つ以上のチャンネルを有する少なくとも一つのキーポイントヒートマップ及び少なくとも一つのパートアフィニティフィールドを生成させ、(iii)キーポイント検出器を通じて前記キーポイントヒートマップにおいて一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドを参照して前記抽出されたキーポイントをグルーピングして前記乗客それぞれに対応する前記ポーズポイントを生成させることを特徴とする請求項1に記載の方法。
  6. 前記(a)段階で、
    前記乗客状態検出装置は、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソルを出力させ、(ii)フルコンボリューションネットワーク(fully convolution network)を通じて前記特徴テンソルにフルコンボリューション演算を適用して一つ以上のヒートマップを生成させ、(iii)前記ヒートマップにおいて前記各ポーズポイントを取得させることを特徴とする請求項1に記載の方法。
  7. 車両の室内イメージを分析することによって一人以上の乗客の状態を検出する乗客状態検出装置において、
    少なくとも一つのインストラクションを格納する少なくとも一つのメモリと、
    前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)魚眼レンズが装着された少なくとも一つのカメラにより撮影された車両の室内に対する少なくとも一つの2D室内イメージが取得されると、前記2D室内イメージをポーズ予測ネットワークに入力することによって、前記ポーズ予測ネットワークをもって、前記2D室内イメージから一人以上の乗客それぞれに対応する一つ以上のポーズポイントを取得させるプロセス;及び(II)(i)予め設定されたピクセル及び角度(pixel−angle)テーブルを参照して前記車両の予め設定されたファレンスポイントを基準として前記乗客それぞれに対応する前記ポーズポイントに関する各位置情報を演算し、(ii)前記乗客それぞれに対応する前記ポーズポイントに関する前記位置情報を参照して前記乗客それぞれの状態を検出するプロセス;を遂行し、前記ピクセル及び角度テーブルは、前記車両の室内にグリッドセル(grid cells)からなるグリッドボード(grid board)を設置した状態で、第1ライン及びそれぞれの第2ラインにより形成されたそれぞれの垂直角度及びそれぞれの水平角度が前記グリッドセルの各コーナーのピクセルそれぞれに対応するように生成されたテーブルであり、前記第1ラインは、前記カメラで撮影したグリッドイメージ上の前記グリッドボードの上端中央及び前記カメラを連結し、前記それぞれの第2ラインは、前記それぞれのコーナー及び前記カメラを連結したことを特徴とする装置。
  8. 前記(II)プロセスは、
    前記プロセッサが、(i)前記乗客それぞれに対応する前記各ポーズポイントのうち特定のポーズポイントが位置する特定のグリッドセルのコーナーに関する前記各位置情報を利用してバイリニア補間法(bilinear interpolation)により前記特定のポーズポイントの特定高さを取得し、(ii)前記各グリッドセルの前記各コーナーの前記垂直角度及び前記水平角度を利用してバイリニア補間法により前記特定のポーズポイントの特定の垂直角度及び特定の水平角度を取得し、(iii)前記特定高さ、前記特定の垂直角度及び前記特定の水平角度を参照して前記特定のポーズポイント及び前記リファレンスポイントの間の特定の車軸方向距離及び特定の車幅方向距離を取得することを特徴とする請求項7に記載の装置。
  9. 前記リファレンスポイント及び前記特定のポーズポイントを前記車両の全体の車軸方向及び全体の車幅方向により形成された平面上にそれぞれ投影して、投影されたリファレンスポイント及び投影された特定のポーズポイントそれぞれを取得した状態で、前記特定の車軸方向距離は前記投影されたリファレンスポイント及び前記投影された特定のポーズポイントの間の距離であり、前記特定の車幅方向距離は、前記投影されたリファレンスポイントから全体の車軸方向に延長されたベースライン及び前記投影されたポーズポイントの間の距離であることを特徴とする請求項8に記載の方法。
  10. (III)(i)前記車両の非常状況において、前記各乗客を保護するための、前記車両の少なくとも一つのアプリケーションをもって、前記乗客それぞれの状態によって作動させるか、(ii)前記乗客それぞれの状態を参照して前記乗客それぞれの一つ以上の行動パターンを分析して、前記乗客それぞれの走行安全状態それぞれを確認させるプロセス;
    をさらに遂行することを特徴とする請求項7に記載の装置。
  11. 前記(I)プロセスは、
    前記プロセッサが、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソル(feature tensor)を出力させ、(ii)キーポイントヒートマップ及びパートアフィニティフィールド抽出器を通じて前記特徴テンソルそれぞれに対応する一つ以上のチャンネルを有する少なくとも一つのキーポイントヒートマップ及び少なくとも一つのパートアフィニティフィールドを生成させ、(iii)キーポイント検出器を通じて前記キーポイントヒートマップにおいて一つ以上のキーポイントを抽出し、前記パートアフィニティフィールドを参照して前記抽出されたキーポイントをグルーピングして前記乗客それぞれに対応する前記ポーズポイントを生成させることを特徴とする請求項7に記載の装置。
  12. 前記(I)プロセスは、
    前記プロセッサが、前記ポーズ予測ネットワークをもって、(i)特徴抽出ネットワークを通じて前記2D室内イメージに対応する一つ以上のチャンネルを有する一つ以上の特徴テンソルを出力させ、(ii)フルコンボリューションネットワーク(fully convolution network)を通じて前記特徴テンソルにフルコンボリューション演算を適用して一つ以上のヒートマップを生成させ、(iii)前記ヒートマップにおいて前記各ポーズポイントを取得させることを特徴とする請求項7に記載の装置。
JP2020008409A 2019-01-30 2020-01-22 魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens} Active JP6979229B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962798527P 2019-01-30 2019-01-30
US62/798,527 2019-01-30
US16/731,087 2019-12-31
US16/731,087 US10657396B1 (en) 2019-01-30 2019-12-31 Method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens

Publications (2)

Publication Number Publication Date
JP2020123342A JP2020123342A (ja) 2020-08-13
JP6979229B2 true JP6979229B2 (ja) 2021-12-08

Family

ID=70736444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020008409A Active JP6979229B2 (ja) 2019-01-30 2020-01-22 魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens}

Country Status (5)

Country Link
US (1) US10657396B1 (ja)
EP (1) EP3690724B1 (ja)
JP (1) JP6979229B2 (ja)
KR (1) KR102349979B1 (ja)
CN (1) CN111507168B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669348B (zh) * 2020-12-18 2023-11-28 浙江大学 一种鱼体姿势估计和鱼体表型数据测量方法及装置
CN113763467B (zh) * 2021-01-04 2024-06-18 北京沃东天骏信息技术有限公司 图像处理方法、装置、计算设备及介质
CN113569828B (zh) * 2021-09-27 2022-03-08 南昌嘉研科技有限公司 一种人体姿态识别方法、***、存储介质及设备
EP4372700A1 (en) * 2022-11-18 2024-05-22 Aptiv Technologies AG A system and method for interior sensing in a vehicle
GB202319263D0 (en) 2023-12-15 2024-01-31 Mercedes Benz Group Ag System and method for determining occupancy in a region of interest

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983817B2 (en) * 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
JPH10960A (ja) * 1996-06-12 1998-01-06 Yazaki Corp 運転者監視装置
JP4390966B2 (ja) * 2000-04-19 2009-12-24 株式会社東海理化電機製作所 乗員検知システム
KR100910670B1 (ko) * 2001-03-05 2009-08-04 지멘스 악티엔게젤샤프트 승객 보호 시스템을 위한 이미지 보정 방법 및 장치
ATE321689T1 (de) * 2002-04-19 2006-04-15 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7058237B2 (en) * 2002-06-28 2006-06-06 Microsoft Corporation Real-time wide-angle image correction system and method for computer image viewing
WO2004081850A1 (en) * 2003-03-13 2004-09-23 Intelligent Mechatronic Systems Inc. Visual classification and posture estimation of multiple vehicle occupants
JP2004295572A (ja) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd 認証対象画像撮像装置及びその撮像方法
JP4309926B2 (ja) * 2007-03-13 2009-08-05 アイシン精機株式会社 顔特徴点検出装置、顔特徴点検出方法及びプログラム
KR100949893B1 (ko) * 2008-04-28 2010-03-25 경북대학교 산학협력단 텐서 데이터를 이용한 영상 데이터 분류 방법 및 장치
US8391554B2 (en) * 2008-10-01 2013-03-05 GM Global Technology Operations LLC Eye detection system using a single camera
JP5715793B2 (ja) * 2010-10-08 2015-05-13 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置及び画像処理方法
GB201116960D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Monocular camera localisation using prior point clouds
JP6047318B2 (ja) * 2012-07-06 2016-12-21 矢崎総業株式会社 ドライバ状態検出装置及びドライバ状態報知装置
US10666860B2 (en) * 2012-09-11 2020-05-26 Ricoh Company, Ltd. Image processor, image processing method and program, and imaging system
JP6281492B2 (ja) * 2012-10-26 2018-02-21 日本電気株式会社 乗車人数計測装置、方法およびプログラム
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
GB2525655B (en) * 2014-05-01 2018-04-25 Jaguar Land Rover Ltd Dynamic lighting apparatus and method
CN107428302B (zh) * 2015-04-10 2022-05-03 罗伯特·博世有限公司 利用车辆内部相机的占用者尺寸和姿势的检测
US10043083B2 (en) * 2015-10-27 2018-08-07 Thunder Power New Energy Vehicle Development Company Limited Intelligent rear-view mirror system
JP6617830B2 (ja) * 2016-04-28 2019-12-11 富士通株式会社 骨格推定装置、骨格推定方法および骨格推定プログラム
US10434877B2 (en) * 2016-05-05 2019-10-08 Via Technologies, Inc. Driver-assistance method and a driver-assistance apparatus
EP4394732A2 (en) * 2016-06-29 2024-07-03 Seeing Machines Limited Systems and methods for identifying pose of cameras in a scene
JP2018151693A (ja) * 2017-03-09 2018-09-27 株式会社デンソーテン 運転支援装置および運転支援方法
CN109803583A (zh) * 2017-08-10 2019-05-24 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
US10339401B2 (en) * 2017-11-11 2019-07-02 Bendix Commercial Vehicle Systems Llc System and methods of monitoring driver behavior for vehicular fleet management in a fleet of vehicles using driver-facing imaging device
CN108447094B (zh) * 2018-03-20 2020-07-28 清华大学 一种单目彩色相机的姿态估算方法及***

Also Published As

Publication number Publication date
EP3690724B1 (en) 2024-03-06
US10657396B1 (en) 2020-05-19
CN111507168A (zh) 2020-08-07
CN111507168B (zh) 2023-08-15
KR20200094657A (ko) 2020-08-07
KR102349979B1 (ko) 2022-01-12
EP3690724C0 (en) 2024-03-06
EP3690724A1 (en) 2020-08-05
JP2020123342A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
JP6979229B2 (ja) 魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens}
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US6925403B2 (en) Method and system for calibrating a sensor
JP4480083B2 (ja) 物体認識装置
US20110228101A1 (en) Method and device for determining calibration parameters of a camera
JP2004198212A (ja) 移動体周辺監視装置
JP2018519696A (ja) 画像の線からのカメラの外部パラメータ推定
KR102229220B1 (ko) 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
CN111627001B (zh) 图像检测方法及装置
JP6890350B2 (ja) V2v通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置
KR102082254B1 (ko) 차량 인식 시스템
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
KR101482645B1 (ko) Fov왜곡 보정 모델에 2d패턴을 적용한 왜곡중심 보정 방법
CN110555885A (zh) 一种车载相机的标定方法、装置及终端
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
CN113674361B (zh) 一种车载环视校准实现方法及***
CN115346191A (zh) 用于校准的方法和设备
EP3227827B1 (en) Driver assistance system, motor vehicle and method for classifying a flow vector
JP5176523B2 (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
KR101531313B1 (ko) 차량 하부의 물체 탐지장치 및 방법
JP3447461B2 (ja) 移動障害物検出装置及びその方法
JP2019091327A (ja) 立体物検出装置
US20230154022A1 (en) Method for determining coordinates of a point of an element of interest in the real world based on coordinates of said point in an image
CN113544742B (zh) 泊车辅助***
WO2006123438A1 (ja) ステレオ画像を用いた道路平面領域並びに障害物検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211108

R150 Certificate of patent or registration of utility model

Ref document number: 6979229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150