JP2022547246A - 非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラム - Google Patents

非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラム Download PDF

Info

Publication number
JP2022547246A
JP2022547246A JP2021571346A JP2021571346A JP2022547246A JP 2022547246 A JP2022547246 A JP 2022547246A JP 2021571346 A JP2021571346 A JP 2021571346A JP 2021571346 A JP2021571346 A JP 2021571346A JP 2022547246 A JP2022547246 A JP 2022547246A
Authority
JP
Japan
Prior art keywords
user
sitting posture
feature map
current
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021571346A
Other languages
English (en)
Inventor
王▲飛▼
▲錢▼晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Lingang Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Publication of JP2022547246A publication Critical patent/JP2022547246A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

本発明の実施例は、非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラムを開示し、該方法は、キャビン内の現在シーン画像を取得することと、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することと、ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することであって、ここで、前記非正規着座姿勢タイプにはセキュリティーリスクが存在する着座姿勢タイプが含まれることと、を含む。このように、本発明の実施例では、取得されたキャビン内の現在シーン画像を認識することにより、キャビン内に含まれる少なくとも1人のユーザーの現在の着座姿勢を決定し、さらにユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することで、非正規着座姿勢状態にいるユーザーに注意を促し、ユーザーの乗車中の安全性を向上させる。【選択図】図1

Description

(関連出願の相互参照)
本開示は、出願番号202010790210.0、出願日2020年08月07日の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全ての内容が参照として本開示に組み込まれる。
本発明は、深層学習の技術分野に関し、具体的には、非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラムに関する。
現在、自動車電子業界の急速な発展に伴い、便利で快適且つ安全なキャビン環境がユーザーの基本的な乗車要件となっているため、キャビンのインテリジェント化は現在の自動車電子業界の重要な発展方向になる。
関連技術では、キャビンのインテリジェント化は、カスタマイズサービス、安全感知等を含む。安全感知について、ユーザーが車両走行中に維持する着座姿勢はユーザーのセキュリティーの程度と関連性があり、即ち、着座姿勢が適切でなければ、車両の衝突事故が発生する時、ユーザーが負傷する確率が高まり、さらにユーザーの乗車中のセキュリティーが低下する。
これに鑑み、本発明の実施例は、非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラムを提供することが望ましい。
本発明の実施例は、非正規着座姿勢の認識方法を提供する。前記非正規着座姿勢の認識方法は、
キャビン内の現在シーン画像を取得することと、
前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することと、
ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することであって、ここで、前記非正規着座姿勢タイプにはセキュリティーリスクが存在する着座姿勢タイプが含まれることと、を含む。このように、取得されたキャビン内の現在シーン画像を認識することにより、キャビン内に含まれる少なくとも1人のユーザーの現在の着座姿勢を決定し、さらにユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することで、非正規着座姿勢状態にいるユーザーに注意を促し、ユーザーの乗車中の安全性を向上させる。
一部の実施例では、前記非正規着座姿勢タイプは、
ユーザーの身体が前傾する第1非正規着座姿勢、ユーザーの身体が横に傾く第2非正規着座姿勢、及びユーザーの身体が横臥する第3非正規着座姿勢のうちの少なくとも1つを含む。このように、複数の非正規着座姿勢を定義することで、非正規着座姿勢のタイプを豊かにし、さらに複数の非正規着座姿勢をより全面的に包含し、ユーザーの乗車中の安全性を確保することができる。
一部の実施例では、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することは、
前記現在シーン画像に基づき、前記現在シーン画像内の少なくとも1人のユーザーのキーポイント情報を決定することと、
各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することと、を含む。このように、現在シーン画像内の少なくとも1人のユーザーのキーポイント情報と設定された基準物との間の相対位置関係によって、キャビン内の各ユーザーの現在の着座姿勢を正確に決定することができる。
一部の実施例では、前記キーポイント情報には頭部キーポイント情報が含まれ、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
いずれか1人のユーザーの前記頭部キーポイント情報が設定されたハンドルの下接線より低い場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢であることを決定することを含む。このように、ユーザーの頭部キーポイント情報が設定されたハンドルの下接線より低いことを判断することで、ユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢であることを迅速に決定する。
一部の実施例では、前記キーポイント情報には、左肩キーポイント情報及び右肩キーポイント情報が含まれ、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
いずれか1人のユーザーの左肩キーポイントと右肩キーポイントとの間の接続線と、設定された座席基準面とのなす角度が設定された第1角度閾値より大きい場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢であることを決定することを含む。このように、ユーザーの肩部キーポイントと座席基準面とのなす角度が第1角度閾値より大きい場合、ユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢であることを迅速に決定する。
一部の実施例では、前記キーポイント情報には、頸キーポイント情報及び股キーポイント情報が含まれ、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
いずれか1人のユーザーの頸キーポイントと股キーポイントとの間の接続線と、設定された水平基準面とのなす角度が設定された第2角度閾値より小さい場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢であることを決定することを含む。このように、ユーザーの頸キーポイント、股キーポイントと水平基準面とのなす角度が第2角度閾値より小さい場合、ユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢であることを迅速に決定する。
一部の実施例では、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することは、
前記現在シーン画像に基づき、前記現在シーン画像に対応する中間特徴マップを生成することと、
前記中間特徴マップに基づき、前記キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成することと、
前記中間特徴マップ及び前記少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定することと、を含む。このように、現在シーン画像に対応する中間特徴マップ、及び各ユーザーの検出枠情報だけで、各ユーザーの現在の着座姿勢を迅速に決定することが実現されるとともに、中間パラメータがないため、決定された各ユーザーの現在の着座姿勢の精度が高い。
一部の実施例では、前記中間特徴マップに基づき、前記キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成することは、
前記中間特徴マップに対して第1畳み込み処理を少なくとも1回行うことで、前記中間特徴マップに対応するチャネル特徴マップを生成することと、
前記チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することと、を含む。このように、特徴マップによる処理という手段でユーザーに対応する検出枠情報(中心点位置情報を含む)を決定し、さらに検出枠情報と、現在シーン画像に対応する中間特徴マップとを比較し、ユーザーの現在の位置情報を決定する。
一部の実施例では、前記チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することは、
前記位置を特徴づける目標チャネル特徴マップにおける各特徴値に対して活性化関数で特徴値変換処理を行うことで、変換された目標チャネル特徴マップを生成することと、
予め設定されたプーリングサイズ及びプーリングストライドに応じて、変換された目標チャネル特徴マップに対して最大プーリング処理を行うことで、複数のプーリング値、及び複数のプーリング値のうちの各々に対応する位置インデックスを得ることであって、前記位置インデックスは、前記変換された目標チャネル特徴マップでの前記プーリング値の位置を識別するために用いられることと、
前記各プーリング値及びプーリング閾値に基づき、複数のプーリング値から、少なくとも1人のユーザーの検出枠の中心点に属する目標プーリング値を決定することと、
前記目標プーリング値に対応する位置インデックスに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することと、を含む。このように、目標チャネル特徴マップに対して最大プーリング処理を行うことで、複数のプーリング値から、ユーザーの中心点に属する目標プーリング値を比較的正確に決定し、さらに各ユーザーの検出枠の中心点位置情報を比較的正確に決定することができる。
一部の実施例では、前記中間特徴マップ及び前記少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定することは、
前記中間特徴マップに対して第2畳み込み処理を少なくとも1回行うことで、前記中間特徴マップに対応するNチャネルの分類特徴マップを生成することであって、ここで、前記分類特徴マップのチャネル数Nは着座姿勢種別の数に一致し、前記Nチャネルの分類特徴マップ中の各チャネル特徴マップは、1つの着座姿勢種別に対応し、Nは1より大きい正整数であることと、
各ユーザーに対して、前記ユーザーの検出枠情報によって示される中心点位置情報に基づき、前記分類特徴マップから、前記中心点位置情報とマッチングする特徴位置でのN個の特徴値を抽出し、N個の特徴値から最大特徴値を選択し、分類特徴マップ中の、最大特徴値に対応するチャネル特徴マップの着座姿勢種別を、前記ユーザーの現在の着座姿勢として決定することと、を含む。このように、中間特徴マップに対して第2畳み込み処理を少なくとも1回行うことで、分類特徴マップを生成し、さらに生成された各ユーザーの中心点位置情報を組み合わせて、各ユーザーの現在の着座姿勢を比較的正確に決定することができる。
以下の装置、電子機器等の効果についての説明は、上記方法の説明を参照すればよく、ここでは説明を省略する。
本発明の実施例は、非正規着座姿勢の認識装置を提供する。前記非正規着座姿勢の認識装置は、
キャビン内の現在シーン画像を取得するように構成される取得モジュールと、
前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識するように構成される認識モジュールと、
ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発するように構成される決定モジュールであって、ここで、前記非正規着座姿勢タイプはセキュリティーリスクが存在する着座姿勢タイプを含む決定モジュールと、を備える。
本発明の実施例は、電子機器を提供する。前記電子機器は、プロセッサ、メモリ及びバスを備え、前記メモリには、前記プロセッサにより実行可能な機械読み取り可能な命令が記憶されており、電子機器が運行する時、前記プロセッサと前記メモリはバスを介して通信し、前記機械読み取り可能な命令は、前記プロセッサにより実行されるとき、上記第1態様又は何れか一つの実施形態に記載の非正規着座姿勢の認識方法のステップを実行する。
本発明の実施例は、コンピュータ読み取り可能な記憶媒体を提供する。前記コンピュータ読み取り可能な記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行されるとき、上記第1態様又は何れか一つの実施形態に記載の非正規着座姿勢の認識方法のステップを実行する。
本発明の実施例は、コンピュータプログラムを提供する。前記コンピュータプログラムにはコンピュータ読み取り可能なコードが含まれており、コンピュータで前記コンピュータ読み取り可能なコード運行する場合、前記コンピュータに上記何れか一つの非正規着座姿勢の認識方法を実行させる。
本発明の実施例に提供される非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラムにおいて、まず、キャビン内の現在シーン画像を取得し、次に、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識し、最後に、ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発し、ここで前記非正規着座姿勢タイプには、セキュリティーリスクが存在する着座姿勢タイプが含まれる。このように、取得されたキャビン内の現在シーン画像を認識することにより、キャビン内に含まれる少なくとも1人のユーザーの現在の着座姿勢を決定し、さらにユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することで、非正規着座姿勢状態にいるユーザーに注意を促し、ユーザーの乗車中の安全性を向上させる。
本発明の上記目的、特徴及び利点をより分かりやすくするために、以下において、好ましい実施例を特に挙げて、図面を参照しながら詳細に説明する。
本発明の実施例により提供される非正規着座姿勢の認識方法の模式的フローチャートである。 本発明の実施例の非正規着座姿勢の認識方法を適用したシステムアーキテクチャの模式図である。 本発明の実施例により提供される非正規着座姿勢の認識方法における現在シーン画像の模式図である。 本発明の実施例により提供される非正規着座姿勢の認識装置400のアーキテクチャの模式図である。 本発明の実施例により提供される電子機器500の構造的模式図である。
本発明の実施例の技術的解決手段をより明確に説明するために、以下に実施例に必要とされる図面について簡単に紹介するが、ここでの図面は明細書に組み込まれて本明細書の一部を構成し、これらの図面は本発明に合致する実施例を示し、明細書と共に本発明の技術的解決手段を説明するために用いられる。以下の図面は本発明のいくつかの実施例のみを示すため、範囲を限定するものと見なすべきではなく、当業者にとっては、創造的な労力を要することなく、これらの図面に基づいて関連する他の図面を取得することもできることを理解すべきである。
本発明の実施例の目的、技術的解決手段及び利点をより明確にするために、以下に本発明の実施例における図面を参照しながら本発明の実施例における技術的解決手段を明確且つ完全に説明し、当然ながら、説明される実施例は本発明の実施例の一部に過ぎず、全ての実施例ではない。通常、ここでの図面において記述及び示される本発明の実施例の構成要素は様々な異なる構成で配置及び設計されることができる。従って、図面において提供される本発明の実施例についての以下の詳細な説明は、保護が要求される本発明の範囲を限定するものではなく、単に本発明の選定された実施例を示すものに過ぎない。本発明の実施例に基づき、当業者が創造的労力を要することなく得られた他の全ての実施例は、いずれも本発明の保護範囲に属する。
関連技術では、キャビンのインテリジェント化はカスタマイズサービス、安全感知等を含んでもよい。安全感知について、ユーザーが車両走行中に維持する着座姿勢はユーザーのセキュリティーの程度と関連性があり、即ち、着座姿勢が適切でなければ、車両の衝突事故が発生する時、ユーザーが怪我をする確率が高まり、さらにユーザーの乗車中のセキュリティーが低下する。従って、上記問題を解決するために、本発明の実施例は、非正規着座姿勢の認識方法を提供する。
本発明の実施例を容易に理解するために、本発明の実施例によって開示される非正規着座姿勢の認識方法を先に詳しく説明する。
図1は、本発明の実施例により提供される非正規着座姿勢の認識方法の模式的フローチャートであり、該方法は、
キャビン内の現在シーン画像を取得するステップS101と、
現在シーン画像に基づき、キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識するステップS102と、
ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発するステップS103であって、ここで、非正規着座姿勢タイプには、セキュリティーリスクが存在する着座姿勢タイプが含まれるステップS103と、を含む。
上記方法において、取得されたキャビン内の現在シーン画像を認識することにより、キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を決定し、さらにユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することで、非正規着座姿勢状態にいるユーザーに注意を促し、ユーザーの乗車中の安全性を向上させる。
図2は、本発明の実施例に係る非正規着座姿勢の認識方法を適用できるシステムアーキテクチャの模式図であり、図2に示すように、該システムアーキテクチャは、車両端末201、ネットワーク202及び非正規着座姿勢の認識端末203を含む。一例示的応用をサポートすることを実現するために、車両端末201と非正規着座姿勢の認識端末203は、ネットワーク202を介して通信接続を確立してもよく、車両端末201は、ネットワーク202によって非正規着座姿勢の認識端末装置203にキャビン内の現在シーン画像を報告し、非正規着座姿勢の認識端末装置203は、受信された現在シーン画像に応答し、現在シーン画像に基づき、キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識し、ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を決定し、最後に、非正規着座姿勢の認識端末203は、該警告情報をネットワーク202にアップロードし、ネットワーク202によって車両端末201に送信する。
例として、車両端末201は車載画像収集装置を含んでもよく、非正規着座姿勢の認識端末203は視覚情報処理能力を有する車載視覚処理装置又はリモートサーバを含んでもよい。ネットワーク202は有線接続又は無線接続の形態を採用することができる。ここで、非正規着座姿勢の認識端末が車載視覚処理装置である場合、車両端末は、有線接続の形態で車載視覚処理装置と通信接続してもよく、例えば、バスを介してデータ通信を行うことができ、非正規着座姿勢の認識端末がリモートサーバである場合、車両端末は、無線ネットワークによってリモートサーバとデータインタラクションを行ってもよい。
又は、一部のシーンにおいて、車両端末201は、車載画像収集モジュールを備える車載視覚処理装置であってよく、具体的には、カメラ付きの車載ホストとして実現される。このとき、本発明の実施例の非正規着座姿勢の認識方法は、車両端末201によって実行されてもよく、上記システムアーキテクチャは、ネットワーク202及び非正規着座姿勢の認識端末203を含まなくてもよい。
S101について、
ここで、キャビンの頂部に撮影装置を設け、キャビン内に設けられた撮影装置によってキャビン内の現在シーン画像をリアルタイムで取得することができる。該撮影装置の取り付け位置は、キャビン内の全てのユーザーを撮影できる位置であってよい。
S102について、
現在シーン画像を取得した後、現在シーン画像を認識し、キャビン内の各ユーザーに対応する現在の着座姿勢を決定することができる。該現在の着座姿勢は、各ユーザーの着座姿勢種別であってよい。
一つの可能な実施形態において、現在シーン画像に基づき、キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することは、
現在シーン画像に基づき、現在シーン画像内の少なくとも1人のユーザーのキーポイント情報を決定することと、
各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、キャビン内にいる各ユーザーの現在の着座姿勢を決定することと、を含んでもよい。
ここで、現在シーン画像をキーポイント検出ニューラルネットワークに入力し、現在シーン画像内の少なくとも1人のユーザーのキーポイント情報を決定することができ、且つキャビン内の各ユーザーに対して、該ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、該ユーザーの現在の着座姿勢を決定することができる。
一つの可能な実施形態において、キーポイント情報は頭部キーポイント情報を含み、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
いずれか1人のユーザーの頭部キーポイント情報が設定されたハンドルの下接線より低い場合、いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢であることを決定することを含んでもよい。
図3に示す非正規着座姿勢の認識方法における現在シーン画像の模式図を参照すると、図中において、ハンドル31、ハンドルの下接線32、及び運転者33が含まれ、ハンドルの下接線32は、運転者の側に近接するハンドルの縁部で得られた走行方向と垂直な基準線である。図3から分かるように、ハンドルの下接線は、現在シーン画像を、ハンドルの下接線の上方に位置する第1領域34とハンドルの下接線の下方に位置する第2領域35との2つの領域に分割する。ユーザーの頭部キーポイント情報が設定されたハンドルの下接線より低いことを検出した場合、即ち、ユーザーの頭部キーポイント情報が第2領域35内に位置することを検出した場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢であることを決定し、ユーザーの頭部キーポイント情報が設定されたハンドルの下接線より高いことを検出した場合、即ち、ユーザーの頭部キーポイント情報が第1領域34内に位置することを検出した場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢ではないことを決定し、ユーザーの頭部キーポイント情報がハンドルの下接線上に位置する場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢ではないことを決定する。
一つの可能な実施形態において、キーポイント情報は、左肩キーポイント情報及び右肩キーポイント情報を含み、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
いずれか1人のユーザーの左肩キーポイントと右肩キーポイントとの間の接続線と、設定された座席基準面とのなす角度が設定された第1角度閾値より大きい場合、いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢であることを決定することを含む。
ここで、第1角度閾値は実際の必要に応じて設定可能であり、例えば、第1角度を45度とすることができ、そして、ユーザーが座席にもたれる面(即ち、座席の鉛直面)を座席基準面とすることができる。さらに、検出された左肩キーポイントと右肩キーポイントとの間の接続線と、設定された座席基準面とのなす角度を決定することができ、該角度が設定された第1角度閾値より大きい場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢であることを決定し、該角度が設定された第1角度閾値以下である場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢ではないことを決定する。
一つの可能な実施形態において、キーポイント情報は、頸キーポイント情報及び股キーポイント情報を含み、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
いずれか1人のユーザーの頸キーポイントと股キーポイントとの間の接続線と、設定された水平基準面とのなす角度が設定された第2角度閾値より小さい場合、いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢であることを決定することを含む。
ここで、設定された水平基準面は座席水平面であってよく、第2角度閾値は実際の必要に応じて設定可能である。頸キーポイントと股キーポイントとの間の接続線と、設定された水平基準面とのなす角度を決定することができ、該角度が設定された第2角度閾値より小さい場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢であることを決定し、該角度が設定された第2角度閾値以上である場合、該ユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢ではないことを決定する。
具体的に実施する際に、さらに現在シーン画像をトレーニングされたニューラルネットワークに入力し、該現在シーン画像に含まれる各ユーザーの現在の着座姿勢を決定することもできる。
一つの選択可能な実施形態として、現在シーン画像に基づき、キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することは、
現在シーン画像に基づき、現在シーン画像に対応する中間特徴マップを生成するステップ1と、
中間特徴マップに基づき、キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成するステップ2と、
中間特徴マップ及び少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定するステップ3と、を含んでもよい。
ステップ1では、現在シーン画像をトレーニングされたニューラルネットワークに入力し、該ニューラルネットワークにおけるバックボーンネットワークによって現在シーン画像に対して畳み込み処理を複数回行い、現在シーン画像に対応する中間特徴マップを生成することができる。
ステップ2では、中間特徴マップ及びニューラルネットワークに含まれる検出枠検出ブランチネットワークを利用して、キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成することができる。
一つの選択可能な実施形態において、中間特徴マップに基づき、キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成することは、
中間特徴マップに対して第1畳み込み処理を少なくとも1回行い、中間特徴マップに対応するチャネル特徴マップを生成するステップA1と、
チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成するステップA2と、を含んでもよい。
ここで、まず、中間特徴マップに対して第1畳み込み処理を少なくとも1回行い、中間特徴マップに対応するチャネル特徴マップを生成することができ、該チャネル特徴マップに対応するチャネル数は3つであってよい。該チャネル特徴マップは、位置を特徴づける第1チャネル特徴マップ(該第1チャネル特徴マップは目標チャネル特徴マップである)、検出枠の長さ情報を特徴づける第2チャネル特徴マップ、及び検出枠の幅情報を特徴づける第3チャネル特徴マップを含む。
さらに、チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、キャビン内に含まれる各ユーザーの検出枠の中心点位置情報を生成することができ、また、チャネル特徴マップのうちの第2チャネル特徴マップ及び第3チャネル特徴マップに基づき、検出枠の寸法情報(長さ及び幅)を決定することもできる。
上記実施形態において、特徴マップによる処理という手段でユーザーに対応する検出枠情報(中心点位置情報を含む)を決定し、さらに、検出枠情報と、現在シーン画像に対応する中間特徴マップとを比較し、ユーザーの現在の位置情報を決定する。
一つの選択可能な実施形態として、チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することは、
位置を特徴づける目標チャネル特徴マップにおける各特徴値に対して活性化関数で特徴値変換処理を行い、変換された目標チャネル特徴マップを生成するステップB1と、
予め設定されたプーリングサイズ及びプーリングストライドに応じて、変換された目標チャネル特徴マップに対して最大プーリング処理を行い、複数のプーリング値、及び複数のプーリング値のうちの各々に対応する位置インデックスを得るステップB2であって、位置インデックスは、変換された目標チャネル特徴マップでのプーリング値の位置を識別するために用いられるステップB2と、
各プーリング値及びプーリング閾値に基づき、複数のプーリング値から、少なくとも1人のユーザーの検出枠の中心点に属する目標プーリング値を決定するステップB3と、
目標プーリング値に対応する位置インデックスに基づき、キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成するステップB4と、を含んでもよい。
本発明の実施例では、活性化関数で目標特徴マップに対して特徴値変換処理を行い、変換された目標チャネル特徴マップを生成することができ、該目標チャネル特徴マップにおける各特徴値はいずれも0-1の間の数値である。該活性化関数はsigmoid関数であってよい。変換された目標チャネル特徴マップ中の任意の一つの特徴点の特徴値について、該特徴値が1に近いほど、該特徴値に対応する特徴点はユーザーの検出枠の中心点に属する確率も大きくなる。
続いて、予め設定されたプーリングサイズ及びプーリングストライドに応じて、変換された目標チャネル特徴マップに対して最大プーリング処理を行い、目標チャネル特徴マップ中の各特徴位置での対応するプーリング値及び各プーリング値に対応する位置インデックスを得ることができ、位置インデックスは、変換された目標チャネル特徴マップでのプーリング値の位置を識別するために用いることができる。その後、各特徴位置での対応する位置インデックスのうちの同一の位置インデックスを併合処理し、該目標チャネル特徴マップに対応する複数のプーリング値及び複数のプーリング値のうちの各々に対応する位置インデックスを得ることができる。予め設定されたプーリングサイズ及びプーリングストライドは実際の必要に応じて設定可能であり、例えば、予め設定されたプーリングサイズは3×3であってよく、予め設定されたプーリングストライドは1であってよい。
さらに、プーリング閾値を設定し、得られた複数のプーリング値をスクリーニングして、複数のプーリング値のうちのプーリング閾値より大きい少なくとも1つの目標プーリング値を得て、且つ目標プーリング値に対応する位置インデックスに基づき、キャビン内に含まれる各ユーザーの検出枠の中心点位置情報を生成することができる。例示的に、現在シーン画像に対応する撮影装置で収集された複数のフレームのサンプル画像を取得し、収集された複数のフレームのサンプル画像に基づき、適応アルゴリズムを使用して、プーリング閾値を生成することができる。
例示的に、目標チャネル特徴マップに対して、3×3でストライドが1である最大プーリング処理を行い、そしてプーリングを行う際に、目標チャネル特徴マップでの3×3個ごとの特徴点の特徴値に対して、3×3個の特徴点の最大応答値(即ち、プーリング値)及び目標チャネル特徴マップでの最大応答値の位置インデックスを決定することができる。このとき、最大応答値の数は目標チャネル特徴マップの寸法と関連性があり、例えば、目標チャネル特徴マップの寸法が80×60×3であると、目標チャネル特徴マップに対して最大プーリング処理を行った後、得られた最大応答値は合計で80×60個であり、且つ各最大応答値について、いずれもその位置インデックスと同一の他の最大応答値が少なくとも1つ存在する可能性がある。
その後、位置インデックスが同一の最大応答値を併合し、M個の最大応答値、及びM個の最大応答値のうちの各々に対応する位置インデックスを得る。
その後、M個の最大応答値のうちの各々をプーリング閾値と比較し、ある最大応答値が該プーリング閾値より大きい場合、該最大応答値を目標プーリング値として決定する。目標プーリング値に対応する位置インデックスは、ユーザーの検出枠の中心点位置情報である。
ここで、さらに、変換前の目標チャネル特徴マップに対して最大プーリング処理を直接行い、各ユーザーの検出枠の中心点位置情報を得ることもできる。
例示的に、ユーザーの検出枠の中心点位置情報を得た後、さらに、該中心点位置情報に基づき、第2チャネル特徴マップから、該中心点位置情報とマッチングする特徴位置での第2特徴値を選択し、選択された第2特徴値をユーザーの検出枠に対応する長さとして決定し、且つ第3チャネル特徴マップから、該中心点位置情報とマッチングする特徴位置での第3特徴値を選択し、選択された第3特徴値をユーザーの検出枠に対応する幅として決定することで、ユーザーの検出枠の寸法情報を得ることもできる。
上記実施形態において、目標チャネル特徴マップに対して最大プーリング処理を行うことで、複数のプーリング値から、ユーザーの中心点に属する目標プーリング値を比較的正確に決定し、さらに各ユーザーの検出枠の中心点位置情報を比較的正確に決定することができる。
ステップ3では、中間特徴マップ、少なくとも1人のユーザーのうちの各々の検出枠情報、及びトレーニングされたニューラルネットワークにおける姿勢分類ブランチネットワークに基づき、各ユーザーの現在の着座姿勢を決定することができる。
一部の実施例では、中間特徴マップ及び少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定することは、
中間特徴マップに対して第2畳み込み処理を少なくとも1回行い、中間特徴マップに対応するNチャネルの分類特徴マップを生成するステップC1であって、分類特徴マップのチャネル数Nは着座姿勢種別の数に一致し、Nチャネルの分類特徴マップ中の各チャネル特徴マップは、1つの着座姿勢種別に対応し、Nは1より大きい正整数であるステップC1と、
各ユーザーに対して、ユーザーの検出枠情報によって示される中心点位置情報に基づき、分類特徴マップから、中心点位置情報とマッチングする特徴位置でのN個の特徴値を抽出し、N個の特徴値から最大特徴値を選択し、分類特徴マップ中の、最大特徴値に対応するチャネル特徴マップの着座姿勢種別を、ユーザーの現在の着座姿勢として決定するステップC2と、を含む。
ここで、中間特徴マップに対して第2畳み込み処理を少なくとも1回行い、中間特徴マップに対応する分類特徴マップを生成することができ、該分類特徴マップのチャネル数はNであり、該Nの値は着座姿勢種別の数に一致し、且つNチャネルの分類特徴マップ中の各チャネル特徴マップは、1つの着座姿勢種別に対応する。例えば、着座姿勢種別が正規着座姿勢、身体が前傾する姿勢、身体が後ろに傾く姿勢を含むと、この時のNの値は3となり、着座姿勢種別が正規着座姿勢、身体が前傾する姿勢、身体が後ろに傾く姿勢、及び身体が横臥する姿勢を含む場合、この時のNの値は4となる。着座姿勢種別は実際の必要に応じて設定可能であり、ここでは例示的に説明したものに過ぎない。
さらに、各ユーザーに対して、ユーザーの検出枠情報によって示される中心点位置情報に基づき、分類特徴マップから、中心点位置情報とマッチングする特徴位置でのN個の特徴値を抽出し、N個の特徴値から最大特徴値を選択し、分類特徴マップ中の、該最大特徴値に対応するチャネル特徴マップの着座姿勢種別を、該ユーザーの現在の着座姿勢として決定することができる。
例えば、ユーザーAに対して、分類特徴マップは3チャネルの特徴マップであり、分類特徴マップ中の第1チャネル特徴マップに対応する着座姿勢種別は正規着座姿勢とし、第2チャネル特徴マップに対応する着座姿勢種別は身体が前傾する姿勢とし、第3チャネル特徴マップに対応する着座姿勢種別は身体が横に傾く姿勢とすることができ、分類特徴マップから、0.8、0.5、0.2の3つの特徴値を抽出したと、分類特徴マップ中の、0.8に対応するチャネル特徴マップ(分類特徴マップ中の第1チャネル特徴マップ)の着座姿勢種別(正規着座姿勢)をユーザーAの現在の着座姿勢として決定する。
ここで、中間特徴マップに対して第2畳み込み処理を少なくとも1回行うことで、分類特徴マップを生成し、さらに生成された各ユーザーの中心点位置情報を組み合わせて、各ユーザーの現在の着座姿勢を比較的正確に決定することができる。
一部の実施例では、各ユーザーの現在の着座姿勢は、トレーニングされたニューラルネットワークに基づいて決定される。ニューラルネットワークは、
シーン画像サンプルを取得するステップD1であって、シーン画像サンプルはラベル付けデータに対応するステップD1と、
ニューラルネットワークにおけるバックボーンネットワーク、及びシーン画像サンプルに基づき、シーン画像サンプルに対応するサンプル特徴マップを生成するステップD2と、
ニューラルネットワークにおける複数のブランチネットワーク、及びサンプル特徴マップに基づき、シーン画像サンプルに対応する複数の予測データを生成するステップD3であって、各ブランチネットワークは1つの予測データに対応するステップD3と、
複数の予測データ、及びシーン画像サンプルに対応するラベル付けデータに基づき、ニューラルネットワークをトレーニングするステップD4と、によってトレーニングされることができる。
上記形態において、複数のブランチネットワークを設けてサンプル特徴マップを処理することにより、シーン画像サンプルに対応する複数の予測データを生成し、生成された複数の予測データでニューラルネットワークをトレーニングすることで、トレーニングされたニューラルネットワークの精度を向上させることができる。
ここで、ラベル付けデータは、ラベル付けキーポイント位置情報、ラベル付け検出枠情報、ラベル付け着座姿勢種別を含んでもよい。
シーン画像サンプルをトレーニングされるべきニューラルネットワークに入力し、トレーニングされるべきニューラルネットワークにおけるバックボーンネットワークによって、シーン画像サンプルに対して畳み込み処理を少なくとも1回行い、シーン画像サンプルに対応するサンプル特徴マップを生成することができる。
その後、サンプル特徴マップをトレーニングされるべきニューラルネットワークにおける複数のブランチネットワークにそれぞれ入力し、シーン画像サンプルに対応する複数の予測データを生成し、各ブランチネットワークは1つの予測データに対応する。
予測データは予測検出枠情報、予測キーポイント位置情報、予測着座姿勢種別を含んでもよい。
予測データが予測検出枠情報を含む場合、ニューラルネットワークのブランチネットワークは検出枠検出ブランチネットワークを含み、サンプル特徴マップをニューラルネットワークにおける検出枠検出ブランチネットワークに入力し、シーン画像サンプルに含まれる少なくとも1人のユーザーの予測検出枠情報を生成する。
予測データが予測キーポイント位置情報を含む場合、ニューラルネットワークのブランチネットワークはキーポイント検出ブランチネットワークを含み、サンプル特徴マップをニューラルネットワークにおけるキーポイント検出ブランチネットワークに入力し、シーン画像サンプルに含まれる各ユーザーの複数の予測キーポイント位置情報を生成する。
予測データが予測検出枠情報及び予測着座姿勢種別を含む場合、ニューラルネットワークのブランチネットワークは検出枠検出ブランチネットワーク、及び姿勢分類ブランチネットワークを含み、サンプル特徴マップをニューラルネットワークにおけるキーポイント検出ブランチネットワークに入力して、分類特徴マップを得て、且つ少なくとも1人のユーザーの予測検出枠情報及び該分類特徴マップに基づき、シーン画像サンプルに含まれる各ユーザーの予測着座姿勢種別を生成する。
上記実施形態では、複数のブランチネットワークを設けてサンプル特徴マップを処理することにより、複数の予測データを得て、複数の予測データでニューラルネットワークをトレーニングすることにより、トレーニングされたニューラルネットワークの精度が高くなる。
複数の予測データに予測検出枠情報、予測キーポイント位置情報、及び予測着座姿勢種別が含まれる場合、予測検出枠情報及びラベル付け検出枠情報に基づき、第1損失値を生成し、予測キーポイント位置情報及びラベル付けキーポイント位置情報に基づき、第2損失値を生成し、そして予測着座姿勢種別及びラベル付け着座姿勢種別に基づき、第3損失値を生成し、第1損失値、第2損失値及び第3損失値に基づき、ニューラルネットワークをトレーニングして、トレーニングされたニューラルネットワークを得ることができる。
S103について、
現在シーン画像中の各ユーザーの現在の着座姿勢を得た後、各ユーザーの現在の着座姿勢に基づき、該ユーザーの現在の着座姿勢が非正規着座姿勢であるか否かを判定することができ、非正規着座姿勢タイプとは、セキュリティーリスクが存在する着座姿勢タイプのことである。該ユーザーの現在の着座姿勢が非正規着座姿勢であると決定する場合、警告情報を発する。
一つの選択可能な実施形態において、非正規着座姿勢タイプには、ユーザーの身体が前傾する第1非正規着座姿勢、ユーザーの身体が横に傾く第2非正規着座姿勢、及びユーザーの身体が横臥する第3非正規着座姿勢のうちの少なくとも1つを含んでもよい。非正規着座姿勢タイプには、セキュリティーリスクが存在する他の着座姿勢をさらに含んでもよく、ここでは例示的に説明したものに過ぎない。
例示的に、ユーザーの現在の着座姿勢が正規着座姿勢であると、該ユーザーが非正規着座姿勢をするユーザーでないと決定し、ユーザーの現在の着座姿勢が身体が前傾する姿勢であると、該ユーザーが非正規着座姿勢をするユーザーであると決定する。
上記実施形態では、複数の非正規着座姿勢を定義することで、非正規着座姿勢のタイプを豊かにし、さらに複数の非正規着座姿勢をより全面的に包含し、ユーザーの乗車中の安全性を確保することができる。
ここで、ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属することを判定した場合、ユーザーの現在の着座姿勢が属する非正規着座姿勢タイプに基づき、警告情報を生成することができ、該警告情報は音声の形態で再生してもよい。例えば、ユーザーAの現在の着座姿勢が、身体が前傾する姿勢である場合、生成される警告情報は「危険で、身体が前傾し、着座姿勢を調整してください」としてもよい。
具体的に実施する時、さらに、キャビンの各位置に対して標識を付けしてもよく、例えばキャビン内の各位置の標識は、副操縦士位置、左後位置、右後位置等の標識であってもよく、、現在シーン画像に基づいて各ユーザーに対応する位置標識を決定することができ、且つユーザーの現在の着座姿勢が非正規着座姿勢タイプに属することを判定した場合、ユーザーの現在の着座姿勢が属する非正規着座姿勢タイプ、及び着座姿勢標識に基づき、警告情報を生成することができる。例えば、ユーザーAの現在の着座姿勢が、身体が前傾する姿勢であり、該ユーザーAに対応する位置標識が副操縦士位置である場合、生成される警告情報は「副操縦士位置にいる乗客は身体が前傾しており、着座姿勢を調整してください」としてもよい。
ここで、ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属することを判定した場合、ユーザーの現在の着座姿勢が属する非正規着座姿勢タイプに基づき、警告情報を生成することで、ユーザーに警告を出し、ユーザーに危険を及ぼす確率を低減することができる。
具体的な実施形態の上記方法において、各ステップの記述順序は厳しい実行順序を意味して実施プロセスに対するいかなる制限を構成せず、各ステップの具体的な実行順序はその機能と可能な内在的論理で確定されるべきであることが当業者に理解される。
同一の構想に基づき、本発明の実施例は、非正規着座姿勢の認識装置400をさらに提供し、図4は、本発明の実施例により提供される非正規着座姿勢の認識装置のアーキテクチャの模式図であり、前記非正規着座姿勢の認識装置は具体的に、
キャビン内の現在シーン画像を取得するように構成される取得モジュール401と、
前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識するように構成される認識モジュール402と、
ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発するように構成される決定モジュール403であって、ここで、前記非正規着座姿勢タイプとは、セキュリティーリスクが存在する着座姿勢タイプのことである決定モジュールと、を含む。
一つの可能な実施形態において、前記非正規着座姿勢タイプは、ユーザーの身体が前傾する第1非正規着座姿勢、ユーザーの身体が横に傾く第2非正規着座姿勢、及びユーザーの身体が横臥する第3非正規着座姿勢のうちの少なくとも1つを含む。
一つの可能な実施形態において、前記認識モジュール402は、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識する場合、
前記現在シーン画像に基づき、前記現在シーン画像内の少なくとも1人のユーザーのキーポイント情報を決定し、そして
各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定するように構成される。
一つの可能な実施形態において、前記キーポイント情報は頭部キーポイント情報を含み、前記認識モジュール402は、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定する場合、
いずれか1人のユーザーの前記頭部キーポイント情報が設定されたハンドルの下接線より低い場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢であることを決定するように構成される。
一つの可能な実施形態において、前記キーポイント情報は、左肩キーポイント情報及び右肩キーポイント情報を含み、前記認識モジュール402は、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定する時、
いずれか1人のユーザーの左肩キーポイントと右肩キーポイントとの間の接続線と、設定された座席基準面とのなす角度が設定された第1角度閾値より大きい場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢であることを決定するように構成される。
一つの可能な実施形態において、前記キーポイント情報は、頸キーポイント情報及び股キーポイント情報を含み、前記認識モジュール402は、各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定する場合、
いずれか1人のユーザーの頸キーポイントと股キーポイントとの間の接続線と、設定された水平基準面とのなす角度が設定された第2角度閾値より小さい場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢であることを決定するように構成される。
一つの可能な実施形態において、前記認識モジュール402は、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識する場合、
前記現在シーン画像に基づき、前記現在シーン画像に対応する中間特徴マップを生成し、
前記中間特徴マップに基づき、前記キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成し、そして
前記中間特徴マップ及び前記少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定するように構成される。
一つの可能な実施形態において、前記認識モジュール402は、前記中間特徴マップに基づき、前記キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成する場合、
前記中間特徴マップに対して第1畳み込み処理を少なくとも1回行い、前記中間特徴マップに対応するチャネル特徴マップを生成し、そして
前記チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成するように構成される。
一つの可能な実施形態において、前記認識モジュール402は、前記チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成する場合、
前記位置を特徴づける目標チャネル特徴マップにおける各特徴値に対して活性化関数で特徴値変換処理を行い、変換された目標チャネル特徴マップを生成し、
予め設定されたプーリングサイズ及びプーリングストライドに応じて、変換された目標チャネル特徴マップに対して最大プーリング処理を行い、複数のプーリング値、及び、複数のプーリング値のうちの各々に対応する位置インデックスを得て、前記位置インデックスは前記変換された目標チャネル特徴マップでの前記プーリング値の位置を識別するために用いられ、
前記各プーリング値及びプーリング閾値に基づき、複数のプーリング値から、少なくとも1人のユーザーの検出枠の中心点に属する目標プーリング値を決定し、そして
前記目標プーリング値に対応する位置インデックスに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成するように構成される。
一つの可能な実施形態において、前記認識モジュール402は、前記中間特徴マップ及び前記少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定する場合、
前記中間特徴マップに対して第2畳み込み処理を少なくとも1回行い、前記中間特徴マップに対応するNチャネルの分類特徴マップを生成し、ここで前記分類特徴マップのチャネル数Nは着座姿勢種別の数に一致し、前記Nチャネルの分類特徴マップ中の各チャネル特徴マップは、1つの着座姿勢種別に対応し、Nは1より大きい正整数であり、そして
各ユーザーに対して、前記ユーザーの検出枠情報によって示される中心点位置情報に基づき、前記分類特徴マップから、前記中心点位置情報とマッチングする特徴位置でのN個の特徴値を抽出し、N個の特徴値から最大特徴値を選択し、分類特徴マップ中の、最大特徴値に対応するチャネル特徴マップの着座姿勢種別を、前記ユーザーの現在の着座姿勢として決定するように構成される。
一部の実施例では、本発明の実施例により提供される装置に備えられた機能又はテンプレートは、上記方法の実施例に記載の方法を実行するために用いられてもよく、その具体的な実現については、上記方法の実施例の説明を参照してよく、簡単化するために、ここで重複説明は割愛する。
同一の技術的構想に基づき、本発明の実施例は、電子機器500をさらに提供する。図5は、本発明の実施例により提供される電子機器500の構造的模式図であり、前記電子機器は、プロセッサ501、メモリ502、及びバス503を含む。メモリ502は実行命令を記憶するために用いられ、内蔵メモリ5021及び外部メモリ5022を含み、ここでの内蔵メモリ5021は、内部メモリとも呼ばれ、プロセッサ501内の演算データ、及びハードディスク等の外部メモリ5022と交換するデータを一時的に保存するために用いられ、プロセッサ501は、内蔵メモリ5021によって外部メモリ5022とデータ交換を行い、電子機器500が運行する時、プロセッサ501とメモリ502はバス503を介して通信することで、プロセッサ501は、
キャビン内の現在シーン画像を取得し、
前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識し、
ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発し、ここで前記非正規着座姿勢タイプとは、セキュリティーリスクが存在する着座姿勢タイプのことである、という命令を実行する。
また、本発明の実施例は、プロセッサにより実行されるとき、上記方法の実施例に記載の非正規着座姿勢の認識方法のステップを実行するコンピュータプログラムが記憶されるコンピュータ読み取り可能な記憶媒体をさらに提供する。
本発明の実施例により提供される非正規着座姿勢の認識方法に係るコンピュータプログラム製品は、コンピュータ読み取り可能なコードを記憶するために用いられ、コンピュータ読み取り可能なコードが電子機器で運行する場合、電子機器のプロセッサは上記何れか一つの実施例によって提供される非正規着座姿勢の認識方法を実現するために実行される。
当業者であれば、説明を便利化及び簡潔化するために、上述説明されたシステム及び装置の具体的な動作プロセスは、前記方法の実施例における対応するプロセスを参照すればよいことが明確に理解され、ここでは説明を省略する。なお、本発明が提供するいくつかの実施例では、発明されたシステム、装置及び方法は、他の形態で実現されることができることを理解すべきである。上述説明された装置の実施例は例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現する時に別の分割モードもあり得て、また例えば、複数のユニット又はコンポーネントは組み合わせられてもよく、別のシステムに統合されてもよく、又は一部の特徴を省略もしくは実行しなくてもよい。一方、示される又は議論される相互の結合又は直接結合又は通信接続は一部の通信インタフェース、装置又はユニットを介した間接結合又は通信接続であり得、電気的、機械的又は他の形態であり得る。
分離部材として説明された前記ユニットは物理的に分離されたものであってもなくてもよく、ユニットとして示された部材は物理ユニットであってもなくてもよく、一箇所に位置してもよく、又は複数のネットワークユニットに分布されてもよい。実際の必要に応じてその一部又は全てのユニットを選択して本実施例の解決手段の目的を実現できる。
また、本発明の各実施例における各機能ユニットは1つの処理ユニットに統合されてもよく、それぞれ独立して物理的に存在してもよく、2つ又は2つ以上で1つのユニットに統合されてもよい。
前記機能がソフトウェア機能ユニットの形式で実現され且つ独立した製品として販売又は使用される場合、プロセッサにより実行可能な不揮発性コンピュータ読み取り可能な記憶媒体に記憶されてもよい。このような理解に基づき、本発明の技術的解決手段は実質的に又は従来技術に寄与する部分又は該技術的解決手段の一部がソフトウェア製品の形で実現されることができ、該コンピュータソフトウェア製品は記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であってもよい)に本発明の各実施例に記載の方法の全て又は一部のステップを実行させる若干の命令を含む。前記の記憶媒体は、USBフラッシュディスク、モバイルハードディスク、読み取り専用メモリ(Read-Only Memory:ROMと略称)、ランダムアクセスメモリ(Random Access Memory:RAMと略称)、磁気ディスク又は光ディスク等のプログラムコードを記憶可能である様々な媒体を含む。
以上は本発明の具体的な実施形態に過ぎず、本発明の保護範囲がそれに限定されるものでなく、本発明に記載された技術範囲内に当業者に容易に想到される変化又は取り替えは、全て本発明の保護範囲に含まれる。従って、本発明の保護範囲は特許請求の範囲の保護範囲に準ずるものとする。
本発明は非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラムを提供し、キャビン内の現在シーン画像を取得し、前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識し、そしてユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発し、ここで前記非正規着座姿勢タイプはセキュリティーリスクが存在する着座姿勢タイプを含む。

Claims (14)

  1. 非正規着座姿勢の認識方法であって、
    キャビン内の現在シーン画像を取得することと、
    前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することと、
    ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発することであって、ここで、前記非正規着座姿勢タイプにはセキュリティーリスクが存在する着座姿勢タイプが含まれることと、を含む
    非正規着座姿勢の認識方法。
  2. 前記非正規着座姿勢タイプは
    ユーザーの身体が前傾する第1非正規着座姿勢、ユーザーの身体が横に傾く第2非正規着座姿勢、及びユーザーの身体が横臥する第3非正規着座姿勢のうちの少なくとも1つを含むことを特徴とする
    請求項1に記載の方法。
  3. 前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することは、
    前記現在シーン画像に基づき、前記現在シーン画像内の少なくとも1人のユーザーのキーポイント情報を決定することと、
    各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することと、を含むことを特徴とする
    請求項2に記載の方法。
  4. 前記キーポイント情報には頭部キーポイント情報が含まれ、
    各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
    いずれか1人のユーザーの前記頭部キーポイント情報が設定されたハンドルの下接線より低い場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が前傾する第1非正規着座姿勢であることを決定することを特徴とする
    請求項3に記載の方法。
  5. 前記キーポイント情報には、左肩キーポイント情報及び右肩キーポイント情報が含まれ、
    各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
    いずれか1人のユーザーの左肩キーポイントと右肩キーポイントとの間の接続線と、設定された座席基準面とのなす角度が設定された第1角度閾値より大きい場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横に傾く第2非正規着座姿勢であることを決定することを含むことを特徴とする
    請求項3に記載の方法。
  6. 前記キーポイント情報には、頸キーポイント情報及び股キーポイント情報が含まれ、
    各ユーザーのキーポイント情報と設定された基準物との間の相対位置関係に基づき、前記キャビン内にいる各ユーザーの現在の着座姿勢を決定することは、
    いずれか1人のユーザーの頸キーポイントと股キーポイントとの間の接続線と、設定された水平基準面とのなす角度が設定された第2角度閾値より小さい場合、前記いずれか1人のユーザーの現在の着座姿勢が、ユーザーの身体が横臥する第3非正規着座姿勢であることを決定することを含むことを特徴とする
    請求項3に記載の方法。
  7. 前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識することは、
    前記現在シーン画像に基づき、前記現在シーン画像に対応する中間特徴マップを生成することと、
    前記中間特徴マップに基づき、前記キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成することと、
    前記中間特徴マップ及び前記少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定することと、を含むことを特徴とする
    請求項1に記載の方法。
  8. 前記中間特徴マップに基づき、前記キャビン内にいる少なくとも1人のユーザーのうちの各々の検出枠情報を生成することは、
    前記中間特徴マップに対して第1畳み込み処理を少なくとも1回行うことで、前記中間特徴マップに対応するチャネル特徴マップを生成することと、
    前記チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することと、を含むことを特徴とする
    請求項7に記載の方法。
  9. 前記チャネル特徴マップ中の位置を特徴づける目標チャネル特徴マップに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することは、
    前記位置を特徴づける目標チャネル特徴マップにおける各特徴値に対して活性化関数で特徴値変換処理を行うことで、変換された目標チャネル特徴マップを生成することと、
    予め設定されたプーリングサイズ及びプーリングストライドに応じて、変換された目標チャネル特徴マップに対して最大プーリング処理を行うことで、複数のプーリング値、及び複数のプーリング値のうちの各々に対応する位置インデックスを得ることであって、前記位置インデックスは、前記変換された目標チャネル特徴マップでの前記プーリング値の位置を識別するために用いられることと、
    前記各プーリング値及びプーリング閾値に基づき、複数のプーリング値から、少なくとも1人のユーザーの検出枠の中心点に属する目標プーリング値を決定することと、
    前記目標プーリング値に対応する位置インデックスに基づき、前記キャビン内にいる各ユーザーの検出枠の中心点位置情報を生成することと、を含むことを特徴とする
    請求項8に記載の方法。
  10. 前記中間特徴マップ及び前記少なくとも1人のユーザーのうちの各々の検出枠情報に基づき、各ユーザーの現在の着座姿勢を決定することは、
    前記中間特徴マップに対して第2畳み込み処理を少なくとも1回行うことで、前記中間特徴マップに対応するNチャネルの分類特徴マップを生成することであって、ここで、前記分類特徴マップのチャネル数Nは着座姿勢種別の数に一致し、前記Nチャネルの分類特徴マップ中の各チャネル特徴マップは、1つの着座姿勢種別に対応し、Nは1より大きい正整数であることと、
    各ユーザーに対して、前記ユーザーの検出枠情報によって示される中心点位置情報に基づき、前記分類特徴マップから、前記中心点位置情報とマッチングする特徴位置でのN個の特徴値を抽出し、N個の特徴値から最大特徴値を選択し、分類特徴マップ中の、最大特徴値に対応するチャネル特徴マップの着座姿勢種別を、前記ユーザーの現在の着座姿勢として決定することと、を含むことを特徴とする
    請求項7に記載の方法。
  11. 非正規着座姿勢の認識装置であって、
    キャビン内の現在シーン画像を取得するように構成される取得モジュールと、
    前記現在シーン画像に基づき、前記キャビン内にいる少なくとも1人のユーザーの現在の着座姿勢を認識するように構成される認識モジュールと、
    ユーザーの現在の着座姿勢が非正規着座姿勢タイプに属する場合、警告情報を発するように構成される決定モジュールであって、ここで、前記非正規着座姿勢タイプとは、セキュリティーリスクが存在する着座姿勢タイプのことである決定モジュールと、を備える
    非正規着座姿勢の認識装置。
  12. 電子機器であって、
    プロセッサ、メモリ及びバスを備え、
    前記メモリには、前記プロセッサにより実行可能な機械読み取り可能な命令が記憶されており、
    電子機器が運行する時、前記プロセッサと前記メモリはバスを介して通信し、
    前記機械読み取り可能な命令は、前記プロセッサにより実行されるとき、請求項1から10のいずれか1項に記載の非正規着座姿勢の認識方法のステップを実行する
    電子機器。
  13. コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ読み取り可能な記憶媒体には、コンピュータプログラムが記憶されており、
    前記コンピュータプログラムがプロセッサにより実行されるとき、請求項1から10のいずれか1項に記載の非正規着座姿勢の認識方法のステップを実行する
    コンピュータ読み取り可能な記憶媒体。
  14. コンピュータプログラムであって、
    前記コンピュータプログラムにはコンピュータ読み取り可能なコードが含まれており、
    電子機器で前記コンピュータ読み取り可能なコードを運行する場合、前記電子機器のプロセッサが請求項1から10のいずれか1項に記載の非正規着座姿勢の認識方法を実現するように実行される
    コンピュータ読み取り可能なコードを含む
    コンピュータプログラム。
JP2021571346A 2020-08-07 2020-12-14 非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラム Pending JP2022547246A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010790210.0A CN111931640B (zh) 2020-08-07 2020-08-07 异常坐姿识别方法、装置、电子设备及存储介质
CN202010790210.0 2020-08-07
PCT/CN2020/136267 WO2022027895A1 (zh) 2020-08-07 2020-12-14 异常坐姿识别方法、装置、电子设备、存储介质及程序

Publications (1)

Publication Number Publication Date
JP2022547246A true JP2022547246A (ja) 2022-11-11

Family

ID=73307054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021571346A Pending JP2022547246A (ja) 2020-08-07 2020-12-14 非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラム

Country Status (5)

Country Link
US (1) US20220084316A1 (ja)
JP (1) JP2022547246A (ja)
KR (1) KR20220019097A (ja)
CN (1) CN111931640B (ja)
WO (1) WO2022027895A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931640B (zh) * 2020-08-07 2022-06-10 上海商汤临港智能科技有限公司 异常坐姿识别方法、装置、电子设备及存储介质
CN112613440A (zh) * 2020-12-29 2021-04-06 北京市商汤科技开发有限公司 一种姿态检测的方法、装置、电子设备及存储介质
CN112712053B (zh) * 2021-01-14 2024-05-28 深圳数联天下智能科技有限公司 一种坐姿信息的生成方法、装置、终端设备及存储介质
CN112733740B (zh) * 2021-01-14 2024-05-28 深圳数联天下智能科技有限公司 一种注意力信息的生成方法、装置、终端设备及存储介质
US11851080B2 (en) * 2021-02-03 2023-12-26 Magna Mirrors Of America, Inc. Vehicular driver monitoring system with posture detection and alert
US20220319045A1 (en) * 2021-04-01 2022-10-06 MohammadSado Lulu System For Posture Detection Using The Camera Of A Hand-Held Device
KR102513042B1 (ko) * 2022-11-30 2023-03-23 주식회사 알에스팀 버스 안전사고 예방을 위한 이동 감지 시스템
CN115877899B (zh) * 2023-02-08 2023-05-09 北京康桥诚品科技有限公司 一种漂浮舱内的液体控制方法、装置、漂浮舱和介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016027452A (ja) * 2014-06-23 2016-02-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2019527448A (ja) * 2016-07-21 2019-09-26 ゲシュティゴン、ゲゼルシャフト、ミット、ベシュレンクテル、ハフツングGestigon Gmbh 車両の運転者の状態を監視するための方法及びシステム
JP2019167071A (ja) * 2018-03-26 2019-10-03 本田技研工業株式会社 車両用制御装置
JP2019170623A (ja) * 2018-03-28 2019-10-10 マツダ株式会社 ドライバ状態判定装置
CN110348335A (zh) * 2019-06-25 2019-10-18 平安科技(深圳)有限公司 行为识别的方法、装置、终端设备及存储介质
CN110956060A (zh) * 2018-09-27 2020-04-03 北京市商汤科技开发有限公司 动作识别、驾驶动作分析方法和装置及电子设备
CN111301280A (zh) * 2018-12-11 2020-06-19 北京嘀嘀无限科技发展有限公司 一种危险状态识别方法及装置
JP2020104680A (ja) * 2018-12-27 2020-07-09 アイシン精機株式会社 室内監視装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567743A (zh) * 2011-12-20 2012-07-11 东南大学 基于视频图像的驾驶员姿态自动识别方法
JP6507015B2 (ja) * 2015-04-08 2019-04-24 日野自動車株式会社 運転者状態判定装置
JP2019034576A (ja) * 2017-08-10 2019-03-07 オムロン株式会社 運転者状態把握装置、運転者状態把握システム、及び運転者状態把握方法
CN107730846A (zh) * 2017-10-25 2018-02-23 深圳纳富特科技有限公司 坐姿矫正的提醒方法、装置及计算机可读存储介质
CN108985259B (zh) * 2018-08-03 2022-03-18 百度在线网络技术(北京)有限公司 人体动作识别方法和装置
CN109389068A (zh) * 2018-09-28 2019-02-26 百度在线网络技术(北京)有限公司 用于识别驾驶行为的方法和装置
CN109409331A (zh) * 2018-11-27 2019-03-01 惠州华阳通用电子有限公司 一种基于雷达的防疲劳驾驶方法
CN111414780B (zh) * 2019-01-04 2023-08-01 卓望数码技术(深圳)有限公司 一种坐姿实时智能判别方法、***、设备及存储介质
CN109910904B (zh) * 2019-03-22 2021-03-09 深圳市澳颂泰科技有限公司 一种驾驶行为与车辆驾驶姿态识别***
CN110517261A (zh) * 2019-08-30 2019-11-29 上海眼控科技股份有限公司 安全带状态检测方法、装置、计算机设备和存储介质
CN111439170B (zh) * 2020-03-30 2021-09-17 上海商汤临港智能科技有限公司 儿童状态检测方法及装置、电子设备、存储介质
CN111931640B (zh) * 2020-08-07 2022-06-10 上海商汤临港智能科技有限公司 异常坐姿识别方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016027452A (ja) * 2014-06-23 2016-02-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2019527448A (ja) * 2016-07-21 2019-09-26 ゲシュティゴン、ゲゼルシャフト、ミット、ベシュレンクテル、ハフツングGestigon Gmbh 車両の運転者の状態を監視するための方法及びシステム
JP2019167071A (ja) * 2018-03-26 2019-10-03 本田技研工業株式会社 車両用制御装置
JP2019170623A (ja) * 2018-03-28 2019-10-10 マツダ株式会社 ドライバ状態判定装置
CN110956060A (zh) * 2018-09-27 2020-04-03 北京市商汤科技开发有限公司 动作识别、驾驶动作分析方法和装置及电子设备
CN111301280A (zh) * 2018-12-11 2020-06-19 北京嘀嘀无限科技发展有限公司 一种危险状态识别方法及装置
JP2020104680A (ja) * 2018-12-27 2020-07-09 アイシン精機株式会社 室内監視装置
CN110348335A (zh) * 2019-06-25 2019-10-18 平安科技(深圳)有限公司 行为识别的方法、装置、终端设备及存储介质

Also Published As

Publication number Publication date
CN111931640B (zh) 2022-06-10
CN111931640A (zh) 2020-11-13
KR20220019097A (ko) 2022-02-15
WO2022027895A1 (zh) 2022-02-10
US20220084316A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
JP2022547246A (ja) 非正規着座姿勢の認識方法、装置、電子機器、記憶媒体及びプログラム
CN108764185B (zh) 一种图像处理方法及装置
US11776083B2 (en) Passenger-related item loss mitigation
JP2020123352A (ja) 人の状態認識を基盤として身体部位の長さ及び顔情報を使用して乗客の身長及び体重を予測する方法及び装置
US10255485B2 (en) Identification device, identification method, and recording medium recording identification program
CN110765807B (zh) 驾驶行为分析、处理方法、装置、设备和存储介质
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
CN111507170A (zh) 通过车对车连接警告驾驶员的异常状态的方法和装置
CN110826370B (zh) 车内人员的身份识别方法、装置、车辆及存储介质
JP2022530605A (ja) 子供状態検出方法及び装置、電子機器、記憶媒体
CN111931639B (zh) 驾驶员行为检测方法、装置、电子设备及存储介质
García et al. Driver monitoring based on low-cost 3-D sensors
JP5596628B2 (ja) 物体識別装置
KR20200095384A (ko) 운전자 상태에 따라 맞춤형의 캘리브레이션을 위해 운전자 보조 장치를 자동으로 조정하는 방법 및 장치
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
JP2020126625A (ja) ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡
CN112277957B (zh) 一种用于驾驶员分心纠正的预警方法及其***、存储介质
JP2022089774A (ja) 車両の運転者を監視する装置および方法
JP2016115117A (ja) 判定装置および判定方法
JP6472504B1 (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
JP2023542058A (ja) 相補的分類器を使用して異常を検出するための異常検出器
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
CN113361441A (zh) 基于头部姿态和空间注意力的视线区域估计方法及***
US20230109171A1 (en) Operator take-over prediction
Berri et al. ADAS classifier for driver monitoring and driving qualification using both internal and external vehicle data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230613