JP2020121713A - 人の状態識別のためのイメージ分析により検出された乗客のポイントを利用して車両占有を検出する方法及び装置 - Google Patents
人の状態識別のためのイメージ分析により検出された乗客のポイントを利用して車両占有を検出する方法及び装置 Download PDFInfo
- Publication number
- JP2020121713A JP2020121713A JP2020005967A JP2020005967A JP2020121713A JP 2020121713 A JP2020121713 A JP 2020121713A JP 2020005967 A JP2020005967 A JP 2020005967A JP 2020005967 A JP2020005967 A JP 2020005967A JP 2020121713 A JP2020121713 A JP 2020121713A
- Authority
- JP
- Japan
- Prior art keywords
- keypoint
- passenger
- learning
- paf
- specific
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000010191 image analysis Methods 0.000 title description 10
- 208000009144 Pure autonomic failure Diseases 0.000 claims abstract description 69
- 239000013312 porous aromatic framework Substances 0.000 claims abstract description 69
- 238000001514 detection method Methods 0.000 claims abstract description 65
- 238000000605 extraction Methods 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012567 pattern recognition method Methods 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
Claims (16)
- 車両の室内イメージ分析に基づいた乗客キーポイントを用いて車両占有(vehicle occupancy)を検出する方法において、
(a)前記車両の前記室内イメージが取得されると、車両占有検出装置が、(i)前記室内イメージを特徴抽出ネットワークに入力することにより、前記特徴抽出ネットワークをもって、前記室内イメージにコンボリューション演算を適用して一つ以上の特徴テンソルを生成するようにし、(ii)前記特徴テンソルをキーポイントヒートマップ(keypoint heatmap)−PAF(part affinity field)抽出器に入力することにより、前記キーポイントヒートマップ−PAF抽出器をもって、前記特徴テンソルそれぞれに対するキーポイントヒートマップ及びPAFを生成するようにし、(iii)前記キーポイントヒートマップ及び前記PAFをキーポイント検出装置に入力することにより、前記キーポイント検出装置をもって、前記キーポイントヒートマップそれぞれからキーポイントを抽出するようにし、(iv)前記PAFそれぞれを参照して前記抽出されたキーポイントをグルーピング(grouping)することにより、前記室内イメージ内の乗客それぞれに対応する各乗客ごとにキーポイントを検出する段階;及び
(b)前記車両占有検出装置が、前記各乗客別キーポイントを座席占有マッチャー(matcher)に入力することにより、前記座席占有マッチャーをもって、前記車両の座席それぞれの予め設定されたROI(Region Of Interest)と、前記各乗客別キーポイントとを参照してそれぞれの前記乗客をマッチング(matching)するようにして、前記車両占有を検出する段階;
を含むことを特徴とする方法。 - 前記(a)段階で、
前記車両占有検出装置は、前記室内イメージを前記特徴抽出ネットワークに入力することにより、前記特徴抽出ネットワークをもって、多重コンボリューション演算を遂行する一つ以上のコンボリューションレイヤを含むコンボリューションブロックによる前記多重コンボリューション演算を前記室内イメージに適用するようにする請求項1に記載の方法。 - 前記(a)段階で、
前記車両占有検出装置は、前記特徴テンソルを前記キーポイントヒートマップ−PAF抽出器に入力することにより、前記キーポイントヒートマップ−PAF抽出器をもって、FCN(fully convolutional network)または1x1コンボリューションレイヤによるコンボリューション演算を前記特徴テンソルに適用して、前記特徴テンソルに対する前記キーポイントヒートマップ及び前記PAFを生成するようにする請求項1に記載の方法。 - 前記(a)段階で、
前記車両占有検出装置は、前記キーポイントヒートマップ及び前記PAFを前記キーポイント検出装置に入力することにより、前記キーポイント検出装置をもって、それぞれの前記キーポイントヒートマップ上の最も高い地点それぞれを、それぞれの前記キーポイントヒートマップに対応するそれぞれの前記キーポイントとして抽出するようにする請求項1に記載の方法。 - 前記車両占有検出装置は、前記キーポイント検出装置をもって、前記PAFを参照して、前記抽出されたキーポイントのうちの連結される確率が最も高いキーポイント同士をペアにしてつなげることにより、前記抽出されたキーポイントをグルーピングする請求項4に記載の方法。
- 前記(b)段階で、
前記車両占有検出装置は、前記座席占有マッチャーをもって、前記各乗客別キーポイントの平均ポイントそれぞれ及び前記各乗客別キーポイントの分散それぞれを算出するようにし、各前記座席の前記予め設定されたROIそれぞれに対して、(i)前記各乗客別キーポイント、(ii)前記各乗客別キーポイントの前記平均ポイントそれぞれ及び(iii)前記各乗客別キーポイントの分散それぞれが、少なくとも一つの予め設定された条件を満たしているか否かを確認し、それぞれの前記座席にそれぞれの前記乗客をマッチングさせる請求項1に記載の方法。 - 前記車両占有検出装置は、前記座席占有マッチャーをもって、特定座席の特定ROIに対して、(i)特定乗客に対応する特定平均ポイントが前記特定ROI内に位置し、(ii)前記特定乗客に対応する特定分散が予め設定された第1閾値以下であり、(iii)前記特定ROI内に位置する前記特定乗客に対応する特定キーポイントの個数が予め設定された第2閾値以上である場合、前記特定座席に前記特定乗客をマッチングするようにする請求項6に記載の方法。
- 前記特徴抽出ネットワークと、前記キーポイントヒートマップ−PAF抽出器とは、学習装置により学習された状態であり、前記学習装置は、一つ以上の学習用物体を含む少なくとも一つのトレーニングイメージが取得されると、(i)前記トレーニングイメージを前記特徴抽出ネットワークに入力することにより、前記特徴抽出ネットワークをもって、前記トレーニングイメージにコンボリューション演算を適用して一つ以上の学習用特徴テンソルを生成するようにするプロセス、(ii)前記学習用特徴テンソルを前記キーポイントヒートマップ−PAF抽出器に入力することにより、前記キーポイントヒートマップ−PAF抽出器をもって、前記学習用特徴テンソルそれぞれに対する学習用キーポイントヒートマップ及び学習用PAFを生成するようにするプロセス、(iii)前記学習用キーポイントヒートマップ及び前記学習用PAFをキーポイント検出装置に入力することにより、前記キーポイント検出装置をもって、前記学習用キーポイントヒートマップそれぞれから学習用キーポイントを抽出するようにし、前記学習用PAFそれぞれを参照して前記抽出された学習用キーポイントをグルーピングすることにより、前記トレーニングイメージ内の前記学習用物体それぞれに対応する各学習用物体別キーポイントを検出するプロセス、及び(iv)ロスレイヤをもって、前記各学習用物体別キーポイント及びこれに対応するGT(ground truth)を参照して一つ以上のロスを算出させることで、前記ロスを利用したバックプロパーゲーションによって前記ロスが最小化されるように前記特徴抽出ネットワーク及び前記キーポイントヒートマップ−PAF抽出器の一つ以上のパラメータを調整するプロセスを遂行した状態である請求項1に記載の方法。
- 車両の室内イメージ分析に基づいた乗客キーポイントを利用して車両占有を検出する車両占有検出装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記車両の前記室内イメージが取得されると、(i)前記室内イメージを特徴抽出ネットワークに入力することにより、前記特徴抽出ネットワークをもって、前記室内イメージにコンボリューション演算を適用して一つ以上の特徴テンソルを生成するようにし、(ii)前記特徴テンソルをキーポイントヒートマップ(keypoint heatmap)−PAF(part affinity field)抽出器に入力することにより、前記キーポイントヒートマップ−PAF抽出器をもって、前記特徴テンソルそれぞれに対するキーポイントヒートマップ及びPAFを生成するようにし、(iii)前記キーポイントヒートマップ及び前記PAFをキーポイント検出装置に入力することにより、前記キーポイント検出装置をもって、前記キーポイントヒートマップそれぞれからキーポイントを抽出するようにし、(iv)前記PAFそれぞれを参照して前記抽出されたキーポイントをグルーピング(grouping)することにより、前記室内イメージ内の乗客それぞれに対応する各乗客ごとにキーポイントを検出するプロセス、及び(II)前記各乗客別キーポイントを座席占有マッチャー(matcher)に入力することにより、前記座席占有マッチャーをもって、前記車両の座席それぞれの予め設定されたROI(Region Of Interest)と、前記各乗客別キーポイントとを参照してそれぞれの前記乗客をマッチング(matching)するようにして、前記車両占有を検出するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする車両点有検出装置。 - 前記(I)プロセスで、
前記プロセッサは、前記室内イメージを前記特徴抽出ネットワークに入力することにより、前記特徴抽出ネットワークをもって、多重コンボリューション演算を遂行する一つ以上のコンボリューションレイヤを含むコンボリューションブロックによる前記多重コンボリューション演算を前記室内イメージに適用するようにする請求項9に記載の車両点有検出装置。 - 前記(I)プロセスで、
前記プロセッサは、前記特徴テンソルを前記キーポイントヒートマップ−PAF抽出器に入力することにより、前記キーポイントヒートマップ−PAF抽出器をもって、FCN(fully convolutional network)または1x1コンボリューションレイヤによるコンボリューション演算を前記特徴テンソルに適用して、前記特徴テンソルに対する前記キーポイントヒートマップ及び前記PAFを生成するようにする請求項9に記載の車両点有検出装置。 - 前記(I)プロセスで、
前記プロセッサは、前記キーポイントヒートマップ及び前記PAFを前記キーポイント検出装置に入力することにより、前記キーポイント検出装置をもって、それぞれの前記キーポイントヒートマップ上の最も高い地点それぞれを、それぞれの前記キーポイントヒートマップに対応するそれぞれの前記キーポイントとして抽出するようにする請求項9に記載の車両点有検出装置。 - 前記プロセッサは、前記キーポイント検出装置をもって、前記PAFを参照して、前記抽出されたキーポイントのうちの連結される確率が最も高いキーポイント同士をペアにしてつなげることにより、前記抽出されたキーポイントをグルーピングする請求項12に記載の車両点有検出装置。
- 前記(II)プロセスで、
前記プロセッサは、前記座席占有マッチャーをもって、前記各乗客別キーポイントの平均ポイントそれぞれ及び前記各乗客別キーポイントの分散それぞれを算出するようにし、各前記座席の前記予め設定されたROIそれぞれに対して、(i)前記各乗客別キーポイント、(ii)前記各乗客別キーポイントの前記平均ポイントそれぞれ及び(iii)前記各乗客別キーポイントの分散それぞれが、少なくとも一つの予め設定された条件を満たしているか否かを確認し、それぞれの前記座席にそれぞれの前記乗客をマッチングさせる請求項9に記載の車両点有検出装置。 - 前記プロセッサは、前記座席占有マッチャーをもって、特定座席の特定ROIに対して、(i)特定乗客に対応する特定平均ポイントが前記特定ROI内に位置し、(ii)前記特定乗客に対応する特定分散が予め設定された第1閾値以下であり、(iii)前記特定ROI内に位置する前記特定乗客に対応する特定キーポイントの個数が予め設定された第2閾値以上である場合、前記特定座席に前記特定乗客をマッチングするようにする請求項14に記載の車両点有検出装置。
- 前記特徴抽出ネットワークと、前記キーポイントヒートマップ−PAF抽出器とは、学習装置により学習された状態であり、前記学習装置は、一つ以上の学習用物体を含む少なくとも一つのトレーニングイメージが取得されると、(i)前記トレーニングイメージを前記特徴抽出ネットワークに入力することにより、前記特徴抽出ネットワークをもって、前記トレーニングイメージにコンボリューション演算を適用して一つ以上の学習用特徴テンソルを生成するようにするプロセス、(ii)前記学習用特徴テンソルを前記キーポイントヒートマップ−PAF抽出器に入力することにより、前記キーポイントヒートマップ−PAF抽出器をもって、前記学習用特徴テンソルそれぞれに対する学習用キーポイントヒートマップ及び学習用PAFを生成するようにするプロセス、(iii)前記学習用キーポイントヒートマップ及び前記学習用PAFをキーポイント検出装置に入力することにより、前記キーポイント検出装置をもって、前記学習用キーポイントヒートマップそれぞれから学習用キーポイントを抽出するようにし、前記学習用PAFそれぞれを参照して前記抽出された学習用キーポイントをグルーピングすることにより、前記トレーニングイメージ内の前記学習用物体それぞれに対応する各学習用物体別キーポイントを検出するプロセス、及び(iv)ロスレイヤをもって、前記各学習用物体別キーポイント及びこれに対応するGT(ground truth)を参照して一つ以上のロスを算出させることで、前記ロスを利用したバックプロパーゲーションによって前記ロスが最小化されるように前記特徴抽出ネットワーク及び前記キーポイントヒートマップ−PAF抽出器の一つ以上のパラメータを調整するプロセスを遂行した状態である請求項9に記載の車両点有検出装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798981P | 2019-01-30 | 2019-01-30 | |
US62/798,981 | 2019-01-30 | ||
US16/721,957 | 2019-12-20 | ||
US16/721,957 US10635917B1 (en) | 2019-01-30 | 2019-12-20 | Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020121713A true JP2020121713A (ja) | 2020-08-13 |
JP6815613B2 JP6815613B2 (ja) | 2021-01-20 |
Family
ID=70332658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020005967A Active JP6815613B2 (ja) | 2019-01-30 | 2020-01-17 | 人の状態識別のためのイメージ分析により検出された乗客のポイントを利用して車両占有を検出する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10635917B1 (ja) |
EP (1) | EP3690713A1 (ja) |
JP (1) | JP6815613B2 (ja) |
KR (1) | KR102313123B1 (ja) |
CN (1) | CN111507156B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102510881B1 (ko) * | 2020-07-01 | 2023-03-16 | 주식회사 딥브레인에이아이 | 신경망 기반의 특징점 학습 장치 및 방법 |
CN113763467B (zh) * | 2021-01-04 | 2024-06-18 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、计算设备及介质 |
CN112699861B (zh) * | 2021-03-24 | 2021-06-22 | 杭州学谷智能科技有限公司 | 一种基于神经网络热点图的自然场景票据矫正方法 |
EP4125063A1 (en) * | 2021-07-29 | 2023-02-01 | Aptiv Technologies Limited | Methods and systems for occupancy class prediction and methods and systems for occlusion value determination |
CN116796021B (zh) * | 2023-08-28 | 2023-12-05 | 上海任意门科技有限公司 | 图像检索方法、***、电子设备和介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005535951A (ja) * | 2002-08-09 | 2005-11-24 | ユニヴェルシテ・ドゥ・シャーブルック | n−ピクセルに基づくと共に、代数学的位相幾何学で定義されたイメージモデル、及びそれに基づくアプリケーション |
JP2007502465A (ja) * | 2003-08-13 | 2007-02-08 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | 構造テンソルを利用して肺小結節及び大腸ポリープを検知する方法及びシステム |
JP2015219892A (ja) * | 2014-05-21 | 2015-12-07 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
JP2017138808A (ja) * | 2016-02-03 | 2017-08-10 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018506788A (ja) * | 2015-04-03 | 2018-03-08 | 三菱電機株式会社 | 物体の再同定の方法 |
JP6392478B1 (ja) * | 2018-04-26 | 2018-09-19 | 株式会社 ディー・エヌ・エー | 情報処理装置、情報処理プログラム、及び、情報処理方法 |
JP2019012497A (ja) * | 2017-07-03 | 2019-01-24 | 富士通株式会社 | 部位認識方法、装置、プログラム、及び撮像制御システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4075345B2 (ja) * | 2001-10-11 | 2008-04-16 | 日産自動車株式会社 | 自動巡航制御装置 |
JP2005014690A (ja) * | 2003-06-24 | 2005-01-20 | Ntt Data Corp | 車両状況推定方法、車両状況推定支援方法、車両状況推定装置および車両状況推定システム |
US9363483B2 (en) * | 2013-06-19 | 2016-06-07 | Xerox Corporation | Method for available parking distance estimation via vehicle side detection |
FR3019926B1 (fr) * | 2014-04-15 | 2017-08-18 | Esii | Procede et dispositif pour la detection d'occupation d'une zone, et procede et systeme de gestion de file d'attente mettant en œuvre de tels procede et dispositif |
JP7290567B2 (ja) * | 2016-11-07 | 2023-06-13 | ナウト,インコーポレイテッド | 運転者の注意散漫決定のためのシステム及び方法 |
JP6772786B2 (ja) * | 2016-11-25 | 2020-10-21 | アイシン精機株式会社 | 乗員検知装置および乗員検知プログラム |
US10068140B2 (en) * | 2016-12-02 | 2018-09-04 | Bayerische Motoren Werke Aktiengesellschaft | System and method for estimating vehicular motion based on monocular video data |
CN108229488B (zh) * | 2016-12-27 | 2021-01-01 | 北京市商汤科技开发有限公司 | 用于检测物体关键点的方法、装置及电子设备 |
JP2018149990A (ja) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 運転者の着座判定装置 |
JP2019040465A (ja) * | 2017-08-25 | 2019-03-14 | トヨタ自動車株式会社 | 行動認識装置,学習装置,並びに方法およびプログラム |
US10322728B1 (en) * | 2018-02-22 | 2019-06-18 | Futurewei Technologies, Inc. | Method for distress and road rage detection |
CN109190662A (zh) * | 2018-07-26 | 2019-01-11 | 北京纵目安驰智能科技有限公司 | 一种基于关键点回归的车辆三维检测方法、***、终端和存储介质 |
-
2019
- 2019-12-20 US US16/721,957 patent/US10635917B1/en active Active
-
2020
- 2020-01-06 KR KR1020200001717A patent/KR102313123B1/ko active IP Right Grant
- 2020-01-15 EP EP20151922.0A patent/EP3690713A1/en active Pending
- 2020-01-17 JP JP2020005967A patent/JP6815613B2/ja active Active
- 2020-01-19 CN CN202010057857.2A patent/CN111507156B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005535951A (ja) * | 2002-08-09 | 2005-11-24 | ユニヴェルシテ・ドゥ・シャーブルック | n−ピクセルに基づくと共に、代数学的位相幾何学で定義されたイメージモデル、及びそれに基づくアプリケーション |
JP2007502465A (ja) * | 2003-08-13 | 2007-02-08 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | 構造テンソルを利用して肺小結節及び大腸ポリープを検知する方法及びシステム |
JP2015219892A (ja) * | 2014-05-21 | 2015-12-07 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
JP2018506788A (ja) * | 2015-04-03 | 2018-03-08 | 三菱電機株式会社 | 物体の再同定の方法 |
JP2017138808A (ja) * | 2016-02-03 | 2017-08-10 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2019012497A (ja) * | 2017-07-03 | 2019-01-24 | 富士通株式会社 | 部位認識方法、装置、プログラム、及び撮像制御システム |
JP6392478B1 (ja) * | 2018-04-26 | 2018-09-19 | 株式会社 ディー・エヌ・エー | 情報処理装置、情報処理プログラム、及び、情報処理方法 |
Non-Patent Citations (2)
Title |
---|
CHANGHO SONG: "Robust Vehicle Occupant Detection based on RGB-Depth-thermal Camera", JOUNAL OF KOREA BOBOTICS SOCIETY, vol. vol.13, no.1,, JPN7020003984, 31 March 2018 (2018-03-31), pages 31 - 37, ISSN: 0004403333 * |
ZHE CAO: "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR2017), JPN7020003985, 14 April 2017 (2017-04-14), pages 7291 - 7299, XP055712609, ISSN: 0004403334, DOI: 10.1109/CVPR.2017.143 * |
Also Published As
Publication number | Publication date |
---|---|
CN111507156B (zh) | 2023-09-15 |
EP3690713A1 (en) | 2020-08-05 |
JP6815613B2 (ja) | 2021-01-20 |
CN111507156A (zh) | 2020-08-07 |
KR20200094642A (ko) | 2020-08-07 |
KR102313123B1 (ko) | 2021-10-18 |
US10635917B1 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102338757B1 (ko) | 사람의 상태 인식을 기반으로 신체 부위 길이 및 얼굴 정보를 사용하여 승객의 키 및 몸무게를 예측하는 방법 및 장치 | |
JP2020121713A (ja) | 人の状態識別のためのイメージ分析により検出された乗客のポイントを利用して車両占有を検出する方法及び装置 | |
Abouelnaga et al. | Real-time distracted driver posture classification | |
KR102321011B1 (ko) | V2v 연결을 통해 사람의 상태 인식을 활용해 검출된 운전자의 이상 상태를 경고하기 위한 방법 및 장치 | |
JP6443393B2 (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
US10474930B1 (en) | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same | |
US20030204384A1 (en) | High-performance sensor fusion architecture | |
US20220084316A1 (en) | Method and electronic device for recognizing abnormal sitting posture, and storage medium | |
US20190375312A1 (en) | Method and system for controlling a state of an occupant protection feature for a vehicle | |
KR20200095384A (ko) | 운전자 상태에 따라 맞춤형의 캘리브레이션을 위해 운전자 보조 장치를 자동으로 조정하는 방법 및 장치 | |
KR102349906B1 (ko) | 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치 | |
KR102338777B1 (ko) | 카메라를 이용한 차량 내부 인원 모니터링 방법 | |
KR20230135222A (ko) | 차량 승객 거동 추정 장치 및 방법 | |
KR20220073412A (ko) | 승객 모니터링 시스템 및 방법, 그리고 이를 이용한 승하차 인식 방법 | |
CN117373002A (zh) | 乘坐乘客身高估计 | |
KR20210074037A (ko) | 차량 탑승자 정보 획득 방법 및 이를 지원하는 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6815613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |