JP7446903B2 - 画像処理装置、画像処理方法及び画像処理システム - Google Patents
画像処理装置、画像処理方法及び画像処理システム Download PDFInfo
- Publication number
- JP7446903B2 JP7446903B2 JP2020076511A JP2020076511A JP7446903B2 JP 7446903 B2 JP7446903 B2 JP 7446903B2 JP 2020076511 A JP2020076511 A JP 2020076511A JP 2020076511 A JP2020076511 A JP 2020076511A JP 7446903 B2 JP7446903 B2 JP 7446903B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- channel image
- channel
- network
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 119
- 238000003672 processing method Methods 0.000 title claims description 12
- 238000001514 detection method Methods 0.000 claims description 106
- 238000012549 training Methods 0.000 claims description 42
- 230000015572 biosynthetic process Effects 0.000 claims description 20
- 238000003786 synthesis reaction Methods 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 238000010191 image analysis Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 29
- 238000000034 method Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 20
- 238000000605 extraction Methods 0.000 description 18
- 239000002131 composite material Substances 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 239000000203 mixture Substances 0.000 description 14
- 239000000284 extract Substances 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 8
- 230000002194 synthesizing effect Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008867 communication pathway Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
オブジェクト検出の手段の一つとして、深層学習を用いたオブジェクト検出用ニューラルネットワークが知られている。オブジェクト検出用ニューラルネットワークを用いることにより、対象の画像に写っているそれぞれのオブジェクトのカテゴリー及び領域を高精度で判定することが可能となり、これらのオブジェクト検出用ニューラルネットワークが様々な分野に適用されている。
カスケードされた分類子に適用することで、テスト画像に人間が含まれているかどうかを判断する。」技術が記載されている。
上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。
図面において示す各構成要素の数、種類、形式、構成などは、発明の理解を容易にするため、実際の数、種類、形式、構成などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された数、種類、形式、構成等に限定されない。
また、ここでのプログラムは、プログラムソースからコンピュータにインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、実施例において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
(ハードウェア構成)
クライアント端末215A、215Bは、個人に利用される端末であってもよく、警察署や民間企業等の組織における端末であってもよい。また、クライアント端末215A、215Bは、例えば、デスクトップパソコン、ノートパソコン、タブレット、スマートフォン等、任意のデバイスであってもよい。
図2に示すように、画像処理システム200は、2つのセンサ225A、225Bを含んでもよいが、本発明はこれに限定されず、センサの数及び種類は画像処理システム200の使用目的に応じて適宜に選択されてもよい。従って、センサ225A、225Bが同じ種類のセンサであってもよく、互いに異なるセンサであってもよい。例えば、センサ225AがRGB画像を取得することができるカメラであり、センサ225Bが赤外線画像を取得するカメラとする構成も可能である。
また、画像処理システム200は、図2に示すような2つのセンサを有する構成だけでなく、複数の異なる種類の画像を取得することができる単独のセンサを有する構成とすることも可能である。一例として、画像処理システム200は、RGB画像を取得するモードと、赤外線画像を取得するモードとの間で動的に切り替えることが可能なセンサを含んでもよい。
図2に示すように、画像処理装置205は、受付部210と、画像生成部220と、画像合成部230と、画像分析部240と、画像合わせ部245と、オブジェクト検出ネットワーク255を格納するストレージ部250とを含む。
なお、ここでのM、N、及びKは、画像のチャンネル数を表す数字であり、画像の種類によって定められる。M及びNは互いに異なる数字であってもよく、画像の種類によっては、同一の数字であってもよい。例えば、RGB画像の場合、チャンネル数が3(赤、緑、青)であり、赤外線画像の場合、チャンネル数が1つのみである。以下では、Mチャンネル画像がRGBの3チャンネル画像であり、Nチャンネル画像が赤外線の1チャンネル画像であり、Kチャンネル画像がRGB画像及びNチャンネル画像を合成することによって得られる3チャンネルの画像である場合を一例として説明するが、本発明はこれに限定されず、Mチャンネル画像及びNチャンネル画像の種類及びチャンネル数はRGB-D画像、レントゲン画像、熱画像等、任意の種類の画像であってもよい。
このような構成によれば、画像生成部220は、特定のチャンネル数の画像を、別のチャンネル数の画像に変換するように訓練されてもよい。これにより、画像生成部220は、例えばRGB画像のような3チャンネル画像を入力し、当該RGB画像を赤外線画像のような1チャンネル画像に変換した新たな赤外線画像を生成することができる。
ここで、Mチャンネル画像とNチャンネル画像とを合成するためには、画像合成部230は、Mチャンネル画像(RGB画像)から色調成分を抽出し、Nチャンネル画像(赤外線画像)からエッジ成分及び階調成分を抽出し、抽出された各成分を用いて合成することでKチャンネル画像を生成してもよい。
画像合成部230は、例えばRGB画像及び赤外線画像を合成した合成画像を生成することで、低照度の環境においても、輪郭が鮮明で色鮮やかな画像を生成できる。
本発明の実施形態に係るオブジェクト検出ネットワーク255は、例えば、畳み込みニューラルネットワーク(CNN、R-CNN、Faster-RCNN等)であってもよい。
上述した構成によれば、異なるチャンネル数の画像を合成し、この合成した画像を用いてオブジェクト検出用ニューラルネットワークを訓練することで、様々な照明条件の環境の画像に対して良好なオブジェクト検出結果を生成することができる。
上述したように、ここでの画像生成部は、例えば生成ネットワークと、識別ネットワークとを含む敵対的生成ネットワークであってもよい。この敵対的生成ネットワークの詳細については後述する。
Kチャンネル画像を入力した後、当該Kチャンネル画像に対するオブジェクト検出処理を施し、Kチャンネル画像におけるそれぞれのオブジェクトのカテゴリー及び空間的領域(座標等)に関する情報を含む検出結果情報を出力する。その後、この画像分析部は、当該検出結果情報と、当該Kチャンネル画像に対する正しいオブジェクト検出結果を示すグラウンドトゥルースとを比較することにより、オブジェクト検出結果のグラウンドトゥルースに対する損失を計算する。ここで計算した損失をオブジェクト検出ネットワークにバックプロパゲーションし、オブジェクト検出ネットワークの各層のパラメータをグラウンドトゥルースにより類似するオブジェクト検出結果を生成するように最適化することにより、オブジェクト検出ネットワークが訓練され、オブジェクト検出精度を向上させることができる。
また、ここでの第2のMチャンネル画像及び第2のNチャンネル画像の構図は実質的に同様である。例えば、第2のMチャンネル画像及び第2のNチャンネル画像は、同じ被写体を同時に撮影したRGBカメラの画像と赤外線画像カメラの画像であってもよい。
一例として、画像合成部は、第2のMチャンネル画像から第1の特徴セットを抽出し、第2のNチャンネル画像から第2の特徴セットを抽出した後、第1の特徴セットと第2の特徴セットを合成することで、第2のNチャンネル画像及び第2のMチャンネル画像の両方の特徴を含む第2のKチャンネル画像を生成してもよい。この第2のKチャンネル画像は、第2のNチャンネル画像及び第2のMチャンネル画像の両方の特徴を含むため、第2のNチャンネル画像及び第2のMチャンネル画像をそれぞれ個別にオブジェクト検出ネットワークで分析した場合に比べて、より精度の高い検出結果を生成することができる。
一方、赤外線カメラは、RGB画像に比べて、暗い撮影環境に関するより多くの詳細な画像情報を取得することができる。従って、RGB画像及び赤外線画像を合成し、RGB画像及び赤外線画像の両方の特徴を含む画像を用いてオブジェクト検出ネットワークを訓練することで、様々な照明条件下で撮影された画像に対して高精度なオブジェクト検出結果を提供することができる。
以下、画像処理装置をRGB画像及び赤外線画像に適用した場合の訓練段階について説明する。
なお、図7に示す論理構成700は、図5に示す論理構成500に実質的に対応するため、繰り返しとなる説明は省略する。
図8は、図7に示すように訓練されたオブジェクト検出ネットワークを用いて、RGB画像及赤外線画像を合成した画像に対してオブジェクト検出処理を施す場合の一例を示す。
なお、図8に示す論理構成800は、図6に示す論理構成600に実質的に対応するため、繰り返しとなる説明は省略する。
これにより、例えば暗い照明条件下で撮影された画像に対してオブジェクト検出を行う場合であっても、良好なオブジェクト検出結果を生成することができる。
以下、画像処理装置が特徴抽出ネットワークを用いて画像合成を行う場合の一例について説明する。
なお、図9に示す論理構成900は、図5に示す論理構成500に実質的に対応するため、繰り返しとなる説明は省略する。
なお、以降の処理は上述した図5等の処理と実質的に対応するため、ここではその説明は省略する。
なお、以降の処理は上述した図6等の処理と実質的に対応するため、ここではその説明は省略する。
図11に示すように、事前に用意されている訓練用画像データベース等(図示せず)から取得されたRGB画像1110がOpenpose等の特徴点推定モジュール1135Aに入力される。また、このRGB画像1110に基づいて画像生成部220によって生成される赤外線画像1120が画像次元調整の処理を受け、Openpose等の特徴点推定モジュール1135Bが受け付ける3チャンネルの画像に変換される。ここで、1チャンネルの赤外線画像1120を3チャンネルの画像に変換するためには、赤外線画像の1チャンネルの情報を3チャンネルになるように複製してもよい。
なお、ここでの画像合成部230は、いわゆるFeature Fusion Networkであってもよい。
また、以降の処理は上述した図5等の処理と実質的に対応するため、ここではその説明は省略する。
図12に示すように、推論段階では、RGBカメラ1225Aから取得されたRGB画像1210及び赤外線カメラ1225Bから取得された赤外線画像1220は、画像合わせ処理1226を受けた後、Openpose等の特徴点推定モジュール1235A、1235Bに入力される。
上述したように、RGB画像1210及び赤外線画像1220は、例えば、実質的に同一の構図を有し、同一の被写体を含む画像である。
なお、ここでのNは、例えば、ユーザによって設定されてもよい。
また、ここでの乖離度とは、生成ネットワーク1320によって生成された候補画像とグラウンドトゥルースとの差を定量的に示す尺度であり、既存の損失計算法によって算出されてもよい。
ここでの所定の乖離度基準は、例えば、乖離度の許容上限を示す値であり、この上限以下の乖離度を満たす(つまり、グラウンドトゥルース1315と類似度が高い)画像は、Nチャンネル画像1350として出力される。
以下、画像合わせ部245について説明する。
上述したように、この段階では、第2のMチャンネル画像1405を取得したセンサと、第2のNチャンネル画像1410を取得したセンサとの空間的関係によって、第2のMチャンネル画像と第2のNチャンネル画像の視点が互いにずれていることがある。
210 受付部
215A、B クライアント端末
220 画像生成部
225A、B センサ
230 画像合成部
235 ネットワーク
240 画像分析部
245 画像合わせ部
250 ストレージ部
255 オブジェクト検出ネットワーク
Claims (7)
- 画像処理装置であって、
第1のMチャンネル画像と、前記第1のMチャンネル画像を敵対的生成ネットワークによって処理することで生成した第1のNチャンネル画像とから生成される第1のKチャンネル画像を用いて訓練されるオブジェクト検出用ニューラルネットワークを格納するストレージ部と、
同一の被写体を含む第2のMチャンネル画像及び第2のNチャンネル画像とをセンサから受信する受付部と、
前記第1のKチャンネル画像を用いて訓練されたオブジェクト検出用ニューラルネットワークを用いて、前記第2のMチャンネル画像と前記第2のNチャンネル画像とから生成される第2のKチャンネル画像に対するオブジェクト検出結果情報を生成し、出力する画像分析部と、
前記第1のMチャンネル画像に基づいて、前記第1のNチャンネル画像の候補画像を生成する生成ネットワークと、
前記候補画像を、前記第1のNチャンネル画像のグラウンドトゥルースに比較することにより、前記候補画像の前記グラウンドトゥルースに対する乖離度を判定し、所定の乖離度基準を満たす候補画像を、前記第1のNチャンネル画像として出力する識別ネットワークと、
を備える敵対的生成ネットワークからなる画像合成部と、
を含むことを特徴とする画像処理装置。 - 前記画像合成部は、
同一の被写体を含むMチャンネル画像及びNチャンネル画像とを合成することで、Kチャンネル画像を生成する、
ことを特徴とする、請求項1に記載の画像処理装置。 - 前記画像合成部は、
前記Mチャンネル画像から抽出された第1の特徴セットと、
前記Nチャンネル画像から抽出された第2の特徴セットと、
を合成することで前記Kチャンネル画像を生成する、
ことを特徴とする、請求項2に記載の画像処理装置。 - 前記Mチャンネル画像及び前記Nチャンネル画像は、
RGB画像、RGB-D画像、赤外線画像、レントゲン画像、及び熱画像から選択されるものである、
ことを特徴とする、請求項2に記載の画像処理装置。 - 画像処理方法であって、
第1のMチャンネル画像を取得する工程と、
敵対的生成ネットワークの生成ネットワークを用いて、前記第1のMチャンネル画像に基づいて、第1のNチャンネル画像の候補画像を生成する工程と、
前記敵対的生成ネットワークの識別ネットワークを用いて、前記候補画像を、前記第1のNチャンネル画像のグラウンドトゥルースに比較することにより、前記候補画像の前記グラウンドトゥルースに対する乖離度を判定する工程と、
前記敵対的生成ネットワークの前記識別ネットワークを用いて、所定の乖離度基準を満たす候補画像を、前記第1のNチャンネル画像として出力する工程と、
前記第1のMチャンネル画像と、前記第1のNチャンネル画像とを合成し、第1のKチャンネル画像を生成する工程と、
前記第1のKチャンネル画像を用いて、オブジェクト検出用のニューラルネットワークを訓練する工程と、
同一の被写体を含む第2のMチャンネル画像及び第2のNチャンネル画像とを取得する工程と、
前記第2のMチャンネル画像と、前記第2のNチャンネル画像とを合成し、第2のKチャンネル画像を生成する工程と、
前記第1のKチャンネル画像を用いて訓練された前記オブジェクト検出用のニューラルネットワークを用いて、前記第2のKチャンネル画像に対するオブジェクト検出結果情報を生成し、出力する工程と、
を含むことを特徴とする画像処理方法。 - 前記第2のMチャンネル画像と、前記第2のNチャンネル画像とを合成し、第2のKチャンネル画像を生成する工程は、
前記第2のMチャンネル画像から第1の特徴セットを抽出する工程と、
前記第2のNチャンネル画像から第2の特徴セットを抽出する工程と、
前記第1の特徴セットと、前記第2の特徴セットとを合成することで前記第2のKチャンネル画像を生成する、
ことを特徴とする、請求項5に記載の画像処理方法。 - クライアント端末と、センサと、画像処理装置とが通信ネットワークを介して接続されている画像処理システムであって、
前記画像処理装置は、
第1のMチャンネル画像と、前記第1のMチャンネル画像を敵対的生成ネットワークによって処理することで生成した第1のNチャンネル画像とから生成される第1のKチャンネル画像を用いて訓練されるオブジェクト検出用ニューラルネットワークを格納するストレージ部と、
同一の被写体を含む第2のMチャンネル画像及び第2のNチャンネル画像とを前記センサから受信する受付部と、
前記第1のKチャンネル画像を用いて訓練されたオブジェクト検出用ニューラルネットワークを用いて、前記第2のMチャンネル画像と前記第2のNチャンネル画像とから生成される第2のKチャンネル画像に対するオブジェクト検出結果情報を生成し、前記クライアント端末に出力する画像分析部と、
前記第1のMチャンネル画像に基づいて、前記第1のNチャンネル画像の候補画像を生成する生成ネットワークと、
前記候補画像を、前記第1のNチャンネル画像のグラウンドトゥルースに比較することにより、前記候補画像の前記グラウンドトゥルースに対する乖離度を判定し、所定の乖離度基準を満たす候補画像を、前記第1のNチャンネル画像として出力する識別ネットワークと、
を備える敵対的生成ネットワークからなる画像合成部と、
を含むことを特徴とする画像処理システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020076511A JP7446903B2 (ja) | 2020-04-23 | 2020-04-23 | 画像処理装置、画像処理方法及び画像処理システム |
US17/203,785 US11954600B2 (en) | 2020-04-23 | 2021-03-17 | Image processing device, image processing method and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020076511A JP7446903B2 (ja) | 2020-04-23 | 2020-04-23 | 画像処理装置、画像処理方法及び画像処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174183A JP2021174183A (ja) | 2021-11-01 |
JP7446903B2 true JP7446903B2 (ja) | 2024-03-11 |
Family
ID=78222380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020076511A Active JP7446903B2 (ja) | 2020-04-23 | 2020-04-23 | 画像処理装置、画像処理方法及び画像処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11954600B2 (ja) |
JP (1) | JP7446903B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11861896B1 (en) * | 2021-03-31 | 2024-01-02 | Skydio, Inc. | Autonomous aerial navigation in low-light and no-light conditions |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022547769A (ja) | 2019-09-11 | 2022-11-16 | グーグル エルエルシー | 機械学習を用いた画像カラー化 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070237387A1 (en) | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
US9754182B2 (en) * | 2015-09-02 | 2017-09-05 | Apple Inc. | Detecting keypoints in image data |
WO2020206362A1 (en) * | 2019-04-04 | 2020-10-08 | Inscopix, Inc. | Multi-modal microscopic imaging |
US10013765B2 (en) * | 2016-08-19 | 2018-07-03 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for image registrations |
US10916001B2 (en) * | 2016-11-28 | 2021-02-09 | Adobe Inc. | Facilitating sketch to painting transformations |
US10748062B2 (en) * | 2016-12-15 | 2020-08-18 | WaveOne Inc. | Deep learning based adaptive arithmetic coding and codelength regularization |
US10713537B2 (en) * | 2017-07-01 | 2020-07-14 | Algolux Inc. | Method and apparatus for joint image processing and perception |
US10989779B2 (en) * | 2017-09-29 | 2021-04-27 | Yonsei University, University - Industry Foundation (UIF) | Apparatus and method for reconstructing magnetic resonance image using learning, and under-sampling apparatus method and recording medium thereof |
CN107767408B (zh) * | 2017-11-09 | 2021-03-12 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
US10719742B2 (en) * | 2018-02-15 | 2020-07-21 | Adobe Inc. | Image composites using a generative adversarial neural network |
US10223611B1 (en) * | 2018-03-08 | 2019-03-05 | Capital One Services, Llc | Object detection using image classification models |
WO2019209276A1 (en) * | 2018-04-25 | 2019-10-31 | Hewlett-Packard Development Company, L.P. | Identifying differences between images |
WO2019237240A1 (zh) * | 2018-06-12 | 2019-12-19 | 中国科学院深圳先进技术研究院 | 一种增强型生成式对抗网络以及目标样本识别方法 |
WO2020051776A1 (en) * | 2018-09-11 | 2020-03-19 | Intel Corporation | Method and system of deep supervision object detection for reducing resource usage |
US10929676B2 (en) * | 2018-11-01 | 2021-02-23 | Microsoft Technology Licensing, Llc | Video recognition using multiple modalities |
US10810725B1 (en) * | 2018-12-07 | 2020-10-20 | Facebook, Inc. | Automated detection of tampered images |
US10776673B2 (en) * | 2019-01-31 | 2020-09-15 | StradVision, Inc. | Learning method and learning device for sensor fusion to integrate information acquired by radar capable of distance estimation and information acquired by camera to thereby improve neural network for supporting autonomous driving, and testing method and testing device using the same |
US10817777B2 (en) * | 2019-01-31 | 2020-10-27 | StradVision, Inc. | Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same |
AU2020224659A1 (en) * | 2019-02-20 | 2021-09-23 | Bluerock Therapeutics Lp | Detecting cells of interest in large image datasets using artificial intelligence |
CN109919888B (zh) * | 2019-02-26 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
US10853642B2 (en) * | 2019-03-22 | 2020-12-01 | Advanced New Technologies Co., Ltd. | Fusing multi-spectral images for identity authentication |
CN115442515B (zh) * | 2019-03-25 | 2024-02-02 | 华为技术有限公司 | 图像处理方法和设备 |
JP7167832B2 (ja) * | 2019-04-19 | 2022-11-09 | 日本電信電話株式会社 | 画像変換装置、画像変換モデル学習装置、方法、及びプログラム |
JP7491041B2 (ja) * | 2019-05-22 | 2024-05-28 | 富士通株式会社 | 画像コーディング装置、確率モデル生成装置及び画像デコーディング装置 |
CN110188776A (zh) * | 2019-05-30 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像处理方法及装置、神经网络的训练方法、存储介质 |
CN110211205B (zh) * | 2019-06-14 | 2022-12-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备和存储介质 |
CN110232696B (zh) * | 2019-06-20 | 2024-03-08 | 腾讯科技(深圳)有限公司 | 一种图像区域分割的方法、模型训练的方法及装置 |
GB201910720D0 (en) * | 2019-07-26 | 2019-09-11 | Tomtom Global Content Bv | Generative adversarial Networks for image segmentation |
CN110599395B (zh) * | 2019-09-17 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 目标图像生成方法、装置、服务器及存储介质 |
CN110838133B (zh) * | 2019-09-27 | 2020-11-24 | 深圳云天励飞技术有限公司 | 多目标跟踪方法及相关设备 |
CN112219224B (zh) * | 2019-12-30 | 2024-04-26 | 商汤国际私人有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN111291885B (zh) * | 2020-01-20 | 2023-06-09 | 北京百度网讯科技有限公司 | 近红外图像的生成方法、生成网络的训练方法和装置 |
KR102144320B1 (ko) * | 2020-02-13 | 2020-08-13 | 주식회사 에어스 메디컬 | 자기 공명 영상 처리 장치 및 그 방법 |
US11475714B2 (en) * | 2020-02-19 | 2022-10-18 | Motorola Solutions, Inc. | Systems and methods for detecting liveness in captured image data |
CN111311629B (zh) * | 2020-02-21 | 2023-12-01 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置及设备 |
US11210831B2 (en) * | 2020-02-28 | 2021-12-28 | Adobe Inc. | Depicting humans in text-defined outfits |
CN115210751A (zh) * | 2020-03-04 | 2022-10-18 | 奥林巴斯株式会社 | 学习数据生成***以及学习数据生成方法 |
US11455793B2 (en) * | 2020-03-25 | 2022-09-27 | Intel Corporation | Robust object detection and classification using static-based cameras and events-based cameras |
CN111598133B (zh) * | 2020-04-22 | 2022-10-14 | 腾讯医疗健康(深圳)有限公司 | 基于人工智能的图像显示方法、装置、***、设备及介质 |
EP4139838A4 (en) * | 2020-04-23 | 2023-12-06 | Nokia Technologies Oy | METHOD AND DEVICE FOR 3D OBJECT RECOGNITION |
-
2020
- 2020-04-23 JP JP2020076511A patent/JP7446903B2/ja active Active
-
2021
- 2021-03-17 US US17/203,785 patent/US11954600B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022547769A (ja) | 2019-09-11 | 2022-11-16 | グーグル エルエルシー | 機械学習を用いた画像カラー化 |
Non-Patent Citations (2)
Title |
---|
Ivana Shopovska et al.,Deep Visible and Thermal Image Fusion for Enhanced Pedestrian Visibility,Sensors 2019, 19 ,3727,2019年08月28日,https://www.mdpi.com/1424-8220/19/17/3727 |
S. Cygert et al.,Style Transfer for Detecting Vehicles with Thermal Camera,2019 Signal Processing: Algorithms, Architectures, Arrangements, and Applications (SPA),2019年09月20日,https://ieeexplore.ieee.org/abstract/document/8936707 |
Also Published As
Publication number | Publication date |
---|---|
JP2021174183A (ja) | 2021-11-01 |
US20210334580A1 (en) | 2021-10-28 |
US11954600B2 (en) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Putting people in their place: Monocular regression of 3d people in depth | |
Pavlakos et al. | Expressive body capture: 3d hands, face, and body from a single image | |
Gao et al. | 6d object pose regression via supervised learning on point clouds | |
Jackson et al. | 3d human body reconstruction from a single image via volumetric regression | |
Sheikh et al. | Exploring the space of a human action | |
Wang et al. | Action recognition from depth maps using deep convolutional neural networks | |
Tan et al. | Face detection and verification using lensless cameras | |
US20210056701A1 (en) | Method of image processing using a neural network | |
Liu et al. | A cross-modal adaptive gated fusion generative adversarial network for RGB-D salient object detection | |
WO2018228218A1 (zh) | 身份识别方法、计算设备及存储介质 | |
Nazir et al. | SemAttNet: Toward attention-based semantic aware guided depth completion | |
US10204423B2 (en) | Visual odometry using object priors | |
CN110599395A (zh) | 目标图像生成方法、装置、服务器及存储介质 | |
EP4030381A1 (en) | Artificial-intelligence-based image processing method and apparatus, and device and storage medium | |
Tekin et al. | Fusing 2d uncertainty and 3d cues for monocular body pose estimation | |
JP2020525958A (ja) | 画像処理システム及び画像処理方法 | |
Li et al. | Action recognition from depth sequence using depth motion maps-based local ternary patterns and CNN | |
Al-Dhabi et al. | Deepfake video detection by combining convolutional neural network (cnn) and recurrent neural network (rnn) | |
JP2023521270A (ja) | 多様なポートレートから照明を学習すること | |
Liu et al. | Aurora guard: Real-time face anti-spoofing via light reflection | |
US20240096134A1 (en) | Action Recognition System and Method | |
JP7446903B2 (ja) | 画像処理装置、画像処理方法及び画像処理システム | |
Véges et al. | Multi-person absolute 3D human pose estimation with weak depth supervision | |
CN116977463A (zh) | 图像处理方法、装置、计算机设备、存储介质及产品 | |
Nguyen et al. | Combined YOLOv5 and HRNet for high accuracy 2D keypoint and human pose estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7446903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |