JP7292657B2 - データ処理方法、データ処理装置、コンピュータプログラム及び電子装置 - Google Patents
データ処理方法、データ処理装置、コンピュータプログラム及び電子装置 Download PDFInfo
- Publication number
- JP7292657B2 JP7292657B2 JP2021541499A JP2021541499A JP7292657B2 JP 7292657 B2 JP7292657 B2 JP 7292657B2 JP 2021541499 A JP2021541499 A JP 2021541499A JP 2021541499 A JP2021541499 A JP 2021541499A JP 7292657 B2 JP7292657 B2 JP 7292657B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- target
- processing
- neural network
- feature information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
ここで説明する図面は、本出願のさらなる理解を提供し、本出願の一部を構成する。本出願の例示的な実施例及び説明は、本出願を説明するためのもので、本出願の不適切な制限を構成するものではない。
S202、ターゲットシーケンスデータを取得し、ターゲットシーケンスデータは、時系列にソートされたN組のデータを含む。
S204、N組のデータのうち各組のデータにおける各データをターゲットニューラルネットワークモデルに順に入力し、各組のデータにおける各データがターゲットニューラルネットワークモデルに入力される場合、現在の組のデータにおける現在データと見なされ、ターゲットニューラルネットワークモデルが現在データを処理するプロセスでは、現在の組のデータの一つ前の組のデータ、ターゲットニューラルネットワークモデルを使用して一つ前の組のデータにおける各データを処理して取得した一つ前の組の処理結果、及びターゲットニューラルネットワークモデルを使用して現在データの1つ前のデータを処理して取得した1つ前の処理結果に従って、現在データを処理する。
S206、ターゲットニューラルネットワークモデルが出力するデータ処理結果を取得する。
(1)非ローカル循環メモリユニット(Memory)
非ローカル循環メモリユニットは、各シーケンスデータセグメント(メモリブロック)の異なるタイムステップでのターゲットニューラルネットワークモデル(例えば、LSTM)の隠れ状態間の高次の相互作用を学習できる。同時に、ゲートループの方式でメモリブロック間のグローバルインタラクションをモデリングする。各メモリブロックで学習されたメモリ状態は、将来のタイムステップに作用され、ターゲットニューラルネットワークモデル(例えば、LSTM)の隠れ状態を調整して、より優れた特徴表現を取得する。
まず、一つ前の組のデータ(入力、inputs、xt-s…xt…xt+s)と一つ前の組の処理結果(出力、隠れ状態、hiddens、ht-s…ht…ht+s)を自己注意モデルに入力し、
非ローカル循環メモリユニットをLSTMなどの現在のシーケンスデータ処理モデルに埋め込んで、現在のシーケンスデータ処理モデルの長いシーケンスデータモデリング能力を改善する。
(1)ターゲットシーケンスデータを取得するための通信モジュール1102であって、前記ターゲットシーケンスデータは、時系列にソートされたN組のデータを含み、前記Nが1より大きい通信モジュール1102と、
(2)前記N組のデータのうち第i組のデータ、ターゲットニューラルネットワークモデルの前記第i組のデータへの処理結果、及び前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して、前記第i+1組のデータにおけるj+1番目のデータを処理し、前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおける前記j+1番目のデータの処理結果を取得するための処理モジュール1104であって、前記iは1以上N未満であり、前記jは1以上Q未満であり、前記Qは前記第i+1組のデータにおけるデータの数である処理モジュール1104を含む。
(1)ターゲット処理モデルにおけるターゲット自己注意モデルを使用して、前記N組のデータのうち第i組のデータ及び前記ターゲットニューラルネットワークモデルの前記第i組のデータへの処理結果を処理し、第2の特徴情報を取得するための第1の処理ユニットと、
(2)ターゲット処理モデルにおける第1のゲートを使用して、前記第2の特徴情報及び第3の特徴情報を処理し、第1の特徴情報を取得するための第2の処理ユニットであって、前記第1の特徴情報は、前記第i+1組のデータの組内特徴情報であり、前記第3の特徴情報は、前記第i組のデータの組内特徴情報であり、前記第1のゲートは、前記第2の特徴情報の前記第1の特徴情報として出力される割合、及び前記第3の特徴情報の前記第1の特徴情報として出力される割合を制御する第2の処理ユニットと、
(3)前記第1の特徴情報と、前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して前記第i+1組のデータにおけるj+1番目のデータを処理するための第3の処理ユニットとを含む。
第2のゲートを使用して、前記第1の特徴情報と前記第i+1組のデータにおけるj+1番目のデータを処理し、ターゲットパラメータを取得し、前記第2のゲートは、前記第1の特徴情報の前記ターゲットパラメータとして出力される割合及び前記j+1番目のデータの前記ターゲットパラメータとして出力される割合を制御し、
前記ターゲットニューラルネットワークモデルを使用して、前記ターゲットパラメータを処理する。
ターゲットシーケンスデータを取得した後、ターゲットスライディングウィンドウを使用して、ターゲットステップサイズに応じて、ターゲットシーケンスデータをスライドし、N組のデータを取得するためのスライドモジュールをさらに含む。
ターゲットビデオデータを取得し、前記ターゲットビデオデータは、時系列にソートされたN組のビデオフレームグループを含み、前記ターゲットビデオデータは、前記ターゲットビデオデータ内のターゲットオブジェクトにより実行されるアクションを認識するためのものであり、
上記の装置は、第1の決定モジュールをさらに含み、
第1の決定モジュールは、前記N組のビデオフレームグループにおける少なくとも1つのビデオフレームグループの少なくとも一つのフレームビデオフレームへの処理結果に従って、第1の確率情報を決定し、第1の確率情報はターゲットオブジェクトにより実行されるアクションがそれぞれ参照アクションセットにおける各参照アクションである確率を示し、第1の確率情報に従って、ターゲットオブジェクトにより実行されるアクションが参照アクションセットにおけるターゲットアクションでありと決定する。
ターゲットテキストデータを取得し、前記ターゲットテキストデータは、少なくとも1つのセンテンスを含み、前記少なくとも1つのセンテンスは、前後順序を有するN個のフレーズを含み、前記ターゲットテキストデータは、前記ターゲットテキストデータが表す感情タイプを認識するためのものであり、
上記の装置は、第2の決定モジュールをさらに含み、
第2の決定モジュールは、前記N個のフレーズのうち少なくとも1つのフレーズにおける少なくとも1つの単語の処理結果に従って、第2の確率情報を決定し、第2の確率情報は、ターゲットテキストデータの表す感情タイプがそれぞれ参照感情タイプセットにおける各参照感情タイプである確率を示し、第2の確率情報に従って、ターゲットテキストデータの表す感情タイプが参照感情タイプセットにおけるターゲット感情タイプであると決定する。
S1、ターゲットシーケンスデータを取得し、前記ターゲットシーケンスデータは、時系列でソートされたN組のデータを含み、前記Nが1より大きい。
S2、前記N組のデータのうち第i組のデータ、ターゲットニューラルネットワークモデルの前記第i組のデータへの処理結果、及び前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して、前記第i+1組のデータにおけるj+1番目のデータを処理し、前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおける前記j+1番目のデータへの処理結果を取得し、前記iは1以上N未満であり、前記jは1以上Q未満であり、前記Qは前記第i+1組のデータにおけるデータの数である。
前記N組のデータのうち第i組のデータ、ターゲットニューラルネットワークモデルの前記第i組のデータへの処理結果、及び前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して、前記第i+1組のデータにおけるj+1番目のデータを処理し、前記ターゲットニューラルネットワークモデルの前記第i+1組のデータにおける前記j+1番目のデータへの処理結果を取得し、前記iは1以上N未満であり、前記jは1以上Q未満であり、前記Qは前記第i+1組のデータにおけるデータの数である。
104 ネットワーク
106 サーバー
1102 通信モジュール
1104 処理モジュール
1202 プロセッサー
1204 メモリ
1206 伝送装置
Claims (8)
- サーバーによって実行されるデータ処理方法であって、
ターゲットシーケンスデータを取得するステップであって、前記ターゲットシーケンスデータは、時系列でソートされたN組のデータを含み、前記Nが1より大きいステップと、
前記N組のデータのうち第i組のデータ、ターゲットニューラルネットワークモデルによる前記第i組のデータへの処理結果、及び前記ターゲットニューラルネットワークモデルによる第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して前記第i+1組のデータにおけるj+1番目のデータを処理し、前記ターゲットニューラルネットワークモデルによる前記第i+1組のデータにおける前記j+1番目のデータへの処理結果を取得するステップであって、前記iは1以上N未満であり、前記jは1以上Q未満であり、前記Qは前記第i+1組のデータにおけるデータの数であり、
ターゲット処理モデルにおけるターゲット自己注意モデルを使用して、前記N組のデータのうち第i組のデータ及び前記ターゲットニューラルネットワークモデルによる前記第i組のデータへの処理結果を処理し、第2の特徴情報を取得するステップと、
前記ターゲット処理モデルにおける第1のゲートを使用して、前記第2の特徴情報及び第3の特徴情報を処理し、第1の特徴情報を取得するステップであって、前記第1の特徴情報は、前記第i+1組のデータの組内特徴情報であり、前記第3の特徴情報は、前記第i組のデータの組内特徴情報であり、前記第1のゲートは、前記第2の特徴情報の前記第1の特徴情報として出力される割合、及び前記第3の特徴情報の前記第1の特徴情報として出力される割合を制御するステップと、
前記第1の特徴情報、及び前記ターゲットニューラルネットワークモデルによる前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して、前記第i+1組のデータにおけるj+1番目のデータを処理するステップと
を含むステップと、
を含む方法。 - 前記第1の特徴情報、及び前記ターゲットニューラルネットワークモデルによる前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して、前記第i+1組のデータにおけるj+1番目のデータを処理する前記ステップは、
第2のゲートを使用して、前記第1の特徴情報及び前記第i+1組のデータにおけるj+1番目のデータを処理し、ターゲットパラメータを取得するステップであって、前記第2のゲートは、前記第1の特徴情報の前記ターゲットパラメータとして出力される割合及び前記j+1番目のデータの前記ターゲットパラメータとして出力される割合を制御するステップと、
前記ターゲットニューラルネットワークモデルを使用して、前記ターゲットパラメータを処理するステップと、
を含む請求項1に記載の方法。 - 前記ターゲットシーケンスデータを取得した後、前記方法は、
ターゲットスライディングウィンドウを使用して、ターゲットステップサイズに応じて前記ターゲットシーケンスデータでスライドし、前記N組のデータを取得するステップをさらに含む請求項1または2に記載の方法。 - ターゲットシーケンスデータを取得する前記ステップは、
ターゲットビデオデータを取得するステップであって、前記ターゲットビデオデータは、時系列にソートされたN組のビデオフレームグループを含み、前記ターゲットビデオデータは、前記ターゲットビデオデータ内のターゲットオブジェクトにより実行されるアクションを認識するためのものであるステップを含み、
前記方法は、
前記N組のビデオフレームグループにおける少なくとも1つのビデオフレームグループの少なくとも一フレームのビデオフレームへの処理結果に従って、第1の確率情報を決定するステップであって、前記第1の確率情報は、前記ターゲットオブジェクトによって実行されるアクションがそれぞれ参照アクションセットのうち各参照アクションである確率を示すステップと、
前記第1の確率情報に従って、前記ターゲットオブジェクトによって実行されるアクションが前記参照アクションセットのうちターゲットアクションであると決定するステップと、
をさらに含む請求項1~3のいずれか一項に記載の方法。 - ターゲットシーケンスデータを取得する前記ステップは、
ターゲットテキストデータを取得するステップであって、前記ターゲットテキストデータは、少なくとも1つのセンテンスを含み、前記少なくとも1つのセンテンスは、前後順序を有するN個のフレーズを含み、前記ターゲットテキストデータは、前記ターゲットテキストデータが表す感情タイプを認識するためのものであるステップを含み、
前記方法は、
前記N個のフレーズのうち少なくとも1つのフレーズにおける少なくとも1つの単語の処理結果に従って、第2の確率情報を決定するステップであって、前記第2の確率情報は、前記ターゲットテキストデータが表す感情タイプがそれぞれ参照感情タイプセットにおける各参照感情タイプである確率を示すステップと、
前記第2の確率情報に従って、前記ターゲットテキストデータが表す感情タイプが前記参照感情タイプセットにおけるターゲット感情タイプであると決定するステップと、
をさらに含む請求項1~3のいずれか一項に記載の方法。 - データ処理装置であって、
時系列でソートされたN組のデータを含むターゲットシーケンスデータを取得するための通信モジュールであって、前記Nが1より大きい通信モジュールと、
前記N組のデータのうち第i組のデータ、ターゲットニューラルネットワークモデルによる前記第i組のデータへの処理結果、及び前記ターゲットニューラルネットワークモデルによる第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して前記第i+1組のデータにおけるj+1番目のデータを処理し、前記ターゲットニューラルネットワークモデルによる前記第i+1組のデータにおける前記j+1番目のデータへの処理結果を取得するための処理モジュールであって、前記iは1以上N未満であり、前記jは1以上Q未満であり、前記Qは前記第i+1組のデータにおけるデータの数であり、
ターゲット処理モデルにおけるターゲット自己注意モデルを使用して、前記N組のデータのうち第i組のデータ及び前記ターゲットニューラルネットワークモデルによる前記第i組のデータへの処理結果を処理し、第2の特徴情報を取得し、
前記ターゲット処理モデルにおける第1のゲートを使用して、前記第2の特徴情報及び第3の特徴情報を処理し、第1の特徴情報を取得し、前記第1の特徴情報は、前記第i+1組のデータの組内特徴情報であり、前記第3の特徴情報は、前記第i組のデータの組内特徴情報であり、前記第1のゲートは、前記第2の特徴情報の前記第1の特徴情報として出力される割合、及び前記第3の特徴情報の前記第1の特徴情報として出力される割合を制御し、
前記第1の特徴情報、及び前記ターゲットニューラルネットワークモデルによる前記第i+1組のデータにおけるj番目のデータへの処理結果に従って、前記ターゲットニューラルネットワークモデルを使用して、前記第i+1組のデータにおけるj+1番目のデータを処理する処理モジュールと、
を含む装置。 - 電子装置であって、メモリ及びプロセッサーを含み、前記メモリにコンピュータプログラムが記憶され、前記プロセッサーは、前記コンピュータプログラムによって請求項1~5のいずれか一項に記載の方法を実行するように設置される電子装置。
- 指令を含むコンピュータプログラムであって、
前記コンピュータプログラムがコンピュータで実行される場合、前記コンピュータに、請求項1~5のいずれか一項に記載のデータ処理方法を実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910472128.0A CN110263916B (zh) | 2019-05-31 | 2019-05-31 | 数据处理方法和装置、存储介质及电子装置 |
CN201910472128.0 | 2019-05-31 | ||
PCT/CN2020/080301 WO2020238353A1 (zh) | 2019-05-31 | 2020-03-20 | 数据处理方法和装置、存储介质及电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022520000A JP2022520000A (ja) | 2022-03-28 |
JP7292657B2 true JP7292657B2 (ja) | 2023-06-19 |
Family
ID=67916330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541499A Active JP7292657B2 (ja) | 2019-05-31 | 2020-03-20 | データ処理方法、データ処理装置、コンピュータプログラム及び電子装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210390370A1 (ja) |
EP (1) | EP3979098A4 (ja) |
JP (1) | JP7292657B2 (ja) |
CN (1) | CN110263916B (ja) |
WO (1) | WO2020238353A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263916B (zh) * | 2019-05-31 | 2021-09-10 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
CN111160484B (zh) * | 2019-12-31 | 2023-08-29 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、计算机可读存储介质及电子设备 |
GB202003088D0 (en) * | 2020-03-04 | 2020-04-15 | Samsung Electronics Co Ltd | Method and system for action recognition |
CN111639548A (zh) * | 2020-05-11 | 2020-09-08 | 华南理工大学 | 一种基于门的视频上下文多模态感知特征优化方法 |
CN111898698B (zh) * | 2020-08-10 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 对象的处理方法及装置、存储介质和电子设备 |
CN112948709B (zh) * | 2021-03-05 | 2022-03-25 | 桂林电子科技大学 | 一种影响力感知驱动的连续兴趣点实时推荐方法 |
CN115119044B (zh) * | 2021-03-18 | 2024-01-05 | 阿里巴巴新加坡控股有限公司 | 视频处理方法、设备、***及计算机存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182260A (zh) | 2018-01-03 | 2018-06-19 | 华南理工大学 | 一种基于语义选择的多变量时间序列分类方法 |
WO2019055957A1 (en) | 2017-09-18 | 2019-03-21 | CS Disco, Inc. | ASYNCHRONOUS AND INTERACTIVE AUTOMATIC LEARNING USING ATTENTION SELECTION TECHNIQUES FOR DATA CLASSIFICATION |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
US10296793B2 (en) * | 2016-04-06 | 2019-05-21 | Nec Corporation | Deep 3D attention long short-term memory for video-based action recognition |
US11080595B2 (en) * | 2016-11-04 | 2021-08-03 | Salesforce.Com, Inc. | Quasi-recurrent neural network based encoder-decoder model |
CN107067413B (zh) * | 2016-12-27 | 2019-11-15 | 南京理工大学 | 一种时空域统计匹配局部特征的运动目标检测方法 |
CN107273800B (zh) * | 2017-05-17 | 2020-08-14 | 大连理工大学 | 一种基于注意机制的卷积递归神经网络的动作识别方法 |
CN107609460B (zh) * | 2017-05-24 | 2021-02-02 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN107341462A (zh) * | 2017-06-28 | 2017-11-10 | 电子科技大学 | 一种基于注意力机制的视频分类方法 |
CN107484017B (zh) * | 2017-07-25 | 2020-05-26 | 天津大学 | 基于注意力模型的有监督视频摘要生成方法 |
CN107480642A (zh) * | 2017-08-18 | 2017-12-15 | 深圳市唯特视科技有限公司 | 一种基于时域分段网络的视频动作识别方法 |
CN107766447B (zh) * | 2017-09-25 | 2021-01-12 | 浙江大学 | 一种使用多层注意力网络机制解决视频问答的方法 |
CN107818174A (zh) * | 2017-11-15 | 2018-03-20 | 浙江大学 | 一种利用视频外表及动作上的渐进式优化注意力网络机制解决视频问答的方法 |
CN107944409B (zh) * | 2017-11-30 | 2020-05-08 | 清华大学 | 能够区分关键动作的视频分析方法及装置 |
CN108829756B (zh) * | 2018-05-25 | 2021-10-22 | 杭州一知智能科技有限公司 | 一种利用分层注意力上下文网络解决多轮视频问答的方法 |
CN109101896B (zh) * | 2018-07-19 | 2022-03-25 | 电子科技大学 | 一种基于时空融合特征和注意力机制的视频行为识别方法 |
CN109389055B (zh) * | 2018-09-21 | 2021-07-20 | 西安电子科技大学 | 基于混合卷积和注意力机制的视频分类方法 |
CN109409504A (zh) * | 2018-10-10 | 2019-03-01 | 深圳乐信软件技术有限公司 | 一种数据处理方法、装置、计算机及存储介质 |
CN109508644B (zh) * | 2018-10-19 | 2022-10-21 | 陕西大智慧医疗科技股份有限公司 | 基于深度视频数据分析的面瘫等级评估*** |
CN109635079A (zh) * | 2018-10-25 | 2019-04-16 | 北京中关村科金技术有限公司 | 一种用户意图的确定方法、装置、计算机设备和存储介质 |
CN111461296B (zh) * | 2018-12-29 | 2023-09-22 | 中科寒武纪科技股份有限公司 | 数据处理方法、电子设备和可读存储介质 |
CN109815903B (zh) * | 2019-01-24 | 2020-10-02 | 同济大学 | 一种基于自适应融合网络的视频情感分类方法 |
CN110263916B (zh) * | 2019-05-31 | 2021-09-10 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
-
2019
- 2019-05-31 CN CN201910472128.0A patent/CN110263916B/zh active Active
-
2020
- 2020-03-20 JP JP2021541499A patent/JP7292657B2/ja active Active
- 2020-03-20 EP EP20814490.7A patent/EP3979098A4/en active Pending
- 2020-03-20 WO PCT/CN2020/080301 patent/WO2020238353A1/zh unknown
-
2021
- 2021-08-27 US US17/459,775 patent/US20210390370A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019055957A1 (en) | 2017-09-18 | 2019-03-21 | CS Disco, Inc. | ASYNCHRONOUS AND INTERACTIVE AUTOMATIC LEARNING USING ATTENTION SELECTION TECHNIQUES FOR DATA CLASSIFICATION |
CN108182260A (zh) | 2018-01-03 | 2018-06-19 | 华南理工大学 | 一种基于语义选择的多变量时间序列分类方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210390370A1 (en) | 2021-12-16 |
JP2022520000A (ja) | 2022-03-28 |
CN110263916B (zh) | 2021-09-10 |
EP3979098A1 (en) | 2022-04-06 |
EP3979098A4 (en) | 2022-06-29 |
WO2020238353A1 (zh) | 2020-12-03 |
CN110263916A (zh) | 2019-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7292657B2 (ja) | データ処理方法、データ処理装置、コンピュータプログラム及び電子装置 | |
WO2020228376A1 (zh) | 文本处理方法、模型训练方法和装置 | |
CN111368993B (zh) | 一种数据处理方法及相关设备 | |
US12008810B2 (en) | Video sequence selection method, computer device, and storage medium | |
CN112288075B (zh) | 一种数据处理方法及相关设备 | |
CN112395979B (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
WO2019196534A1 (zh) | 验证码的人机识别方法及装置 | |
CN111160191B (zh) | 一种视频关键帧提取方法、装置及存储介质 | |
CN108595601A (zh) | 一种融入Attention机制的长文本情感分析方法 | |
CN113704460B (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
Santhalingam et al. | Sign language recognition analysis using multimodal data | |
CN111582342A (zh) | 一种图像识别方法、装置、设备以及可读存储介质 | |
CN115512005A (zh) | 一种数据处理方法及其装置 | |
CN112529149B (zh) | 一种数据处理方法及相关装置 | |
US20210232855A1 (en) | Movement state recognition model training device, movement state recognition device, methods and programs therefor | |
CN113505193A (zh) | 一种数据处理方法及相关设备 | |
EP4361843A1 (en) | Neural network searching method and related device | |
CN110083842B (zh) | 译文质量检测方法、装置、机器翻译***和存储介质 | |
WO2024114659A1 (zh) | 一种摘要生成方法及其相关设备 | |
Mahalakshmi et al. | Few-shot learning-based human behavior recognition model | |
Li et al. | [Retracted] Human Motion Representation and Motion Pattern Recognition Based on Complex Fuzzy Theory | |
Mills et al. | Faster Federated Learning With Decaying Number of Local SGD Steps | |
CN111445545A (zh) | 一种文本转贴图方法、装置、存储介质及电子设备 | |
Goyal et al. | Internet of things information analysis using fusion based learning with deep Neural Network | |
Nikolov et al. | Skeleton-based human activity recognition by spatio-temporal representation and convolutional neural networks with application to cyber physical systems with human in the loop |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7292657 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |