JP2020533696A - 画像認識方法、端末及び記憶媒体 - Google Patents

画像認識方法、端末及び記憶媒体 Download PDF

Info

Publication number
JP2020533696A
JP2020533696A JP2020514506A JP2020514506A JP2020533696A JP 2020533696 A JP2020533696 A JP 2020533696A JP 2020514506 A JP2020514506 A JP 2020514506A JP 2020514506 A JP2020514506 A JP 2020514506A JP 2020533696 A JP2020533696 A JP 2020533696A
Authority
JP
Japan
Prior art keywords
time series
input data
guide
network model
vector set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020514506A
Other languages
English (en)
Other versions
JP6972319B2 (ja
Inventor
文浩 姜
文浩 姜
林 ▲馬▼
林 ▲馬▼
威 ▲劉▼
威 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2020533696A publication Critical patent/JP2020533696A/ja
Application granted granted Critical
Publication of JP6972319B2 publication Critical patent/JP6972319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Library & Information Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

画像認識方法、端末及び記憶媒体は機械学習分野に属し、前記方法は、エンコーダによって認識対象の画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する(101)ことと、該特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得する(102)ことと、該第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成し、該第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられる(103)ことと、該第1ガイド情報、該第1アノテーションベクトル集合及び該第1初期入力データに基づき、デコーダによって該画像の表現語句を決定する(104)ことと、を含む。本願は、エンコーダとデコーダとの間に、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することができるガイドネットワークモデルを追加しているため、該ガイドネットワークモデルにより生成されたガイド情報がより正確であり、エンコード過程を正確にガイドすることができ、表現語句の生成品質を向上させる。

Description

関連出願の相互参照
本願は、2017年09月11日に提出した中国特許出願第201710814187.2号、発明の名称「画像認識方法、装置及び記憶媒体」の優先権を主張し、その全内容が本願の一部として援用される。
本願の実施例は機械学習分野に関し、特に画像認識方法、端末及び記憶媒体に関する。
科学技術の発展及び人々の便利なマンマシンインタラクション方式へのニーズに伴って、機械学習は画像認識分野で広く応用されている。例えば、早期幼児教育、画像検索及び盲人ナビゲーション等のシーンにおいて、通常、人々は、マシンが画像を自動的に認識して、画像内容を正確に表現することができる表現語句を得ることを期待する。つまり、自然言語によって画像を迅速に理解し又は画像を分類するように、画像を自然言語に翻訳することである。
現在、画像認識システムフレームワークは、一般的にエンコーダ(Encoder)及びデコーダ(Decoder)を備え、該システムフレームワークに基づき、関連技術において画像認識方法が提供され、下記を含む。まず、エンコーダによって画像に対して特徴抽出を行って、特徴ベクトル及びアノテーションベクトル(Annotation Vectors)集合を取得し、特徴ベクトルが画像に対してグローバル特徴抽出を行って取得されたものであり、アノテーションベクトル集合が画像に対して局所特徴抽出を行って取得されたものである。次に、特徴ベクトルに対して初期化処理を行って、初期入力データを取得し、該初期入力データはデコーダの初期状態を示すことに用いられ、一般的に初期隠れ状態(Hidden State)情報及び初期メモリセル(Memory Cell)状態情報を含む。その後、画像から人為的に設計した特定情報をガイド情報として抽出して、該ガイド情報に基づき、デコーダによって該アノテーションベクトル集合及び初期入力データをデコードして、画像の表現語句を取得する。表現語句の生成品質を向上させて、生成された表現語句が画像をより正確に表現することができ、語義に一致するように、ここで、該ガイド情報はエンコーダのエンコード過程をガイドすることに用いられる。
本願の実施例は、人為的に設計した特定のガイド情報によって画像の表現語句を正確に生成できず、生成された表現語句の品質が低いという関連技術における問題を解決することができる画像認識方法、端末及び記憶媒体を提供する。前記技術案は下記のとおりである。
第1態様に係る画像認識方法であって、端末により実行され、前記方法は、
エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得することと、
前記特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得することと、
前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成し、前記第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられることと、
前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、デコーダによって前記目標画像の表現語句を決定することと、を含む。
第2態様に係る画像認識装置であって、
エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得するための抽出モジュールと、
前記特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得するための処理モジュールと、
前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成することに用いられ、前記第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられる生成モジュールと、
前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、デコーダによって前記目標画像の表現語句を決定するための決定モジュールと、を備える。
第3態様に係る端末であって、プロセッサ及びメモリを備え、前記メモリに少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得し、
前記特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得し、
前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成し、前記第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられ、
前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、デコーダによって前記目標画像の表現語句を決定する操作を実現するように実行される。
第4態様に係るコンピュータ可読記憶媒体であって、前記記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記命令、前記プログラム、前記コードセット又は前記命令セットは、プロセッサによりロードされ、第1態様に記載の画像認識方法を実現するように実行されることを特徴とする。
本願の実施例に係る技術案は下記の有益な効果を有する。
本願の実施例において、エンコーダとデコーダとの間にガイドネットワークモデルを追加し、目標画像からアノテーションベクトル集合を抽出した後、該アノテーションベクトル集合に基づいて該ガイドネットワークモデルによってガイド情報を生成することができ、該ガイドネットワークモデルは、いずれの画像のアノテーションベクトル集合に基づいて該画像のガイド情報を生成することができるため、該ガイドネットワークモデルにより生成されたガイド情報は、目標画像の表現語句の生成過程に適用でき、精度がより高く、従って、目標画像のエンコード過程を正確にガイドすることができ、表現語句の生成品質を向上させる。
図1は本願の実施例に係るRNNモデルの論理構造図である。 図2は本願の実施例に係るLSTMモデルの論理構造図である。 図3は本願の実施例に係る画像認識システムの構造模式図である。 図4は本願の実施例に係る他の画像認識システムの構造模式図である。 図5は本願の実施例に係る別の画像認識システムの構造模式図である。 図6は本願の実施例に係る別の画像認識システムの構造模式図である。 図7は本願の実施例に係る画像認識方法のフローチャートである。 図8は本願の実施例に係る他の画像認識方法のフローチャートである。 図9は本願の実施例に係る画像認識装置の構造模式図である。 図10は本願の実施例に係る生成モジュール303の構造模式図である。 図11は本願の実施例に係る他の生成モジュール303の構造模式図である。 図12は本願の実施例に係る決定モジュール304の構造模式図である。 図13は本願の実施例に係る他の画像認識装置の構造模式図である。 図14は本願の実施例に係る他の決定モジュール304の構造模式図である。 図15は本願の実施例に係る別の画像認識装置の構造模式図である。 図16は本願の実施例に係る端末400の構造模式図である。
本願の実施例の技術案をより明確に説明するために、下記に実施例の記述において必要な図面を用いて簡単に説明を行うが、当然ながら、下記に記載する図面は単に本願の実施例の一例であって、当業者であれば、創造的な労力を要することなく、これらの図面に基づいて他の図面に想到し得る。
本願の目的、技術案及び利点をより明確にするために、下記に図面を参照しながら本願の実施形態を更に詳しく説明する。
本願の実施例を詳しく説明する前に、まず本願の実施例の用語を説明する。
エンコーダ
エンコーダは、画像をエンコードしてベクトルを生成することに用いられ、通常、エンコーダはCNN(Convolutional Neural Networks、畳み込みニューラルネットワーク)モデルを用いる。
デコーダ
デコーダは、エンコーダにより生成されたベクトルに対してデコードすることに用いられ、エンコーダにより生成されたベクトルを画像の表現語句に翻訳するようにする。通常、デコーダはRNN(Recurrent Neural Network、リカレントニューラルネットワーク)モデルを用いる。
ガイド情報
ガイド情報は、画像を処理して得られた情報であり、通常、ベクトルとして表れ、デコーダの入力の一部としてデコード過程をガイドすることができる。デコーダにガイド情報を導入することにより、デコーダの性能を向上させることができ、デコーダがより良い表現語句を生成できるように確保し、表現語句の生成品質を向上させることができる。
CNNモデル
CNNモデルは、従来の多層ニューラルネットワークに基づいて発展してきた画像に対する分類、認識を行うニューラルネットワークモデルを指し、通常、CNNモデルは、複数の畳み込み層及び少なくとも1つの全結合層を備え、画像に対して特徴抽出を行うことができる。
RNNモデル
従来のニューラルネットワークは記憶機能を有せず、つまり、従来のニューラルネットワークは、その入力がコンテクストの関連画なく、独立したデータである。しかしながら、実際の応用では、通常、入力が明らかなコンテクスト特徴を有する直列化した入力であり、例えば予測すべき表現語句内の次の単語であり、この時、ニューラルネットワークの出力が前回の入力に依存する必要がある。つまり、ニューラルネットワークが記憶機能を有するように要求される。それに対して、RNNモデルは、ノードが一定方向で環状に連接されて記憶機能を有するニューラルネットワークであり、内部の記憶機能を利用して入力データを繰り返し処理することができる。
図1は本願の実施例に係るRNNモデルの論理構造図であり、図1の左側に示すように、該RNNモデルは入力層、隠れ層及び出力層の3層構造を備え、隠れ層が環状構造である。入力層が隠れ層に接続され、隠れ層が出力層に接続される。
該RNNモデルの機能を説明しやすくするために、図1の左側に示されるRNNモデルの構造を時系列で展開すると、図1の右側に示される構造を得ることができる。RNNモデルの入力層で受け取った入力データが一定の時系列で並べるデータであり、つまり、入力層で受け取った入力データが直列データであるため、説明しやすくするために、該直列データをx、x・・・x・・・xと記し、該直列データ内の各データのそれぞれに対応する時刻をt、t・・・t・・・tと記し、x、x・・・x・・・xをそれぞれ処理して得られた出力データをf、f・・・f・・・fと記す。RNNモデルにおいて、時系列で各入力データを順に処理するステップは時系列ステップと称されてもよい。nがRNNモデルの入力データに対する繰り返し処理の回数である。
図1の右側に示すように、展開後のRNNモデルにおいて、t時刻に入力層で受け取った入力データがxであり、xを隠れ層に渡され、隠れ層がxを処理して、処理後のデータを出力層に渡して、t時刻の出力データfを取得する。t時刻に入力層で受け取った入力データがxであり、xを隠れ層に渡し、この時、隠れ層がt時刻の出力データfに基づいてxを処理して、処理後のデータを出力層に渡して、t時刻の出力データfを取得する。つまり、任意の時刻tに、隠れ層がt時刻に入力層の渡した入力データxを受け取る以外に、更にti−1時刻の出力データfi−1も受け取り、fi−1に基づいてxを処理して、t時刻の出力データfを取得する。
LSTM(Long Short−Term Memory、長期短期記憶)ネットワークモデル
LSTMネットワークモデルは特別なRNNモデルであり、時系列の間隔及び遅延の長い、重要なイベントを処理、予測することができる。LSTMネットワークモデルはLSTMユニットを備え、LSTMユニットに入力ゲート、忘却ゲート及び出力ゲートが設置され、各時系列ステップにおいて、設置された入力ゲート、忘却ゲート及び出力ゲートに基づいて入力データを処理することができる。
図2は本願の実施例に係るLSTMネットワークモデルの論理構造図であり、図2の左側に示すように、該LSTMネットワークモデルはLSTMユニットを備え、LSTMユニットが環状構造であり、LSTMユニットの実行するいずれの時系列ステップtに対して、該LSTMユニットは時系列ステップtの入力データx及び一つ前の時系列ステップt−1の出力データft−1を処理して、時系列ステップtの出力データfを得ることができる。
図2の右側に示すように、時系列で展開したLSTMネットワークモデルにおいて、LSTMユニットは時系列ステップtの入力データxを受け取った後、xを処理して時系列ステップtの出力データfを得ることができ、次にfをLSTMユニットに入力し、LSTMユニットは時系列ステップtの入力データxを受け取った後、時系列ステップtの入力データx及び時系列ステップtn−1の出力データfn−1に基づいて時系列ステップtの出力データfを得るまで、f及びxを処理することができ、時系列ステップtの出力データfが得られる。nがLSTMネットワークモデルの入力データに対する繰り返し処理の回数である。
レビューネット(Review−net)
レビューネットは、エンコーダ−デコーダフレームワークに基づく画像認識ネットワークであり、レビューアー(reviewer)及びデコーダを備える。通常、レビューアー及びデコーダがCNNモデルを用いる。デコーダの性能を向上させるために、レビューアーは、エンコーダにより画像から抽出されたグローバル特徴と局所特徴との相互関係を更に探り、グローバル特徴と局所特徴との相互関係に基づいてデコーダのために初期入力データを生成することができる。
次に、本願の実施例の応用シーンを説明する。
本願の実施例は早期幼児教育、画像検索、盲人閲読又はチャットシステム等のシーンに適用されてもよく、これらのシーンにおいて一般的に画像を自然言語に自動的に翻訳する必要がある。
例えば、幼児が絵を見て物事を認識する能力を向上させるために、本願の実施例に係る画像認識方法を利用して、幼児の見た画像を対応する表現語句に翻訳し、次に、幼児が画像と音声とを組み合わせて画像内容を覚えることができるように、表現語句を音声に変換して再生することができる。
更に、例えば、データベースに記憶される大量の画像に対して、本願の実施例に係る画像認識方法を利用して、画像を対応する表現語句に翻訳することができ、画像の表現語句に基づいて画像を正確に分類し、又は画像の表現語句に基づいて画像を正確に検索するようにする。
更に、例えば、盲人が認識しようとする画像に対して、まずこの画像を対応する表現語句に翻訳し、次に表現語句を音声に変換して再生し、盲人が聞いた音声によって画像を認識するようし、又は、盲人が点字を閲読することで画像等を認識することができるように、表現語句を点字に変換することができる。
更に、例えば、チャットシステムにおいて、チャットウィンドウにおける画像を対応する表現語句に翻訳して、表現語句を表示することができる。
説明すべきなのは、本願の実施例は上記複数の応用シーンを例として説明したが、実際の応用では、本願の実施例に係る画像認識方法は更に他のシーンに適用されてもよく、本願の実施例は列挙しない。
次に、本願の実施例に係るシステムアーキテクチャを説明する。
図3は本願の実施例に係る画像認識システムの構造模式図であり、図3に示すように、該画像認識システムはエンコーダ10、第1ガイドネットワークモデル20及びデコーダ30を備える。
エンコーダ10は認識対象の目標画像をエンコードし、つまり、目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得することに用いられる。特徴ベクトルは目標画像のグローバル特徴を示すことに用いられ、第1アノテーションベクトル集合は目標画像の局所特徴を示すことに用いられる。
第1アノテーションベクトル集合に対して、エンコーダ10はそれをそれぞれデコーダ30及び第1ガイドネットワークモデル20に出力することができる。特徴ベクトルに対して、エンコーダ10はそれに対して初期化処理を行って、第1初期入力データを取得し、次に第1初期入力データをデコーダ30に出力することができ、又は、エンコーダ10は特徴ベクトルを他のモデルに出力し、他のモデルによって目標エンコーダ10の出力した特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得して、第1初期入力データをデコーダ30に出力することもできる。
第1ガイドネットワークモデル20はエンコーダ10の出力した第1アノテーションベクトル集合に基づいて第1ガイド情報を生成し、次に第1ガイド情報をデコーダ30に出力することに用いられ、該第1ガイドネットワークモデルがサンプル画像のアノテーションベクトル集合によって訓練して取得されたものである。
デコーダ30は第1ガイド情報、第1アノテーションベクトル集合及び第1初期入力データに基づいて該目標画像の表現語句を決定することに用いられる。
よって、関連技術に比べて、図3に示される画像認識システムはエンコーダとデコーダとの間にガイドネットワークモデルを追加し、該ガイドネットワークモデルがいずれの画像のアノテーションベクトル集合に基づいて該画像の表現語句を生成することができるため、人為的に設計したガイド情報に比べて、該ガイドネットワークモデルにより生成されたガイド情報は目標画像の表現語句の生成過程に適用でき、精度がより高く、従って、画像のエンコード過程を正確にガイドすることができ、それにより表現語句の生成品質を向上させる。
図4は本願の実施例に係る他の画像認識システムの構造模式図であり、図4に示すように、該画像認識システムはエンコーダ10、第1ガイドネットワークモデル20、デコーダ30及びマルチインスタンスモデル40を備える。
図4は図3におけるエンコーダ10及びデコーダ30の作用と同じであり、具体的な説明は図3を参照してもよく、ここで詳細な説明は省略する。
マルチインスタンスモデル40は認識対象の目標画像を処理して、目標画像の属性情報を取得することに用いられ、該属性情報は、予測される、該目標画像の表現語句に単語が現れる確率を示し、目標画像の属性情報を第1ガイドネットワークモデル20に出力することに用いられる。
第1ガイドネットワークモデル20はエンコーダ10の出力した第1アノテーションベクトル集合及びマルチインスタンスモデル40の出力した目標画像の属性情報に基づいて第1ガイド情報を生成することに用いられる。
図4では、第1ガイドネットワークモデル20の前にマルチインスタンスモデル40を追加することにより、第1ガイドネットワークモデル20は目標画像の第1アノテーションベクトル集合及び属性情報に基づいて第1ガイド情報を総合的に決定することができ、生成された第1ガイド情報の精度を更に向上させる。
図5は本願の実施例に係る別の画像認識システムの構造模式図であり、図5に示すように、該画像認識システムはエンコーダ10、第1ガイドネットワークモデル20、レビューアー50、第2ガイドネットワークモデル60及びデコーダ30を備える。
図5は図3におけるエンコーダ10の作用と同じであり、具体的な説明は図3を参照してもよく、ここで詳細な説明は省略する。
第1ガイドネットワークモデル20はエンコーダ10の入力した第1アノテーションベクトル集合に基づいて第1ガイド情報を生成して、第1ガイド情報をレビューアー50に出力することに用いられる。
レビューアー50は第1初期入力データ、第1アノテーションベクトル集合及び第1ガイド情報に基づいて第2アノテーションベクトル集合及び第2初期入力データを決定して、第2アノテーションベクトル集合及び第2初期入力データをデコーダ30に出力し、第2アノテーションベクトル集合を第2ガイドネットワークモデル60に出力することに用いられる。第2初期入力データはデコーダ30の初期入力データであり、デコーダ30の初期状態を示すことに用いられ、具体的に初期隠れ状態情報及び初期メモリセル状態情報を含んでもよい。
第2ガイドネットワークモデル60は第2アノテーションベクトル集合に基づいて第2ガイド情報を生成して、第2ガイド情報をデコーダ30に出力することに用いられ、該第2ガイドネットワークモデルもサンプル画像によって訓練して取得されたものである。
デコーダ30は第2ガイド情報に基づき、第2アノテーションベクトル集合及び第2初期入力データをデコードして、該目標画像の表現語句を取得することに用いられる。
図5では、エンコーダとデコーダとの間にレビューアーを追加することにより、レビューアーによって目標画像の局所特徴とグローバル特徴との相互関係を更に引き出し、生成された第2アノテーションベクトル集合及び第2初期入力データに目標画像の特徴をより正確に示させることができ、画像認識システムのシステム性能を更に向上させ、更に表現語句の生成品質を向上させる。
図6は本願の実施例に係る別の画像認識システムの構造模式図であり、図6に示すように、該画像認識システムはエンコーダ10、第1ガイドネットワークモデル20、レビューアー50、第2ガイドネットワークモデル60、デコーダ30及びマルチインスタンスモデル40を備える。
図6は図5におけるエンコーダ10、レビューアー50及びデコーダ30の作用と同じであり、具体的な説明は図5を参照してもよく、ここで詳細な説明は省略する。
マルチインスタンスモデル40は認識対象の目標画像を処理して、目標画像の属性情報を取得して、目標画像の属性情報をそれぞれ第1ガイドネットワークモデル20及び第2ガイドネットワークモデル60に出力することに用いられる。
第1ガイドネットワークモデル20はエンコーダ10の出力した第1アノテーションベクトル集合及びマルチインスタンスモデル40の出力した目標画像の属性情報に基づいて第1ガイド情報を生成して、第1ガイド情報をレビューアー50に出力することに用いられる。
エンコーダ30が第2ガイド情報に基づき、第2アノテーションベクトル集合及び第2初期入力データをエンコードして、目標画像の表現語句を取得するよう、第2ガイドネットワークモデル60はレビューアー50の出力した第2アノテーションベクトル集合及びマルチインスタンスモデル40の出力した目標画像の属性情報に基づいて第2ガイド情報を生成して、第2ガイド情報をデコーダ30に出力することに用いられる。
図6では、第1ガイドネットワークモデル20及び第2ガイドネットワークモデル60の前にマルチインスタンスモデル40を追加することにより、第1ガイドネットワークモデル20及び第2ガイドネットワークモデル60はいずれも目標画像の属性情報及びアノテーションベクトル集合に基づいてガイド情報を総合的に決定することができ、生成されたガイド情報の精度を更に向上させる。
説明すべきなのは、上記図3〜図6に示される画像認識システムはいずれも複数のサンプル画像及び複数のサンプル画像の表現語句に基づいて訓練して取得されてもよく、つまり、訓練によって上記エンコーダ、第1ガイドネットワークモデル、レビューアー、第2ガイドネットワークモデル及びデコーダを取得することができ、これにより、第1ガイドネットワークモデル及び第2ガイドネットワークモデルは訓練中にどのように正確なガイド情報を生成するかを適応的に学習することができ、それによりガイド情報の生成精度を向上させる。
次に、上記図3〜図6に示される画像認識システムの構造模式図を参照しながら、本願の実施例に係る画像認識方法を詳しく説明する。図7は本願の実施例に係る画像認識方法のフローチャートであり、該方法が端末により実行されてもよく、該端末が携帯電話、タブレットPC又はコンピュータ等であってもよく、該端末が上記画像認識システムを備えてもよく、例えばインストールされるソフトウェアによって上記画像認識システムをサポートすることができる。図7に示すように、該方法は下記を含む。
ステップ101において、エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する。
認識対象の目標画像を認識するとき、まず目標画像をエンコーダに入力し、エンコーダによって目標画像に対して特徴抽出を行って、それぞれ目標画像の特徴ベクトル及び第1アノテーションベクトル集合を取得することができる。
具体的に、エンコーダによって目標画像に対してグローバル特徴抽出を行って、特徴ベクトルを取得し、エンコーダによって目標画像に対して局所特徴抽出を行って、アノテーションベクトル集合を取得することができる。特徴ベクトルは目標画像のグローバル特徴を示すことに用いられ、第2アノテーションベクトル集合におけるアノテーションベクトルは目標画像の局所特徴を示すことに用いられる。
好ましくは、エンコーダはCNNモデルを用いてもよく、エンコーダがCNNモデルを用いて目標画像に対して特徴抽出を行う場合、該特徴ベクトルがCNNモデルの最後の全結合層によって抽出して取得されてもよく、該第2アノテーションベクトル集合がCNNモデルの最後の畳み込み層によって抽出して取得されてもよい。
ステップ102において、特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得する。
第1初期入力データは、エンコーダに入力すべき次の処理モデルの初期入力データを指し、次の処理モデルの初期状態を示すことに用いられ、該次の処理モデルはデコーダ又はレビューアーであってもよい。第1初期入力データは、第1初期隠れ状態情報及び第1初期メモリセル状態情報を含んでもよく、第1初期隠れ状態情報は次の処理モデルの隠れ層の初期状態を示すことに用いられ、第1初期メモリセル状態情報は次の処理モデルのメモリセルの初期状態を示すことに用いられる。
具体的に、特徴ベクトルに対して線形変換等の初期化処理を行って、第1初期入力データを取得することができる。且つ、エンコーダによって該特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得してもよいし、他のモデルによってエンコーダの出力した特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得してもよく、本願の実施例は制限しない。
例えば、該エンコーダはRNNモデル及び初期化モデルを備えてもよく、RNNモデルは目標画像に対して特徴抽出を行うことに用いられ、初期化モデルは特徴ベクトルに対して初期化処理を行うことに用いられ、該エンコーダはRNNモデルによって画像に対して特徴抽出を行って特徴ベクトルを取得した後、更に初期化モデルによって特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得することができる。
又は、エンコーダは目標画像に対して特徴抽出を行うのみに用いられてもよく、且つエンコーダの後に初期化モデルを追加し、該初期化モデルは特徴ベクトルに対して初期化処理を行うことに用いられ、エンコーダによって目標画像に対して特徴抽出を行って特徴ベクトルを取得した後、特徴ベクトルを該初期化モデルに出力することができ、次に該初期化モデルによって該特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得する。
ステップ103において、第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成し、該第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられる。
具体的に、第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成することは、下記の2つの方式で実現されてもよい。
第1実現方式
第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第1行列に基づいて第1アノテーションベクトル集合に対して線形変換を行って、第2行列を取得し、第2行列における各行の最大値に基づいて該第1ガイド情報を決定する。
第1ガイドネットワークモデルがサンプル画像のアノテーションベクトル集合に基づいて訓練して取得されてもよい。一実施例において、図3における各モデルを訓練対象のモデルに変換し、次に複数のサンプル画像及び複数のサンプル画像の表現語句に基づいて変換後の画像認識システムを訓練することができ、訓練中、訓練待ちエンコーダは複数のサンプル画像からアノテーションベクトルをそれぞれ抽出して、訓練待ちガイドネットワークモデルに出力して訓練することができ、このように、画像認識システム全体の訓練を完了した後、訓練待ちガイドネットワークモデルを第1ガイドネットワークモデルに訓練することができる。
訓練待ちエンコーダは未訓練のエンコーダであってもよいし、事前訓練後のエンコーダであってもよく、本願の実施例は制限しない。事前訓練後のエンコーダを用いて訓練待ちガイドネットワークモデルに対して訓練することにより、画像認識システム全体の訓練効率を向上させることができ、更にその中の訓練待ちガイドネットワークモデルの訓練効率を向上させる。
第1アノテーションベクトル集合も行列形式であり、第1行列は第1ガイドネットワークモデルのモデルパラメータにより形成される、第1アノテーションベクトル集合に対して線形変換を行うための行列である。具体的に、第1アノテーションベクトル集合に対して線形変換を行って、第2行列を取得するよう、第1アノテーションベクトル集合を第1行列に乗じることができる。
具体的に、第2行列における各行の最大値に基づいて該第1ガイド情報を決定することは、第2行列における各行の最大値を選択し、次に行数が変化しない限り、選択された最大値を1列の行列に構成して、構成された行列を該第1ガイド情報として決定することを含む。
例えば、第1アノテーションベクトル集合が

Figure 2020533696
であり、

Figure 2020533696
が目標画像から抽出された各アノテーションベクトルであり、第1行列がPであり、第1ガイド情報がνであると仮定する場合、下記の式(1)で第1ガイド情報を決定することができ、

Figure 2020533696
ここで、max関数とは、処理対象の行列の各行に対して最大値を取って、行数が変化せず列数が1である行列を形成することを意味する。
第2実現方式
該第1ガイドネットワークモデルは、いずれの画像のアノテーションベクトル集合及び属性情報に基づいてガイド情報を生成することに用いられる場合、該目標画像をマルチインスタンスモデルの入力とし、該マルチインスタンスモデルによって該目標画像を処理して、該目標画像の属性情報を取得し、該第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第3行列に基づいて該第1アノテーションベクトル集合に対して線形変換を行って、第4行列を取得し、該第4行列及び該目標画像の属性情報に基づき、第5行列を生成し、該第5行列における各行の最大値に基づいて該第1ガイド情報を決定することができる。サンプル画像の属性情報は、予測される、該サンプル画像の表現語句に単語が現れる確率を示すことに用いられる。
該マルチインスタンスモデルは複数のサンプル画像及び該複数のサンプル画像の表現語句によって訓練して取得されたものであって、サンプル画像の属性情報のモデルを出力することができ、つまり、該マルチインスタンスモデルは、画像の表現語句内の現れ得る単語の確率を予測することができる。例示的に、該属性情報がMIL(Multi−instance learning、マルチインスタンス学習)情報等であってもよい。
ここで、該第1ガイドネットワークモデルがサンプル画像のアノテーションベクトル集合及び属性情報によって訓練して取得されてもよい。例えば、図4の各モデルを訓練対象のモデルに変換し、次に複数のサンプル画像及び複数のサンプル画像の表現語句に基づいて変換後の画像認識システムを訓練することができ、訓練中、訓練待ちエンコーダはサンプル画像からアノテーションベクトルを抽出して訓練待ちガイドネットワークモデルに出力することができ、且つ訓練対象のマルチインスタンスモデルは画像を処理して属性情報を取得して、属性情報を訓練待ちガイドネットワークモデルに出力することができ、訓練待ちガイドネットワークモデルはサンプル画像のアノテーションベクトル及び属性情報に基づいて訓練することができ、このように、画像認識システム全体の訓練を完了した後、訓練待ちガイドネットワークモデルを該第1ガイドネットワークモデルに訓練することができる。
訓練待ちエンコーダは未訓練のエンコーダであってもよいし、事前訓練後のエンコーダであってもよく、訓練対象のマルチインスタンスモデルは未訓練のマルチインスタンスモデルであってもよいし、事前訓練後のマルチインスタンスモデルであってもよく、本願の実施例は制限しない。事前訓練後のエンコーダ及び/又は事前訓練後のマルチインスタンスモデルを用いて訓練待ちガイドネットワークモデルに対して訓練することにより、画像認識システム全体の訓練効率を向上させることができ、その中の訓練待ちガイドネットワークモデルの訓練効率を向上させる。
ここで、第1アノテーションベクトル集合も行列形式であり、第3行列は該第1ガイドネットワークモデルのモデルパラメータにより形成される、第1アノテーションベクトル集合に対して線形変換を行うための行列である。具体的に、第1アノテーションベクトル集合に対して線形変換を行って、第4行列を取得するよう、第1アノテーションベクトル集合を第3行列に乗じることができ、次に第4行列及び目標画像の属性情報に基づき、第5行列を生成する。
第5行列における各行の最大値に基づいて第1ガイド情報を決定することは、第5行列における各行の最大値を選択し、次に行数が変化しない限り、選択された最大値を1列の行列に構成して、構成された行列を該第1ガイド情報として決定することを含む。
具体的に、第1アノテーションベクトル集合が

Figure 2020533696
であり、

Figure 2020533696
が目標画像から抽出された各アノテーションベクトルであり、第3行列がPであり、目標画像の属性情報がeであり、第1ガイド情報がνであると仮定する場合、下記の式(2)で第1ガイド情報νを決定することができ、

Figure 2020533696
max関数とは、処理対象の行列の各行に対して最大値を取って、行数が変化せず列数が1である行列を構成することを意味する。
以上から、第1ガイドネットワークモデルは学習によって取得されてもよく、つまり、複数のサンプル画像及び複数のサンプル画像の表現語句によって訓練して取得されてもよく、且つ訓練中にガイド情報を自動的に学習することができ、従って、該第1ガイドネットワークモデルによる第1ガイド情報の生成精度がより高く、生成された第1ガイド情報はエンコードのエンコード過程を正確にガイドすることができ、更に目標画像の表現語句の生成品質を向上させることができる。
ステップ104において、第1ガイド情報、第1アノテーションベクトル集合及び第1初期入力データに基づき、デコーダによって該目標画像の表現語句を決定する。
本願の実施例において、第1ガイド情報、第1アノテーションベクトル集合及び第1初期入力データに基づき、デコーダによって該目標画像の表現語句を決定することは、下記の2つの実現方式を用いてもよい。
第1実現方式
第1ガイド情報に基づき、デコーダによって第1アノテーションベクトル集合及び第1初期入力データをデコードして、該目標画像の表現語句を取得する。
好ましくは、該デコーダが一般的にRNNモデルを用い、例えばLSTMネットワークモデルを用いてもよい。
具体的に、第1ガイド情報に基づき、デコーダによって第1アノテーションベクトル集合及び第1初期入力データをデコードして、該目標画像の表現語句を取得することは、下記のステップ1)〜ステップ3)を含んでもよい。
1)該デコーダが第1RNNモデルを用いる場合、且つ、該第1RNNモデルがM個の第1時系列ステップを実行することに用いられる場合、該第1RNNモデルで実行される各第1時系列ステップに対して、該第1目標ガイド情報に基づいて該第1時系列ステップの入力データを決定する。
前記Mが、該第1RNNモデルが入力データに対して繰り返し処理を行う回数を指し、該Mが正の整数であり、各第1時系列ステップが該第1RNNモデルの入力データに対する処理ステップである。
第1ガイド情報に基づいて該第1時系列ステップの入力データを決定することは、該第1ガイド情報に基づき、下記の式(3)で該第1時系列ステップの入力データを決定することを含んでもよい。

Figure 2020533696
tが該第1時系列ステップであり、xが該第1時系列ステップの入力データであり、Eが単語埋め込み行列であり、且つ、該第1RNNモデルのモデルパラメータであり、yが該第1時系列ステップに対応する単語のワンホット(one−hot)ベクトルであり、該第1時系列ステップに対応する単語が該第1時系列ステップの前の第1時系列ステップの出力データに基づいて決定することによって取得されたものであり、Qが第6行列であり、且つ、該第1RNNモデルのモデルパラメータであり、νが該第1ガイド情報である。
2)該第1時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第1時系列ステップの前の第1時系列ステップの出力データに基づき、該第1時系列ステップの出力データを決定する。
本願の実施例において、該第1RNNモデルによって該第1時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第1時系列ステップの前の第1時系列ステップの出力データを処理して、該第1時系列ステップの出力データを取得することができる。
該第1時系列ステップの出力データが隠れ状態情報及びメモリセル状態情報を含んでもよい。且つ、該第1時系列ステップが該M個の第1時系列ステップにおける1番目の第1時系列ステップである場合、該第1時系列ステップの前の第1時系列ステップの出力データが該第1初期入力データに基づいて決定することによって取得されたものである。例えば、該第1初期入力データが第1初期隠れ状態情報h及び第1初期メモリセル状態情報cを含んで、該第1時系列ステップが1番目の第1時系列ステップである場合、該第1時系列ステップの前の第1時系列ステップの出力データがh及びcである。
本願の実施例において、生成された表現語句の品質を向上させるために、用いた第1RNNモデルがLSTMネットワークモデルであってもよい。LSTMネットワークモデルを例とし、該第1時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第1時系列ステップの前の第1時系列ステップの出力データに基づき、該第1時系列ステップの出力データを決定することは、下記の式(4)と抽象的に示されてもよく、

Figure 2020533696
tが該第1時系列ステップであり、xtが該第1時系列ステップの入力データであり、ht−1が該第1時系列ステップの前の時系列ステップの隠れ状態情報であり、

Figure 2020533696
が第1アノテーションベクトル集合であり、htが該第1時系列ステップの隠れ状態情報であり、LSTMがLSTMネットワークモデルの処理過程を示す。
具体的に、LSTMネットワークモデルの処理過程は下記の式で示されてもよく、

Figure 2020533696
、f、c及びoがそれぞれ該第1時系列ステップの入力ゲート、忘却ゲート、記憶ゲート及び出力ゲートにおける出力データであり、σがLSTMネットワークモデルの活性化関数、例えばsigmoid関数であり、tanh()が双曲線正接関数であり、Tが線形変換用の行列であり、xが該第1時系列ステップの入力データであり、ht−1が該第1時系列ステップの前の時系列ステップの隠れ状態情報であり、dが第1アノテーションベクトル集合に基づいて決定することによって取得された目標データであり、cが該第1時系列ステップのメモリセル状態情報であり、ct−1が該第1時系列ステップの前の第1時系列ステップのメモリセル状態情報であり、hが該第1時系列ステップの隠れ状態情報である。
目標データdが第1アノテーションベクトル集合であってもよいし、コンテクストベクトル(Context Vector)であってもよく、該コンテクストベクトルが第1アノテーションベクトル集合及び該第1時系列ステップの前の時系列ステップの隠れ状態情報に基づき、注意モデルによって決定することによって取得されたものである。
注意モデルは前の第1時系列ステップが目標画像のどの領域を注意しているかを決定することに用いられてもよく、つまり、

Figure 2020533696
内の各アノテーションベクトルのために1つの重み値を計算することができ、アノテーションベクトルの重みが大きければ大きいほど、該アノテーションベクトルが注意されていると示される。
可能な実現方式では、該LSTMネットワークモデルは注意モデルが設置されるLSTMネットワークモデルであってもよく、第1アノテーションベクトル集合及び該第1時系列ステップの前の時系列ステップの隠れ状態情報を取得した後、該第1アノテーションベクトル集合及び該第1時系列ステップの前の時系列ステップの隠れ状態情報に基づき、注意モデルによってコンテクストベクトルを決定して、該コンテクストベクトルを該目標データとすることができる。
具体的に、該注意モデルはaにおけるいずれのアノテーションベクトルa及びht−1の類似度eを計算することができ、次にaの注意力の重み

Figure 2020533696
を計算し、その後、各アノテーションベクトルの重みを用いてコンテクストベクトル

Figure 2020533696
を生成することができる。
3)該M個の第1時系列ステップのすべての出力データに基づき、該目標画像の表現語句を決定する。
具体的に、該M個の第1時系列ステップにおけるすべての第1時系列ステップの出力データに対して組み合わせ処理を行って、該目標画像の表現語句を取得することができる。実際の応用では、各第1時系列ステップの出力データが一般的に1つの単語であり、次に該M個の第1時系列ステップの出力したM個の単語を組み合わせて、該目標画像の表現語句を取得することができる。
図3に示される目標画像を例とし、該M個の第1時系列ステップのすべての出力データがそれぞれ「男の子」「に」「女の子」「贈る」「花」である場合、該目標画像の表現語句が「男の子が女の子に花を贈る」である。
更に、目標画像のアノテーションベクトル集合に基づいてガイド情報を正確に生成することができる上記第1ガイドネットワークモデルを取得するために、エンコーダによって目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する前に、更に、第1訓練待ちエンコーダ、第1訓練待ちガイドネットワークモデル及び第1訓練待ちデコーダを組み合わせて、第1カスケードネットワークモデルを取得し、次に複数のサンプル画像及び該複数のサンプル画像の表現語句に基づき、勾配降下法で該第1カスケードネットワークモデルに対して訓練して、該エンコーダ、該第1ガイドネットワークモデル及び該デコーダを取得することができる。
つまり、まず図3又は図4の接続方式で第1訓練待ちエンコーダ、第1訓練待ちガイドネットワークモデル及び第1訓練待ちデコーダを、画像を処理して画像の表現語句を取得することができる画像認識システムに構築し、次に複数のサンプル画像及び該複数のサンプル画像の表現語句に基づいて該画像認識システムを訓練することができ、画像認識システムの訓練過程において、その中の第1訓練待ちガイドネットワークモデルに対して訓練することができ、第1訓練待ちガイドネットワークモデルが訓練中にガイド情報を適応的に学習できるようにし、それにより生成されたガイド情報がより正確になるように確保する。
第1訓練待ちガイドネットワークモデルの訓練過程において、該第1ガイドネットワークモデルを取得するよう、Multi−label margin loss(間隔に基づくマルチラベル損失関数)を該第1訓練待ちガイドネットワークモデルの損失関数として、該損失関数に基づいて確率的勾配降下法で該第1訓練待ちガイドネットワークモデルのモデルパラメータを調整することができる。
実際の訓練では、表記後の訓練セットを用いて訓練することができ、該訓練セットが<サンプル画像、表現語句>対の集合、例えばMSCOCOデータセット(よく使用されるデータセット)等である。
第1訓練待ちエンコーダは未訓練のエンコーダであってもよいし、事前訓練後のエンコーダであってもよく、本願の実施例は制限しない。例えば、該第1訓練待ちエンコーダはImageNet(1つのコンピュータ視覚システム認識項目の名称であり、現在世界において画像認識量が最大であるデータベースである)において事前訓練されたCNNモデルを用いてもよく、該CNNモデルはinception V3モデル(CNNモデルの1つ)、Resnetモデル(CNNモデルの1つ)又はVGGモデル(CNNモデルの1つ)等であってもよい。
事前訓練後のエンコーダを第1訓練待ちエンコーダとして第1ガイドネットワークモデルに対して訓練することにより、第1カスケードネットワークモデル全体の訓練効率を向上させることができ、更にその中の第1ガイドネットワークモデルの訓練効率を向上させる。
説明すべきなのは、本願の実施例において、目標画像を認識して目標画像の表現語句を取得する過程、及びガイドネットワークモデルに対して訓練する過程は同じ端末において実行されてもよいし、異なる端末において実行されてもよく、本願の実施例は制限しない。
第2実現方式
第1ガイド情報、第1アノテーションベクトル集合及び第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定し、該第2アノテーションベクトル集合に基づき、第2ガイドネットワークモデルによって第2ガイド情報を生成し、該第2ガイド情報に基づき、該エンコーダによって該第2アノテーションベクトル集合及び該第2初期入力データをエンコードして、該目標画像の表現語句を取得する。
説明すべきなのは、該第2実現方式は下記図8の実施例において詳しく説明し、本願の実施例では詳細な説明は省略する。
本願の実施例において、エンコーダとデコーダとの間にガイドネットワークモデルを追加し、画像からアノテーションベクトル集合を抽出した後、該アノテーションベクトル集合に基づいて該ガイドネットワークモデルによってガイド情報を生成することができ、該ガイドネットワークモデルがサンプル画像のアノテーションベクトル集合によって訓練して取得されたものであるため、訓練中にどのように画像のアノテーションベクトル集合に基づいてガイド情報を正確に生成するかを適応的に学習することができ、従って、該ガイドネットワークモデルにより生成されたガイド情報の精度がより高く、画像のエンコード過程を正確にガイドすることができ、それにより表現語句の生成品質を向上させる。
次に、上記図5及び図6に示される画像認識システムの構造模式図を参照しながら、本願の実施例に係る画像認識方法を詳しく説明する。図8は本願の実施例に係る他の画像認識方法のフローチャートであり、該方法は端末に適用される。図8に示すように、該方法は下記を含む。
ステップ201において、エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する。
ステップ202において、特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得する。
ステップ203において、第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成する。
ステップ201〜ステップ203の具体的な実現方式は上記ステップ101〜ステップ103の関連説明を参照してもよく、本願の実施例では詳細な説明は省略する。
ステップ204において、第1ガイド情報、第1アノテーションベクトル集合及び第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定する。
本願の実施例において、デコーダ及びレビューアーが一般的にRNNモデルを用いるが、当然ながら、他のモデルを用いてもよく、本願の実施例は制限しない。
デコーダの性能を向上させ、更に表現語句の生成品質を向上させるよう、レビューアーはエンコーダが画像から抽出されたグローバル特徴と局所特徴との相互関係を更に引き出して、グローバル特徴と局所特徴との相互関係に基づいてデコーダのために初期入力データ、すなわち第2初期入力データを生成することに用いられる。
第1初期入力データはレビューアーに入力すべき入力データを指し、該レビューアーの初期状態を示すことに用いられ、具体的に第1初期隠れ状態情報及び第1初期メモリセル状態情報を含んでもよく、第1初期隠れ状態情報はレビューアーの隠れ層の初期状態を示すことに用いられ、第1初期メモリセル状態情報はレビューアーのメモリセルの初期状態を示すことに用いられる。
第2初期入力データはデコーダに入力すべき入力データを指し、該デコーダの初期状態を示すことに用いられ、具体的に第2初期隠れ状態情報及び第2初期メモリセル状態情報を含んでもよく、第2初期隠れ状態情報はデコーダの隠れ層の初期状態を示すことに用いられ、第2初期メモリセル状態情報はデコーダのメモリセルの初期状態を示すことに用いられる。
具体的に、該第1ガイド情報、該第1アノテーションベクトル集合及び該第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定することは、下記のステップ1)〜ステップ3)を含んでもよい。
1)該第1レビューアーが第2RNNモデルを用いる場合、且つ、該第2RNNモデルがN個の第2時系列ステップを実行することに用いられる場合、該第2RNNモデルで実行される各第2時系列ステップに対して、該第1目標ガイド情報に基づいて該第2時系列ステップの入力データを決定する。
該Nが、該第2RNNモデルが入力データに対して繰り返し処理を行う回数を指し、該Nが正の整数であり、各第2時系列ステップが該第2RNNモデルの入力データに対する処理ステップである。
具体的に、該第2ガイド情報に基づき、下記の式(6)で該第2時系列ステップの入力データを決定することができ、

Figure 2020533696
tが該第2時系列ステップであり、x′が該第2時系列ステップの入力データであり、E′が単語埋め込み行列であり、且つ、該第2RNNモデルのモデルパラメータであり、Q′が第7行列であり、且つ、該第2RNNモデルのモデルパラメータであり、ν′が該第2ガイド情報である。
2)該第2時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第2時系列ステップの前の第2時系列ステップの出力データに基づき、該第2時系列ステップの出力データを決定する。
該第2時系列ステップの出力データが隠れ状態情報及びメモリセル状態情報を含んでもよく、該第該第1ガイド情報に基づき、下記の式で該第1時系列ステップの入力データを決定することに用いられ、
時系列ステップが該N個の第2時系列ステップにおける1番目の第2時系列ステップである場合、該第2時系列ステップの前の第2時系列ステップの出力データが該第1初期入力データに基づいて決定することによって取得されたものである。
本願の実施例において、該第2RNNモデルによって該第2時系列ステップの入力データ、該第2アノテーションベクトル集合及び該第2時系列ステップの前の第2時系列ステップの出力データを処理して、該第2時系列ステップの出力データを取得することができる。
具体的に、該第1時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第1時系列ステップの前の第1時系列ステップの出力データに基づき、該第1時系列ステップの出力データを決定する上記方法を用いて、該第2時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第2時系列ステップの前の第2時系列ステップの出力データに基づき、該第2時系列ステップの出力データを決定することができ、具体的な実現方式は上記関連説明を参照してもよく、ここで詳細な説明は省略する。
3)該N個の第2時系列ステップにおける最後の第2時系列ステップの出力データに基づき、該第2初期入力データを決定する。
具体的に、最後の第2時系列ステップの出力データを該第2初期入力データとして決定することができ、例えば、最後の第2時系列ステップの隠れ状態情報及びメモリセル状態情報を該第2初期入力データとして決定し、つまり、該目標エンコーダの初期隠れ状態情報及び初期メモリセル状態情報として決定することができる。
4)該N個の第2時系列ステップのすべての出力データに基づき、該第2アノテーションベクトル集合を決定する。
具体的に、該N個の第2時系列ステップにおけるすべての時系列ステップの隠れ状態情報の集合を該第2アノテーションベクトル集合として決定することができる。
ステップ205、該第2アノテーションベクトル集合に基づき、第2目標ガイドネットワークモデルによって第2ガイド情報を生成し、該第2ガイドネットワークモデルは、アノテーションベクトル集合に基づいてガイド情報を生成することに用いられる。
具体的に、図7の実施例におけるステップ103に記載の第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成する上記方法を用いて、第2アノテーションベクトル集合に基づき、第2ガイドネットワークモデルによって第2ガイド情報を生成することができる。具体的な実現方式は上記ステップ103の関連説明を参照してもよく、ここで詳細な説明は省略する。
第2ガイドネットワークモデルは第1ガイドネットワークモデルとともにサンプル画像によって訓練して取得されてもよく、訓練中にガイド情報を自動的に学習することができ、従って、該第1ガイドネットワークモデル及び第2ガイドネットワークモデルにより生成されたガイド情報の精度がより高く、生成されたガイド情報はエンコードのエンコード過程を正確にガイドすることができ、更に目標画像の表現語句の生成品質を向上させることができる。
ステップ206、該第2ガイド情報に基づき、該エンコーダによって該第2アノテーションベクトル集合及び該第2初期入力データをエンコードして、該目標画像の表現語句を取得する。
具体的に、図7の実施例におけるステップ104に記載の第1ガイド情報に基づき、デコーダによって第1アノテーションベクトル集合及び第1初期入力データをデコードして、該目標画像の表現語句を取得する上記方法を用いて、該第2ガイド情報に基づき、該エンコーダによって該第2アノテーションベクトル集合及び該第2初期入力データをエンコードして、該目標画像の表現語句を取得することができる。具体的な実現方式は上記ステップ104における第1実現方式の関連説明を参照してもよく、ここで詳細な説明は省略する。
更に、目標画像の第1アノテーションベクトル集合に基づいて第1ガイド情報を正確に生成することができる上記第1ガイドネットワークモデル、及び第2アノテーションベクトル集合に基づいて第2ガイド情報を正確に生成することができる上記第2ガイドネットワークモデルを取得するために、エンコーダによって目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する前に、更に、第2訓練待ちエンコーダ、第2訓練待ちガイドネットワークモデル、訓練待ちレビューアー、第3訓練待ちガイドネットワークモデル及び第2訓練待ちデコーダを組み合わせて、第2カスケードネットワークモデルを取得し、次に複数のサンプル画像及び該複数のサンプル画像の表現語句に基づき、勾配降下法で該第2カスケードネットワークモデルに対して訓練して、該エンコーダ、該第1ガイドネットワークモデル、該レビューアー、該第2ガイドネットワークモデル及び該デコーダを取得することができる。
つまり、まず図5の接続方式で第2訓練待ちエンコーダ、第2訓練待ちガイドネットワークモデル、訓練待ちレビューアー、第3訓練待ちガイドネットワークモデル及び第2訓練待ちデコーダを、画像を処理して画像の表現語句を取得することができる画像認識システムに構築し、次に複数のサンプル画像及び該複数のサンプル画像の表現語句に基づいて該画像認識システムを訓練することができ、画像認識システムの訓練過程において、その中の第2訓練待ちガイドネットワークモデル及び第3訓練待ちガイドネットワークモデルに対して訓練することができ、第2訓練待ちガイドネットワークモデル及び第3訓練待ちガイドネットワークモデルが訓練中にガイド情報を適応的に学習できるようにし、それにより生成されたガイド情報がより正確になるように確保する。
第2訓練待ちエンコーダは未訓練のエンコーダであってもよいし、事前訓練後のエンコーダであってもよく、訓練レビューアーは未訓練のレビューアーであってもよいし、事前訓練後のレビューアーであってもよく、本願の実施例は制限しない。
説明すべきなのは、事前訓練後のエンコーダを第2訓練待ちエンコーダとし、又は事前訓練後のレビューアーを訓練待ちレビューアーとして第1ガイドネットワークモデル及び第2ガイドネットワークモデルに対して訓練することにより、第2カスケードネットワークモデル全体の訓練効率を向上させることができ、更にその中の第1ガイドネットワークモデル及び第2ガイドネットワークモデルの訓練効率を向上させる。
更に説明すべきなのは、本願の実施例において、目標画像を認識して目標画像の表現語句を取得する過程、及びガイドネットワークモデルに対して訓練する過程は同じ端末において実行されてもよいし、異なる端末において実行されてもよく、本願の実施例は制限しない。
本願の実施例において、エンコーダとデコーダとの間にガイドネットワークモデルを追加し、画像からアノテーションベクトル集合を抽出した後、該アノテーションベクトル集合に基づいて該ガイドネットワークモデルによってガイド情報を生成することができ、該ガイドネットワークモデルがサンプル画像によって訓練して取得されたものであるため、訓練中にガイド情報を適応的に学習することができ、従って、該ガイドネットワークモデルにより生成されたガイド情報の精度がより高く、画像のエンコード過程を正確にガイドすることができ、それにより表現語句の生成品質を向上させる。
更に、エンコーダとデコーダとの間にレビューアーを追加することにより、レビューアーによって目標画像の局所特徴とグローバル特徴との相互関係を更に引き出すことができ、生成された第2アノテーションベクトル集合及び第2初期入力データに目標画像の特徴をより正確に示させ、画像認識システムのシステム性能を更に向上させ、更に表現語句の生成品質を向上させる。
図9は本願の実施例に係る画像認識装置の構造模式図であり、該装置が端末であってもよい。図9に示すように、該装置は、
エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得するための抽出モジュール301と、
該特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得するための処理モジュール302と、
該第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成することに用いられ、該第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられる生成モジュール303と、
該第1ガイド情報、該第1アノテーションベクトル集合及び該第1初期入力データに基づき、デコーダによって該目標画像の表現語句を決定するための決定モジュール304と、を備える。
好ましくは、図10に示すように、該生成モジュール303は、
該第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第1行列に基づいて該第1アノテーションベクトル集合に対して線形変換を行って、第2行列を取得するための第1線形変換ユニット3031と、
該第2行列における各行の最大値に基づいて該第1ガイド情報を決定するための第1決定ユニット3032と、を備える。
好ましくは、図11に示すように、該第1ガイドネットワークモデルはいずれの画像のアノテーションベクトル集合及び属性情報に基づいてガイド情報を生成することに用いられ、該属性情報は、予測される、該画像の表現語句に単語が現れる確率を示すことに用いられ、
該生成モジュール303は、
該目標画像をマルチインスタンスモデルの入力とし、該マルチインスタンスモデルによって該目標画像を処理して、該目標画像の属性情報を取得するための処理ユニット3033と、
該第2ガイドネットワークモデルにおけるモデルパラメータにより形成される第3行列に基づいて該第1アノテーションベクトル集合に対して線形変換を行って、第4行列を取得するための第2線形変換ユニット3034と、
該第4行列及び該目標画像の属性情報に基づき、第5行列を生成するための第1生成ユニット3035と、
該第5行列における各行の最大値に基づいて該第1ガイド情報を決定するための第2決定ユニット3036と、を備える。
好ましくは、該決定モデル304は、
該第1ガイド情報に基づき、該デコーダによって該第1アノテーションベクトル集合及び該第1初期入力データをデコードして、該目標画像の表現語句を取得することに用いられる。
好ましくは、図12に示すように、該決定モデル304は、
該デコーダが第1リカレントニューラルネットワーク(RNN)モデルを用いる場合、且つ、該第1RNNモデルがM個の第1時系列ステップを実行することに用いられる場合、該第1RNNモデルで実行される各第1時系列ステップに対して、該第1ガイド情報に基づいて該第1時系列ステップの入力データを決定することに用いられ、
該Mが、該第1RNNモデルが入力データに対して繰り返し処理を行う回数を指し、該Mが正の整数であり、各第1時系列ステップが該第1RNNモデルの入力データに対する処理ステップである第3決定ユニット3041と、
該第1時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第1時系列ステップの前の第1時系列ステップの出力データに基づき、該第1時系列ステップの出力データを決定することに用いられ、
該第1時系列ステップが該M個の第1時系列ステップにおける1番目の第1時系列ステップである場合、該第1時系列ステップの前の第1時系列ステップの出力データが該第1初期入力データに基づいて決定することによって取得されたものである第4決定ユニット3042と、
該M個の第1時系列ステップのすべての出力データに基づき、該目標画像の表現語句を決定するための第5決定ユニット3043と、を備える。
好ましくは、該第3決定ユニット3041は、
該第1ガイド情報に基づき、下記の式で該第1時系列ステップの入力データを決定することに用いられ、

Figure 2020533696
tが該第1時系列ステップであり、xが該第1時系列ステップの入力データであり、Eが単語埋め込み行列であり、且つ、該第1RNNモデルのモデルパラメータであり、yが該第1時系列ステップに対応する単語のワンホット(one−hot)ベクトルであり、該第1時系列ステップに対応する単語が該第1時系列ステップの前の第1時系列ステップの出力データに基づいて決定することによって取得されたものであり、Qが第6行列であり、且つ、該第1RNNモデルのモデルパラメータであり、νが該第1ガイド情報である。
好ましくは、図13に示すように、該装置は、更に、
第1訓練待ちエンコーダ、第1訓練待ちガイドネットワークモデル及び第1訓練待ちデコーダを組み合わせて、第1カスケードネットワークモデルを取得するための第1組み合わせモジュール305と、
複数のサンプル画像及び該複数のサンプル画像の表現語句に基づき、勾配降下法で該第1カスケードネットワークモデルに対して訓練して、該エンコーダ、該第1ガイドネットワークモデル及び該デコーダを取得するための第1訓練モジュール306と、を備える。
好ましくは、図14に示すように、該決定モデル304は、
該第1ガイド情報、該第1アノテーションベクトル集合及び該第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定するための第6決定ユニット3044と、
該第2アノテーションベクトル集合に基づき、第2ガイドネットワークモデルによって第2ガイド情報を生成することに用いられ、該第2ガイドネットワークモデルがサンプル画像によって訓練して取得されたものである第2生成ユニット3045と、
該第2ガイド情報に基づき、該エンコーダによって該第2アノテーションベクトル集合及び該第2初期入力データをエンコードして、該目標画像の表現語句を取得するためのエンコードユニット3046と、を備える。
好ましくは、該第6決定ユニット3044は、
該第1レビューアーが第2RNNモデルを用いる場合、且つ、該第2RNNモデルがN個の第2時系列ステップを実行することに用いられる場合、該第2RNNモデルで実行される各第2時系列ステップに対して、該第1目標ガイド情報に基づいて該第2時系列ステップの入力データを決定し、
該Nが、該第2RNNモデルが入力データに対して繰り返し処理を行う回数を指し、該Nが正の整数であり、各第2時系列ステップが該第2RNNモデルの入力データに対する処理ステップであり、
該第2時系列ステップの入力データ、該第1アノテーションベクトル集合及び該第2時系列ステップの前の第2時系列ステップの出力データに基づき、該第2時系列ステップの出力データを決定し、
該第2時系列ステップが該N個の第2時系列ステップにおける1番目の第2時系列ステップである場合、該第2時系列ステップの前の第2時系列ステップの出力データが該第1初期入力データに基づいて決定することによって取得されたものであり、
該N個の第2時系列ステップにおける最後の第2時系列ステップの出力データに基づき、該第2初期入力データを決定し、
該N個の第2時系列ステップのすべての出力データに基づき、該第2アノテーションベクトル集合を決定することに用いられる。
好ましくは、図15に示すように、該装置は、更に、
第2訓練待ちエンコーダ、第2訓練待ちガイドネットワークモデル、訓練待ちレビューアー、第3訓練待ちガイドネットワークモデル及び第2訓練待ちデコーダを組み合わせて、第2カスケードネットワークモデルを取得するための第2組み合わせモジュール307と、
複数のサンプル画像及び該複数のサンプル画像の表現語句に基づき、勾配降下法で該第2カスケードネットワークモデルに対して訓練して、該エンコーダ、該第1ガイドネットワークモデル、該レビューアー、該第2ガイドネットワークモデル及び該デコーダを取得するための第2訓練モジュール308と、を備える。
本願の実施例において、エンコーダとデコーダとの間にガイドネットワークモデルを追加し、画像からアノテーションベクトル集合を抽出した後、該アノテーションベクトル集合に基づいて該ガイドネットワークモデルによってガイド情報を生成することができ、該ガイドネットワークモデルがサンプル画像のアノテーションベクトル集合によって訓練して取得されたものであるため、訓練中にどのように画像のアノテーションベクトル集合に基づいてガイド情報を正確に生成するかを適応的に学習することができ、従って、該ガイドネットワークモデルにより生成されたガイド情報の精度がより高く、画像のエンコード過程を正確にガイドすることができ、それにより表現語句の生成品質を向上させる。
説明すべきなのは、上記実施例に係る画像認識装置が画像認識を行うとき、上記各機能モジュールの分割のみを例として説明したが、実際の応用では、必要に応じて上記機能を異なる機能モジュールで完了するように分配し、つまり、以上に説明される機能の全部又は一部を完了するよう、装置の内部構造を異なる機能モジュールに分割することができる。また、上記実施例に係る画像認識装置及び画像認識方法の実施例は同じ構想に属し、その具体的な実現過程が方法実施例を参照してもよく、ここで詳細な説明は省略する。
図16は本願の実施例に係る端末400の構造模式図である。図16に示すように、端末400は通信ユニット410、1つ又は1つ以上のコンピュータ可読記憶媒体を含むメモリ420、入力ユニット430、表示ユニット440、センサ450、オーディオ回路460、WIFI(Wireless Fidelity、ワイヤレスフィデリティ)モジュール470、1つ又は1つ以上の処理コアを含むプロセッサ480、及び電源490等の部材を備えてもよい。当業者であれば、図16に示される端末の構造が端末を制限するためのものではなく、図示より多く又は少ない部材を備え、又はいくつかの部材を組み合わせ、又は異なる部材を配置してもよいと理解される。
通信ユニット410は情報を送受信し、又は通話中に信号を受信及び送信することに用いられてもよく、該通信ユニット410はRF(Radio Frequency、無線周波数)回路、ルータ、モデム等のネットワーク通信装置であってもよい。特に、通信ユニット410がRF回路である場合、基地局のダウンリンク情報を受信した後、1つ又は1つ以上のプロセッサ480に送って処理し、また、アップリンクに関わるデータを基地局に送信する。一般的に、通信ユニットとしてのRF回路はアンテナ、少なくとも1つの増幅器、チューナー、1つ又は複数の発振器、加入者識別モジュール(SIM)カード、送受信機、結合器、LNA(Low Noise Amplifier、低雑音増幅器)、デュプレクサ等を含むが、それらに限らない。なお、通信ユニット410は更に無線通信及びネットワーク経由で他の装置と通信することができる。前記無線通信はいずれの通信規格又はプロトコルを用いてもよく、前記通信規格又はプロトコルはGSM(登録商標)(Global System of Mobile communication、モバイル通信用グローバルシステム)、GPRS(General Packet Radio Service、汎用パケット無線サービス)、CDMA(Code Division Multiple Access、符号分割多元接続)、WCDMA(登録商標)(Wideband Code Division Multiple Access、広帯域符号分割多元接続)、LTE(Long Term Evolution、ロングタームエボリューション)、電子メール、SMS(Short Messaging Service、ショートメッセージサービス)等を含むが、それらに限らない。メモリ420がソフトウェアプログラム及びモジュールを記憶することに用いられてもよく、プロセッサ480がメモリ420に記憶されるソフトウェアプログラム及びモジュールを実行することにより、様々な機能アプリケーション及びデータ処理を実行する。メモリ420は主に記憶プログラム領域及び記憶データ領域を備えてもよく、記憶プログラム領域はオペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラム(例えば、音声再生機能、画像再生機能等)等を記憶することができ、記憶データ領域は端末400の使用に応じて新規作成されたデータ(例えば、オーディオデータ、電話帳等)等を記憶することができる。なお、メモリ420は高速ランダムアクセスメモリを含んでもよく、更に不揮発性メモリ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリデバイス又は他の揮発性固体記憶装置を含んでもよい。それに対応して、プロセッサ480及び入力ユニット430のメモリ420へのアクセスを実現するよう、メモリ420は更にメモリコントローラを備えてもよい。
入力ユニット430は入力された数字又は文字情報を受信し、ユーザー設定及び機能制御に関連するキーボード、マウス、操作レバー、光学又はトラックボール信号の入力を発生させることに用いられてもよい。好ましくは、入力ユニット430はタッチ操作面431及び他の入力装置432を備えてもよい。タッチ操作面431は更にタッチディスプレイ又はタッチパッドと称され、ユーザーのその上又は近傍のタッチ操作(例えば、ユーザーが指、スタイラス等の任意の適切な物体又は付属品でタッチ操作面431上又はタッチ操作面431近傍に行った操作)を収集して、予め設定されたプログラムに基づいて対応する接続装置を駆動することができる。好ましくは、タッチ操作面431はタッチ検出装置及びタッチコントローラの2つの部分を備えてもよい。タッチ検出装置はユーザーのタッチ位置を検出して、タッチ操作による信号を検出し、信号をタッチコントローラに渡し、タッチコントローラはタッチ検出装置からタッチ情報を受信して、それを接点座標に変換し、更にプロセッサ480に送信して、プロセッサ480から送信された命令を受信して実行することができる。なお、抵抗式、静電容量式、赤外線及び表面音波等の様々なタイプでタッチ操作面431を実現することができる。タッチ操作面431を除き、入力ユニット430は更に他の入力装置432を備えてもよい。好ましくは、他の入力装置432は物理キーボード、機能キー(例えば、音量制御ボタン、切り替えボタン等)、トラックボール、マウス、操作レバー等における1つ又は複数を含むが、それらに限らない。
表示ユニット440はユーザーの入力した情報又はユーザーに提供した情報及び端末400の様々なグラフィカルユーザーインターフェースを表示することに用いられてもよく、これらのグラフィカルユーザーインターフェースが図形、テキスト、アイコン、ビデオ及びその任意の組み合わせで構成されてもよい。表示ユニット440は表示パネル441を備えてもよく、好ましくは、LCD(Liquid Crystal Display、液晶ディスプレイ)、OLED(Organic Light−Emitting Diode、有機発光ダイオード)等の形式で表示パネル441を配置することができる。更に、タッチ操作面431は表示パネル441を覆うことができ、タッチ操作面431はその上又は近傍のタッチ操作を検出した後、タッチイベントのタイプを決定するよう、プロセッサ480に伝送し、その後、プロセッサ480はタッチイベントのタイプに基づいて表示パネル441に対応する視覚出力を提供する。図16では、タッチ操作面431及び表示パネル441が2つの独立した部材として入力及び入力機能を実現するが、いくつかの実施例において、タッチ操作面431及び表示パネル441を統合して入力及び出力機能を実現することができる。
端末400は更に少なくとも1つのセンサ450、例えば光センサ、運動センサ及び他のセンサを備えてもよい。光センサは環境光センサ及び近接センサを含んでもよく、環境光センサは環境光の輝度に基づいて表示パネル441の輝度を調整することができ、近接センサは端末400が耳元に移動するとき、表示パネル441及び/又はバックライトを閉じることができる。運動センサの1つとして、重力加速度センサは各方向における(一般的に三軸)加速度の大きさを検出することができ、静止時、重力の大きさ及び方向を検出することができ、携帯電話姿勢を認識するアプリケーション(例えば、横画面と縦画面の切り替え、関連ゲーム、磁力計姿勢の補正)、振動認識関連機能(例えば、万歩計(登録商標)、ハンマリング)等に用いられてもよく、端末400に更に配置できるジャイロスコープ、気圧計、湿度計、温度計、赤外線センサ等の他のセンサは省略する。
オーディオ回路460、拡声器461、マイクロホン462はユーザーと端末400とのオーディオインターフェースを提供することができる。オーディオ回路460は受信されたオーディオデータを変換した電気信号を拡声器461に伝送し、拡声器461によって音声信号に変換して出力することができる一方、マイクロホン462は収集された音声信号を電気信号に変換し、オーディオ回路460によって受信してからオーディオデータに変換し、更にオーディオデータをプロセッサ480に出力して処理した後、通信ユニット410によって例えば他の端末に送信し、又は、更なる処理を行うよう、オーディオデータをメモリ420に出力する。外部イヤホンと端末400との通信を実現するよう、オーディオ回路460は更にイヤホンジャックを備えてもよい。
無線通信を実現するために、該端末に無線通信ユニット470が配置されてもよく、該無線通信ユニット470がWIFIモジュールであってもよい。WIFIは近距離無線伝送技術に属し、端末400は無線通信ユニット470によってユーザーが電子メールを送受信し、ホームページをブラウジングし及びストリーミングメディア等にアクセスすることに役立ち、ユーザーに無線のブロードバンドインターネットアクセスを提供する。図面に無線通信ユニット470を示すが、それが端末400の不可欠な構造ではなく、必要に応じて発明の本質を変えない範囲内に省略してもよいと理解される。
プロセッサ480は端末400のコントロールセンターであり、様々なインターフェース及び回路を利用して携帯電話全体の各部分に接続され、メモリ420に記憶されるソフトウェアプログラム及び/又はモジュールを動作又は実行し、メモリ420に記憶されるデータを呼び出すことにより、端末400の様々な機能及び処理データを実行し、それにより携帯電話全体を監視する。好ましくは、プロセッサ480は1つ又は複数の処理コアを備えてもよく、好ましくは、プロセッサ480はアプリケーションプロセッサ及びモデムプロセッサを統合することができ、アプリケーションプロセッサは主にオペレーティングシステム、ユーザーインターフェース及びアプリケーションプログラム等を処理し、モデムプロセッサは主に無線通信を処理する。上記モデムプロセッサは更にプロセッサ480に統合されなくてもよいと理解される。
端末400は更に各部材に給電する電源490(例えば、電池)を備え、好ましくは、電源は電源管理システムによってプロセッサ480に論理的に接続されてもよく、それにより電源管理システムによって充電、放電管理及び電力消費管理等の機能を実現する。電源460は更に1つ又は1つ以上の直流又は交流電源、再充電システム、電源故障検出回路、電源タップ又はインバータ、電源状態インジケータ等の任意のコンポーネントを備えてもよい。
図示しないが、端末400は更にWebカメラ、ブルートゥース(登録商標)モジュール等を備えてもよく、ここで詳細な説明は省略する。
本実施例において、端末はプロセッサ及びメモリを備え、メモリに更に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、上記図7又は図8の実施例に記載の画像認識方法を実現するように実行される。
他の実施例は更にコンピュータ可読記憶媒体を提供し、前記記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記命令、前記プログラム、前記コードセット又は前記命令セットは、プロセッサによりロードされ、上記図7又は図8の実施例に記載の画像認識方法を実現するように実行される。
当業者であれば、上記実施例の全部又は一部のステップの実現はハードウェアにより完了してもよいし、プログラムによって関連するハードウェアを命令することで完了してもよく、前記プログラムがコンピュータ可読記憶媒体に記憶されてもよく、上記言及した記憶媒体が読み出し専用メモリ、磁気ディスク又は光ディスク等であってもよいと理解される。
以上の説明は本願の実施例の好適な実施例であって、本願の実施例を制限するためのものではなく、本願の実施例の趣旨及び原則内に行ったいかなる修正、等価置換、改良等は、いずれも本願の実施例の保護範囲内に含まれるべきである。
10 エンコーダ
20 第1ガイドネットワークモデル
30 デコーダ
40 マルチインスタンスモデル
50 レビューアー
60 第2ガイドネットワークモデル
301 抽出モジュール
302 処理モジュール
303 生成モジュール
304 確定モジュール
305 第1組み合わせモジュール
306 第1訓練モジュール
307 第2組み合わせモジュール
308 第2訓練モジュール
410 通信ユニット
420 メモリ
430 入力ユニット
431 タッチ操作面
432 他の入力装置
440 表示ユニット
441 表示パネル
450 センサ
460 オーディオ回路
470 無線通信ユニット
480 プロセッサ
490 電源
3033 処理ユニット
3034 第2線形変換ユニット
3035 第1生成ユニット
3036 第2確定ユニット
3041 第3確定ユニット
3042 第4確定ユニット
3043 第5確定ユニット
3044 第6確定ユニット
3045 第2生成ユニット
3046 エンコードユニット

Claims (20)

  1. 端末により実行される画像認識方法であって、
    エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得することと、
    前記特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得することと、
    前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成し、前記第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられることと、
    前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、デコーダによって前記目標画像の表現語句を決定することと、を含むことを特徴とする、前記画像認識方法。
  2. 前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成することは、
    前記第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第1行列に基づき、前記第1アノテーションベクトル集合に対して線形変換を行って、第2行列を取得することと、
    前記第2行列における各行の最大値に基づいて前記第1ガイド情報を決定することと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1ガイドネットワークモデルは、いずれの画像のアノテーションベクトル集合及び属性情報に基づいてガイド情報を生成することに用いられ、前記属性情報は、予測される、前記画像の表現語句に単語が現れる確率を示すことに用いられ、
    前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成することは、
    前記目標画像をマルチインスタンスモデルの入力とし、前記マルチインスタンスモデルによって前記目標画像を処理して、前記目標画像の属性情報を取得することと、
    前記第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第3行列に基づき、前記第1アノテーションベクトル集合に対して線形変換を行って、第4行列を取得することと、
    前記第4行列及び前記目標画像の属性情報に基づき、第5行列を生成することと、
    前記第5行列における各行の最大値に基づいて前記第1ガイド情報を決定することと、を含むことを特徴とする
    請求項1に記載の方法。
  4. 前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、デコーダによって前記目標画像の表現語句を決定することは、
    前記第1ガイド情報に基づき、前記デコーダによって前記第1アノテーションベクトル集合及び前記第1初期入力データをデコードして、前記目標画像の表現語句を取得することを含むことを特徴とする
    請求項1に記載の方法。
  5. 前記第1ガイド情報に基づき、前記デコーダによって前記第1アノテーションベクトル集合及び前記第1初期入力データをデコードして、前記目標画像の表現語句を取得することは、
    前記デコーダが第1リカレントニューラルネットワーク(RNN)モデルを用いる場合、且つ、前記第1RNNモデルがM個の第1時系列ステップを実行することに用いられる場合、前記第1RNNモデルで実行される各第1時系列ステップに対して、前記第1ガイド情報に基づいて前記第1時系列ステップの入力データを決定し、
    前記Mが、前記第1RNNモデルが入力データに対して繰り返し処理を行う回数を指し、前記Mが正の整数であり、各第1時系列ステップが前記第1RNNモデルの入力データに対する処理ステップであることと、
    前記第1時系列ステップの入力データ、前記第1アノテーションベクトル集合及び前記第1時系列ステップの前の第1時系列ステップの出力データに基づき、前記第1時系列ステップの出力データを決定し、
    前記第1時系列ステップが前記M個の第1時系列ステップにおける1番目の第1時系列ステップである場合、前記第1時系列ステップの前の第1時系列ステップの出力データが前記第1初期入力データに基づいて決定することによって取得されたものであることと、
    前記M個の第1時系列ステップのすべての出力データに基づき、前記目標画像の表現語句を決定することと、を含むことを特徴とする
    請求項4に記載の方法。
  6. 前記第1ガイド情報に基づいて前記第1時系列ステップの入力データを決定することは、
    前記第1ガイド情報に基づき、

    Figure 2020533696
    式で前記第1時系列ステップの入力データを決定し、
    tが前記第1時系列ステップであり、xが前記第1時系列ステップの入力データであり、Eが単語埋め込み行列であり、且つ、前記第1RNNモデルのモデルパラメータであり、yが前記第1時系列ステップに対応する単語のワンホット(one−hot)ベクトルであり、前記第1時系列ステップに対応する単語は、前記第1時系列ステップの前の第1時系列ステップの出力データに基づいて決定することによって取得されたものであり、Qが第6行列であり、且つ、前記第1RNNモデルのモデルパラメータであり、νが前記第1ガイド情報であることを含むことを特徴とする
    請求項5に記載の方法。
  7. エンコーダによって目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する前に、更に、
    第1訓練待ちエンコーダ、第1訓練待ちガイドネットワークモデル及び第1訓練待ちデコーダを組み合わせて、第1カスケードネットワークモデルを取得することと、
    複数のサンプル画像及び前記複数のサンプル画像の表現語句に基づき、勾配降下法で前記第1カスケードネットワークモデルに対して訓練して、前記エンコーダ、前記第1ガイドネットワークモデル及び前記デコーダを取得することと、を含むことを特徴とする
    請求項1〜6のいずれか1項に記載の方法。
  8. 前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、前記デコーダによって前記目標画像の表現語句を決定することは、
    前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定することと、
    前記第2アノテーションベクトル集合に基づき、第2ガイドネットワークモデルによって第2ガイド情報を生成し、前記第2ガイドネットワークモデルは、アノテーションベクトル集合に基づいてガイド情報を生成することに用いられることと、
    前記第2ガイド情報に基づき、前記エンコーダによって前記第2アノテーションベクトル集合及び前記第2初期入力データをエンコードして、前記目標画像の表現語句を取得することと、を含むことを特徴とする
    請求項1に記載の方法。
  9. 前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定することは、
    第1レビューアーが第2RNNモデルを用いる場合、且つ、前記第2RNNモデルがN個の第2時系列ステップを実行することに用いられる場合、前記第2RNNモデルで実行される各第2時系列ステップに対して、前記第1ガイド情報に基づいて前記第2時系列ステップの入力データを決定し、
    前記Nが、前記第2RNNモデルが入力データに対して繰り返し処理を行う回数を指し、前記Nが正の整数であり、各第2時系列ステップが前記第2RNNモデルの入力データに対する処理ステップであることと、
    前記第2時系列ステップの入力データ、前記第1アノテーションベクトル集合及び前記第2時系列ステップの前の第2時系列ステップの出力データに基づき、前記第2時系列ステップの出力データを決定し、
    前記第2時系列ステップが前記N個の第2時系列ステップにおける1番目の第2時系列ステップである場合、前記第2時系列ステップの前の第2時系列ステップの出力データが前記第1初期入力データに基づいて決定することによって取得されたものであることと、
    前記N個の第2時系列ステップにおける最後の第2時系列ステップの出力データに基づき、前記第2初期入力データを決定することと、
    前記N個の第2時系列ステップのすべての出力データに基づき、前記第2アノテーションベクトル集合を決定することと、を含むことを特徴とする
    請求項8に記載の方法。
  10. エンコーダによって目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得する前に、更に、
    第2訓練待ちエンコーダ、第2訓練待ちガイドネットワークモデル、訓練待ちレビューアー、第3訓練待ちガイドネットワークモデル及び第2訓練待ちデコーダを組み合わせて、第2カスケードネットワークモデルを取得することと、
    複数のサンプル画像及び前記複数のサンプル画像の表現語句に基づき、勾配降下法で前記第2カスケードネットワークモデルに対して訓練して、前記エンコーダ、前記第1ガイドネットワークモデル、前記レビューアー、前記第2ガイドネットワークモデル及び前記デコーダを取得することと、を含むことを特徴とする
    請求項8又は9に記載の方法。
  11. 端末であって、
    プロセッサ及びメモリを備え、前記メモリに少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    エンコーダによって認識対象の目標画像に対して特徴抽出を行って、特徴ベクトル及び第1アノテーションベクトル集合を取得し、
    前記特徴ベクトルに対して初期化処理を行って、第1初期入力データを取得し、
    前記第1アノテーションベクトル集合に基づき、第1ガイドネットワークモデルによって第1ガイド情報を生成し、前記第1ガイドネットワークモデルが、いずれの画像のアノテーションベクトル集合に基づいてガイド情報を生成することに用いられ、
    前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、デコーダによって前記目標画像の表現語句を決定する操作を実現するように実行されることを特徴とする、前記端末。
  12. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、前記第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第1行列に基づき、前記第1アノテーションベクトル集合に対して線形変換を行って、第2行列を取得し、
    前記第2行列における各行の最大値に基づいて前記第1ガイド情報を決定する操作を実現するように実行されることを特徴とする
    請求項11に記載の端末。
  13. 前記第1ガイドネットワークモデルは、いずれの画像のアノテーションベクトル集合及び属性情報に基づいてガイド情報を生成することに用いられ、前記属性情報は、予測される、前記画像の表現語句に単語が現れる確率を示すことに用いられ、
    前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    前記目標画像をマルチインスタンスモデルの入力とし、前記マルチインスタンスモデルによって前記目標画像を処理して、前記目標画像の属性情報を取得し、
    前記第1ガイドネットワークモデルにおけるモデルパラメータにより形成される第3行列に基づき、前記第1アノテーションベクトル集合に対して線形変換を行って、第4行列を取得し、
    前記第4行列及び前記目標画像の属性情報に基づき、第5行列を生成し、
    前記第5行列における各行の最大値に基づいて前記第1ガイド情報を決定する操作を実現するように実行されることを特徴とする
    請求項11に記載の端末。
  14. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、前記第1ガイド情報に基づき、前記デコーダによって前記第1アノテーションベクトル集合及び前記第1初期入力データをデコードして、前記目標画像の表現語句を取得する操作を実現するように実行されることを特徴とする
    請求項11に記載の端末。
  15. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    第1レビューアーが第2RNNモデルを用いる場合、且つ、前記第2RNNモデルがN個の第2時系列ステップを実行することに用いられる場合、前記第2RNNモデルで実行される各第2時系列ステップに対して、前記第1ガイド情報に基づいて前記第2時系列ステップの入力データを決定し、
    前記Nが、前記第2RNNモデルが入力データに対して繰り返し処理を行う回数を指し、前記Nが正の整数であり、各第2時系列ステップが前記第2RNNモデルの入力データに対する処理ステップであり、
    前記第2時系列ステップの入力データ、前記第1アノテーションベクトル集合及び前記第2時系列ステップの前の第2時系列ステップの出力データに基づき、前記第2時系列ステップの出力データを決定し、
    前記第2時系列ステップが前記N個の第2時系列ステップにおける1番目の第2時系列ステップである場合、前記第2時系列ステップの前の第2時系列ステップの出力データが前記第1初期入力データに基づいて決定することによって取得されたものであり、
    前記N個の第2時系列ステップにおける最後の第2時系列ステップの出力データに基づき、第2初期入力データを決定し、
    前記N個の第2時系列ステップのすべての出力データに基づき、第2アノテーションベクトル集合を決定する操作を実現するように実行されることを特徴とする
    請求項14に記載の端末。
  16. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    第1訓練待ちエンコーダ、第1訓練待ちガイドネットワークモデル及び第1訓練待ちデコーダを組み合わせて、第1カスケードネットワークモデルを取得し、
    複数のサンプル画像及び前記複数のサンプル画像の表現語句に基づき、勾配降下法で前記第1カスケードネットワークモデルに対して訓練して、前記エンコーダ、前記第1ガイドネットワークモデル及び前記デコーダを取得する操作を実現するように実行されることを特徴とする
    請求項11〜15のいずれか1項に記載の端末。
  17. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    前記第1ガイド情報、前記第1アノテーションベクトル集合及び前記第1初期入力データに基づき、レビューアーによって第2アノテーションベクトル集合及び第2初期入力データを決定し、
    前記第2アノテーションベクトル集合に基づき、第2ガイドネットワークモデルによって第2ガイド情報を生成し、前記第2ガイドネットワークモデルは、アノテーションベクトル集合に基づいてガイド情報を生成することに用いられ、
    前記第2ガイド情報に基づき、前記エンコーダによって前記第2アノテーションベクトル集合及び前記第2初期入力データをエンコードして、前記目標画像の表現語句を取得する操作を実現するように実行されることを特徴とする
    請求項11に記載の端末。
  18. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    第1レビューアーが第2RNNモデルを用いる場合、且つ、前記第2RNNモデルがN個の第2時系列ステップを実行することに用いられる場合、前記第2RNNモデルで実行される各第2時系列ステップに対して、前記第1ガイド情報に基づいて前記第2時系列ステップの入力データを決定し、
    前記Nが、前記第2RNNモデルが入力データに対して繰り返し処理を行う回数を指し、前記Nが正の整数であり、各第2時系列ステップが前記第2RNNモデルの入力データに対する処理ステップであり、
    前記第2時系列ステップの入力データ、前記第1アノテーションベクトル集合及び前記第2時系列ステップの前の第2時系列ステップの出力データに基づき、前記第2時系列ステップの出力データを決定し、
    前記第2時系列ステップが前記N個の第2時系列ステップにおける1番目の第2時系列ステップである場合、前記第2時系列ステップの前の第2時系列ステップの出力データが前記第1初期入力データに基づいて決定することによって取得されたものであり、
    前記N個の第2時系列ステップにおける最後の第2時系列ステップの出力データに基づき、前記第2初期入力データを決定し、
    前記N個の第2時系列ステップのすべての出力データに基づき、前記第2アノテーションベクトル集合を決定する操作を実現するように実行されることを特徴とする
    請求項17に記載の端末。
  19. 前記命令、前記プログラム、前記コードセット又は前記命令セットは、前記プロセッサによりロードされ、
    第2訓練待ちエンコーダ、第2訓練待ちガイドネットワークモデル、訓練待ちレビューアー、第3訓練待ちガイドネットワークモデル及び第2訓練待ちデコーダを組み合わせて、第2カスケードネットワークモデルを取得し、
    複数のサンプル画像及び前記複数のサンプル画像の表現語句に基づき、勾配降下法で前記第2カスケードネットワークモデルに対して訓練して、前記エンコーダ、前記第1ガイドネットワークモデル、前記レビューアー、前記第2ガイドネットワークモデル及び前記デコーダを取得する操作を実現するように実行されることを特徴とする
    請求項17又は18に記載の端末。
  20. コンピュータ可読記憶媒体であって、
    少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記命令、前記プログラム、前記コードセット又は前記命令セットは、プロセッサによりロードされ、請求項1〜10のいずれか1項に記載の画像認識方法を実現するように実行されることを特徴とする、前記コンピュータ可読記憶媒体。
JP2020514506A 2017-09-11 2018-09-11 画像認識方法、端末及び記憶媒体 Active JP6972319B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710814187.2 2017-09-11
CN201710814187.2A CN108304846B (zh) 2017-09-11 2017-09-11 图像识别方法、装置及存储介质
PCT/CN2018/105009 WO2019047971A1 (zh) 2017-09-11 2018-09-11 图像识别方法、终端及存储介质

Publications (2)

Publication Number Publication Date
JP2020533696A true JP2020533696A (ja) 2020-11-19
JP6972319B2 JP6972319B2 (ja) 2021-11-24

Family

ID=62869573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020514506A Active JP6972319B2 (ja) 2017-09-11 2018-09-11 画像認識方法、端末及び記憶媒体

Country Status (6)

Country Link
US (1) US10956771B2 (ja)
EP (1) EP3611663A4 (ja)
JP (1) JP6972319B2 (ja)
KR (1) KR102270394B1 (ja)
CN (2) CN110490213B (ja)
WO (1) WO2019047971A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022510282A (ja) * 2018-11-30 2022-01-26 株式会社ソニー・インタラクティブエンタテインメント 画像データを自然言語の説明に変換するためのシステム及び方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490213B (zh) * 2017-09-11 2021-10-29 腾讯科技(深圳)有限公司 图像识别方法、装置及存储介质
CN109146156B (zh) * 2018-08-03 2021-12-03 大连理工大学 一种用于预测充电桩***充电量的方法
EP3726521A4 (en) * 2018-10-19 2021-11-10 Sony Group Corporation INFORMATION PROCESSING METHODS, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING PROGRAM
CN109559576B (zh) * 2018-11-16 2020-07-28 中南大学 一种儿童伴学机器人及其早教***自学习方法
CN109495214B (zh) * 2018-11-26 2020-03-24 电子科技大学 基于一维Inception结构的信道编码类型识别方法
CN109670548B (zh) * 2018-12-20 2023-01-06 电子科技大学 基于改进lstm-cnn的多尺寸输入har算法
CN109711546B (zh) * 2018-12-21 2021-04-06 深圳市商汤科技有限公司 神经网络训练方法及装置、电子设备和存储介质
CN111476838A (zh) * 2019-01-23 2020-07-31 华为技术有限公司 图像分析方法以及***
CN110009018B (zh) * 2019-03-25 2023-04-18 腾讯科技(深圳)有限公司 一种图像生成方法、装置以及相关设备
CN110222840B (zh) * 2019-05-17 2023-05-05 中山大学 一种基于注意力机制的集群资源预测方法和装置
CN110276283B (zh) * 2019-06-10 2021-05-25 腾讯医疗健康(深圳)有限公司 图片识别方法、目标识别模型训练方法及装置
CN110478204A (zh) * 2019-07-25 2019-11-22 李高轩 一种结合图像识别的导盲眼镜及其构成的导盲***
CN110517759B (zh) * 2019-08-29 2022-03-25 腾讯医疗健康(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
KR102134893B1 (ko) * 2019-11-07 2020-07-16 국방과학연구소 사전 압축된 텍스트 데이터의 압축 방식을 식별하는 시스템 및 방법
CN111767019A (zh) * 2019-11-28 2020-10-13 北京沃东天骏信息技术有限公司 页面处理方法和装置
CN111275110B (zh) * 2020-01-20 2023-06-09 北京百度网讯科技有限公司 图像描述的方法、装置、电子设备及存储介质
CN111310647A (zh) * 2020-02-12 2020-06-19 北京云住养科技有限公司 自动识别跌倒模型的生成方法和装置
US11093794B1 (en) * 2020-02-13 2021-08-17 United States Of America As Represented By The Secretary Of The Navy Noise-driven coupled dynamic pattern recognition device for low power applications
CN111753825A (zh) * 2020-03-27 2020-10-09 北京京东尚科信息技术有限公司 图像描述生成方法、装置、***、介质及电子设备
EP3916633A1 (de) * 2020-05-25 2021-12-01 Sick Ag Kamera und verfahren zum verarbeiten von bilddaten
CN111723729B (zh) * 2020-06-18 2022-08-05 四川千图禾科技有限公司 基于知识图谱的监控视频犬类姿态和行为智能识别方法
US11455146B2 (en) * 2020-06-22 2022-09-27 Bank Of America Corporation Generating a pseudo-code from a text summarization based on a convolutional neural network
CN111767727B (zh) * 2020-06-24 2024-02-06 北京奇艺世纪科技有限公司 数据处理方法及装置
EP4176449A1 (en) * 2020-07-06 2023-05-10 Harrison-AI Pty Ltd Method and system for automated generation of text captions from medical images
CN112016400B (zh) * 2020-08-04 2021-06-29 香港理工大学深圳研究院 一种基于深度学习的单类目标检测方法、设备及存储介质
CN112614175A (zh) * 2020-12-21 2021-04-06 苏州拓驰信息技术有限公司 基于特征去相关的用于封孔剂注射器的注射参数确定方法
CN112785494B (zh) * 2021-01-26 2023-06-16 网易(杭州)网络有限公司 一种三维模型构建方法、装置、电子设备和存储介质
CN112800247B (zh) * 2021-04-09 2021-06-18 华中科技大学 基于知识图谱共享的语义编/解码方法、设备和通信***
CN113205051B (zh) * 2021-05-10 2022-01-25 中国科学院空天信息创新研究院 基于高空间分辨率遥感影像的储油罐提取方法
CN113569868B (zh) * 2021-06-11 2023-09-19 北京旷视科技有限公司 一种目标检测方法、装置及电子设备
CN113486868B (zh) * 2021-09-07 2022-02-11 中南大学 一种电机故障诊断方法及***
CN116167990B (zh) * 2023-01-28 2024-06-25 阿里巴巴(中国)有限公司 基于图像的目标识别、神经网络模型处理方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9743078B2 (en) * 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US8582666B2 (en) * 2006-12-18 2013-11-12 Koninklijke Philips N.V. Image compression and decompression
US8254444B2 (en) * 2007-05-14 2012-08-28 Samsung Electronics Co., Ltd. System and method for phase adaptive occlusion detection based on motion vector field in digital video
WO2009110160A1 (ja) * 2008-03-07 2009-09-11 株式会社 東芝 動画像符号化/復号化方法及び装置
US8165354B1 (en) * 2008-03-18 2012-04-24 Google Inc. Face recognition with discriminative face alignment
CN102577393B (zh) * 2009-10-20 2015-03-25 夏普株式会社 运动图像编码装置、运动图像解码装置、运动图像编码/解码***、运动图像编码方法及运动图像解码方法
EP2495973B1 (en) * 2009-10-30 2019-02-27 Sun Patent Trust Decoding method, decoder apparatus, encoding method, and encoder apparatus
US9582431B2 (en) * 2010-03-22 2017-02-28 Seagate Technology Llc Storage address space to NVM address, span, and length mapping/converting
WO2011121894A1 (ja) * 2010-03-31 2011-10-06 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2012253482A (ja) * 2011-06-01 2012-12-20 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
US8918320B2 (en) * 2012-01-03 2014-12-23 Nokia Corporation Methods, apparatuses and computer program products for joint use of speech and text-based features for sentiment detection
CN104254877B (zh) * 2012-04-23 2018-12-14 意大利电信股份公司 用于图像分析的方法和***
US9183460B2 (en) * 2012-11-30 2015-11-10 Google Inc. Detecting modified images
CN102982799A (zh) * 2012-12-20 2013-03-20 中国科学院自动化研究所 一种融合引导概率的语音识别优化解码方法
US9349072B2 (en) * 2013-03-11 2016-05-24 Microsoft Technology Licensing, Llc Local feature based image compression
CN104918046B (zh) * 2014-03-13 2019-11-05 中兴通讯股份有限公司 一种局部描述子压缩方法和装置
US10909329B2 (en) 2015-05-21 2021-02-02 Baidu Usa Llc Multilingual image question answering
CN105139385B (zh) * 2015-08-12 2018-04-17 西安电子科技大学 基于深层自动编码器重构的图像视觉显著性区域检测方法
ITUB20153724A1 (it) * 2015-09-18 2017-03-18 Sisvel Tech S R L Metodi e apparati per codificare e decodificare immagini o flussi video digitali
US10423874B2 (en) * 2015-10-02 2019-09-24 Baidu Usa Llc Intelligent image captioning
US10402697B2 (en) * 2016-08-01 2019-09-03 Nvidia Corporation Fusing multilayer and multimodal deep neural networks for video classification
CN106446782A (zh) * 2016-08-29 2017-02-22 北京小米移动软件有限公司 图像识别方法及装置
CN106548145A (zh) * 2016-10-31 2017-03-29 北京小米移动软件有限公司 图像识别方法及装置
IT201600122898A1 (it) * 2016-12-02 2018-06-02 Ecole Polytechnique Fed Lausanne Epfl Metodi e apparati per codificare e decodificare immagini o flussi video digitali
CN106845411B (zh) * 2017-01-19 2020-06-30 清华大学 一种基于深度学习和概率图模型的视频描述生成方法
CN107038221B (zh) * 2017-03-22 2020-11-17 杭州电子科技大学 一种基于语义信息引导的视频内容描述方法
US10783393B2 (en) * 2017-06-20 2020-09-22 Nvidia Corporation Semi-supervised learning for landmark localization
CN110490213B (zh) * 2017-09-11 2021-10-29 腾讯科技(深圳)有限公司 图像识别方法、装置及存储介质
WO2019081623A1 (en) * 2017-10-25 2019-05-02 Deepmind Technologies Limited SELF-REGRESSIVE NEURAL NETWORK SYSTEMS INCLUDING A SOFTWARE ATTENTION MECHANISM USING SUPPORT DATA CORRECTIVES
KR102174777B1 (ko) * 2018-01-23 2020-11-06 주식회사 날비컴퍼니 이미지의 품질 향상을 위하여 이미지를 처리하는 방법 및 장치
CN110072142B (zh) * 2018-01-24 2020-06-02 腾讯科技(深圳)有限公司 视频描述生成方法、装置、视频播放方法、装置和存储介质
US10671855B2 (en) * 2018-04-10 2020-06-02 Adobe Inc. Video object segmentation by reference-guided mask propagation
US10824909B2 (en) * 2018-05-15 2020-11-03 Toyota Research Institute, Inc. Systems and methods for conditional image translation
CN110163048B (zh) * 2018-07-10 2023-06-02 腾讯科技(深圳)有限公司 手部关键点的识别模型训练方法、识别方法及设备
US20200104940A1 (en) * 2018-10-01 2020-04-02 Ramanathan Krishnan Artificial intelligence enabled assessment of damage to automobiles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022510282A (ja) * 2018-11-30 2022-01-26 株式会社ソニー・インタラクティブエンタテインメント 画像データを自然言語の説明に変換するためのシステム及び方法
JP7101315B2 (ja) 2018-11-30 2022-07-14 株式会社ソニー・インタラクティブエンタテインメント 画像データを自然言語の説明に変換するためのシステム及び方法

Also Published As

Publication number Publication date
WO2019047971A1 (zh) 2019-03-14
CN108304846A (zh) 2018-07-20
CN108304846B (zh) 2021-10-22
CN110490213B (zh) 2021-10-29
EP3611663A4 (en) 2020-12-23
KR102270394B1 (ko) 2021-06-30
CN110490213A (zh) 2019-11-22
EP3611663A1 (en) 2020-02-19
US20190385004A1 (en) 2019-12-19
US10956771B2 (en) 2021-03-23
JP6972319B2 (ja) 2021-11-24
KR20200007022A (ko) 2020-01-21

Similar Documents

Publication Publication Date Title
JP6972319B2 (ja) 画像認識方法、端末及び記憶媒体
JP7179273B2 (ja) 翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム
US11416681B2 (en) Method and apparatus for determining a reply statement to a statement based on a sum of a probability of the reply statement being output in response to the statement and a second probability in which the statement is output in response to the statement and further based on a terminator
KR102360659B1 (ko) 기계번역 방법, 장치, 컴퓨터 기기 및 기억매체
RU2643500C2 (ru) Способ и устройство для обучения классификатора и распознавания типа
CN104217717B (zh) 构建语言模型的方法及装置
CN109447234A (zh) 一种模型训练方法、合成说话表情的方法和相关装置
CN109543195A (zh) 一种文本翻译的方法、信息处理的方法以及装置
CN110570840B (zh) 一种基于人工智能的智能设备唤醒方法和装置
CN108984535B (zh) 语句翻译的方法、翻译模型训练的方法、设备及存储介质
CN111816159A (zh) 一种语种识别方法以及相关装置
CN110852109A (zh) 语料生成方法、语料生成装置、和存储介质
CN113821589A (zh) 一种文本标签的确定方法及装置、计算机设备和存储介质
CN107291704A (zh) 处理方法和装置、用于处理的装置
CN113948060A (zh) 一种网络训练方法、数据处理方法及相关设备
KR20140116642A (ko) 음성 인식 기반의 기능 제어 방법 및 장치
WO2022227507A1 (zh) 唤醒程度识别模型训练方法及语音唤醒程度获取方法
CN117273019A (zh) 对话模型的训练方法、对话生成方法、装置和设备
CN111816168A (zh) 一种模型训练的方法、语音播放的方法、装置及存储介质
CN111723783B (zh) 一种内容识别方法和相关装置
CN113569043A (zh) 一种文本类别确定方法和相关装置
CN113806532B (zh) 比喻句式判断模型的训练方法、装置、介质及设备
US20230359352A1 (en) Method for providing clipboard function, and electronic device supporting same
CN116564311B (zh) 设备控制方法、装置、电子设备及可读存储介质
KR20240020141A (ko) 언어 모델에 기초하여 사용자 발화를 처리하는 방법 및 전자 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6972319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150