JP2019536122A - 情報インタラクションのための方法および装置 - Google Patents

情報インタラクションのための方法および装置 Download PDF

Info

Publication number
JP2019536122A
JP2019536122A JP2019504024A JP2019504024A JP2019536122A JP 2019536122 A JP2019536122 A JP 2019536122A JP 2019504024 A JP2019504024 A JP 2019504024A JP 2019504024 A JP2019504024 A JP 2019504024A JP 2019536122 A JP2019536122 A JP 2019536122A
Authority
JP
Japan
Prior art keywords
information
image
semantic
target
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019504024A
Other languages
English (en)
Other versions
JP6783375B2 (ja
Inventor
ティエン,シアオリー
ファン,カオリン
クー,シアオコアン
ミー,シュエ
スン,コー
ティン,シンチョー
スン,ルイイン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2019536122A publication Critical patent/JP2019536122A/ja
Application granted granted Critical
Publication of JP6783375B2 publication Critical patent/JP6783375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/383Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本願の実施形態は、情報インタラクションのための方法および装置を開示する。本方法の一具体的な実施形態は、テキスト情報および画像を含む処理対象情報を取得するステップと、前記処理対象情報のテキスト情報の特徴語を抽出し、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索するステップであって、前記特徴語は前記画像に対する検索要求を特徴付け、前記記述情報は前記画像に対するテキスト記述を特徴付ける、ステップと、前記記述情報から前記処理対象情報の応答情報を構築するステップとを含む。本実施形態は、記述情報から応答情報を構築することで、処理対象となる情報との間の情報インタラクションが達成され、情報インタラクションの効率が向上される。【選択図】図2

Description

本願は、2017年9月19日に提出した、出願番号が201710847084.6で、出願人が百度オンラインネットワーク技術(北京)有限公司(Baidu Online Network Technology (Beijing) Co., Ltd.)で、発明名称が「情報インタラクションのための方法および装置」である中国特許出願に基づく優先権を主張し、当該特許出願の全文を引用することにより本願に組み込む。
本願は、データ処理の技術分野、具体的には情報インタラクションの技術分野に関し、特に情報インタラクションのための方法および装置に関する。
画像認識技術は、現在、急速に発展している技術の一つであり、画像認識技術の重要な方向の1つは、画像の内容を理解し認識することにより、ユーザの認知ニーズを満たすものである。従来の画像認識は、通常に、同一または類似の画像を見つけるために、認識対象となる画像を画像検索エンジンに取り込むことであり、すなわち逆画像検索である。
人々の毎日の作業では、画像ごとに逆画像検索を行う必要がなく、逆画像検索を行うか否かを実際のニーズに応じて判断する必要がある。多くの場合、ユーザがテキストおよび画像で情報を伝達するとき、テキストと画像との間の対応関係を直接確立していない可能性があり(例えば、テキストおよび画像が含まれているが、画像をテキストで説明していないなど)、テキストおよび画像を見たユーザは、対応する情報フィードバックを行うことができない可能性もあり(例えば、ユーザが画像内の内容を知っていないなど)、これらにより、情報伝達の誤りや不正確につながりやすく、情報インタラクションの効率が高くない。
本願の実施形態の目的は、上記の背景技術で言及された技術問題を解決するための、情報インタラクションのための方法および装置を提供することにある。
第1の態様において、本願の実施形態は、情報インタラクションのための方法を提供し、当該方法は、テキスト情報および画像を含む処理対象情報を取得するステップと、上記処理対象情報のテキスト情報の特徴語を抽出し、上記特徴語に基づいて上記処理対象情報の画像の記述情報を検索するステップであって、上記特徴語は上記画像に対する検索要求を特徴付け、上記記述情報は上記画像に対するテキスト記述を特徴付ける、ステップと、上記記述情報から上記処理対象情報の応答情報を構築するステップとを含む。
いくつかの実施形態では、上記処理対象情報のテキスト情報の特徴語を抽出するステップは、テキスト情報に対して意味認識を行って、上記テキスト情報に対応する意味情報を取得することと、上記意味情報から特徴語を抽出することと、を含む。
いくつかの実施形態では、上記特徴語に基づいて上記処理対象情報の画像の記述情報を検索するステップは、画像検索モデルに画像を取り込んで、上記画像に対応する照合対象画像集合を取得することであって、上記照合対象画像集合は、少なくとも1枚の照合対象画像を含み、上記画像検索モデルは、画像と照合対象画像との間の第1の対応関係を特徴付ける、ことと、照合対象画像を意味タグモデルに取り込んで、照合対象画像集合に対応する意味タグ集合を取得することであって、上記意味タグモデルは、照合対象画像と意味タグとの第2の対応関係を特徴付け、意味タグは照合対象画像をテキストで説明するものである、ことと、上記意味タグ集合から認識対象意味タグを選択し、認識対象意味タグにおける上記画像に対応する名詞の解釈情報を記述情報とすることと、を含む。
いくつかの実施形態では、上記意味タグ集合から認識対象意味タグを選択するステップは、上記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとすることを含む。
いくつかの実施形態では、上記方法は、上記記述情報を補正するステップをさらに含み、上記記述情報を補正するステップは、上記応答情報の正確さを評価するための、上記応答情報に対応するフィードバック情報を受信することと、上記フィードバック情報に対して意味認識を行って正確率情報を得ることと、上記正確率情報が所定の閾値よりも低い場合には、上記意味タグ集合における認識対象意味タグ以外の意味タグから第2の認識対象タグを選択することと、第2の認識対象タグにおける上記画像に対応する名詞の解釈情報を第2の記述情報とすることと、第2の記述情報から上記処理対象情報の応答情報を構築することと、を含む。
第2の態様において、本願の実施形態は、情報インタラクションのための装置を提供し、当該装置は、テキスト情報および画像を含む処理対象情報を取得するための処理対象情報取得ユニットと、上記処理対象情報のテキスト情報の特徴語を抽出し、上記特徴語に基づいて上記処理対象情報の画像の記述情報を検索するための記述情報取得ユニットであって、上記特徴語は上記画像に対する検索要求を特徴付けるために用いられ、上記記述情報は上記画像に対するテキスト記述を特徴付けるために用いられる、記述情報取得ユニットと、上記記述情報から上記処理対象情報の応答情報を構築するための応答情報構築ユニットと、を含む。
いくつかの実施形態では、上記記述情報取得ユニットは、テキスト情報に対して意味認識を行って、上記テキスト情報に対応する意味情報を取得するための意味認識サブユニットと、上記意味情報から特徴語を抽出するための特徴語抽出サブユニットと、を備える。
いくつかの実施形態では、上記記述情報取得ユニットは、画像を画像検索モデルに取り込んで、上記画像に対応する照合対象画像集合を取得するための照合対象画像取得サブユニットであって、上記照合対象画像集合は、少なくとも1枚の照合対象画像を含み、上記画像検索モデルは、画像と照合対象画像との間の第1の対応関係を特徴付ける、照合対象画像取得サブユニットと、照合対象画像を意味タグモデルに取り込んで、照合対象画像集合に対応する意味タグ集合を取得するための意味タグ取得サブユニットであって、上記意味タグモデルは、照合対象画像と意味タグとの第2の対応関係を特徴付けるために用いられ、意味タグは照合対象画像をテキストで説明するために用いられる、意味タグ取得サブユニットと、上記意味タグ集合から認識対象意味タグを選択し、認識対象意味タグにおける上記画像に対応する名詞の解釈情報を記述情報とするための記述情報取得サブユニットと、を備える。
いくつかの実施形態では、上記記述情報取得サブユニットは、上記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとする。
いくつかの実施形態では、上記装置は、上記記述情報を補正するための補正ユニットをさらに備え、上記補正ユニットは、上記応答情報の正確さを評価するための、上記応答情報に対応するフィードバック情報を受信するためのフィードバック情報受信サブユニットと、上記フィードバック情報に対して意味認識を行って正確率情報を得るための正確率情報取得サブユニットと、上記正確率情報が所定の閾値よりも低い場合には、上記意味タグ集合における認識対象意味タグ以外の意味タグから第2の認識対象タグを選択するための第2の認識対象タグ取得サブユニットと、第2の認識対象タグにおける上記画像に対応する名詞の解釈情報を第2の記述情報とするための第2の記述情報取得サブユニットと、第2の記述情報から上記処理対象情報の応答情報を構築するための第2の応答情報構築サブユニットと、を備える。
第3の態様では、本願の実施形態は、1つ以上のプロセッサと、1つ以上のプログラムを記憶するためのメモリとを備えるサーバであって、上記1つ以上のプログラムが上記1つ以上のプロセッサによって実行されるときに、上記1つ以上のプロセッサに上記第1の態様に係る情報インタラクションのための方法を実行させるサーバを提供する。
第4の態様では、本願の実施形態は、コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、当該プログラムがプロセッサによって実行されるときに、上記第1の態様に係る情報インタラクションのための方法を実行することを特徴とするコンピュータ可読記憶媒体を提供する。
本願の実施形態により提供された情報インタラクションのための方法および装置は、処理対象情報のテキスト情報の特徴語を抽出し、処理対象情報の画像の記述情報を取得し、処理対象情報におけるテキスト情報と画像との対応関係を確立し、その後、記述情報から応答情報を構築することにより、処理対象情報との間の情報インタラクションが実現され、情報インタラクションの効率が向上される。
以下の図面による非限定的な実施例についての詳細な説明を読み、参照することにより、本願の他の特徴、目的及び利点がより明らかになる。
図1は、本願を適用可能な例示的なシステムアーキテクチャ図である。 図2は、本願に係る情報インタラクションのための方法の一実施例のフローチャートである。 図3は、本願に係る情報インタラクションのための方法の応用シーンの模式図である。 図4は、本願に係る情報インタラクションのための装置の一実施例の構造の模式図である。 図5は、本願の実施例を実現するのに適するサーバのコンピュータシステムの構造の模式図である。
以下、図面と実施例を参照しながら、本願を詳細に説明する。ここで記載される具体的な実施例は、関連の発明を解釈するのみに用いられ、当該発明に対する限定ではないことは理解される。なお、説明の便宜上、図面には、関連の発明に関わる部分のみを示す。
なお、矛盾が生じない限り、本願における実施例及び実施例における特徴は互いに組み合わせることができるものとする。以下、図面を参照しながら、実施例を併せて本願を詳しく説明する。
図1は、本願に係る情報インタラクションのための方法または情報インタラクションのための装置の実施例が適用可能な例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104、およびサーバ105を含むことができる。ネットワーク104は、端末装置101、102、103およびサーバ105の間で通信リンクの媒体を提供するために使用される。ネットワーク104は、有線、無線通信リンクまたは光ファイバケーブルなどの様々なタイプの接続を含んでもよい。
ユーザは、処理対象となるメッセージを送信したり、応答情報を受信したりすることなどのために、端末装置101、102、103を使用してネットワーク104を介してサーバ105と情報のインタラクションをすることができる。端末装置101、102、103には、ウェブブラウザアプリケーション、インスタントコミュニケーションツール、ソーシャルプラットフォームソフトウェアなどの様々な通信クライアントアプリケーションをインストールすることができる。
端末装置101、102、103は、ディスプレイを有するとともに情報編集をサポートする様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップコンピュータ、およびデスクトップコンピュータなどを含むが、これらに限定されない。
サーバ105は、例えば、端末装置101、102、103の処理対象情報を処理するサーバのような、様々なサービスを提供するサーバであってもよい。サーバは、端末装置101、102、103の処理対象情報を取得し、処理対象情報のテキスト情報から特徴語を抽出し、その特徴語に基づいて処理対象情報の画像の記述情報を検索し、最後に、記述情報から処理対象情報に対応する応答情報を構築し、情報インタラクションを達成することができる。
なお、本願の実施例に係る情報インタラクションのための方法は、端末装置101、102、103によって別々に実行されてもよいし、端末装置101、102、103およびサーバ105で共同して実行されてもよい。それに応じて、情報インタラクションのための装置は、端末装置101、102、103に配置されてもよいし、サーバ105に配置されてもよい。
なお、図1における端末装置、ネットワークおよびサーバの数は例示的なものに過ぎない。必要に応じて、任意の数の端末装置、ネットワークおよびサーバを有してもよい。
図2は、本願に係る情報インタラクションのための方法の一実施例のフローチャート200を示す。該情報インタラクションのための方法は、次のステップを含む。
ステップ201において、処理対象情報を取得する。
本実施例では、情報インタラクションのための方法が実行される電子機器(例えば、図1に示す端末装置101、102、103またはサーバ105)は、有線接続方式または無線接続方式により、テキスト情報および画像を含む処理対象情報を取得することができる。注意すべきは、前記無線接続方式は、3G/4G接続、WiFi接続、ブルートゥース(商標登録)接続、WiMAX接続、Zigbee(商標登録)接続、UWB(ultra wideband,超広帯域)接続、およびその他の従来のまたは将来開発される無線接続方式を含むことができるが、これらに限定されない。
ユーザは、端末装置101、102、103における特定の情報処理アプリケーションにおいて、テキストおよび画像に関連する操作を行うことができる。例えば、ユーザは、情報処理アプリケーションにおいてテキスト情報および画像を入力した。画像は、様々なオブジェクト(例えば、特定の植物の画像、動物の画像など)を含んでもよく、テキスト情報は、「さっき、屋外で撮影されたものです。見たことがありません。誰かが知っていますか」ということであってもよい。そして、端末装置101、102、103またはサーバ105は、これらのテキスト情報および画像を含む情報を処理対象情報とすることができる。
ステップ202において、前記処理対象情報のテキスト情報の特徴語を抽出し、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索する。
処理対象情報を取得した後、先ず、処理対象情報に含まれているテキスト情報から特徴語を抽出する必要がある。前記特徴語は、前記画像に対する検索要求を特徴付けるために用いられ、例えば、特徴語は、「誰かが知っていますか」、「何ですか」などであってもよい。
特徴語が抽出されたことは、ユーザが画像の情報を知る意図を有することを意味する。その後、画像の記述情報を複数の方式で検索することができ、前記記述情報は、前記画像に対するテキスト記述を特徴付けるために使用される。記述情報は、「XXX(植物名)、学名XX、ユリ科ユリ属、多年生草本植物、原産国が中国…」であってもよい。
本実施例の複数のオプションとなる実施形態において、前記処理対象情報のテキスト情報に含まれている特徴語を抽出することは、以下のステップを含んでもよい。
第一ステップにおいて、テキスト情報に対して意味認識を行って、前記テキスト情報に対応する意味情報を取得する。
また、前記テキスト情報「さっき、屋外で撮影されたものです。見たことがありません。誰かが知っていますか」を例として、当該テキスト情報に対して意味認識を行い、得られる対応する意味情報は「画像に含まれているものが何ですか」ということであってもよい。
第二ステップにおいて、前記意味情報から特徴語を抽出する。
前記意味情報は「画像に含まれるものが何ですか」ということであり、対応する特徴語は「画像」、「何ですか」であってもよい。
なお、処理対象情報のテキスト情報は、特徴語を直接含んでいてもよい。例えば、テキスト情報は、「画像の中にある植物が何であるのか誰が知っていますか」ということであってもよく、「画像」、「何ですか」、「植物」が特徴語であってもよい。
本実施例の複数のオプションとなる実施形態において、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索することは、以下のステップを含んでもよい。
第一ステップにおいて、画像を画像検索モデルに取り込んで、前記画像に対応する照合対象画像集合を取得する。
画像検索モデルは、入力された画像の画像特徴を抽出し、ローカルの画像データベースまたはネットワーキングなどの方式で同一または類似の画像特徴を含む画像を見つけ出して、照合対象画像とする。前記照合対象画像集合は、少なくとも1枚の照合対象画像を含んでもよく、前記画像検索モデルは、画像と照合対象画像との間の第1の対応関係を特徴付けるために用いられる。第1の対応関係は、取り込まれた画像と照合対象画像との間の同一性関係または類似性関係を指してもよい。
第二ステップにおいて、照合対象画像を意味タグモデルに取り込んで、照合対象画像集合に対応する意味タグ集合を取得する。
照合対象画像は、従来のローカル又はネットワーク上で見つけ出された、取り込まれた画像と同一または類似の画像である。照合対象画像が得られた後、照合対象画像を意味タグモデルに取り込んで、照合対象画像に対応する意味タグを取得する。ここで、前記意味タグモデルは、照合対象画像と意味タグとの第2の対応関係を特徴付けるために用いられ、意味タグは照合対象画像をテキストで説明するために用いられる。例えば、ある照合対象画像に対応する意味タグは、「これはユリです」ということであってもよい。
第三ステップにおいて、前記意味タグ集合から認識対象意味タグを選択し、認識対象意味タグにおける前記画像に対応する名詞の解釈情報を記述情報とする。
画像検索モデルに一枚の画像が取り込まれた場合に少なくとも一枚の照合対象画像を得ることができ、各照合対象画像はいずれも一つの意味タグを有するが、取り込まれた画像には一つの意味タグのみが必要である。従って、取り込まれた画像と最も合致する意味タグを意味タグ集合から選択して、当該意味タグを認識対象意味タグとして使用されることができる。その後、当該認識対象意味タグにおける、取り込まれた画像に対応する名詞の解釈情報を記述情報として使用されてもよい。例えば、認識対象意味タグが「これはユリです」ということである場合、「ユリ」は、取り込まれた画像に対応する名詞である。「ユリ」の解釈情報は、ローカルまたはネットワーク上で検索することによって得られ、当該解釈情報は、取り込まれた画像の記述情報として使用されてもよい。
本実施例の複数のオプションとなる実施形態において、前記意味タグ集合から認識対象意味タグを選択するステップは、前記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとすることを含んでもよい。
画像検索モデルに一枚の画像が取り込まれた場合に少なくとも一枚の照合対象画像を得ることができ、各照合対象画像がいずれも一つの意味タグを有する。照合対象画像は、互いに異なってもよいが、得られる意味タグは同じであってもよい。例えば、照合対象画像は、同じ植物を異なる角度から撮影してなるものであってもよく、対応する複数の意味タグが同一であってもよい。同一の意味タグの数が多いほど、取り込まれた画像が多くの撮影角度で特定の被写体と同じであることを示している。従って、前記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとすることができる。
ステップ203において、前記記述情報から前記処理対象情報の応答情報を構築する。
記述情報を取得した後、その記述情報から応答情報を構築することができる。例えば、前記記述情報は、「XXX(植物名)、学名XX、ユリ科ユリ属、多年生草本植物、原産国が中国…」ということであってもよい。応答情報は、「図中はXXX(植物名)です。詳細については、https://xxx.xxx.com/item/%E7%99%B%88/7886?fr=aladdin&fromid=7780&fromtitle=%E7%99%BE%E5%90%88%E8%8A%B1を参照してください」ということであってもよい。その後、応答情報を端末装置101、102、103に送信して、端末装置101、102、103における処理対象情報との情報インタラクションを達成することができる。
本実施例の複数のオプションとなる実施形態において、前記方法は、前記記述情報を補正するステップをさらに含み、前記記述情報を補正するステップは、次のステップを含んでいてもよい。
第一ステップにおいて、前記応答情報の正確さを評価するための、前記応答情報に対応するフィードバック情報を受信する。
応答情報が端末装置101、102、103に返された後、他のユーザは、応答情報が精確または正確であるか否かを判定することができる。例えば、「はい、XXXです。私たちの家でもあります」、「いいえ、XXXであるべきです」、「YYYでしょう。XXXに似ていません」などの判定が可能である。これらのユーザの判定は、応答情報に関するフィードバック情報と考えることができる。
第二ステップにおいて、前記フィードバック情報に対して意味認識を行って正確率情報を得る。
異なるフィードバック情報で示される正確率は異なってもよい。例えば、「はい、XXXです。私たちの家でもあります」に関する意味認識結果は、「応答情報が正確」である可能性がある。「いいえ、XXXであるべきです」に関する意味認識結果は、「応答情報がエラー」である可能性がある。「YYYでしょう。XXXに似ていません」に関する意味認識結果は、「応答情報が不確定」である可能性がある。これらに対応して、前記「はい、XXXです。私たちの家でもあります」の正確率を100%にし、「いいえ、XXXであるべきです」の正確率を0%にし、「YYYでしょう。XXXに似ていません」の正確率を50%にすることができる。所定期間にわたりすべての正確率をカウントすることによって、応答情報の正確率情報を得ることができる。例えば、正確率が100%であることが8つ、正確率が0%であることが1つ、正確率が50%であることが1つである場合、正確率情報は(8*100%+1*0%+1*50%)/10=85%であってもよい。
第三ステップにおいて、前記正確率情報が所定の閾値よりも低い場合には、前記意味タグ集合における認識対象意味タグ以外の意味タグから第2の認識対象タグを選択する。
正確率情報は、応答情報の正確さを反映することができ、正確率情報が所定の閾値よりも高い場合に、応答情報が正確であるとみなされることができる。例えば、10つのフィードバック情報のうち8つは、応答情報が正確であるとみなされる場合、応答情報が100%正確であると直接みなされることができる。正確率情報がある所定の閾値(例えば、69%)より低い場合、応答情報が不正確であるとみなされることができる。このとき、意味タグ集合における、応答情報に対応する認識対象意味タグ以外の意味タグの中から、他の意味タグを第2の認識対象タグとして選択してもよい。
第四ステップにおいて、第2の認識対象タグにおける名詞の解釈情報を第2の記述情報とする。
上記プロセスと同様に、第2の認識対象タグにおける名詞の解釈情報を第2の記述情報として用いることができる。
第五ステップにおいて、第2の記述情報から前記処理対象情報の応答情報を構築する。
応答情報を第2の記述情報から再構築することができ、その後、応答情報を端末装置101、102、103に送信する。
注意すべきは、第2の記述情報によって得られた応答情報に対応するフィードバック情報の正確率情報が依然として所定の閾値よりも低い場合には、対応する正確率情報が所定の閾値を超えるまで、引き続き他の認識対象タグを選択して応答情報を取得することができる。
応答情報が正確であると判断された後、処理対象情報における画像と応答情報との対応関係を確立して、データベースに記憶し、その後で画像および応答情報の検索を行うことができる。
図3に示すように、図3は、本実施例に係る情報インタラクションのための方法の応用シーンの模式図である。図3の応用シーンでは、ユーザは、端末装置102を介して植物フォーラムで「さっき、近くで見たものです。美しいですね。何かが分かりません。誰かが知っていますか?」というメッセージを送信し、対応する画像を追加した。サーバ105は、ユーザが送信した内容を取得して、処理対象情報とする。次に、サーバ105は、テキスト情報から特徴語である「何ですか」を抽出する。その後、サーバ105は、その画像に対応する記述情報を取得し、記述情報から応答情報を構築して端末装置102に送信する。
本願の前記実施例により提供された方法によって、処理対象情報のテキスト情報の特徴語を抽出し、処理対象情報の画像の記述情報を取得して、処理対象情報におけるテキスト情報と画像との対応関係が確立され、その後、記述情報から応答情報を構築する。これにより、処理対象情報との間の情報インタラクションが実現されることができる。
さらに、図4を参照すると、上記図に示された方法の実施態様として、本願は、情報インタラクションのための装置の一実施例を提供し、この装置の実施例は、図2に示された方法の実施例に対応し、当該装置は、具体的に様々な電子機器に適用することができる。
図4に示すように、本実施例の情報インタラクションのための装置400は、処理対象情報取得ユニット401と、記述情報取得ユニット402と、応答情報構築ユニット403とを含んでもよい。処理対象情報取得ユニット401は、テキスト情報および画像を含む処理対象情報を取得するために用いられる。記述情報取得ユニット402は、前記処理対象情報のテキスト情報の特徴語を抽出し、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索するために用いられる。ここで、前記特徴語は、前記画像に対する検索要求を特徴付けるために用いられ、前記記述情報は前記画像に対するテキスト記述を特徴付けるために用いられる。応答情報構築ユニット403は、前記記述情報から前記処理対象情報の応答情報を構築するために用いられる。
本実施例の複数のオプションとなる実施形態において、前記記述情報取得ユニット402は、意味認識サブユニット(図示せず)および特徴語抽出サブユニット(図示せず)を含んでもよい。意味認識サブユニットは、テキスト情報に対して意味認識を行って前記テキスト情報に対応する意味情報を取得するために用いられる。特徴語抽出サブユニットは、前記意味情報から特徴語を抽出するために用いられる。
本実施例の複数のオプションとなる実施形態において、前記記述情報取得ユニット402は、照合対象画像取得サブユニット(図示せず)、意味タグ取得サブユニット(図示せず)および記述情報取得サブユニット(図示せず)を含んでもよい。照合対象画像取得サブユニットは、画像を画像検索モデルに取り込んで、前記画像に対応する照合対象画像集合を取得するために用いられ、前記照合対象画像集合は、少なくとも1枚の照合対象画像を含み、前記画像検索モデルは、画像と照合対象画像との間の第1の対応関係を特徴付けるために用いられる。意味タグ取得サブユニットは、照合対象画像を意味タグモデルに取り込んで、照合対象画像集合に対応する意味タグ集合を取得するために用いられ、前記意味タグモデルは照合対象画像と意味タグとの第2の対応関係を特徴付けるために用いられ、意味タグは照合対象画像をテキストで説明するために用いられる。記述情報取得サブユニットは、前記意味タグ集合から認識対象意味タグを選択し、認識対象意味タグにおける前記画像に対応する名詞の解釈情報を記述情報として使用するために用いられる。
本実施例の複数のオプションとなる実施形態において、前記記述情報取得サブユニットは、前記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとしてもよい。
本実施例の複数のオプションとなる実施形態において、前記情報インタラクションのための装置400は、前記記述情報を補正するための補正ユニット(図示せず)をさらに含んでもよい。前記補正ユニットは、フィードバック情報受信サブユニット、正確率情報取得サブユニット、第2の認識対象タグ取得サブユニット、第2の記述情報取得サブユニット、および第2の応答情報構築サブユニットを含んでいてもよい。ここで、フィードバック情報受信サブユニットは、前記応答情報に対応するフィードバック情報を受信するために用いられ、前記フィードバック情報は前記応答情報の正確さを評価するために用いられる。正確率情報取得サブユニットは、前記フィードバック情報に対して意味認識を行って正確率情報を得るために用いられる。第2の認識対象タグ取得サブユニットは、前記正確率情報が所定の閾値よりも低い場合に、前記意味タグ集合における認識対象意味タグ以外の意味タグから第2の認識対象タグを選択するために用いられる。第2の記述情報取得サブユニットは、第2の認識対象タグにおける前記画像に対応する名詞の解釈情報を第2の記述情報とするために用いられる。第2の応答情報構築サブユニットは、第2の記述情報から前記処理対象情報の応答情報を構築するために用いられる。
本実施例は、1つ以上のプロセッサと、1つ以上のプログラムを記憶するためのメモリとを備えるサーバであって、前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるときに、前記1つ以上のプロセッサに前記情報インタラクションのための方法を実行させるサーバをさらに提供する。
本実施例は、コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、当該プログラムがプロセッサによって実行されるときに、前記情報インタラクションのための方法を実行するコンピュータ可読記憶媒体をさらに提供する。
以下、本願の実施例を実現するためのサーバに適用されるコンピュータシステム500を示す構造模式図である図5を参照する。図5に示すサーバは、一例に過ぎず、本願の実施例の機能および使用範囲を限定するものではない。
図5に示すように、コンピュータシステム500は、読み出し専用メモリ(ROM)502に記憶されているプログラムまたは記憶部508からランダムアクセスメモリ(RAM)503にロードされたプログラムによって様々な適当な動作および処理を実行することができる中央処理装置(CPU)501を備える。RAM503には、システム500の操作に必要な様々なプログラムおよびデータがさらに記憶されている。CPU501、ROM502およびRAM503は、バス504を介して互いに接続されている。入力/出力(I/O)インターフェース505もバス504に接続されている。
キーボード、マウスなどを含む入力部506、陰極線管(CRT)、液晶ディスプレイ(LCD)など、およびスピーカなどを含む出力部507、ハードディスクなどを含む記憶部508、並びにLANカード、モデムなどを含むネットワークインターフェースカードの通信部509は、I/Oインターフェース505に接続されている。通信部509は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライブ510は、必要に応じてI/Oインターフェース505に接続される。リムーバブルメディア511は、例えば、マグネチックディスク、光ディスク、光磁気ディスク、半導体メモリなどのようなものであり、必要に応じてドライブ510に取り付けられ、したがって、ドライブ510から読み出されたコンピュータプログラムが必要に応じて記憶部508にインストールされる。
特に、本願の実施例によれば、上記のフローチャートを参照しながら記載されたプロセスは、コンピュータのソフトウェアプログラムとして実現されてもよい。例えば、本願の実施例は、コンピュータプログラム製品を含み、該コンピュータプログラム製品は、コンピュータ可読媒体に具現化されるコンピュータプログラムを含み、該コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例では、該コンピュータプログラムは、通信部509を介してネットワークからダウンロードされてインストールされてもよく、および/またはリムーバブルメディア511からインストールされてもよい。該コンピュータプログラムが中央処理装置(CPU)501によって実行されるとき、本願の方法で限定された上記の機能が実行される。
注意すべきは、本願の前記コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体、またはこれら両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁気、赤外線、または半導体システム、装置、またはデバイス、またはこれらの任意の組み合わせであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1本以上の導線を有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD−ROM)、光メモリ、磁気メモリ、またはこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。本願において、コンピュータ可読記憶媒体は、命令実行システム、装置またはデバイスによって使用可能な、またはそれらに組み込まれて使用可能なプログラムを含むかまたは記憶する任意の有形の媒体であってもよい。本願では、コンピュータ可読信号媒体は、ベースバンド内で、またはキャリアの一部として伝搬される、コンピュータ可読プログラムコードが担持されたデータ信号を含んでいてもよい。このような伝搬されたデータ信号は、電磁信号、光信号、またはこれらの任意の適切な組み合わせを含むがこれらに限定されない様々な形態をとることができる。コンピュータ可読信号媒体はさらにコンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよい。該コンピュータ可読媒体は、命令実行システム、装置、またはデバイスによって使用されるか、またはそれらに組み込まれて使用されるプログラムを、送信、伝搬または転送することができる。コンピュータ可読媒体に含まれるプログラムコードは、無線、有線、光ケーブル、RF媒体など、またはこれらの任意の適切な組み合わせを含むがこれらに限定されない任意の適切な媒体で送信することができる。
図面におけるフローチャートおよびブロック図は、本願の各実施例に係るシステム、方法およびコンピュータプログラム製品により実現可能なアーキテクチャ、機能及び操作を示す。ここで、フローチャートまたはブロック図における各枠は、1つのモジュール、プログラムセグメント、またはコードの一部を代表してもよく、該モジュール、プログラムセグメント、またはコードの一部は、規定された論理機能を達成するための1つ以上の実行可能な命令を含む。なお、いくつかの代替実施態様において、枠に示された機能は、図面に示された順番とは異なるもので実行されてもよい。例えば、連続して示された2つの枠は、実際には関連する機能に応じて、ほぼ並行に実行されてもよく、逆の順番で実行されてもよい。なお、ブロック図および/またはフローチャートにおける各枠と、ブロック図および/またはフローチャートにおける枠の組み合わせは、規定された機能または操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、または、専用ハードウェアとコンピュータの命令との組み合わせで実行されてもよい。
本願の実施例に記載されたユニットは、ソフトウェアで実現されてもよく、ハードウェアで実現されてもよい。記載されたユニットは、プロセッサに設定されてもよく、例えば、「プロセッサは、処理対象情報取得ユニットと、記述情報取得ユニットと、応答情報構築ユニットとを備える」というように記載されてもよい。その中でも、これらのユニットの名称は、ある場合において当該ユニットその自体を限定するものではなく、例えば、応答情報構築ユニットは、「応答情報を構築するためのユニット」として記載されてもよい。
一方、本願は、コンピュータ可読媒体をさらに提供し、該コンピュータ可読媒体は、上記実施例に記載された装置に含まれるものであってもよく、独立に存在して該装置に組み立てられていないものであってもよい。前記コンピュータ可読媒体は、1つ以上のプログラムが記憶され、前記1つ以上のプログラムが該装置によって実行されるとき、当該装置は、テキスト情報および画像を含む処理対象情報を取得し、前記処理対象情報のテキスト情報の特徴語を抽出し、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索し、ここで、前記特徴語が前記画像に対する検索要求を特徴付けるために用いられ、前記記述情報が前記画像に対するテキスト記述を特徴付けるために用いられ、前記記述情報から前記処理対象情報の応答情報を構築するようになっている。
以上の記載は、本願の好ましい実施例、および使用された技術的原理の説明に過ぎない。本願に係る発明の範囲が、上記の技術的特徴の特定の組み合わせからなる技術案に限定されることではなく、上記の本願の趣旨を逸脱しない範囲で、上記の技術的特徴または同等の特徴の任意の組み合わせからなる他の技術案も含むべきであることを、当業者は理解すべきである。例えば、上記の特徴と、本願に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。
いくつかの実施形態では、上記記述情報取得サブユニットは、上記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとするためのユニットを備える
本実施例の複数のオプションとなる実施形態において、前記記述情報取得サブユニットは、前記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとするためのユニットを備えてもよい。

Claims (12)

  1. 情報インタラクションのための方法であって、
    テキスト情報および画像を含む処理対象情報を取得するステップと、
    前記処理対象情報のテキスト情報の特徴語を抽出し、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索するステップであって、前記特徴語は前記画像に対する検索要求を特徴付け、前記記述情報は前記画像に対するテキスト記述を特徴付ける、ステップと、
    前記記述情報から前記処理対象情報の応答情報を構築するステップとを含むことを特徴とする情報インタラクションのための方法。
  2. 前記処理対象情報のテキスト情報の特徴語を抽出するステップは、
    テキスト情報に対して意味認識を行って、前記テキスト情報に対応する意味情報を取得することと、
    前記意味情報から特徴語を抽出することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索するステップは、
    画像検索モデルに画像を取り込んで、前記画像に対応する照合対象画像集合を取得することであって、前記照合対象画像集合は、少なくとも1枚の照合対象画像を含み、前記画像検索モデルは、画像と照合対象画像との間の第1の対応関係を特徴付ける、ことと、
    照合対象画像を意味タグモデルに取り込んで、照合対象画像集合に対応する意味タグ集合を取得することであって、前記意味タグモデルは、照合対象画像と意味タグとの第2の対応関係を特徴付け、意味タグは照合対象画像をテキストで説明するものである、ことと、
    前記意味タグ集合から認識対象意味タグを選択し、認識対象意味タグにおける前記画像に対応する名詞の解釈情報を記述情報とすることと、を含むことを特徴とする請求項1に記載の方法。
  4. 前記意味タグ集合から認識対象意味タグを選択するステップは、
    前記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとすることを含むことを特徴とする請求項3に記載の方法。
  5. 前記方法は、前記記述情報を補正するステップをさらに含み、前記記述情報を補正するステップは、
    前記応答情報の正確さを評価するための、前記応答情報に対応するフィードバック情報を受信することと、
    前記フィードバック情報に対して意味認識を行って正確率情報を得ることと、
    前記正確率情報が所定の閾値よりも低い場合には、前記意味タグ集合における認識対象意味タグ以外の意味タグから第2の認識対象タグを選択することと、
    第2の認識対象タグにおける前記画像に対応する名詞の解釈情報を第2の記述情報とすることと、
    第2の記述情報から前記処理対象情報の応答情報を構築することと、を含むことを特徴とする請求項4に記載の方法。
  6. 情報インタラクションのための装置であって、
    テキスト情報および画像を含む処理対象情報を取得するための処理対象情報取得ユニットと、
    前記処理対象情報のテキスト情報の特徴語を抽出し、前記特徴語に基づいて前記処理対象情報の画像の記述情報を検索するための記述情報取得ユニットであって、前記特徴語は前記画像に対する検索要求を特徴付けるために用いられ、前記記述情報は前記画像に対するテキスト記述を特徴付けるために用いられる、記述情報取得ユニットと、
    前記記述情報から前記処理対象情報の応答情報を構築するための応答情報構築ユニットと、を含むことを特徴とする情報インタラクションのための装置。
  7. 前記記述情報取得ユニットは、
    テキスト情報に対して意味認識を行って、前記テキスト情報に対応する意味情報を取得するための意味認識サブユニットと、
    前記意味情報から特徴語を抽出するための特徴語抽出サブユニットと、を備えることを特徴とする請求項6に記載の装置。
  8. 前記記述情報取得ユニットは、
    画像を画像検索モデルに取り込んで、前記画像に対応する照合対象画像集合を取得するための照合対象画像取得サブユニットであって、前記照合対象画像集合は、少なくとも1枚の照合対象画像を含み、前記画像検索モデルは、画像と照合対象画像との間の第1の対応関係を特徴付ける、照合対象画像取得サブユニットと、
    照合対象画像を意味タグモデルに取り込んで、照合対象画像集合に対応する意味タグ集合を取得するための意味タグ取得サブユニットであって、前記意味タグモデルは、照合対象画像と意味タグとの第2の対応関係を特徴付けるために用いられ、意味タグは照合対象画像をテキストで説明するために用いられる、意味タグ取得サブユニットと、
    前記意味タグ集合から認識対象意味タグを選択し、認識対象意味タグにおける前記画像に対応する名詞の解釈情報を記述情報とするための記述情報取得サブユニットと、を備えることを特徴とする請求項6に記載の装置。
  9. 前記記述情報取得サブユニットは、
    前記意味タグ集合における同一の意味タグの数をカウントし、最大数を有する意味タグを認識対象意味タグとすることを特徴とする請求項8に記載の装置。
  10. 前記装置は、前記記述情報を補正するための補正ユニットをさらに備え、前記補正ユニットは、
    前記応答情報の正確さを評価するための、前記応答情報に対応するフィードバック情報を受信するためのフィードバック情報受信サブユニットと、
    前記フィードバック情報に対して意味認識を行って正確率情報を得るための正確率情報取得サブユニットと、
    前記正確率情報が所定の閾値よりも低い場合には、前記意味タグ集合における認識対象意味タグ以外の意味タグから第2の認識対象タグを選択するための第2の認識対象タグ取得サブユニットと、
    第2の認識対象タグにおける前記画像に対応する名詞の解釈情報を第2の記述情報とするための第2の記述情報取得サブユニットと、
    第2の記述情報から前記処理対象情報の応答情報を構築するための第2の応答情報構築サブユニットと、を備えることを特徴とする請求項9に記載の装置。
  11. 1つ以上のプロセッサと、
    1つ以上のプログラムを記憶するためのメモリとを備えるサーバであって、
    前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるときに、前記1つ以上のプロセッサに請求項1〜5のいずれか1項に記載の方法を実行させるサーバ。
  12. コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、当該プログラムがプロセッサによって実行されるときに、請求項1〜5のいずれか1項に記載の方法を実行することを特徴とするコンピュータ可読記憶媒体。
JP2019504024A 2017-09-19 2018-06-26 情報インタラクションのための方法および装置 Active JP6783375B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710847084.6 2017-09-19
CN201710847084.6A CN107590252A (zh) 2017-09-19 2017-09-19 用于信息交互的方法及装置
PCT/CN2018/092870 WO2019056821A1 (zh) 2017-09-19 2018-06-26 用于信息交互的方法及装置

Publications (2)

Publication Number Publication Date
JP2019536122A true JP2019536122A (ja) 2019-12-12
JP6783375B2 JP6783375B2 (ja) 2020-11-11

Family

ID=61047238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019504024A Active JP6783375B2 (ja) 2017-09-19 2018-06-26 情報インタラクションのための方法および装置

Country Status (5)

Country Link
US (1) US20190163699A1 (ja)
EP (1) EP3480704A4 (ja)
JP (1) JP6783375B2 (ja)
CN (1) CN107590252A (ja)
WO (1) WO2019056821A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108334498A (zh) * 2018-02-07 2018-07-27 百度在线网络技术(北京)有限公司 用于处理语音请求的方法和装置
CN111931510A (zh) * 2019-04-25 2020-11-13 广东小天才科技有限公司 一种基于神经网络的意图识别方法及装置、终端设备
CN112905825B (zh) * 2019-12-04 2023-03-21 博泰车联网科技(上海)股份有限公司 用于信息处理的方法、设备和计算机存储介质
CN111538862B (zh) * 2020-05-15 2023-06-20 北京百度网讯科技有限公司 用于解说视频的方法及装置
CN113034113A (zh) * 2021-04-01 2021-06-25 苏州惟信易量智能科技有限公司 一种基于可穿戴设备的流程控制***及方法
CN113034114A (zh) * 2021-04-01 2021-06-25 苏州惟信易量智能科技有限公司 一种基于可穿戴设备的流程控制***及方法
CN113052561A (zh) * 2021-04-01 2021-06-29 苏州惟信易量智能科技有限公司 一种基于可穿戴设备的流程控制***及方法
CN117216308B (zh) * 2023-11-09 2024-04-26 天津华来科技股份有限公司 基于大模型的搜索方法、***、设备及介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100414548C (zh) * 2006-09-22 2008-08-27 南京搜拍信息技术有限公司 综合利用图像及文字信息的搜索***及搜索方法
US8452794B2 (en) * 2009-02-11 2013-05-28 Microsoft Corporation Visual and textual query suggestion
CN101986293B (zh) * 2010-09-03 2016-08-24 百度在线网络技术(北京)有限公司 用于在搜索界面中呈现搜索答案信息的方法及设备
US8645359B2 (en) * 2010-09-30 2014-02-04 Microsoft Corporation Providing associations between objects and individuals associated with relevant media items
US9098533B2 (en) * 2011-10-03 2015-08-04 Microsoft Technology Licensing, Llc Voice directed context sensitive visual search
US10223454B2 (en) * 2013-05-01 2019-03-05 Cloudsight, Inc. Image directed search
CN105512220B (zh) * 2015-11-30 2018-12-11 小米科技有限责任公司 图像页面输出方法及装置
CN106777177A (zh) * 2016-12-22 2017-05-31 百度在线网络技术(北京)有限公司 检索方法和装置
CN115357748A (zh) * 2017-01-17 2022-11-18 腾讯科技(上海)有限公司 头戴式装置

Also Published As

Publication number Publication date
JP6783375B2 (ja) 2020-11-11
EP3480704A4 (en) 2019-09-18
US20190163699A1 (en) 2019-05-30
WO2019056821A1 (zh) 2019-03-28
EP3480704A1 (en) 2019-05-08
CN107590252A (zh) 2018-01-16

Similar Documents

Publication Publication Date Title
JP6783375B2 (ja) 情報インタラクションのための方法および装置
WO2018192491A1 (zh) 信息推送方法和装置
US10922355B2 (en) Method and apparatus for recommending news
WO2016206210A1 (zh) 信息推送方法和装置
US11550860B2 (en) Matchmaking video chatting partners
JP2019091418A (ja) ページを制御する方法および装置
US11011163B2 (en) Method and apparatus for recognizing voice
CN106685916A (zh) 电子会议智能
CN109040960A (zh) 一种实现位置服务的方法和装置
US10755079B2 (en) Method and apparatus for acquiring facial information
WO2019237541A1 (zh) 联系人标签的确定方法、装置、终端设备及介质
WO2020044099A1 (zh) 一种基于对象识别的业务处理方法和装置
JP2019145093A (ja) 情報を生成するための方法及び装置
US9122910B2 (en) Method, apparatus, and system for friend recommendations
WO2017143930A1 (zh) 一种搜索结果排序方法及其设备
US20140333746A1 (en) Method and apparatus for inquiring information
US9208392B2 (en) Methods and apparatus for progressive pattern matching in a mobile environment
WO2023142451A1 (zh) 工作流生成方法、装置、电子设备
KR102017746B1 (ko) 유사도 산출 방법 및 그 장치
CN108667915B (zh) 信息推送***、方法和装置
KR102640679B1 (ko) 컨설팅 정보 처리 방법 및 장치
CN112148962A (zh) 用于推送信息的方法和装置
US10803861B2 (en) Method and apparatus for identifying information
CN111488386A (zh) 数据查询方法和装置
US20130230248A1 (en) Ensuring validity of the bookmark reference in a collaborative bookmarking system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201021

R150 Certificate of patent or registration of utility model

Ref document number: 6783375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250