JP2020528705A - 認知的洞察を使用したビデオ・シーンの移動 - Google Patents

認知的洞察を使用したビデオ・シーンの移動 Download PDF

Info

Publication number
JP2020528705A
JP2020528705A JP2020503818A JP2020503818A JP2020528705A JP 2020528705 A JP2020528705 A JP 2020528705A JP 2020503818 A JP2020503818 A JP 2020503818A JP 2020503818 A JP2020503818 A JP 2020503818A JP 2020528705 A JP2020528705 A JP 2020528705A
Authority
JP
Japan
Prior art keywords
scene
keywords
user
scenes
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503818A
Other languages
English (en)
Other versions
JP7123122B2 (ja
JP2020528705A5 (ja
Inventor
セカンド、リック ハミルトン
セカンド、リック ハミルトン
シャー、イン
リン ツァイ、ユー
リン ツァイ、ユー
ボス、グレゴリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2020528705A publication Critical patent/JP2020528705A/ja
Publication of JP2020528705A5 publication Critical patent/JP2020528705A5/ja
Application granted granted Critical
Publication of JP7123122B2 publication Critical patent/JP7123122B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】データベースからシーンを取得するための方法、システム、およびコンピュータ・プログラム製品を提供する。【解決手段】本発明の実施形態は、データベースからシーンを取得するための方法、システム、およびコンピュータ・プログラム製品を含む。本発明の態様は、注釈付きのビデオ・コンテンツを含んでいるデータベースに格納されたシーンに関する検索要求を受信することを含む。1つまたは複数のキーワードが、検索要求から抽出される。キーワードごとに、拡張キーワードが生成される。拡張キーワードおよびキーワードが、注釈付きのビデオ・コンテンツと比較されて、対象のシーンの注釈を含んでいる対象のシーンを識別する。対象のシーンの各々の対象のシーンの注釈と、拡張キーワードおよびキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価が対象のシーンの各々に割り当てられる。対象のシーンのうちの少なくとも1つがユーザに表示され、対象のシーンのうちの少なくとも1つは、信頼性評価に基づいて決定される。【選択図】図6

Description

本開示は、ビデオ・シーンを移動することに関連しており、より詳細には、認知的洞察を使用してビデオ・シーンを移動するための方法およびシステムに関連している。
コンピュータの性能が向上し続けるのに伴って、デジタル・ビデオの利用が、ますます一般的になってきている。インターネットの帯域幅の50%以上がビデオ・サービスによって消費されているということを示す研究によって証明されているように、ビデオを見ることは、私たちの日常生活で最も人気のある娯楽活動の1つになっている。容易に利用できるビデオ・カメラ、スマートフォン、およびその他のハンドヘルド・デバイスを使って、人は、ますます多くの旅行、重要なお祝い、および家族との時間を記録している。さらに、デジタル・ビデオ技術が、ほとんどの監視システムにおいて使用されている。
しかし、それらの大量のビデオ・データを使用および管理することに伴う問題が発生している。人は、ビデオ全体ではなく、映画またはホーム・ビデオの特定のシーンを見たいと思うことがある。同様に、警官または保安要員は、膨大な量のビデオ・データから証拠を見つけ、集めたいと思うことがある。
多くの場合、1つまたは複数のビデオ・ファイル内の特定のシーンを見つけ、そこに移動することは、時間がかかり、困難である。既存の技術を使用すると、ユーザは、目的のシーンが見つかるまで、早送りモードを使用するか、またはスライダー・バーを何度もドラッグして、ビデオを見なければならない。さらに、一部のビデオは章ごとに分けられており、ユーザは、シーンがあるかもしれない特定の章に移動することができる。これらの技術では、シーンを見つけるために、ビデオに関するユーザの記憶に基づいて、何度も移動する必要がある。また、ユーザは、前にビデオを見たことがない場合があり、別の視聴者からの推奨に基づいてシーンを検索していることがある。
この問題の解決策がいくつか存在するが、それらは、必要性に直接対処しない。例えば、次回、映画が中止された位置から自動的に再開されるように、多くの最新のビデオ・プレーヤーは、映画を再生するために、最後の中断位置を「記憶」する。しかし、この解決策は、過去の記録に基づいており、単一のユーザまたはクライアントのために設計されているため、特定のユーザに関する以前の記録が存在しない場合、または複数のユーザが存在する状況において、適切に動作しない。
他のシステムは、顔認識を使用してビデオ・ストリーム内の特定の人を見つけるが、この機能は、概要を使用して特定のシーンを見つけるという問題に対処せず、その個人が複数のシーン内に存在する場合に特定のシーンを見つけることに対処しない。そのような状況においてこの技術を使用することは、ユーザに提供された多数の結果をさらに手動でフィルタリングする必要があるため、問題になる。したがって、単一のビデオまたは大量のビデオ・データのいずれかから必要なシーンを素早く正確に発見できる新しい方法が、必要とされている。
本発明は、認知的洞察を使用してビデオ・シーンを移動するための方法およびシステムを提供することを目的とする。
実施形態は、データベースからシーンを取得するためのコンピュータ実装方法を含む。コンピュータ実装方法の非限定的な例は、注釈付きのビデオ・コンテンツを含んでいるデータベースに格納されたシーンに関する検索要求を受信することを含む。1つまたは複数のキーワードが、検索要求から抽出される。キーワードごとに、拡張キーワードが生成される。拡張キーワードおよびキーワードが、注釈付きのビデオ・コンテンツと比較されて、対象のシーンの注釈を含んでいる対象のシーンを識別する。対象のシーンの各々の対象のシーンの注釈と、拡張キーワードおよびキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価が対象のシーンの各々に割り当てられる。対象のシーンのうちの少なくとも1つがユーザに表示され、対象のシーンのうちの少なくとも1つは、信頼性評価に基づいて決定される。
実施形態は、データベースからシーンを取得するためのコンピュータ・システムを含み、このコンピュータ・システムはプロセッサを含み、このプロセッサは、方法を実行するように構成される。システムの非限定的な例は、注釈付きのビデオ・コンテンツを含んでいるデータベースに格納されたシーンに関する検索要求を受信することを含む。1つまたは複数のキーワードが、検索要求から抽出される。キーワードごとに、拡張キーワードが生成される。拡張キーワードおよびキーワードが、注釈付きのビデオ・コンテンツと比較されて、対象のシーンの注釈を含んでいる対象のシーンを識別する。対象のシーンの各々の対象のシーンの注釈と、拡張キーワードおよびキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価が対象のシーンの各々に割り当てられる。対象のシーンのうちの少なくとも1つがユーザに表示され、対象のシーンのうちの少なくとも1つは、信頼性評価に基づいて決定される。
実施形態は、データベースからシーンを取得するためのコンピュータ・プログラム製品も含み、このコンピュータ・プログラム製品は、コンピュータ可読プログラム・コードが具現化されている非一過性コンピュータ可読記憶媒体を含む。コンピュータ可読プログラム・コードは、方法を実行するように構成されたコンピュータ可読プログラム・コードを含む。方法の非限定的な例は、注釈付きのビデオ・コンテンツを含んでいるデータベースに格納されたシーンに関する検索要求を受信することを含む。1つまたは複数のキーワードが、検索要求から抽出される。キーワードごとに、拡張キーワードが生成される。拡張キーワードおよびキーワードが、注釈付きのビデオ・コンテンツと比較されて、対象のシーンの注釈を含んでいる対象のシーンを識別する。対象のシーンの各々の対象のシーンの注釈と、拡張キーワードおよびキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価が対象のシーンの各々に割り当てられる。対象のシーンのうちの少なくとも1つがユーザに表示され、対象のシーンのうちの少なくとも1つは、信頼性評価に基づいて決定される。
実施形態は、ビデオ・シーンに注釈を付けるためのコンピュータ実装方法を含む。コンピュータ実装方法の非限定的な例は、プロセッサによって、1つまたは複数のビデオを受信することを含む。1つまたは複数のビデオの各々は、シーンのセットに分割される。シーンのセット内の第1のシーンが解析されて、第1のシーンのラベルのセットを決定する。第1のシーンに、ラベルのセットで注釈が付けられ、それらがデータベースに格納される。
実施形態は、ビデオ・シーンに注釈を付けるためのコンピュータ・システムを含み、このコンピュータ・システムはプロセッサを含み、このプロセッサは、方法を実行するように構成される。システムの非限定的な例は、プロセッサによって、1つまたは複数のビデオを受信することを含む。1つまたは複数のビデオの各々は、シーンのセットに分割される。シーンのセット内の第1のシーンが解析されて、第1のシーンのラベルのセットを決定する。第1のシーンに、ラベルのセットで注釈が付けられ、それらがデータベースに格納される。
その他の特徴および長所が、本発明の手法によって実現される。本発明のその他の実施形態および態様は、本明細書において詳細に説明され、請求される発明の一部と見なされる。さらに良く理解するために、説明および図面を参照すること。
本明細書に記載された専有権の詳細は、本明細書の最後にある特許請求の範囲において具体的に指摘され、明確に請求される。本発明の各実施形態の前述およびその他の特徴と長所は、添付の図面と併せて行われる以下の詳細な説明から明らかになる。
本発明の1つまたは複数の実施形態に記載されたクラウド・コンピューティング環境を示す図である。 本発明の1つまたは複数の実施形態に記載された抽象モデル・レイヤを示す図である。 本明細書の内容を実践することにおいて使用するためのコンピュータ・システムのブロック図である。 1つまたは複数の実施形態に記載されている、デジタル・ビデオを移動するためのシステムのブロック図である。 1つまたは複数の実施形態に記載されている、デジタル・ビデオを移動するための例示的なシステムの図である。 1つまたは複数の実施形態に記載されている、データベースからシーンを取得するための方法のフロー図である。 1つまたは複数の実施形態に記載されている、ビデオ・シーンに注釈を付けるための方法のフロー図である。
本明細書において示される図は、実例である。本発明の思想から逸脱することなく、本明細書に記載された図または動作の多くの変形が存在することが可能である。例えば、動作は異なる順序で実行されることが可能であり、あるいは動作は追加、削除、または変更されることが可能である。また、「結合される」という用語およびその変形は、2つの要素間に通信経路が存在することを表しており、それらの要素間に要素/接続が介在しない要素間の直接的接続を意味していない。これらのすべての変形は、本明細書の一部であると見なされる。
添付の図および開示された実施形態に関する以下の詳細な説明では、図に示されたさまざまな要素が、2桁または3桁の参照番号付きで提供されている。わずかな例外を除いて、各参照番号の左端の数字は、その要素が最初に示された図に対応している。
本明細書では、関連する図面を参照して、本発明のさまざまな実施形態が説明される。本発明の範囲を逸脱することなく、本発明の代替の実施形態を考案することができる。以下の説明および図面において、要素間のさまざまな接続および位置関係(例えば、上、下、隣接など)が示される。それらの接続または位置関係あるいはその両方は、特に規定されない限り、直接的または間接的であることができ、本発明はこの点において限定するよう意図されていない。したがって、各実体の結合は、直接的結合または間接的結合を指すことができ、各実体間の位置関係は、直接的位置関係または間接的位置関係であることができる。さらに、本明細書に記載されたさまざまな作業および工程段階は、本明細書に詳細に記載されない追加の段階または機能を含んでいるさらに包括的な手順または工程に組み込まれ得る。
以下の定義および略称が、特許請求の範囲および本明細書の解釈に使用される。本明細書において使用されているように、「備える」、「備えている」、「含む」、「含んでいる」、「有する」、「有している」、「含有する」、「含有している」という用語、またはこれらの任意のその他の変形は、非排他的包含をカバーするよう意図されている。例えば、要素のリストを含んでいる組成、混合、工程、方法、製品、または装置は、それらの要素のみに必ずしも限定されず、明示されていないか、またはそのような組成、混合、工程、方法、製品、または装置に固有の、その他の要素を含むことができる。
さらに、「例示的」という用語は、本明細書では「例、事例、または実例としての役割を果たす」ことを意味するために使用される。「例示的」として本明細書に記載された実施形態または設計は、必ずしも他の実施形態または設計よりも好ましいか、または有利であると解釈されるべきではない。「少なくとも1つ」および「1つまたは複数」という用語は、1以上の任意の整数(すなわち、1、2、3、4など)を含んでいると理解されてよい。「複数」という用語は、2以上の任意の整数(すなわち、2、3、4、5など)を含んでいると理解されてよい。「接続」という用語は、間接的「接続」および直接的「接続」の両方を含んでよい。
「約」、「実質的に」、「近似的に」、およびこれらの変形の用語は、本願書の出願時に使用できる機器に基づいて、特定の量の測定に関連付けられた誤差の程度を含むよう意図されている。例えば、「約」は、特定の値の±8%または5%、あるいは2%の範囲を含むことができる。
簡潔さの目的で、本発明の態様の作成および使用に関連する従来手法は、本明細書に詳細に記載されることもあれば、記載されないこともある。具体的には、本明細書に記載されたさまざまな技術的特徴を実装するためのコンピューティング・システムおよび特定のコンピュータ・プログラムのさまざまな態様は、よく知られている。したがって、簡略にするために、多くの従来の実装に関する詳細は、本明細書では、既知のシステムまたは工程あるいはその両方の詳細を提供することなく、簡潔にのみ述べられるか、または全体的に省略される。
本開示にはクラウド・コンピューティングに関する詳細な説明が含まれているが、本明細書において示された内容の実装は、クラウド・コンピューティング環境に限定されないと理解されるべきである。本発明の実施形態は、現在既知であるか、または今後開発される任意のその他の種類のコンピューティング環境と組み合わせて実装できる。
クラウド・コンピューティングは、構成可能な計算リソース(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共有プールへの便利なオンデマンドのネットワーク・アクセスを可能にするためのサービス提供モデルであり、管理上の手間またはサービス・プロバイダとのやりとりを最小限に抑えて、これらのリソースを迅速にプロビジョニングおよび解放することができる。このクラウド・モデルは、少なくとも5つの特徴、少なくとも3つのサービス・モデル、および少なくとも4つのデプロイメント・モデルを含むことができる。
特徴は、次のとおりである。
オンデマンドのセルフ・サービス:クラウドの利用者は、サーバの時間、ネットワーク・ストレージなどの計算能力を一方的に、サービス・プロバイダとの人間的なやりとりを必要とせず、必要に応じて自動的にプロビジョニングすることができる。
幅広いネットワーク・アクセス:クラウドの能力は、ネットワークを経由して利用可能であり、標準的なメカニズムを使用してアクセスできるため、異種のシン・クライアントまたはシック・クライアント・プラットフォーム(例えば、携帯電話、ラップトップ、およびPDA)による利用を促進する。
リソース・プール:プロバイダの計算リソースは、プールされ、マルチテナント・モデルを使用して複数の利用者に提供される。さまざまな物理的および仮想的リソースが、要求に従って動的に割り当ておよび再割り当てされる。場所に依存しないという感覚があり、利用者は通常、提供されるリソースの正確な場所に関して管理することも知ることもないが、さらに高い抽象レベルでは、場所(例えば、国、州、またはデータセンター)を指定できる場合がある。
迅速な順応性:クラウドの能力は、迅速かつ柔軟に、場合によっては自動的にプロビジョニングされ、素早くスケールアウトし、迅速に解放されて素早くスケールインすることができる。プロビジョニングに使用できる能力は、利用者には、多くの場合、任意の量をいつでも無制限に購入できるように見える。
測定されるサービス:クラウド・システムは、計測機能を活用することによって、サービスの種類(例えば、ストレージ、処理、帯域幅、およびアクティブなユーザのアカウント)に適した抽象レベルで、リソースの使用を自動的に制御および最適化する。リソースの使用量は監視、制御、および報告することができ、利用されるサービスのプロバイダと利用者の両方に透明性が提供される。
IaaS(Infrastructure as a Service):利用者に提供される能力は、処理、ストレージ、ネットワーク、およびその他の基本的な計算リソースのプロビジョニングであり、利用者は、オペレーティング・システムおよびアプリケーションを含むことができる任意のソフトウェアをデプロイして実行できる。利用者は、基盤になるクラウド・インフラストラクチャを管理することも制御することもないが、オペレーティング・システム、ストレージ、およびデプロイされたアプリケーションを制御することができ、場合によっては、選択されたネットワーク・コンポーネント(例えば、ホスト・ファイアウォール)を限定的に制御できる。
デプロイメント・モデルは、次のとおりである。
プライベート・クラウド:このクラウド・インフラストラクチャは、ある組織のためにのみ運用される。この組織またはサード・パーティによって管理することができ、オンプレミスまたはオフプレミスに存在することができる。
コミュニティ・クラウド:このクラウド・インフラストラクチャは、複数の組織によって共有され、関心事(例えば、任務、セキュリティ要件、ポリシー、およびコンプライアンスに関する考慮事項)を共有している特定のコミュニティをサポートする。これらの組織またはサード・パーティによって管理することができ、オンプレミスまたはオフプレミスに存在することができる。
パブリック・クラウド:このクラウド・インフラストラクチャは、一般ユーザまたは大規模な業界団体が使用できるようになっており、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:このクラウド・インフラストラクチャは、データとアプリケーションの移植を可能にする標準化された技術または独自の技術(例えば、クラウド間の負荷バランスを調整するためのクラウド・バースト)によって固有の実体を残したまま互いに結合された2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の複合である。
クラウド・コンピューティング環境は、ステートレス、疎結合、モジュール性、および意味的相互運用性に重点を置いたサービス指向の環境である。クラウド・コンピューティングの中心になるのは、相互接続されたノードのネットワークを含んでいるインフラストラクチャである。
ここで図1を参照すると、例示的なクラウド・コンピューティング環境50が示されている。図示されているように、クラウド・コンピューティング環境50は、クラウドの利用者によって使用されるローカル・コンピューティング・デバイス(例えば、PDA(Personal Digital Assistant)または携帯電話54A、デスクトップ・コンピュータ54B、ラップトップ・コンピュータ54C、または自動車コンピュータ・システム54N、あるいはその組み合わせなど)が通信できる1つまたは複数のクラウド・コンピューティング・ノード10を備える。ノード10は、互いに通信してよい。ノード10は、1つまたは複数のネットワーク内で、本明細書において前述されたプライベート・クラウド、コミュニティ・クラウド、パブリック・クラウド、またはハイブリッド・クラウド、あるいはこれらの組み合わせなどに、物理的または仮想的にグループ化されてよい(図示されていない)。これによって、クラウド・コンピューティング環境50は、クラウドの利用者がローカル・コンピューティング・デバイス上でリソースを維持する必要のないインフラストラクチャ、プラットフォーム、またはSaaS、あるいはその組み合わせを提供できる。図1に示されたコンピューティング・デバイス54A〜Nの種類は、例示のみが意図されており、コンピューティング・ノード10およびクラウド・コンピューティング環境50は、任意の種類のネットワークまたはネットワーク・アドレス可能な接続(例えば、Webブラウザを使用した接続)あるいはその両方を経由して任意の種類のコンピュータ制御デバイスと通信できるということが理解される。
ここで図2を参照すると、クラウド・コンピューティング環境50(図1)によって提供される機能的抽象レイヤのセットが示されている。図2に示されたコンポーネント、レイヤ、および機能は、例示のみが意図されており、本発明の実施形態がこれらに限定されないということが、あらかじめ理解されるべきである。図示されているように、次のレイヤおよび対応する機能が提供される。
ハードウェアおよびソフトウェア・レイヤ60は、ハードウェア・コンポーネントおよびソフトウェア・コンポーネントを含む。ハードウェア・コンポーネントの例としては、メインフレーム61、RISC(Reduced Instruction Set Computer)アーキテクチャベースのサーバ62、サーバ63、ブレード・サーバ64、ストレージ・デバイス65、ならびにネットワークおよびネットワーク・コンポーネント66が挙げられる。一部の実施形態では、ソフトウェア・コンポーネントは、ネットワーク・アプリケーション・サーバ・ソフトウェア67およびデータベース・ソフトウェア68を含む。
仮想化レイヤ70は、仮想サーバ71、仮想ストレージ72、仮想プライベート・ネットワークを含む仮想ネットワーク73、仮想アプリケーションおよびオペレーティング・システム74、ならびに仮想クライアント75などの仮想的実体を提供できる抽象レイヤを備える。
一例を挙げると、管理レイヤ80は、以下で説明される機能を提供することができる。リソース・プロビジョニング81は、クラウド・コンピューティング環境内でタスクを実行するために利用される計算リソースおよびその他のリソースの動的調達を行う。計測および価格設定82は、クラウド・コンピューティング環境内でリソースが利用される際のコスト追跡、およびそれらのリソースの利用に対する請求書の作成と送付を行う。一例を挙げると、それらのリソースは、アプリケーション・ソフトウェア・ライセンスを含むことができる。セキュリティは、クラウドの利用者およびタスクのID検証を行うとともに、データおよびその他のリソースの保護を行う。ユーザ・ポータル83は、クラウド・コンピューティング環境へのアクセスを利用者およびシステム管理者に提供する。サービス・レベル管理84は、必要なサービス・レベルを満たすように、クラウドの計算リソースの割り当てと管理を行う。サービス水準合意(SLA:Service Level Agreement)計画および実行85は、今後の要求が予想されるクラウドの計算リソースの事前準備および調達を、SLAに従って行う。
ワークロード・レイヤ90は、クラウド・コンピューティング環境で利用できる機能の例を示している。このレイヤから提供されてよいワークロードおよび機能の例としては、マッピングおよびナビゲーション91、ソフトウェア開発およびライフサイクル管理92、仮想クラスルーム教育の配信93、データ分析処理94、データベースからのビデオの取得95、およびビデオ・シーンへの注釈付与96が挙げられる。
図3を参照すると、本明細書における内容を実装するための処理システム100の実施形態が示されている。この実施形態では、システム100は、1つまたは複数の中央処理装置(プロセッサ)101a、101b、101cなど(総称して、または一般的に、プロセッサ101として参照される)を含む。1つまたは複数の実施形態では、各プロセッサ101は、縮小命令セット・コンピュータ(RISC:reduced instruction set computer)マイクロプロセッサを含んでよい。プロセッサ101は、システム・バス113を介して、システム・メモリ114およびさまざまなその他のコンポーネントに接続される。読み取り専用メモリ(ROM:Read only memory)102は、システム・バス113に接続され、システム100の特定の基本機能を制御する基本入出力システム(BIOS:basic input/output system)を含んでよい。
図3は、システム・バス113に接続された入出力(I/O:input/output)アダプタ107およびネットワーク・アダプタ106をさらに示している。I/Oアダプタ107は、ハード・ディスク103またはテープ・ストレージ・デバイス105あるいはその両方、あるいは任意のその他の類似するコンポーネントと通信する小型コンピュータ・システム・インターフェイス(SCSI:small computer system interface)アダプタであってよい。I/Oアダプタ107、ハード・ディスク103、およびテープ・ストレージ・デバイス105は、本明細書では、総称してマス・ストレージ104として参照される。処理システム100上で実行するためのオペレーティング・システム120は、マス・ストレージ104に格納されてよい。ネットワーク・アダプタ106は、バス113を外部ネットワーク116と相互接続し、データ処理システム100が他のそのようなシステムと通信できるようにする。画面(例えば、表示モニタ)115は、ディスプレイ・アダプタ112によってシステム・バス113に接続され、ディスプレイ・アダプタ112は、グラフィックス重視のアプリケーションおよびビデオ・コントローラの性能を向上するために、グラフィックス・アダプタを含んでよい。一実施形態では、アダプタ107、106、および112は、1つまたは複数のI/Oバスに接続されてよく、I/Oバスは、中間バス・ブリッジ(図示されていない)を介してシステム・バス113に接続される。ハード・ディスク・コントローラ、ネットワーク・アダプタ、およびグラフィックス・アダプタなどの周辺機器を接続するのに適したI/Oバスは、通常、PCI(Peripheral Component Interconnect)などの一般的なプロトコルを含む。ユーザ・インターフェイス・アダプタ108およびディスプレイ・アダプタ112を介してシステム・バス113に接続されているように、その他の入出力デバイスが示されている。キーボード109、マウス110、およびスピーカ111は、すべてユーザ・インターフェイス・アダプタ108を介してバス113に相互接続されており、例えばユーザ・インターフェイス・アダプタ108は、複数のデバイス・アダプタを1つの集積回路に統合するスーパーI/Oチップを含んでよい。
実施形態例では、処理システム100は、グラフィックス・プロセッシング・ユニット130を含む。グラフィックス・プロセッシング・ユニット130は、ディスプレイへの出力を対象にしたフレーム・バッファ内の画像の作成を高速化するためにメモリを操作して変更するように設計された特殊な電子回路である。一般に、グラフィックス・プロセッシング・ユニット130は、コンピュータ・グラフィックスおよび画像処理の操作では非常に効率的であり、データの大きいブロックの処理が並列に実行されるアルゴリズムに関して汎用CPUよりも効果的にする高度な並列構造を有する。
したがって、図3で構成されているように、システム100は、プロセッサ101の形態での処理能力と、システム・メモリ114およびマス・ストレージ104を含んでいるストレージ能力と、キーボード109およびマウス110などの入力手段と、スピーカ111およびディスプレイ115を含んでいる出力能力とを含む。一実施形態では、システム・メモリ114およびマス・ストレージ104の一部は、オペレーティング・システムを集合的に格納し、図3に示されたさまざまなコンポーネントの機能を調整する。
本発明の1つまたは複数の実施形態は、ビデオ・シーンに注釈を付け、データベースからビデオ・シーンを取得するためのシステム、方法、およびコンピュータ・プログラム製品を提供する。本発明の態様は、ビデオ・シーン内の物体、実体、動作、概念、および情緒を識別するための手法を利用して、ビデオ・コンテンツを解析し、ビデオ・シーンに関連付けられたラベルを提供することを含む。それらのラベルは、キーワーのド形態または自然言語記述(すなわち、ビデオ・シーンを説明する文章)であることができる。キーワードのラベルに加えて、抽出されたキーワードに関連付けられた拡張キーワードが作成される。例えば、「野球」などのキーワードが、フィールド、ピッチャー、スタジアム、マウンド、ベースなどの拡張キーワードに関連付けられ得る。それらの拡張キーワードも、ビデオ・シーンに注釈付けされ得る。それらの注釈付きのビデオ・シーンは、検索のためにデータベースに格納され得る。
本発明の1つまたは複数の実施形態では、ユーザは、データベース内のビデオ・シーンを検索できる。ユーザは、データベースに格納されたビデオ・シーンに関する検索要求を送信できる。検索要求は、特定のビデオ・シーンに関するユーザからの音声入力またはユーザからのテキスト入力であることができる。検索要求からキーワードを抽出し、ビデオ・シーンの注釈と比較して、一致するシーンのリストを決定できる。さらに、検索要求の抽出されたキーワードから、拡張キーワードが作成され得る。拡張キーワードをビデオ・シーンの注釈と比較して、一致するシーンのリストを決定できる。
図4は、1つまたは複数の実施形態に従って、デジタル・ビデオを移動するためのシステム400のブロック図を示している。システム400は、サーバ401、ビデオ・シーン用の参照データベース402、外部ライブラリ405、およびクライアント406を含んでいる。サーバ401は、画像認識モジュール403、自然言語処理(NLP:natural language processing)モジュール404、および通信モジュール408を含んでいる。サーバ401は、概念タグ付け、感情解析、情緒解析、および関係抽出を含んでいる解析モジュール420も含む。クライアント406は、クライアント406と電子的に通信するユーザ入力モジュール407、表示モジュール410、およびセンサ430を含んでいる。
本発明の1つまたは複数の実施形態では、サーバ401、クライアント406、画像認識モジュール403、自然言語処理モジュール404、通信モジュール408.および解析モジュール420は、図3にある処理システム100上に実装され得る。さらに、クラウド・コンピューティング・システム50は、システム400の要素のうちの1つまたはすべてと、有線または無線で電子的に通信できる。クラウド50は、システム400の要素の機能の一部または全部を補完するか、支援するか、または置き換えることができる。さらに、システム400の要素の機能の一部または全部は、クラウド50のノード10(図1および2に示されている)として実装され得る。クラウド・コンピューティング・ノード10は、適切なクラウド・コンピューティング・ノードの一例に過ぎず、本明細書に記載された本発明の実施形態の使用または機能の範囲に関して、いかなる制限を示唆することも意図されていない。
本発明の1つまたは複数の実施形態では、システム400は、ビデオ・データに注釈を付けることに利用され得る。ビデオ・データに注釈を付けることは、対応するビデオ・シーンに関連付けられた意味的特性の形態(例えばタグ、説明などの、単語の形態または文章の形態)で注釈を適用することを含む。システム400は、サーバ401およびビデオ・データを格納する参照データベース402を含んでいる。ビデオ・データは、映画、テレビ番組、インターネット・ビデオなどを含むことができる。ビデオ・データは、さまざまな長さのビデオ・シーンに分割され得る。シーンの長さは、テーマまたは概念と相関性があってよい。例えば、ビデオ内の結婚式のシーン全体は、数分にわたって発生することがあるが、結婚式のシーン全体は、発生する動作あるいは通路を歩くことまたは結婚披露宴などの設定に基づいて、より短いシーンにさらに分割され得る。ビデオ・データは、ビデオ・シーンに関する概念、感情、および情緒に基づいてさらに分割され得る。
サーバ401は、概念タグ付け、感情解析、情緒解析、および関係抽出を利用する解析モジュール420を利用して、参照データベース402上のビデオ・シーンに注釈を付ける(「タグ」または「タグ付け」と呼ばれることもある)。サーバ401は、画像認識モジュール403も利用して、ビデオ・シーン内の物体を識別する。NLPモジュール404は、ビデオ・シーンの概念、感情、情緒、関係の抽出の解析および注釈のために、ビデオ・シーンの各々に含まれる音声の解析および識別に利用される。
情緒解析手法は、テキストおよび音声で表された意見を(NLPを介して)識別して分類し、話題、製品に対する話者またはその他の対象者の態度、あるいは物体、相互作用、またはイベントに対する全体的な文脈上の両極性または感情的反応を決定することを含む。抽出され得る情緒は、肯定的、否定的、および中立的を含むが、これらに限定されない。態度は、判断または評価、感情状態(すなわち、感情の状態)、または意図された感情的コミュニケーション(すなわち、話者によって意図された感情的効果)であることができる。前述した情緒解析を介して抽出された感情に加えて、感情解析は、表情認識などの手法を介して個人の顔を解析し、個人の1つまたは複数の感情を決定することを含むこともできる。感情解析は、表情認識に少なくとも部分的に基づいて、個人の感情の変化を決定することもできる。
画像認識モジュール403は、参照データベース402から取得されたさまざまなビデオ・シーン内の物体を決定するために利用される。画像認識は、1つのシーン内の複数の画像に含まれる形状および物体を認識して識別するために実行される。画像認識の実行時に使用される特定の画像認識アルゴリズムは、特定のアプリケーションまたは処理の制約に利用できる任意の適切な画像認識アルゴリズムまたはパターン認識アルゴリズムであることができる。画像認識アルゴリズムは、既知の物体に対する1つまたは複数のシーン内の物体の照合を実行するために利用可能なデータベースによって、制限されることがある。1つの例として、画像認識アルゴリズムは、画像の前処理を含むことができる。前処理は、画像のコントラストの調整、グレースケールまたは白黒あるいはその両方への変換、トリミング、サイズ変更、回転、ならびにこれらの組み合わせを含むことができるが、これらに限定されない。特定の画像認識アルゴリズムによれば、例えば、色、サイズ、または形状などの特徴を区別することが、特定の物体を検出することに使用するために選択され得る。物体の特徴を区別することを可能にする複数の特徴が、使用され得る。ビデオ・シーン内の物体のエッジを決定するために、エッジ検出が実行され得る。ピクセルのセットに対して、不要な成分の除去を含む動作を実行するために、画像認識アルゴリズムにおいて、モルフォロジーが実行されてよい。加えて、ノイズ低減または領域の塗りつぶしあるいはその両方が実行されてよい。さらに、画像認識アルゴリズムでは、画像内で1つまたは複数の物体(および関連する特性)が発見/検出された後に、1つまたは複数の物体の位置が、ビデオ・シーン内でそれぞれ特定され、その後、分類され得る。特定された物体は、際立った特徴に関連する特定の指定に従って、特定された物体を評価することによって、分類され得る(すなわち、特定の形状または物体として識別され得る)。特定の指定は、数学的計算または関係を含むことができる。別の例では、ビデオ・シーン内の認識可能な物体の位置を特定する代わりに、または特定することに加えて、パターン照合が実行され得る。照合は、画像内の要素または物体あるいはその両方を、「既知」の(以前に識別または分類された)物体および要素(例えば、ラベル付きのトレーニング・データ)と比較することによって、実行され得る。画像認識モジュール403は、ビデオ・シーン内で識別された物体をラベル付きのトレーニング・データと比較することによって、機械学習を利用して、識別の精度を検証できる。画像認識モジュール403は、ニューラル・ネットワーク(NN:neural networks)およびその他の学習アルゴリズムを利用できる。画像認識モジュール403の識別プロセスは、信頼性しきい値などの、識別の信頼度を含むことができる。このしきい値を下回る信頼性を有する物体のすべての識別が、破棄され得る。物体の識別が、特定のしきい値を超える信頼性を有する場合、シーンの物体に注釈(ラベル)を付けることができる。例えば、シーンは、背景に車両を含むことができ、画像認識モジュール403は、その車両をオートバイとして識別することができ、そのシーンの場合、ラベルまたは注釈は、「オートバイ」というラベルを含むことができる。画像認識モジュール403は、例えば、色、位置、運転中または駐車中のどちらであるか、ブランドなどの、オートバイに関する特徴を識別することもできる。説明された実施形態および例が画像認識を参照できるということを確信しているが、このことが、説明された実施形態および例を画像のみに限定していると解釈されるべきではないということが、理解されるべきである。例えば、本発明の1つまたは複数の実施形態に従って説明されているように、ビデオ信号がシステム400によって受信され、自動タグ生成プロセスが適用され得る。参照データベース402から1つまたは複数のビデオ・フレームを受信することができ、ビデオ・フレームは画像を含むことができ、画像認識が実行され得る。
本発明の1つまたは複数の実施形態では、画像認識モジュール403は、ビデオ・シーン内の人、物体、実体、およびその他の特徴を識別するために利用される。解析モジュール420は、ビデオ・シーンの注釈用に、それらの人、物体、実体、およびその他の特徴の間の関係を決定するために利用される。例えば、法廷内の人物の識別は、関係の抽出と共に、その人物を裁判官として識別することができる。このシーンの注釈は、訴訟手続きまたは判決などに関連するキーワードでタグ付けされ得る。この人物は、識別された後に、外部ライブラリ405と相互参照され得る。外部ライブラリ405は、ビデオ・シーンに関連するインターネット・ムービー・データベース(IMDB:internet movie database)、電子番組ガイド(EPG:electronic program guide)、およびその他の類似する外部ライブラリを含むが、これらに限定されない。この人物の識別は、外部ライブラリ405内の人物の説明を相互参照し、上の例では、この人物が裁判官であるということを確認することによって、さらに改善され得る。
NLPモジュール404を介したテキストおよび音声の解析は、ビデオ・シーンに関連付けられた字幕/サブタイトルおよび会話を解析するために利用される。解析モジュール420は、情緒、実体、動作、および概念を決定するために利用される。例えば、ビデオ・シーンに関連付けられた音声データが、NLPモジュール404によって解析され、音声テキスト変換(STT:speech to text)などの手法を使用して、音声データをテキストに変換することができる。ビデオ・シーンの注釈用のキーワードが、テキスト形式で抽出され得る。
1つまたは複数の実施形態では、サーバ401が、通信モジュール408を介してクライアント406と通信することができる。クライアント406は、クライアント406と電子的に通信する1つまたは複数のセンサ430を含んでいる。クライアント406は、表示モジュール410を介してビデオ・シーンを視聴者に表示するための、任意の種類のコンピュータまたはインターフェイスであることができる。例えば、クライアント406は、スマートフォンの周りの個人のグループ(すなわち、視聴者)が見るために、ビデオ・シーンをスマートフォン上に表示しているスマートフォンであることができる。センサ430は、カメラまたはマイクロホンあるいはその両方を含むことができる。この例では、センサ430は、ビデオ・シーンに対する視聴者の反応を記録する、スマートフォンに組み込まれたマイクロホンおよびカメラであることができる。感情、情緒などを含む視聴者の反応は、サーバ401上の解析モジュール420を利用して解析され得る。それらの感情、情緒などは、参照データベース402上で、ビデオ・シーンにさらに注釈を付けることができる。
視聴者は、映画館にいる個人、個人的なビデオを見ている家族などを含む、任意の種類の視聴者であることができる。クライアント406は、センサ430と通信し、解析モジュール420によって解析されるセンサ・データをセンサ430からサーバに送信することができる、スマート・テレビおよびその他のシステムを含むことができる。システム400は、ビデオ・シーンを見ているときに視聴者によって行われた言葉による指示およびコメントを記録し、NLPモジュール404を利用して解析用の語句およびキーワードを抽出する。加えて、システム400は、センサ430を利用して、ビデオ・シーンを見ている間の視聴者の表情および身振りを記録する。センサ・データは、情緒解析および感情解析を利用して、解析モジュール420によって解析され得る。記録され得る反応の例としては、例えば、驚く、怖がる、泣く、熱狂するなどの反応が挙げられる。1つまたは複数の実施形態では、視聴者の反応に少なくとも部分的に基づいて、システム400は、視聴者に見られているビデオ・シーンに注釈を付けることができる。注釈は、視聴者の感情的な反応を含むことができる。
視聴者の反応をビデオ・シーンに含めることの利点は、シーンの情緒解析を確認することを含む。情緒解析および感情解析は、例えば機械学習などの、任意の適切な学習アルゴリズム使用して、実行され得る。視聴者の反応は、学習アルゴリズムによって作成されたラベルを確認または拒否し、学習アルゴリズムが学習するのを支援することができる。例えば、学習アルゴリズムは、情緒解析を使用して、シーン内の実体、音声コンテンツ、および関係に基づいて、情緒を識別することができる。識別された情緒は、それに関連付けられた信頼度を有することができる。信頼度に少なくとも部分的に基づいて、視聴者の反応が取得され、シーンの情緒を確認または拒否することができる。シーンの情緒に、「悲しい」シーンというラベルが付けられたが、視聴者の反応が「喜び」および「笑い」を含んでいる場合、そのラベルは、視聴者の反応に一致し、機械学習アルゴリズムをトレーニングするように、調整され得る。
本発明の1つまたは複数の実施形態では、システム400は、デジタル・ビデオを移動することに利用され得る。ユーザは、クライアント406上のユーザ入力モジュール407を介して、ビデオ内の特定のシーンに関する要求を行うことができる。クライアント406は、個人のコンピューティング・デバイス、テレビ、スマートフォン、またはその他のスマート・デバイスなどであることができる。ユーザ入力モジュール407は、ユーザによる音声入力、テキスト入力、またはユーザからのグラフィックス入力を介して、ビデオ内のシーンに関するユーザの照会を受信するように構成される。例えば、ユーザは、キーボードまたは画面上の文字を選択するマウスなどの、クライアント406の周辺機器で、要求をテキスト入力として入力することができる。また、ユーザは、クライアント406と電子的に通信するマイクロホンなどの、クライアント406に通信によって接続された周辺機器を介して、言葉で要求を伝えることができる。ユーザは、ユーザ入力モジュール407を介して、照会のグラフィック表現を選択することもできる。例えば、照会は、ビデオ内のアクション・シーンまたはビデオ内のラブ・シーンを表すアイコンを含むことができる。その場合、ユーザは、アイコンを選択して照会をサーバ401に送信できる。
クライアント406は、ユーザ入力モジュール407を介してユーザ入力を受信し、サーバ401に照会して、ユーザの要求に最も良く一致する1つまたは複数のビデオ・シーンを見つけることができる。サーバ401は、参照データベース402に格納されたビデオ・データを含む。ビデオ・データは、対応する注釈(「タグ」または「キーワード」とも呼ばれる)付きのビデオ・シーンを含む。注釈は、ビデオ・シーン内の物体、情緒、動作、実体、および概念を説明するラベルまたはタグを含む。物体は、俳優、車両、場所、建物、動物などを含むことができる。概念は、ロマンス、喜び、幸福などのシーンに対する感情を含むことができる。概念は、アクション、スリル、恐怖などのシーンに関するカテゴリを含むこともできる。
本発明の1つまたは複数の実施形態では、ユーザ入力モジュール407は、ユーザから照会を受信して、通信モジュール408に送信する。この照会は、解析のためにNLPモジュール404に送信される。NLPモジュール404は、例えば音声テキスト変換(STT)などの手法を利用して、音声の照会をテキスト形式に変換することができる。NLPモジュール404は、テキスト形式の照会を解析して、照会の言語からキーワードを抽出する。例えば照会は、「ビルがホームランを打ったシーン」を要求する。抽出されたキーワードは、「ビル」、「ホームラン」、および「ヒット」を含むであろう。抽出されたキーワードは、拡張キーワードを識別するために利用される。前の例では、拡張キーワードは、「野球」、「野球場」、「バット」、「ユニフォーム」、「スコア」などを含むことができる。拡張キーワードは、俳優の名前を含むこともでき、キーワード「ビル」が、この俳優の氏名または映画の登場人物の氏名に拡張されるであろう。キーワードおよび拡張キーワードは、キーワードおよび拡張キーワードに最も良く一致する1つまたは複数の一致するシーンを見つけるために、シーン照会モジュール409によって参照データベース402内の注釈付きのシーンと比較される。1つまたは複数の一致するシーンが、クライアント406の表示モジュール410で、ユーザに提示され得る。
NLPモジュール404を使用してユーザ入力を受信することの利点は、ユーザがビデオ・コンテンツにアクセスするための使いやすい方法を作ることを含む。クライアント406は、スマートフォンを含む任意の種類の電子デバイスを含むことができる。スマートフォンは、通常、検索要求を入力するためのキーボードを備えているコンピュータとは異なり、検索要求を入力する簡単な方法を有していない。音声の要求を受信し、キーワードを抽出できることは、クライアント406の種類に関する優位性および柔軟性を可能にする。
情緒解析および感情解析を採用することは、ビデオ・シーンにラベルを付けて、検索のためのさらに多くの選択肢をユーザに提供するという優位性を作り出す。通常、ユーザは、シーンを探すときに、場所または登場人物を説明しようとする。代わりに、感情および情緒を含める能力によって、特に、ユーザが登場人物の名前もシーンの説明も覚えていない場合に、ユーザは、シーンのより広い検索を投じることができるようになる。さらに、ユーザは、特定のシーンを探していないことがある。代わりに、ユーザは、特定の感情を伝えるシーンを求めていることがある。例えば、ユーザがプレゼンテーションを準備しており、プレゼンテーションに含めるために「元気が出る」シーンを見つけたい場合、ユーザは「元気が出るシーン」を検索することができ、システム400は、この説明に一致する複数のシーンを返すことができる。
図5は、本発明の1つまたは複数の実施形態に従ってデジタル・ビデオを移動するための例示的なシステムを示している。システム500は、「公園内でボブがアリスに求婚しているときのシーンを見たい」と述べるユーザ入力501を入力しているユーザを含んでいる。NLPモジュール404は、シーンの説明に関連していないユーザ入力501のコンテンツを除去してユーザ・ステートメント503を作成するために、利用される。キーワード502および拡張キーワードが、ユーザ・ステートメント503から抽出される。抽出されたキーワード502は、「ボブ」、「アリス」、「求婚」、および「公園」を含む。「公園」に関する拡張キーワードは、「木、草、および池」を含む。「求婚」に関する拡張キーワードは、「指輪、ダイヤモンド、および花」を含む。(図4の)シーン照会モジュール409は、キーワードおよび拡張キーワードを参照データベース402内のビデオ・シーンと比較して、キーワードおよび拡張キーワードに一致する1つまたは複数のビデオ・シーンを決定する。図に示されているように、参照データベース402内のビデオ・シーンは、シーンのタグおよびシーンの説明505の形態で、注釈を含んでいる。これらの注釈は、前述した手法を利用して適用されている。この実例では、シーンのタグは「ボブ、アリス、バラ、木、草、および求婚」を含んでいる。さらに、シーンの説明505は「公園内でボブがアリスに求婚している」を含んでいる。ビデオ・シーンの注釈とのユーザ・ステートメントのキーワードの比較に少なくとも部分的に基づいて、シーン照会モジュール409によってビデオ・シーンが選択され、表示のためにクライアント406に提示される。
本発明の1つまたは複数の実施形態では、シーン照会モジュール409は、ユーザ入力キーワードとビデオ・シーンの注釈の比較に基づいて、識別されたビデオ・シーンの信頼値を決定できる。この信頼値は、一致する可能性のあるシーンのリストを提示するときに、クライアント・デバイス406上に表示され得る。ユーザが特定のシーンを選択することに少なくとも部分的に基づいて、サーバ401は、ビデオ・シーンの注釈の信頼度を増やし、ビデオ・シーンの注釈を更新することができる。例えば、5つのキーワードのうちの4つがビデオ・シーンの注釈に一致し、その後、ユーザが特定のシーンを選択した場合、ユーザによって確認されたとおりに注釈を改善するために、5番目のキーワードを使用してビデオ・シーンが更新され得る。本発明の1つまたは複数の実施形態では、システムの複数のユーザによる照会の言語およびその後の選択に基づいて、ビデオ・シーンの注釈が継続的に更新され得る。
本発明の1つまたは複数の実施形態では、ビデオ・シーン内の物体を識別するために、画像認識モジュール403が使用可能であり、この識別を検証するために、機械学習技術が利用され得る。例えば図5では、シーンがバラを含んでおり、画像認識モジュール403は、例えば「花」、「バラ」、または「赤い花」などのタグを返すことができる。画像認識モジュール403は、これらのタグを、花、バラ、または赤い花、あるいはその組み合わせの既知の(ラベル付きの)画像と比較して、シーン内で識別されたこの物体のタグを検証することができる。
ここで図6を参照すると、本発明の1つまたは複数の実施形態に従ってデータベースからシーンを取得するための方法600のフロー図が示されている。方法600は、ブロック602に示されているように、ユーザから、データベースに格納されたシーンに関する検索要求を受信することを含んでおり、このデータベースが注釈付きのビデオ・コンテンツを含んでいる。ブロック604で、方法600は、1つまたは複数のキーワードを検索要求から抽出することを含んでいる。方法600は、ブロック606で、1つまたは複数のキーワードの各々に関して、1つまたは複数の拡張キーワードを生成することを含んでいる。ブロック608で、方法600は、1つまたは複数の拡張キーワードおよび1つまたは複数のキーワードを、注釈付きのビデオ・コンテンツと比較して、1つまたは複数の対象のシーンを識別することを含んでおり、1つまたは複数の対象のシーンは、それぞれ対象のシーンの注釈を含んでいる。方法600は、ブロック610に示されているように、1つまたは複数の対象のシーンの各々の対象のシーンの注釈と、1つまたは複数の拡張キーワードおよび1つまたは複数のキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価を1つまたは複数の対象のシーンの各々に割り当てることを含んでいる。ブロック612で、方法600は、1つまたは複数の対象のシーンのうちの少なくとも1つをユーザに表示することを含んでおり、1つまたは複数の対象のシーンのうちの少なくとも1つが、信頼性評価に基づいて決定される。
追加のプロセスが含まれてもよい。図6に示されたプロセスが例を表しており、本開示の範囲および思想を逸脱することなく、他のプロセスが追加されてよく、または既存のプロセスが削除、変更、または再配置されてよいということが、理解されるべきである。
ここで図7を参照すると、本発明の1つまたは複数の実施形態に従ってビデオ・シーンに注釈を付けるための方法700のフロー図が示されている。方法700は、ブロック702に示されているように、プロセッサによって1つまたは複数のビデオを受信することを含んでいる。ブロック704で、方法700は、1つまたは複数のビデオの各々をシーンのセットに分割することを含んでいる。方法700は、ブロック706で、シーンのセット内の第1のシーンを解析して、第1のシーンのラベルのセットを決定することを含んでいる。ブロック708で、方法700は、第1のシーンにラベルのセットで注釈を付けることを含んでいる。ブロック710で、方法700は、第1のシーンをデータベースに格納することを含んでいる。
追加のプロセスが含まれてもよい。図7に示されたプロセスが例を表しており、本開示の範囲および思想を逸脱することなく、他のプロセスが追加されてよく、または既存のプロセスが削除、変更、または再配置されてよいということが、理解されるべきである。
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはその組み合わせであってよい。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を含んでいるコンピュータ可読記憶媒体を含んでよい。
コンピュータ可読記憶媒体は、命令実行デバイスによって使用するための命令を保持および格納できる有形のデバイスであることができる。コンピュータ可読記憶媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、またはこれらの任意の適切な組み合わせであってよいが、これらに限定されない。コンピュータ可読記憶媒体のさらに具体的な例の非網羅的リストは、ポータブル・フロッピー(R)・ディスク、ハード・ディスク、ランダム・アクセス・メモリ(RAM:random access memory)、読み取り専用メモリ(ROM:read-only memory)、消去可能プログラマブル読み取り専用メモリ(EPROM:erasable programmable read-only memoryまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM:static random access memory)、ポータブル・コンパクト・ディスク読み取り専用メモリ(CD−ROM:compact disc read-only memory)、デジタル多用途ディスク(DVD:digital versatile disk)、メモリ・スティック、フロッピー(R)・ディスク、パンチカードまたは命令が記録されている溝の中の***構造などの機械的にエンコードされるデバイス、およびこれらの任意の適切な組み合わせを含む。本明細書において使用されるとき、コンピュータ可読記憶媒体は、それ自体が、電波またはその他の自由に伝搬する電磁波、導波管またはその他の送信媒体を伝搬する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、あるいはワイヤを介して送信される電気信号などの一過性の信号であると解釈されるべきではない。
本明細書に記載されたコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から各コンピューティング・デバイス/処理デバイスへ、またはネットワーク(例えば、インターネット、ローカル・エリア・ネットワーク、広域ネットワーク、または無線ネットワーク、あるいはその組み合わせ)を介して外部コンピュータまたは外部ストレージ・デバイスへダウンロードされ得る。このネットワークは、銅伝送ケーブル、光伝送ファイバ、無線送信、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはその組み合わせを備えてよい。各コンピューティング・デバイス/処理デバイス内のネットワーク・アダプタ・カードまたはネットワーク・インターフェイスは、コンピュータ可読プログラム命令をネットワークから受信し、それらのコンピュータ可読プログラム命令を各コンピューティング・デバイス/処理デバイス内のコンピュータ可読記憶媒体に格納するために転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA:instruction-set-architecture)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいは、Smalltalk、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組み合わせで記述されたソース・コードまたはオブジェクト・コードであってよい。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で全体的に実行すること、ユーザのコンピュータ上でスタンドアロン・ソフトウェア・パッケージとして部分的に実行すること、ユーザのコンピュータ上およびリモート・コンピュータ上でそれぞれ部分的に実行すること、あるいはリモート・コンピュータ上またはサーバ上で全体的に実行することができる。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN:local area network)または広域ネットワーク(WAN:wide area network)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されてよく、または接続は、(例えば、インターネット・サービス・プロバイダを使用してインターネットを介して)外部コンピュータに対して行われてよい。一部の実施形態では、本発明の態様を実行するために、例えばプログラマブル論理回路、フィールドプログラマブル・ゲート・アレイ(FPGA:field-programmable gate arrays)、またはプログラマブル・ロジック・アレイ(PLA:programmable logic arrays)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を利用することによって、電子回路をカスタマイズするためのコンピュータ可読プログラム命令を実行してよい。
本発明の態様は、本明細書において、本発明の実施形態に従って、方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照して説明される。フローチャート図またはブロック図あるいはその両方の各ブロック、ならびにフローチャート図またはブロック図あるいはその両方に含まれるブロックの組み合わせが、コンピュータ可読プログラム命令によって実装され得るということが理解されるであろう。
これらのコンピュータ可読プログラム命令は、コンピュータまたはその他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作を実施する手段を作り出すべく、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサに提供されてマシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令は、命令が格納されたコンピュータ可読記憶媒体がフローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作の態様を実施する命令を含んでいる製品を備えるように、コンピュータ可読記憶媒体に格納され、コンピュータ、プログラム可能なデータ処理装置、または他のデバイス、あるいはその組み合わせに特定の方式で機能するように指示できるものであってもよい。
コンピュータ可読プログラム命令は、コンピュータ上、その他のプログラム可能な装置上、またはその他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作を実施するように、コンピュータ、その他のプログラム可能なデータ処理装置、またはその他のデバイスに読み込まれてもよく、それによって、一連の動作可能なステップを、コンピュータ上、その他のプログラム可能な装置上、またはコンピュータ実装プロセスを生成するその他のデバイス上で実行させる。
図内のフローチャートおよびブロック図は、本発明のさまざまな実施形態に従って、システム、方法、およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能、および動作を示す。これに関連して、フローチャートまたはブロック図内の各ブロックは、規定された論理機能を実装するための1つまたは複数の実行可能な命令を備える、命令のモジュール、セグメント、または部分を表してよい。一部の代替の実装では、ブロックに示された機能は、図に示された順序とは異なる順序で発生してよい。例えば、連続して示された2つのブロックは、実際には、含まれている機能に応じて、実質的に同時に実行されるか、または場合によっては逆の順序で実行されてよい。ブロック図またはフローチャート図あるいはその両方の各ブロック、ならびにブロック図またはフローチャート図あるいはその両方に含まれるブロックの組み合わせは、規定された機能または動作を実行するか、または専用ハードウェアとコンピュータ命令の組み合わせを実行する専用ハードウェアベースのシステムによって実装され得るということにも注意する。
400 システム
401 サーバ
402 参照データベース
403 画像認識モジュール
404 自然言語処理(NLP)モジュール
405 外部ライブラリ
406 クライアント
407 ユーザ入力モジュール
408 通信モジュール
409 シーン照会モジュール
410 表示モジュール
420 解析モジュール
430 センサ

Claims (25)

  1. データベースからシーンを取得するためのコンピュータ実装方法であって、前記方法が、
    ユーザから、データベースに格納されたシーンに関する検索要求を受信することであって、前記データベースが注釈付きのビデオ・コンテンツを含んでいる、前記受信することと、
    1つまたは複数のキーワードを前記検索要求から抽出することと、
    前記1つまたは複数のキーワードの各々に関して、1つまたは複数の拡張キーワードを生成することと、
    前記1つまたは複数の拡張キーワードおよび前記1つまたは複数のキーワードを、前記注釈付きのビデオ・コンテンツと比較して、1つまたは複数の対象のシーンを識別することであって、前記1つまたは複数の対象のシーンが、それぞれ対象のシーンの注釈を含んでいる、前記識別することと、
    前記1つまたは複数の対象のシーンの各々の前記対象のシーンの注釈と、前記1つまたは複数の拡張キーワードおよび1つまたは複数のキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価を前記1つまたは複数の対象のシーンの各々に割り当てることと、
    前記1つまたは複数の対象のシーンのうちの少なくとも1つを前記ユーザに表示することであって、前記1つまたは複数の対象のシーンのうちの前記少なくとも1つが、前記信頼性評価に基づいて決定される、前記表示することとを含んでいる、コンピュータ実装方法。
  2. 前記ユーザから、前記1つまたは複数の対象のシーンのうちの1つの対象のシーンの選択の指示を受信することと、
    前記選択に少なくとも部分的に基づいて前記対象のシーンの注釈を更新することとをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
  3. 前記1つまたは複数の対象のシーンを前記ユーザに表示することと、
    前記ユーザから、前記1つまたは複数の対象のシーンのうちの1つの対象のシーンの拒否の指示を受信することと、
    前記拒否に少なくとも部分的に基づいて前記対象のシーンの注釈を更新することとをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
  4. 前記ユーザを監視して、前記ユーザが前記対象のシーンを見ているときに、前記ユーザの感情的反応を決定することと、
    前記ユーザの前記感情的反応を前記対象のシーンの注釈と比較して、前記感情的反応と前記対象のシーンの注釈の間の相関関係を決定することと、
    前記感情的反応と前記対象のシーンの注釈の間の前記相関関係に少なくとも部分的に基づいて、前記対象のシーンの注釈を更新することとをさらに含んでいる、請求項2に記載のコンピュータ実装方法。
  5. 前記検索要求がユーザ音声入力であり、1つまたは複数のキーワードを前記抽出することが、
    前記検索要求に対して自然言語処理を実行して、前記ユーザ音声入力をテキストに変換することと、
    前記テキストを1つまたは複数の別々の語句に分割することと、
    前記1つまたは複数の別々の語句を解析して、キーワードを決定することとを含んでいる、請求項1に記載のコンピュータ実装方法。
  6. 前記1つまたは複数の対象のシーンを前記ユーザに表示することと、
    前記信頼性評価に従って前記1つまたは複数の対象のシーンの前記表示を順序付けることとをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
  7. データベースからシーンを取得するためのコンピュータ・システムであって、前記コンピュータ・システムが、メモリに通信によって接続されたプロセッサを含んでおり、前記プロセッサが、
    ユーザから、データベースに格納されたシーンに関する検索要求を受信することであって、前記データベースが注釈付きのビデオ・コンテンツを含んでいる、前記受信することと、
    1つまたは複数のキーワードを前記検索要求から抽出することと、
    前記1つまたは複数のキーワードの各々に関して、1つまたは複数の拡張キーワードを生成することと、
    前記1つまたは複数の拡張キーワードおよび前記1つまたは複数のキーワードを、前記注釈付きのビデオ・コンテンツと比較して、1つまたは複数の対象のシーンを識別することであって、前記1つまたは複数の対象のシーンが、それぞれ対象のシーンの注釈を含んでいる、前記識別することと、
    前記1つまたは複数の対象のシーンの各々の前記対象のシーンの注釈と、前記1つまたは複数の拡張キーワードおよび1つまたは複数のキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価を前記1つまたは複数の対象のシーンの各々に割り当てることとを実行するように構成されている、コンピュータ・システム。
  8. 前記プロセッサが、
    前記1つまたは複数の対象のシーンを前記ユーザに表示することと、
    前記ユーザから、前記1つまたは複数の対象のシーンのうちの1つの対象のシーンの選択の指示を受信することと、
    前記選択に少なくとも部分的に基づいて前記対象のシーンの注釈を更新することとを実行するようにさらに構成されている、請求項7に記載のコンピュータ・システム。
  9. 前記プロセッサが、
    前記1つまたは複数の対象のシーンを前記ユーザに表示することと、
    前記ユーザから、前記1つまたは複数の対象のシーンのうちの1つの対象のシーンの拒否の指示を受信することと、
    前記拒否に少なくとも部分的に基づいて前記対象のシーンの注釈を更新することとを実行するようにさらに構成されている、請求項7に記載のコンピュータ・システム。
  10. 前記プロセッサが、
    前記ユーザを監視して、前記ユーザが前記対象のシーンを見ているときに、前記ユーザの感情的反応を決定することと、
    前記ユーザの前記感情的反応を前記対象のシーンの注釈と比較して、前記感情的反応と前記対象のシーンの注釈の間の相関関係を決定することと、
    前記感情的反応と前記対象のシーンの注釈の間の前記相関関係に少なくとも部分的に基づいて、前記対象のシーンの注釈を更新することとを実行するようにさらに構成されている、請求項8に記載のコンピュータ・システム。
  11. データベースからシーンを取得するためのコンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品が、プログラム命令が具現化されているコンピュータ可読記憶媒体を備えており、プロセッサによって実行可能な前記プログラム命令が、前記プロセッサに、
    ユーザから、データベースに格納されたシーンに関する検索要求を受信することであって、前記データベースが注釈付きのビデオ・コンテンツを含んでいる、前記受信することと、
    1つまたは複数のキーワードを前記検索要求から抽出することと、
    前記1つまたは複数のキーワードの各々に関して、1つまたは複数の拡張キーワードを生成することと、
    前記1つまたは複数の拡張キーワードおよび前記1つまたは複数のキーワードを、前記注釈付きのビデオ・コンテンツと比較して、1つまたは複数の対象のシーンを識別することであって、前記1つまたは複数の対象のシーンが、それぞれ対象のシーンの注釈を含んでいる、前記識別することと、
    前記1つまたは複数の対象のシーンの各々の前記対象のシーンの注釈と、前記1つまたは複数の拡張キーワードおよび1つまたは複数のキーワードとの間の相関関係に少なくとも部分的に基づいて、信頼性評価を前記1つまたは複数の対象のシーンの各々に割り当てることとを実行させる、コンピュータ・プログラム製品。
  12. 前記1つまたは複数の対象のシーンを前記ユーザに表示することと、
    前記ユーザから、前記1つまたは複数の対象のシーンのうちの1つの対象のシーンの選択の指示を受信することと、
    前記選択に少なくとも部分的に基づいて前記対象のシーンの注釈を更新することとをさらに含んでいる、請求項11に記載のコンピュータ・プログラム製品。
  13. 前記1つまたは複数の対象のシーンを前記ユーザに表示することと、
    前記ユーザから、前記1つまたは複数の対象のシーンのうちの1つの対象のシーンの拒否の指示を受信することと、
    前記拒否に少なくとも部分的に基づいて前記対象のシーンの注釈を更新することとをさらに含んでいる、請求項11に記載のコンピュータ・プログラム製品。
  14. 前記ユーザを監視して、前記ユーザが前記対象のシーンを見ているときに、前記ユーザの感情的反応を決定することと、
    前記ユーザの前記感情的反応を前記対象のシーンの注釈と比較して、前記感情的反応と前記対象のシーンの注釈の間の相関関係を決定することと、
    前記感情的反応と前記対象のシーンの注釈の間の前記相関関係に少なくとも部分的に基づいて、前記対象のシーンの注釈を更新することとをさらに含んでいる、請求項12に記載のコンピュータ・プログラム製品。
  15. 前記検索要求がユーザ音声入力であり、1つまたは複数のキーワードを前記抽出することが、
    前記検索要求に対して自然言語処理を実行して、前記ユーザ音声入力をテキストに変換することと、
    前記テキストを1つまたは複数の別々の語句に分割することと、
    前記1つまたは複数の別々の語句を解析して、キーワードを決定することとを含んでいる、請求項11に記載のコンピュータ・プログラム製品。
  16. ビデオ・シーンに注釈を付けるためのコンピュータ実装方法であって、前記方法が、
    プロセッサによって1つまたは複数のビデオを受信することと、
    前記1つまたは複数のビデオの各々をシーンのセットに分割することと、
    前記シーンのセット内の第1のシーンを解析して、前記第1のシーンのラベルのセットを決定することと、
    前記第1のシーンに、前記ラベルのセットで注釈を付けることと、
    前記第1のシーンをデータベースに格納することとを含んでいる、コンピュータ実装方法。
  17. 前記第1のシーンの前記ラベルのセットに少なくとも部分的に基づいて拡張キーワードを決定することと、
    前記拡張キーワードに、前記第1のシーンで注釈を付けることとをさらに含んでいる、請求項16に記載のコンピュータ実装方法。
  18. 前記第1のシーンの前記ラベルのセットを決定することが、
    前記第1のシーンに対して画像認識を実行して、前記第1のシーン内の1つまたは複数の物体のラベルを生成することを含んでいる、請求項16に記載のコンピュータ実装方法。
  19. 前記第1のシーンの前記ラベルのセットを決定することが、
    前記第1のシーンに対して音声の解析を実行して、1つまたは複数のキーワードを抽出することと、
    前記1つまたは複数のキーワードに少なくとも部分的に基づいて、前記第1のシーンのラベルを生成することと、
    前記第1のシーンに、前記1つまたは複数のキーワードで注釈を付けることとをさらに含んでいる、請求項16に記載のコンピュータ実装方法。
  20. 前記第1のシーンの前記1つまたは複数のキーワードに少なくとも部分的に基づいて拡張キーワードを決定することと、
    前記拡張キーワードに、前記第1のシーンで注釈を付けることとをさらに含んでいる、請求項19に記載のコンピュータ実装方法。
  21. ビデオ・シーンに注釈を付けるためのコンピュータ・システムであって、前記コンピュータ・システムが、メモリに通信によって接続されたプロセッサを含んでおり、前記プロセッサが、
    1つまたは複数のビデオを受信することと、
    前記1つまたは複数のビデオの各々をシーンのセットに分割することと、
    前記シーンのセット内の第1のシーンを解析して、前記第1のシーンのラベルのセットを決定することと、
    前記第1のシーンに、前記ラベルのセットで注釈を付けることと、
    前記第1のシーンをデータベースに格納することとを実行するように構成されている、コンピュータ・システム。
  22. 前記プロセッサが、
    前記プロセッサによって、前記第1のシーンの前記ラベルのセットに少なくとも部分的に基づいて拡張キーワードを決定することと、
    前記プロセッサによって、前記拡張キーワードに、前記第1のシーンで注釈を付けることとを実行するようにさらに構成されている、請求項21に記載のコンピュータ・システム。
  23. 前記第1のシーンの前記ラベルのセットを決定することが、
    前記プロセッサによって、前記第1のシーンに対して画像認識を実行して、前記第1のシーン内の1つまたは複数の物体のラベルを生成することを含んでいる、請求項21に記載のコンピュータ・システム。
  24. 前記第1のシーンの前記ラベルのセットを決定することが、
    前記プロセッサによって、前記第1のシーンに対して音声の解析を実行して、1つまたは複数のキーワードを抽出することと、
    前記プロセッサによって、前記1つまたは複数のキーワードに少なくとも部分的に基づいて、前記第1のシーンのラベルを生成することと、
    前記プロセッサによって、前記第1のシーンに、前記1つまたは複数のキーワードで注釈を付けることとをさらに含んでいる、請求項21に記載のコンピュータ・システム。
  25. 前記プロセッサが、
    前記プロセッサによって、前記第1のシーンの前記1つまたは複数のキーワードに少なくとも部分的に基づいて拡張キーワードを決定することと、
    前記プロセッサによって、前記拡張キーワードに、前記第1のシーンで注釈を付けることとを実行するようにさらに構成されている、請求項24に記載のコンピュータ・システム。
JP2020503818A 2017-07-24 2018-07-05 認知的洞察を使用したビデオ・シーンの移動 Active JP7123122B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/657,626 2017-07-24
US15/657,626 US10970334B2 (en) 2017-07-24 2017-07-24 Navigating video scenes using cognitive insights
PCT/IB2018/054963 WO2019021088A1 (en) 2017-07-24 2018-07-05 NAVIGATION BETWEEN VIDEO SCENES OF COGNITIVE KNOWLEDGE ASSISTANCE

Publications (3)

Publication Number Publication Date
JP2020528705A true JP2020528705A (ja) 2020-09-24
JP2020528705A5 JP2020528705A5 (ja) 2021-01-07
JP7123122B2 JP7123122B2 (ja) 2022-08-22

Family

ID=65018639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503818A Active JP7123122B2 (ja) 2017-07-24 2018-07-05 認知的洞察を使用したビデオ・シーンの移動

Country Status (4)

Country Link
US (1) US10970334B2 (ja)
JP (1) JP7123122B2 (ja)
CN (1) CN110914872A (ja)
WO (1) WO2019021088A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640420B2 (en) 2017-12-31 2023-05-02 Zignal Labs, Inc. System and method for automatic summarization of content with event based analysis
US11755915B2 (en) * 2018-06-13 2023-09-12 Zignal Labs, Inc. System and method for quality assurance of media analysis
US11392791B2 (en) * 2018-08-31 2022-07-19 Writer, Inc. Generating training data for natural language processing
CN110147711B (zh) * 2019-02-27 2023-11-14 腾讯科技(深圳)有限公司 视频场景识别方法、装置、存储介质和电子装置
US20210064652A1 (en) * 2019-09-03 2021-03-04 Google Llc Camera input as an automated filter mechanism for video search
US11150923B2 (en) 2019-09-16 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing manual thereof
CN112732974A (zh) * 2019-10-10 2021-04-30 腾讯科技(深圳)有限公司 一种数据处理方法、电子设备及存储介质
CN111539206B (zh) * 2020-04-27 2023-07-25 中国银行股份有限公司 一种确定敏感信息的方法、装置、设备及存储介质
CN113781062A (zh) * 2020-08-03 2021-12-10 北京沃东天骏信息技术有限公司 一种用户标签的展示方法和装置
CN112035705A (zh) * 2020-08-31 2020-12-04 北京市商汤科技开发有限公司 标签生成方法及装置、电子设备和存储介质
CN112905838A (zh) * 2021-02-07 2021-06-04 北京有竹居网络技术有限公司 信息检索方法和装置、存储介质和电子设备
US11625922B2 (en) * 2021-03-08 2023-04-11 Motorola Solutions, Inc. Event summarization facilitated by emotions/reactions of people near an event location
CN113709529B (zh) * 2021-04-13 2023-07-14 腾讯科技(深圳)有限公司 视频合成方法、装置、电子设备及计算机可读介质
CN113377924A (zh) * 2021-06-28 2021-09-10 北京百度网讯科技有限公司 数据处理方法、装置、设备以及存储介质
CN113449506A (zh) * 2021-06-29 2021-09-28 未鲲(上海)科技服务有限公司 一种数据检测方法、装置、设备及可读存储介质
CN113596352B (zh) * 2021-07-29 2023-07-25 北京达佳互联信息技术有限公司 视频的处理方法、处理装置和电子设备
CN114155464B (zh) * 2021-11-29 2022-11-25 北京中交兴路信息科技有限公司 一种视频数据存证方法、装置、存储介质及终端
CN114237401B (zh) * 2021-12-28 2024-06-07 广州卓远虚拟现实科技有限公司 一种多种虚拟场景的无缝链接方法及***
CN114756700B (zh) * 2022-06-17 2022-09-09 小米汽车科技有限公司 场景库建立方法、装置、车辆、存储介质及芯片

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335473A (ja) * 2001-05-10 2002-11-22 Webstream:Kk 動画コンテンツの検索情報抽出システム、検索情報抽出方法、検索情報保存システム、動画コンテンツのストリーミング配信方法
JP2003274320A (ja) * 2002-03-15 2003-09-26 Konica Corp 画像撮像装置、画像情報処理装置及び画像情報処理方法
JP2004029906A (ja) * 2002-06-21 2004-01-29 Fuji Xerox Co Ltd 文書検索装置および方法
JP2004297548A (ja) * 2003-03-27 2004-10-21 Nippon Telegr & Teleph Corp <Ntt> 情報検索配信方法およびシステム
JP2005080000A (ja) * 2003-09-01 2005-03-24 Toshiba Solutions Corp インデキシング装置、映像再生装置及び方法
JP2009272816A (ja) * 2008-05-02 2009-11-19 Visionere Corp サーバ、情報処理システム及び情報処理方法
US20110047163A1 (en) * 2009-08-24 2011-02-24 Google Inc. Relevance-Based Image Selection
JP2011049707A (ja) * 2009-08-26 2011-03-10 Nec Corp 動画再生装置、動画再生方法及びプログラム
US20150318020A1 (en) * 2014-05-02 2015-11-05 FreshTake Media, Inc. Interactive real-time video editor and recorder

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6580437B1 (en) 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
US6813618B1 (en) * 2000-08-18 2004-11-02 Alexander C. Loui System and method for acquisition of related graphical material in a digital graphics album
US7512537B2 (en) 2005-03-22 2009-03-31 Microsoft Corporation NLP tool to dynamically create movies/animated scenes
JP2008022292A (ja) 2006-07-13 2008-01-31 Sony Corp 出演者情報検索システム、出演者情報取得装置、出演者情報検索装置、および、その方法ならびにプログラム
US20080046925A1 (en) * 2006-08-17 2008-02-21 Microsoft Corporation Temporal and spatial in-video marking, indexing, and searching
US7788099B2 (en) * 2007-04-09 2010-08-31 International Business Machines Corporation Method and apparatus for query expansion based on multimodal cross-vocabulary mapping
JP2011029795A (ja) 2009-07-23 2011-02-10 Katsumi Inoue 映像コンテンツのアノテーション情報付与システム及びその方法
US20130166303A1 (en) * 2009-11-13 2013-06-27 Adobe Systems Incorporated Accessing media data using metadata repository
US9503786B2 (en) * 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US8423555B2 (en) 2010-07-09 2013-04-16 Comcast Cable Communications, Llc Automatic segmentation of video
CN102142089B (zh) 2011-01-07 2012-09-26 哈尔滨工程大学 一种基于语义二叉树的图像标注方法
US20130129142A1 (en) 2011-11-17 2013-05-23 Microsoft Corporation Automatic tag generation based on image content
EP2720172A1 (en) 2012-10-12 2014-04-16 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Video access system and method based on action type detection
KR101423549B1 (ko) * 2012-10-26 2014-08-01 고려대학교 산학협력단 감상 기반 질의 처리 시스템 및 방법
US9721010B2 (en) * 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
US20150135077A1 (en) * 2013-03-14 2015-05-14 Aperture Investments, Llc Systems and methods for creating, searching, organizing, selecting and distributing video content based on mood
CN103268635B (zh) 2013-05-15 2016-08-10 北京交通大学 一种几何网格场景模型的分割及语义标注方法
US9396763B2 (en) * 2013-11-15 2016-07-19 Clipmine, Inc. Computer-assisted collaborative tagging of video content for indexing and table of contents generation
US9681166B2 (en) * 2014-02-25 2017-06-13 Facebook, Inc. Techniques for emotion detection and content delivery
US20150293995A1 (en) * 2014-04-14 2015-10-15 David Mo Chen Systems and Methods for Performing Multi-Modal Video Search
US9583149B2 (en) 2014-04-23 2017-02-28 Daniel Stieglitz Automated video logging methods and systems
US11182431B2 (en) 2014-10-03 2021-11-23 Disney Enterprises, Inc. Voice searching metadata through media content
CN105117429B (zh) 2015-08-05 2018-11-23 广东工业大学 基于主动学习和多标签多示例学习的场景图像标注方法
CN105787102B (zh) * 2016-03-18 2019-04-26 北京搜狗科技发展有限公司 搜索方法、装置以及用于搜索的装置
US10362355B2 (en) * 2016-03-23 2019-07-23 Rovi Guides, Inc. Systems and methods for recording media assets
CN107241622A (zh) * 2016-03-29 2017-10-10 北京三星通信技术研究有限公司 视频定位处理方法、终端设备及云端服务器
CN105933538B (zh) 2016-06-15 2019-06-07 维沃移动通信有限公司 一种移动终端的视频查找方法及移动终端
US10579401B2 (en) * 2017-06-21 2020-03-03 Rovi Guides, Inc. Systems and methods for providing a virtual assistant to accommodate different sentiments among a group of users by correlating or prioritizing causes of the different sentiments
US20180374029A1 (en) * 2017-06-27 2018-12-27 Asapp, Inc Selection of customer service requests

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335473A (ja) * 2001-05-10 2002-11-22 Webstream:Kk 動画コンテンツの検索情報抽出システム、検索情報抽出方法、検索情報保存システム、動画コンテンツのストリーミング配信方法
JP2003274320A (ja) * 2002-03-15 2003-09-26 Konica Corp 画像撮像装置、画像情報処理装置及び画像情報処理方法
JP2004029906A (ja) * 2002-06-21 2004-01-29 Fuji Xerox Co Ltd 文書検索装置および方法
JP2004297548A (ja) * 2003-03-27 2004-10-21 Nippon Telegr & Teleph Corp <Ntt> 情報検索配信方法およびシステム
JP2005080000A (ja) * 2003-09-01 2005-03-24 Toshiba Solutions Corp インデキシング装置、映像再生装置及び方法
JP2009272816A (ja) * 2008-05-02 2009-11-19 Visionere Corp サーバ、情報処理システム及び情報処理方法
US20110047163A1 (en) * 2009-08-24 2011-02-24 Google Inc. Relevance-Based Image Selection
JP2011049707A (ja) * 2009-08-26 2011-03-10 Nec Corp 動画再生装置、動画再生方法及びプログラム
US20150318020A1 (en) * 2014-05-02 2015-11-05 FreshTake Media, Inc. Interactive real-time video editor and recorder

Also Published As

Publication number Publication date
US20190026367A1 (en) 2019-01-24
WO2019021088A1 (en) 2019-01-31
CN110914872A (zh) 2020-03-24
JP7123122B2 (ja) 2022-08-22
US10970334B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
JP7123122B2 (ja) 認知的洞察を使用したビデオ・シーンの移動
US10846752B2 (en) Systems and methods for managing interactive features associated with multimedia
US10593118B2 (en) Learning opportunity based display generation and presentation
US11341186B2 (en) Cognitive video and audio search aggregation
US9332319B2 (en) Amalgamating multimedia transcripts for closed captioning from a plurality of text to speech conversions
CN105938477B (zh) 用于整合和格式化搜索结果的方法和***
US11036796B2 (en) Video clips generation system
US20120078712A1 (en) Systems and methods for processing and delivery of multimedia content
US20120078691A1 (en) Systems and methods for providing multimedia content editing and management tools
US20120078899A1 (en) Systems and methods for defining objects of interest in multimedia content
JP6361351B2 (ja) 発話ワードをランク付けする方法、プログラム及び計算処理システム
US10169342B1 (en) Filtering document search results using contextual metadata
US20120075490A1 (en) Systems and methods for determining positioning of objects within a scene in video content
US10713485B2 (en) Object storage and retrieval based upon context
US11126682B1 (en) Hyperlink based multimedia processing
CN109862100B (zh) 用于推送信息的方法和装置
CN112287168A (zh) 用于生成视频的方法和装置
US20190227634A1 (en) Contextual gesture-based image searching
US11373057B2 (en) Artificial intelligence driven image retrieval
US11010935B2 (en) Context aware dynamic image augmentation
US20160055377A1 (en) Real-time analytics to identify visual objects of interest
CN110543449A (zh) 一种基于ar设备的聊天记录查找方法
US20190104348A1 (en) Video content relationship mapping
US10986422B2 (en) Hyper video navigation
Sun et al. Bridging semantics with physical objects using augmented reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7123122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150