JP6855540B2 - 製品インデキシング方法およびそのシステム - Google Patents

製品インデキシング方法およびそのシステム Download PDF

Info

Publication number
JP6855540B2
JP6855540B2 JP2019145370A JP2019145370A JP6855540B2 JP 6855540 B2 JP6855540 B2 JP 6855540B2 JP 2019145370 A JP2019145370 A JP 2019145370A JP 2019145370 A JP2019145370 A JP 2019145370A JP 6855540 B2 JP6855540 B2 JP 6855540B2
Authority
JP
Japan
Prior art keywords
product
image
indexing method
category
indexing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145370A
Other languages
English (en)
Other versions
JP2020004425A (ja
Inventor
リ,グアンダ
ソン,ヂェン
シュ,ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visenze Pte Ltd
Original Assignee
Visenze Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visenze Pte Ltd filed Critical Visenze Pte Ltd
Priority to JP2019145370A priority Critical patent/JP6855540B2/ja
Publication of JP2020004425A publication Critical patent/JP2020004425A/ja
Application granted granted Critical
Publication of JP6855540B2 publication Critical patent/JP6855540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

技術分野
本発明は、製品インデキシング方法およびそのシステムに関し、たとえば、商品カタログのインデキシングのための製品インデキシング方法およびシステムに関する。
背景
電子商取引(eコマース)は近年爆発的に成長している。衣服、食料品および電子機器のような多くの種類の製品が電子商取引ウェブサイト上で販売されており、効率的に所望の製品を検索することができるシステムが買い手に必要である。テキスト検索は、買い手の検索意図を説明する能力に限界があることを示している。その一方、ユーザに自身の検索意図を表現するために問合せ画像をアップロードさせる視覚検索(visual search)が
提案されている。視覚検索は、特にモバイルユーザについて、ユーザ検索体験を非常に改善し得る。
具体的には、視覚検索システムは、ユーザの問合せ画像から視覚的特徴を抽出し、製品視覚的特徴インデックスから当該視覚的特徴を検索するために使用され得る。製品視覚的特徴インデックスを構築するために、たとえば製品カタログといった製品画像から同じ視覚的特徴を直接的に抽出し、次いで、あるインデキシングおよび圧縮方法を適用して製品視覚的特徴インデックスを生成するよう、従来の視覚的特徴インデキシングシステムが用いられ得る。しかしながら、製品検索システムは、問合せ画像および製品画像の両方のノイズおよび制御されていない視野角に対処する必要がある。これは、製品画像の場合、当該画像の品質は低い場合があり、製品画像における製品は、多くの可能な視野角で提供され得、および/または、雑然した背景(しばしば人間の一部として)において提供され得るからである。同様に、問合せ画像は、同じ問題を有し得るか、または、ノイズおよび制御されていない視野角においてより高い変動を有し得る。
従来の視覚的特徴インデキシングシステムが使用される場合、問合せ画像/製品画像がノイジーであると、ユーザの検索意図は完全には満たされない場合がある。たとえば、問合せ画像/製品画像は、製品画像視覚的インデックスの一部分ではないかもしれない特徴を有する環境において撮像され得る。たとえば、バッグの問合せ画像/製品画像は、人が保持している状態で撮像され得る。そのような場合、問合せ画像の視覚的特徴と製品画像との間に有意な差が存在し得る。すなわち、人の画像はバッグの問合せ画像とは異なる。したがって、これは製品の抽出の失敗に帰着し得る。
別の例では、問合せ画像/製品画像は、キャプション、テキストボックス、装飾および画像モザイク(image mosaic)といった人工的な効果で後処理され得る。そのような後処理はさらに当該視覚的特徴を汚染し得、ある製品が視覚検索によって発見されることが不可能になる。
別の例では、問合せ画像/製品画像は異なる視野角で撮像され、製品の視野角における問合せ画像と製品画像との間での差によって、視覚検索結果の品質が影響を受け得る。
したがって、ユーザが製品を効率的に検索し、より楽しい検索体験を有することができるように、信頼性があり有効なインデキシングシステムを有することが必要である。
したがって、本発明の目的は、前述の問題を緩和することを試みることである。なお、
上記の問題を克服することは有益であるが、電子商取引においては多数の製品カテゴリーが存在するため、上記の問題を緩和する如何なるソリューションも、異なる製品カテゴリーを扱うよう十分に堅牢であるべきである。
概要
さまざまな実施形態に従うと、本発明は、製品インデキシング方法を提供し、当該製品インデキシング方法は、製品の製品データを受信することを含み、製品データは少なくとも画像を含み、画像は、製品の製品画像と、製品が存在し得るコンテキストを提供するコンテキスト画像とを含み、コンテキスト画像は少なくとも1つの非製品画像を含む。製品インデキシング方法はさらに、製品画像を識別することと、画像からコンテキスト画像を識別することと、コンテキスト画像に基づいて製品画像における製品を照合することと、製品画像を抽出することと、製品画像にインデキシングすることとを含む。
さまざまな実施形態に従うと、上記方法は、製品データに基づいて製品の製品カテゴリーを決定することをさらに含み、製品画像は製品カテゴリーに基づいて識別され得る。
さまざまな実施形態に従うと、上記方法は、製品予測スコアを生成することをさらに含み得、製品カテゴリーは製品予測スコアに基づいて決定され得る。
さまざまな実施形態に従うと、製品予測スコアはテキスト予測スコアおよび/または画像予測スコアを含み得る。
さまざまな実施形態に従うと、製品データは製品の製品テキストを含み得、製品カテゴリーは製品テキストに基づいて決定され得る。
さまざまな実施形態に従うと、製品テキストは、製品の製品名を含み得、製品カテゴリーは製品名に基づいて決定され得る。
さまざまな実施形態に従うと、製品テキストは製品の製品説明を含み得、製品カテゴリーは製品説明に基づいて決定され得る。
さまざまな実施形態に従うと、製品カテゴリーは製品画像に基づいて決定され得る。
さまざまな実施形態に従うと、製品画像は製品カテゴリーに基づいて識別され得る。
さまざまな実施形態に従うと、上記方法は、画像内の製品画像の位置を決定することをさらに含み得る。
さまざまな実施形態に従うと、上記方法は、画像内のコンテキスト画像の位置を決定することをさらに含み得る。
さまざまな実施形態に従うと、上記方法は、製品画像とコンテキスト画像との間の関係を識別することをさらに含み得る。
さまざまな実施形態に従うと、関係を識別することは、製品画像とコンテキスト画像との間の空間関係を決定することを含み得る。
さまざまな実施形態に従うと、上記方法は製品画像を規定することをさらに含み得る。
さまざまな実施形態に従うと、上記方法は、規定された製品画像を改良することをさら
に含み得る。
さまざまな実施形態に従うと、上記方法は、製品画像における製品の視点を識別することをさらに含み得る。
さまざまな実施形態に従うと、上記方法は、製品画像のあらかじめ規定された視点にマッチするように製品画像を方向付けることをさらに含み得る。
さまざまな実施形態に従うと、製品画像のあらかじめ規定された視点は、製品カテゴリーによって規定され得る。
さまざまな実施形態に従うと、上記方法は、製品の別の視点を生成することをさらに含み得る。
さまざまな実施形態に従うと、別の視点は、製品カテゴリーによる製品のあらかじめ規定された視点に基づいて生成され得る。
さまざまな実施形態に従うと、製品画像をインデキシングすることは、製品画像の視点および/または別の視点をインデキシングすることを含み得る。
さまざまな実施形態に従うと、製品画像のインデキシングは製品カテゴリーに基づき得る。
さまざまな実施形態に従うと、本発明は、製品インデキシングシステムを提供する。上記製品インデキシングシステムは、製品の製品データを受信するように構成されるサーバを含み、製品データは少なくとも画像を含み、画像は、製品の製品画像と、製品が存在し得るコンテキストを提供するコンテキスト画像とを含み得、コンテキスト画像は少なくとも1つの非製品画像を含み得る。上記製品インデキシングシステムは、製品画像を識別するように構成される製品識別モジュールと、画像におけるコンテキスト画像を識別するように構成されるコンテキスト識別モジュールと、コンテキスト画像に基づいて製品画像を照合するように構成される照合モジュールと、画像から製品画像を抽出するように構成される抽出モジュールと、製品画像を選択およびインデキシングするように構成されるインデキシングモジュールとを含む。
さまざまな実施形態に従うと、上記システムは、複数の製品カテゴリーをさらに含み得、製品の製品カテゴリーは製品データに基づいて決定され得、製品画像は製品カテゴリーに基づいて識別され得る。
さまざまな実施形態に従うと、上記システムは、製品予測スコアをさらに含み得、製品カテゴリーは製品予測スコアに基づいて決定され得る。
さまざまな実施形態に従うと、製品予測スコアはテキスト予測スコアおよび/または画像予測スコアを含み得る。
さまざまな実施形態に従うと、製品カテゴリーは、製品データの製品テキストおよび/または製品画像に基づいて決定され得る。
さまざまな実施形態に従うと、製品データは、製品名または製品説明のうち少なくとも1つを含み得、製品カテゴリーは、製品名または製品説明のうち少なくとも1つに基づいて決定され得る。
さまざまな実施形態に従うと、製品カテゴリーの各々は製品検出モジュールを含み得、製品カテゴリーの製品検出モジュールは製品画像を識別するように構成され得る。
さまざまな実施形態に従うと、製品検出モジュールは、画像内の製品画像および/またはコンテキスト画像の位置を識別するように構成され得る。
さまざまな実施形態に従うと、照合モジュールは、製品画像とコンテキスト画像との間の関係を識別するように構成され得る。
さまざまな実施形態に従うと、照合モジュールは、製品画像とコンテキスト画像との間の空間関係を照合するように構成される空間関係モジュールを含み得る。
さまざまな実施形態に従うと、システムは、製品画像を規定するように構成される規定モジュールをさらに含み得る。
さまざまな実施形態に従うと、システムは、規定された製品画像を改良するように構成される改良モジュールをさらに含み得る。
さまざまな実施形態に従うと、システムは、視点管理モジュールをさらに含み得、視点管理モジュールは、製品画像の視点を識別すること、製品の別の視点を生成すること、または、製品画像のあらかじめ規定された視点とマッチするように製品画像を方向付けることのうちの少なくとも1つを行なうように構成される。
さまざまな実施形態に従うと、製品カテゴリーはあらかじめ規定された視点を含み得、視点管理モジュールは、製品カテゴリーのあらかじめ規定された視点に基づいて、製品の視点を生成および/または方向付けするように構成され得る。
さまざまな実施形態に従うと、システムは、製品画像の視点および/または別の視点をインデキシングするように構成される視点インデキシングモジュールをさらに含み得る。
本発明は、視覚検索問合せに基づいた検索のための画像またはビデオにおいてより正確な製品特徴インデキシングシステムを提供することを目的とする。
例示的な製品インデキシングシステムを示す図である。 製品データの例を示す図である。 製品データの別の例を示す図である。 図1の製品インデキシングシステムのための例示的な製品インデキシング方法を示す図である。 製品識別モジュールの例示的な実施形態の概略図を示す図である。 コンテキスト画像の識別の例を示す図である。 製品画像がインデキシングされるフローチャートを示す図である。 インデキシングの例示的な方法のフローチャートを示す図である。 例示的な製品インデキシング方法のフローチャートを示す図である。
詳細な説明
図1は、製品の製品データを受信するように構成されるサーバ200を有する製品インデキシングシステム100を示す。上記製品データは少なくとも画像を含んでおり、当該
画像は、製品の製品画像と、当該製品が存在するコンテキストを提供するコンテキスト画像とを含んでいる。製品インデキシングシステム100は、製品画像を識別するように構成される製品識別モジュール210と、上記画像におけるコンテキスト画像を識別するように構成されるコンテキスト識別モジュール220と、コンテキスト画像に基づいて製品画像を照合するように構成される照合モジュール230と、画像から製品画像を抽出するように構成される抽出モジュール240と、製品画像をインデキシングするように構成されるインデキシングモジュール250とを含む。インデキシングされた製品画像は、製品視覚的特徴インデックスを形成し得る。製品特徴視覚的インデックスは、製品カタログをインデキシングして視覚検索問合せを使用する検索を容易にするために使用されるインデックスであり得る。
図2は、製品データ300の例を示す。製品データ300は少なくとも画像310を含み得る。画像310は、製品の製品画像320と、製品が存在するコンテキストを提供するコンテキスト画像330とを含み得る。
図3は、製品データ302の別の例を示す。製品データ302は、製品の製品テキスト340を含み得る。製品テキスト340は、当該製品の製品名342および/または製品説明344を含み得る。製品名342は、製品会社によって提供され得る製品のブランド、モデル、名前などであり得る。製品説明344は、製品の製品仕様書または記事であり得る。製品データ302は製品会社から受信され得る。製品データ302は、デジタル製品カタログの形態であり得る。
図4は、製品インデキシングシステム100のための製品インデキシング方法400を示す。製品インデキシング方法400は、410において、製品の製品データ300を受信することを含む。製品データ300は少なくとも画像310を有する。画像310は、製品の製品画像320と、製品が存在するコンテキストを提供するコンテキスト画像330とを有する。コンテキスト画像330は、少なくとも1つの非製品画像を含む。製品インデキシング方法400は、420において製品画像320を識別することと、430において画像310からコンテキスト画像330を識別することと、440において、コンテキスト画像330に基づいて製品画像320における製品を照合することと、450において製品画像320を抽出することと、460において製品画像320をインデキシングすることとを含む。
サーバ200は、製品データ300を受信すると、製品データ300を分析して当該製品データ300における製品を識別し得る。図2を参照して、サーバ200は、製品識別モジュール210を使用して、たとえばコートといった製品の製品画像320を識別し得る。サーバ200は、コンテキスト識別モジュール220を使用して、画像310において、たとえば顔、手といったコンテキスト画像330を識別し得る。サーバ200は、照合モジュール230を使用して、識別されたコンテキスト画像330に基づいて、たとえばコートといった製品画像320を照合し得る。たとえば、手および顔が当該コートに隣接しているということを照合し得る。製品画像320がひとたび識別されると、サーバ20は、抽出モジュール240を使用して画像310から製品画像320を抽出し、インデキシングモジュール250を使用して製品画像320をインデキシングし得る。抽出された製品画像320は、製品視覚的特徴インデックスを形成するために使用され得る。
記載されるように、製品データ300をインデキシングするために、製品データ300が表わす製品は、実行されるべきインデキシングのために識別され得る。その後、製品の製品画像320は、製品視覚的特徴インデックスに使用されるために識別、選択および抽出され得る。
製品識別モジュール210は、製品データ300における製品の製品カテゴリー(以下に示される)を予測するように構成される製品予測モジュール211を含み得る。製品予測モジュール211は、画像310における製品画像320を予測するために使用され得る。図5は、製品予測モジュール211の例示的な方法213の概略図を示す。製品予測モジュール211は、画像310における製品のタイプを予測するように構成され得る。製品予測モジュール211は、テキスト予測モジュール212および/または画像予測モジュール214を含み得る。テキスト予測モジュール212および/または画像予測モジュール214は、あらかじめトレーニングされたテキスト分類モデルを含み得る。テキスト予測モジュール212および画像予測モジュール214はそれぞれ、たとえば機械学習アルゴリズムといった、従来のテキストベースおよび画像ベースの予測モデルであり得る。図5に示されるように、製品テキスト340の製品名342および/または製品説明344は、テキスト予測モジュール212によって予測され得る。画像310は、画像予測モジュール214によって予測され得る。
製品インデキシングシステム100は、製品予測スコア215を含み得る。製品予測モジュール211は、製品予測スコア215を得る製品画像320を分析するために使用され得る。製品予測スコア215は、ある製品カテゴリーに属すると製品予測モジュール211によって予測された製品の確率を示す少なくとも1つの数字であり得る。たとえば、図3を参照して、製品予測モジュールは、製品画像320が靴であるとする製品予測スコアが85%であると予測し得、スリッパであるとする製品予測スコアが40%であると予測し得る。なぜならば、当該製品は、靴に対して高い類似性を有しているからである。製品予測モジュールは、複数の製品について複数の製品予測スコアを提供するよう、複数の製品の製品データを有する製品データベースを分析するように構成され得る。
製品予測スコア215は、テキスト予測スコア216および/または画像予測スコア218を含み得る。製品予測モジュール211は、テキストベースおよび視覚ベースの予測モジュールを生成するために、教師あり学習モジュールを使用するように構成され得る。テキスト予測スコア216は、製品データ300がテキスト予測モジュール212によって分析されている場合、テキスト予測モジュール212から得られ得る。画像予測スコア218は、製品データ300が画像予測モジュール214によって分析される場合、画像予測モジュール214から得られ得る。製品予測スコア215は、スコア集約モジュール219を使用してテキスト予測スコア216および画像予測スコア218を集約することにより得られ得る。テキスト予測スコア216には、加重テキスト予測スコアを得るよう、テキスト予測重みが組み込まれ得る。画像予測スコアには、加重画像予測スコアを得るよう、画像予測重みが組み込まれ得る。テキスト予測重みおよび/または画像予測重みは経験的に構成され得る。製品予測スコアに基づいて、製品の(以下に説明されるような)製品カテゴリーが決定され得る。
製品インデキシングシステム100は、複数の製品カテゴリーを含み得る。製品の製品カテゴリーは、製品データ300に基づいて決定され得る。製品の製品カテゴリーは製品予測スコア215に基づいて決定され得る。たとえば製品予測スコア215といった製品予測モジュール211の結果に基づいて、製品の製品カテゴリーが識別され得る。製品データ300から得られる製品予測スコア215は、複数の製品カテゴリーから製品の製品カテゴリーを予測するために使用され得る。製品予測スコア215に基づいて、サーバ200は、たとえば製品カテゴリーについて最も高い製品予測スコアといったように、製品に最も適切である製品カテゴリーを、製品についての複数の製品カテゴリーから識別および選択し得る。上述したように、製品予測スコア215は、テキスト予測スコア216および/または画像予測スコア218を含み得る。したがって、製品カテゴリーは、製品データ300の製品テキストおよび/または画像に基づいて識別および選択され得る。言いかえれば、製品名342または製品説明344の少なくとも1つに基づいて、製品カテゴ
リーが決定され得る。テキスト予測スコア216は製品予測スコア215の構成要素であるので、製品カテゴリーは、製品データ300の製品テキスト340および/または製品画像320に基づいて決定され得る。
複数の製品カテゴリーは、複数の製品検出モジュールを含み得る。製品カテゴリーの各々は製品検出モジュールを含み得る。複数の製品検出モジュールの各々は、たとえば衣類、フットウェアまたはハンドバックなどについての製品検出モジュールといったように、製品の各カテゴリーについてあらかじめ規定され得る。製品検出モジュールは、画像310から製品の情報を抽出するように構成され得る。製品検出モジュールは、画像310において製品画像320の位置を抽出するように構成され得る。
製品検出モジュールは画像検出モジュールを含み得る。製品検出モジュールはテキスト予測モジュール212を含み得る。テキスト予測モジュール212は、製品データ300からテキスト特徴表現を抽出するように構成され得る。画像検出モジュールは、製品データ300から画像特徴表現を抽出するように構成され得る。製品検出モジュールとテキスト特徴表現および/または画像特徴表現とに基づいて、たとえば回帰、SVM、ニューラルネットワークなどといった教師あり学習方法によって、製品のパラメトリックモデルが学習され得る。特徴表現および学習方法を変更することによって、テキスト特徴表現および/または画像特徴表現の両方について、複数のパラメトリックモデルが学習され得る。製品検出モジュールは、ラベル付けされた製品データセットであり得る。製品検出モジュールは、製品画像において製品を検出するように構成されるあらかじめトレーニングされた製品検出モジュールであり得る。テキスト予測モジュールは、あらかじめトレーニングされたテキスト分類モデルを含み得る。テキスト予測モジュール212はそれぞれ、たとえば機械学習アルゴリズムといった、従来のテキストベース予測モデルであり得る。
製品カテゴリーの製品検出モジュールは製品画像を識別するように構成され得る。複数の製品カテゴリーの各々は製品検出モジュールを含み得る。製品検出モジュールはそれぞれの製品カテゴリーについてカスタマイズされ得る。たとえば、製品が靴である場合、製品カテゴリーは「フットウェア」であり得る。「フットウェア」についての製品検出モジュールは、靴、スリッパなどに関係のある画像を検出するように構成され得る。製品予測モジュール211とは異なり、製品検出モジュールは、画像内の製品画像を検出または識別するために、より製品に特化した検出アルゴリズムを有する。したがって、製品検出モジュールが組み込まれることにより、製品画像の品質が高められ、したがって、製品インデックスの品質が高められ得る。製品検出モジュールは、形状モデルを使用して構築される視覚的検出モデルを含み得る。Haar特徴、勾配方向ヒストグラム特徴畳み込みニューラルネットワーク(Histogram of Oriented Gradient Feature Convolutional Neural Network)を画像記述子(image descriptor)として検出モデルが利用され得る。製品イ
ンデキシングシステム100は、画像内の製品画像および/またはコンテキスト画像の位置を識別するように構成される画像位置識別モジュールを含み得る。画像位置識別モジュールは、製品検出モジュールから独立していてもよい。
製品検出モジュールは、画像内の製品画像および/またはコンテキスト画像の位置を識別するように構成され得る。製品検出モジュールによる画像310における製品の検出中に、画像310における製品の製品位置が得られ得る。製品カテゴリーは、靴、コート、ズボンなどといった視覚的検出モデルを含み得る。そのような検出モデルは形状モデルを使用して構築され得る。Haar特徴、勾配方向ヒストグラム特徴畳み込みニューラルネットワーク(Histogram of Oriented Gradient Feature Convolutional Neural Network
)を画像記述子(image descriptor)として検出モデルが使用され得る。
製品カテゴリーは、製品画像320とコンテキスト画像330との間の空間関係を規定
する条件を有する空間関係モジュールを含み得る。複数の製品カテゴリーの各々についての空間関係モジュールは、当該製品の性質に固有であり得る。したがって、複数の製品カテゴリーの各々についての空間関係モジュールにおける条件は、互いとは異なり得る。
製品の製品カテゴリーが決定され得ない可能性が存在し得る。言及されたように、製品予測モジュール211は、製品の製品カテゴリーを予測するために使用され得る。製品予測モジュール211は、製品カテゴリーが決定されない場合、決定されていない製品カテゴリーに製品が属し得ると決定し得る。一般製品カテゴリーは、決定されていない製品を検出するように構成される一般製品カテゴリー検出モジュールを含み得る。一般製品カテゴリー検出モジュールを使用して、決定されていない製品の製品画像320が識別および抽出され得る。決定されていない製品の製品画像320は、「決定されていない」インデックスとしての製品視覚的特徴インデックスの一部分として、インデキシングモジュール250によってインデキシングされ得る。
製品カテゴリーは、製品について少なくとも1つのあらかじめ規定された視点(viewpoint)を含み得る。製品検出モジュールは、それぞれの製品カテゴリーについて製品のあ
らかじめ規定された視点を格納するように構成され得る。たとえば、製品が靴である場合、あらかじめ規定された視点は、靴の左側から見たもの、右側から見たものおよび/または斜めに見たものであり得る。製品カテゴリーは、製品画像320における製品の視点を識別するように構成される視点管理モジュールを含み得る。製品の視点は、たとえば前側から見たもの、左側から見たもの、右側から見たもの、後側から見たもの、斜めからから見たものといった、製品から離れた地点から製品を見たものであり得る。視点管理モジュールは、製品カテゴリーのあらかじめ規定された視点とは異なる視点を有する製品画像320を、製品画像の視点をあらかじめ規定された視点に整列するよう方向付けるように構成され得る。
コンテキスト識別モジュール220は、製品が存在し得るコンテキストを識別するように構成され得る。たとえばコートといった画像400の場合、図6に示されるように、コンテキスト画像330はたとえば、顔410、皮膚420、人間430、テキスト440および長方形/円形画像モザイク450を含み得る。コンテキスト識別モジュール220は、コンテキスト画像330を検出するように構成されるあらかじめトレーニングされたコンテキストモデルを含み得る。コンテキスト識別モジュール220は製品画像320に対してコンテキスト識別を行なうように構成され得る。
コンテキスト画像330は、画像310または製品画像320に現われる共通の重要でないコンテンツであり得る。たとえば、図6に示されるように、視覚的モデルは、人間、顔、皮膚、テキスト、ボックス型または円型モザイクといったコンテキストオブジェクトについて構築され得る。これらのコンテキスト画像330は、製品に関係付けられ得るが、製品には重要でないものであり得る。
コンテキスト識別モジュール220は、たとえば人間、顔およびテキストといった形状を検出するためにエッジ特徴記述子を有する形状モデルを含み得る。エッジ特徴記述子を有する形状モデルは、Haar特徴、畳み込みニューラルネットワークからの勾配方向ヒストグラム特徴またはピクセル畳み込みカーネル(Pixel Convolutional Kernel)を含み得る。
コンテキスト識別モジュール220は、たとえば人間の皮膚といったような色に関係するコンテキスト画像330を識別するよう、たとえば色の混合ガウスモデル(GMM: Gaussian Mixture Model)といった従来の方法を使用し得る。
コンテキスト識別モジュール220は、モザイクボックス/円のようなコンテキスト画像を予測するエッジ検出器、ライン検出器、円検出器およびコーナー検出器を含み得る。たとえばハフ変換(Hough Transform)といった、エッジ検出器、ライン検出器、円検出
器およびコーナー検出器は、すべての高確率ボックス、円/楕円を検出し、当該ボックス、円/楕円を出力として生成するように実現され得る。
コンテキスト画像330は、製品画像を抽出する際に除去される必要があり得る製品画像のエリアであり得る。コンテキスト画像330は、より正確な製品カテゴリー予測および/または位置予測に使用され得る。
製品画像は、製品検出モジュール、製品予測モジュール211およびコンテキスト識別モジュール220のうちの少なくとも1つから得られた前述の結果に基づいて、照合モジュール230によって選択され得る。製品インデキシングシステム100は、製品画像320を選択するように構成される製品画像選択モジュールをさらに含み得る。製品画像選択モジュールは、照合モジュール230から独立していてもよい。
たとえば空間関係モジュール、製品予測モジュール211からの予測された製品画像、および、コンテキスト識別モジュール220からのコンテキスト画像といった製品カテゴリーにおいて発見される製品に関係する情報は、照合モジュール230に供給され得る。照合モジュール230は、製品画像320のより正確な結果を生成するようすべての結果を分析し得る。
コンテキスト識別モジュール220がひとたびコンテキスト画像330を識別すると、コンテキスト画像330は、画像310における製品画像320を照合するように使用され得る。照合モジュール230は、たとえば空間関係、時間関係といった、製品画像320とコンテキスト画像330との間の関係を識別するように構成され得る。画像位置識別モジュールは、画像310におけるコンテキスト画像330の位置を識別するように構成され得る。コンテキスト画像330の位置は、画像位置識別モジュールによって、画像310における製品の検出中に得られ得る。照合モジュール230は、製品画像320とコンテキスト画像330との間の空間関係または位置関係を照合するように構成される空間関係モジュールを含み得る。空間関係モジュールは、製品画像320とコンテキスト画像330との間の関係に関係する条件を有する視覚文法モジュールを含み得る。
製品インデキシングシステム100は、製品画像320の正確さを照合するために、製品画像の照合において、製品検出モジュール、製品予測モジュール211およびコンテキスト識別モジュール220から得られる結果を利用し得る。
たとえば、図6に示されるように、コンテキスト識別モジュール220は、たとえば顔410、皮膚420、人間430といった複数のコンテキスト画像330と、当該複数のコンテキスト画像330の位置とを識別し得る。たとえば顔および人体のいくつかの部分といった複数のコンテキスト画像330は、製品画像、すなわちコート、には該当しない場合があるが、当該複数のコンテキスト画像330は、製品画像320の位置を推論するのに重要であり得る。
視覚文法モジュールは、上記3つのモジュール、すなわち製品検出モジュール、製品予測モジュール211およびコンテキスト識別モジュール220のうちの少なくとも1つについての予測結果をマージするために使用され得る。視覚文法モジュールは、空間関係有効性文法を含み得る。視覚文法モジュールは、製品画像320の位置とコンテキスト画像330の位置との間の空間関係を分析し得、無効な製品コンテキスト関係を有する製品画像320をフィルタリングし得る。視覚文法モジュールは、製品画像位置に対して改良を
行ない得る。空間関係分析の結果に基づいて、製品画像320の予測は正しいが、製品画像320の位置はどういう訳か十分に正確でない場合があるということが分かり得る。視覚文法モジュールは、線形モデルを使用してコンテキスト画像330のうちの少なくとも1つに基づいて製品画像320を照合し得る。たとえば、たとえばコートといった製品画像の境界座標を顔ボックス412座標から予測し得る。視覚文法モジュールは、製品画像320の予測を改善するために、既存の製品検出モジュールから手動で調整または学習され得る予測パラメータを含み得る。
製品インデキシングシステム100は、製品画像320を規定するように構成される製品画像規定モジュールを含み得る。図6に示されるように、製品画像およびコンテキスト画像をそれぞれ規定するように、製品ボックスおよびコンテキストボックスが使用され得る。たとえば、コンテキストボックスは、顔410の位置を識別する顔ボックス412と、皮膚420の位置を識別する皮膚ボックス422と、人間430の位置を識別する人間ボックス432と、テキスト440の位置を識別するテキストボックス442と、画像モザイク450の位置を識別する画像モザイクボックス452とを含み得る。示されるように、ボックスは、ボックス内に制限されるエリアを規定するために使用される。当該ボックスは、画像の境界を示すために使用される円形形状、正方形形状、あるいは任意の他の形状であり得る。
視覚文法モジュールにおける規定の例は、次のものを含み得る。
・製品ボックス(図6に示されない)は、画像モザイクボックス/円内に存在するべきである。
・上部衣服ボックス(図6に示されない)は、人間ボックス432を超えるべきではない。上部衣服ボックスの上部境界は顔ボックス412の中間部を超えるべきではない。
・製品ボックス内の皮膚エリアは、しきい値(しきい値は製品カテゴリーによって変動し得る)を越えるべきではない。別の態様では、1)顔の色が皮膚予測に使用されていなければ、その皮膚エリアは無効であると考えられる(皮膚の予測が不正確である場合)、2)顔の色が皮膚の予測に使用されていれば、製品ボックスは無効である。
・皮膚エリアは、製品画像に対するノイズデータとなる可能性が高いので、製品ボックスにおけるすべての皮膚エリアを除去する。
製品カテゴリーは、視覚文法モジュールにおける規定を規定し得る。したがって、視覚文法は、製品の製品カテゴリーに従って柔軟に変動または変更され得る。
コンテキスト画像330、すなわち写真コンテキスト情報、の使用は、製品画像320の識別において重要な要素であり得る。モデルベースのコンテキスト予測は、同様の画像処理アプローチと比較して、より一般的であり得る。図6に示されるように、テキスト、ボックス型または円型のモザイク、および人間といった共通の重要でないコンテキスト情報に関して、モデルが構築され得る。
コンテキスト識別モジュールは、たとえば日の時間、年の季節といった時間関係データを検出し得る。時間関係データは、日の時間または年の季節に関係があり得る製品を識別するように使用され得る。たとえば、雪は、人が着用する服が冬服であり得ることを示し得る。示されるように、コンテキスト画像は、コンテキスト背景画像であり得る。別の例では、コンテキスト背景画像は、たとえばやかん、鉢といった少なくとも1つのキッチンアイテムであり得、製品画像は、キッチンアイテムのコンテキストにある視覚文法を使用して比較され得る。視覚文法は、物体対風景の関係条件および/または物体対物体の関係
条件を含み得る。
インデキシング目的で製品画像が抽出される場合、後で説明されるように、コンテキスト画像は除去され得る。
以前に言及したように、製品に必要とされる視点は、製品カテゴリーにおいてあらかじめ規定され得る。たとえば、靴の場合、側面から見たものの鏡面反転バージョンが、生成およびインデキシングされる必要があり得る(図7(d)参照)。
製品画像320は、異なる製品視点を生成するために、抽出され、視点管理モジュールに供給され得る。異なる製品は、たとえば対称、回転不変などといった異なる形状的特徴を有するので、視点管理モジュールは異なる製品カテゴリーに従って設計され得る。視点管理モジュールは、製品の必要とされる視点を予測するよう形状モデルを利用し得る。これにより、製品インデキシングシステム100の計算コストはかなり低くなる。
製品の視点が完成すると、当該視点はインデキシングされ得る。より多くの視点を生成することによって、製品の製品インデックスが増強され得、これにより、製品の視覚インデックス品質が改善される。
製品は、異なる視点から見ると、異なって見え得る。したがって、製品の視点は、さまざまなユーザの問合せから統一された検索結果を得るために、さらに処理される必要があり得る。製品位置および視点が良好に予測される場合、鏡面反転による視界回転した視界といったような他の視点からの製品の視点が合成され得る。
製品画像320は製品カテゴリーに基づいて識別され得る。図7は、製品画像がインデキシングされるフローチャート380を示す。画像310は、画像予測モジュール214によって予測され得る。
以前に言及したように、製品検出モジュールは、画像310における製品画像320の位置および製品の視点を検出するように構成され得る。製品検出モジュールの画像位置識別モジュールは、画像座標における製品の位置を予測するために使用され得る。図7(a)を参照して、製品画像320がひとたび検出されると、製品画像ボックス322が製品画像320の画像エリアを規定するように生成され得る。
図7(b)を参照して、視点管理モジュールは、製品の視点(製品画像ボックス322の矢印によって示される)を検出するように使用され得る。たとえば、2足の靴が、45°および90°回転された靴モデルによって検出され得る。
図7(c)を参照して、製品カテゴリーにおける製品のあらかじめ規定された視点に基づいて、製品画像320は、製品画像ボックスの境界に沿って抽出され、当該製品についての製品カテゴリーのあらかじめ規定された視点に整列され得る。図7(c)に示されるように、右側の靴の製品画像320は、製品カテゴリーにおいて規定されるように、90°反時計回りに回転され得る。製品画像320が製品画像においてあらかじめ規定された視点に既に整列している場合、製品画像は回転される必要はない。製品320の製品画像がひとたび得られると、製品画像320は、製品視覚的特徴インデックスとしてインデキシングされ得る。製品画像320が、たとえば側面から見たものといったような製品の視点を含んでいると、視点インデックスが生成され得る。製品インデックスおよび/または視点インデックスは、製品視覚的特徴インデックスに保存され得る。
図7(d)を参照して、たとえば靴形状モデルといった製品は、側面から見たものと正
面から見たものという2つの視点を有し得る。視点インデックスは、検索問合せも視点インデックスでラベル付けされている場合、検索を容易にし得る。
製品カテゴリーによって必要とされるようなあらかじめ規定された視点に依存して、他の視点も視点管理モジュールによって生成され得る。たとえば図7(d)を参照して、視点管理モジュールは、製品画像320の鏡面反転した視点または回転した視点324を生成し得る。電子商取引製品データのほとんどは対称および回転不変ではない。したがって、検索に有用な視点を生成することが必要であり得る。
製品画像320が識別および/または改良されると、製品の視覚的特徴説明が製品画像320から抽出され得る。製品カテゴリーは、異なる製品カテゴリーが異なる抽出パラメータに帰着し得るので、製品画像320の抽出に必要であり得る視覚的特徴抽出パラメータを含み得る。製品視覚的特徴インデックスは製品画像320から構築され得る。最終製品視覚的特徴インデックスは、ハッシングおよび転置インデックスのような一般的なデータインデキシング技術に基づいて、製品カテゴリーおよび抽出された視覚的特徴を使用して構築され得る。製品カテゴリーは、製品のより正確なインデキシングを提供するために、視覚的特徴抽出およびインデキシングに使用されてもよい。
図8は、製品画像320のインデキシングの例示的な方法304のフローチャートを示す。図8(a)に示されるように、製品画像320は、製品予測モジュール211を使用して画像310から予測され得る。たとえば、製品予測モジュール211は、コートであると製品画像320を識別している。サーバ200は、製品画像320のまわりに製品画像ボックス322を生成することにより、製品画像320を選択し得る。製品予測スコア216は、製品予測モジュール211によって生成され得た。サーバ200は、製品予測スコア216に基づいて、コートについての製品カテゴリーを要求し得る。サーバ200は、製品画像320における製品を検出するように製品検出モジュールをアクティベートし得る。図8(b)を参照して、サーバ200は、たとえば画像310における人間のようなコンテキスト画像330を識別するためにコンテキスト識別モジュール220をアクティベートし得る。照合モジュール230を使用して、コンテキスト画像330は、製品画像320と比較され、かつ、たとえば視覚文法モジュールを使用して製品画像320を照合するように使用され得る。図8(c)を参照して、視覚文法に基づいて、サーバ200は、製品画像ボックス322を拡大させることによって製品画像320を改良し得、これにより、製品画像ボックス322内の製品をより良好に規定およびカプセル化する。図8(d)を参照して、コンテキスト識別モジュール220は、複数のコンテキスト画像330を識別し得、複数のコンテキスト画像330(図8(e)を参照)をマスキングし得る。サーバ200は、抽出モジュール240を使用して製品画像320を抽出し得る。製品画像320を抽出する際に、サーバ200は、複数のコンテキスト画像330、すなわちノイズ、から製品画像330を分離するよう製品画像320から複数のコンテキスト画像330を除去し得る。その後、製品画像320は、製品視覚的特徴インデックスを形成するために、インデキシングモジュール250を使用してインデキシングされ得る。複数のコンテキスト画像330の除去により、製品についての製品視覚的特徴インデックスの正確さが改善され得る。
図9は、例示的な製品インデキシング方法900のフローチャートを示す。製品データ300を受信すると、製品識別モジュール210は、製品画像320を識別するよう製品データ300を分析するために使用され得る。製品画像320は、製品予測モジュール211を使用して画像310から識別され得る。画像310における製品のタイプは製品予測モジュール211によって予測され得る。製品予測モジュール211は、製品の製品カテゴリー350を予測するために使用され得る。製品カテゴリー350を識別する際、製品カテゴリー350に関係する製品検出モジュール260が、画像310における製品画
像320を識別するように使用され得るとともに、たとえば取得されるべき視点を決定するといった他の機能のために使用され得る。コンテキスト画像330は、コンテキスト識別モジュール220によって画像310から識別され得る。製品画像320は、製品画像310、製品カテゴリー350およびコンテキスト画像330のうちの少なくとも1つからの入力を考慮することによって、照合モジュール230によって照合され得る。照合に基づいて、製品画像320が改良され得、改良された製品画像320が抽出モジュール240によって抽出され得る。画像310から抽出された製品画像320は、製品視覚的特徴インデックス370を得るよう、インデキシングモジュール250によってインデキシングされ得る。
ユーザ検索問合せ画像も製品インデキシングシステム100によって処理され得る。製品インデキシングシステム100における上記のモジュールのうちの任意の1つ以上のものが、ユーザ検索問合せ画像について実行され得る。たとえば、視点管理モジュールは、ユーザ検索問合せの画像を鏡面反転または回転し得る。

Claims (36)

  1. 製品インデキシング方法であって、
    製品の製品データを受信することを含み、前記製品データは少なくとも画像を含み、前記画像は、前記製品の製品画像と、前記製品が存在するコンテキストを提供するコンテキスト画像とを含み、前記コンテキスト画像は少なくとも1つの非製品画像を含み、前記製品インデキシング方法はさらに、
    前記製品画像を識別することと、
    前記画像から前記コンテキスト画像を識別することと、
    前記コンテキスト画像に基づいて前記製品画像における前記製品を照合することと、
    前記製品画像を抽出することと、
    前記製品画像をインデキシングすることと、
    前記製品画像のあらかじめ規定された視点とマッチするように前記製品画像を方向付けることとを含む、製品インデキシング方法。
  2. 前記製品データに基づいて前記製品の製品カテゴリーを決定することをさらに含み、前記製品画像は前記製品カテゴリーに基づいて識別される、請求項1に記載の製品インデキシング方法。
  3. 製品予測スコアを生成することをさらに含み、前記製品カテゴリーは前記製品予測スコアに基づいて決定される、請求項2に記載の製品インデキシング方法。
  4. 前記製品予測スコアはテキスト予測スコアおよび/または画像予測スコアを含む、請求項3に記載の製品インデキシング方法。
  5. 前記製品データは前記製品の製品テキストを含み、前記製品カテゴリーは前記製品テキストに基づいて決定される、請求項2〜4のいずれか1項に記載の製品インデキシング方法。
  6. 前記製品テキストは前記製品の製品名を含み、前記製品カテゴリーは前記製品名に基づいて決定される、請求項2〜5のいずれか1項に記載の製品インデキシング方法。
  7. 前記製品テキストは前記製品の製品説明を含み、前記製品カテゴリーは前記製品説明に基づいて決定される、請求項2〜6のいずれか1項に記載の製品インデキシング方法。
  8. 前記製品カテゴリーは前記製品画像に基づいて決定される、請求項2〜7のいずれか1項に記載の製品インデキシング方法。
  9. 前記製品画像は前記製品カテゴリーに基づいて識別される、請求項2〜8のいずれか1項に記載の製品インデキシング方法。
  10. 前記画像内の前記製品画像の位置を決定することをさらに含む、請求項1〜9のいずれか1項に記載の製品インデキシング方法。
  11. 前記画像内の前記コンテキスト画像の位置を決定することをさらに含む、請求項10に記載の製品インデキシング方法。
  12. 前記製品画像と前記コンテキスト画像との間の関係を識別することをさらに含む、請求項1〜11のいずれか1項に記載の製品インデキシング方法。
  13. 前記関係を識別することは、前記製品画像と前記コンテキスト画像との間の空間関係を決定することを含む、請求項12に記載の製品インデキシング方法。
  14. 前記製品画像を規定することをさらに含む、請求項1〜13のいずれか1項に記載の製品インデキシング方法。
  15. 規定された前記製品画像を改良することをさらに含む、請求項14に記載の製品インデキシング方法。
  16. 前記製品画像における前記製品の視点を識別することをさらに含む、請求項1〜15のいずれか1項に記載の製品インデキシング方法。
  17. 前記製品画像の前記あらかじめ規定された視点は、前記製品の製品カテゴリーによって規定される、請求項1に記載の製品インデキシング方法。
  18. 前記製品の別の視点を生成することをさらに含む、請求項1〜17のいずれか1項に記載の製品インデキシング方法。
  19. 前記別の視点は、製品カテゴリーによる前記製品のあらかじめ規定された視点に基づいて生成される、請求項18に記載の製品インデキシング方法。
  20. 前記製品画像をインデキシングすることは、前記製品画像の前記視点および/または別の視点をインデキシングすることを含む、請求項1〜19のいずれか1項に記載の製品インデキシング方法。
  21. 前記製品画像のインデキシングは前記製品の製品カテゴリーに基づく、請求項2〜20のいずれか1項に記載の製品インデキシング方法。
  22. 製品インデキシング方法であって、
    入力画像を受信することと、
    前記入力画像を分析することとを含み、前記分析することは、
    前記入力画像内の製品を識別することと、
    識別された製品に基づいて、複数のあらかじめ規定された製品カテゴリーの中から、前記識別された製品のための製品カテゴリーを予測することとを含み、あらかじめ規定された製品カテゴリーの各々は、1つ以上の製品を包含し、あらかじめ規定された製品カテゴリーの各々は、前記あらかじめ規定された製品カテゴリーに包含された1つ以上の製品のための1つ以上の必要な視点を有し、予測された製品カテゴリーは、前記識別された製品のための1つ以上の必要な視点を含み、前記分析することは、さらに、
    前記識別された製品に基づいて、前記入力画像から製品画像を選択することを含み、選択された製品画像は、前記識別された製品の視覚的表現を提供する、入力画像の1つ以上の部分であり、前記分析することは、さらに、
    前記選択された製品画像に基づいて、前記入力画像からコンテキスト画像を選択することを含み、選択されたコンテキスト画像は、前記選択された製品画像における前記識別された製品のためのコンテキスト情報を提供する、前記製品画像とは異なる前記入力画像の1つ以上の部分であり、前記分析することは、さらに、
    前記選択された製品画像を照合して、前記選択された製品画像を改良する必要があるかどうかを決定し、照合することは、前記選択されたコンテキスト画像と前記予測された製品カテゴリーに基づき、
    前記照合することに基づいて、前記選択された製品画像を改良すべきかどうかを決定し、
    前記選択された製品画像が改良しなくてもよいという決定に応じて、
    前記選択された製品画像において、前記識別された製品の視点を識別することを含み、選択された製品画像における、識別された製品の視点は、前記選択された製品画像を、前記予測された製品カテゴリーにおける1つ以上の要求される視点と比較することに基づいて識別され、
    前記選択された製品画像における識別された製品の識別された視点に基づいて、前記選択された製品画像を抽出することと、
    抽出された製品画像をインデキシングすることをさらに含む、製品インデキシング方法。
  23. 製品予測スコアを生成することをさらに含み、前記製品カテゴリーは前記製品予測スコアに基づいて決定される、請求項22に記載の製品インデキシング方法。
  24. 前記製品予測スコアはテキスト予測スコアおよび/または画像予測スコアを含む、請求項23に記載の製品インデキシング方法。
  25. 前記入力画像は、製品テキストを含み、前記製品テキストは、前記製品のテキスト記述であり、前記予測された製品カテゴリーは、前記製品テキストに基づいて決定される、請求項22に記載の製品インデキシング方法。
  26. 以下のうちの1つ以上が適用される、請求項25に記載の製品インデキシング方法:
    前記製品テキストが前記製品の製品名を含み、前記予測された製品カテゴリーが前記製品名に基づいて決定される;
    前記製品テキストが前記製品の製品記述を含み、前記予測された製品カテゴリーは、前記製品記述に基づいて決定される;
    前記予測された製品カテゴリーが前記製品画像に基づいて決定される;および/または
    前記製品画像が、前記予測された製品カテゴリーに基づいて決定される。
  27. 前記入力画像内の前記選択された製品画像の位置を決定することをさらに含む、請求項22に記載の製品インデキシング方法。
  28. 前記入力画像内の前記選択されたコンテキスト画像の位置を決定することをさらに含む、請求項22に記載の製品インデキシング方法。
  29. 前記選択された製品画像と前記選択されたコンテキスト画像との間の関係を識別することをさらに含む、請求項22に記載の製品インデキシング方法。
  30. 前記関係を識別することは、前記選択された製品画像と前記選択されたコンテキスト画像との間の空間関係を決定することを含む、請求項29に記載の製品インデキシング方法。
  31. 前記照合することが、前記選択された製品画像に改良の必要があることを示す場合には、
    前記選択された製品画像を改良し、
    改良された製品画像において前記識別された製品の視点を識別し、前記改良された製品画像において前記識別された製品の前記視点は、前記改良された製品画像を、前記予測された製品カテゴリーにおける1つ以上の必要な視点と比較することに基づいて識別され、
    前記改良された製品画像における前記識別された製品の識別された視点に基づいて、前記改良された製品画像を抽出することと、
    抽出された製品画像をインデキシングすることとをさらに含む、請求項22に記載の製品インデキシング方法。
  32. 前記予測された製品カテゴリーにおける前記必要な視点の1つとマッチするように前記選択された製品画像の方向を調整することをさらに含む、請求項22に記載の製品インデキシング方法。
  33. 前記選択された製品画像における前記識別された製品の別の視点を生成することをさらに含み、前記別の視点は、前記選択された製品画像における前記識別された製品の前記識別された視点とは異なる、請求項22に記載の製品インデキシング方法。
  34. 前記別の視点は、前記予測された製品カテゴリーにおける1つ以上の前記要求される視点に基づいて生成される、請求項33に記載の製品インデキシング方法。
  35. 前記抽出された製品画像をインデキシングすることは、前記選択された製品画像における前記識別された製品の前記識別された視点および/または別の視点をインデキシングすることを含む、請求項22に記載の製品インデキシング方法。
  36. 前記抽出された製品画像をインデキシングすることは、前記予測された製品カテゴリーに基づく、請求項22に記載の製品インデキシング方法。
JP2019145370A 2019-08-07 2019-08-07 製品インデキシング方法およびそのシステム Active JP6855540B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145370A JP6855540B2 (ja) 2019-08-07 2019-08-07 製品インデキシング方法およびそのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145370A JP6855540B2 (ja) 2019-08-07 2019-08-07 製品インデキシング方法およびそのシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017545663A Division JP6571200B2 (ja) 2015-02-24 2015-02-24 製品インデキシング方法およびそのシステム

Publications (2)

Publication Number Publication Date
JP2020004425A JP2020004425A (ja) 2020-01-09
JP6855540B2 true JP6855540B2 (ja) 2021-04-07

Family

ID=69100330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145370A Active JP6855540B2 (ja) 2019-08-07 2019-08-07 製品インデキシング方法およびそのシステム

Country Status (1)

Country Link
JP (1) JP6855540B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568425B2 (en) * 2020-02-24 2023-01-31 Coupang Corp. Computerized systems and methods for detecting product title inaccuracies

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059284A (ja) * 2004-08-24 2006-03-02 Nippon Telegr & Teleph Corp <Ntt> 物体識別装置、物体識別方法、およびこの方法のプログラム
JP4826139B2 (ja) * 2005-05-26 2011-11-30 パナソニック電工株式会社 ドレッシングシステム
JP2009251850A (ja) * 2008-04-04 2009-10-29 Albert:Kk 類似画像検索を用いた商品推薦システム
JP5104743B2 (ja) * 2008-12-16 2012-12-19 富士通株式会社 画像検索プログラム、画像検索方法及び記録媒体
EP3748567A1 (en) * 2009-12-24 2020-12-09 Nikon Corporation Retrieval support system, retrieval support method, and retrieval support program
JP5869989B2 (ja) * 2012-08-24 2016-02-24 富士フイルム株式会社 物品照合装置および方法並びにプログラム

Also Published As

Publication number Publication date
JP2020004425A (ja) 2020-01-09

Similar Documents

Publication Publication Date Title
US10747826B2 (en) Interactive clothes searching in online stores
JP6571200B2 (ja) 製品インデキシング方法およびそのシステム
US9330111B2 (en) Hierarchical ranking of facial attributes
Iwata et al. Fashion coordinates recommender system using photographs from fashion magazines
US10282431B1 (en) Image similarity-based group browsing
JP2016018538A (ja) 画像認識装置、方法及びプログラム
Balazia et al. Gait recognition from motion capture data
WO2016190814A1 (en) Method and system for facial recognition
Bhattacharjee et al. Query adaptive instance search using object sketches
KR20150058663A (ko) 정합 쌍을 이용한 신발 영상 검색 장치 및 방법
CN112330383A (zh) 用于基于可视元素的物品推荐的设备及方法
Marton et al. Probabilistic categorization of kitchen objects in table settings with a composite sensor
Li et al. Retrieval of clothing images based on relevance feedback with focus on collar designs
JP6975312B2 (ja) 不正推定システム、不正推定方法、及びプログラム
JP2017084078A (ja) スタイル検索装置、方法、及びプログラム
JP6855540B2 (ja) 製品インデキシング方法およびそのシステム
Miura et al. SNAPPER: fashion coordinate image retrieval system
Bansal et al. re-obj: Jointly learning the foreground and background for object instance re-identification
KR101468457B1 (ko) 스마트 상품 검색 제공 방법
Chen et al. Content-based image retrieval with LIRe and SURF on a smartphone-based product image database
Han et al. RGB-D human identification and tracking in a smart environment
Frikha et al. Semantic attributes for people’s appearance description: an appearance modality for video surveillance applications
KR101350221B1 (ko) 인지모방 기법을 이용한 지능형 영상 검색 방법
De Tre et al. LSP based comparison of 3D ear models
Zhan et al. Cross-domain shoe retrieval using a three-level deep feature representation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R150 Certificate of patent or registration of utility model

Ref document number: 6855540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250