JP7446403B2 - 精算のための複数商品の製品認識 - Google Patents

精算のための複数商品の製品認識 Download PDF

Info

Publication number
JP7446403B2
JP7446403B2 JP2022211155A JP2022211155A JP7446403B2 JP 7446403 B2 JP7446403 B2 JP 7446403B2 JP 2022211155 A JP2022211155 A JP 2022211155A JP 2022211155 A JP2022211155 A JP 2022211155A JP 7446403 B2 JP7446403 B2 JP 7446403B2
Authority
JP
Japan
Prior art keywords
point cloud
product
image
rgb data
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022211155A
Other languages
English (en)
Other versions
JP2023114434A (ja
Inventor
ブジェルセヴィック ロスウェル ステファン
リー マクダニエル クリスチャン
ヴァンス ズッカー ブレント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NCR Voyix Corp
Original Assignee
NCR Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NCR Corp filed Critical NCR Corp
Publication of JP2023114434A publication Critical patent/JP2023114434A/ja
Application granted granted Critical
Publication of JP7446403B2 publication Critical patent/JP7446403B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Finance (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Toxicology (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Description

本発明は、小売店等におけるPOSシステムによる購入商品の識別と清算処理に関する。
商品の画像数が少なく、画像のいくつかが商品を遮蔽する場合、商品の認識自体が困難な作業である。画像内に存在する商品のより多くの遮蔽(商品は互いに前に配置することができる)など、多くの理由から、複数商品の認識は更に困難である。実際には、一度に多くの商品を1つの領域に配置することは、必然的に一部の商品が他の商品の表示を妨害することにつながる。たとえ画像に商品が部分的に見えても、その商品を識別するキーが見えなくなったりブロックされたりする場合がある。
多くの小売業者は、顧客に様々な形式の精算を提供している。例えば、レジ係が補助する精算では、顧客がコンベヤーベルトに商品を載置することができ、レジ係は各商品をスキャン又は入力し、販売時点(POS)端末を操作しながら精算のために顧客から支払いを受ける。セルフサービス端末(SST)では、顧客が自分の商品のバーコードをスキャン又は入力し、セルフ精算の支払いを行うことができる。いくつかの小売業者では、顧客が商品のバーコードをスキャン又は入力する際に、顧客が携帯アプリケーションを使用して買い物をし、精算のために携帯アプリケーションを介してのSST、POS端末のいずれかで支払うことを可能にする。
業界の目標は、カメラとセンサが顧客を店内のアカウントと関連付け、顧客がピックアップした商品を監視し、カメラの画像から商品を認識し、顧客が店を去るときに顧客の取引に対する支払いを請求し、フリクションレス精算を可能にすることである。
フリクションレスショッピングはまた、顧客の手又は他の商品が商品を遮蔽し、商品が顧客のバッグ又はバスケット内の他の商品に積み重ねられて、商品の良い画像が商品を識別するために取得できない場合があるため、遮蔽問題も発生する。
コンビニエンスストアは、通常、小さなバスケットを有し、精算は、店員によって操作される販売時点(POS)端末で、買い物客が商品コード(UPC)を入力又はスキャンするのを支援するのを可能とする店員を必要とする。残念なことに、コンビニエンスストアには、買い物客が自分の商品を、セルフ精算を行うことができる、セルフサービス端末(SST)を設置するための物理的なスペースがない。
その結果、コンビニエンスストアは、1つ又は2つの列に並んでいる買い物客と、店員とが、精算に非常に忙しい状態になる可能性がある。あまり必要のない商品をいくつか購入している一部の買い物客は、購入せずに商品を置き、店を出ることを選択する可能性がある。これらの状況は、各取引の平均購入商品数が少ない、大量の取引に依存する、小さなコミュニティベースのコンビニエンスストアにとって問題となり得る。
様々な実施形態において、精算中の複数商品の製品認識のためのシステム及び方法を提示する。
本発明の一実施形態によれば、清算中の複数商品の製品認識のための方法が提供される。すなわち、指定された領域に対して、複数のシーンの異なる画像取得し、前記画像の各々から、奥行き情報及び赤色、緑色、青色から成るRGBデータ抽出前記奥行き情報及び前記RGBデータを使用して、前記画像の各々に対して点群をアセンブルし、前記画像の各々に対する前記点群単一の点群に同期化し前記単一の点群から既知の背景ピクセル除去して、変更された単一の点群を作成し、前記変更された単一の点群における前記奥行き情報及び前記RGBデータを前記シーンに存在する商品にクラスタ化された単一の点群を作成ここで、各クラスタ前記シーンに存在する固有の商品に関連付けられており、前記クラスタ化された単一の点群からの各クラスタを使用して、前記クラスタ化された単一の点群から対応する商品についての少なくとも前記RGBデータを処理することによ前記画像から画像パッチを関連付け、前記画像の対応する1つが可視の所定の商品の一部を有するときに、少なくとも前記RGBデータから、関連する画像パッチの前記クラスに属する商品の商品コードを識別することにより、各商品の商品コードを識別しそして、顧客に関連付けられた取引に前記商品コードが提供される。
例示的な実施形態による、精算中の複数商品の製品認識のためのシステムの図である。 例示的な実施形態による、精算中の複数商品の製品認識のための方法の図である。 例示的な実施形態による、精算中の複数商品の製品認識のための別の方法の図である。
図1は、例示的な実施形態による、精算中の複数商品の製品認識のためのシステム100の図である。構成要素が、例示される実施形態の理解に関連する構成要素のみを有して大幅に単純化された形態で概略的に示されていることに留意されたい。
更に、(システム/プラットフォーム100で識別される)様々な構成要素を例示し、構成要素の配置は例示のみを目的として提示する。本明細書中、以下に示す、精算のための複数商品の製品認識の技術から逸脱することなく、より多くの、又はより少ない構成要素の他の配置が可能であることに留意するべきである。
本明細書で使用される場合、「シーン」は、顧客のセット又は複数商品が、複数の異なる角度で撮影された複数の画像を通して監視されている、定義された領域を指す。複数商品は、静止されていてもよく、又はバスケット、カート、手と腕、若しくは袋の中で顧客とともに移動していてもよい。領域は、任意の所定の形状、所定のサイズ、及び所定の寸法とすることができる。
システム100は、シーン内の同じタイプの複数の異なるタイプのカメラ120又はカメラ130によって、異なる角度で捕捉された商品(製品)の複数の画像を可能にする、様々な構成要素を示す。商品は、バスケットの中に一緒に配置され、カートの中にあり、顧客によって保持され、及び/又はシーンの画像が捕捉されて、クラウド/サーバ110に提供されるときにカウンタトップ上に配置されてもよい。カメラ120及び/又は130によって返された奥行き情報、及びカメラ120及び/又は130によって返された赤色、緑色、青色(RGB)色データは、各カメラ120又は130によって捕捉されたシーンを表す点群を生成するために使用される。
次に、点群を整列させ、同期化して、シーンの単一の点群を作成するのは、各別個のカメラ120又は130が、シーンに予めマッピングされた視野を有し、各カメラ120又は130のレンズは、シーンから予め設定された角度及び距離にあるためである。これにより、シーン内の各商品の奥行き情報とRGBデータを、シーン内の所定の位置に関連付けることができ、また、単一の点群内に統合された各商品の奥行き情報とRGBデータを関連付けることができる。シーンに関連付けられた既知の背景ピクセルは、単一の点群に残る全てがシーン内の商品についての奥行き情報とRGBデータになるように除去される。
奥行き情報とRGBデータは、シーン内の近さ(他の奥行き情報とRGBデータとの間の近さ/距離)に基づいて、一緒にクラスタ化される。シーン内の商品の合計数は、奥行き情報とRGBデータに関連付けられたクラスタの数に基づいてカウントされる。三次元(3D)バウンディングボックスが、個々の商品(クラスタ)の周りに配置される。各3Dバウンディングボックス内の各クラスタは、シーン内の各画像の3D画像を縫合することを表す。ピクセルデータ(奥行き情報におけるRGBデータ及び/又はグレースケールの奥行きピクセルデータであることができる)は、各クラスタ(点群内の各一意な商品)に関連付けられ、かつ小売業者の製品カタログからの特定の商品コードに所与の商品が関連付けられているパーセンテージとして信頼レベルを出力する、訓練された機械学習モデルへの入力として提供される。点群内の点のクラスタの各々の位置を取得し、対応する2D RGB画像と関連付けることができるため、各商品を全ての画像又はカメラビューにわたって関連付けることができる。そのため、点群内の任意の所与のクラスタに対する商品コードを判定する際に、単一の商品の複数のビューが考慮される。
本質的に、オペレーションのパイプラインは、シーンの複数の画像上で行われ、シーンは、シーン内に配置された複数の商品を含む。複数の商品に対する合計商品数の精度と、複数の商品のそれぞれに対する商品認識は、オペレーションのパイプラインを処理することによって改善される。
ここで、様々な実施形態が、図1を参照して非常に詳細に論じられる。
システム100は、クラウド/サーバ110、店舗内カメラ120、器具取り付けカメラ130、1つ以上の小売サーバ140、取引端末150、及びユーザが操作するデバイス160を含む。
クラウド/サーバ110は、プロセッサ111、及び非一時的コンピュータ可読記憶媒体112を備える。媒体112は、奥行き/RGBマネージャ113、画像点群マネージャ114、点群シンクロナイザ115、背景マネージャ116、バウンディングボックスマネージャ117、機械学習(ML)モデル(MLM)、118、及び複数商品管理119に対する実行可能な命令を含む。実行可能な命令は、媒体112からのプロセッサ111によって提供又は取得されたとき、プロセッサ111に、113~119に関して本明細書で論じる動作を実行させる。
店舗内カメラ120は、端末150の取引領域の頭上に位置する、及び/又は端末150に関連付けられたサイドカウンタトップに沿って位置する頭上カメラなど、店舗全体に配置された静止カメラであってもよい。
器具取り付けカメラ130は、バスケット及びカートの側面に取り付けられてもよい。カート又はバスケット用の1つのカメラ130は、カート又はバスケットの上部縁に沿って配置され、バスケット又はカートの中に下向きに向けられてもよい。カート又はバスケット用の他のカメラ130は、カート又はバスケットの中に焦点を置いたカート又はバスケットの2つ以上の側部に取り付けられ得る。
一実施形態では、以下に論じる実施形態に、器具取り付けカメラ130のみが使用される。
一実施形態では、以下に論じる実施形態に、店舗内カメラ120のみが使用される。
一実施形態では、以下に論じる実施形態に、店舗内カメラと器具取り付けカメラ130との組み合わせが使用される。
一実施形態では、以下に論じる実施形態に、3台のカメラ120及び/又は130が使用される。
一実施形態では、以下に論じる実施形態に、4台のカメラ120及び/又は130が使用される。
一実施形態では、以下に論じる実施形態に、5台以上のカメラ120及び/又は130が使用される。
一実施形態では、カメラ120及び/又は130のうちの1つ又は全てが、奥行きカメラである。
各小売サーバ140は、少なくとも1つのプロセッサ141と非一時的コンピュータ可読記憶媒体142とを備える。媒体142は、取引マネージャ143に対する実行可能な命令を含む。実行可能な命令は、媒体142からプロセッサ141によって提供又は取得されたとき、プロセッサ141に、143に関して本明細書で論じる動作を実行させる。
各小売サーバ150は、少なくとも1つのプロセッサ151と非一時的コンピュータ可読記憶媒体152とを備える。媒体152は、取引マネージャ153に対する実行可能な命令を含む。実行可能な命令は、媒体152からプロセッサ151によって提供又は取得されたとき、プロセッサ151に、153に関して本明細書で論じる動作を実行させる。
各ユーザ操作デバイス160は、少なくとも1つのプロセッサ161と非一時的コンピュータ可読記憶媒体162とを備える。媒体162は、小売アプリケーション(app)163に対する実行可能な命令を含む。実行可能な命令は、媒体162からプロセッサ161によって提供又は取得されたとき、プロセッサ161に、163に関して本明細書で論じる動作を実行させる。
複数の商品又は製品が、カメラ120及び130が焦点を当てて、指定された領域からの商品のシーンを捕捉するために、指定された領域に配置される。指定された領域は、端末150に関連付けられた取引領域のカウンタトップなど、静止であってもよく、又は指定された領域は、器具取り付けカメラ130を装備しているカート(1つのタイプの器具)又はバスケット(別のタイプの器具)に配置されている商品を有する顧客とともに移動してもよい。
画像は、カメラ120及び/又は130から複数商品マネージャ119に直接ストリーミングされ、カメラ120及び/又は130によって、複数商品マネージャ119が監視するネットワークアクセス可能なファイル位置のストレージに直接ストリーミングされる。シーンの画像は、多商品マネージャ119から奥行き/RGBマネージャ113によって提供され、各商品の奥行き情報及び各商品のRGBデータを抽出する。商品のシーンの奥行き情報及び商品のシーンのRGBデータは、画像点群マネージャ114に直接パイプされる。
画像点群マネージャ114は、各画像の抽出された奥行き情報及びRGBデータを含む、各カメラ120及び/又は130によって撮影された各画像についての点群を作成する。商品の単一のシーンの点群は、点群シンクロナイザ115に直接パイプされる。
点群シンクロナイザ115は、各カメラ120及び/又は130に関連付けられた既知の情報(カメラ角度、シーンの指定された領域の表面へのカメラ距離、カメラ品質(インチ当たりのピクセルの密度)など)を使用して、個々の奥行き情報と、単一の点群にパッチされてアセンブルされた各画像のRGBデータを含む、シーンの同期化又はマッピングされた単一の点群を生成する。シンクロナイザ115は、全てのカメラ120及び130の点群からの全ての奥行き情報とRGBデータを単一のパッチ付き点群に統合する。単一の点群は、その後、背景マネージャ116にパイプされる。
一実施形態では、全てのカメラ120及び/130の画像を単一のパッチ付き点群にリンクするために、点群シンクロナイザ115は、所与のカメラの座標を、シーンの指定された領域に関連付けられた現実世界の座標に整列させる変換行列を利用する。
背景マネージャ116は、各カメラ120及び130によって捕捉される画像データについて訓練され、例えば、カート又はバスケットに関連付けられたワイヤ又はプラスチック、フロアに関連付けられたフロアリング、背景であることが知られているカウンタトップの表面に関連付けられたカウンタトップ、背景であることが知られている棚の表面に関連付けられた棚など、シーンの既知の背景について、既知の背景ピクセルデータを識別及び除去する。除去された背景ピクセルを有する単一の点群は、その後、背景マネージャ117にパイプされる。
バウンディングボックスマネージャ117は、単一の点群のシーンの残りの奥行き情報とRGBデータに対してクラスタ化アルゴリズムを実行する。これにより、各個々のカメラ120及び/又は130が寄与したコンポーネント点群が関連付けられる。バウンディングボックスマネージャ117は、各クラスタの周りにバウンディングボックスを作成し、指定された領域のシーンにおいて商品ごとに単一のバウンディングボックスをもたらす。各商品の3Dバウンディングボックスを使用して、各商品が可視である各2D RGB画像に2Dバウンディングボックスを作成できる。
複数商品マネージャ119は、単一の点群内のバウンディングボックスの数をカウントする。カウントは、シーン内に存在する商品の数と等しく、対応するバウンディングボックス内のRGBデータは、シーン内に存在する各商品の商品認識のために、訓練されたMLM118に個別に供給される。
一実施形態では、単一の点群から供給されるRGBデータは、MLM118に供給される。単一の点群は、元の2D RGB画像の中の各商品がどこにあるかを識別するために処理される。元の画像の各々に対して2Dバウンディングボックスが作成され、画像の各々がMLM118に供給される。各画像パッチ(元の画像における2Dバウンディングボックスによって識別される)は、MLM118から独自の商品コード割り当て及び信頼値を受け取る。各商品の各パッチ(候補商品コード)の出力は、「投票」とみなされる。画像の所与の1つにおける所与の商品パスが、異なる商品コードを受信するか、又は全体的な平均信頼度が閾値を下回る場合、元のRGB画像におけるその2Dバウンディングボックスに関連付けられた対応するパッチは、決定的ではないとみなされる。投票からの平均信頼度値が閾値を超えると、元のRGB画像に表示されるパッチに対応する商品コードが割り当てられる。
MLM118は、MLM118の信頼性が商品予測においてどのくらいかを識別する、各バウンディングボックスに対する信頼係数を返す。商品予測は、サーバ140に関連付けられた小売業者のカタログ内の所定の商品に関連付けられた商品コードである。信頼係数が所定のパーセンテージを超えると、複数商品マネージャ119は、対応する商品コードを、シーンの単一の点群の対応するバウンディングボックスに割り当てる。
複数商品マネージャ118は、アプリケーションプログラミングインターフェース(API)を使用して、シーン内の各商品の各商品コードを取引マネージャ143及び/又は取引マネージャ153に提供する。取引マネージャ143及び/又は153は、取引の詳細を識別し、顧客からの支払いを要求し、及び/又はセキュリティのために、複数商品マネージャ118によって提供された商品コードが、顧客取引のセキュリティアラート又は監査を提起する目的で、入力又はスキャンされた商品コードと一致することを確認するなど、顧客の精算中の様々な目的のために商品コードを使用し得る。
顧客が小売アプリ163を使用して店舗のセルフショッピング及び精算を行っている場合、小売アプリは取引マネージャ143とやりとりし、取引マネージャ143は、マネージャ118によって提供された商品コードを記録し、商品価格及び商品説明を取得し、顧客が、顧客のカート又はバスケットに現在あるものを、顧客がいつでも精算できるオプションとともに、選択することができるアプリ163内のオプションを維持する。
一実施形態では、システム100は、レジ係によって操作されるPOS端末である端末150での精算中の商品バーコードのスキャンを排除することを可能にし、顧客が操作するSSTである端末150でのセルフ精算中の商品バーコードのスキャンを排除することを可能にする。更に、システム100は、顧客が小売アプリ163を使用している場合に、商品バーコードの顧客が自己スキャンを排除することを可能にし、むしろ、顧客は、その取引のために目的の商品をカート又はバスケットに入れるだけで、商品コードは、上述した方式で、システム100によって自動的に解決される。
一実施形態では、MLM118はまた、RGBデータとともに、各バウンデット商品の奥行き情報について訓練される。このようにして、MLM118は、12又は16オンスのCoke(登録商標)から8オンスのCoke(登録商標)のボトルを区別するなど、同じタイプの異なるサイズの商品を識別できる。
実施形態では、シーン内の所与の商品に対してMLM118によって返された所与の商品信頼値が、所定の閾値を下回ると、複数商品マネージャ119は、1つの商品がカウントされておらず、識別できないことを示すメッセージを取引マネージャ143又は取引マネージャ153に送信する。低信頼値に関連付けられた商品コードは、識別されなかった商品についてレジ係又は顧客に提示するための提案として、メッセージ内にも提供され得る。取引マネージャ143又は153は、商品を識別し適切に記録できるように、警告を使用して、取引が係員によって監査されるようにすることができる。バウンディングボックスによって判定される商品に関連付けられた元の画像も、顧客が商品を識別するか、又はシステム100が問題となっている商品を再試行して識別するためのシーンの指定された領域上の商品を再配置する要求とともに、メッセージで提供され得る。
一実施形態では、シーンの指定された領域は、12インチ×16インチであるか、又はコンビニエンスストアでのカート、食品トレー、バスケット、若しくはカウンタトップのサイズにほぼ対応する。
一実施形態では、背景ピクセル減算を使用する代わりに、背景マネージャ116は、処理されてシーン内の商品がある場所の「マスク」を作成し、商品がない場所のピクセルを除去する、RGBセグメンテーションモデルを使用する。
一実施形態では、MLM118は、クラスタ化されたバウンディングボックスを有する単一の点群がMLM118に提供されるように、3D画像パッチを標識するための深層畳み込みニューラルネットワーク(CNN)であり、MLM118は、各バウンディングボックスを商品コード及びパーセンテージ又は信頼値(MLM118によって対応する商品コードに対して判定された最大値)で標識する。このようにして、各バウンディングボックスの各個々のRGBデータは、個別にMLM118に渡す必要はない。
ここで図2~3を参照しながら、これらの実施形態及びその他の実施形態を検討する。
図2は、例示的な実施形態による、精算中の複数商品の製品認識のための方法200の図である。方法200を実装するソフトウエアモジュールを「シーン商品識別部」と称する。シーン商品識別部は、プログラムされた実行可能な命令として実装され、メモリ及び/又は非一時的コンピュータ可読(プロセッサ可読)記憶媒体の内部に常駐し、デバイスの1つ以上のプロセッサにより実行される。シーン商品識別部を実行するデバイスのプロセッサは、シーン商品識別部を処理するように具体的に構成され、かつプログラムされる。シーン商品識別部は、その処理中に1つ以上のネットワーク接続にアクセスできる。ネットワーク接続は、有線であっても、無線であっても、有線と無線の組み合わせであってもよい。
一実施形態では、シーン商品識別部は、クラウド110上で実行される。一実施形態では、シーン商品識別部は、サーバ110上で実行される。
一実施形態では、シーン商品識別部は、113、114、115、116、117、118、及び119の全て又は一部の組み合わせである。
210で、シーン商品識別部は、指定された領域に対するシーンの複数の異なる画像を取得する。
一実施形態では、211で、シーン商品識別部は、器具に取り付けられたカメラ130から画像を取得する。器具は、カート又はバスケットである。
一実施形態では、212で、シーン商品識別部は、カメラ120から、取引端末150に関連付けられた取引領域に隣接して静止している画像を取得する。
一実施形態では、213で、シーン商品識別部は、器具に取り付けられた奥行きカメラ130、取引領域に隣接する奥行きカメラ120、又は器具に取り付けられた奥行きカメラ130、及び取引領域に隣接する奥行きカメラ120の組み合わせから画像を取得する。
220で、シーン商品識別部は、画像の各々から奥行き情報及びRGBデータを抽出する。
213及び220の実施形態では、221で、シーン商品識別部は、画像に関連付けられたメタデータから奥行き情報及びRGBデータを取得する。
230で、シーン商品識別部は、奥行き情報及びRGBデータを使用して、各画像の点群をアセンブルする。
221及び230の実施形態では、231で、シーン商品識別部は、各点群を、異なる角度で、及び奥行きカメラ120及び/又は130のそれぞれによって異なる視点から撮影された、指定された領域の異なる3Dビューとして識別する。
240で、シーン商品識別部は、画像の各々に対する点群を単一の点群に同期化する。
231及び240の実施形態では、241で、シーン商品識別部は、対応する異なる角度及び対応する奥行きカメラ120及び/又は130の対応する異なる視点を使用することによって識別される、指定された領域内の位置に基づいて、それぞれの異なる3Dビューの奥行き情報とRGBデータを、単一の点群にパッチする。
250で、シーン商品識別部は、既知の背景ピクセルを単一の点群から除去し、変更された単一の点群を作成する。
241及び250の実施形態では、251で、シーン商品識別部は、商品のいずれも存在しないときに、奥行きカメラ120及び/又は130の各々によって指定された領域の採られたモデル背景画像を使用する。シーン商品識別部は、背景画像を単一の点群から減算して、変更された単一の点群を取得する。
260で、シーン商品識別部は、変更された単一の点群内の奥行き情報とRGBデータを、シーン内に存在する商品にクラスタ化し、クラスタ化された単一の点群を作成する。固有の商品に関連付けられた各クラスタは、指定された領域のシーンに存在する。
251及び260の実施形態では、261で、シーン商品識別部は、各クラスタの周りに3Dバウンディングボックスを配置して、指定された領域内の各商品を識別する。
261及び262の実施形態では、シーン商品識別部は、クラスタ化された単一の点群内の各バウンディングボックスをカウントして、指定された領域内に存在する合計商品数を取得する。
270で、シーン商品識別部は、クラスタ化された単一の点群からの対応する商品のRGBデータを除いて処理することによって、各商品の商品コードを識別する。これは、クラスタ化された単一の点群からの各クラスタを使用して、画像から画像パッチを関連付け、画像の対応する1つが、所与の商品の部分が見えたときに、少なくともRGBデータから、関連する画像パッチの各グループに対する商品コードを特定することによって、クラウドが達成される。別の言い方をすると、クラスタ化した単一の点群は、一緒にクラスタ化し、一緒にパッチを適用して、所与の商品のマルチビューを作成する各商品のRGBデータを含み、単一の点群の中の1つのクラスタの全ての画像パッチは、所与の商品について利用可能な全てのRGBデータを表し、このRGBデータは、元の撮影された画像の周りに2Dバウンディングボックスを作成するために使用され、各画像は、訓練されたMLM118に送られ、その後、各バウンディングボックスを潜在的な商品コード及び値で標識化する。投票アプローチ又は平均信頼値アプローチを使用して、候補商品コードを使用するか否かを判定する。
280で、シーン商品識別部は、顧客に関連付けられた取引の商品コードを提供する。
262及び280の実施形態では、281で、シーン商品識別部は、取引について、商品に関連付けられた商品コードとともに合計商品数を提供する。
図3は、例示的な実施形態による、精算中の複数商品の製品認識のための別の方法300の図である。方法200を実施するソフトウエアモジュールを、「複数商品認識部」と称する。複数商品認識部は、プログラムされた実行可能な命令として実装され、メモリ及び/又は非一時的コンピュータ可読(プロセッサ可読)記憶媒体の内部に常駐し、デバイスの1つ以上のプロセッサにより実行される。複数商品認識部を実行するデバイスのプロセッサは、複数商品認識部を処理するように具体的に構成され、プログラムされる。複数商品認識部は、その処理中に1つ以上のネットワーク接続にアクセスできる。ネットワーク接続は、有線であっても、無線であっても、有線と無線の組み合わせであってもよい。
一実施形態では、複数商品認識部を実行するデバイスは、クラウド110である。一実施形態では、複数商品認識部を実行する装置は、サーバ110である。
一実施形態では、複数商品認識部は、113、114、115、116、117、118、119、及び/又は方法200の全て又は一部の組み合わせである。
310で、複数商品認識部は、監視対象ゾーン内の異なる位置に位置し、監視対象ゾーン内の異なる角度で配向された、奥行きカメラ120及び/又は130から、監視対象ゾーン内の商品の画像を取得する。
320で、複数商品認識部は、画像に対して点群を生成するが、各点群は、奥行き情報、及び商品及び監視されるゾーンの背景物体に対して対応する画像に提供されるRGBデータを含む。
330で、複数商品認識部は、監視されるゾーンの各画像に関連付けられた異なる位置及び異なる角度を使用して、対応する奥行き情報及びRGBデータをパッチングすること及びマッピングすることによって、点群を単一の点群に同期化する。
340で、奥行き情報及び背景物体に対応するRGBデータを単一の点群から除去する。
350で、複数商品認識部は、残りの奥行き情報及びRGBデータをクラスタの中にクラスタ化するが、各クラスタは特定の商品に関連付けられている。
360で、複数商品認識部は、各クラスタの周りにバウンディングボックスを配置する。
370で、複数商品認識部は、単一の点群内のクラスタをカウントすることによって、合計商品数を取得する。
380で、複数商品認識部は、各クラスタの対応するRGBデータを訓練されたMLM118に渡し、対応する商品コードに対する信頼値とともに訓練されたMLM118から各商品コードを受信することによって、各商品の商品コードを識別する。
一実施形態では、381で、複数の商品認識部は、各クラスタについての対応する奥行き情報を、訓練されたMLM118に渡す。
381及び382の実施形態では、複数の商品認識部は、対応する奥行き情報に応答して、訓練されたMLM118から少なくとも1つの商品コードのサイズを受け取る。
一実施形態では、383で、複数商品認識部は、各信頼値を閾値と比較する。
390で、複数の商品認識部は、商品コード及び合計商品数を、顧客に関連付けられた取引について取引マネージャ143又は153に提供する。
383及び390の実施形態では、391で、複数の商品認識部は、閾値を下回る対応する信頼値を有する任意の商品コードについて、取引マネージャ143/153に通知を提供する。
391及び392の実施形態では、複数商品認識部は、閾値を下回る対応する信頼値を有する商品コードの各々に対して、対応するクラスタに関連付けられた画像の一部分を取引マネージャ143/153に提供する。
391及び392の実施形態では、複数商品認識部は、商品コードの第2の閾値を超えると、閾値を下回る対応する信頼値と関連付けられるときに、取引マネージャ143/153に、監査のための取引にフラグを付けるように要求する。
ソフトウエアが特定の形態(構成要素又はモジュールなど)で説明されている場合、それは単に理解を助けるためであり、それらの機能を実施するソフトウエアがどのように設計されるか、あるいはどのような構造であるかを限定するものではないことが理解される。例えば、モジュールは別個のモジュールとして説明されているが、同種のコードとして、個別の構成要素として実施されてもよく、またこうしたモジュールの全体でなく一部を組み合わせてもよく、その他の任意の都合の良い方法で構造化されたソフトウエア内で機能が実施されてもよい。
更に、ソフトウエアモジュールは、1つのハードウエア上で実行されるものとして説明されているが、ソフトウエアは、複数のプロセッサにまたがる、又はその他の任意の都合の良い方法で分布されてもよい。
上述の説明は、例証的なものであって制限的なものではない。当業者には、上述の説明を検討することにより、その他の数多くの実施形態が明らかとなるであろう。したがって、実施形態の範囲は、これらの請求項が権利を持つ均等物の完全な範囲とともに、添付の請求項を参照して、決定されるべきである。
実施形態についての上述の説明では、開示を合理化する目的で様々な特徴が単一の実施形態でひとまとめにされている。この開示方法は、請求された実施形態が、各請求項で明示的に詳述されるものよりも多くの特徴を有することを反映するとは解釈されない。むしろ、下記の請求項で反映されるとおり、発明の主題は、単一の開示された実施形態の全ての特徴よりも少ない。したがって、これによって、以下の特許請求の範囲は、実施形態の説明に組み込まれ、各特許請求の範囲は、それ自体を別個の例示的な実施形態として主張する。

Claims (20)

  1. 定された領域に対して、複数のシーンの異なる画像を取得
    前記画像の各々から、奥行き情報及び赤色、緑色、青色から成るRGBデータを抽出
    前記奥行き情報及び前記RGBデータを使用して、前記画像の各々に対して点群をアセンブル
    前記画像の各々に対する前記点群を単一の点群に同期化
    前記単一の点群から既知の背景ピクセルを除去して、変更された単一の点群を作成
    前記変更された単一の点群における前記奥行き情報及び前記RGBデータを前記シーンに存在する商品にクラスタ化された単一の点群を作成ここで、各クラスタが、前記シーンに存在する固有の商品に関連付けられており
    前記クラスタ化された単一の点群からの各クラスタを使用して、前記クラスタ化された単一の点群から対応する商品についての少なくとも前記RGBデータを処理することによ、前記画像から画像パッチを関連付け、前記画像の対応する1つが可視の所定の商品の一部を有するときに、少なくとも前記RGBデータから、関連する画像パッチの前記クラスに属する商品の商品コードを識別することによ、各商品の商品コードを識別そして、
    顧客に関連付けられた取引に前記商品コードを提供する
    の各工程を含む方法。
  2. 前記画像を、カート又はバスケットに取り付けられたカメラにより取得する、請求項1に記載の方法。
  3. 記カメラ、静止しており且つ取引端末と関連付けられた取引領域に隣接している、請求項に記載の方法。
  4. 記画像を器具に取り付けられているか、又は静止しているカメラにより取得する、請求項1に記載の方法。
  5. 前記抽出、前記画像に関連付けられたメタデータから、前記奥行き情報及び前記RGBデータを取得して行われる、請求項4に記載の方法。
  6. 前記アセンブル、各点群を異なる角度で異なる視点から撮影された前記指定された領域の異なる三次元ビューとして識別して行われる、請求項5に記載の方法。
  7. 前記同期化、前記対応する異なる角度及び前記対応する異なる視点を使用することによって識別される前記指定された領域内の位置に基づいて、各異なる三次元ビューについての前記奥行き情報及び前記RGBデータを前記単一の点群にパッチングして行われる、請求項6に記載の方法。
  8. 記商品のいずれも存在しないときに、前記奥行きカメラの各々によって前記指定された領域から撮影されたモデル背景画像を使用、前記モデル背景画像を前記単一の点群から減算して、前記変更された単一の点群を取得する、請求項7に記載の方法。
  9. 前記クラスタ化、各クラスタの周りに三次元バウンディングボックスを配置して、前記指定された領域内の各商品を識別することにより行われる、請求項8に記載の方法。
  10. 前記クラスタ化、前記変更された単一の点群内の各バウンディングボックスをカウントして、前記指定された領域内に存在する合計商品数を取得することにより行われる、請求項9に記載の方法。
  11. 記取引について、前記商品に関連付けられた前記商品コードとともに前記合計商品数を提供する、請求項10に記載の方法。
  12. 視されるゾーン内の異なる位置に位置し、前記監視されるゾーン内の異なる角度で配向された奥行きカメラから、前記監視されるゾーン内の商品の画像を取得
    前記画像に対して点群を生成ここで、各点群が、前記監視されるゾーンの前記商品に対する、及び背景物体に対応する画像において提供される、奥行き情報及び赤色、緑色、青色から成るRGBデータを抽出し
    前記監視されるゾーンの各画像に関連付けられた前記異なる位置及び前記異なる角度を使用して、前記対応する奥行き情報及び前記RGBデータを単一の点群にパッチング及びマッピングすることよって、前記点群を単一の点群に同期化
    前記単一の点群から、前記背景物体に対応する前記奥行き情報及び前記RGBデータを除去
    残りの奥行き情報及びRGBデータをクラスタにクラスタ化ここで、各クラスタが、特定の商品に関連付けられており
    各クラスタの周りにバウンディングボックスを配置
    前記単一の点群内の前記クラスタをカウントすることによって、合計商品数を取得
    各クラスタに対する前記対応するRGBデータを訓練された機械学習モジュール(MLM)に渡すことによって、各商品に対する商品コードを識別、前記各クラスタに対する前記対応する及び関連RGBデータを前記画像から前記訓練されたMLMに渡し、前記訓練されたMLMから前記対応する商品コードに対する信頼値とともに各商品コードを受信して各商品に対する商品コードを識別
    顧客と関連付けられる取引について、前記商品コード及び前記合計商品数を取引マネージャに提供する、
    各工程を含む、方法。
  13. 前記識別、各クラスタに対する前記対応する奥行き情報を前記訓練されたMLMに渡すことにより行われる、請求項12に記載の方法。
  14. 記訓練されたMLMから少なくとも1つの商品コードのサイズを受信して対応する奥行き情報を渡す、請求項13に記載の方法。
  15. 前記識別、各信頼値を閾値と比較することにより行われる、請求項12に記載の方法。
  16. 記閾値を下回る対応する信頼値を有する任意の商品コードについて、前記取引マネージャに通知を提供する、請求項15に記載の方法。
  17. 記閾値を下回る前記対応する信頼値を有する前記商品コードの各々について、前記取引マネージャに対応するクラスタに関連する画像の一部分を提供する、請求項16に記載の方法。
  18. 記商品コードの第2の閾値超が、前記閾値を下回る前記対応する信頼値と関連付けられるときに、前記取引マネージャに、前記取引に監査のフラグを付けるように要求する、請求項16に記載の方法。
  19. 数の奥行きカメラと、
    少なくとも1つのプロセッサ及び非一時的コンピュータ可読記憶媒体を備えるサーバと、を備え、
    前記非一時的コンピュータ可読記憶媒体が、実行可能な命令を含み、
    前記非一時的コンピュータ可読記憶媒体からの前記実行可能な命令が、前記少なくとも1つのプロセッサによって実行されたときに、前記少なくとも1つのプロセッサに対して
    指定された領域の前記奥行きカメラによって捕捉された画像を取得ここで、前記指定された領域が、顧客の取引における商品を含
    各画像の奥行き情報及び赤、緑、青から成るRGBデータを点群にマッピング
    各点群を、前記指定された領域の前記画像からの単一の三次元画像を表す単一の点群にパッチング
    前記単一の三次元画像に関連付けられた背景ピクセルデータを除去
    前記単一の三次元画像に対応する前記奥行き情報及び前記RGBデータを、前記除去された前記背景ピクセルデータとともにクラスタにクラスタ化ここで、各クラスタが前記商品のうちの単一の1つを表
    前記単一の三次元画像内の前記クラスタをカウントすることによって、合計商品数を取得
    各クラスタの周りに三次元バウンディングボックスを配置
    前記単一の三次元画像を、前記三次元バウンディングボックスが識別された状態で、訓練された機械学習モデル(MLM)に渡
    前記三次元バウンディングボックスの各々に対して、信頼値とともに、前記訓練されたMLMから出力として商品コードを受信
    前記顧客のために前記取引を処理している取引マネージャに、閾値を満たすか又はそれを超える、対応する信頼値に関連付けられた前記商品コードを提供
    前記閾値を下回る対応する信頼値を有する、少なくとも1つの商品コードに関連付けられた前記画像から少なくとも1つの画像をトリミング、及び前記顧客が、前記指定された領域における前記商品をスキャン又は再構成することによって、前記商品が、前記指定された領域の新しい画像を撮影するために前記奥行きカメラのための前記画像の取得に逆戻りする前記指定された領域に再構成されるときに、前記顧客が、前記対応する商品コードを識別するべきであることを示す警告を前記取引マネージャに送信する、
    動作を実行するシステム。
  20. 前記奥行きカメラ、バスケット、又は前記顧客によって運ばれるカートに取り付けられているか、又は、前記顧客が前記取引を行っている取引端末に関連付けられた取引領域に取り付けられているか、若しくは当該奥行きカメラを取り囲み、前記取引領域の一部が前記指定された領域を含む、請求項19に記載のシステム。
JP2022211155A 2022-02-04 2022-12-28 精算のための複数商品の製品認識 Active JP7446403B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/665,145 2022-02-04
US17/665,145 US20230252542A1 (en) 2022-02-04 2022-02-04 Multi-item product recognition for checkouts

Publications (2)

Publication Number Publication Date
JP2023114434A JP2023114434A (ja) 2023-08-17
JP7446403B2 true JP7446403B2 (ja) 2024-03-08

Family

ID=83900021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022211155A Active JP7446403B2 (ja) 2022-02-04 2022-12-28 精算のための複数商品の製品認識

Country Status (4)

Country Link
US (1) US20230252542A1 (ja)
EP (1) EP4224435A1 (ja)
JP (1) JP7446403B2 (ja)
CN (1) CN116563585A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117894015B (zh) * 2024-03-15 2024-05-24 浙江华是科技股份有限公司 点云标注数据优选方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010518507A (ja) 2007-02-13 2010-05-27 オリンパス株式会社 特徴マッチング方法
JP2019204233A (ja) 2018-05-22 2019-11-28 東芝テック株式会社 物品認識装置
WO2021125357A1 (ja) 2019-12-19 2021-06-24 株式会社Touch To Go 情報処理システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10228242B2 (en) * 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
WO2019013711A1 (en) * 2017-07-12 2019-01-17 Mastercard Asia/Pacific Pte. Ltd. MOBILE DEVICE PLATFORM FOR AUTOMATED VISUAL RECOGNITION OF RETAIL PRODUCTS
US10579875B2 (en) * 2017-10-11 2020-03-03 Aquifi, Inc. Systems and methods for object identification using a three-dimensional scanning system
US11538262B2 (en) * 2020-03-23 2022-12-27 Zebra Technologies Corporation Multiple field of view (FOV) vision system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010518507A (ja) 2007-02-13 2010-05-27 オリンパス株式会社 特徴マッチング方法
JP2019204233A (ja) 2018-05-22 2019-11-28 東芝テック株式会社 物品認識装置
WO2021125357A1 (ja) 2019-12-19 2021-06-24 株式会社Touch To Go 情報処理システム

Also Published As

Publication number Publication date
JP2023114434A (ja) 2023-08-17
CN116563585A (zh) 2023-08-08
EP4224435A1 (en) 2023-08-09
US20230252542A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
US20210304176A1 (en) Information processing system
JP5054670B2 (ja) ビデオ分析を使用して不審挙動を検出する方法及び装置
US5883968A (en) System and methods for preventing fraud in retail environments, including the detection of empty and non-empty shopping carts
JP6916015B2 (ja) 販売データ処理装置およびプログラム
US8430311B2 (en) Systems and methods for merchandise automatic checkout
JP6283806B2 (ja) 情報処理システム
US20090226099A1 (en) Method and apparatus for auditing transaction activity in retail and other environments using visual recognition
JP6653813B1 (ja) 情報処理システム
CN112464697B (zh) 基于视觉和重力感应的商品与顾客的匹配方法和装置
US11134798B1 (en) Vision-based frictionless self-checkouts for small baskets
US20230027382A1 (en) Information processing system
US20180068534A1 (en) Information processing apparatus that identifies an item based on a captured image thereof
JP7446403B2 (ja) 精算のための複数商品の製品認識
CN113869343A (zh) 用于基于视觉的结账的被遮挡物品检测
WO2019124176A1 (ja) 販売分析装置、販売管理システム、販売分析方法、及びプログラム記録媒体
CN110473337A (zh) 一种基于图像采集装置的自动售货机
JPWO2019171572A1 (ja) セルフレジシステム、購入商品管理方法および購入商品管理プログラム
JP6836256B2 (ja) 情報処理システム
JP6336351B2 (ja) 情報処理装置及びプログラム
JP6503670B2 (ja) 商品登録装置、商品登録方法、および商品登録プログラム
US20230252750A1 (en) Multiview association of multiple items for item recognition
US20230252443A1 (en) Checkout product recognition techniques
US20230252760A1 (en) Machine-learning model annotation and training techniques
WO2023187993A1 (ja) 商品数特定装置、商品数特定方法、及び記録媒体
JP2022164939A (ja) 販売システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231030

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20231124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R150 Certificate of patent or registration of utility model

Ref document number: 7446403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350