JP7428241B2 - 処理装置、処理方法及びプログラム - Google Patents

処理装置、処理方法及びプログラム Download PDF

Info

Publication number
JP7428241B2
JP7428241B2 JP2022516800A JP2022516800A JP7428241B2 JP 7428241 B2 JP7428241 B2 JP 7428241B2 JP 2022516800 A JP2022516800 A JP 2022516800A JP 2022516800 A JP2022516800 A JP 2022516800A JP 7428241 B2 JP7428241 B2 JP 7428241B2
Authority
JP
Japan
Prior art keywords
product
customer
time
series information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022516800A
Other languages
English (en)
Other versions
JPWO2021214986A1 (ja
Inventor
博志 橋本
壮馬 白石
貴美 佐藤
悠 鍋藤
観 荒井
恵 渋谷
あずさ 古川
健 花沢
万貴子 秋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021214986A1 publication Critical patent/JPWO2021214986A1/ja
Application granted granted Critical
Publication of JP7428241B2 publication Critical patent/JP7428241B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、処理装置、処理方法及びプログラムに関する。
特許文献1は、顧客の視線の動きをトラッキングして顧客が見た商品を特定する顧客行動分析方法を開示している。
非特許文献1及び2は、レジカウンターでの決済処理(商品登録及び支払い等)をなくした店舗システムを開示している。当該技術では、店内を撮影するカメラが生成した画像に基づき顧客が手に持っている商品を認識し、顧客が店舗を出たタイミングで認識結果に基づき自動的に決済処理を行う。
国際公開第2015/033577号
宮田拓弥、"Amazon Goの仕組み「カメラとマイク」で実現するレジなしスーパー"、[online]、2016年12月10日、[2019年12月6日検索]、インターネット<URL:https://www.huffingtonpost.jp/tak-miyata/amazon-go_b_13521384.html> "NEC、レジレス店舗「NEC SMART STORE」を本社内にオープン--顔認証活用、退店と同時決済"、[online]、2020年2月28日、[2020年3月27日検索]、インターネット<URL: https://japan.cnet.com/article/35150024/>
顧客の嗜好調査やマーケティング調査等のために顧客の店内行動を分析する技術が望まれている。様々な手法で顧客の店内行動を分析できれば、分析できる内容の幅が広がったり、精度が向上したりという効果が得られる。本発明は、顧客の店内行動を分析するための新たな手法を提供することを課題とする。
本発明によれば、
顧客が手に持っている商品の画像を取得する取得手段と、
前記画像に基づき、前記商品の位置の時系列情報を生成する画像解析手段と、
生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する判断手段と、
前記顧客が前記特定の行動を行った旨を登録する登録手段と、
を有する処理装置が提供される。
また、本発明によれば、
コンピュータが、
顧客が手に持っている商品の画像を取得し、
前記画像に基づき、前記商品の位置の時系列情報を生成し、
生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断し、
前記顧客が前記特定の行動を行った旨を登録する処理方法が提供される。
また、本発明によれば、
コンピュータを、
顧客が手に持っている商品の画像を取得する取得手段、
前記画像に基づき、前記商品の位置の時系列情報を生成する画像解析手段、
生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する判断手段、
前記顧客が前記特定の行動を行った旨を登録する登録手段、
として機能させるプログラムが提供される。
本発明によれば、顧客の店内行動を分析するための新たな手法が実現される。
本実施形態の処理装置のハードウエア構成の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態のカメラの設置例を説明するための図である。 本実施形態のカメラの設置例を説明するための図である。 本実施形態の処理装置の処理内容を説明するための図である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。
<第1の実施形態>
「概要」
本実施形態の処理装置は、顧客が手に持っている商品を撮影するカメラが生成した画像を取得すると、その画像に基づきその商品(顧客が手に持っている商品)の位置の時系列情報を生成し、当該位置の時系列情報で示される商品の移動状況に基づき、顧客がその商品(顧客が手に持っている商品)に対して行った行動を特定する。当該処理装置によれば、顧客の店内行動を分析するための新たな手法が実現される。
「ハードウエア構成」
次に、処理装置のハードウエア構成の一例を説明する。
処理装置の各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
図1は、処理装置のハードウエア構成を例示するブロック図である。図1に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置は周辺回路4Aを有さなくてもよい。なお、処理装置は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び/又は論理的に一体となった1つの装置で構成されてもよい。処理装置が物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサー、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
「機能構成」
図2に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、画像解析部12と、判断部13と、登録部14とを有する。
取得部11は、顧客が手に持っている商品を撮影するカメラが生成した顧客が手に持っている商品の画像を取得する。
ここで、カメラについて説明する。本実施形態では顧客が手に持っている商品を複数の方向及び複数の位置から撮影できるように店内に複数のカメラ(2台以上のカメラ)が設置される。例えば商品陳列棚毎に、各々から取り出され、各々の前に位置する顧客が手に持っている商品を撮影する位置及び向きで複数のカメラが設置されてもよい。カメラは、商品陳列棚に設置されてもよいし、天井に設置されてもよいし、床に設置されてもよいし、壁面に設置されてもよいし、その他の場所に設置されてもよい。なお、商品陳列棚毎にカメラを設置する例はあくまで一例であり、これに限定されない。
カメラは動画像を常時(店舗営業中)撮影してもよいし、動画像のフレーム間隔よりも大きい時間間隔で静止画像を継続的に撮影してもよいし、人感センサー等で所定位置(商品陳列棚の前等)に存在する人を検出している間のみこれらの撮影を実行してもよい。
ここで、カメラ設置の一例を示す。なお、ここで説明するカメラ設置例はあくまで一例であり、これに限定されない。図3に示す例では、商品陳列棚1毎に2つのカメラ2が設置されている。図4は、図3の枠4を抽出した図である。枠4を構成する2つの部品各々には、カメラ2と照明とが設けられる。
照明は発光部とカバーとを有する。照明の光放射面は一方向に延在している。照明は、主に、光放射面の延在方向に直交する方向に光を放射する。発光部は、LEDなどの発光素子を有しており、カバーによって覆われていない方向に光を放射する。なお、発光素子がLEDの場合、照明が延在する方向(図において上下方向)に、複数のLEDが並んでいる。
そしてカメラ2は、直線状に延伸する枠4の部品の一端側に設けられており、照明の光が放射される方向を撮影範囲としている。例えば図4の左側の枠4の部品において、カメラ2は下方、下前方、右斜め下及び右斜め下前方を撮影範囲としている。また、図4の右側の枠4の部品において、カメラ2は上方、上前方、左斜め上及び左斜め上前方を撮影範囲としている。
図3に示すように、枠4は、商品載置スペースを構成する商品陳列棚1の前面フレーム(又は両側の側壁の前面)に取り付けられる。枠4の部品の一方は、一方の前面フレームに、カメラ2が下方に位置する向きに取り付けられる。枠4の部品の他方は、他方の前面フレームに、カメラ2が上方に位置する向きに取り付けられる。そして、枠4の部品の一方に取り付けられたカメラ2は、商品陳列棚1の開口部及びその前方(商品陳列棚1の前に位置する顧客側)を撮影範囲に含むように、上方、上前方、左斜め上及び左斜め上前方を撮影する。一方、枠4の部品の他方に取り付けられたカメラ2は、商品陳列棚1の開口部及びその前方(商品陳列棚1の前に位置する顧客側)を撮影範囲に含むように、下方、下前方、右斜め下及び右斜め下前方を撮影する。このように構成することで、2つのカメラ2で商品陳列棚1の開口部の全範囲及び商品陳列棚1の前方(商品陳列棚1の前に位置する顧客側)を撮影することができる。結果、商品陳列棚1から取り出されている商品や、商品陳列棚1の前に位置する顧客や、当該顧客が手に持っている商品等を2つのカメラ2で撮影することが可能となる。
図2に戻り、画像解析部12は、取得部11が取得した画像に基づき、顧客が手に持っている商品の位置の時系列情報等を生成する。画像解析部12は、商品認識処理、追跡処理及び位置算出処理を実行する。その他、画像解析部12は、顧客分析処理を実行してもよい。以下、各処理について説明する。
-商品認識処理-
当該処理では、画像解析部12は、画像を解析し、画像内に存在する商品を認識する。画像内に存在する商品を認識する技術は広く知られており、画像解析部12はあらゆる技術を採用することができる。以下、一例を説明する。
まず、画像解析部12は、画像内に存在する物体を検出する。なお、画像解析部12は、画像内で人の手を検出し、人の手と接している物体を検出してもよい。物体検出技術や人の手を検出する技術は広く知られているので、ここでの説明は省略する。
次いで、画像解析部12は、画像から検出した物体の外観の特徴量と、予め登録された複数の商品各々の外観の特徴量とを照合することで、画像内に存在する商品を認識する。
例えば、予め、複数の商品各々の画像と各商品の識別情報(ラベル)とを紐づけた教師データに基づく機械学習で、画像内の商品を認識するクラス分類器が生成されていてもよい。そして、画像解析部12は、当該クラス分類器に取得部11が取得した画像を入力することで、商品認識を実現してもよい。その他、パターンマッチングにより、上記照合及び商品認識が実現されてもよい。当該クラス分類器やパターンマッチングによる処理対象は、取得部11が取得した画像そのものであってもよいし、当該画像から上記検出された物体が存在する一部領域を切り出した画像であってもよい。
-追跡処理-
当該処理では、画像解析部12は、商品認識処理で認識された商品の画像内の位置を追跡する。画像内に存在する物体の画像内の位置を追跡する技術は広く知られており、画像解析部12はあらゆる技術を採用することができる。
-位置算出処理-
当該処理では、画像解析部12は、商品認識処理で認識された商品、及び、追跡処理で追跡中の商品の位置を算出する。商品の位置は、例えば3次元の座標系における座標で示される。設置位置が固定され、予め互いの位置関係が明らかになっている複数のカメラで顧客が手に持っている商品(同一の被写体)を互いに異なる位置及び異なる向きから撮影する場合、その複数のカメラが生成した画像に基づき、3次元空間内の当該商品の位置を算出することができる。認識された商品の位置情報を時系列順に記憶することで、顧客が手に持っている商品の位置の時系列情報が生成される。
-顧客分析処理-
当該処理では、画像解析部12は、画像に含まれる顧客の外観(例:顔)に基づき、顧客の属性を推定することができる。推定する属性は、性別、年齢、国籍等、画像から推定可能であり、かつ、顧客の嗜好調査やマーケティング調査において有用な情報である。
その他、当該処理では、画像解析部12は、画像に含まれる顧客を認識してもよい。この場合、予め複数の顧客各々の識別情報(顧客番号、氏名、住所等)と、顧客の外観の特徴量(顔の特徴量等)とが紐づけて所定場所(センターシステム、店舗システム等)に記憶されている。そして、画像解析部12は、店内で撮影した画像から抽出した顧客の外観の特徴量と、予め記憶されている顧客の外観の特徴量とを照合することで、商品を手に持っている顧客が誰であるかを認識する。
判断部13は、商品の位置の時系列情報で示されるその商品の移動状況に基づき、顧客がその商品に対して特定の行動を行ったか否かを判断する。
移動状況は、商品の位置の時系列情報から算出可能な情報であり、例えば移動速度の時系列情報(時間変化)や、加速度の時系列情報(時間変化)や、位置の変化量の時系列情報(時間変化)や、これらの統計値(平均値、最大値、最小値、最頻値、中央値等)や、これらの単位時間ごとの統計値の時系列情報(時間変化)等が例示される。
あらかじめ、顧客が手に持っている商品に対して行う可能性のある複数種類の行動が定義される。そして、定義された行動毎に、顧客が各行動を行っている時の商品(その顧客が手に持っている商品)の移動状況の特徴を登録した参照情報が生成され、処理装置10に記憶される。そして、判断部13は、画像解析部12が生成した商品の位置の時系列情報で示される商品の移動状況の中に、上記参照情報で示される「各行動を行っている時の商品(顧客が手に持っている商品)の移動状況の特徴」が含まれる場合(第1の条件を満たす場合)、その商品に対してその特徴に紐付けられている行動が行われたと判断する。
ここで、判断部13の処理の一例を説明する。当該例では、判断部13は、商品の位置の時系列情報に基づき、商品の移動速度の時系列情報を生成する。そして、判断部13は、商品の移動速度の時系列情報の中に、「商品の移動速度が基準値(設計的事項)以上である第1の時間帯が、商品の移動速度が基準値未満である第2の時間帯を挟み込んだ第1のパターン」が含まれる場合、顧客が手に持っている商品の外観を視認する行動を行ったと判断する。
図5に、第1のパターンが含まれる商品の移動速度の時系列情報の一例を模式的に示す。横軸が時間であり、縦軸が移動速度である。(1)の時間帯が、商品の移動速度が基準値以上である第1の時間帯である。(2)の時間帯が、商品の移動速度が基準値未満である第2の時間帯である。
第1の時間帯は、商品が比較的速い速度で移動している。この時間帯には、顧客が、商品陳列棚から商品を取り出したり、商品陳列棚に商品を戻したり、商品を手に持ったまま移動したり、手に持っている商品を買い物かごに入れたりという行動を行ったと推定される。そして、このような第1の時間帯に挟まれた第2の時間帯においては、顧客が手に持っている商品の外観を視認する行動、例えば商品説明を読んだり、商品の外観をチェックしたりという行動を行ったと推定される。
その他、判断部13は、商品の移動速度の時系列情報の中に、「商品の移動速度が基準値(設計的事項)以上である第1の時間帯が、商品の移動速度が基準値未満である第2の時間帯を挟み込み、第2の時間帯の長さが基準値以上の第2のパターン」が含まれる場合、顧客が手に持っている商品を購入するか否か迷ったと判断することができる。第1のパターンと第2のパターンの違いは、第2の時間帯の長さの条件を含むか否かである。
上述の通り、第1の時間帯に挟まれた第2の時間帯においては、顧客が手に持っている商品の外観を視認する行動、例えば商品説明を読んだり、商品の外観をチェックしたりという行動を行ったと推定される。そして、そのような第2の時間帯の長さが比較的長い場合(基準値以上である場合)、顧客は第2の時間帯の間、手に持っている商品を購入するか否か迷っていたと推定される。
その他、判断部13は、商品の移動速度の時系列情報の中に、上記第1のパターンや第2のパターンが含まれない場合、顧客が商品陳列棚から取り出した商品を、外観を視認することなく買い物かごに入れたと判断することができる。
図2に戻り、登録部14は、顧客が特定の行動を行った旨を登録する。
例えば、登録部14は、図6に示すように、商品ごと(商品識別情報ごと)に、各商品に対して顧客が行った行動の履歴を登録してもよい。図示する例では、商品識別情報ごとに、各商品に対して顧客が行った行動及び各行動を行った日時が登録されている。なお、画像解析部12による顧客分析処理により顧客の属性情報が推定される場合、図7に示すように、登録部14は、各行動を行った顧客の属性情報をさらに紐付けて登録してもよい。
その他、画像解析部12による顧客分析処理により顧客識別情報が特定される場合、登録部14は、図8に示すように、顧客ごと(顧客識別情報ごと)に、各顧客が行った行動の履歴を登録してもよい。図示する例では、顧客識別情報ごとに、顧客が行った行動、各行動の対象となった商品(商品識別情報)及び各行動を行った日時が登録されている。
次に、図9及び図10のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
図9のフローチャートは、画像を解析して追跡対象を検出し、追跡を開始するまでの処理を示す。
図示するように、取得部11が解析対象として新たな画像を取得すると(S10)、画像解析部12は、当該画像を解析し、上述した商品認識処理を行う。そして、当該画像内で新たな商品(追跡中の商品と異なる商品)が検出された場合(S11のYes)、画像解析部12は、新たに検出した商品の画像内の位置の追跡を開始する(S12)。その後、処理装置10は、処理を終了する入力がなければ(S13のNo)、S10に戻って同様の処理を繰り返す。
一方、当該画像内で新たな商品(追跡中の商品と異なる商品)が検出されなかった場合(S11のNo)、処理装置10は、処理を終了する入力がなければ(S13のNo)、S10に戻って同様の処理を繰り返す。
なお、取得部11は、カメラが時系列に生成した複数の画像を時系列順に解析対象として取得する。取得部11は、カメラが生成した画像をリアルタイム処理で取得してもよいし、予め生成・蓄積された複数の画像の中から生成順に取得してもよい。
次に、図10のフローチャートは、追跡を開始した商品に対して実行される処理を示す。
まず、画像解析部12は、追跡を開始した商品に対して上述した位置算出処理を行い、その商品(追跡対象)の位置を特定する(S20)。そして、画像解析部12は、特定した位置を示す情報をその商品の位置の時系列情報に登録する(S21)。
取得部11が次の画像を解析対象として取得すると(S22のYes)、画像解析部12は、上述した追跡処理により、新たに取得された画像内にその商品(追跡対象)が存在するか判断する(S23)。
存在する場合(S23のYes)、画像解析部12は、その商品(追跡対象)に対して上述した位置算出処理を行い、その商品の位置を特定する(S20)。そして、画像解析部12は、特定した位置を示す情報をその商品の位置の時系列情報に登録する(S21)。
一方、存在しない場合(S23のNo)、画像解析部12は、その商品(追跡対象)の追跡を終了する(S24)。なお、画像解析部12は、連続する所定数の画像において追跡対象を検出できない場合に、追跡を終了してもよい。
処理装置10は、追跡を終了するまで上記処理を繰り返す。
例えば以上のような処理により、顧客が手に持っている商品の位置の時系列情報が生成される。顧客が手に持っている商品の位置の時系列情報が生成された後の任意のタイミングで、判断部13は、商品の位置の時系列情報で示される商品の移動状況に基づき、顧客が商品に対して特定の行動を行ったか否かを判断する。そして、登録部14は、顧客が特定の行動を行った旨を登録する。
「変形例」
判断部13は、顧客が手に持っている商品の位置の時系列情報に基づき、顧客が商品陳列棚から商品を取り出した後、その商品を商品陳列棚に戻したことを検出してもよい。例えば、商品の位置を示すための3次元の座標系において商品陳列棚の位置を定義する。そして、判断部13は、この3次元の座標系内で変動する商品の位置と、予め定義された商品陳列棚の位置(固定)との相対的な位置関係に基づき、顧客が手に持っている商品に対して当該行動(手に取った後に商品陳列棚に戻す)を行ったことを検出してもよい。
「作用効果」
以上、本実施形態の処理装置10は、顧客が手に持っている商品の位置の時系列情報を生成し、当該位置の時系列情報で示される商品の移動状況に基づき顧客がその商品(顧客が手に持っている商品)に対して行った行動を特定する。当該処理装置によれば、顧客の店内行動を分析するための新たな手法が実現される。
また、非特許文献1及び2に開示されているような「レジカウンターでの決済処理(商品登録及び支払い等)をなくした店舗システム」を導入した店舗においては、顧客が手に持っている商品を認識するために、顧客が手に持っている商品を撮影するカメラが店舗に設置される。顧客が手に持っている商品を撮影するカメラが生成した画像を解析して顧客の店内行動を分析する本実施形態の処理装置10によれば、当該カメラが生成した画像を処理して、所望の結果を得ることができる。すなわち、当該カメラが生成した画像を、決済処理用途、及び、顧客の店内行動を分析する用途の両方に併用することができる。結果、カメラを多数設置することによるコスト負担やメンテナンス負担等を抑制できる。
<第2の実施形態>
本実施形態の処理装置10は、顧客が手に持っている商品を撮影するカメラが生成した画像を解析してその商品の向きの時系列情報を生成し、当該商品の向きの時系列情報に基づき、顧客がその商品(顧客が手に持っている商品)に対して行った行動を特定する。以下、詳細に説明する。
画像解析部12は、画像に基づき顧客が手に持っている商品の向きの時系列情報を生成する。商品の向きを特定する手段は特段制限されないが、以下一例を説明する。
例えば、商品の向きは、商品の外観の特徴的な部分(商品のロゴ、ラベル等)が向く方向で示されてもよい。顧客が手に持っている商品を撮影する複数のカメラの位置及び向きを調整することで、当該商品の全ての面を撮影することが可能となる。上記商品の外観の特徴的な部分がどのカメラが生成した画像内に、どのような向きで写っているか、また、そのカメラの位置及び向き等に基づき、商品の外観の特徴的な部分(商品のロゴ、ラベル等)が向く方向を算出することができる。
その他、予め、商品を複数の方向各々から撮影した複数の参照画像を作成しておいてもよい。そして、各カメラが生成した画像内に、上記複数の方向の中のどの方向から撮影した参照画像が示されているか、また、複数のカメラの位置及び向き等に基づき、商品のどの部分がどの方向を向いているかを算出することができる。
判断部13は、商品の向きの時系列情報に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する。
あらかじめ、顧客が手に持っている商品に対して行う可能性のある複数種類の行動が定義される。そして、定義された行動毎に、顧客が各行動を行っている時の商品(その顧客が手に持っている商品)の向きの時間変化の特徴を登録した参照情報が生成され、処理装置10に記憶される。そして、判断部13は、画像解析部12が生成した商品の向きの時系列情報で示される商品の向きの時間変化の中に、上記参照情報で示される「各行動を行っている時の商品(顧客が手に持っている商品)の向きの時間変化の特徴」が含まれる場合、その商品に対してその特徴に紐付けられている行動が行われたと判断する。
例えば、判断部13は、商品の位置の時系列情報で示される商品の移動状況が所定条件を満たす間に商品の向きが所定レベル(設計的事項)以上変化した場合、顧客が手に持っている商品の外観を視認する行動を行ったと判断してもよい。
ここでの商品の移動状況の所定条件は、商品の大きな移動が起きていない状況を示すものであればよく、例えば、移動速度が閾値以下、位置の変化量が閾値以下、直近所定時間内の商品の移動速度の統計値が閾値以下、直近所定時間内の位置の変化量の統計値が閾値以下等である。このような商品の大きな移動が起きていない状況においては、商品陳列棚から商品を取り出したり、商品陳列棚に商品を戻したり、商品を手に持ったまま移動したり、手に持っている商品を買い物かごに入れたりという行動が起きていないと推定される。
その他、判断部13は、商品の位置の時系列情報で示される商品の移動状況が上記所定条件を満たす間に商品の向きが第1の向きから第2の向きに変化し、その後、第1の向きに戻った場合、顧客が手に持っている商品を購入するか否か迷ったと判断してもよい。
処理装置10の処理の流れの一例は、第1の実施形態と同様である。すなわち、画像解析部12は、図10のS20において、追跡対象の商品の位置を特定するとともに、その商品の向きを特定する。そして、画像解析部12は、S21において、特定した商品の位置を位置の時系列情報に登録するとともに、特定した商品の向きを向きの時系列情報に登録する。
処理装置10のその他の構成は、第1の実施形態と同様である。
以上、本実施形態の処理装置10によれば、第1の実施形態と同様の作用効果が実現される。また、顧客が手に持っている商品の位置の時系列情報に加えて、当該商品の向きの時系列情報を用いて顧客の店内行動を分析する本実施形態の処理装置10によれば、より詳細な分析が実現される。
なお、本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読み出すこと等、および、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、配信(または、送信、プッシュ通知等)されるデータを受信すること、また、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを生成し、当該新たなデータを取得すること」の少なくともいずれか一方を含む。
以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. 顧客が手に持っている商品の画像を取得する取得手段と、
前記画像に基づき、前記商品の位置の時系列情報を生成する画像解析手段と、
生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する判断手段と、
前記顧客が前記特定の行動を行った旨を登録する登録手段と、
を有する処理装置。
2. 前記判断手段は、
前記時系列情報に基づき、
前記商品の移動速度、加速度又は位置の変化量の時系列情報、
前記商品の移動速度、加速度又は位置の変化量の統計値、又は、
前記商品の移動速度、加速度又は位置の変化量の単位時間ごとの統計値の時系列情報を、前記商品の移動状況を示す情報として算出する1に記載の処理装置。
3. 前記判断手段は、
前記商品の移動速度の時系列情報の中に、前記商品の移動速度が基準値以上である第1の時間帯が前記商品の移動速度が前記基準値未満である第2の時間帯を挟み込んだパターンを含む場合、前記顧客が手に持っている前記商品の外観を視認する行動を行ったと判断する2に記載の処理装置。
4. 前記判断手段は、
前記商品の移動速度の時系列情報の中に、前記商品の移動速度が基準値以上である第1の時間帯が前記商品の移動速度が前記基準値未満である第2の時間帯を挟み込み、前記第2の時間帯の長さが基準値以上であるパターンを含む場合、前記顧客が手に持っている前記商品を購入するか否か迷ったと判断する2又は3に記載の処理装置。
5. 前記判断手段は、
前記商品の移動速度の時系列情報の中に、前記商品の移動速度が基準値以上である第1の時間帯が前記商品の移動速度が前記基準値未満である第2の時間帯を挟み込んだパターンを含まない場合、前記顧客が商品陳列棚から取り出した前記商品を、外観を視認することなく買い物かごに入れたと判断する2から4のいずれかに記載の処理装置。
6. 前記画像解析手段は、前記画像に基づき前記商品の向きの時系列情報を生成し、
前記判断手段は、前記商品の向きの時系列情報に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する1から5のいずれかに記載の処理装置。
7. 前記判断手段は、
前記商品の移動状況が所定条件を満たす間に前記商品の向きが所定レベル以上変化した場合、前記顧客が手に持っている前記商品の外観を視認する行動を行ったと判断する6に記載の処理装置。
8. 前記判断手段は、
前記商品の移動状況が所定条件を満たす間に前記商品の向きが第1の向きから第2の向きに変化し、その後、前記第1の向きに戻った場合、前記顧客が手に持っている前記商品を購入するか否か迷ったと判断する6又は7に記載の処理装置。
9. コンピュータが、
顧客が手に持っている商品の画像を取得し、
前記画像に基づき、前記商品の位置の時系列情報を生成し、
生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断し、
前記顧客が前記特定の行動を行った旨を登録する処理方法。
10. コンピュータを、
顧客が手に持っている商品の画像を取得する取得手段、
前記画像に基づき、前記商品の位置の時系列情報を生成する画像解析手段、
生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する判断手段、
前記顧客が前記特定の行動を行った旨を登録する登録手段、
として機能させるプログラム。

Claims (9)

  1. 顧客が手に持っている商品の画像を取得する取得手段と、
    前記画像に基づき、前記商品の位置の時系列情報を生成する画像解析手段と、
    生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する判断手段と、
    前記顧客が前記特定の行動を行った旨を登録する登録手段と、
    を有し、
    前記判断手段は、
    前記時系列情報に基づき、
    前記商品の移動速度、加速度又は位置の変化量の時系列情報、
    前記商品の移動速度、加速度又は位置の変化量の統計値、又は、
    前記商品の移動速度、加速度又は位置の変化量の単位時間ごとの統計値の時系列情報を、前記商品の移動状況を示す情報として算出する処理装置。
  2. 前記判断手段は、
    前記商品の移動速度の時系列情報の中に、前記商品の移動速度が基準値以上である第1の時間帯が前記商品の移動速度が前記基準値未満である第2の時間帯を挟み込んだパターンを含む場合、前記顧客が手に持っている前記商品の外観を視認する行動を行ったと判断する請求項に記載の処理装置。
  3. 前記判断手段は、
    前記商品の移動速度の時系列情報の中に、前記商品の移動速度が基準値以上である第1の時間帯が前記商品の移動速度が前記基準値未満である第2の時間帯を挟み込み、前記第2の時間帯の長さが基準値以上であるパターンを含む場合、前記顧客が手に持っている前記商品を購入するか否か迷ったと判断する請求項又はに記載の処理装置。
  4. 前記判断手段は、
    前記商品の移動速度の時系列情報の中に、前記商品の移動速度が基準値以上である第1の時間帯が前記商品の移動速度が前記基準値未満である第2の時間帯を挟み込んだパターンを含まない場合、前記顧客が商品陳列棚から取り出した前記商品を、外観を視認することなく買い物かごに入れたと判断する請求項からのいずれか1項に記載の処理装置。
  5. 前記画像解析手段は、前記画像に基づき前記商品の向きの時系列情報を生成し、
    前記判断手段は、前記商品の向きの時系列情報に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する請求項1からのいずれか1項に記載の処理装置。
  6. 前記判断手段は、
    前記商品の移動状況が所定条件を満たす間に前記商品の向きが所定レベル以上変化した場合、前記顧客が手に持っている前記商品の外観を視認する行動を行ったと判断する請求項に記載の処理装置。
  7. 前記判断手段は、
    前記商品の移動状況が所定条件を満たす間に前記商品の向きが第1の向きから第2の向きに変化し、その後、前記第1の向きに戻った場合、前記顧客が手に持っている前記商品を購入するか否か迷ったと判断する請求項又はに記載の処理装置。
  8. コンピュータが、
    顧客が手に持っている商品の画像を取得し、
    前記画像に基づき、前記商品の位置の時系列情報を生成し、
    生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断し、
    前記顧客が前記特定の行動を行った旨を登録し、
    前記特定の行動を行ったか否かを判断する処理では、
    前記時系列情報に基づき、
    前記商品の移動速度、加速度又は位置の変化量の時系列情報、
    前記商品の移動速度、加速度又は位置の変化量の統計値、又は、
    前記商品の移動速度、加速度又は位置の変化量の単位時間ごとの統計値の時系列情報を、前記商品の移動状況を示す情報として算出する処理方法。
  9. コンピュータを、
    顧客が手に持っている商品の画像を取得する取得手段、
    前記画像に基づき、前記商品の位置の時系列情報を生成する画像解析手段、
    生成された前記時系列情報で示される前記商品の移動状況に基づき、前記顧客が前記商品に対して特定の行動を行ったか否かを判断する判断手段、
    前記顧客が前記特定の行動を行った旨を登録する登録手段、
    として機能させ
    前記判断手段は、
    前記時系列情報に基づき、
    前記商品の移動速度、加速度又は位置の変化量の時系列情報、
    前記商品の移動速度、加速度又は位置の変化量の統計値、又は、
    前記商品の移動速度、加速度又は位置の変化量の単位時間ごとの統計値の時系列情報を、前記商品の移動状況を示す情報として算出するプログラム。
JP2022516800A 2020-04-24 2020-04-24 処理装置、処理方法及びプログラム Active JP7428241B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/017716 WO2021214986A1 (ja) 2020-04-24 2020-04-24 処理装置、処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021214986A1 JPWO2021214986A1 (ja) 2021-10-28
JP7428241B2 true JP7428241B2 (ja) 2024-02-06

Family

ID=78270586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022516800A Active JP7428241B2 (ja) 2020-04-24 2020-04-24 処理装置、処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20230154039A1 (ja)
JP (1) JP7428241B2 (ja)
WO (1) WO2021214986A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080159634A1 (en) 2006-12-30 2008-07-03 Rajeev Sharma Method and system for automatically analyzing categories in a physical space based on the visual characterization of people
WO2019181499A1 (ja) 2018-03-20 2019-09-26 日本電気株式会社 店舗管理装置および店舗管理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080159634A1 (en) 2006-12-30 2008-07-03 Rajeev Sharma Method and system for automatically analyzing categories in a physical space based on the visual characterization of people
WO2019181499A1 (ja) 2018-03-20 2019-09-26 日本電気株式会社 店舗管理装置および店舗管理方法

Also Published As

Publication number Publication date
WO2021214986A1 (ja) 2021-10-28
JPWO2021214986A1 (ja) 2021-10-28
US20230154039A1 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP4717934B2 (ja) 関係分析方法、関係分析プログラム、および、関係分析装置
TWI778030B (zh) 店鋪裝置、店鋪管理方法及程式
WO2019165892A1 (zh) 自动售货方法、装置和计算机可读存储介质
JP2019527865A (ja) 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法
JP6549558B2 (ja) 売上登録装置、プログラム及び売上登録方法
JP5238933B2 (ja) 客層付販売情報生成システム
JP2011253344A (ja) 購買行動分析装置、購買行動分析方法、およびプログラム
JP6500374B2 (ja) 画像処理装置及び画像処理プログラム
JP2023153316A (ja) 処理装置、処理方法及びプログラム
JPWO2020240834A1 (ja) 不正推定システム、不正推定方法、及びプログラム
JP6375924B2 (ja) 商品登録装置、商品特定方法及びプログラム
JP7487732B2 (ja) 情報処理装置、表示システム、情報処理方法およびプログラム
JP7428241B2 (ja) 処理装置、処理方法及びプログラム
CN112154488B (zh) 信息处理装置、控制方法和程序
JP2015194791A (ja) Pos端末装置
JP2021135620A (ja) 不正防止システム、及び不正防止プログラム
WO2020189196A1 (ja) 情報処理装置、情報処理システム、表示制御方法および記録媒体
JP7396476B2 (ja) 処理装置、処理方法及びプログラム
JP2021026724A (ja) 情報処理システムと情報処理装置と情報処理方法と情報処理プログラム
JP7380869B2 (ja) 処理装置、前処理装置、処理方法、及び前処理方法
JP2019083058A (ja) 画像処理装置及び画像処理プログラム
WO2021245835A1 (ja) 処理装置、処理方法及びプログラム
JP7435758B2 (ja) 処理システム、処理方法及びプログラム
KR102550560B1 (ko) 인공지능을 이용한 전자 시스템
JP7337625B2 (ja) 購買行動データ収集システム、及び購買行動データ収集プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240108

R151 Written notification of patent or utility model registration

Ref document number: 7428241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151