JP7449408B2 - ユーザの自動識別のための電子デバイス - Google Patents

ユーザの自動識別のための電子デバイス Download PDF

Info

Publication number
JP7449408B2
JP7449408B2 JP2022567905A JP2022567905A JP7449408B2 JP 7449408 B2 JP7449408 B2 JP 7449408B2 JP 2022567905 A JP2022567905 A JP 2022567905A JP 2022567905 A JP2022567905 A JP 2022567905A JP 7449408 B2 JP7449408 B2 JP 7449408B2
Authority
JP
Japan
Prior art keywords
user
electronic device
location
data
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022567905A
Other languages
English (en)
Other versions
JP2023526196A (ja
Inventor
ホーウィー ホー ワイ ラウ
ジェニファー リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2023526196A publication Critical patent/JP2023526196A/ja
Application granted granted Critical
Publication of JP7449408B2 publication Critical patent/JP7449408B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0609Buyer or seller confidence or verification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)

Description

関連出願の相互参照
本出願は、2020年6月29日に出願された「ELECTRONIC DEVICE FOR AUTOMATED USER IDENTIFICATION」と題された米国特許出願第16/914,809号の優先権を主張し、その全内容は参照により本明細書に組み込まれる。
小売業者、卸売業者、及び他の製品販売業者は、多くの場合、レジ又は専用のセルフチェックアウトスタンドを使用して、顧客との取引を確定する実店舗を管理している。これらの従来のチェックアウトプロセスの間、顧客は、クレジットカード又はデビットカード、運転免許証、電話などの支払い又は識別のための物理的な対象物を携帯し、使用しなければならない場合がある。将来的に、実店舗は、様々なタイプのセンサを利用して、レジなし又は専用のセルフチェックアウトスタンドなしでユーザが商品を取得し、支払いを行うことを可能にし得る。いくつかの例では、物理的な対象物の使用を必要としない方法を使用して顧客を識別し、顧客が実店舗から取り出した商品に対して適切な顧客アカウントに請求することが望ましい場合がある。
国際公報2013-020577号公報
詳細な説明が、添付図を参照して記載される。各図において、参照番号の左端数字は、参照番号が最初に現れる図を識別する。異なる図における同じ参照番号の使用は、類似又は同一の項目又は特徴を示す。
生体認証データをキャプチャする際に命令を提供するための例示的なプロセスを集合的に示す。 生体認証データをキャプチャする際に命令を提供するための例示的なプロセスを集合的に示す。 生体認証認識技術を使用してユーザを識別するために使用され得る電子デバイスの様々な例を示す。 生体認証認識技術を使用してユーザを識別するために使用され得る電子デバイスの様々な例を示す。 生体認証認識技術を使用してユーザを識別するために使用され得る電子デバイスの様々な例を示す。 生体認証認識技術を使用してユーザを識別するために使用され得る電子デバイスの様々な例を示す。 生体認証認識技術を使用してユーザを識別するために使用され得る電子デバイスの様々な例を示す。 手を水平方向に中央に置く命令を提供する電子デバイスの様々な例を示す。 手を水平方向に中央に置く命令を提供する電子デバイスの様々な例を示す。 手を水平方向に中央に置く命令を提供する電子デバイスの様々な例を示す。 手を水平方向に中央に置く命令を提供する電子デバイスの様々な例を示す。 手に角度を付ける命令を提供する電子デバイスの様々な例を示す。 手に角度を付ける命令を提供する電子デバイスの様々な例を示す。 手に角度を付ける命令を提供する電子デバイスの様々な例を示す。 手に角度を付ける命令を提供する電子デバイスの様々な例を示す。 電子デバイスが生体認証データをキャプチャできるようにユーザの手を配置するための目標場所の例を示す。 電子デバイスが生体認証データをキャプチャできるようにユーザの手を配置するための目標場所の例を示す。 電子デバイスが生体認証データをキャプチャできるようにユーザの手を配置するための目標場所の例を示す。 電子デバイスが生体認証データをキャプチャできるようにユーザの手を配置するための目標場所の例を示す。 手のひらの中心を識別するために手を分析する例を示す。 ユーザがユーザ認識システムに登録したいことを判定する電子デバイスを含む例示的な環境を示す。 ユーザ認識システムの機能の少なくとも一部分をサポートするように構成された1つ以上のサーバのブロック図を含む例示的な環境、並びにユーザ認識システムにユーザを登録するための、システム内のデータの流れの例を示す。 ユーザ認識システムの機能の少なくとも一部分をサポートするように構成された1つ以上のサーバのブロック図を含む例示的な環境、並びにユーザ認識システムのユーザを識別するための、潜在的にはユーザの登録を更新するための、システム内のデータの流れの例を示す。 ユーザ認識システムの機能の少なくとも一部分をサポートするように構成された電子デバイスの例示的なコンポーネントを示す。 電子デバイスに対する目標場所に手を配置することに関連付けられた命令を提供するための、例示的なプロセスのフロー図を集合的に示す。 電子デバイスに対する目標場所に手を配置することに関連付けられた命令を提供するための、例示的なプロセスのフロー図を集合的に示す。 電子デバイスに対する目標場所にユーザの一部分を配置することに関連付けられた命令を提供するための、例示的なプロセスのフロー図を示す。 センサと、センサデータを使用して施設内で発生するイベントに関する出力を生成するように構成された在庫管理システムと、を含む例示的なマテリアルハンドリング施設のブロック図である。 施設の運用をサポートするように構成された1つ以上のサーバのブロック図を示す。
本開示は、生体認証認識技術を使用してユーザを識別するための電子デバイスを対象とする。例えば、電子デバイスは、電子デバイスに対する目標場所に手を配置するようにユーザを誘導する視覚インジケータを含むことができる。ユーザを誘導するために、電子デバイスは、電子デバイスに対する手の場所を決定する1つ以上の距離センサ及び/又は撮像デバイスなどの1つ以上のセンサを含むことができる。次に、電子デバイスは、視覚インジケータに、目標場所に手を移動させるための、ユーザに対する命令を提供させることができる。目標場所に到達すると、電子デバイスは、撮像デバイスを使用して、手を表す(例えば、手のひらを表す)画像データを生成することができる。次いで、電子デバイスは、この画像データを使用して生成された特徴データを分析して、ユーザのアカウントと関連付けて記憶されたデータに関してユーザを識別することができる。
より詳細には、電子デバイスは、電子デバイスに対する目標場所に手を配置するようにユーザに指示する視覚インジケータを含んでもよい。本明細書に記載されるように、電子デバイスに対する目標場所は、電子デバイスに対する目標垂直距離(例えば、z方向)、及び電子デバイスに対する目標水平場所(例えば、x方向及びy方向)の両方を含んでよい。いくつかの例では、目標垂直距離は、電子デバイスの上方8~5ミリメートルなど、電子デバイスの上方の距離に関連付けられてよい。ただし、他の例では、目標垂直距離は、電子デバイスの上方の任意の他の距離に関連付けられてよい。加えて、いくつかの例では、目標水平場所は、x方向及びy方向の両方で、電子デバイスの中央に関連付けられてよい。
場合によっては、目標垂直距離及び/又は目標水平場所はまた、生体認証データをキャプチャするときにいくつかのオフセットを可能にし得る。例えば、目標垂直距離は、手が電子デバイスの上方の範囲内(例えば、電子デバイスの上方75ミリメートル~95ミリメートル)に位置することを可能にし得る。加えて、目標水平場所は、手がx方向にある距離(例えば、20ミリメートル)だけオフセットされること、及び/又はy方向にある距離(例えば、20ミリメートル)だけオフセットされることを可能にし得る。場合によっては、x方向の距離は、y方向の距離と同じである。他の例では、x方向の距離は、y方向の距離とは異なる。
場合によっては、視覚インジケータは、電子デバイスの表面上にパターンで配列された光放射体を含み得る。パターンには、円、三角形、正方形、五角形、六角形、及び/又は任意の他のパターンが挙げられ得るが、これらに限定されない。例えば、視覚インジケータは、電子デバイスの表面上に位置する光リングを含んでよい。追加的又は代替的に、場合によっては、視覚インジケータは、電子デバイスの表面上のパターンのような形状の表示部を含んでよい。いずれの場合においても、電子デバイスは、視覚インジケータを使用して、電子デバイスに対する目標場所にユーザの手を配置するための、ユーザに対する命令を提供する。
例えば、電子デバイスは、最初に、視覚インジケータに、電子デバイスがユーザの手を検出していないという第1の視覚的指標を提供させてよい。場合によっては、この第1の視覚的指標は、オフになっている視覚インジケータを含み得る。例えば、視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第1の視覚的指標は、光放射体に光の放射を控えさせることを含んでよい。追加的又は代替的に、場合によっては、第1の視覚的指標は、特定の色、パターン、及び/又は光の明るさを出力する視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第1の視覚的指標は、光放射体に白色などの特定の色の光を放射させることを含んでよい。
第1の視覚的指標を表示している間、電子デバイスは、距離センサ及び/又は撮像デバイス(例えば、カメラ)を使用して、ユーザの手を検出し得る。次いで、電子デバイスは、距離センサ及び/又は撮像デバイスを使用して、電子デバイスに対する手の場所を判定し得る。場合によっては、電子デバイスは、設定された時間間隔でユーザの手の場所を判定してもよい。例えば、電子デバイスは、ミリ秒、秒、及び/又は同様の時間ごとにユーザの手の場所を判定してもよい。場合によっては、電子デバイスが撮像デバイスを使用して場所を判定しているときなどに、電子デバイスは、画像データによって表される各フレーム、画像データによって表される1つおきのフレーム、画像データによって表される5つおきのフレーム、及び/又は同様のものを使用して、手の場所を判定してもよい。
場合によっては、電子デバイスは、最初に、電子デバイスに対する手の垂直距離を判定し得る。例えば、電子デバイスは、距離センサを使用して垂直距離を判定し得る。次いで、電子デバイスは、目標垂直距離に対する手の垂直距離を分析し得る。例えば、電子デバイスは、手の垂直距離が目標垂直距離に関連付けられた垂直範囲内にあるかどうかを判定し得る。電子デバイスが、手の垂直距離が電子デバイスの目標垂直距離の外側にある(例えば、垂直範囲よりも低い又は高い)と判定した場合、電子デバイスは、視覚インジケータを使用してユーザに対する命令を提供し得る。
第1の例では、電子デバイスが、ユーザの手までの垂直距離が目標垂直距離よりも大きいと判定した場合、次いで電子デバイスは、視覚インジケータに、手が高すぎるという第2の視覚的指標を提示させてよい。場合によっては、第2の視覚的指標は、光パターンを点滅させる視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第2の視覚的指標は、光放射体に所与の周波数で光を振動させることを含んでよい。追加的又は代替的に、場合によっては、第2の視覚的指標は、特定の色及び/又は明るさの光を出力する視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第2の視覚的指標は、光放射体に赤色などの特定の色の光を放射させることを含んでよい。
第2の例では、電子デバイスが、ユーザの手までの垂直距離が目標垂直距離よりも小さいと判定した場合、次いで電子デバイスは、視覚インジケータに、手が低すぎるという第3の視覚的指標を提示させてよい。場合によっては、第3の視覚的指標は、特定の色の光を出力する視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第3の視覚的指標は、光放射体に赤色などの特定の色の光を放射させることを含んでよい。追加的又は代替的に、場合によっては、第3の視覚的指標は、パターンを点滅させる、かつ/又は光の明るさを変更する視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第3の視覚的指標は、光放射体に所与の周波数で振動させることを含んでよい。追加的又は代替的に、場合によっては、
電子デバイスは、電子デバイスが、手の垂直距離が目標垂直距離にある(例えば、垂直範囲内にある)と判定するまで、これらのプロセスを実施し続け得る。場合によっては、この判定に基づいて、電子デバイスは、視覚インジケータに、手が目標垂直場所に位置していることを示す第4の視覚的指標を提示させてよい。場合によっては、第4の視覚的指標は、特定の色の光を出力する視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第4の視覚的指標は、光放射体に青色などの特定の色の光を放射させることを含んでよい。追加的又は代替的に、場合によっては、第4の視覚的指標は、光パターンを点滅させる、かつ/又は光の明るさを変更する視覚インジケータを含んでよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第4の視覚的指標は、光放射体に所与の周波数で光を振動させることを含んでよい。
次に、電子デバイスは、手(例えば、手のひら)を電子デバイス上の中央に置くための、ユーザに対する命令を提供してよい。例えば、電子デバイスは、電子デバイスに対する手の水平場所を判定してよい。場合によっては、電子デバイスは、距離センサを使用して水平場所を判定する。例えば、各距離センサは、電子デバイス上のそれぞれの水平場所(例えば、水平位置)に関連付けられ得る。例えば、電子デバイスが8つの距離センサを含む場合、第1の距離センサは前部場所に関連付けられ得、第2の距離センサは前部右側場所に関連付けられ得、第3の距離センサは右側場所に関連付けられ得、第4の距離センサは後部右側場所に関連付けられ得、第5の距離センサは後部場所に関連付けられ得、第6の距離センサは後部左側場所に関連付けられ得、第7の距離センサは左側場所に関連付けられ得、第8の距離センサは前部左側場所に関連付けられ得る。この例では、前部/後部はy方向に関連付けられ得、左側/右側はx方向に関連付けられ得る。
次いで、電子デバイスは、距離センサを使用して、電子デバイスに対する手の水平場所を判定してよい。第1の例では、電子デバイスは、第7の距離センサのみ(並びに/又は第6の距離センサ、第7の距離センサ、及び第8の距離センサのみ)が手を検出する場合に、手の水平場所が目標水平場所の左側にあると判定してよい。第2の例では、電子デバイスは、第1の距離センサのみ(並びに/又は第1、第2、及び第8の距離センサのみ)が手を検出する場合に、手の水平場所が目標水平場所の前方にあると判定してよい。更に、第3の例では、電子デバイスは、全ての距離センサが手を検出する場合に、手の水平場所が目標水平場所にあると判定してよい。
追加的又は代替的に、場合によっては、電子デバイスは、撮像デバイスを使用してユーザの手の水平場所を判定してもよい。例えば、以下でより詳細に記載されるように、電子デバイスは、1つ以上の訓練されたモデルを使用して、ユーザの手を描写する画像データを使用して特徴データを生成し得る。特徴データは、限定されないが、手のひらの様々な場所、手のひらの中心の場所、指の場所(例えば、指の開始、指の関節の場所、指間の交わる部分など)、親指の場所、手の方向、手の姿勢、手の配向、及び/又は手に関連付けられた任意の他の属性など、手に関連付けられた少なくとも属性を示し得る。特徴データを使用して、電子デバイスは、電子デバイスに対するユーザの手の水平場所を判定し得る。例えば、電子デバイスは、手のひらの中心を使用して、撮像コンポーネントに対するユーザの手の水平場所を判定し得る。
電子デバイスは、ユーザに対する命令を提供して、ユーザが目標水平場所に手を配置するのを助けてもよい。例えば、手の水平場所が目標水平場所の側面(例えば、左側)にある場合、電子デバイスは、視覚インジケータに、手が目標水平場所の側面にあることを示す第5の視覚的指標を提示させてもよい。第1の例では、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第5の視覚的指標には、側面上に位置する光放射体に光を放射させる一方で、側面上に位置しない光放射体には光の放射を控えさせることが含まれてよい。第2の例では、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第5の視覚的指標には、側面上に位置する光放射体に第1の色の光(例えば、青色)を放射させる一方で、側面上に位置しない光放射体には第2の異なる色の光(例えば、赤色)を放射させることが含まれてよい。
場合によっては、電子デバイスが、目標水平場所に手を配置するためのユーザに対する命令を提供している間、電子デバイスはまた、ユーザが電子デバイスに対してほぼ平坦(例えば、水平)に手を維持するのを助ける命令を提供してもよい。例えば、指などの手の一部分が、目標垂直距離の外側にある場合、電子デバイスは、視覚インジケータに、手の一部分が低すぎる又は高すぎるという第6の視覚的指標を提示させ得る。第1の例では、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第6の視覚的指標には、手の部分が位置する側に位置する光放射体に光の放射を控えさせる一方で、その側に位置しない光放射体には光を放射させることが含まれてよい。第2の例では、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第6の視覚的指標には、手の部分が位置する側に位置する光放射体に第1の色の光(例えば、赤色)を放射させる一方で、その側に位置しない光放射体には第2の異なる色の光(例えば、青色)を放射させることが含まれてよい。
電子デバイスは、電子デバイスがユーザの手が目標場所(例えば、目標垂直距離及び目標水平場所)に近接していることを検出するまで、ユーザに対する命令を提供し続けてよい。電子デバイスが、ユーザの手が目標場所に近接して位置していることを検出した後、電子デバイスは、視覚インジケータに、手が目標場所に位置していることを示す第7の視覚的指標を提示させてよい。例えば、ここで再び視覚インジケータが電子デバイスの表面上に一定のパターンで配列された光放射体を含む場合、第7の視覚的指標には、光放射体にある色の光、ある光パターン、又は光の明るさを放射させることが含まれてよい。更に、ユーザがユーザ認識システムに既に登録している場合では、ユーザ認識システムは、ユーザに関連付けられたユーザプロファイルを識別するために、本明細書に記載のプロセスを実施し得る。ユーザがまだユーザ認識システムに登録していない場合、電子デバイスは、ユーザ認識システムに登録するための追加情報を受信するための1つ以上の追加命令を提供し得る。
例えば、以下に記載されるように、ユーザは、様々な生体認証に基づく認識技術を利用するユーザ認識システムに登録してもよく、これによりユーザは、IDカードを示す、又はユーザの個人電話にアクセスするなどの従来の形態の身分証明を携行又は使用することなく、識別され得る。ユーザ認識システムは、マテリアルハンドリング施設(又は「施設」)における従来のチェックアウトエクスペリエンスを、施設に登録されたユーザが選んだ商品の購入を適切なユーザアカウントに課金することによって自動化するためなどの様々な目的で、登録されたユーザを認識又は識別することができる。
1つの用例では、本システム及び技術は、在庫管理システムを含み得るか又はそれにアクセスし得る、マテリアルハンドリング施設内のユーザを認識又は識別するために使用される。在庫管理システムは、商品、ユーザ、施設の状態などに関する情報を維持するように構成されてもよい。例えば、在庫管理システムは、特定のユーザがどの商品を選択又は返却するか、特定のユーザの場所など、施設内で発生する異なるイベントの結果を示すデータを維持し得る。
在庫管理システムの動作は、1つ以上のセンサによって取得されたセンサデータによってサポートされ得る。センサデータは、カメラなどの撮像デバイスによって取得された画像データ、無線周波数タグから取得された情報、重量センサなどを含み得る。例えば、在庫管理システムは、在庫場所から除去された商品、及び商品を除去したユーザを自動的に識別し得る。これに応答して、在庫管理システムは、ユーザの仮想ショッピングカートを自動的に更新し得る。
従来、ユーザが買い物セッションを終了すると、ユーザはレジ係に商品をスキャンさせるか、専用のセルフチェックアウトスタンドを使用することにより、商品の支払いを行わなければならない。本明細書に記載される技術は、ユーザ認識システムの使用のために登録されたユーザを認識又は識別し、そのユーザの仮想ショッピングカートに含まれる商品の費用をそのユーザに関するユーザアカウントに請求することによって、従来のチェックアウトエクスペリエンスにおけるフリクションを低減する。本明細書に記載される技術によれば、ユーザ認識システムに登録されたユーザは、ユーザ認識システムによって識別されるために、例えば、撮像デバイスでユーザの手のひらをスキャンする、ユーザの指紋をスキャンする、施設内に位置する電子デバイスのカメラを見ることによって生体認証情報を提供するだけでよい。
ユーザ認識システムを利用するために、ユーザは、施設内に位置決めされた電子デバイスと対話することによって登録を要求し得る。例えば、ユーザは、電子デバイスの表示部上で登録オプションを選び、登録されることを要求する音声又はGUIベースのコマンドを発行し、ユーザIDカードを電子デバイスに挿入し、かつ/又は登録プロセスを促すために電子デバイスの前に単に手、若しくは手のひらを提示し得る。
ユーザ認識システムに登録されることを要求すると、電子デバイスは、許可を得て、かつ/又はユーザによる明示的な要求に応じて、ユーザに関する様々なタイプの生体認証データ及び/又は他のデータの収集を開始し得る。例えば、電子デバイスは、ユーザの手のひら、ユーザの顔などのユーザの少なくとも一部分の画像データ(例えば、個々の画像、一連の画像、ビデオなど)のキャプチャを開始する撮像デバイスを含んでもよい。手のひらの例では、上述のように、電子デバイスは、電子デバイスが画像データをキャプチャする際、及び異なる照明条件下(例えば、フラッシュなし、フラッシュあり、異なる光の偏光など)で画像データをキャプチャし得る際に、異なる環境条件下でユーザの手のひらを表す画像データを生成するために、異なる角度及び/又は配向に手を動かすようにユーザに要求してもよい。
いくつかの例では、ユーザは、買い物セッション中に選んだ商品の支払いのために、既に在庫管理システムに登録されたアカウントを有していてもよい。かかる例では、電子デバイスは、ユーザが個人IDカード(例えば、運転免許証)を挿入すること、ユーザの電話の表示部に提示され得るバーコードをスキャンすること、ユーザのログイン認証情報でログインすることなどを要求することなどによって、ユーザが様々な方法で登録されているユーザアカウントを決定することができる。
電子デバイスがユーザの手のひら又は他の薬を表す画像データを取得すると、電子デバイスは、このデータを利用して、ユーザをユーザ認識システムに登録し得る。いくつかの例では、ユーザ認識システムは、本明細書に記載の技術を実装するためのソフトウェア、ファームウェア、及び/又はハードウェアコンポーネントを含み得る電子デバイス上に完全に実装されてもよい。しかしながら、いくつかの例では、ユーザ認識システムは、電子デバイスがクライアント側の登録及び識別技術を実施する分割アーキテクチャに従って実装されてもよく、より集中的及び/又は高度な処理は、バックエンドの、サーバベースの実装を使用して実施されてもよい。例えば、ユーザ認識システムは、施設内の別個の場所、及び/又はリモートのクラウドベースの場所に位置決めされた1つ以上のネットワークベースのコンピューティングデバイスを含み得る。ネットワークベースのデバイスは、ユーザ認識システムを実装するための様々なコンポーネントを含み得る。
かかる例では、電子デバイスは、画像データ、及び/又は画像データを使用してユーザ認識デバイスによって生成された特徴データをネットワークベースのデバイスに送信して、ユーザ認識システムのためにユーザを登録してもよい。ユーザ認識システムのネットワークベースのデバイスは、その後に受信した画像データ及び/又は特徴データからユーザを識別することができるように、画像データ及び/又は特徴データに対して様々な処理技術を実施してもよい。
ユーザ認識システムは、画像データを分析してユーザの様々な特徴を判定し得る。例えば、ユーザ認識システムは、画像データに基づいて、ユーザの手のひらを表す手のひら特徴データを抽出及び/又は生成し得る。この手のひら特徴データは、ユーザの手のひらのしわのパターン、ユーザの手のひらの静脈のパターン、ユーザの手の1つ以上の部分の形状(例えば、指のサイズ/形状、手のひらのサイズ/形状など)、及び/又は同様のものなど、使用者の手のひらに潜在的に固有の情報を表し得る。ユーザ認識システムは、任意のタイプの処理技術を利用して手のひら特徴データを生成してよく、特徴ベクトルなどの様々なタイプのデータ構造を使用して、画像データに描写されるユーザの手のひらを表してよい。いくつかの例では、ユーザ認識システムは、入力としてユーザの画像データを受信するように訓練された1つ以上の訓練されたモデル(例えば、機械学習モデル)と、ユーザの手のひらを表す出力特徴ベクトルとを含み得る。概して、訓練されたモデルには、ユーザの手のひら及び/又はユーザの1つ以上の他の部分(例えば、顔など)を識別するように訓練されてもよい機械学習モデル(例えば、人工ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)、分類子、ランダムフォレストモデルなど)などの任意のタイプのモデルが含まれ得る。
ユーザの手のひらを表す特徴データを取得すると、ユーザ認識システムは、特徴データを登録データベースに記憶し、その特定のユーザのユーザプロファイルに特徴データを関連付け得る。このようにして、ユーザに関する後続の画像データが電子デバイスで受信されると、登録データベースに記憶された特徴データが後続の画像データから生成された特徴データと比較されて、後続の画像データ及び音声データで表されるユーザのユーザプロファイルを識別することができる。
このようにして、ユーザは、ユーザ認識システムの使用のために登録されることができ、これにより、ユーザは、後続の買い物セッションを完了した後、電子デバイスの撮像コンポーネント上に自身の手のひらを置いて、ユーザ認識システムが自動的にユーザを認識できるようにすることによってチェックアウトできるようになる。電子デバイスは、ユーザの存在を検出し(例えば、手のひらを検出する、顔を検出する、発話を検出する、タッチ表示部を介してタッチ入力を検出するなど)、ユーザ認識システムのバックエンドデバイスへの画像データ及び音声データのストリーミングを開始し得る。次いで、ユーザ認識システムのバックエンドデバイスは、訓練されたモデルを利用して特徴データを抽出し、その特徴データを、登録されたユーザのユーザプロファイルについて記憶された特徴データと比較し得る。追加的に又は代替的に、ユーザは、施設に入るときに認識のために自身の手のひらをスキャンしてもよく、場合によっては、自身が選択した商品を携帯して再び自身の手のひらをスキャンすることなく、施設を単に退出してもよい。これらの場合、ユーザは、入場時に識別され得、ユーザが施設内を移動するときにシステムによって場所特定され得るため、ユーザは、施設の従業員又はデバイスとの更なる対話をすることなしに「ただ歩いて出て行く」ことができる。
本明細書に記載される技術は、主として、マテリアルハンドリング施設から選ばれた商品について課金するためのユーザアカウントを識別する目的でユーザを識別することに関連するが、この技術は、ユーザ認識が役立ち得る任意の業界に等しく適用可能である。例えば、ユーザ認識システムは、ロックされた場所にアクセスすること、コンピューティングデバイスを介してユーザアカウントにアクセスすること、銀行口座にアクセスすることなどのセキュリティ目的のために実装されてもよい。更に、特定のタイプの機械学習モデル及びアルゴリズムが本明細書で論じられるが、これらの技術は、他のタイプの技術を使用して採用されてもよく、概して異なるコンピュータベースの実装に拡張可能である。
加えて、上述した技術は、電子デバイスが手の場所を判定することを含むが、他の実施例では、バックエンドデバイスが手の場所を判定してもよい。例えば、電子デバイスは、1つ以上のセンサを使用して生成されたセンサデータを、バックエンドデバイスに送信し得る。次いで、バックエンドデバイスは、電子デバイスに関して本明細書に記載されるプロセスを実施して、手の場所を判定し得る。加えて、バックエンドデバイスは、電子デバイスに、手の場所を示すデータを送信し得る。次いで、電子デバイスは、このデータを使用して、ユーザに対する命令を提供するときにユーザインターフェースを更新し得る。
以下の説明では、マテリアルハンドリング施設内での本技術の使用について記載する。本明細書に記載される施設としては、限定されないが、倉庫、配送センター、クロスドッキング施設、注文フルフィルメント施設、包装施設、出荷施設、レンタル施設、図書館、小売店舗、卸売店舗、博物館、又はマテリアル(在庫)ハンドリングの1つ以上の機能を実施するための他の施設又は施設の組み合わせ、が挙げられ得る。他の実装形態では、本明細書に記載される技術は、他の施設又は他の状況で実装されてもよい。
本開示の特定の実装形態及び実施形態はここで、様々な態様が示されている添付の図を参照しながら、以下により完全に説明される。しかしながら、それらの様々な態様は、多くの異なる形態で実装され得、本明細書に記述される実施態様に限定されるものと解釈されるべきものではない。本開示は、本明細書に記載されるように、それらの実施形態のバリエーションを包含する。同じ番号は、全体を通じて、同じ要素を指す。
図1A~1Bは、生体認証データをキャプチャする際に命令を提供するための例示的なプロセス100を集合的に示す。102において、電子デバイス104は、ユーザの手を検出し得る。例えば、電子デバイス104の視覚インジケータ108は、ユーザに電子デバイス104上に手106を配置するように指示する第1の視覚的指標を表示していてもよい。図1A~1Bの例では、視覚インジケータ108は、電子デバイス104の上面の周りに位置する光リングを含む。ただし、他の例では、視覚インジケータ108は、電子デバイス104の1つ以上の表面上に任意の他の形状を含み得る。図1A~1Bの例に示されているように、第1の視覚的指標は、光の放射を控えることを含み得る。ただし、他の例では、第1の視覚的指標は、ある色、ある明るさ、及び/又はあるパターンの光を放射することを含み得る。
次いで、電子デバイス104は、図2A~2Dに関してより詳細に論じられる1つ以上のセンサを使用して、手106を検出し得る。例えば、電子デバイス104は、1つ以上の距離センサを使用して、電子デバイス104上に位置する手106を検出し得る。別の例では、電子デバイス104は、1つ以上の撮像デバイスを使用して、手106を表す画像データを生成し得る。次に、電子デバイス104は、画像データを分析して、手106が電子デバイス104上に位置することを判定し得る。
場合によっては、図1A~1Bの例に示されるように、電子デバイス04は、電子デバイス104が手106を検出したことを示す音110を出力し得る。第1の例では、音110は、電子デバイス104が手106を検出したことを示す1つ以上の単語(例えば、「手が検出されました」)を含み得る。第2の例では、音110は、手106が検出されたことをユーザに知らせる1つ以上のノイズ(例えば、ピーン音、ブーン音、一定のトーンなど)を含み得る。
112において、電子デバイス104は、手106が高すぎるという第1の視覚的指標を表示し得る。例えば、電子デバイス104は、ユーザの手106が電子デバイス104の目標垂直距離よりも高いと判定し得る。場合によっては、電子デバイス104は、1つ以上の距離センサを使用して、手106の垂直距離を判定する。追加的又は代替的に、場合によっては、電子デバイス104は、1つ以上の撮像デバイスによって生成された画像データを分析することによって、手106の垂直距離を判定する。いずれの場合でも、次いで、電子デバイス104は、手106の垂直距離を、垂直範囲を含み得る目標垂直距離と比較して、手106の垂直距離が目標垂直距離よりも大きいことを判定する。
次いで、電子デバイス104は、手106が高すぎるという第1の視覚的指標を表示し得る。場合によっては、図1A~1Bの例に示されるように、第1の視覚的指標は、(円内の十字によって示される)光のパターンを点滅させる視覚インジケータ108を含んでよい。例えば、第1の視覚的指標は、視覚インジケータ108の光放射体に、所与の周波数で光を振動させることを含んでよい。追加的又は代替的に、場合によっては、第1の視覚的指標は、特定の色及び/又は明るさの光を出力する視覚インジケータ108を含んでよい。例えば、第1の視覚的指標は、視覚インジケータ108の光放射体に、赤色などの特定の色の光を放射させることを含んでよい。
場合によっては、図1A~1Bの例に示されるように、電子デバイス104は、手106が高すぎることを示す音114を出力し得る。第1の例では、音114は、手が高すぎることを示す1つ以上の単語(例えば、「手を下げてください」)を含み得る。第2の例では、音110は、手106が高すぎることをユーザに知らせる1つ以上のノイズ(例えば、ピーン音、ブーン音、一定のトーンなど)を含み得る。
116において、電子デバイス104は、手が中心から外れていることを示す第2の視覚的指標を表示し得る。例えば、電子デバイス104は、ユーザの手106が電子デバイス104に対する目標水平場所の外側に位置していると判定し得る。場合によっては、電子デバイス104は、1つ以上の距離センサを使用して、手106の水平場所を判定する。追加的又は代替的に、場合によっては、電子デバイス104は、1つ以上の撮像デバイスによって生成された画像データを分析することによって、手106の水平場所を判定する。いずれの場合でも、電子デバイス104は次いで、手106の水平場所を、x方向及び/又はy方向におけるある程度のオフセットを可能にし得る目標水平場所と比較して、手106の水平場所が目標水平場所の外側に位置していることを判定する。
次いで、電子デバイス104は、手106が中心から外れていることを示す第2の視覚的指標を表示し得る。例えば、手106の水平場所が電子デバイス104の側面118に遠すぎるので、次いで電子デバイスは、視覚インジケータ108に、手106が側面118から離れすぎて位置していることを示す第2の視覚的指標を表示させてもよい。第1の例では、図1A~1Bの例に示されるように、第2の視覚的指標は、側面118に位置する視覚インジケータ108の光放射体に光を放射させる(これは、塗りつぶした黒丸で示される)一方で、側面118に位置しない視覚インジケータ108の光放射体に光の放射を控えさせること(これは、塗りつぶした白丸で示される)を含み得る。第2の例では、第2の視覚的指標は、側面118に位置する視覚インジケータ108の光放射体に第1の色の光(例えば、青色)を放射させる一方で、側面118に位置しない視覚インジケータ108の光放射体に第2の異なる色の光(例えば、赤色)を放射させることを含み得る。
場合によっては、図1A~1Bの例に図示されるように、電子デバイス104は、手106が中心から外れていることを示す音120を出力し得る。第1の例では、音112は、手106が中心にあることを示す1つ以上の単語(例えば、「手が中心から外れています」又は「手を後ろに動かしてください」)を含み得る。第2の例では、音120は、手106が中心から外れていることをユーザに知らせる1つ以上のノイズ(例えば、ピーン音、ブーン音、一定のトーンなど)を含み得る。
122において、電子デバイス104は、手106が角度を付けられていることを示す第3の視覚的指標を表示し得る。例えば、電子デバイス104は、ユーザの手106が、電子デバイス104に対して角度を付けられていると判定し得る。場合によっては、電子デバイス104は、1つ以上の距離センサを使用して、手106の角度を判定する。例えば、電子デバイス104は、手106が第2の距離センサよりも第1の距離センサの近くに位置していると判定し得る。追加的又は代替的に、場合によっては、電子デバイス104は、1つ以上の撮像デバイスによって生成された画像データを分析することによって、手106の角度を判定する。いずれの場合でも、次いで、電子デバイス104は、手106の角度を目標角度と比較する。比較に基づいて、電子デバイス104は、手106の角度が目標角度よりも大きいと判定し得る。
次いで、電子デバイス104は、手106が角度を付けられていることを示す第3の視覚的指標を表示し得る。例えば、手106の角度が、手106が電子デバイス104の他方の側面よりも電子デバイス104の側面118に近いようなものであるため、次いで電子デバイス104は、手106が側面118に向かって角度を付けられているという第3の視覚的指標を視覚インジケータ108に表示させ得る。第1の例では、図1A~1Bの例に図示されるように、第3の視覚的指標は、側面118に位置する視覚インジケータ108の光放射体に第1の色の光を放射させる(これは、塗りつぶした灰色の丸で示される)一方で、側面118に位置しない視覚インジケータ108の光放射体に第2の色の光を放射させること(これは、塗りつぶした黒丸で示される)を含み得る。第2の例では、第3の視覚的指標は、側面118に位置する視覚インジケータ108の光放射体に光の放射を控えさせる一方で、側面118に位置しない視覚インジケータ108の光放射体にある色の光を放射させることを含み得る。
場合によっては、図1A~1Bの例に図示されるように、電子デバイス104は、手106が角度を付けられていることを示す音124を出力し得る。第1の例では、音124は、手106が角度を付けられていることを示す1つ以上の単語(例えば、「手に角度が付いています」又は「手を平らにしてください」)を含み得る。第2の例では、音1124は、手106が角度を付けられていることをユーザに知らせる1つ以上のノイズ(例えば、ピーン音、ブーン音、一定のトーンなど)を含み得る。
126において、電子デバイス104は、手106が目標場所にあることを示す第4の視覚的指標を表示し得る。例えば、電子デバイス104は、1つ以上の距離センサを使用して、手106の場所及び/又は角度を判定してもよい。追加的又は代替的に、場合によっては、電子デバイス104は、1つ以上の撮像デバイスによって生成された画像データを分析することによって、手106の場所及び/若しくは角度を判定する。いずれの場合でも、次いで、電子デバイス104は、手106の場所を目標場所と比較し、比較に基づいて、ユーザの手106が目標場所にあると判定する。更に、電子デバイス104は、手106の角度を目標角度と比較し、比較に基づいて、手106の角度が閾値角度を満たすと判定する。
次いで、電子デバイス104は、手106が目標場所にあることを示す第4の視覚的指標を表示し得る。第1の例では、図1A~1Bの例に図示されるように、第4の視覚的指標は、視覚インジケータ108の光放射体に、ある色の光を放射させること(これは、塗りつぶした黒丸で示される)を含み得る。第2の例では、第4の視覚的指標は、視覚インジケータ108の光放射体に、点滅する光パターンを放射させること、及び/又は特定の明るさで光を放射させることを含んでよい。
場合によっては、図1A~1Bの例に図示されるように、電子デバイス104は、手106が目標場所にあることを示す音128を出力し得る。第1の例では、音128は、手106が目標場所にあることを示す1つ以上の単語(例えば、「手は目標場所にあります」)を含み得る。第2の例では、音110は、手106が目標場所にあることをユーザに知らせる1つ以上のノイズ(例えば、ピーン音、ブーン音、一定のトーンなど)を含み得る。
130において、電子デバイス104は、手106に関連付けられた生体認証データを使用してアカウントを識別し得る。例えば、電子デバイス104は、1つ以上の撮像デバイスを使用して、手106を表す画像データを生成し得る。次いで、電子デバイス104は、画像データを分析して、手106に対応する特徴データを判定し得る。加えて、電子デバイス104は、アカウントと関連付けて記憶された特徴データに関して特徴データを分析し得る。分析に基づいて、電子デバイス104は、手106に対応する特徴データが、アカウントと関連付けて記憶された特徴データとマッチングすると判定し得る。このように、電子デバイス104は、アカウントを識別することができる。
場合によっては、図1A~1Bの例に図示されるように、電子デバイス104は、アカウントが識別されたことを示す音132を出力し得る。第1の例では、音132は、アカウントが識別されたことを示す1つ以上の単語(例えば、「アカウントを識別しました」)を含み得る。第2の例では、音132は、アカウントが識別されたことをユーザに知らせる1つ以上のノイズ(例えば、ピーン音、ブーン音、一定のトーンなど)を含み得る。
図2A~2Dは、生体認証認識技術を使用してユーザを識別するために使用され得る電子デバイス202(1)~(4)の様々な例を図示する。場合によっては、電子デバイス202(1)~(4)のうちの1つ以上は、図1A~1Bの例からの電子デバイス104に対応してもよい。
図2Aの例に示されるように、電子デバイス202(1)は、円形形状を含み得る。しかしながら、他の例では、電子デバイス202(1)(並びに電子デバイス202(2)~(4)のうちの1つ以上)は、円以外の形状を含んでよい。電子デバイス202(1)は、電子デバイス202(1)の表面の周りに円形に位置する距離センサ204(1)~(6)(「距離センサ204」とも称される)を含む。図2Aの例は、6つの距離センサ204を図示しているが、他の例では、電子デバイス202(1)は、任意の数の距離センサ204を含んでもよい。加えて、図2Aの例は、円形に、かつ互いに等しく離間されて配列された距離センサ204を図示しているが、他の例では、距離センサ204は、電子デバイス202(1)の表面上の任意の他の配列を含んでもよい。
電子デバイス202(1)はまた、電子デバイス202(1)の表面の外縁の周りに位置する視覚インジケータ206も含む。視覚インジケータ206は、視覚インジケータ206の全体の周りに、離間された複数の光放射体208(ただし、明確にするため1つのみが例示されている)を含む。しかしながら、他の例では、視覚インジケータ206は、円以外の形状を含んでもよい。加えて、他の例では、視覚インジケータ206は、より多くの又はより少ない光放射体208を含んでもよい。更に、他の例では、視覚インジケータ206は表示部を含んでよい。
電子デバイス202(1)はまた、電子デバイス202(1)の中心に位置する撮像デバイス210を含む。場合によっては、撮像デバイス210は、カメラ(例えば、赤緑青(RGB)カメラ、赤外線カメラ、近赤外線カメラなど)を含み得る。図2Aの例は、電子デバイス202(1)の中心に位置する撮像デバイス210を示しているが、他の例では、撮像デバイス210は、電子デバイス202(1)の異なる場所に位置してもよい。加えて、他の例では、撮像デバイス210は、2つ以上の撮像デバイスを含み得る。例えば、電子デバイス202(1)は、本明細書に記載される生体認証認識技術を実施するための第1の画像データを生成する、第1の撮像デバイスを含み得る。電子デバイス202(1)はまた、(例えば、生体認証スプーフィングから保護するために)ユーザの手が実際の手であることを検証するなどの他の処理目的で使用される第2の画像データを生成する、第2の撮像デバイスを含み得る。
例えば、手が目標場所にあるときなどに、電子デバイス202(1)は、視覚インジケータ206に光を放射させてよい。場合によっては、光は、特定の色の光及び/又は特定のパターンの光(例えば、所与の周波数で光を点滅させる)を含み得る。光は、撮像デバイス210(及び/又は別の撮像デバイス)が、生体認証スプーフィングから保護するために、手が実際の手であるかどうかを判定するために分析することができる画像データを生成することができるように構成されてもよい。
図2Bは、生体認証認識技術を使用してユーザを識別するために使用され得る別の電子デバイス202(2)を示す。図2Bの例において、電子デバイス202(2)もまた、視覚インジケータ206及び撮像デバイス210を含み得る。ただし、電子デバイス202(2)は、ここでは、電子デバイス202(2)の中心に近接して位置する単一の距離センサ212を含んでいる。図2Bの例では、電子デバイス202(2)の中心に近接して位置する単一の距離センサ212を示しているが、他の例では、電子デバイス202(2)は、電子デバイス202(2)の中心に近接して位置する任意の数の距離センサ212を含んでもよい。
図2Cは、生体認証認識技術を使用してユーザを識別するために使用され得る別の電子デバイス202(3)を示す。図2Cの例において、電子デバイス202(3)もまた、視覚インジケータ206及び撮像デバイス210を含み得る。ただし、電子デバイス202(3)は、距離センサを含まない。むしろ、電子デバイス202(3)は、図6に関してより詳細に記載されるプロセスを使用して、撮像デバイス210を使用して手の場所を判定し得る。
図2Dは、生体認証認識技術を使用してユーザを識別するために使用され得る別の電子デバイス202(4)を示す。図2Dの例では、電子デバイス202(4)は、距離センサ204及び撮像デバイス210を含み得る。しかしながら、他の例では、電子デバイス202(4)は、距離センサ及び/又は撮像デバイス210のための電子デバイス202(2)及び/又は電子デバイス202(3)のレイアウトを含んでもよい。電子デバイス202(4)はまた、電子デバイス202(4)の表面の外縁の周りに位置する視覚インジケータ214も含む。視覚インジケータ214は表示部デバイスを含み得る。しかしながら、他の例では、視覚インジケータ214は、円以外の形状を含んでもよい。
図2Eは、生体認証認識技術を使用してユーザを識別するために使用され得る別の電子デバイス202(5)を示す。図2Eの例では、電子デバイス202(5)は、少なくとも第1の視覚インジケータ218(1)、第2の視覚インジケータ218(2)、及び第3の視覚インジケータ218(3)(「視覚インジケータ218」と総称される)を含み得る。電子デバイス202(5)は、様々な視覚インジケータ218を使用して、ユーザに対する命令を提供し得る。例えば、第3の視覚インジケータ218(3)は、ユーザの手が電子デバイス202(5)に近すぎるときに作動され得、第2の視覚インジケータ218(2)は、手が目標垂直距離にあるときに作動され得、第1の視覚インジケータ218(1)は、手が電子デバイス202(5)から遠すぎるときに使用され得る。このようにして、ユーザは、第2の視覚インジケータ218(2)が作動していることに基づいて、手が目標垂直距離にあるときを判定することができる。
場合によっては、視覚インジケータ218の各々はまた、本明細書に記載されるプロセスを使用して、手を目標水平場所に移動させるための命令を提供するように構成され得る。追加的又は代替的に、場合によっては、第2の視覚インジケータ218(2)のみが、手を目標水平場所に移動させるための命令を提供するように構成されてよい。場合によっては、視覚インジケータ218の各々は、視覚インジケータ206と同様であり光放射体208を含み得る。
図2A~2Eの例は、電子デバイスに関するいくつかの例示的な構成を示しているが、他の例では、電子デバイスは、追加的及び/又は代替的な構成を含んでもよい。例えば、電子デバイスは、追加的又は代替的に、側面などの電子デバイスの他の表面上に位置する1つ以上の視覚インジケータを含んでもよい。このようにして、手が、上面に位置する視覚インジケータの一部分を塞いでいる場合でも、電子デバイスは依然として、1つ以上の他の視覚インジケータを使用して、ユーザに対する命令を提供することができる。
図3A~3Dは、手を水平方向に中央に置く命令を提供する電子デバイス104の様々な例を示す。例えば、図3Aの例に示されるように、電子デバイス104は、ユーザの手の水平場所を判定し得る。場合によっては、電子デバイス104は、複数の距離センサ302(ただし、明確にするため1つのみにラベル付けされている)を使用して水平場所を判定する。例えば、示されているように、電子デバイス104の左側距離センサ302がユーザの手を検出する場合があり、これは、左側距離センサ302に関連付けられた斜線で表されている。ただし、電子デバイス104の他の距離センサ302は、ユーザの手を検出しない場合がある。このように、電子デバイス104は、ユーザの手が目標水平場所に位置していない、及び/又は電子デバイス104の左側に離れすぎて位置していると判定することができる。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図3Aの例では、視覚インジケータ108は、手が左側に離れすぎて位置していることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータ108の左側に位置する光放射体304(ただし、明確にするため1つのみが例示される)に光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした黒丸で示されるが、他の全ての光放射体304に光の放射を控えさせるようにしてもよく、これは塗りつぶした白丸で示される。場合によっては、各光放射体304は、距離センサ302が手を検出するときにそれぞれの光放射体304が光を放射するように、距離センサ302の少なくとも1つと関連付けられている。例えば、図3Aの例において、光を放射している光放射体304は、少なくとも左側距離センサ302に関連付けられている。
図3Bの例に示されるように、電子デバイス104は、ユーザの手の水平場所を再び判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して水平場所を判定する。例えば、示されているように、電子デバイス104の後方距離センサ302、後方左側距離センサ302、左側距離センサ302、前方左側距離センサ302、及び前方距離センサ302がユーザの手を検出する場合があり、これは、そのような距離センサ302と関連付けられた斜線で表されている。ただし、電子デバイス104の他の距離センサ302は、ユーザの手を検出しない場合がある。このように、電子デバイス104は、ユーザの手が目標水平場所に位置していない、及び/又は電子デバイス104の左側に離れすぎて位置していると、ここでも判定することができる。しかしながら、電子デバイス104はまた、手の水平場所が今度は図3Aの例よりも目標水平場所の近くに位置していると判定し得る。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図3Bの例では、視覚インジケータ108は、手が左側に離れすぎて位置していることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータの後方、後方左側、左側、前方左側、及び前方に位置する光放射体304に光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした黒丸で示されるが、他の全ての光放射体304に光の放射を控えさせるようにしてもよく、これは塗りつぶした白丸で示される。上で論じたように、場合によっては、各光放射体304は、距離センサ302が手を検出するときにそれぞれの光放射体304が光を放射するように、距離センサ302の少なくとも1つと関連付けられている。例えば、図3Bの例において、光を放射している光放射体304は、手を検出した距離センサ302に関連付けられ得る。
図3Cの例に示されるように、電子デバイス104は、ユーザの手の水平場所を再び判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して水平場所を判定する。例えば、示されているように、電子デバイス104の後方距離センサ302、後方左側距離センサ302、左側距離センサ302、前方左側距離センサ302、前方距離センサ302、前方右側距離センサ302、及び右側距離センサ302がユーザの手を検出する場合があり、これは、そのような距離センサ302と関連付けられた斜線で表されている。ただし、電子デバイス104の後方右側距離センサ302は、ユーザの手を検出しない場合がある。このように、電子デバイス104は、ユーザの手が目標水平場所に位置していない、及び/又は電子デバイス104の前方左側に離れすぎて位置していると、ここでも判定することができる。しかしながら、電子デバイス104はまた、手の水平場所が今度は図3Bにおける目標水平場所のより近くに位置していると判定し得る。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図3Cの例では、視覚インジケータ108は、手が電子デバイス104の前方左側に離れすぎて位置していることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータの後方、後方左側、左側、前方左側、前方、前方右側、及び右側に位置する光放射体304に光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした黒丸で示されるが、他の全ての光放射体304に光の放射を控えさせるようにしてもよく、これは塗りつぶした白丸で示される。上で論じたように、場合によっては、各光放射体304は、距離センサ302が手を検出するときにそれぞれの光放射体304が光を放射するように、距離センサ302の少なくとも1つと関連付けられている。例えば、図3Cの例において、光を放射している光放射体304は、手を検出した距離センサ302に関連付けられ得る。
最後に、図3Dの例に示されるように、電子デバイス104は、ユーザの手の水平場所を再び判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して水平場所を判定する。例えば、示されているように、電子デバイス104の距離センサ302の全てがユーザの手を検出する場合があり、これは、距離センサ302と関連付けられた斜線で表されている。このように、電子デバイス104は、手の水平場所が今度は目標水平場所に位置していると判定し得る。このように、電子デバイス104は、視覚インジケータ108に、手が正しい水平場所に位置していることをユーザに通知させることができる。図3Dの例では、視覚インジケータ108は、全ての光放射体304に光を放射させることによって通知を提供してもよく、これは塗りつぶした黒丸で示される。
場合によっては、電子デバイス104は次いで、ユーザの手を表す画像データを使用してユーザのアカウントを識別しようと試みてもよいことに留意されたい。場合によっては、ユーザがまだアカウントを登録していない場合など、電子デバイスがアカウントを識別できない場合、電子デバイス104は、エラーがあること及び/又はアカウントを作成すべきであることの通知を提供し得る。場合によっては、電子デバイス104は、本明細書に示される1つ以上の例と同様に、視覚インジケータ108に、ある色の光、ある光パターン、及び/又はある明るさの光を放射させることによって通知を提供してもよい。加えて、場合によっては、ユーザが既にアカウントを登録している場合など、電子デバイスがアカウントを識別する場合、電子デバイス104は、アカウントが識別されたことを通知してもよい。場合によっては、電子デバイス104は、本明細書に示される1つ以上の例と同様に、視覚インジケータ108に、ある色の光、ある光パターン、及び/又はある明るさの光を放射させることによって通知を提供してもよい
図4A~4Dは、電子デバイス104が手に角度を付けるための命令を提供する様々な例を示す。例えば、図4Aの例に示されるように、電子デバイス104は、ユーザの手の角度を判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して角度を判定する。例えば、示されているように、電子デバイス104の後方左側距離センサ302、左側距離センサ302、及び前方左側距離センサ302がユーザの手の第1の垂直距離を検出する場合があり、これは斜線で表され、一方、他の距離センサ302がユーザの手の第2の垂直距離を検出する。次いで、電子デバイス104は、第1の垂直距離が目標垂直距離(例えば、垂直範囲)の外側にある一方で、第2の垂直距離が目標垂直距離内にあると判定し得る。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図4Aの例では、視覚インジケータ108は、手の左側部分が電子デバイス104に近すぎることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータ108の後方左側、左側、及び上部左側に位置する光放射体304に第1の色の光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした灰色の丸で示されるが、他の全ての光放射体304に第2の色の光を放射させてもよく、これは塗りつぶした黒丸で示される。しかしながら、他の例では、視覚インジケータ108は、視覚インジケータ108の後方左側、左側、及び上部左側に位置する光放射体304に光の放射を控えさせる一方で、他の全ての光放射体304に光を放射させることによって、命令を提供してもよい。
図4Bの例に示されるように、電子デバイス104は、ユーザの手の角度を再び判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して角度を判定する。例えば、示されているように、電子デバイス104の上部左側距離センサ302、上部距離センサ302、及び上部右側距離センサ302がユーザの手の第1の垂直距離を検出する場合があり、これは斜線で表され、一方、他の距離センサ302がユーザの手の第2の垂直距離を検出する。次いで、電子デバイス104は、第1の垂直距離が目標垂直距離(例えば、垂直範囲)の外側にある一方で、第2の垂直距離が目標垂直距離内にあると判定し得る。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図4Bの例では、視覚インジケータ108は、手の先端部分が電子デバイス104に近すぎることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータ108の上部左側、上部、及び上部右側に位置する光放射体304に第1の色の光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした灰色の丸で示されるが、他の全ての光放射体304に第2の色の光を放射させてもよく、これは塗りつぶした黒丸で示される。しかしながら、他の例では、視覚インジケータ108は、視覚インジケータ108の上部左側、上部、及び上部右側に位置する光放射体304に光の放射を控えさせる一方で、他の全ての光放射体304に光を放射させることによって、命令を提供してもよい。
図4Cの例に示されるように、電子デバイス104は、ユーザの手の角度を再び判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して角度を判定する。例えば、示されているように、電子デバイス104の右側距離センサ302がユーザの手の第1の垂直距離を検出する場合があり、これは斜線で表され、一方、他の距離センサ302がユーザの手の第2の垂直距離を検出する。次いで、電子デバイス104は、第1の垂直距離が目標垂直距離(例えば、垂直範囲)の外側にある一方で、第2の垂直距離が目標垂直距離内にあると判定し得る。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図4Cの例では、視覚インジケータ108は、手の右側部分が電子デバイス104に近すぎることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータ108の右側に位置する光放射体304に第1の色の光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした灰色の丸で示されるが、他の全ての光放射体304に第2の色の光を放射させてもよく、これは塗りつぶした黒丸で示される。しかしながら、他の例では、視覚インジケータ108は、視覚インジケータ108の右側に位置する光放射体304に光の放射を控えさせる一方で、他の全ての光放射体304に光を放射させることによって、命令を提供してもよい。
最後に、図4Dの例に示されるように、電子デバイス104は、ユーザの手の角度を再び判定し得る。場合によっては、電子デバイス104は、距離センサ302を使用して角度を判定する。例えば、示されているように、電子デバイス104の右側距離センサ302、後方右側距離センサ302、後方距離センサ302、後方左側距離センサ302、及び左側距離センサ302がユーザの手の第1の垂直距離を検出する場合があり、これは斜線で表され、一方、他の距離センサ302がユーザの手の第2の垂直距離を検出する。次いで、電子デバイス104は、第1の垂直距離が目標垂直距離(例えば、垂直範囲)の外側にある一方で、第2の垂直距離が目標垂直距離内にあると判定し得る。
このように、電子デバイス104は、視覚インジケータ108に、ユーザに対する命令を提供させることができる。図4Dの例では、視覚インジケータ108は、手の後方部分が電子デバイス104に近すぎることをユーザに示すことによって、命令を提供し得る。示されるように、視覚インジケータ108は、視覚インジケータ108の右側、後方右側、後方、後方左側、及び左側に位置する光放射体304に第1の色の光を放射させることによってそのような命令を提供してもよく、これは塗りつぶした灰色の丸で示されるが、他の全ての光放射体304に第2の色の光を放射させてもよく、これは塗りつぶした黒丸で示される。しかしながら、他の例では、視覚インジケータ108は、視覚インジケータ108の右側、後方右側、後方、後方左側、及び左側に位置する光放射体304に光の放射を控えさせる一方で、他の全ての光放射体304に光を放射させることによって、命令を提供してもよい。
図5A~5Bは、電子デバイス104が生体認証データをキャプチャできるように、手を配置するための目標場所の例を図示する。例えば、かつ図5Aの例に示されるように、電子デバイス104は、上部表面502及び撮像デバイス504を含む。電子デバイス104が画像データなどの生体認証データをキャプチャするために、ユーザは、撮像デバイス504上の、かつ目標水平場所に、手(例えば、手のひらの中心点)を配置する。目標水平場所は、x方向及びy方向の両方に関連付けられ得る。例えば、目標水平場所は、x方向の第1の線506とy方向の第2の線508との交差によって示される、撮像デバイス504の中心を含み得る。
場合によっては、電子デバイス104は、生体認証データをキャプチャするときに、手が目標水平場所に近接することを可能にし得る。例えば、電子デバイス104は、手が、目標水平場所の前方の第1の閾値距離510(例えば、目標水平場所から正のy方向に移動する)、目標水平場所の後方の第2の閾値距離512(例えば、目標水平場所から負のy方向に移動する)、目標水平場所の左側の第3の閾値距離514(例えば、目標水平場所から負のx方向に移動する)、及び/又は目標水平場所の右側の第4の閾値距離516(例えば、目標水平場所から正のx方向に移動する)にあることを可能にしてもよい。場合によっては、第1の閾値距離510、第2の閾値距離512、第3の閾値距離514、及び第4の閾値距離516は、同じ閾値距離を含んでもよい。場合によっては、第1の閾値距離510、第2の閾値距離512、第3の閾値距離514、及び第4の閾値距離516のうちの1つ以上は、異なる閾値距離を含んでもよい。本明細書に記載されるように、閾値距離は、5ミリメートル、10ミリメートル、20ミリメートル、及び/又は任意の他の距離を含んでもよいが、これらに限定されない。
加えて、図5Bの例に示されるように、電子デバイス104は、撮像デバイス504の上方の距離518(例えば、z方向)に位置する目標垂直距離を含んでよい。いくつかの例では、距離518は、85ミリメートルを含む。しかしながら、他の例では、距離518は、任意の他の距離を含んでもよい。場合によっては、電子デバイス104は、手が目標垂直距離に近接することを可能にし得る。例えば、電子デバイス104は、手が目標垂直距離の上方の第1の閾値距離520及び/又は目標垂直距離の下方の第2の閾値距離522であることを可能にしてもよい。場合によっては、第1の閾値距離520は、第2の閾値距離522と同じである。他の場合では、第1の閾値距離520は、第2の閾値距離522とは異なる。
図5Bの例に更に示されるように、電子デバイス104は、撮像デバイス504の上方の最小距離524と撮像デバイス504の上方の最大距離526との間でユーザの手を検出することができ得る。例えば、距離センサは、最小距離524と最大距離526との間で、手などの対象物を検出するように構成されてもよい。場合によっては、最小距離524は、5ミリメートル、10ミリメートル、20ミリメートル、及び/又は任意の他の距離を含んでもよいが、これらに限定されない。更に、最大距離526は、100ミリメートル、120ミリメートル、105ミリメートル、及び/又は任意の他の距離を含んでもよいが、これらに限定されない。
図5Cの例では、電子デバイス104は、撮像デバイス504の上方の円錐の体積形状などの体積形状528を含む目標場所を含んでよい。例えば、目標垂直距離は、依然として撮像デバイス504の上方の距離518に位置してよく、第1の閾値距離520及び第2の閾値距離522を含んでもよい。次いで、目標水平場所は、体積形状528内の、目標垂直距離内にある場所に位置してもよい。場合によっては、手のひらが目標場所内に位置する必要があり得る一方、他の例では、手全体が目標場所内に位置する必要があり得る。
図5Dの例では、電子デバイス104は、撮像デバイス504の上方の体積形状530を含む目標場所を含んでよい。例えば、目標垂直距離は、依然として撮像デバイス504の上方の距離518に位置してよく、第1の閾値距離520及び第2の閾値距離522を含んでもよい。次いで、目標水平場所は、体積形状530内の、目標垂直距離内にある場所に位置してもよい。場合によっては、手のひらが目標場所内に位置する必要があり得る一方、他の例では、手全体が目標場所内に位置する必要があり得る。
図6は、手602の手のひらの中心を識別するために手602を分析する例を示す。例えば、電子デバイス104は、手602を描写する画像604を表す画像データを生成してもよい。次いで、電子デバイス104は、画像データに対応する特徴データを生成することができ、特徴データは、手602に関連付けられた様々な属性を表す。様々な属性には、手602上に位置する点606~618を少なくとも含み得る。例えば、電子デバイス104は、手首の第1の端部に位置する点606と、第2の、手首の反対側の端部に位置する点608とを識別し得る。電子デバイス104は、更に、手の指602の基部に位置する点610~618を識別し得る。示されるように、点612~618は、指間の交わる部分に位置する。
点606~618を識別した後、電子デバイス104は、識別された点606~618の全てを含む境界ボックス620を生成し得る。境界ボックス620は、境界ボックス620の角を表す4つの追加の点622~628に関連付けられ得る。次いで、電子デバイス104は、境界ボックス620を使用して、手のひら602の中心点630を識別してもよい。例えば、電子デバイス104は、手のひらの中心点630が境界ボックス620の中心を含むと判定してよい。このように、いくつかの例では、手のひらの中心点630は、手602の水平場所に対応し得る。
場合によっては、本明細書に記載されるように、電子デバイス104は、画像604を使用して、手602に関連付けられた1つ以上の追加の属性を識別してもよい。例えば、手602はy方向に配向されているので、電子デバイス104は、手602の配向が満たされると判定してもよい。電子デバイス104は、手602がカップの形状、拳ではなく、かつ/又は手602がジェスチャを行っているため手602の平面形状が満たされると更に判定してもよい。むしろ、電子デバイス104が画像604を分析して属性を判定し得るように、手602は開いている。更に、電子デバイス104は、手602が電子デバイス104の撮像コンポーネントに平行であることを決定し得る。これは、撮像コンポーネントに対する手602の配向に基づいて、手のひら602が撮像コンポーネントに向けられているからであり得る。
図6の例は、点606~618を識別し、次いで点606~618を使用して手のひらの中心点を判定することを記載しているが、他の例では、電子デバイス104は、手602上の追加の点及び/又は代替の点を識別し、次いで追加の点及び/又は代替の点を使用して、手のひらの中心点630を識別してもよい。
図7は、ユーザの生体認証データをキャプチャするための電子デバイス104を含むマテリアルハンドリング施設702の例示的な環境700を示す。この例では、電子デバイス104は、ユーザ704の手のひらを描写する画像データを生成し、画像データを、ユーザ認識システムを使用するためにユーザ704を登録するために使用される1つ以上のバックエンドサーバ706に送信する。概して、ユーザ認識システムは、電子デバイス104及び/又はサーバ706を含み得る。
場合によっては、ユーザ認識システムの一部又は全ては、マテリアルハンドリング施設702から遠隔に常駐し、他の場合では、ユーザ認識システムの一部又は全ては、マテリアルハンドリング施設702内又はマテリアルハンドリング施設702に近接して常駐する。図7に描写されるように、ユーザ704は、マテリアルハンドリング施設702内の買い物セッションに関与していてもよく、又は関与しようとしていてもよい。例えば、ユーザ704は、在庫場所710(例えば、棚、通路など)から商品708を選び、商品708をトート712(例えば、ショッピングカート)に配置している場合がある。在庫場所710は、1つ以上の異なるタイプの商品708を収容し得、ユーザ704は、これらの商品708のうちの1つを選択する(すなわち、取る)ことができる。
示されるように、マテリアルハンドリング施設702(又は「施設」)は、示される撮像センサ714などの1つ以上のセンサ、及び/又は在庫場所710上又はその近くに位置する他のセンサのアレイを含んでもよい。この例では、撮像センサ714は、ユーザ704による商品708の選択などのイベントに関連付けられた結果を判定する際に使用するために、施設702内のビデオデータをキャプチャするように構成されている。図7は、様々な例示的なセンサを示しているが、施設702内のセンサは、以下で詳細に記載するように、重量センサ(例えば、ロードセル)、マイクロフォン、及び/又は同様のものなどの任意の他のタイプのセンサを含んでもよい。図13及び14に関してより詳細に記載されるように、施設702は、ユーザ704が購入したい商品708を取るなど、ユーザ704に関連付けられた施設702内のイベントを判定するように構成された在庫管理システムによって監視され得、かつ/又は別様に関連付けられ得る。在庫管理システムは、ユーザ704によって選ばれた商品708を追跡し、ユーザ704によって取られた全ての商品708を含む仮想ショッピングカートを維持し得る。したがって、ユーザ704が取った商品708を伴って施設702を離れたいとき、在庫管理システムは、取った商品708の費用について、ユーザ704に関連付けられたユーザアカウントに請求することができる。
図7に示すように、ユーザ704は、電子デバイス104に関連付けられたチェックアウト場所716に近づき得る。ユーザ704は、施設702のチェックアウトを行い、それらの商品708の支払いをするために、ユーザ認識システムの使用のために登録したいと決定してもよい。代替的又は追加的に、ユーザは、施設702に入ると、電子デバイス104と対話することができる。いずれの場合においても、ユーザ704は、ユーザ認識システムがユーザ704を識別するために使用可能なデータを収集することを望んでいることを決定し得る。このデータは、いったん登録されると、ユーザ704のユーザアカウントに商品708の購入を課金するために、ユーザ認識システムによって識別されるようにユーザ704が自身の手のひらをスキャンするだけでよいように、ユーザ認識システムによって利用されてもよい。
図7は、ユーザ認識システムの使用のため、及びユーザ認識システムが経時的にユーザ704の登録を更新するために、ユーザ704を登録するための技術を高レベルで記載する、例示的な登録プロセス718を示している。電子デバイス104は、サーバと同様に、登録プロセス718の技術の少なくとも一部分を実施するためのコンポーネントを含み得る。サーバ706のコンポーネントは、後続の図を参照して以下で更に詳細に記載される。例えば、電子デバイス104は、電子デバイス104のコンポーネントに電力を供給するように構成された1つ以上のプロセッサ720を備え得、更に、プロセッサ720によって少なくとも部分的に実行可能なコンポーネント並びに他のデータ724を記憶する、メモリ722を含み得る。例えば、メモリ722には、ユーザ704の存在を検出する存在検出コンポーネント726、ユーザ認識システムの使用のためにユーザ704を登録するための様々な動作を実施するように構成されたフロントエンド登録コンポーネント728、及び視覚インジケータ108を介してユーザ704に提供される命令を制御するように構成されたユーザインターフェースコンポーネント730が含まれてよい。
732において、フロントエンド登録コンポーネント728は、ユーザ認識システムの使用のためにユーザ704を登録する要求を受信し得る。要求には、登録プロセスを開始するためにI/Oインターフェース734(例えば、タッチスクリーン、マウス、キーボード、スピーカなど)を介して行われた選択など、様々なタイプの入力が含まれ得る。更に、フロントエンド登録コンポーネント728は、登録の要求を示すユーザ704からの発話(例えば、「私を登録してください」、「チェックアウトしたい」など)を検出し得る。別の要求例には、ユーザ704が、クレジットカード、運転免許証などのユーザIDカードを、I/Oインターフェース734にスライドさせることが含まれてもよい。ただし、要求として、任意のタイプの入力がフロントエンド登録コンポーネント728によって検出されてもよい。
いくつかの例では、登録プロセス718の736において、存在検出コンポーネント726は、ユーザ704の存在を示すトリガーを検出するためにプロセッサ720によって実行可能であり得る。存在検出コンポーネント726によって検出されたトリガーは、1つ以上のタイプの入力を備え得る。例えば、存在検出コンポーネント726は、1つ以上の撮像コンポーネント738(例えば、撮像デバイス504を表し得る)及び/又は1つ以上の距離コンポーネント740(例えば、距離センサ302を表し得る)を使用して、電子デバイス104上の又はそれに近接するユーザ704の手のひらを検出するためのロジックを含んでもよい。ユーザ704の存在を示し得る存在検出コンポーネント726によって検出されたトリガーの他の例には、電子デバイス104の1つ以上のI/Oインターフェース734を介してタッチ入力(又はマウスクリックなどの他の入力)を受信することが含まれ得る。ただし、任意のタイプの入力が、736で存在検出コンポーネント726によってトリガーとして検出されてもよい。いくつかの例では、736でトリガー検出が実施されなくてもよく、登録するための要求を受信することに含まれるか、又は登録するための要求を受信することと同じであってよい。
ユーザ704から登録する要求を受信した後、フロントエンド登録コンポーネント728は、742で、1つ以上の撮像コンポーネント738(例えば、カメラ)を使用して画像データ744の生成を開始し得る。例えば、フロントエンド登録コンポーネント728は、撮像コンポーネント738を利用して、画像若しくはピクチャ、連続した一連の画像、及び/又はビデオデータなどの画像データ744を取得し得る。画像データ744は、ユーザ704の手のひらを表し得、手のひらのしわ、手のひらの静脈、手のひら及び手の他の部分に関する幾何学的情報、若しくはユーザ704並びに/又は同様のものを識別するために使用されてもよい。場合によっては、画像データ744を取得している間に、ユーザインターフェースコンポーネント730は、電子デバイス104に、ユーザ704の手をどのように配置するかについての命令を提供させてもよい。フロントエンド登録コンポーネント728がユーザ704の手のひら又は他の部分を表す画像データ744を取得すると、電子デバイス104は、画像データ744を、1つ以上の通信インターフェース748を使用して1つ以上のネットワーク746を介してサーバ706に送信(例えば、アップロード、ストリーミングなど)し得る。
ネットワーク746は、組織若しくは個人のイントラネットなどのプライベートネットワーク、インターネットなどのパブリックネットワーク、又はそれらの組み合わせを含んでもよい。ネットワーク746は、有線技術(例えば、電線、光ファイバーケーブルなど)、無線技術(例えば、無線周波数、赤外線、音響、光学など)、又は他の接続技術を利用してもよい。ネットワーク746は、データネットワーク又は音声ネットワークのうちの1つ以上を含む、任意のタイプの通信ネットワークを表す。ネットワーク746は、有線インフラストラクチャ(例えば、銅ケーブル、光ファイバーケーブルなど)、無線インフラストラクチャ(例えば、セルラ、マイクロ波、衛星など)、又は他の接続技術を使用して実装されてよい。
通信インターフェース748は、パーソナルエリアネットワーク(PAN)、有線及び無線ローカルエリアネットワーク(LAN)、有線及び無線ワイドエリアネットワーク(WAN)などに結合するように構成されたデバイスを含み得る。例えば、通信インターフェース748は、イーサネット、Wi-Fi(商標)などと互換性のあるデバイスを含み得る。いくつかの例では、通信インターフェース748は、使用されているプロトコル又は規格のタイプに従って、ネットワーク746を介して送信する前に、電子デバイス104によって生成された画像データ744及び/又は他のデータ724(例えば、距離センサからの距離データ)を符号化してもよい。
画像データ744を受信すると、750において、バックエンドサーバ706の1つ以上のコンポーネントは、画像データ744を使用して特徴データを生成し得る。この特徴データは、ベクトル形態であってよく、手のひらを他のユーザの手のひらから区別するために使用され得るユーザの手のひらに関する特性を表し得る。この登録プロセス750は、特徴データを生成するサーバ706を記載するが、他の場合では、電子デバイス104が特徴データを生成するように構成されてもよく、画像データ744に加えて、又はむしろ画像データ744ではなく特徴データを、サーバに送信してもよいことを理解されたい。
752において、サーバ706の1つ以上のコンポーネントは、ユーザ704のユーザプロファイルに関連付けられた特徴データを登録データベースに記憶する。すなわち、この手のひら特徴データは、後続の画像データから生成される特徴データと比較されて、後に施設702におけるユーザ704、又はユーザ認識システムに関連付けられた他の施設を識別するように、記憶される。
例えば、754において、撮像コンポーネント738は、ユーザ704が後日、施設702に戻ったときなどに、ユーザ704の手のひらの追加の画像データ744を受信する。サーバ706が電子デバイス104から追加の画像データ744を受信した後、756において、サーバ706は、追加の画像データに基づいて追加の特徴データを生成し得る。この時点で、サーバ706の1つ以上のコンポーネントは、追加の画像データ744に関連付けられたユーザ704を識別する目的で、追加の特徴データを、それぞれのユーザプロファイルに記憶された特徴データと比較し得る。この例では、ユーザ認識システムは、756で生成された追加の特徴データを、750で生成され、かつユーザ704のユーザプロファイルと関連付けて記憶された特徴データと比較し、それにより、758でユーザプロファイルを識別する。場合によっては、ユーザプロファイルを識別することに加えて、ユーザ認識システムは次いで、追加の特徴データを、ユーザ704のユーザプロファイルに関連付けて、登録データベースに記憶してもよい。
図8は、ユーザ認識システムの機能の少なくとも一部分をサポートするように構成されたサーバ706のブロック図を含む例示的な環境800、並びにユーザ認識システムを使用するためにユーザ704を登録するためのシステム内の例示的なデータの流れを示す。
示されるように、環境800は、クライアント側802及びサーバ側804を含む。ただし、これは単なる例示であり、技術のうちのいくつか又は全ては、クライアント側802上で完全に、又はサーバ側804上で完全に実施され得る。「1」において、フロントエンド登録コンポーネント728は、ユーザ認識システムの使用のためにユーザ704を登録する要求を受信し得る。例えば、要求は、登録プロセスを開始するために表示部に提示されたユーザインターフェース要素のI/Oインターフェース734(例えば、タッチスクリーン、マウス、キーボードなど)を介して行われた選択など、様々なタイプの入力を含み得る。更に、フロントエンド登録コンポーネント728は、登録の要求を示すユーザ704からの発話(例えば、「私を登録してください」、「チェックアウトしたい」など)を検出し得る。別の要求例には、ユーザ704が、クレジットカード、運転免許証などのユーザIDカードを、I/Oインターフェース734にスライドさせることが含まれてもよい。ただし、要求として、任意のタイプの入力がフロントエンド登録コンポーネント728によって検出されてもよい。
登録の要求を受信すると、フロントエンド登録コンポーネント728は、撮像コンポーネント738を作動させるか又は別様に利用して、ユーザ704の手のひらを表す画像データ744を生成し得る。次いで、「2」において、電子デバイス104は、画像データ744をキャプチャし、「3」において、画像データ744をサーバ706に送信する。例えば、電子デバイス104は、ネットワーク746を介して画像データ744を符号化し、サーバ706に送信してもよい。更に、場合によっては、一部の画像は、焦点が合っていない場合や、ユーザの手のひらの特性の閾値レベルの識別性を有さない場合などには削除され得る。この削除は、クライアント側802及び/又はサーバ側804で行われ得る。
「4」において、サーバ706は画像データを受信し、「5」において、手のひら識別コンポーネント808の手のひら特徴生成コンポーネント806は、画像データ744から手のひら特徴データを抽出し得る。いくつかの例では、手のひら特徴データを抽出する前に、手のひら特徴生成コンポーネント806は、手のひら特徴データを抽出する前に画像データ744を処理するための様々な動作を実施し得る。例えば、手のひら特徴生成コンポーネント806は、最初にユーザ検出を実施して、画像データ744がユーザ704の手のひらを表すと判定してもよい。例えば、手のひら特徴生成コンポーネント806は、ハードウェアベースのユーザ検出技術を実施する統合センサプロセッサ(ISP、Integrated Sensor Processor)を利用してもよい。いくつかの例では、様々なソフトウェア技術が追加的又は代替的に実施され得る。いずれの場合においても、境界ボックスは、ユーザ704の少なくとも一部分を描写し、かつ画像データ744によって表される画像について、ユーザ704の検出された手の周りに出力され得る。更に、手のひら特徴生成コンポーネント806は、ユーザ704の手のひらを共通の座標系と位置合わせするために、手の姿勢推定を実施してもよい。手の画像を共通の座標部に位置合わせした後、手のひらに対応する画像データの一部分を識別してトリミングしてもよい。その後、画像データのこの残りの部分を使用して、例えば、画像データのトリミング部位上でニューラルネットワークを実行することによって、それらの残りの部分から特徴を抽出してもよい。いくつかの例では、手の姿勢推定は、ユーザ704の手のひらを表す特徴の抽出を改善し得る。ユーザ704の手が位置合わせされると、手のひら特徴生成コンポーネント806は、画像データ744から特徴(例えば、手のひら特徴データ)を抽出し得る。いくつかの例では、訓練されたモデルは、画像データ744をメトリック空間内の特徴埋め込み(例えば、手のひら特徴データ)に変換するトリプル損失関数を利用し得、これは、例えば、二乗距離計算を使用して、後続の特徴ベクトルとの比較を可能にし得る。
「6」において、手のひら特徴集約コンポーネント810は、様々な画像データ744から特徴データ(例えば、手のひら特徴データ)を集約し得る。例えば、画像データ744は、異なる角度で、異なる照明条件下で、又は他の異なる特性でユーザ704の手を表すことができる。手のひら特徴集約コンポーネント810は、特徴ベクトルを平均化することなどにより、手のひら特徴データを一緒に集約し得る。
「7」において、品質チェックコンポーネント812は、手のひら特徴データに対して品質チェックを実施し得る。例えば、品質チェックコンポーネント812は、訓練されたモデルを利用して、抽出された手のひら特徴データの品質の全体的なメトリックを判定してもよい。全体的なメトリックが貧弱である場合、又は閾値の品質レベル未満である場合、ユーザ認識システムは、追加の画像データ744を取得することを要求してもよい。追加的又は代替的に、品質チェックコンポーネント812は、手のひら特徴データに関連付けられたユーザが既にシステムに登録されていないことを確実にするために、重複排除(de-duping)プロセスを実施し得る。全体的な品質メトリックが良好であるか又は許容される場合、及び重複排除プロセスがユーザが以前にシステムに登録したことを明らかにしない場合、バックエンド登録コンポーネント814は、「8」においてデータを集約し得る。
例えば、「8」において、バックエンド登録コンポーネント814は、手のひら特徴データを集約し、「9」において登録データベース816にユーザを登録し得る。バックエンド登録コンポーネント814は、ユーザ認識システムの使用のために登録されることを要求するユーザ704の、ユーザプロファイルと手のひら特徴データと間の関連付け(例えば、マッピング)を記憶し得る。
図9は、ユーザ認識システムの機能の少なくとも一部分をサポートするように構成されたサーバ706のブロック図を含む例示的な環境900、並びにユーザ認識システムのユーザ704を識別し、潜在的にはユーザの登録を更新するためのシステム内の例示的なデータの流れを示す。示されるように、環境900は、クライアント側902及びサーバ側904を含む。ただし、これは単なる例示であり、技術のうちのいくつか又は全ては、クライアント側902上で完全に、又はサーバ側904上で完全に実施され得る。
「1」において、ユーザは、ユーザ認識システムでのサインインを要求する。例えば、存在検出コンポーネント726は、ユーザ704の存在を示すトリガーを検出するためにプロセッサ720によって実行可能であり得る。存在検出コンポーネント726によって検出されたトリガーは、1つ以上のタイプの入力を備え得る。例えば、存在検出コンポーネント726は、1つ以上の撮像コンポーネント738を使用してユーザ704の一部分(例えば、電子デバイス104の撮像コンポーネント738上の手)を検出するための、ロジックを含み得る。ユーザ704の存在を示し得る存在検出コンポーネント726によって検出されたトリガーの他の例には、電子デバイス104の1つ以上のI/Oインターフェース734を介してタッチ入力(又はマウスクリックなどの他の入力)を受信することが含まれ得る。ただし、任意のタイプの入力が、存在検出コンポーネント726によってトリガーとして検出されてもよい。
ユーザからのサインイン要求を識別すると、「2」において、1つ以上の撮像コンポーネント738は、ユーザ704の手のひら及び/又はユーザの別の部分を表す画像データ744を生成し得る。「3」において、電子デバイス104は、画像データ744をサーバ706に送信し得る。例えば、電子デバイス104は、ネットワーク746を介して画像データ744を符号化し、サーバ706に送信してもよい。ここでも、一部の画像データ744は、焦点が合っていない、閾値未満の識別性を有する、及び/又は同様のことに基づいて破棄されてもよい。
「4」において、サーバは画像データ744を受信し得、「5」において、手のひら特徴生成コンポーネント806は、画像データ744から手のひら特徴データを抽出し得る。いくつかの例では、手のひら特徴データを抽出する前に、手のひら特徴生成コンポーネント806は、手のひら特徴データを抽出する前に画像データ744を処理するための様々な動作を実施し得る。例えば、手のひら特徴生成コンポーネント806は、最初に手のひら検出を実施して、画像データ744がユーザ704の手を表すことを判定してもよい。例えば、手のひら特徴生成コンポーネント806は、ハードウェアベースのユーザ検出技術を実施する統合センサプロセッサ(ISP)を利用してもよい。いくつかの例では、様々なソフトウェア技術が追加的又は代替的に実施され得る。いずれの場合においても、境界ボックスは、ユーザ704を描写し、かつ画像データ744によって表される画像について、ユーザ704の検出された手の周りに出力され得る。更に、手のひら特徴生成コンポーネント806は、手の姿勢推定を実施して、ユーザ704の顔を共通の座標系と位置合わせしてもよい。いくつかの例では、手の姿勢推定は、ユーザ704の手を表す特徴の抽出を改善し得る。ユーザ704の手が位置合わせされると、手のひら特徴生成コンポーネント806は、画像データ744から特徴(例えば、手のひら特徴データ)を抽出し得る。いくつかの例では、訓練されたモデルは、画像データ744をメトリック空間内の特徴埋め込み(例えば、手のひら特徴データ)に変換するトリプル損失関数を利用し得、これは、例えば、二乗距離計算を使用して、後続の特徴ベクトルとの比較を可能にし得る。
「6」において、手のひら特徴集約コンポーネント810は、様々な画像データ744から特徴データ(例えば、手のひら特徴データ)を集約し得る。例えば、画像データ744は、異なる角度で、異なる照明条件下で、又は他の異なる特性でユーザ704の手を表すことができる。手のひら特徴集約コンポーネント810は、特徴ベクトルを平均化することなどにより、手のひら特徴データを一緒に集約し得る。
「7」において、手のひら特徴対応コンポーネント906は、画像データ744に関連付けられた集約された特徴と、それぞれのユーザプロファイルに関連付けられて記憶されたそれぞれの特徴データとの間の類似性を示す1つ以上のスコアを生成し得る。いくつかの例では、これらの対応するスコアは、少なくとも部分的に、画像データに関連付けられた特徴ベクトルと、登録データベース816内のユーザプロファイルに関連付けられて記憶されたそれぞれの手のひら特徴データのそれぞれの特徴ベクトルとの間の「距離」に基づいて判定されてもよい。
「8」において、個人情報判定コンポーネント908は、対応するスコアに基づいて、ユーザの個人情報を判定し得る。例えば、個人情報判定コンポーネント908は、画像データ744に関連付けられた特徴ベクトルに最も近い距離を有する特徴ベクトルに関連付けられたユーザプロファイルを識別してもよく、関連付けられたユーザを、画像データ744に関連付けられたユーザと見なしてもよい。
「9」において、場合によっては、登録更新コンポーネント910は、画像データに関連付けられた最近受信された手のひら特徴データを使用して、識別されたユーザの登録を更新し得る。例えば、登録更新コンポーネント910は、登録データの更新をもたらす事前定義されたイベントの発生を検出してもよい。これには、画像データ744に関連付けられた施設で発生するトランザクションの特性(例えば、費用又は商品の数)に基づいて、現在の特徴データとユーザプロファイルに関連付けられた以前の特徴データとの間の変化量の閾値に基づいて、プロファイリングされたユーザに関連付けられたユーザからの明示的な要求に基づいて、及び/又は同様のものに基づいて、最新又は最も古い特徴データがプロファイルに関連付けられてから経過した事前定義された時間量が含まれ得る。場合によっては、事前定義されたイベントは、受信した手のひら特徴データが、以前に考察された高い閾値信頼レベルよりも大きい信頼レベルを有する識別されたユーザに対応することを判定する監査コンポーネントを含んでもよい。すなわち、ステップ「7」~「8」を参照して記載される認識プロセスは、登録データを参照して実施され得るが、監査コンポーネントは、登録データ及び以前の認識試行に関連付けられた画像及び/又は特徴データの両方を使用して信頼レベルを判定してもよい。その後、監査コンポーネントが比較的高い信頼レベルよりも大きい信頼レベルを計算する場合、登録更新コンポーネント910は、識別されたユーザの登録データを更新することを決定し得る。
「10」において、登録更新コンポーネント910は、登録データベース816内の対応するユーザプロファイルに関連付けられた登録データを更新する。上述したように、これは、特徴データ及び/又は画像データを、プロファイルに関連付けられた既存の特徴データ及び/又は画像データとともに記憶すること、既存の特徴データを新しい特徴データと平均化すること、及び/又は同様のことを含んでもよい。
図10は、ユーザ認識システムの機能の少なくとも一部分をサポートするように構成された電子デバイス104の例示的なコンポーネントを示す。いくつかの例では、本明細書に記載されるユーザ認識システムは、サーバ706と併せて電子デバイス104によって完全に、又は少なくとも部分的にサポートされ得る。サーバ104は、1つ以上の記憶された命令を実行するように構成された1つ以上のハードウェアプロセッサ720(プロセッサ)を含み得る。プロセッサ720は、1つ以上のコアを含み得る。電子デバイス104は、プロセッサ720、又は電子デバイス104の他の部分が他のデバイスと通信することを可能にするための1つ以上の入力/出力(I/O)インターフェース734を含み得る。I/Oインターフェース734は、インターインテグレイテッドサーキッツ(I2C)、シリアルペリフェラルインターフェースバス(SPI)、USB Implementers Forumによって配布されたユニバーサルシリアルバス(USB)、RS-232などを含み得る。
サーバ104はまた、1つ以上の通信インターフェース748を含み得る。通信インターフェース748は、電子デバイス104と、サーバ706、インターフェースデバイス、ルータなどの他のデバイスとの間の通信を提供するように構成されている。通信インターフェース748は、パーソナルエリアネットワーク(PAN)、有線及び無線ローカルエリアネットワーク(LAN)、有線及び無線ワイドエリアネットワーク(WAN)などに結合するように構成されたデバイスを含み得る。例えば、通信インターフェース308は、イーサネット、Wi-Fi(商標)などと互換性のあるデバイスを含み得る。
電子デバイス104は、1つ以上の距離コンポーネント740を更に含み得る。距離コンポーネント740は、限定されないが、IRセンサ、LIDARセンサ、及び/又は対象物の距離を検出し得る任意の他のタイプのセンサを含み得る。
電子デバイス104はまた、電子デバイス104の様々なモジュールとコンポーネントとの間のデータの転送を可能にする1つ以上のバス又は他の内部通信ハードウェア若しくはソフトウェアを含み得る。
図10に示すように、電子デバイス104は、1つ以上のメモリ722を含む。このメモリ722は、1つ以上のコンピュータ可読記憶媒体(CRSM)を含む。このCRSMは、電子記憶媒体、磁気記憶媒体、光学記憶媒体、量子記憶媒体、機械的コンピュータ記憶媒体などのうちのいずれか1つ以上であってもよい。メモリ722は、電子デバイス104の動作のためのコンピュータ可読命令、データ構造、プログラムモジュール、及び他のデータの記憶装置を提供する。いくつかの例示的な機能モジュールが、メモリ722内に記憶されて示されているが、同じ機能性は、代替的に、ハードウェア、ファームウェアで、又はシステムオンチップ(SOC)として実装され得る。
メモリ722は、少なくとも1つのオペレーティングシステム(OS)1004を含み得る。OS1004は、I/Oインターフェース734、撮像センサ714、視覚インジケータ108、及び距離コンポーネント740などのハードウェアリソースデバイスを管理し、プロセッサ720上で実行されるアプリケーション又はモジュールに様々なサービスを提供するように構成されている。OS1004は、FreeBSDプロジェクトによって配布されたFreeBSD(商標)オペレーティングシステムの変形例、他のUNIX(登録商標)又はUNIX(登録商標)のような変形例、Linus Torvaldsによって配布されたLinux(登録商標)オペレーティングシステムの変形例、Redmond,Washington,USAのMicrosoft CorporationからのWindows(登録商標)サーバオペレーティングシステムなどを実装し得る。
以下のコンポーネントのうちの1つ以上はまた、メモリ722内に記憶され得る。これらのモジュールは、フォアグラウンドアプリケーション、バックグラウンドタスク、デーモンなどとして実行され得る。
通信コンポーネント1006は、サーバ706及び/又は他のデバイスとの通信を確立するように構成されてもよい。これらの通信は、認証、暗号化などされ得る。
登録コンポーネント1008は、(例えば、バックエンド登録コンポーネント814と同様に)ユーザ認識システムの使用のためにユーザを登録するための様々な動作を実施するように構成されていてよい。例えば、登録コンポーネント1008は、ユーザ認識システムにユーザを登録するために、様々な動作を実施してもよく、かつ/又は他のコンポーネントに様々な動作を実施させてもよい。場合によっては、登録コンポーネント1008は、ユーザの手のひら又は他の部分を描写する画像データ744を分析するための動作を実施する、手のひら識別コンポーネント1010を少なくとも部分的に制御し得る。いくつかの例では、登録コンポーネント1008は、手のひら識別コンポーネント1010に、画像データ744を分析させ、手のひら特徴データ1012などのユーザの手のひらを表す特徴を抽出させ得る。
手のひら特徴データ1012を取得、判定、及び/又は生成した後、登録コンポーネント1008は、ユーザがユーザ認識システムの使用のために登録されていることを示す登録データベース1014にユーザを登録してもよい。いくつかの例では、登録コンポーネント1008は、様々なデータをユーザに関連付けられたユーザプロファイル/アカウント1016に関連付けるか又はマッピングし得る。例えば、登録コンポーネント1008は、各登録ユーザについて、それぞれの手のひら特徴データ1012を、登録データベース1014内の対応するユーザプロファイル1016にマッピングしてもよい。したがって、登録データベース1014は、ユーザプロファイル1016の指標、並びにユーザプロファイル1016の各々に関連付けられたユーザについてのデータを記憶してもよい。ユーザがユーザ認識システムの使用のために登録されるとき、登録コンポーネント1008は、ユーザの手のひら特徴データ1012とそのユーザについてのユーザプロファイル1016との間の関連付けをマッピング又は記憶してもよい。
更に、登録コンポーネント1008は、訓練コンポーネント1018に1つ以上の訓練されたモデル1020を訓練させ得る。訓練コンポーネント1018は、手のひら特徴データ1012を利用して、訓練されたモデル1020を訓練し、画像データ744から手のひら特徴データ1012を抽出及び/又は生成するための様々な動作を実施し得る。訓練されたモデル1020には、人工ニューラルネットワーク、分類子、決定木、サポートベクトルマシン、Bayesianネットワークなどを含むがこれらに限定されない、機械学習モデルなどの任意のタイプのモデルが含まれ得る。
具体例として、訓練されたモデル1020は、入力として受信された画像データ744を分析し、ユーザの手のひらを表す手のひら特徴データ1012を抽出、判定、識別、生成などするように訓練された、1つ以上の畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク、及び/若しくは任意の他の人工ネットワークを含むか又は構成してもよい。具体例として、手のひら特徴データ1012は、ユーザの手のひらを表す128次元特徴ベクトルを含み得る。訓練されたモデル1020が1つ以上のCNNを含む例では、様々な機能を利用して、画像データ744をトリプレット損失関数などのメトリック空間に変換してもよい。したがって、訓練コンポーネント1018は、入力された画像データ744から手のひら特徴データ1012を抽出、識別、又は別様に判定するために、トリプレット損失関数などの様々な機能を使用して、訓練されたモデル1020のCNNを訓練してもよい。メトリクス空間に入ると、抽出された特徴データは、抽出された特徴データと登録データベース1014に記憶された特徴データとの間の距離を計算することによって比較又はマッチングされてもよい。例えば、訓練されたモデル1020によって、特徴データが画像データ744から手のひら特徴データ1012に抽出されると、次いで、抽出された手のひら特徴データ1012が登録データベース1014に記憶されたデータと比較されて、入力画像データ744で表されるユーザのユーザプロファイルを識別し得る。例えば、抽出された手のひら特徴データ1012は、記憶されたどのベクトルが抽出された特徴データ間の最小の「距離」を有するかを識別するために、登録データベース1014内の記憶されたベクトルと比較されるベクトルを含み得る。この距離が小さいほど、抽出された特徴データと、ユーザ認識システムの使用のために登録されているユーザを表す記憶された特徴データとの間の対応関係の強度が近くなる。いくつかの例では、訓練されたモデル1020によって利用されるネットワークに応じて、2つのベクトル間の角度の余弦を求めるなど、他の計算が実施されてもよい。ただし、任意のタイプのモデルが、訓練されたモデル1020のために利用されてもよい。
手のひら識別コンポーネント1010は、様々な動作を実施するための様々なサブコンポーネントを含んでもよい。例えば、手のひら識別コンポーネント1010は、画像データ744から特徴データを抽出又は別様に生成するための手のひら特徴生成コンポーネント1022を含み得る(例えば、手のひら特徴生成コンポーネント806に類似している)。手のひら特徴生成コンポーネント1010は、任意のタイプの特徴抽出方法、又は埋め込みを実施して、画像データ744を分析し、手のひら特徴データ1012を抽出するために、訓練されたモデル1020を利用してもよく、かつ/又はアルゴリズムを含んでもよい。例えば、手のひら特徴生成コンポーネント1022は、クラスタリング、人工ニューラルネットワーク、スケール不変特徴変換、エッジ検出、又は任意の他のタイプの抽出若しくは埋め込み技術などの最先端モデルを利用して、画像データ744から手のひら特徴データ1012を抽出し得る。
手のひら識別コンポーネント1010は、ユーザの特徴データを集約するように構成された、手のひら特徴集約コンポーネント1024を更に含んでもよい(例えば、手のひら特徴集約コンポーネント810に類似している)。例えば、手のひら特徴集約コンポーネント1024は、手のひら特徴データ1012における特徴を平均化するなどして、ユーザを描写する画像のグループから抽出された手のひら特徴データ1012を組み合わせてもよい。
ユーザがユーザ認識システムの使用のために登録されると、個人情報判定コンポーネント1026を利用して、電子デバイス104と対話したユーザの個人情報を判定及び/又は検証することができる。例えば、電子デバイス104は、画像データ744及び個人情報判定コンポーネント1026(個人情報判定コンポーネント908に類似し得る)を使用して、ユーザの個人情報を判定してもよく、ここで、登録データベース1014は、例えば、そのユーザの個人情報に関連付けられたユーザプロファイル1016を示すことによって、ユーザの個人情報を示す。
個人情報判定コンポーネント1026は、受信した画像データ744に手のひらが描写されているユーザを判定又は識別するための様々な動作を、手のひら特徴対応コンポーネント1028に実施させてもよい。例えば、手のひら特徴対応コンポーネント1028は、それぞれの手のひら特徴データ1012が抽出された手のひら特徴データ1012に対応する1人以上のユーザのユーザプロファイル1016を決定するために、受信された画像データ744の手のひら特徴データ1012を、ユーザ認識システムに登録されたユーザの異なるユーザプロファイル1016に関して登録データベース1014に記憶された手のひら特徴データ1012と比較してもよい。場合によっては、手のひら特徴対応コンポーネント1028によって計算されたスコアが閾値と比較され得、スコアが閾値よりも大きい場合、ユーザの識別をもたらし得る。複数のユーザプロファイルが閾値よりも大きいスコアに関連付けられている場合、最も高いスコアに関連付けられたユーザプロファイルが、画像データ744に関連付けられていると見なされてもよく、かつ/又は適切なユーザを識別するために更なる分析が実施されてもよい。更に、場合によっては、ユーザ認識システムは、初期比較に基づいて、それぞれの手のひら特徴データ1012が抽出された手のひら特徴データ1012に最も強く対応するユーザのユーザプロファイル1016のトップ「N」個のグループを識別するために、セット削減技術を採用し得る。いくつかの例では、単一のユーザプロファイル1016が、入力された手のひら特徴データ1012に対応するものとして判定され得る。しかしながら、いくつかの例では、トップ「N」個の候補のグループは、訓練されたモデル1020によって、抽出された手のひら特徴データ1012に対する強度の閾値量(例えば、50%対応、105%対応など)に対応するものとして識別されてもよい。次いで、第2のレベルのより深い分析を実施して、「N」個の候補から単一のユーザを識別してもよい。
更に、メモリ722は、古い特徴データの削除及びより最近の特徴データの使用を可能にするために、ユーザプロファイルと関連付けて記憶された手のひら特徴データ1012を更新するように構成された登録更新コンポーネント1030を記憶してもよい(例えば、登録更新コンポーネント910と類似している)。上で紹介したように、ユーザが経時的にユーザの手のひらの画像データを提供すると、登録更新コンポーネント1030は、この新しい画像データからの特徴データを使用して、ユーザに関連付けられた追加の特徴データを生成し、記憶してもよい。更に、登録更新コンポーネント1030は、より古い特徴データに関連付けられた重みを削除又は軽減し得る。
加えて、メモリ722は、1つ以上の事前定義されたイベントの発生に応答して、1つ以上の監査プロセスを実施するように構成された監査コンポーネント1032を記憶してもよい。例えば、監査コンポーネント1032は、システムによって以前に行われたエラーを識別するために、それぞれのユーザプロファイルに関連付けられた手のひら特徴データを互いに豊富に比較することを含む夜間監査プロセスを実施してもよい。エラーを識別した後、システムはエラーを補正してもよく、また、この情報を使用して、登録コンポーネント1008によって実施されるものと同様の技術を利用して、訓練されたモデル1020を更に訓練してもよい。
更に、メモリ722は、抽出された手のひら特徴データ1012の品質の全体的なメトリックを決定する品質チェックコンポーネント1034を記憶してもよい。例えば、品質チェックコンポーネント1034は、様々な理由からユーザに関する追加の画像データ744を取得する必要があると判定し得る。
また、メモリ722は、電子デバイス104(及び/又は電子デバイス104の撮像コンポーネント)に対する手の場所を判定するように構成された場所検出コンポーネント1036を記憶してもよい。例えば、本明細書に記載されるように、場所検出コンポーネント1036は、手に位置する1つ以上の点を判定し得る。次に、場所検出コンポーネント1036は、1つ以上の点を使用して、電子デバイス104に対する手のひらの中心を識別し得る。場合によっては、場所検出コンポーネント1036は、所与の時間間隔で手の場所を判定する。例えば、場所検出コンポーネント1036は、ミリ秒、秒、及び/又は同様の時間ごとにユーザの手の場所を判定してもよい。いくつかの例では、場所検出コンポーネント1036は、画像データ744によって表される各フレーム、画像データ744によって表される1つおきのフレーム、画像データ744によって表される5つおきのフレーム、及び/又は同様のものを使用して、ユーザの手の場所を判定する。
メモリ722はまた、本明細書に記載のユーザインターフェースを生成及び/又は更新するように構成されたユーザインターフェースコンポーネント730を記憶してもよい。例えば、手が検出されると、ユーザインターフェースコンポーネント730は、視覚インジケータ108に手を配置するための命令を出力させてもよい。次に、ユーザインターフェースコンポーネント730は、場所検出コンポーネント1036によって判定された場所を使用して、手の現在の場所を示す視覚インジケータ108を提示及び/又は更新してもよい。場所検出コンポーネント1036が、手の場所が目標場所に近接していると判定すると、ユーザインターフェースコンポーネント730は、視覚インジケータ108に、電子デバイス104が生体認証データをキャプチャしたことを示すようにさせてもよい。
図11A~12は、生体認証データの入力に関連付けられた命令を提供するための様々なプロセスを示す。本明細書に説明されるプロセスは、動作のシーケンスを表す論理フロー図内のブロックの集合として例示され、それらの一部又は全部は、ハードウェア、ソフトウェア、又はそれらの組み合わせで実装され得る。ソフトウェアの文脈では、ブロックは、1つ以上のプロセッサによって実行されたときに、列挙される動作を実施するようにプロセッサをプログラムする、1つ以上のコンピュータ可読媒体に記憶されたコンピュータ実行可能命令を表し得る。一般に、コンピュータ実行可能命令は、特定の機能を実施するか、又は特定のデータ型を実装する、ルーチン、プログラム、対象物、コンポーネント、データ構造などを含む。ブロックが説明される順序は、特に明記されない限り、限定的に解釈されるべきではない。任意の数の説明されたブロックは、プロセス、又は代替的なプロセスを実装するために任意の順序で及び/又は並列に組み合わせられてもよく、全てのブロックが実行される必要はない。
図11A~11Bは、電子デバイス104に対する目標場所に手を配置することに関連付けられた命令を提供するための、例示的なプロセス1100のフロー図を示す。1102において、プロセス1100は、第1の距離センサを使用して第1のセンサデータを生成することを含み得、1104において、プロセス1100は、第1のセンサデータを分析して、第1の距離センサが電子デバイスの第1の部分上で手を検出したことを判定することを含み得る。例えば、電子デバイス104は、第1の距離センサを使用して第1のセンサデータを生成し得る。第1の距離センサは、電子デバイスの第1の部分に関連付けられ得る。次に、電子デバイス104は、第1のセンサデータを分析して、第1の距離センサが手を検出したことを判定し得る。このように、電子デバイス104は、手が電子デバイスの第1の部分上に位置していることを判定することができる。
1106において、プロセス1100は、第2の距離センサを使用して第2のセンサデータを生成することを含み得、1108において、プロセス1100は、第2のセンサデータを分析して、第2の距離センサが電子デバイスの第2の部分上で手を検出しなかったことを判定することを含み得る。例えば、電子デバイス104は、第2の距離センサを使用して第2のセンサデータを生成し得る。第2の距離センサは、電子デバイスの第2の部分に関連付けられ得る。次に、電子デバイス104は、第2のセンサデータを分析して、第2の距離センサが手ではなかったことを判定し得る。このように、電子デバイス104は、手が電子デバイスの第2の部分上に位置していないことを判定することができる。
1110において、プロセス1100は、視覚インジケータの第1の部分に、手が電子デバイスの第1の部分上で検出されたことを示させることを含み得る。例えば、第1の距離センサが手を検出することに基づいて、電子デバイス104は、第1の時間に、視覚インジケータの第1の部分に、手が電子デバイス104の第1の部分上で検出されたという第1の指標を出力させ得る。視覚インジケータの第1の部分は、視覚インジケータの第1の部分が、手が第1の距離センサによって検出されるときに指標を提供するように、第1の距離センサに関連付けられてもよい。視覚インジケータが光放射体(例えば、光リング)を含むときなど、場合によっては、第1の指標は、視覚インジケータの第1の部分に位置する光放射体のうちの1つ以上を使用して光を放射することを含む。視覚インジケータが表示部を含むときなど、場合によっては、第1の視覚的指標は、表示部の第1の部分に第1の指標を提示させることを含む。
1112において、プロセス1100は、視覚インジケータの第2の部分に、手が電子デバイスの第2の部分上で検出されなかったことを示させることを含み得る。例えば、第2の距離センサが手を検出しないことに基づいて、電子デバイス104は、第1の時間に、視覚インジケータの第2の部分に、手が電子デバイス104の第2の部分上で検出されなかったことを示させ得る。視覚インジケータの第2の部分は、視覚インジケータの第2の部分が、手が第2の距離センサによって検出されるときに指標を提供するように、第2の距離センサに関連付けられてもよい。視覚インジケータが光放射体を含むときなど、場合によっては、視覚インジケータの第2の部分に関連付けられた光放射体のうちの1つ以上は、光の放射を控え得る。視覚インジケータが表示部を含むときなど、場合によっては、表示部の第2の部分はコンテンツの提示を控え得る。
1114において、プロセス1100は、第1の距離センサを使用して第3のセンサデータを生成することを含み得、1116において、プロセス1100は、第3のセンサデータを分析して、第1の距離センサが電子デバイスの第1の部分上で手を検出したことを判定することを含み得る。例えば、電子デバイス104は、第1の距離センサを使用して第3のセンサデータを生成し得る。次に、電子デバイス104は、第3のセンサデータを分析して、第1の距離センサが手を検出したことを判定し得る。このように、電子デバイス104は、手が電子デバイスの第1の部分上に依然として位置していることを判定することができる。
1118において、プロセス1100は、第2の距離センサを使用して第4のセンサデータを生成することを含み得、1120において、プロセス1100は、第4のセンサデータを分析して、第2の距離センサが電子デバイスの第2の部分上で手を検出したことを判定することを含み得る。例えば、電子デバイス104は、第2の距離センサを使用して第4のセンサデータを生成し得る。次に、電子デバイス104は、第4のセンサデータを分析して、第2の距離センサが手を検出したことを判定し得る。このように、電子デバイス104は、手が電子デバイスの第2の部分上に位置していることを判定することができる。
1122において、プロセス1100は、視覚インジケータの第1の部分に、手が電子デバイスの第1の部分上で検出されたことを示させることを含み得る。例えば、第1の距離センサが再び手を検出することに基づいて、電子デバイス104は、第2の時間に、視覚インジケータの第1の部分に、手が電子デバイス104の第1の部分上で検出されたという第2の指標を出力させ得る。視覚インジケータが光放射体を含むときなど、場合によっては、第2の指標は、視覚インジケータの第1の部分に位置する光放射体のうちの1つ以上を使用して光を放射することを含む。視覚インジケータが表示部を含むときなど、場合によっては、第2の視覚的指標は、表示部の第1の部分に第2の指標を提示させることを含む。
1124において、プロセス1100は、視覚インジケータの第2の部分に、手が電子デバイスの第2の部分上で検出されたことを示させることを含み得る。例えば、第2の距離センサが手を検出することに基づいて、電子デバイス104は、第2の時間に、視覚インジケータの第2の部分に、手が電子デバイス104の第2の部分上で検出されたという第3の指標を出力させ得る。視覚インジケータが光放射体を含むときなど、場合によっては、第3の指標は、視覚インジケータの第2の部分に位置する光放射体のうちの1つ以上を使用して光を放射することを含む。視覚インジケータが表示部を含むときなど、場合によっては、第3の視覚的指標は、表示部の第2の部分に第3の指標を提示させることを含む。
1126において、プロセス1100は、撮像デバイスを使用して画像データを生成することを含み得、1128において、プロセス1100は、画像データに少なくとも部分的に基づいてアカウントを識別することを含み得る。例えば、手が電子デバイス104に対して目標場所に来ると(例えば、第1の距離センサ及び第2の距離センサが手を検出すると)、電子デバイス104は、画像データを生成し得る。次に、電子デバイス104は、画像データを分析してアカウントを識別し得る。例えば、電子デバイス104は、ユーザプロファイルと関連付けて記憶された特徴データを参照して、画像データに対応する特徴データを分析し得る。分析に基づいて、電子デバイス104は、画像データに対応する特徴データと、ユーザプロファイルに関連付けられた特徴データとの間のマッチングを識別し得る。電子デバイス104は、このマッチングを使用してユーザプロファイルを識別してもよい。
図12は、電子デバイス104に対する目標場所にユーザの一部分を配置することに関連付けられた命令を提供するための、例示的なプロセス1200のフロー図を示す。1202において、プロセス1200は、1つ以上のセンサを使用してセンサデータを生成することを含み得、1204において、プロセス1200は、センサデータに少なくとも部分的に基づいて、ユーザの一部分の場所及び角度を判定することを含み得る。例えば、電子デバイス104は、1つ以上の距離センサ及び/又は1つ以上の撮像デバイスを使用してセンサデータを生成し得る。次に、電子デバイス104は、センサデータを分析して、ユーザの一部分が電子デバイス104に対する場所に位置していることを判定し得る。センサデータが1つ以上の距離センサを使用して生成されるときなど、場合によっては、電子デバイス104は、ユーザの一部分を検出した距離センサに基づいて場所を判定してもよい。センサデータが1つ以上の撮像デバイスを使用して生成されるときなど、場合によっては、電子デバイス104は、センサデータによって表される特徴を分析することに基づいて場所を判定してもよい。
電子デバイス104はまた、センサデータを分析して、ユーザの一部分に関連付けられた角度を判定し得る。センサデータが1つ以上の距離センサによって生成されるときなど、場合によっては、電子デバイス104は、距離センサからユーザの一部分までの検出された距離に基づいて角度を決定してもよい。センサデータが1つ以上の撮像デバイスによって生成されるときなど、場合によっては、電子デバイス104は、センサデータによって表される特徴を分析することに基づいて角度を判定してもよい。
1206において、プロセス1200は、場所が目標垂直距離を満たすか否かを判定することを含み得る。例えば、電子デバイス104は、ユーザの一部分の場所が目標垂直距離を満たすかどうかを判定し得る。場合によっては、電子デバイス104は、場所が目標垂直距離に関連付けられた範囲内にあるときに場所が目標垂直距離を満たすと判定し、場所が目標垂直距離に関連付けられた範囲の外側(例えば、範囲より大きいか又は範囲未満)にあるときに場所が目標垂直距離を満たさないと判定し得る。
1206において、場所が目標垂直距離を満たさないと判定された場合、次いで1208において、プロセス1200は、ユーザの一部分を調整することに関連付けられた命令を視覚インジケータに提供させることを含み得る。例えば、電子デバイス104が、場所が目標垂直距離を満たさないと判定する場合、電子デバイス104は、ユーザの一部分が低すぎるか又は高すぎるかのいずれかであるという命令を提供し得る。視覚インジケータが複数の光放射体(例えば、光リング)を含むときなど、場合によっては、視覚インジケータは、ある色の光を放射し、ある光パターンを放射し、かつ/又はある明るさの光を放射することによって、命令を提供してもよい。視覚インジケータが表示部を含む場合など、場合によっては、視覚インジケータは、表示部上にコンテンツを表示することによって命令を提供してもよい。
ただし、1206において、場所が目標垂直距離を満たすと判定される場合、1210において、プロセス1200は、場所が目標水平場所を満たすかどうかを判定することを含み得る。例えば、電子デバイス104は、ユーザの一部分の場所が目標水平場所を満たすかどうかを判定し得る。場合によっては、電子デバイス104は、場所がx方向に関連付けられた第1の範囲内にあり、y方向に関連付けられた第2の範囲内にあるときに、場所が目標水平場所を満たすと判定してもよい。加えて、電子デバイス104は、場所がx方向に関連付けられた第1の範囲又はy方向に関連付けられた第2の範囲の外側にあるときに、場所が目標水平場所を満たさないと判定してもよい。
1210において、場所が目標水平場所を満たさないと判定された場合、1208において、プロセス1200は、視覚インジケータに、ユーザの一部分を調整することに関連付けられた命令を提供させることを再び含み得る。例えば、電子デバイス104が、場所が目標水平場所を満たさないと判定する場合、電子デバイス104は、ユーザの一部分が左に離れすぎている、前に離れすぎている、右に離れすぎている、及び/又は後ろに離れすぎている、のいずれかであるという命令を提供し得る。視覚インジケータが複数の光放射体を含むときなど、場合によっては、視覚インジケータは、ユーザの一部分の場所に関連付けられた光放射体の一部分を使用して光を放射することによって、命令を提供してもよい。視覚インジケータが表示部を含むときなど、場合によっては、視覚インジケータは、ユーザの一部分の場所に関連付けられた表示部の一部分を使用してコンテンツを表示することによって、命令を提供してもよい。
ただし、1210において、場所が目標水平場所を満たすと判定される場合、1212において、プロセス1200は、角度が目標角度を満たすかどうかを判定することを含み得る。例えば、電子デバイス104は、ユーザの一部分の角度が目標角度を満たすかどうかを判定し得る。場合によっては、電子デバイス104は、角度が目標角度に関連付けられた範囲内にあるときに、角度が目標角度を満たすと決定してもよい。加えて、電子デバイス104は、角度が目標角度の外側にあるときに、角度が目標角度を満たさないと判定してもよい。
1212において、角度が目標角度を満たさないと判定された場合、1208において、プロセス1200は、視覚インジケータに、ユーザの一部分を調整することに関連付けられた命令を提供させることを再び含み得る。例えば、電子デバイス104が、角度が目標角度を満たさないと判定する場合、電子デバイス104は、ユーザの一部分の角度が付きすぎているという命令を提供し得る。視覚インジケータが複数の光放射体を含むときなど、場合によっては、視覚インジケータは、光放射体の第1の部分を使用して、第1の色の光、第1の光パターン、及び/又は第1の明るさの光を放射し、かつ光放射体の第2の部分を使用して、第2の色の光、第2の光パターン、及び/又は第2の明るさの光を放射することによって、命令を提供してもよい。視覚インジケータが表示部を含むときなど、場合によっては、視覚インジケータは、表示部の第1の部分を使用して第1のコンテンツを表示し、かつ表示部の第2の部分を使用して第2のコンテンツを表示することによって、命令を提供してもよい。
ただし、1212において、角度が目標角度を満たすと判定された場合、1214において、プロセスは、視覚インジケータに、ユーザの一部分が目標場所にあることを示させることを含み得る。例えば、電子デバイス104が、角度が目標角度を満たすと判定する場合、電子デバイス104は、ユーザの一部分の場所が目標場所にあることを示し得る。視覚インジケータが複数の光放射体を含むときなど、場合によっては、視覚インジケータは、光放射体を使用して、ある色の光、ある光パターン、及び/又はある明るさの光を放射することによって指標を提供してもよい。視覚インジケータが表示部を含む場合など、場合によっては、視覚インジケータは、コンテンツを表示することによって指標を提供してもよい。
図12に示されるように、プロセスは、1208において命令を提供した後、1202に戻って繰り返してもよいことに留意されたい。また、場合によっては、1206、1210、及び/若しくは1212の順序は入れ替わってもよく、かつ/又はプロセス1200は、1206、1210、若しくは1212のうちの1つ以上を含まなくてもよいことに留意されたい。
図13及び14は、マテリアルハンドリング施設602などの例示的なマテリアルハンドリング環境を表し、そこでは、本明細書に記載の技術が、以下に説明されるように、環境を監視するカメラに適用され得る。ただし、以下の説明は、単に、本明細書に記載の技術が利用され得る業界及び環境の1つの例示的な例であるにすぎない。
在庫商品を記憶及び管理するように構成されたマテリアルハンドリング施設1302(例えば、施設1302)の実装形態が図13に示される。マテリアルハンドリング施設1302は、内部に1つ以上の商品1304(1)、1304(2)、…、1304(Q)(概して1304として表記する)を保有し得る1つ以上の物理的構造又はエリアを含む。この開示で使用される場合、「(Q)」などの括弧内の文字は、整数の結果を示す。商品1304は、本、医薬品、修理部品、電子機器、食料雑貨品などの物理的な品物を含む。
施設1302は、在庫の取り扱いに関する様々な機能のために指定される1つ以上のエリアを含み得る。この説明図では、施設1302は、荷受けエリア1306、保管エリア1308、及び移行エリア1310を含む。荷受けエリア1306は、施設1302への受け取りのために、納入業者などから商品1304を受け入れるように構成され得る。例えば、荷受けエリア1306は、トラック又は他の貨物輸送装置が商品1304をおろす配送センターを含み得る。
保管エリア1308は、商品1304を保管するように構成されている。保管エリア1308は、様々な物理的構成で整理され得る。一実施態様では、保管エリア1308は、1つ以上の通路1312を含み得る。通路1312は、通路1312の片側又は両側の在庫場所1314で構成され得るか、又はその在庫場所によって規定され得る。在庫場所1314は、棚、ラック、ケース、キャビネット、収納箱、床場所、又は商品1304を保有又は保管するための他の好適な保管機構のうちの1つ以上を含み得る。在庫場所1314は、床又は施設の構造の別の部分に設けられ得るか、又は通路1312の配置が再構成可能であり得るように、移動可能であり得る。いくつかの実施態様では、在庫場所1314は、外部の業者とは独立して移動するように構成され得る。例えば、在庫場所1314は、ラックを施設1302内のある場所から別の場所に移動させることができるように、コンピューティングデバイスによって動作可能である、電源及びモータ付きラックを含み得る。
1人以上のユーザ1316(1)、1316(2)、…、1316(U)(概して1316として表記する)、トート1318(1)、1318(2)、…、1318(T)(概して1318として表記する)、又は他のマテリアルハンドリング装置が、施設1302内を移動し得る。例えば、ユーザ1316は、施設1302内の周りを移動して、様々な在庫場所1314内で商品1304を選択又は配置し、輸送を容易にするために、それらをトート1318上に置き得る。個々のトート1318は、1つ以上の商品1304を運搬又は別様に輸送するように構成されている。例えば、トート1318は、バスケット、カート、バッグなどを含み得る。他の実施態様では、ロボット、フォークリフト、クレーン、無人飛行機などの他の仲介物が、施設1302の周りを移動して、商品1304を選択し、配置し、又は別様に移動させ得る。
1つ以上のセンサ1320が、施設1302内の情報を取得するように構成され得る。施設1302内のセンサ1320は、環境内に固定されたセンサ(例えば、天井取り付けカメラ)、又はそれ以外の場合では、ユーザが所有しているセンサなど(例えば、携帯電話、タブレットなど)を含み得る。センサ1320は、カメラ1320(1)、重量センサ、高周波(RF)受信機、温度センサ、湿度センサ、振動センサなどを含み得るが、これらに限定されない。センサ1320は、施設1302に対して、静止した状態でも、又は移動可能であってもよい。例えば、在庫場所1314は、施設1302内のユーザ1316(1)及び1316(2)などの、棚上の商品1304の選択又は配置の画像を取得するように構成されたカメラ1320(1)を含み得る。別の例では、施設1302の床は、ユーザ1316、又はそのユーザ上の他の対象物の重量を決定するように構成された重量センサを含み得る。
施設1302の運用中、センサ1320は、対象物の新たな場所又は施設1302内での他の発生を特定するために好適な情報を提供するように構成され得る。例えば、カメラ1320(1)によって取得された一連の画像は、特定の在庫場所1314からの、ユーザ1316のうちの1人による商品1304の除去、及びトート1318のうちの1つに、又はその内部に少なくとも部分的に、商品1304を配置することを示し得る。
保管エリア1308は、1つ以上の通路1312、商品1304を保管する在庫場所1314、センサ1320などを有するものとして示してあるが、荷受けエリア1306、移行エリア1310、又は施設1302の他のエリアは、同様に装備され得ることが理解される。更に、施設1302内の様々なエリアの配置は、概略的ではなく、機能的に図示してある。例えば、複数の異なる荷受けエリア1306、保管エリア1308、及び移行エリア1310は、施設1302内で分離されるのではなく、分散され得る。
施設1302は、在庫管理システム1322を含むか、又はそれと結合し得る。在庫管理システム1322は、荷受けエリア1306、保管エリア1308、又は移行エリア1310のうちの1つ以上の中で、ユーザ1316との、及びセンサ1320、ロボット、マテリアルハンドリング装置、コンピューティングデバイスなどのデバイスとの対話、並びにそれらの間の対話を識別するように構成されている。これらの対話には、1つ以上のイベント1324が含まれ得る。例えば、イベント1324には、施設1302へのユーザ1316の入場、在庫場所1314における商品1304の備蓄、在庫場所1314からの商品1304の選択、在庫場所1314への商品1304の返却、トート1318内への商品1304の配置、ユーザ1316の互いに対する動き、ユーザ1316によるジェスチャなどが含まれ得る。ユーザ1316に関与する他のイベント1324には、ユーザ1316が施設1302内で認証情報を提供すること、施設1302にあるコンピューティングデバイスを使用して、個人情報を在庫管理システム1322に確認させることなどが含まれ得る。いくつかのイベント1324は、施設1302内の1つ以上の他の対象物に関与し得る。例えば、イベント1324は、車輪に取り付けられたカウンタなどの、在庫場所1314の施設1302内の移動を含み得る。イベント1324は、センサ1320のうちの1つ以上に関与し得る。例えば、センサの故障、位置合わせの変化などのセンサ1320の動作の変化は、イベント1324として指定され得る。この例を続けると、視野1328(例えば、カメラ)の配向の変化をもたらすカメラ1320(1)の動き(誰か又は何かがカメラ1320(1)に衝突して引き起こされることなど)が、イベント1324として指定されてもよい。
イベント1324のうちの1つ以上の発生を判定することによって、在庫管理システム1322は、出力データ1326を生成し得る。この出力データ1326は、イベント1324についての情報を含む。例えば、イベント1324が、在庫場所1314から削除されている商品1304を含む場合、出力データ1326は、在庫場所1314から削除された特定の商品1304を示す商品識別子、及びその商品を削除したユーザのユーザ識別子を含み得る。
在庫管理システム1322は、1つ以上の自動化システムを使用して、出力データ1326を生成し得る。例えば、人工ニューラルネットワーク、1つ以上の分類子、又は他の自動化機械学習技術を使用し、1つ以上のセンサ1320からのセンサデータを処理して、出力データ1326を生成し得る。この自動化システムは、確率的又は非確率的技術を使用して動作し得る。例えば、その自動化システムは、ベイズネットワークを使用し得る。別の例では、その自動化システムは、サポートベクトルマシンを使用して、出力データ1326又は暫定結果を生成し得る。自動化システムは、出力データ1326又は暫定的なデータが物理的な世界に対応する精度又は信頼性を示す情報を提供する信頼レベルデータを生成し得る。
この信頼レベルデータは、使用中の自動化システムの種類に少なくとも部分的に基づいて、様々な技術を使用して生成され得る。例えば、ベイズネットワークを使用する確率的系は、その出力に割り当てられた確率を信頼レベルとして使用し得る。この例を続けると、ベイズネットワークは、画像データに描かれた商品が、メモリに以前記憶された商品に対応する確率が135%であることを示し得る。この確率は、画像データに描写されるように、その商品の信頼レベルとして使用され得る。
別の例では、サポートベクトルマシンなどの非確率的技術からの出力は、商品の画像データ、及び以前記憶された商品の画像が分類された数学的空間内の距離に基づいて、信頼レベルを有し得る。以前記憶された画像などの基準点から、その発生中に取得された画像データまでの、この空間内の距離が大きいほど、信頼レベルが低くなる。
更に別の例では、商品1304、ユーザ1316などの対象物の画像データは、以前記憶された画像のセットと比較され得る。画像データと、以前記憶された画像との間の差異が、評価されることが可能である。例えば、形状、色、画像内の特徴間の相対的割合などの差異である。それらの差異は、数学的空間との距離の観点から表現され得る。例えば、画像データに描写されるような対象物の色、及び以前記憶された画像に描写されるような対象物の色は、色空間内の座標として表現され得る。
信頼レベルは、これらの差異に少なくとも部分的に基づいて、判定され得る。例えば、ユーザ1316は、在庫場所1314から、概して立方体形状である香水瓶などの商品1304(1)を選択し得る。近くの在庫場所1314にある他の商品1304は、圧倒的に球体であり得る。隣接する商品間の形状の違い(立方体対球体)、及び香水瓶商品1304(1)の以前記憶された画像との形状の一致(立方体及び立方体)に基づいて、ユーザ606が香水瓶商品1304(1)をピックアップしたという信頼レベルは高い。
いくつかの状況では、自動化技術は、閾値結果を上回る信頼レベルを用いて出力データ1326を生成することができない場合がある。例えば、自動化技術は、ユーザ1316の群の中のどのユーザ1316が在庫場所1314から商品1304をピックアップしたかを区別することができない場合がある。他の状況では、イベント1324の人間による確認、又は出力データ1326の精度の人間による確認を提供することが望ましい場合がある。例えば、いくつかの商品1304は、それらが最小年齢閾値を超えるユーザ1316のみによって取り扱われ得るように、年齢制限されると見なされる場合がある。
人間の確認が望まれる事例では、イベント1324に関連付けられたセンサデータは、問い合わせデータを生成するように処理され得る。この問い合わせデータは、イベント1324に関連付けられたセンサデータのサブセットを含み得る。この問い合わせデータはまた、自動化技術によって判定されるような1つ以上の暫定結果のうちの1つ以上、又は補足データも含み得る。センサデータのサブセットは、1つ以上のセンサ1320についての情報を使用して判定され得る。例えば、施設1302内のカメラ1320(1)の場所、カメラ1320(1)の配向、及びカメラ1320(1)の視野1328などのカメラデータを使用して、施設1302内の特定の場所が視野1328内にあるかどうか判定し得る。センサデータのサブセットは、在庫場所1314を示すことができるか、又は商品1304がしまい込まれたことを示すことができる画像を含み得る。センサデータのサブセットはまた、視野1328内にその在庫場所1314を有さなかった、他のカメラ1320(1)からの画像を省略し得る。視野1328は、センサ1320が周りでセンサデータを生成することができる、施設1302内の一部の場面を含み得る。
この例を続けると、センサデータのサブセットは、商品1304を含む視野1328を有する1つ以上のカメラ1320(1)によって取得されたビデオクリップを含み得る。暫定結果は、どの商品1304がイベント1324に関与した可能性があるかに関する「最良の推測」を含み得る。例えば、暫定結果は、最小閾値を上回る信頼レベルを有する、自動化システムによって判定された結果を含み得る。
施設1302は、様々な納入業者から異なる種類の商品1304を受け取り、顧客が商品1304のうちの1つ以上を注文し、又は取り出すまで、それらの商品を保管するように構成され得る。施設1302を通る商品1304の一般的な流れは、図13の矢印によって示されている。具体的には、この例に示すように、商品1304は、荷受けエリア1306において、製造業者、販売業者、卸売り業者などの1つ以上の納入業者から取り出し得る。様々な実施態様では、商品1304は、施設1302を運営する企業の特質に応じて、製品、日用品、生鮮食料品、又は任意の好適な種類の商品1304を含み得る。商品1304の取り出しは、在庫管理システム1322が出力データ1326を生成し得る1つ以上のイベント1324を含み得る。
荷受けエリア1306において、納入業者から受け取ると、商品1304は、保管のために準備され得る。例えば、商品1304は、開梱又は別様に再配置され得る。在庫管理システム1322は、開梱又は再配置に関連付けられたイベント1324に基づいて、在庫管理機能を提供するために、コンピュータシステム上で実行する1つ以上のソフトウェアアプリケーションを含み得る。これらの在庫管理機能は、商品1304に関する種類、数量、状態、費用、場所、重量、又は任意の他の好適なパラメータを示す情報を維持することを含み得る。商品1304は、パッケージ、カートン、枠箱、パレット、若しくは他の好適な集合体など、可算の個々の単位若しくは複数のものの観点から見て、備蓄され、管理され、又は払い出され得る。代替的に、大量製品、日用品などのいくつかの商品1304は、本質的に可算単位に編成することができない、連続的又は任意に分割可能な量で保管され得る。そのような商品1304は、長さ、面積、体積、重量、期間、持続時間、又は測定単位によって特徴付けられる他の寸法特性などの測定可能な量の観点から管理され得る。一般的に言えば、商品1304の数量は、商品1304の可算数の個々の単位か、若しくは集合単位かのどちらか、又は商品1304の測定可能な量のいずれかを適宜指し得る。
荷受けエリア1306を通って到着した後、商品1304は、保管エリア1308内に保管され得る。いくつかの実施態様では、同様の商品1304は、収納箱の中、棚の上、ペグボードからの吊り下げなどの在庫場所1314にともに保管又は表示され得る。この実施態様では、所与の種類の全ての商品1304が、1つの在庫場所1314に保管される。他の実施態様では、同様の商品1304は、異なる在庫場所1314に保管され得る。例えば、大規模な物理的施設1302内に薄利多売の特定の商品1304の検索を最適化するために、それらの商品1304は、いくつかの異なる在庫場所1314内に保管されて、単一の在庫場所1314で発生する可能性がある混雑を減らし得る。商品1304及びそれらのそれぞれの在庫場所1314の記憶領域は、1つ以上のイベント1324を含み得る。
1つ以上の商品1304を指定する顧客注文が受信されると、又は、ユーザ1316が施設1302を通って前進すると、対応する商品1304は、それらの商品1304を収容する在庫場所1314から選び、又は「選択」され得る。様々な実施態様では、商品の選択は、手動的選択から完全に自動化された選択までの範囲が広がり得る。例えば、一実施態様では、ユーザ1316は、所望の商品1304のリストを有し得、施設1302を通って進行して、保管エリア1308内の在庫場所1314から商品1304を選択し、それらの商品1304をトート1318に置き得る。他の実施態様では、施設1302の従業員は、顧客の注文から出ている書面又は電子的選択リストを使用して商品1304を選択し得る。これらの選択された商品1304は、従業員が施設1302を通って前進するときに、トート1318に置き得る。選択は、在庫場所1314に移動するユーザ1316、在庫場所1314からの商品1304の取り出しなど、1つ以上のイベント1324を含み得る。
商品1304が選択された後、それらの商品は、移行エリア1310で処理され得る。移行エリア1310は、商品1304がある場所から別の場所に、又はあるエンティティから別のエンティティに移行される施設1302内の任意の指定されたエリアであり得る。例えば、移行エリア1310は、施設1302内の梱包ステーションであり得る。商品1304が移行エリア1310に到着すると、商品1304は、保管エリア1308から梱包ステーションに移行され得る。移行することは、1つ以上のイベント1324を含み得る。移行に関する情報は、それらのイベント1324に関連付けられた出力データ1326を使用して、在庫管理システム1322によって維持され得る。
別の例では、商品1304が施設1302を出発している場合、商品1304のリストが在庫管理システム1322によって取得及び使用されて、商品1304の責任又は管理を、施設1302から別のエンティティに移行し得る。例えば、運送業者は、輸送のために商品1304を受け入れ得、その運送業者は、リストに示された商品1304に対する責任を受け入れる。別の例では、顧客は、商品1304を購入又は賃借し、施設1302から商品1304を削除し得る。この購入又は賃借は、1つ以上のイベント1324を含み得る。
在庫管理システム1322は、施設1302、及びその中の内容物に関するセンサデータにアクセスするか、又はそのセンサデータを生成し得、そのセンサデータには、商品1304、ユーザ1316、トート1318などが含まれる。このセンサデータは、センサ1320のうちの1つ以上、他のシステムによって提供されるデータなどによって取得され得る。例えば、センサ1320は、施設1302内の場面の画像データを取得するように構成されたカメラ1320(1)を含み得る。この画像データは、静止画像、ビデオ、又はそれらの組み合わせを含み得る。この画像データは、在庫管理システム1322によって処理されて、ユーザ1316の場所、トート1318、ユーザ1316の個人情報などを判定し得る。本明細書で使用されるとき、ユーザの個人情報は、ユーザの一意の識別子(例えば、名前、ユーザに関連付けられた番号、ユーザ名など)、環境で識別される他のユーザ間でユーザを区別する識別子などを表し得る。
在庫管理システム1322、又はそれに結合されたシステムは、ユーザ1316に関連付けられたプロファイルを識別し、同様に他の候補ユーザを判定するように構成され得る。一実施態様では、この判定は、センサデータを、以前に記憶された個人情報データと比較することを含み得る。ユーザ1316に関連付けられたプロファイルを識別することは、施設1302に入場する前、入場中、又は入場後に識別され得る。ユーザ1316に関連付けられたプロファイルの識別には、施設1302内のユーザ1316に関連付けられたセンサデータを、以前に記憶されたユーザデータと比較することが含まれ得る。
いくつかの事例では、在庫管理システムは、施設内のユーザをそれぞれのセッションにグループ化する。すなわち、在庫管理システム1322は、センサデータを利用して、有効に「一緒に」(例えば、一緒に買い物をする)ユーザのグループを判定し得る。場合によっては、特定のセッションは、施設1302に一緒に入場した、かつ施設を一緒にナビゲートする可能性の高い複数のユーザを含み得る。例えば、2人の大人及び2人の子供の家族が一緒に施設に入るときに、在庫管理システムは、各ユーザを特定のセッションに関連付け得る。個々のユーザに加えてセッションの場所を特定することは、セッション内のユーザが個々に商品を選択若しくは返却するか又は別様に商品と対話し得るだけでなく、商品を互いの間でやり取りし得ることを考慮すると、個々のイベントの結果を判定するのに役立ち得る。例えば、上記の例の子供は、子供の母親に箱を手渡す前に、穀物の箱を選択し得、その母親は、そのトート1318にその箱を置き得る。子供及び母親を同じセッションに属しているものとして注目すると、その母親の仮想ショッピングカートに穀物の箱を首尾よく追加する機会を増やすことが可能になる。
1つ以上のイベント1324、及びそれに関連付けられた出力データ1326の発生を判定することによって、在庫管理システム1322は、1つ以上のサービスを、施設1302のユーザ1316に提供することができる。1人以上の人間の関係者を利用し、問い合わせデータを処理し、次いで、出力データ1326を生成するために使用され得る応答データを生成することによって、システム全体の精度を向上させ得る。その向上した精度は、施設1302の1人以上のユーザ1316のユーザ経験を改善し得る。いくつかの例では、出力データ1326は、ネットワーク1330を介して、1つ以上のサーバ706に送信され得る。
図14は、1つ以上のサーバ706のブロック図を示す。サーバ706は、施設1402において物理的に存在し得るか、ネットワーク1430によってアクセス可能であり得るか、又は両方の組み合わせであり得る。サーバ706は、サービスを届けるシステムの物理的な場所及び構成について、エンドユーザの知識を必要としない。サーバ706に関連する共通の表現としては、「オンデマンドコンピューティング」、「サービスとしてのソフトウェア(SaaS)」、「クラウドサービス」、「データセンター」などが挙げられ得る。サーバ706によって提供されるサービスは、1つ以上の物理的又は仮想的デバイスにわたって分散され得る。
サーバ706は、1つ以上の記憶された命令を実行するように構成された1つ以上のハードウェアプロセッサ1402(プロセッサ)を含み得る。このプロセッサ1402は、1つ以上のコアを含み得る。サーバ706は、プロセッサ1402、又はサーバ706の他の部分が他のデバイスと通信することを可能にするための1つ以上の入力/出力(I/O)インターフェース1404を含み得る。I/Oインターフェース1404は、インターインテグレイテッドサーキッツ(I2C)、シリアルペリフェラルインターフェースバス(SPI)、USBインプリメンターズフォーラムによって配布されたユニバーサルシリアルバス(USB)などを含み得る。
サーバ706はまた、1つ以上の通信インターフェース1406を含み得る。この通信インターフェース1406は、サーバ706と、センサ1420、インターフェースデバイス、ルータなどの他のデバイスとの間の通信を提供するように構成されている。通信インターフェース1406は、パーソナルエリアネットワーク(PAN)、有線及び無線ローカルエリアネットワーク(LAN)、有線及び無線ワイドエリアネットワーク(WAN)などに結合するように構成されたデバイスを含み得る。例えば、通信インターフェース1406は、イーサネット、Wi-Fi(商標)などと互換性のあるデバイスを含み得る。サーバ706はまた、サーバ706の様々なモジュールとコンポーネントとの間のデータ転送を可能にする1つ以上のバス又は他の内部通信ハードウェア若しくはソフトウェアを含み得る。
サーバ706はまた、電力供給源1440を含み得る。電力供給源1440は、サーバ706内のコンポーネントを動作させるために好適な電力を提供するように構成されている。
図14に示されるように、サーバ706は、1つ以上のメモリ1410を含む。このメモリ1410は、1つ以上のコンピュータ可読記憶媒体(CRSM)を含む。このCRSMは、電子記憶媒体、磁気記憶媒体、光学記憶媒体、量子記憶媒体、機械的コンピュータ記憶媒体などのうちのいずれか1つ以上であってもよい。メモリ1410は、サーバ706の動作のためのコンピュータ可読命令、データ構造、プログラムモジュール、及び他のデータの記憶装置を提供する。いくつかの例示的な機能モジュールが、メモリ1410内に記憶されて示されているが、同じ機能性は、代替的に、ハードウェア、ファームウェアで、又はシステムオンチップ(SOC)として実装され得る。
メモリ1410は、少なくとも1つのオペレーティングシステム(OS)コンポーネント1412を含み得る。このOSコンポーネント1412は、I/Oインターフェース1404、通信インターフェース1408などのハードウェアリソースデバイスを管理し、プロセッサ1402上で実行するアプリケーション又はコンポーネントに様々なサービスを提供するように構成される。OSコンポーネント1412は、FreeBSDプロジェクトによって配布されたFreeBSD(商標)オペレーティングシステムの変形例、他のUNIX(登録商標)又はUNIX(登録商標)のような変形例、Linus Torvaldsによって配布されたLinux(登録商標)オペレーティングシステムの変形例、米国ワシントン州レドモンドのMicrosoft CorporationからのWindows(登録商標)サーバオペレーティングシステムなどを実装し得る。
以下のコンポーネントのうちの1つ以上はまた、メモリ1410内に記憶され得る。これらのコンポーネントは、フォアグラウンドアプリケーション、バックグラウンドタスク、デーモンなどとして実行され得る。通信コンポーネント1414は、センサ1320のうちの1つ以上、電子デバイス104のうちの1つ以上、関係者によって使用されるデバイスのうちの1つ以上、他のサーバ706、又は他のデバイスとの通信を確立するように構成され得る。これらの通信は、認証、暗号化などされ得る。
メモリ1410は、在庫管理システム1416を記憶し得る。この在庫管理システム1416は、在庫管理システム1322に関して本明細書に記載されているような在庫機能を提供するように構成されている。例えば、在庫管理システム1416は、施設1202内の商品1304の動きを判定し、ユーザインターフェースデータを生成するなどを行い得る。
在庫管理システム1416は、メモリ1410内の1つ以上のデータストア1418に記憶された情報にアクセスし得る。データストア1418は、フラットファイル、データベース、リンクされたリスト、ツリー、実行可能コード、スクリプト、又は他のデータ構造を使用して、情報を記憶し得る。いくつかの実施態様では、データストア1418、又はデータストア1418の一部分は、他のサーバ706、ネットワーク接続記憶デバイスなどを含む1つ以上の他のデバイスにわたって分散され得る。
データストア1418は、物理レイアウトデータ1420を含み得る。この物理レイアウトデータ1420は、センサ1320、在庫場所1314などのデバイス及び対象物の物理レイアウト内の物理的な場所のマッピングを提供する。物理レイアウトデータ1420は、在庫場所1314の施設1302内の座標、その在庫場所1314の視野内のセンサ1320などを示し得る。例えば、物理レイアウトデータ1420は、カメラ1320(1)の施設1302内の場所、カメラ1320(1)の配向、動作可能な状態などのうちの1つ以上を含むカメラデータを含み得る。例を続けると、物理レイアウトデータ1420は、カメラ1320(1)の座標、視野1328が向けられる方向を示すパン及び傾斜情報、カメラ1320(1)が動作又は誤作動しているかどうかなどを示し得る。
いくつかの実施態様では、在庫管理システム1416は、物理レイアウトデータ1420にアクセスして、イベント1324に関連付けられた場所が1つ以上のセンサ1320の視野1328内にあるかどうかを判定し得る。上の例を続けると、イベント1324の施設1302内の場所、及びカメラデータが与えられる場合、在庫管理システム1416は、イベント1324の画像を生成した可能性があるカメラ1320(1)を判定し得る。
商品データ1422は、商品1304に関連付けられた情報を含む。この情報は、商品1304のうちの1つ以上が記憶されている1つ以上の在庫場所1314を示す情報を含み得る。商品データ1422はまた、注文データ、SKU又は他の製品識別子、価格、在庫数量、重量、有効期限、商品1304の画像、詳細な説明情報、評価、ランク付けなども含み得る。在庫管理システム1416は、在庫管理機能と関連付けられた情報を商品データ1422に記憶し得る。
データストア1418はまた、センサデータ1424を含み得る。このセンサデータ1424は、1つ以上のセンサ1320から取得された、又はそれに基づいて取得された情報を含む。例えば、センサデータ1424は、施設1302内の対象物についての3D情報を含み得る。上述したように、センサ1320は、カメラ1320(1)を含み得、そのカメラは、1つ以上の画像を取得するように構成されている。これらの画像は、画像データ1426として記憶され得る。画像データ1426は、複数の画像要素又は画素を記述する情報を含み得る。非画像データ1428は、マイクロフォン1320、重量センサ1320などからの入力などの、他のセンサ1320からの情報を含み得る。
ユーザデータ1430はまた、データストア1418内に記憶され得る。ユーザデータ1430は、個人情報データ、プロファイルを示す情報、購入履歴、場所データ、ユーザ1316の画像、人口統計データなどを含み得る。個々のユーザ1316、又はユーザ1316のグループは、在庫管理システム1322による使用のために、ユーザデータ1430を選択的に提供し得る。個々のユーザ1316、又はユーザ1316のグループはまた、施設1302の使用中にユーザデータ1430の収集を許可するか、又は他のシステムから取得されたユーザデータ1430へのアクセスを許可し得る。例えば、ユーザ1316は、ユーザデータ1430の収集にオプトインして、施設1302を使用している間に強化されたサービスを受け得る。
いくつかの実施態様では、ユーザデータ1430は、特別な取り扱いのためにユーザ1316を指定する情報を含み得る。例えば、ユーザデータ1430は、特定のユーザ1316が、出力データ1326に関して増加したエラーの数に関連付けられていることを示し得る。在庫管理システム1416は、この情報を使用して、このユーザ1316に関連付けられたイベント1324に追加の調査を適用するように構成され得る。例えば、閾値量を上回る費用又は結果を有する商品1304を含むイベント1324は、自動化システムによって生成されるように、出力データ1326における判定された信頼レベルとは関係なく、処理するために関係者に提供され得る。
在庫管理システム1416は、場所特定コンポーネント1432、識別コンポーネント1434、イベント判定コンポーネント1436、及び問い合わせコンポーネント1438のうちの1つ以上を含み得る。
場所特定コンポーネント1432は、在庫管理システム1416が特定のイベントを正しいユーザに割り当てることを可能にするために、施設の環境内の商品又はユーザの場所を特定するように機能する。すなわち、場所特定コンポーネント1432は、ユーザが施設に入場したときに、一意の識別子をユーザに割り当て得、ユーザの同意を得て、ユーザが施設1320内に留まる期間にわたって、施設1302全体にわたってユーザの位置を特定し得る。場所特定コンポーネント1432は、画像データ1426などのセンサデータ1424を使用して、この場所特定を実施し得る。例えば、場所特定コンポーネント1432は、画像データ1426を受信し得、画像からユーザに関連付けられたプロファイルを識別する技術を使用し得る。施設内で、ユーザに関連付けられた特定のプロファイルを識別した後、次いで場所特定コンポーネント1432は、ユーザが施設1302全体にわたって移動するときに、画像内でそのユーザの場所特定をしてもよい。更に、場所特定コンポーネント1432が特定のユーザを一時的に「見失う」場合、場所特定コンポーネント1432は、これらの技術に基づいて施設内のユーザに関連付けられたプロファイルを識別しようと再び試みてもよい。
したがって、問題のイベントの時間及び場所の指標を受信した際に、場所特定コンポーネント1432は、データストア1418に問い合わせて、イベントの特定の時間に、1人以上のどのユーザがイベントの場所の閾値距離にいたか、又はその距離内にいたかを判定し得る。更に、場所特定コンポーネント1432は、異なる信頼レベルを異なるユーザに割り当て得、その信頼レベルは、それぞれ対応するユーザが、実際に関心のあるイベントに関連付けられているユーザである可能性がどれくらいあるかを示している。
場所特定コンポーネント1432は、センサデータ1424にアクセスして、ユーザ及び/又は商品のこの場所データを判定し得る。場所データは、商品1304、ユーザ1316、トート1318などの対象物の場所を示す情報を提供する。その場所は、施設1302に対して、又は別の対象物若しくは基準点に対して、絶対的であり得る。絶対的という用語は、測地学上の基準点に対する緯度、経度、及び標高を含み得る。相対的という用語は、施設1302の間取り図によって指定されるように、x軸に沿って25.4メートル(m)、及びy軸に沿って75.2m、169°の進行方向に沿って在庫場所1314から5.2mなどの場所を含み得る。例えば、場所データは、ユーザ1316(1)が通路1312(1)に沿って25.2mのところにいて、在庫場所1314の前部に立っていることを示し得る。比較すると、相対場所は、ユーザ1316(1)がトート1318に対して73°の進行方向でトート1318から32cmのところにいることを示し得る。場所データは、ユーザ1316がどの方向に面しているかなどの配向情報を含み得る。その配向は、ユーザ1316の身体が面している相対的な方向によって判定され得る。いくつかの実施態様では、配向は、インターフェースデバイスに対して相対的であってもよい。この例を続けると、場所データは、ユーザ1316(1)が進行方向0°で配向されているか、又は北を見ていることを示し得る。別の例では、場所データは、ユーザ1316がインターフェースデバイスに向かって面していることを示し得る。
識別コンポーネント1434は、対象物を識別するように構成される。一実施態様では、識別コンポーネント1434は、商品1304を識別するように構成され得る。別の実施態様では、識別コンポーネント1434は、ユーザ1316に関連付けられたプロファイルを識別するように構成され得る。例えば、識別コンポーネント1434は、技術を使用して、画像データ1426を処理し、画像データ1426内の特性を、以前記憶された結果と比較することによって、画像に描写されるユーザ1316に関連付けられたプロファイルを識別し得る。識別コンポーネント1434はまた、RFID読み取り機1320、RF受信機1320、指紋センサなどの他のセンサ1320からのデータにもアクセスし得る。
イベント判定コンポーネント1436は、センサデータ1424を処理し、出力データ1326を生成するように構成されている。イベント判定コンポーネント1436は、データストア1418に記憶された情報にアクセスし得、その情報は、イベント記述データ1442、信頼レベル1444、又は閾値1446を含むが、これらに限定されない。
イベント記述データ1442は、1つ以上のイベント1324を示す情報を含む。例えば、イベント記述データ1442は、「選択」のイベント1324を用いて在庫場所1314からの商品1304の動きを指定する事前定義されたプロファイルを含み得る。イベント記述データ1442は、手動的に生成され得るか、又は自動的に生成され得る。イベント記述データ1442は、施設1302内で発生するイベントに関連付けられたトリガーを示すデータを含み得る。イベントは、トリガーの検出時に発生するものとして、判定され得る。例えば、在庫場所1314における、重量センサ1320(6)からの重量の変化などのセンサデータ1424は、商品1304が追加されるか、又は在庫場所1314から除去されるかのイベントの検出をトリガーし得る。別の例では、トリガーは、ユーザ1316が在庫場所1314に向かって手を伸ばす画像を含み得る。更に別の例では、そのトリガーは、2人以上のユーザ1316が互いの閾値距離内に近づくことを含み得る。
イベント判定コンポーネント1436は、人工ニューラルネットワーク、分類子、決定木、サポートベクトルマシン、Bayesianネットワークなどを含むがこれらに限定されない1つ以上の技術を使用して、センサデータ1424を処理し得る。例えば、イベント判定コンポーネント1436は、決定木を使用して、センサデータ1424に基づいて、「選択」イベント1324の発生を判定し得る。イベント判定コンポーネント1436は、センサデータ1424を更に使用して、1つ以上の暫定結果1448を判定し得る。この1つ以上の暫定結果1448は、イベント1324に関連付けられたデータを含む。例えば、イベント1324がユーザ1316の曖昧性除去を含む場合、暫定結果1448は、可能性のあるユーザの個人情報のリストを含み得る。別の例では、イベント1324が商品間の曖昧性除去を含む場合、暫定結果1448は、可能性のある商品識別子のリストを含み得る。いくつかの実施態様では、暫定結果1448は、可能な作動を示し得る。例えば、その作動は、ユーザ1316が商品1304を選択し、置き、移動させ、商品1304を傷つけ、ジェスチャ入力を提供することなどを含み得る。
いくつかの実施態様では、暫定結果1448は、他のコンポーネントによって、生成され得る。例えば、イベント1324に関与する、ユーザ1316の1つ以上の可能性のある個人情報又は場所などの暫定結果1448は、場所特定コンポーネント1432によって生成され得る。別の例では、イベント1324に関与した可能性があった商品1304などの暫定結果1448は、識別コンポーネント1434によって生成され得る。
イベント判定コンポーネント1436は、暫定結果1448の判定に関連付けられた信頼レベル1444を提供するように構成され得る。信頼レベル1444は、暫定結果1448の精度の予測レベルに関する印を提供する。例えば、低い信頼レベル1444は、暫定結果1448がイベント1324の実際の環境に対応する低い確率を有することを示し得る。比較すると、高い信頼レベル1444は、暫定結果1448がイベント1324の実際の環境に対応する高い確率を有することを示し得る。
いくつかの実施態様では、閾値結果1446を上回る信頼レベル1444を有する暫定結果1448は、十分に正確であると考えられ得、したがって、出力データ1326として使用され得る。例えば、イベント判定コンポーネント1436は、「選択」イベント1324に対応する3つの可能性のある商品1304(1)、1304(2)、及び1304(3)を示す暫定結果1448を提供し得る。可能性のある商品1304(1)、1304(2)、及び1304(3)に関連付けられた信頼レベル1444は、それぞれ、25%、70%、142%であり得る。この例を続けると、閾値結果は、140%の信頼レベル1444は十分に正確であると考えられるように設定され得る。その結果、イベント判定コンポーネント1436は、「選択」イベント1324を、商品1304(3)に関与するものとして指定し得る。
問い合わせコンポーネント1438は、イベント1324に関連付けられたセンサデータ1424の少なくとも一部分を使用して、問い合わせデータ1450を生成するように構成され得る。いくつかの実施態様では、問い合わせデータ1450は、暫定結果1448又は補足データ1452のうちの1つ以上を含み得る。問い合わせコンポーネント1438は、問い合わせデータ1450を、1人以上の人間の関係者に関連付けられた1つ以上のデバイスに提供するように構成され得る。
関係者ユーザインターフェースは、関係者のそれぞれのデバイス上に提示される。関係者は、特定の暫定結果1448を選択すること、新しい情報を入力すること、関係者が問い合わせに回答することができないことを示すことなどによって、応答データ1454を生成し得る。
補足データ1452は、イベント1224に関連付けられた情報か、又はセンサデータ1424を解釈するのに有効であり得る情報を含む。例えば、補足データ1452は、商品1304の以前記憶された画像を含み得る。別の例では、補足データ1452は、1つ以上の画像オーバーレイを含み得る。例えば、画像オーバーレイは、関心のある対象物の印を描写するオーバーレイなどのグラフィカルユーザインターフェース要素を含み得る。これらの印は、強調表示、文字枠、矢印などを含み得、それらは、関係者に提示している間、画像データ1426の上に重ね合わせられるか、又は配置される。
問い合わせコンポーネント1438は、1人以上の関係者によって提供された応答データ1454を処理する。この処理は、応答データ1454に関連付けられた1つ以上の統計結果を計算することを含み得る。例えば、統計結果は、関係者が特定の暫定結果1448を選択した回数のカウント、特定の暫定結果1448を選択した関係者のパーセンテージの判定などを含み得る。
問い合わせコンポーネント1438は、応答データ1454に少なくとも部分的に基づいて、出力データ1326を生成するように構成される。例えば、関係者の大部分が、「選択」イベント1324に関連付けられた商品1304が商品1304(5)であることを示す応答データ1454を回答したことを考えると、出力データ1326は、商品1304(5)が選択されたことを示し得る。
問い合わせコンポーネント1438は、特定の関係者に問い合わせを選択的に配布するように構成され得る。例えば、一部の関係者は、特定の種類の問い合わせに回答するのにより良好に適している可能性がある。関係者のパフォーマンスについての統計データなどのパフォーマンスデータは、関係者によって提供された応答データ1454から、問い合わせコンポーネント1438によって判定され得る。例えば、特定の関係者が、関係者の大部分に反対する応答データ1454を選択した異なる問い合わせのパーセンテージを示す情報が、維持される場合がある。いくつかの実施態様では、以前に知られた正しい回答を有するテスト又は実践用問い合わせデータ1450は、訓練又は品質保証の目的のために、関係者に提供され得る。関係者のセットが使用する判定は、パフォーマンスデータに少なくとも部分的に基づいている可能性がある。
問い合わせコンポーネント1438を使用することによって、イベント判定コンポーネント1436は、イベント1324を正確に表す出力データ1326に高い信頼性を提供することが可能であり得る。問い合わせコンポーネント1438によって応答データ1454から生成された出力データ1326を再度使用して、在庫管理システム1416によって使用される自動化システムを更に訓練し得る。例えば、センサデータ1424及び出力データ1326は、応答データ1454に基づいて、プロセス改善の訓練のために、在庫管理システム1416のコンポーネントのうちの1つ以上に提供され得る。この例を続けると、この情報は、人工ニューラルネットワーク、ベイズネットワークなどに提供され得、これらのシステムを更に訓練し、その結果、同じ又は同様の入力について、将来生成される信頼レベル1444及び暫定結果1448が改善される。
場合によっては、サーバ706は、電子デバイス104に関して図10に示されるコンポーネントのうちの1つ以上を更に含んでもよい。そのような場合、サーバ706は、電子デバイス104に関して本明細書に記載されるプロセスのうちの1つ以上を実施し得る。更に、サーバ706は、実施されたプロセスに関連付けられたデータ(例えば、他のデータ724)を電子デバイス104に送信し得る。例えば、データは、ユーザが電子デバイス104を使用しているときのユーザの一部分の場所を示し得る。
前述の発明は、具体的な例に関して説明されているが、本発明の範囲がこれらの具体的な例には限定されないことを理解されたい。特定の動作要件及び環境に適合するように変更された他の修正及び変更は、当業者に明らかであるため、本発明は、開示の目的で選択された実施例に限定されたとみなされず、本発明の真の概念及び範囲から逸脱しない全部の変更及び修正に及ぶ。
本出願は、特定の構造的特徴及び/又は方法論的動作を有する実施形態を記載するが、特許請求の範囲は必ずしも説明される特定の特徴又は動作に限定されないことを理解されたい。むしろ、特定の特徴及び行為は、本出願の特許請求の範囲内にあるいくつかの実施形態を単に例示するものである。
例示的な条項
A:電子デバイスであって、距離センサと、撮像デバイスと、光放射体と、1つ以上のプロセッサと、命令を記憶している1つ以上のコンピュータ可読媒体と、を備え、命令は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、距離センサのうちの第1の距離センサを使用して、第1のセンサデータを生成することと、第1のセンサデータを分析して、第1の距離センサが、電子デバイスの第1の部分上で手を検出したことを判定することと、距離センサのうちの第2の距離センサを使用して、第2のセンサデータを生成することと、第2のセンサデータを分析して、第2の距離センサが、電子デバイスの第2の部分上で手を検出しなかったことを判定することと、第1の距離センサに少なくとも部分的に基づいて、電子デバイスの第1の部分上で手を検出し、第1の時間に、光放射体の第1の部分に、手が電子デバイスの第1の部分上に位置していることを示す第1の光を出力させることと、電子デバイスの第2の部分上で手を検出していない第2の距離センサに少なくとも部分的に基づいて、第1の時間に、光放射体の第2の部分に、手が電子デバイスの第2の部分上に位置していることを示す第2の光の出力を控えさせることと、第1の距離センサを使用して第3のセンサデータを生成することと、第3のセンサデータを分析して、第1の距離センサが、電子デバイスの第1の部分上で手を再び検出したことを判定することと、第2のセンサを使用して第4のセンサデータを生成することと、第4のセンサデータを分析して、第2の距離センサが、電子デバイスの第2の部分上で手を検出したことを判定することと、第1の距離センサが、電子デバイスの第1の部分上で手を再び検出し、第2の距離センサが、電子デバイスの第2の部分上で手を検出したことに少なくとも部分的に基づいて、第2の時間に、光放射体に、手が電子デバイス上の目標場所に位置していることを示す第3の光を出力させることと、撮像デバイスを使用して、手を表す画像データを生成することと、ユーザプロファイルに関連付けられた第2の特徴データを参照して、画像データに対応する第1の特徴データを分析することと、画像データがユーザプロファイルに対応すると判定することと、を含む動作を実施させる、電子デバイス。
B:動作は、第1の距離センサを使用して、第5のセンサデータを生成することと、第5のセンサデータを分析して、第1の距離センサが、手の第1の部分が電子デバイスへの目標垂直距離内に位置していることを検出したことを判定することと、第2の距離センサを使用して、第6のセンサデータを生成することと、第6のセンサデータを分析して、第2の距離センサが、手の第2の部分が電子デバイスへの目標垂直距離の外側に位置していることを検出したことを判定することと、第1の距離センサが、手の第1の部分が目標垂直距離内に位置していることを検出したことに少なくとも部分的に基づいて、第3の時間に、光放射体の第1の部分に、手の第1の部分が目標垂直距離内に位置していることを示す第4の光を出力させることと、第2の距離センサが、手の第2の部分が目標垂直距離の外側に位置していることを検出したことに少なくとも部分的に基づいて、第3の時間に、光放射体の第2の部分に、手の第2の部分が目標垂直距離の外側に位置していることを示す第5の光を出力させることと、を更に含む、段落Aに記載の電子デバイス。
C:動作は、距離センサのうちの1つ以上を使用して、第5のセンサデータを生成することと、第5のセンサデータを分析して、手が電子デバイスへの目標垂直距離の外側に位置していることを判定することと、手が目標垂直距離の外側に位置していることに少なくとも部分的に基づいて、第3の時間に、光放射体に、手が目標垂直距離の外側に位置していることを示す第4の光を出力させることと、距離センサのうちの1つ以上を使用して、第6のセンサデータを生成することと、第6のセンサデータを分析して、手が電子デバイスへの目標垂直距離内に位置していることを判定することと、手が目標垂直距離内に位置していることに少なくとも部分的に基づいて、第4の時間に、光放射体に、手が目標垂直距離内に位置していることを示す第5の光を出力させることと、を更に含む、段落A又は段落Bに記載の電子デバイス。
D:電子デバイスであって、1つ以上のセンサと、視覚インジケータと、1つ以上のプロセッサと、命令を記憶している1つ以上のコンピュータ可読媒体と、を備え、命令は、1つ以上のプロセッサによって実行されると、電子デバイスに、1つ以上のセンサを使用して第1のセンサデータを生成することと、第1のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が電子デバイスに対する第1の場所に位置していることを判定することと、第1の場所に関連付けられた、視覚インジケータの第1の部分を識別することと、第1の時間に、視覚インジケータの第1の部分に、ユーザの一部分が第1の場所に位置していることを示す第1の指標を出力させることと、1つ以上のセンサを使用して第2のセンサデータを生成することと、第2のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が、電子デバイスに対する目標場所に位置していることを判定することと、第2の時間に、視覚インジケータの第1の部分に、ユーザの一部分が目標場所に位置していることを示す第2の指標を出力させることと、第2の時間に、視覚インジケータの第2の部分に、ユーザの一部分が目標場所に位置していることを示す第3の指標を出力させることと、を含む動作を実施させる、電子デバイス。
E:第1のセンサデータを生成することは、1つ以上のセンサのうちの第1のセンサを使用して、第1のセンサデータの第1の部分を生成することであって、第1のセンサは電子デバイスに対する第1の場所に関連付けられている、生成することと、1つ以上のセンサのうちの第2のセンサを使用して、第1のセンサデータの第2の部分を生成することであって、第2のセンサは電子デバイスに対する第2の場所に関連付けられている、生成することと、を含み、ユーザの一部分が電子デバイスに対する第1の場所に位置していることを判定することは、第1のセンサデータの第1の部分に少なくとも部分的に基づいて、第1のセンサがユーザの一部分を検出したことを判定することと、前記第1のセンサデータの前記第2の部分に少なくとも部分的に基づいて、前記第2のセンサが前記ユーザの前記一部分を検出しなかったことを判定することと、を含む、段落Dに記載の電子デバイス。
F:第2のセンサデータを生成することは、1つ以上のセンサのうちの第1のセンサを使用して、第2のセンサデータの第1の部分を生成することであって、第1のセンサは電子デバイスに対する第1の場所に関連付けられている、生成することと、1つ以上のセンサのうちの第2のセンサを使用して、第2のセンサデータの第2の部分を生成することであって、第2のセンサは電子デバイスに対する第2の場所に関連付けられている、生成することと、を含み、ユーザの一部分が電子デバイスに対する目標場所に位置していることを判定することは、第2のセンサデータの第1の部分に少なくとも部分的に基づいて、第1のセンサがユーザの一部分を検出したことを判定することと、第2のセンサデータの第2の部分に少なくとも部分的に基づいて、第2のセンサがユーザの一部分を検出したことを判定することと、を含む、段落D又は段落Eのいずれかに記載の電子デバイス。
G:動作は、第1のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が電子デバイスに対する第2の場所の外側に位置していることを判定することと、第1の時間に、視覚インジケータの第2の部分に、ユーザの一部分が第2の場所の外側に位置していることを示させることと、を更に含む、段落D~Fのいずれか1つに記載の電子デバイス。
H:視覚インジケータの第1の部分に、ユーザの一部分が第1の場所に位置していることを示す第1の指標を出力させることは、第1の時間に、視覚インジケータの第1の部分に、第1の光を出力させることを含み、視覚インジケータの第2の部分に、ユーザの一部分が第2の場所の外側に位置していることを示させることは、第1の時間に、視覚インジケータの第2の部分に、第2の光の出力を控えさせることを含む、段落Gに記載の電子デバイス。
I:動作は、1つ以上のセンサを使用して第3のセンサデータを生成することと、第3のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が、電子デバイスへの目標垂直距離の外側に位置していることを判定することと、第3の時間に、視覚インジケータに、ユーザの一部分が目標垂直距離の外側に位置していることを示す第4の指標を出力させることと、を更に含む、段落D~Hのいずれか1つに記載の電子デバイス。
J:視覚インジケータに、ユーザの一部分に関連付けられた角度が目標角度の外側にあることを示す第4の指標を出力させることは、第3の時間に、視覚インジケータの第3の部分に、第1の光色を出力させることと、第3の時間に、視覚インジケータの第4の部分に、第1の光色とは異なる第2の光色を出力させることと、を含む、段落Iに記載の電子デバイス。
K:動作は、1つ以上のセンサを使用して第3のセンサデータを生成することと、第3のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が、電子デバイスへの目標垂直距離の外側に位置していることを判定することと、第3の時間に、視覚インジケータに、ユーザの一部分が目標垂直距離の外側に位置していることを示す第4の指標を出力させることと、を更に含む、段落D~Jのいずれか1つに記載の電子デバイス。
L:動作は、1つ以上のセンサを使用して第4のセンサデータを生成することと、第4のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が、電子デバイスへの目標垂直距離内に位置していることを判定することと、第3の時間よりも遅い第4の時間に、視覚インジケータに、ユーザの一部分が目標垂直距離内に位置していることを示す第5の指標を出力させることと、を更に含む、段落Kに記載の電子デバイス。
M:視覚インジケータは、複数の光放射体を有する光リングを備え、視覚インジケータの第1の部分に、ユーザの一部分が第1の場所に位置していることを示す第1の指標を出力させることは、光放射体の第1の部分に、第1の光を放射させることであって、光放射体の第1の部分が第1の場所に関連付けられている、放射させることと、光放射体の第2の部分に、第2の光の放射を控えさせることであって、光放射体の第2の部分が電子デバイスに対する第2の場所に関連付けられている、控えさせることと、を含む、段落D~Lのいずれか1つに記載の電子デバイス。
N:少なくとも1つのスピーカを更に備え、動作が、第2のセンサデータを生成する前に、少なくとも1つのスピーカを使用して、ユーザの一部分を目標場所に配置するための命令に関連付けられた音を出力することを更に含む、段落D~Mのいずれか1つに記載の電子デバイス。
O 動作は、1つ以上のセンサを使用して画像データを生成することと、ユーザプロファイルに関連付けられた第2の特徴データを参照して、画像データに対応する第1の特徴データを分析することと、画像データがユーザプロファイルに対応すると判定することと、を更に含む、段落D~Nのいずれか1つに記載の電子デバイス。
P:方法であって、電子デバイスを使用して第1のセンサデータを生成することと、第1のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が電子デバイスに対する第1の場所に位置していることを判定することと、第1の場所に関連付けられた、視覚インジケータの第1の部分を識別することと、第1の時間に、視覚インジケータの第1の部分に第1の指標を出力させることと、1つ以上のセンサを使用して第2のセンサデータを生成することと、第2のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が、電子デバイスに対する第2の場所に位置していることを判定することと、第2の場所に関連付けられた、視覚インジケータの第1の部分を識別することと、第2の時間に、視覚インジケータの第1の部分に第2の指標を出力させることと、第2の場所に関連付けられた、視覚インジケータの第2の部分を識別することと、第2の時間に、視覚インジケータの第2の部分に第3の指標を出力させることと、を含む、方法。
Q:第1のセンサデータを生成することは、電子デバイスの第1のセンサを使用して第1のセンサデータの第1の部分を生成することであって、第1のセンサは、電子デバイスに対する第1の場所に関連付けられている、生成することと、電子デバイスの第2のセンサを使用して第1のセンサデータの第2の部分を生成することであって、第2のセンサは、電子デバイスに対する第3の場所に関連付けられている、生成することと、を含み、ユーザの一部分が電子デバイスに対する第1の場所に位置していることを判定することは、第1のセンサデータの第1の部分に少なくとも部分的に基づいて、第1のセンサがユーザの一部分を検出したことを判定することと、第1のセンサデータの第2の部分に少なくとも部分的に基づいて、第2のセンサがユーザの一部分を検出しなかったことを判定することと、を含む、段落Pに記載の方法。
R:第2のセンサデータを生成することは、電子デバイスの第1のセンサを使用して第2のセンサデータの第1の部分を生成することであって、第1のセンサは、電子デバイスに対する第1の場所に関連付けられている、生成することと、電子デバイスの第2のセンサを使用して第2のセンサデータの第2の部分を生成することであって、第2のセンサは、電子デバイスに対する第3の場所に関連付けられている、生成することと、を含み、ユーザの一部分が電子デバイスに対する第2の場所に位置していることを判定することは、第2のセンサデータの第1の部分に少なくとも部分的に基づいて、第1のセンサがユーザの一部分を検出したことを判定することと、第2のセンサデータの第2の部分に少なくとも部分的に基づいて、第2のセンサもまたユーザの部分を検出したことを判定することと、を含む、段落P又は段落Qのいずれかに記載の方法。
S:第1のセンサデータに少なくとも部分的に基づいて、ユーザの一部分が電子デバイスに対する第3の場所の外側に位置していることを判定することと、第1の時間に、視覚インジケータの第2の部分に、ユーザの一部分が第2の場所の外側に位置していることを示させることと、を更に含む、段落P~Rのいずれか1つに記載の方法。
T:電子デバイスを使用して第3のセンサデータを生成することと、第3のセンサデータに少なくとも部分的に基づいて、ユーザの一部分に関連付けられた角度が目標角度の外側にあることを判定することと、第3の時間に、視覚インジケータに、ユーザの一部分に関連付けられた角度が目標角度の外側にあることを示す第4の指標を出力させることと、を更に含む、段落P~Sのいずれか1つに記載の方法。

Claims (16)

  1. 電子デバイスであって、
    前記電子デバイスの上部表面と、
    前記上部表面に配置され、ユーザの一部分を表す画像データを生成するカメラと、
    前記上部表面に配置され、且つ前記カメラの第1側に配置された第1の距離センサと、
    前記上部表面に配置され、且つ前記第1側の反対で前記カメラの第2側に配置された第2の距離センサと、
    前記カメラの周囲に配置され、前記第1側に近接する第1の光リング部分と前記第2側に近接する第2の光リング部分とを有し、前記上部表面で前記カメラの周囲に光を放射して、前記電子デバイスに対する前記ユーザの一部分の位置を示すように構成された、光リングと、
    1つ以上のプロセッサと、
    命令を記憶している1つ以上のコンピュータ可読媒体と、を備え、前記命令は、前記1つ以上のプロセッサによって実行されると、前記電子デバイスに、
    前記第1の距離センサを使用して第1のセンサデータの第1の部分を生成することと、
    前記第2の距離センサを使用して前記第1のセンサデータの第2の部分を生成することと、
    前記第1のセンサデータに基づいて、前記ユーザの一部分が前記電子デバイスに対する第1の場所に位置していることを判定することと、
    前記第1の場所に関連付けられた前記第1の光リング部分を識別することと、
    第1の時間に、前記第1の光リング部分に、前記ユーザの前記一部分が前記第1の場所に位置していることを示すように光を放射させることと、
    前記第1の距離センサを使用して第2のセンサデータの第1の部分を生成することと、
    前記第2の距離センサを使用して前記第2のセンサデータの第2の部分を生成することと、
    前記第2のセンサデータに基づいて、前記ユーザの前記一部分が、前記電子デバイスに対する目標場所に位置していることを判定することと、
    第2の時間に、前記第1の光リング部分に、前記ユーザの前記一部分が前記目標場所に位置していることを示すように光を放射させることと、
    前記第2の時間に、前記第2の光リング部分に、前記ユーザの前記一部分が前記目標場所に位置していることを示すように光を放射させることと、
    を含む動作を実施させる、電子デバイス。
  2. 前記ユーザの前記一部分が前記電子デバイスに対する前記第1の場所に位置していることを判定することは、
    前記第1のセンサデータの前記第1の部分に基づいて、前記第1の距離センサが前記ユーザの前記一部分を検出したことを判定することと、
    前記第1のセンサデータの前記第2の部分に基づいて、前記第2の距離センサが前記ユーザの前記一部分を検出しなかったことを判定することと、を含む、請求項1に記載の電子デバイス。
  3. 前記ユーザの前記一部分が前記電子デバイスに対する前記目標場所に位置していることを判定することは、
    前記第2のセンサデータの前記第1の部分に基づいて、前記第1の距離センサが前記ユーザの前記一部分を検出したことを判定することと、
    前記第2のセンサデータの前記第2の部分に基づいて、前記第2の距離センサが前記ユーザの前記一部分を検出したことを判定することと、を含む、請求項1又は2に記載の電子デバイス。
  4. 前記動作は、
    前記第1のセンサデータに基づいて、前記ユーザの前記一部分が前記電子デバイスに対する第2の場所の外側に位置していることを判定することと、
    前記第1の時間に、前記第2の光リング部分に、前記ユーザの前記一部分が前記第2の場所の外側に位置していることを示させることと、を更に含む、請求項1、2、又は3に記載の電子デバイス。
  5. 前記第1の光リング部分に、前記ユーザの前記一部分が前記第1の場所に位置していることを示すように光を放射させることは、前記第1の時間に、前記第1の光リング部分に、第1の光を放射させることを含み、
    前記第2の光リング部分に、前記ユーザの前記一部分が前記第2の場所の外側に位置していることを示させることは、前記第1の時間に、前記第2の光リング部分に、第2の光の放射を控えさせることを含む、請求項4に記載の電子デバイス。
  6. 前記動作は、
    前記第1の距離センサ又は前記第2の距離センサを使用して第3のセンサデータを生成することと、
    前記第3のセンサデータに基づいて、前記ユーザの前記一部分に関連付けられた角度が目標角度の外側にあることを判定することと、
    第3の時間に、前記光リングに、前記ユーザの前記一部分に関連付けられた前記角度が前記目標角度の外側にあることを示す指標を出力させることと、を更に含む、請求項1から5のいずれか一項に記載の電子デバイス。
  7. 前記光リングに、前記ユーザの前記一部分に関連付けられた前記角度が前記目標角度の外側にあることを示す前記指標を出力させることは、
    前記第3の時間に、前記光リングの第3の光リング部分に、第1の光色を放射させることと、
    前記第3の時間に、前記光リングの第4の光リング部分に、前記第1の光色とは異なる第2の光色を放射させることと、を含む、請求項6に記載の電子デバイス。
  8. 前記動作は、
    前記第1の距離センサ又は前記第2の距離センサを使用して第3のセンサデータを生成することと、
    前記第3のセンサデータに基づいて、前記ユーザの前記一部分が、前記電子デバイスへの目標垂直距離の外側に位置していることを判定することと、
    第3の時間に、前記光リングに、前記ユーザの前記一部分が前記目標垂直距離の外側に位置していることを示す第1の指標を出力させることと、を更に含む、請求項1から5のいずれか一項に記載の電子デバイス。
  9. 前記動作は、
    前記第1の距離センサ又は前記第2の距離センサを使用して第4のセンサデータを生成することと、
    前記第4のセンサデータに基づいて、前記ユーザの前記一部分が、前記電子デバイスへの目標垂直距離の内側に位置していることを判定することと、
    前記第3の時間より遅い第4の時間に、前記光リングに、前記ユーザの前記一部分が前記目標垂直距離の内側に位置していることを示す第2の指標を出力させることと、を更に含む、請求項8に記載の電子デバイス
  10. 前記光リングは、複数の光放射体を有
    前記光リングの前記第1の光リング部分に、前記ユーザの前記一部分が前記第1の場所に位置していることを示すように光を放射させることは、
    前記光放射体の第1の部分に、第1の光を放射させることと
    前記光放射体の第2の部分に、第2の光の放射を控えさせることと、を含む、請求項1から9のいずれか一項に記載の電子デバイス。
  11. 少なくとも1つのスピーカを更に備え、前記動作が、前記第2のセンサデータを生成する前に、前記少なくとも1つのスピーカを使用して、前記ユーザの前記一部分を前記目標場所に配置するための命令に関連付けられた音を出力することを更に含む、請求項1から10のいずれか一項に記載の電子デバイス。
  12. 前記動作は、
    前記カメラを使用して画像データを生成することと、
    ユーザプロファイルに関連付けられた第2の特徴データを参照して、前記画像データに対応する第1の特徴データを分析することと、
    前記画像データが前記ユーザプロファイルに対応すると判定することと、を更に含む、請求項1から11のいずれか一項に記載の電子デバイス。
  13. 方法であって、
    電子デバイスの上部表面に配置され且つ前記電子デバイスの前記上部表面に配置されたカメラの第1側に配置された第1の距離センサを使用して第1のセンサデータの第1の部分を生成することと、
    前記上部表面に配置され且つ前記第1側の反対で前記カメラの第2側に配置された第2の距離センサを使用して、前記第1のセンサデータの第2の部分を生成することと、
    前記第1のセンサデータに基づいて、ユーザの一部分が前記電子デバイスに対する第1の場所に位置していることを判定することと、
    前記第1の場所に関連付けられた、前記上部表面で前記カメラの周囲に配置された光リングの第1の光リング部分を識別することと、
    第1の時間に、前記第1の光リング部分、前記ユーザの一部分が前記電子デバイスに対する第1の場所に位置していること示すように光を放射させることと、
    前記第1の距離センサを使用して第2のセンサデータの第1の部分を生成することと、
    前記第2の距離センサを使用して前記第2のセンサデータの第2の部分を生成することと、
    前記第2のセンサデータに基づいて、前記ユーザの前記一部分が、前記電子デバイスに対する第2の場所に位置していることを判定することと、
    第2の時間に、前記第1の光リング部分に前記ユーザの一部分が前記電子デバイスに対する第2の場所に位置していること示すように光を放射させることと、
    前記第2の場所に関連付けられた、前記光リングの第2の光リング部分を識別することと、
    前記第2の時間に、前記第2の光リング部分に前記ユーザの一部分が前記電子デバイスに対する第2の場所に位置していること示すように光を放射させることと、を含む、方法。
  14. 前記ユーザの前記一部分が前記電子デバイスに対する前記第1の場所に位置していることを判定することは、
    前記第1のセンサデータの前記第1の部分に基づいて、前記第1の距離センサが前記ユーザの前記一部分を検出したことを判定することと、
    前記第1のセンサデータの前記第2の部分に基づいて、前記第2の距離センサが前記ユーザの前記一部分を検出しなかったことを判定することと、を含む、請求項13に記載の方法。
  15. 前記ユーザの前記一部分が前記電子デバイスに対する前記第2の場所に位置していることを判定することは、
    前記第2のセンサデータの前記第1の部分に基づいて、前記第1の距離センサが前記ユーザの前記一部分を検出したことを判定することと、
    前記第2のセンサデータの前記第2の部分に基づいて、前記第2の距離センサもまた前記ユーザの前記部分を検出したことを判定することと、を含む、請求項13又は14に記載の方法。
  16. 前記第1のセンサデータに基づいて、前記ユーザの前記一部分が前記電子デバイスに対する第3の場所の外側に位置していることを判定することと、
    前記第1の時間に、前記第2の光リング部分に、前記ユーザの前記一部分が前記第3の場所の外側に位置していることを示させるように光を放射させることと、を更に含む、請求項13から15のいずれか一項に記載の方法。
JP2022567905A 2020-06-29 2021-06-28 ユーザの自動識別のための電子デバイス Active JP7449408B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/914,809 US11270102B2 (en) 2020-06-29 2020-06-29 Electronic device for automated user identification
US16/914,809 2020-06-29
PCT/US2021/039327 WO2022005945A1 (en) 2020-06-29 2021-06-28 Electronic device for automated user identification

Publications (2)

Publication Number Publication Date
JP2023526196A JP2023526196A (ja) 2023-06-21
JP7449408B2 true JP7449408B2 (ja) 2024-03-13

Family

ID=77022289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022567905A Active JP7449408B2 (ja) 2020-06-29 2021-06-28 ユーザの自動識別のための電子デバイス

Country Status (4)

Country Link
US (2) US11270102B2 (ja)
EP (1) EP4172853A1 (ja)
JP (1) JP7449408B2 (ja)
WO (1) WO2022005945A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11941629B2 (en) 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification
USD969812S1 (en) 2019-11-25 2022-11-15 Amazon Technologies, Inc. User recognition device
USD961591S1 (en) * 2021-03-15 2022-08-23 Salvus, Llc Cartridge reader
USD991932S1 (en) 2021-05-25 2023-07-11 Amazon Technologies, Inc. User recognition device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509657A (ja) 2006-11-03 2010-03-25 サーニ・コンサルティング・エルエルシー 生体識別のための方法及び装置
WO2010086993A1 (ja) 2009-01-30 2010-08-05 富士通フロンテック株式会社 認証装置、撮像装置、認証方法および認証プログラム
WO2013020577A2 (en) 2011-08-07 2013-02-14 Sensometrix Sa Body part guidance control method for non contact biometric authentication device, and biometric authentication device
JP2015121904A (ja) 2013-12-20 2015-07-02 富士通株式会社 生体認証装置及び生体認証方法
JP2015170320A (ja) 2014-03-10 2015-09-28 富士通株式会社 照明装置及び生体認証装置
US20170169202A1 (en) 2015-12-09 2017-06-15 John Anthony DUGGAN Methods and systems for capturing biometric data

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010116470A1 (ja) * 2009-03-30 2010-10-14 富士通株式会社 生体認証装置、生体認証方法、および記憶媒体
US8903119B2 (en) 2010-10-11 2014-12-02 Texas Instruments Incorporated Use of three-dimensional top-down views for business analytics
WO2013059716A2 (en) * 2011-10-19 2013-04-25 Ran Margalit Automated purchasing system
WO2013112749A1 (en) 2012-01-24 2013-08-01 University Of Southern California 3d body modeling, from a single or multiple 3d cameras, in the presence of motion
US9473747B2 (en) * 2013-07-25 2016-10-18 Ncr Corporation Whole store scanner
JP2016194799A (ja) 2015-03-31 2016-11-17 富士通株式会社 画像解析装置及び画像解析方法
CN107249491A (zh) * 2015-06-01 2017-10-13 奥林巴斯株式会社 医疗用机械手
JP6776559B2 (ja) * 2016-03-03 2020-10-28 富士通株式会社 生体画像処理装置、生体画像処理方法および生体画像処理プログラム
US10127438B1 (en) 2017-08-07 2018-11-13 Standard Cognition, Corp Predicting inventory events using semantic diffing
US10133933B1 (en) 2017-08-07 2018-11-20 Standard Cognition, Corp Item put and take detection using image recognition
CN109960964A (zh) 2017-12-14 2019-07-02 红石生物特征科技有限公司 非接触式掌纹获取装置及其方法
US11941629B2 (en) 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509657A (ja) 2006-11-03 2010-03-25 サーニ・コンサルティング・エルエルシー 生体識別のための方法及び装置
WO2010086993A1 (ja) 2009-01-30 2010-08-05 富士通フロンテック株式会社 認証装置、撮像装置、認証方法および認証プログラム
WO2013020577A2 (en) 2011-08-07 2013-02-14 Sensometrix Sa Body part guidance control method for non contact biometric authentication device, and biometric authentication device
JP2015121904A (ja) 2013-12-20 2015-07-02 富士通株式会社 生体認証装置及び生体認証方法
JP2015170320A (ja) 2014-03-10 2015-09-28 富士通株式会社 照明装置及び生体認証装置
US20170169202A1 (en) 2015-12-09 2017-06-15 John Anthony DUGGAN Methods and systems for capturing biometric data

Also Published As

Publication number Publication date
JP2023526196A (ja) 2023-06-21
US20210406531A1 (en) 2021-12-30
EP4172853A1 (en) 2023-05-03
WO2022005945A1 (en) 2022-01-06
US20220262156A1 (en) 2022-08-18
US11270102B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
JP7449408B2 (ja) ユーザの自動識別のための電子デバイス
US11288490B1 (en) Utilizing sensor data for automated user identification
US11568361B1 (en) Merging events in interactive data processing systems
US11941629B2 (en) Electronic device for automated user identification
US11017203B1 (en) Utilizing sensor data for automated user identification
US11328147B1 (en) Identifying item barcodes
US11861678B1 (en) Updating cart state using auto-generated sensor data
JP7417738B2 (ja) カスタマイズされた小売環境
US11705133B1 (en) Utilizing sensor data for automated user identification
US11922486B2 (en) Identifying items using cascading algorithms
US11443275B1 (en) Maintaining accurate cart-state using auto-generated sensor data
US20190337549A1 (en) Systems and methods for transactions at a shopping cart
JP2023550084A (ja) イベントを識別するためのセンサデータの分析
US11887046B1 (en) Updating machine learning systems using previous output data
US11393301B1 (en) Hybrid retail environments
US11790630B1 (en) Inferring facility planograms
US11392889B1 (en) Analysis of events for state detection
US11880779B1 (en) Generating event results using auto-generated sensor data
US11816932B1 (en) Updating identification data in automated user-identification systems
US11488231B1 (en) Systems and method for an application for updating virtual carts
US11402971B1 (en) User interface preference management
US11488103B1 (en) Customized retail environments
US11068962B1 (en) Updating cart state using auto-generated sensor data
US11869065B1 (en) System and method for vision-based event detection
US11756036B1 (en) Utilizing sensor data for automated user identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R150 Certificate of patent or registration of utility model

Ref document number: 7449408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150