JP6306683B2 - 動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム - Google Patents

動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム Download PDF

Info

Publication number
JP6306683B2
JP6306683B2 JP2016501646A JP2016501646A JP6306683B2 JP 6306683 B2 JP6306683 B2 JP 6306683B2 JP 2016501646 A JP2016501646 A JP 2016501646A JP 2016501646 A JP2016501646 A JP 2016501646A JP 6306683 B2 JP6306683 B2 JP 6306683B2
Authority
JP
Japan
Prior art keywords
processor
model
parameter
cluster
fitting model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016501646A
Other languages
English (en)
Other versions
JP2016517084A (ja
Inventor
アンマ アヤコ
アンマ アヤコ
エム.エー.ドジュガシュ ジョセフ
エム.エー.ドジュガシュ ジョセフ
Original Assignee
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド, トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド filed Critical トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Publication of JP2016517084A publication Critical patent/JP2016517084A/ja
Application granted granted Critical
Publication of JP6306683B2 publication Critical patent/JP6306683B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Description

本開示は、一般に、コンピュータビジョンにおける動的カテゴリ物体認識の、コンピュータベースの方法及びシステムに関し、且つ、更に詳しくは、ターゲット物体に関する学習された物体モデル、位置決め、及び姿勢情報を使用した動的認識の、コンピュータベースの方法及びシステムに関する。
物体認識は、周囲の環境及びその内部の物体のコンピュータビジョンを必要とする様々な分野において必要とされている。例えば、物体を把持又はピックアップするなどのロボット操作のタスクは、ターゲット物体の位置決め及び姿勢の認識を必要としうる。従来の物体認識方法及びシステムは、3次元(3D)の登録モデルを構築するための物体の正確な登録を必要としている。但し、正確な登録は、大きな処理能力を必要としうる。現時点においては、正確な物体の登録を伴うことなしにターゲット物体の姿勢及び位置決めを推定するには、コンピュータベースの方法又はシステムが必要とされている。
更には、従来の方法及びシステムは、固定された予めプログラム済みの物体認識アルゴリズムを備えている。将来の物体認識のために学習されたデータを利用する動的アルゴリズムを使用したターゲット物体及びその対応する部分の姿勢及び位置決めを推定するための、コンピュータベースの方法又はシステムが必要とされている。
本開示は、一般に、コンピュータビジョンにおける動的カテゴリ物体認識の、コンピュータベースの方法及びシステムに関し、且つ、更に詳しくは、ターゲット物体に関する学習されたモデル、位置決め、及び姿勢情報を使用して動的に認識する方法及びシステムに関する。
一実施形態においては、本発明は、例えば、少なくとも1つのターゲット物体に対応した視覚的データセットに基づいて物体の姿勢及び位置決め情報を推定する、コンピュータベースの方法であってもよく、本方法は、データベースを使用し、少なくとも1つのパラメータをそれぞれが有する複数の物体モデルを提供するステップと、プロセッサを使用し、保存されている複数の物体モデルとの比較において視覚的データセットを分析するステップと、プロセッサを使用し、保存されている複数の物体モデルとの比較において分析された視覚的データセットに基づいて、少なくとも1つのパラメータを有する物体フィッティングモデルを構築するステップと、プロセッサを使用し、物体フィッティングモデルの少なくとも1つのパラメータを推定するステップと、プロセッサを使用し、物体フィッティングモデル及び物体フィッティングモデルの推定された少なくとも1つのパラメータに基づいて、学習された物体モデルをデータベース内において保存するステップと、を含む。
別の実施形態においては、本発明は、第1視覚的データ及び第2視覚的データを含む視覚的データセットに基づいてターゲット物体の物体姿勢及び位置決め情報を推定する、コンピュータベースの方法であってもよく、本方法は、データベースを使用し、少なくとも1つのパラメータをそれぞれが有する複数の物体モデルを提供するステップと、プロセッサを使用し、第1視覚的データ及び第2視覚的データを含む視覚的データセットを受け取るか又は検出するステップと、プロセッサを使用し、第1視覚的データの第1エンクロージャに隣接した、その周囲の、又はその内部の第1ターゲットデータを第1物体モデルに対して形状又は構造において類似していると認識するステップと、プロセッサを使用し、第1エンクロージャに基づいてターゲット物体に対応した第2ターゲットデータ内のクラスタをセグメント化又は抽出するステップと、プロセッサを使用し、保存されている複数の物体モデルとの比較においてクラスタを分析するステップと、プロセッサを使用し、且つ、保存されている複数の物体モデルとの比較において分析された視覚的データセットに基づいて、少なくとも1つのパラメータを有する物体フィッティングモデルを構築するステップと、プロセッサを使用し、物体フィッティングモデルの少なくとも1つのパラメータを推定するステップと、プロセッサを使用し、物体フィッティングモデル及び物体フィッティングモデルの推定された少なくとも1つのパラメータに基づいて、学習された物体モデルをデータベース内において保存するステップと、を有する。
更に別の実施形態においては、本発明は、少なくとも1つのターゲット物体に対応した視覚的データセットに基づいて物体の姿勢及び位置決め情報を推定する、コンピュータベースの方法であってもよく、本方法は、データベースを使用し、少なくとも1つのパラメータをそれぞれが有する複数の物体モデルを提供するステップと、プロセッサを使用し、且つ、複数の物体モデルとの比較により、ターゲットデータセットを物体フィッティングモデルに対して形状又は構造において類似していると認識するステップと、プロセッサを使用し、保存されている複数の物体モデルとの比較において分析された視覚的データセットに基づいて複数の物体モデルの少なくとも1つのパラメータを推定するステップと、プロセッサを使用し、物体フィッティングモデル及び物体フィッティングモデルの推定された少なくとも1つのパラメータに基づいて、学習された物体モデルをデータベース内において保存するステップと、を有する。
本発明のその他のシステム、方法、特徴、及び利点については、以下の図面及び詳細な説明を参照することにより、当業者に明らかとなろう。すべてのこのような更なるシステム、方法、特徴、及び利点は、この説明に含まれ、本発明の範囲に含まれ、且つ、添付の請求項によって保護されるものと解釈されたい。図面に示されているコンポーネントの各部分は、必ずしも縮尺が正確ではなく、且つ、本発明の重要な特徴を相対的に良好に示すべく、誇張されている場合がある。図面においては、同一の参照符号により、様々な図面の全体を通じて、同一の部分を表記している。
本発明の一実施形態による動的カテゴリ物体認識方法及び/又はシステムのブロックダイアグラムである。 本発明の一実施形態による動的カテゴリ物体認識を実行する、コンピュータベースの方法/システムを示す意思決定フローチャートを示す。 本発明の一実施形態による視覚的データに適用される、カテゴリ物体認識のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による視覚的データに適用される、カテゴリ物体認識のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による視覚的データに適用される、カテゴリ物体認識のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による視覚的データに適用される、カテゴリ物体認識のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による視覚的データに適用される、カテゴリ物体認識のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による複数の物体モデルに基づいたセグメント化及び抽出のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による複数の物体モデルに基づいたセグメント化及び抽出のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による複数の物体モデルに基づいたセグメント化及び抽出のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による複数の物体モデルに基づいたセグメント化及び抽出のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による複数の物体モデルに基づいたセグメント化及び抽出のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による複数の物体モデルに基づいたセグメント化及び抽出のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態によるターゲット物体の姿勢パラメータの推定及び位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態によるターゲット物体の姿勢パラメータの推定及び位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態によるターゲット物体の姿勢パラメータの推定及び位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態によるターゲット物体の姿勢パラメータの推定及び位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態によるターゲット物体の姿勢パラメータの推定及び位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による学習された物体モデルを使用した姿勢及び/又は位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。 本発明の一実施形態による学習された物体モデルを使用した姿勢及び/又は位置決めの推定のためのコンピュータベースの方法/システムの一段階を示す。
図1を参照すれば、本発明の一実施形態による方法/システム100のブロックダイアグラムが示されている。方法/システム100は、プロセッサ102と、通信ユニット104と、センサ106と、データベース112と、外部装置114と、を含んでもよい。データベース112は、メモリ108と、クラウドベースのデータベース及び演算110と、を含んでもよい。その他の実施形態においては、データベース112は、メモリ108のみを含んでもよく、或いは、クラウドベースのデータベース及び演算110のみを含んでもよい。方法/システム100の様々なユニットは、制御エリアネットワーク(Control Area Network:CAN)バスを通じた電子信号の送信を利用することにより、互いに通信状態にあってもよい。その他の実施形態においては、制御及び通信は、様々なその他のタイプのシリアル通信リンク、直接的配線、デジタル通信バス、無線通信、又はその他の通信リンク及びネットワーク上におけるものであってもよい。
方法/システム100は、任意の特定の装置、ユニット、又はプラットフォームに限定されるものではない。一実施形態においては、方法/システム100は、ロボット装置内において統合されているか、或いは、ロボットプラットフォームに結合されている。
図1を再度参照すれば、方法/システム100は、視覚的データセットを検出するべく、センサ106を利用してもよい。センサ106は、単一のセンサであってもよく、或いは、データを検出するべく協働する複数のセンサであってもよい。センサ106は、物理的な量を計測し、且つ、計測された物理的量を、プロセッサ102によって分析又は処理されうる信号に変換するコンバータを含んでもよい。センサ106は、方法/システム100内において統合されてもよく、或いは、これに対して結合されてもよい。センサ106は、センサ106が、例えば、ネットワークを介して、プロセッサ102との通信状態となるように、方法/システム100から離れた所定の距離において位置決めされてもよい。プロセッサ102は、センサ106によって検出されたデータを補完するべく、外部装置114に結合されてもよく、或いは、これとの通信状態にあってもよい。
センサ106は、画像センサ又はカメラを更に含んでもよく、画像センサ又はカメラは、環境及び/又はその内部の物体の画像/ビデオをキャプチャするべく、方法/システム100内において統合されてもよく、これに結合されてもよく、或いは、これとの通信状態にあってもよい。カメラの代わりに、又はこれに加えて、環境及び/又はその内部の物体に関する3Dデータを検出するべく、3D深度センサが利用されてもよい。
センサ106は、境界線監視センサを含んでもよく、或いは、紫外線、高周波、又は赤外線センサを含んでもよい。その形状及びその外観(例えば、色)に関するデータを収集するべく現実世界の物体又は環境を分析するために、3Dスキャナが利用されてもよい。次いで、検出されたデータは、デジタル3Dモデルを構築するべく、プロセッサ102に伝達される。本発明の範囲を限定することなしに、検出された視覚的データの品質を改善するか又は量を増大させるべく、様々なその他のセンサが、センサ106内において統合されてもよく、これに結合されてもよく、或いは、これとの通信状態にあってもよい。
方法/システム100がモバイルユニット(例えば、ロボット装置/プラットフォーム、車両、輸送装置、並びに、これらに類似したもの)に結合されているか又はこれに内蔵されている場合には、モバイルユニットは、環境を横断してもよい。環境を横断する1つの利点は、検出されたデータの品質を改善すると共に/又はその量を増大させるべく、プロセッサ102がセンサ106との通信状態にありうるという点にある。更には、環境を横断することにより、環境の3D視覚化を分析することができる。例えば、ロボット装置/プラットフォームは、視覚的データセットを検出するための相対的に良好な位置においてセンサ106のうちの少なくとも1つを配置するべく、環境を横断してもよく、或いは、環境に進入した直後の人物又は物体に接近してもよい。例えば、ロボット装置/プラットフォームは、閉塞物体、場所、又は人物の顔面特徴の画像をキャプチャするべく、インテリジェントに運動してもよい。経路の横断が予め完了している場合には、ロボット装置/プラットフォームは、予め実行されている任意のバックトラッキングを除去してもよい。
検出データの供給源は、センサ106でなくてもよい。一実施形態においては、プロセッサ102は、外部装置114から、或いは、例えば、クラウドベースのデータベース及び演算110との通信状態にあるその他の外部装置から、検出データを受け取っている。本発明は、動的カテゴリ物体認識を提供するためのデータの分析及び処理を対象としている。従って、視覚的データを検出、取得、又は受け取る方法の変化は、本発明の範囲を制限するものではない。
データベース112は、複数のカテゴリ物体モデルに関するデータを保存している。プロセッサ102は、ターゲット物体を認識すると共にターゲット物体の姿勢及び/又は位置決めパラメータを推定するための複数のカテゴリ物体モデルを利用している。プロセッサ102は、データベース112内に保存されている複数の物体モデルを更に変更及び/又は補完してもよい。例えば、プロセッサ102は、将来の新たに遭遇されるターゲット物体に関する動的カテゴリ物体認識を可能にするべく、学習された物体モデルをデータベース112内において保存してもよい。
図2を参照すれば、環境の視覚的特性に対応した視覚的データセットは、データベース112又は外部装置114から、プロセッサ102によって受け取られる。これに加えて、又はこの代わりに、センサ106が、プロセッサ102によって分析される視覚的データを検出する。
図3Aを参照すれば、例えば、環境の視覚的データセット304は、3Dセンサ302によって検出される。環境は、少なくとも1つのターゲット物体310を含んでもよい。方法/システム200は、ターゲット物体310に関する姿勢情報を推定しようとする。本明細書において使用されている姿勢情報とは、限定を伴うことなしに、物体の姿勢又は構造、物体自体の位置決め、物体及びその他の物体部分との関係における物体の一部分の位置決め、周囲の環境又はその他の物体との関係における物体又はその一部分の位置決め、物体のサイズ、形状、及び寸法、物体の構造、物体の任意の姿勢又は位置決めを定義するパラメータ、又はこれらの組合せを含むものを意味しうる。
好適な実施形態においては、プロセッサ102、3Dセンサ302、又はセンサ106は、例えば、2次元(2D)データであってもよい視覚的データセット304内の第1視覚的データ306と、例えば、深度又は3Dポイントデータであってもよい第2視覚的データ308という2つのデータサブセットを視覚的データセット304から検出又は抽出してもよい。一実施形態においては、第1視覚的データ306及び第2視覚的データ308は、同一の検出データの供給源に由来することにより、相互に依存したものであってもよい。例えば、第1視覚的データ306は、第2視覚的データ308によって提供される同一の3Dポイントデータに対応した2D画像であってもよい。別の実施形態においては、第1視覚的データ306と第2視覚的データ308は、独立的に検出されてもよい。例えば、第1視覚的データ306は、カメラによって検出された2D画像であってもよく、且つ、第2視覚的データ308は、3D又は深度センサによって検出された3Dポイントデータに対応したものであってもよい。
第1視覚的データ306と第2視覚的データ308は、第1視覚的データ306と第2視覚的データ308の両方の比較及び処理を許容するべく、アライメント又は較正されてもよい。
本明細書において使用されるターゲットデータセットは、ターゲット物体310に対応するものとして方法/システム200のステップ204の物体認識ステージにおいて認識される視覚的データセット304の1つのセクションを意味している。例えば、ターゲットデータセットは、第1視覚的データ306と第2視覚的データ308が較正されている際には、ターゲット物体310に対応した第1視覚的データ306及び第2視覚的データ308の両方を意味してもよい。例えば、ターゲットデータセットは、第1エンクロージャを使用することにより、識別されてもよい。一実施形態においては、ターゲットデータセットは、第1エンクロージャに隣接した、その周りの、又はその内部の第1視覚的データ306及び/又は第2視覚的データ308に対応していてもよい。
図2〜図5との関係において本明細書において記述されている例示用の実施形態は、例示用の実施形態を詳細に示すための第1視覚的データ306及び第2視覚的データ308の処理に対応している。但し、方法/システム200は、全体として(例えば、第1視覚的データ306及び第2視覚的データ308への分離を伴うことなしに)、視覚的データセット304に対して適用されてもよい。視覚的データセット304は、2Dデータ、3Dデータ、又はその他のタイプのデータであってもよい。例えば、ステップ204との関係において後述する例示用の実施形態は、第1視覚的データ306の分析に対応している。但し、その他の実施形態においては、ステップ204においてカテゴリ物体を認識するべく、2Dデータのみ、3Dデータのみ、2D及び第3Dデータの組合せ、或いは、その他のタイプのデータが利用されてもよい。
図3Aを参照すれば、例えば、第1視覚的データ306は、面324(例えば、テーブル)上において位置決めされたターゲット物体310の2D画像に対応している。第2視覚データ308は、面324上において位置決めされたターゲット物体310の3D深度データに対応している。
図2を参照すれば、ステップ204において、プロセッサ102を使用して第1視覚的データ306を分析するべく、カテゴリ物体認識が実行されている。第1視覚的データ306が、データベース112内に保存されている複数の物体モデルに基づいて分析される。例えば、複数の物体モデルは、素朴な形状を定義する対応したパラメータと関連付けられた円筒体、箱、及びこれらに類似したものなどの素朴な形状を含んでもよい。例えば、プロセッサ102は、第1視覚的データ306の任意の部分が、形状において、構造において、又は、その他の姿勢情報の観点において、データベース112内に保存されている複数の物体モデルに対応しているかどうかを判定してもよい。複数の物体モデルのそれぞれは、少なくとも1つのパラメータを有してもよい。例えば、物体モデルは、高さ及び半径のパラメータを有する円筒体であってもよい。例えば、物体モデルは、幅、高さ、及び長さの3つのパラメータを有する箱であってもよい。
プロセッサ102が複数の物体モデルのうちの1つの物体モデルについてサーチした際に、複数の物体モデルが、第1視覚的データ306の一部分に対して形状又は構造において類似している場合がある。例えば、瓶(例えば、ターゲット物体310)の本体は、円筒体又は箱に対して形状又は構造において類似しうる。プロセッサ102は、複数の物体モデルのうちのいずれが、第1視覚データ306の分析された部分について最も近接したフィットを有しているのかを判定するように構成されている。例えば、プロセッサ102は、複数の物体モデルのうちの特定の物体モデルと第1視覚的データ306の分析された部分の間の類似性の程度に関するスコア(例えば、認識精度百分率)を割り当ててもよい。例えば、プロセッサ102は、最高の関連付けられたスコア(例えば、認識精度百分率)と関連付けられた複数の物体モデルのうちの1つの物体モデルを第1視覚的データ306の分析された部分に対応した物体モデルとして選択してもよい。従って、一実施形態においては、プロセッサ102は、選択された物体モデルのパラメータを判定している。
後述するように、複数の物体モデルは、固定されてはいない。保存されている物体モデル及びその対応したパラメータは、補完又は変更されてもよい。これに加えて、又はこの代わりに、認識されたターゲット物体に基づいて、新しいカテゴリ物体モデルが、学習されてもよく、且つ、データベース112内において保存されてもよい。この関連における議論は、方法/システム200が第1時間にわたってターゲット物体310を検出しており、且つ、未だ、全体としてターゲット物体310と類似した形状、構造、又は姿勢情報を有する物体に遭遇しておらず、且つ、それらが保存されてもいないことを仮定している。
図3Bを参照すれば、方法/システム200のステップ204におけるカテゴリ物体認識の一例が示されている。例えば、プロセッサ102は、第1視覚的データ306によって表されている2D画像の左上コーナーから始まり、その後に、方向314において右に移動することにより、左から右へ、摺動エンクロージャ312に隣接した、その周りの、又はその内部の第1視覚的データ306を調査してもよい。プロセッサ102は、データベース112内に保存されている複数の物体モデルのうちの1つの物体モデルに対して形状又は構造において類似している第1視覚的データ306内の物体を認識してもよい。その他の実施形態においては、第1視覚的データ306のいずれの部分がデータベース112内に保存されている物体モデルにマッチングしているのかを判定するべく、摺動エンクロージャ312の代わりに、視覚的データセット304、第1視覚的データ306、第2視覚的データ308、又はこれらの組合せが、全体として調査されてもよい。
図3Cは、ステップ204のカテゴリ物体認識の結果を示している。プロセッサ102は、ターゲット物体310が物体モデルのうちの1つに類似していると認識してもよい。第1エンクロージャ350は、本発明の範囲を限定することなしに、境界ボックス、境界サークル、又は任意のその他の形状であってもよい。第1エンクロージャ350は、第1中心点316を有する。第1エンクロージャ350が、境界ボックスである際には、第1中心点316は、境界ボックスのそれぞれの辺からほぼ等しい距離を有する地点である。第1エンクロージャ350が境界サークルである際には、第1中心点316は、境界サークルの中心であってもよい。一実施形態においては、プロセッサ102は、第1中心点316が、ターゲット物体310に対応した視覚的データセット304の一部分上において位置決めされるか、これに対応しているか、或いは、その内部に含まれるように、第1中心点316を判定してもよい。例えば、ターゲット物体310は、第1エンクロージャ350内において、その周りにおいて、又はそれに隣接して、位置決めされてもよい。プロセッサ102は、第1ターゲットデータ(第1視覚的データ306の一部分である)がターゲット物体310に対応していると判定する。
図3Dを参照すれば、方法/システム200のステップ204は、データベース112内に保存されている物体モデルのうちの少なくとも1つに形状又は構造においてそれぞれが類似しているターゲット物体310の複数の部分を認識するべく使用されうるエンクロージャを更に生成してもよい。ターゲット物体310の認識される部分の数は、複数の物体モデルの少なくとも1つに形状又は構造において類似したターゲット物体310の部分の数に依存しうる。従って、認識されるものの数は、様々な認識されるターゲット物体の間において変化してもよい。
例えば、プロセッサ102は、第1ターゲットデータの第1ターゲットデータ部分(例えば、第2エンクロージャ352に隣接した、その周りの、又はその内部の第1ターゲットデータの部分)が物体モデル(例えば、円筒体)に形状において類似していると更に認識してもよい。第1ターゲットデータの第1ターゲットデータ部分は、ターゲット物体310の第1部分(例えば、瓶の本体)に対応している。第2中心点318は、第2エンクロージャ352の中心点である。一実施形態においては、プロセッサ102は、第2中心点318が、ターゲット物体310の第1部分(例えば、瓶の本体)に対応した視覚的データセット304の一部分上において位置決めされるか、これに対応しているか、或いは、この内部に含まれるように、第2中心点318を判定してもよい。
例えば、プロセッサ102は、第1ターゲットデータの(第3エンクロージャに隣接した、その周りの、又はその内部の)第2ターゲットデータ部分が物体モデル(例えば、円筒体)に形状において類似していると更に認識してもよい。第1ターゲットデータの第2ターゲットデータ部分は、ターゲット物体310の第2部分(例えば、瓶の頭部又はキャップ)に対応している。第3中心点322は、第3エンクロージャ354の中心点である。一実施形態においては、プロセッサ102は、第2中心点322が、ターゲット物体310の第2部分(例えば、瓶の頭部又はキャップ)に対応した視覚的データセット304の一部分上において位置決めされるか、これに対応しているか、又はこの内部に含まれるように、第3中心点322を判定してもよい。
プロセッサ102は、第1ターゲットデータ(ターゲット物体310を含む)が第1物体モデル(例えば、円筒体)に形状又は構造において対応していると判定してもよく、且つ、ターゲット物体310に対応した物体フィッティングモデル360(図示されてはいない)を判定してもよい。
図3Eに示されているように、プロセッサ102は、第1ターゲットデータの第1ターゲットデータ部分が、ターゲット物体310の第1部分を含み、且つ、第2物体モデル(例えば、円筒体)に形状又は構造において対応していると判定してもよく、且つ、ターゲット物体310の第1部分に対応した第1部分フィッティングモデル370を判定してもよい。
図3Eに示されているように、プロセッサ102は、第1ターゲットデータの第2ターゲットデータ部分が、ターゲット物体310の第2部分を含み、且つ、第3物体モデル(例えば、円筒体)に形状又は構造において対応していると判定してもよく、且つ、ターゲット物体310の第2部分に対応した第2部分フィッティングモデル380を判定してもよい。
一実施形態においては、ステップ204が実行された際に、ターゲット物体310の円筒形形状の全体形状又はカテゴリが、全体として又は部分的に、認識されるが、姿勢情報(例えば、円筒体の直径又は半径及び高さの関連付けられたパラメータ、サイズ、並びに、位置決め)が、更に取得されてもよく、且つ/又は、ステップ206〜218において、相対的に高度な精度により、改善されてもよい。
ステップ206〜216において、物体モデルは、例えば、RANSAC(RANdom SAmple Consensus)法を使用することによってパラメータを近似するべく、視覚的データセット304(例えば、3Dポイントデータを含む第2視覚的データ308)によってフィッティングされている。更には、例えば、変形可能部分モデル(Deformable Part Models:DPM)法を使用することにより、ターゲット物体310の第1部分とターゲット物体310の第2部分の間の関係が調査されてもよい。例えば、プロセッサ102は、第1部分フィッティングモデル370と第2部分フィッティングモデル380が同心状態にあるかどうか、並びに、第2部分フィッティングモデル380が第1部分フィッティングモデル370の直接上方において位置決めされているかどうか、を判定してもよい。
本明細書において使用されているターゲット物体又はその対応する部分に対応したデータ上への、その周りにおける、又はその内部における物体フィッティングモデルのフィッティングは、ターゲット物体又はその対応する部分上における最も近接したフィットの検出に限定されるものではない。本明細書において使用されているフィッティングとは、限定を伴うことなしに、調節又は追加される少なくとも1つのパラメータが、プロセッサ102によって判定される任意の観点における姿勢情報の相対的に高度な精度の推定の提供を支援するように、姿勢情報との関係において物体フィッティングモデルの少なくとも1つのパラメータを調節すると共に/又は、少なくとも1つのパラメータを追加することを含む。一実施形態においては、図4A〜図4Fとの関係において記述されているように、第1部分フィッティングモデル370は、第1部分フィッティングモデル370が、ターゲット物体310の第1部分内において、その上部において、又はその周りにおいて位置決めされた際に、ターゲット物体310の第1部分(例えば、瓶の本体)に関する最も近接したフィットとなるように、判定されてもよい。例えば、第1部分フィッティングモデル370の少なくとも1つのパラメータは、第1部分フィッティングモデル370が、ターゲット物体310の第1部分に対して、形状において、構造において、寸法において、サイズにおいて、その他の姿勢情報の観点において、或いは、これらの組合せの観点において、緊密に対応するように、複数の物体モデルのうちの1つの物体モデルに基づいて判定されてもよい。例えば、第1部分フィッティングモデル370の少なくとも1つのパラメータは、第1部分フィッティングモデル370が、ターゲット物体310に対応したデータ内において、その上部において、又はその周りにおいて、緊密にフィッティングされるように、調節される。
ステップ206において、プロセッサ102は、第1エンクロージャ350、第2エンクロージャ352、及び第3エンクロージャ354に隣接した、その周りの、又はその内部の3Dポイントデータを抽出するべく、第2視覚的データ308をセグメント化している。基本的に、第1エンクロージャ350、第2エンクロージャ352、及び第3エンクロージャ354は、ターゲット物体310及びその関連付けられた部分に対応していない第2視覚的データ308を取り除くための基準として使用される。ターゲット物体310及びその関連付けられた部分は、必ずしも、対応するエンクロージャ内において存在してはいない。対応するエンクロージャは、ターゲット物体310及びその関連付けられた部分に対応したデータの認識を支援するための基準として利用される。第2視覚データ308のセグメント化及び抽出により、プロセッサ102は、第1部分フィッティングモデル370及び第2部分フィッティングモデル380の対応したパラメータを近似するべく、例えば、RANSACモデルを使用することにより、データベース内に保存されている物体モデル又は物体フィッティングモデルを第2視覚的データ308の対応した部分上に、その周りにおいて、その内部において、フィッティングすることができる。
図4Aを参照すれば、ステップ206が実行される前の第2視覚的データ408が示されている。第2視覚的データ408は、例えば、図3Aに示されている第2視覚的データ308に対応している。ターゲット物体410及び面424は、図3Aにおける同一のターゲット物体310及び面324に対応したものであってもよい。
ステップ206において、プロセッサ102は、面424がもはやターゲット物体310の姿勢推定を支援しえないと判定した際には、面424に対応した第2視覚的データ408の1つのセクションを一時的に又は永久的に除去してもよい。
図4Bには、面除去手順によって生成される結果が示されている。図4Cに示されているように、プロセッサ102は、第1中心点416の周りにおいて、且つ、第1エンクロージャ450内において、第2視覚的データ408のクラスタ460をセグメント化するべく、第1視覚的データ306により、第2視覚的データ408を較正又はアライメントしてもよい。第1エンクロージャ450は、図3C及び図3Dの第1エンクロージャ350に対応したものであってもよく、且つ、これによって較正されてもよい。
図4Dに示されているように、第1中心点416は、ターゲット物体310に対応した第2視覚的データ308内において3Dポイントデータを抽出するべく、基準点として使用される第1中心点316に対応したものであってもよい。第1エンクロージャ450及び第2視覚的データ408内の第1中心点416を使用することにより、第2視覚的データ408内の第1中心点416の周りのクラスタ460が抽出される。例えば、図4Dに示されている実施形態におけるクラスタ460は、3Dポイントデータのクラスタである。その他の実施形態においては、クラスタ460は、本発明の範囲を限定することなしに、2Dデータを限定的でなく含むその他の形態のデータのクラスタ、組、群、又は部分を意味しうる。
プロセッサ102は、例えば、RANSAC法を使用することによって関連付けられたパラメータを比較及び推定するべく、物体フィッティングモデル360をクラスタ460上に、その周りにおいて、又はその内部において、フィッティングするように試みる。例えば、プロセッサ102は、クラスタ460に対して最良にフィッティング又はマッチングする直径(又は、半径及び高さ)によって定義される最も近接した対応する円筒体を判定してもよい。
方法/システム200は、ターゲット物体及び対応した部分の姿勢情報及び/又は位置決めを相対的に正確に定義するために、物体モデルをクラスタの部分上に、その周りにおいて、又はその内部において、フィッティングするべく、識別されたクラスタの様々な部分を分析するように構成されている、という更なる新しい利点を有する。ステップ210において、クラスタ460は、後述するように、第1クラスタ部分470及び第2クラスタ部分480にセグメント化されている。
例えば、図4Eに示されているように、第2視覚的データ308の第2エンクロージャ452(並びに、第2中心点418)は、第2エンクロージャ352(並びに、第2中心点318)に対応しており、且つ、これによって較正されている。較正された第2中心点418は、ターゲット物体310の第1部分に対応した第2視覚的データ308内の3Dポイントデータを抽出するべく、基準点として使用されてもよい。プロセッサ102は、第2中心点418が、ターゲット物体310の第1部分に対応した第2視覚的データ408の一部分上において位置決めされるか、これに対応しているか、又はこの内部に含まれるように、較正済みの第2中心点418を判定してもよい。図4Eに示されているように、第2エンクロージャ452及び第2視覚的データ408内の第2中心点418を使用することにより、第2中心点418の周りのクラスタ460の第1クラスタ部分470が抽出される。
ステップ212において、方法/ステップ200は、例えば、第1クラスタ部分470上への、その周りにおける、又はその内部における第1部分フィッティングモデル370の最良のフィットを提供する関連付けられたパラメータを推定することにより、第2物体モデル又は第1部分フィッティングモデル370のパラメータを推定している。RANSAC法は、関連付けられたパラメータによって定義される第1クラスタ部分470上に、その周りにおいて、又はその内部においてフィッティングする第1部分フィッティングモデル370を推定するべく、該当値(inlier)と外れ値(outlier)を弁別してもよい。従って、第1部分フィッティングモデル370の半径及び高さが推定されてもよい。例えば、図5Aに示されているように、第1クラスタ部分570の第1部分高さ572及び第1部分直径574(第1クラスタ部分470に対応したもの)が推定されてもよい。
プロセスは、相対的に近接したフィットを見出すべく、第2物体モデル又は第1部分フィッティングモデル370をクラスタ460又は第1クラスタ部分470の地点の別のサブセット内の推定された地点と比較することにより、複数回にわたって反復される。例えば、第1部分フィッティングモデル370にフィッティングする第1クラスタ部分470の地点の数を第1クラスタ部分470の地点の合計数によって除算することにより、精度の百分率が判定されてもよい。プロセッサ102は、判定された百分率が特定の閾値を上回っている場合に、推定が正確であると判定してもよい。例えば、閾値は、80パーセント(%)又は90パーセント(%)であってもよい。
RANSACプロセスの後に、カテゴリ物体モデル(例えば、円筒体)用のデータベース112内に保存されている初期パラメータ(例えば、高さ及び半径)が変更されうる。本発明の範囲を限定することなしに、物体モデル及び第2視覚的データ408をマッチング又はフィッティングするためのその他の類似の方法が利用されてもよい。第1クラスタ部分470上への、その周りにおける、又はその内部における第1部分フィッティングモデル370のフィットを改善するべく、本発明の範囲を限定することなしに、第1視覚的データ306及び第2視覚的データ408の様々なその他の特性(例えば、勾配及び/又は滑らかさ)が分析されてもよい。
ステップ214において、プロセッサ102は、ターゲット物体310のすべての部分が推定されているかどうかを判定する。プロセッサ102は、同様に、第2クラスタ部分480を抽出すると共に関連付けられたパラメータを推定するべく、ステップ210に戻る。
例えば、図4Eに示されているように、第2視覚的データ308の第3エンクロージャ454(並びに、関連付けられた第3中心点422)は、第3エンクロージャ354(並びに、第3中心点322)に対応しており、且つ、これによって較正される。較正済みの第3中心点422は、ターゲット物体310の第2部分に対応した第2視覚的データ308内の3Dポイントデータを抽出するべく、基準点として使用されてもよい。プロセッサ102は、較正済みの第3中心点422が、ターゲット物体310の第2部分に対応した視覚的データセット304の一部分上において位置決めされるか、これに対応しているか、又はこの内部に含まれるように、較正済みの第3中心点422を判定してもよい。図4Eに示されているように、第3エンクロージャ454及び第2視覚的データ308内の第3中心点422を使用することにより、第3中心点422の周りのクラスタ460の第2クラスタ部分480が抽出される。
ステップ212において、方法/システム200は、例えば、第2クラスタ部分480上への、その周りにおける、又はその内部における第2部分フィッティングモデル380の最良のフィットを提供する関連付けられたパラメータを推定することにより、第3物体モデル又は第2部分フィッティングモデル380のパラメータを推定している。RANSAC法は、関連付けられたパラメータによって定義された第2クラスタ部分480にフィッティングする最も近接した第2部分フィッティングモデル380を推定するべく、該当値と外れ値を弁別しうる。従って、第2部分フィッティングモデル380の半径及び高さが推定されてもよい。
例えば、図5Aに示されているように、例えば、上述のRANSAC法を使用することにより、第2クラスタ部分580の第2部分高さ582及び第2分直径584(第2クラスタ部分480に対応したもの)が推定されてもよい。プロセッサ102は、相互の関係における又は環境及びその内部の物体との関係における推定された物体フィッティングモデル、第1部分フィッティングモデル370、及び第2部分フィッティングモデル380の相対的な位置決めが、視覚的データセット304と一貫性を有しているかどうかを更に判定してもよい。
図5Bに示されているように、DPM法を使用することにより、相互の関係における第1部分フィッティングモデル370と第2部分フィッティングモデル380の間の第1関係(例示を目的として、スプリング接続596によって表されている)が判定されてもよく、且つ、第1クラスタ部分470と第2クラスタ部分480の間の第2関係が判定されてもよい。プロセッサ102は、ターゲット物体310の姿勢及び位置決めの推定の精度に関する推定を導出するべく、第1関係(スプリング接続596)と第2関係を比較してもよい。第1部分フィッティングモデル370の分析されたx、y、及びz座標及び位置決めは、第1部分位置決め576によって示されており、且つ、第2部分フィッティングモデル380の分析されたx、y、及びz座標及び位置決めは、第2部分位置決め586によって示されている。
図5Dに示されているように、第1判定済み関係は、第2判定済み関係とマッチングしている。例えば、第2部分フィッティングモデル380は、第1部分フィッティングモデル370の直接上方となると共に第1部分フィッティングモデル370と同心状態となるように、適切に推定される。従って、DPM法は、第1部分フィッティングモデル370及び第2部分フィッティングモデル380の姿勢及び位置決めが、十分な程度の精度によって推定されていると判定する。
図5Cは、第1判定済み関係(スプリング接続598)と第2判定済み関係が一貫性を有していない際に、DPM法が推定を拒絶することになるシナリオを示している。図5Cのモデルは、拒絶されており、その理由は、第1関係が、水平方向において延伸したスプリング接続598によって明らかなように、第1部分フィッティングモデル370が第2部分フィッティングモデル380の直接上方において位置決めされていないことを示唆しているからである。従って、図5Cに示されているモデルは、第1クラスタ部分470と第2クラスタ部分480の間の第2関係と一貫性を有してはいない。
ステップ218において、ターゲット物体310及びすべての部分のパラメータ推定が終了した後に、プロセッサ102は、推定されたパラメータ及び判定された位置決めに基づいてターゲット物体310の姿勢及び位置決めを判定してもよい。図5Dは、ターゲット物体310の姿勢及び位置決めを定義する、図2、図3A〜図3E、図4A〜図4F、及び図5A〜図5Eとの関係において上述したステップから生成された推定パラメータを示している。
図5Eに示されているように、学習された物体モデル590は、第1学習済み物体モデル部分592と第2学習済み物体モデル部分594を有するものして保存される。第1学習済み物体モデル部分592及び第2学習済み物体モデル部分594のそれぞれは、少なくとも1つのパラメータ(例えば、半径又は直径及び高さ)を有してもよい。
ステップ218において、プロセッサ102は、複数の物体モデルのうちの少なくとも1つの物体モデルのパラメータを動的且つ自動的に調節又は補完している。一実施形態においては、新しい物体モデルは、パラメータの組と共に保存されてもよい。例えば、学習された物体モデル590は、第1学習済み物体モデル部分592と第2学習済み物体モデル部分594という2つの積層された円筒体を有するものとして保存されてもよい。
本発明の1つの固有の利点は、プロセッサ102が、新たに遭遇した物体の認識を改善するべく、新しい物体モデルを学習してもよく、且つ、物体モデルをデータベース112内において保存してもよいという点にある。学習された物体モデル590は、類似の形状、構造、パラメータ、位置決め、及びその他の姿勢情報を有する将来において遭遇される物体を認識するべく、使用されてもよい。例えば、プロセッサ102は、新しく遭遇した物体のパラメータを認識及び推定するべく、第1学習済み物体モデル部分592を物体フィッティングモデルとして、第1学習済み物体モデル部分592を第1部分フィッティングモデルとして、且つ、第2学習済み物体モデル部分594を第2部分フィッティングモデルとして、使用してもよい。
ステップ220において、プロセッサ102は、視覚的データセット304内のすべての物体が検出されたかどうかを判定している。新しい物体が認識された場合には、ステップ208〜220が、すべての必要とされている物体が推定される時点まで、反復され、且つ、方法/ステップ200は、ステップ222において推定を完了させる。
図6Aに示されているように、例えば、新しく遭遇した物体610に対応したデータは、ステップ202において、受け取られるか又は検出されている。ステップ204において、プロセッサ102は、新たに遭遇した物体610に対して形状又は構造において類似した保存されている複数の物体モデル(この関連においては、学習された物体モデル590を含む)のうちの1つの物体モデルについてサーチしてもよい。
一実施形態においては、学習された物体モデル590のうちの2つ以上が、同一のラベルと関連付けられてもよく、或いは、複数の物体モデルのうちの1つのグループとして分類されてもよく、このグループの学習されたモデル物体は、少なくとも1つの共通的な特性を共有している。例えば、グループは、少なくとも1つの共通特性(例えば、瓶の第1部分と第2部分に関する共通特性)を有する瓶としてラベル付与されてもよい。例えば、第1学習済み物体モデル(例えば、学習された物体モデル590)が、実質的に円筒形である第1学習済み物体モデル部分592を有する瓶に対応している際には、学習された物体モデル590は、瓶グループに属するものとして、割り当てられると共に/又はラベル付与される。プロセッサ102が、方法/システム200を使用することにより、例えば、箱に対して形状又は構造において実質的に類似した第1部分を有する瓶の第2学習済み物体モデルを登録する際には、プロセッサ102は、第2学習済み物体モデルを瓶グループに割り当ててもよいと共に/又は、瓶ラベルを第2学習済み物体モデルに割り当ててもよい。
図6Bに示されているように、例えば、プロセッサ102は、新たに遭遇した物体610が、学習された物体モデル590に対して全体形状又は構造において類似していると判定する。例えば、プロセッサ102は、新たに遭遇した物体610が、第2学習済み物体モデル部分594に対して形状及びパラメータ(直径及び高さ)において類似した第2の新たに遭遇した物体部分の直接下方において位置決めされた第1学習済み物体モデル部分592に対して形状及びパラメータ(直径及び高さ)において類似した第1の新たに遭遇した物体部分を有するものと予想する。
プロセッサ102は、クラスタ686を抽出してもよく、且つ、物体フィッティング学習済みモデル690をクラスタ686上に、その周りにおいて、或いは、その内部においてフィッティングしてもよい。物体フィッティング学習済みモデル690が、新たに遭遇した物体610に緊密にフィッティングしている場合には、図2において破線のエンクロージャによって示されているステップグループ224において表されるクラスタの部分のセグメント化及び抽出は不要であろう。例えば、物体フィッティング学習済みモデル690とフィッティングするクラスタ686の地点の百分率が、上述のように調査されてもよい。
例えば、プロセッサ102が複数の物体モデルのうちの1つの物体モデルについてサーチした際に、複数の物体モデルが、視覚的データセット304の一部分に対して形状又は構造において類似している場合がある。例えば、プロセッサ102が、瓶としてラベル付与されると共に/又は上述の瓶グループと関連付けられた登録済みの学習された物体モデルをサーチしうる際には、円筒形の本体を有する第1のものと、箱に対して形状又は構造において実質的に類似した本体を有する第2のものが検出されうる。プロセッサ102は、複数の物体モデルのうちのいずれが、第1視覚的データ306の分析された部分用の最も近接したフィットを有しているのかを判定するように、構成されている。例えば、プロセッサ102は、円筒形の本体を有する第1学習済み物体モデルに関する第1スコア(例えば、第1認識精度百分率)と、箱に対して形状又は構造において実質的に類似している第1部分(瓶の本体)を有する第2学習済み物体モデルに関する第2スコア(例えば、第2認識精度百分率)と、を割り当ててもよい。プロセッサ102は、最高の関連付けられたスコア(例えば、認識精度百分率)と関連付けられた複数の物体モデルのうちの1つの物体モデルを第1視覚的データ306の分析された部分に対応するものとして選択及び認識する。例えば、最高の関連付けられたスコア(例えば、認識精度百分率)を有する瓶グループのうちの第1又は第2学習済み物体モデルが選択されうる。
方法/システム200の1つの新しい利点は、方法/システム200のステップ202、204、206、208、及び216との関係において上述したように、プロセッサ102が、例えば、学習された物体モデル590及び物体フィッティング学習済みモデル690を使用することにより、パラメータ672、674、682、及び684並びに第1部分位置決め676及び第2部分位置決め684を相対的に正確に且つ/又は相対的に少ないプロセスステップにより、推定しうるという点にある。
一実施形態においては、プロセッサ102は、複数の保存されている物体モデルのうちの少なくとも1つとマッチングしない新たに遭遇した物体に関する疑問又は問合せに対応した出力データを生成するべく、通信ユニット104又は外部装置114を更に制御してもよい。別の実施形態においては、プロセッサ102は、新たに遭遇した物体の特性に関する電子装置の応答に対するユーザーの応答に基づいて、方法/システム200の分析を補完してもよい。
上述の実施形態においては、簡潔性を目的として、ターゲット物体310の2つの部分に対応したデータの分析について記述されている。但し、プロセスは、本発明の範囲を限定することなしに、ターゲット物体の更なる部分(例えば、3つ以上の部分)について反復されてもよい。例えば、方法/システム200のステップ214との関係において記述されているように、分析は、必要に応じて、ターゲット物体の3つ以上の部分について反復されてもよい。更には、本発明の範囲を限定することなしに、複数のターゲット物体が分析されてもよい。例えば、方法/システム200のステップ220との関係において記述されているように、分析は、必要に応じて、方法/システム200のステップ222に到達する前に、3つ以上のターゲット物体について反復されてもよい。
本明細書において使用されている「ネットワーク」という用語は、任意のクラウド、クラウド演算システム、又は電子通信システム、或いは、ハードウェア及び/又はソフトウェアコンポーネントを内蔵する方法を含む。関係者の間における通信は、例えば、電話網、エクストラネット、イントラネット、インターネット、取引地点装置(販売地点装置、パーソナルデジタルアシスタント(例えば、android、iPhone(登録商標)、Palm Pilot(登録商標)、Blackberry(登録商標))、セルラー電話機、キオスクなど)、オンライン通信、衛星通信、オフライン通信、無線通信、トランスポンダ通信、ローカルエリアネットワーク(Local Area Network:LAN)、ワイドエリアネットワーク(Wide Area Network:WAN)、仮想プライベートネットワーク(Virtual Privarte Network:VPN)、ネットワーク又はリンク型装置、キーボード、マウス、及び/又は任意の適切な通信又はデータ入力モードなどの任意の適切な通信チャネルを通じて実現されてもよい。インターネットとの関連において利用されるプロトコル、規格、及びアプリケーションソフトウェアに関係した具体的な情報については、一般に、当業者には既知であり、且つ、従って、本明細書において詳述する必要はない。
「クラウド」又は「クラウド演算」は、最小限の管理の努力又はサービスプロバイダのやり取りによって迅速に提供及び解放されうる構成可能な演算リソース(例えば、ネットワーク、サーバー、ストレージ、アプリケーション、及びサービス)の共有プールに対する便利なオンデマンドのネットワークアクセスを可能にするモデルを含む。クラウドコンピューティングは、場所から独立したコンピュータ利用を含んでもよく、これによれば、共有サーバーは、リソース、ソフトウェア、及びデータをコンピュータ及びその他の装置にオンデマンドで提供する。
システム、方法、及びコンピュータプログラムプロダクトが提供される。「様々な実施形態」、「いくつかの実施形態」、「1つの実施形態」、「一実施形態」、「例示用の一実施形態」などに対する参照は、記述されている実施形態が、特定の特徴、構造、又は特性を含んでもよいが、すべての実施形態が、必ずしも、特定の特徴、構造、又は特性を含まなくてもよいことを示している。更には、このようなフレーズは、必ずしも、同一の実施形態を参照するものではない。更には、特定の特徴、構造、又は特性が1つの実施形態との関連において記述されている際には、明示的に記述されているかどうかとは無関係に、その他の実施形態との関連において、このような特徴、構造、又は特性を用いることが当業者の知識に含まれていることにも留意されたい。この説明を参照した後に、当業者には、代替実施形態において本開示を実装する方法が明らかとなろう。
本明細書において開示された例との関連において記述されている方法又はアルゴリズムのステップは、直接的にハードウェアにおいて、プロセッサ102によって実行されるソフトウェアモジュールにおいて、或いは、これら2つの組合せにおいて、実施されてもよい。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードウェア、着脱自在のディスク、CD−ROM、又は当技術分野において既知の任意のその他の形態のストレージ媒体内に存在してもよい。例示用のストレージ媒体は、プロセッサ102が、ストレージ媒体から情報を読み取ると共にこれに対して情報を書き込みうるように、プロセッサ102に対して結合されている。代替肢においては、ストレージ媒体は、プロセッサ102と一体化されたものであってもよい。プロセッサ102及びストレージ媒体は、アプリケーション固有の集積回路(Application Specific Integrated Circuit:ASIC)内に存在してもよい。
方法/システムは、本明細書においては、機能ブロックのコンポーネント、画面ショット、任意選択の選択肢、及び様々な処理ステップの観点において記述されている場合がある。このような機能ブロックは、特定の機能を実行するように構成された任意の数のハードウェア及び/又はソフトウェアコンポーネントによって実現されうることを理解されたい。例えば、方法/システムは、1つ又は複数のマイクロプロセッサ又はその他の制御装置の制御下において、様々な機能を実行してもよい、例えば、メモリ要素、処理要素、ロジック要素、ルックアップテーブル、及びこれらに類似したものなどの様々な統合された回路コンポーネントを利用してもよい。同様に、方法/システムのソフトウェア要素は、様々なアルゴリズムがデータ構造、物体、プロセス、ルーチン、又はその他のプログラミング要素の任意の組合せによって実装される状態において、VPL、C、C++、C#、Java、JavaScript、VBScript、Macromedeia Cold Fusion、COBOL、Microsoft Active Server Page、アセンブリ、PERL、PHP、awk、Python、Visual Basic、SQL Stored Procedure、PL/SQL、任意のUnixシェルスクリプト、及びXMLなどの任意のプログラミング又はスクリプティング言語によって実装されてもよい。更には、方法/システムは、データ送信、シグナリング、データ処理、ネットワーク制御、及びこれらに類似したもののための任意の数の従来の技法を利用してもよいことに留意されたい。
当業者には理解されるように、方法/システムは、既存システムのカスタマイズ、アドオン製品、アップグレードされたソフトウェア、スタンドアロンシステム、分散システム、方法、データ処理システム、データ処理用の装置、及び/又はコンピュータプログラムプロダクトとして実施されてもよい。更には、方法/システムは、ストレージ媒体内において実施されたコンピュータ可読プログラムコード手段を有する一時的ではないコンピュータ可読ストレージ媒体上のコンピュータプログラムプロダクトの形態を有してもよい。ハードディスク、CD−ROM、光学ストレージ装置、磁気ストレージ装置、及び/又はこれらに類似したものを含む任意の適切なコンピュータ可読ストレージ媒体が利用されてもよい。
方法/システムの例示用の実施形態は、例示を目的としたスタイルで開示されている。従って、全体を通じて利用されている用語は、非限定的な方式で判読されることを要する。本明細書における教示内容に対する小規模な変更が当業者によって想起されることになるが、本出願に対して付与される特許の範囲に含まれることが意図されているものは、本明細書において寄与されている当技術分野に対する進歩の範囲に合理的に含まれるすべてのこのような実施形態であり、且つ、その範囲は、添付の請求項及びその均等物によるものを除いて、限定されるものではないことを理解されたい。

Claims (20)

  1. 少なくとも1つのターゲット物体に対応した視覚的データセットに基づいて前記ターゲット物体の物体姿勢及び位置決め情報を推定するコンピュータベースの方法であって、
    データベースを使用し、少なくとも1つのパラメータをそれぞれが有する複数の物体モデルを提供するステップと、
    プロセッサを使用し、前記複数の物体モデルとの比較において前記視覚的データセットを分析するステップと、
    前記プロセッサを使用し、且つ、前記複数の物体モデルとの比較における前記視覚的データセットの分析に基づいて、物体フィッティングモデルを前記ターゲット物体に対応した前記分析済みの視覚的データセットの一部分上に、その周りにおいて、又はその内部においてフィッティングするステップであって、前記物体フィッティングモデルは、少なくとも1つのパラメータを有する、ステップと、
    前記プロセッサを使用し、前記物体フィッティングモデルの前記少なくとも1つのパラメータを推定するステップと、
    前記プロセッサを使用し、前記物体フィッティングモデル及び前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータに基づいて、少なくとも1つのパラメータを有する学習された物体モデルを前記データベース内において保存するステップと、
    を有する方法。
  2. 請求項1に記載の方法において、
    前記プロセッサを使用し、且つ、前記複数の物体モデルに対する前記視覚的データセットの比較により、ターゲットデータを前記物体フィッティングモデルに対して形状又は構造において類似していると認識するステップを更に有し、
    前記物体フィッティングモデルをフィッティングするステップは、前記認識されたターゲットデータセットに基づいている、方法。
  3. 請求項2に記載の方法において、
    前記プロセスを使用し、前記ターゲットデータセットからクラスタをセグメント化及び抽出するステップであって、前記クラスタは、前記ターゲット物体に対応している、ステップと、
    前記プロセッサを使用し、前記クラスタの複数のクラスタ部分のうちの少なくとも1つを複数の部分フィッティングモデルのうちの少なくとも1つの対応した部分フィッティングモデルに対して形状又は構造において類似していると認識するステップと、
    を更に有し、
    前記物体フィッティングモデルの前記少なくとも1つのパラメータを推定するステップは、前記プロセッサを使用し、前記セグメント化及び抽出されたクラスタを分析し、且つ、前記プロセッサを使用し、前記複数のクラスタ部分を分析するステップに基づいている、方法。
  4. 請求項2に記載の方法において、
    前記プロセッサを使用し、且つ、前記複数の物体モデルに対する前記視覚的データセットの比較により、前記ターゲットデータセットの第1ターゲットデータ部分を少なくとも1つのパラメータを有する第1部分フィッティングモデルに対して形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用して前記第1ターゲットデータ部分を分析することにより、前記プロセッサを使用して前記第1部分フィッティングモデルの前記少なくとも1つのパラメータを推定するステップと、
    を更に有する、方法。
  5. 請求項4に記載の方法において、
    前記学習された物体モデルを保存するステップは、前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータ又は前記第1部分フィッティングモデルの前記推定された少なくとも1つのパラメータに基づいている、方法。
  6. 請求項5に記載の方法において、
    前記プロセッサを使用し、且つ、前記複数の物体モデルに対する前記視覚的データセットの比較により、前記ターゲットデータの第2ターゲットデータ部分を少なくとも1つのパラメータを有する第2部分フィッティングモデルに対して少なくとも形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用して前記第2ターゲットデータ部分を分析することにより、前記プロセッサを使用して前記第2部分フィッティングモデルの前記少なくとも1つのパラメータを推定するステップと、
    を更に有する、方法。
  7. 請求項6に記載の方法において、
    前記学習された物体モデルを保存するステップは、前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータ、前記第1部分フィッティングモデルの前記推定された少なくとも1つのパラメータ、前記第2部分フィッティングモデルの前記推定された少なくとも1つのパラメータ、又はこれらの組合せに基づいている、方法。
  8. 請求項7に記載の方法において、
    前記プロセッサを使用し、前記クラスタから第1クラスタ部分をセグメント化及び抽出するステップであって、前記第1クラスタ部分は、前記第1ターゲットデータ部分に対応しており、前記第1部分フィッティングモデルの前記少なくとも1つのパラメータを推定するステップは、前記セグメント化及び抽出された第1クラスタ部分を分析するステップに基づいている、ステップと、
    前記プロセッサを使用し、前記クラスタから第2クラスタ部分をセグメント化及び抽出するステップであって、前記第2クラスタ部分は、前記第2ターゲットデータ部分に対応しており、前記第2部分フィッティングモデルの前記少なくとも1つのパラメータを推定するステップは、前記セグメント化及び抽出された第2クラスタ部分を分析するステップに基づいている、ステップと、
    を更に有する、方法。
  9. 請求項8に記載の方法において、
    前記プロセッサを使用し、前記第1部分フィッティングモデルの位置決めと前記第2部分フィッティングモデルの位置決めの間の第1関係を判定するステップと、
    前記プロセッサを使用し、前記第1クラスタ部分の位置決めと前記第2クラスタ部分の位置決めの間の第2関係を判定するステップと、
    前記プロセッサを使用し、前記第2関係を前記第1関係と比較するステップと、
    前記プロセッサを使用し、前記第1関係に対する前記比較された第2関係に基づいて、前記第1部分フィッティングモデルの前記位置決めと前記第2部分フィッティングモデルの前記位置決めを推定又は変更するステップと、
    を更に有する、方法。
  10. 請求項1に記載の方法において、
    前記プロセッサを使用し、前記保存されている複数の物体モデル及び前記学習された物体モデルとの比較において新しく遭遇した物体に対応したデータを分析するステップと、
    前記プロセッサを使用し、前記新しく遭遇したオブジェクに対応した前記データの一部分を前記学習された物体モデルに対して形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用し、前記学習された物体モデルを前記クラスタ上に、その周りおいて、又はその内部において、フィッティングするステップと、
    前記プロセッサを使用し、前記学習された物体モデルをフィッティングするステップに基づいて、前記学習された物体モデルの前記少なくとも1つのパラメータを推定するステップと、
    を更に有する、方法。
  11. 請求項10に記載の方法において、
    前記物体フィッティング学習済みモデルの前記少なくとも1つのパラメータを推定するステップは、前記新たに遭遇した物体に対応した前記データの前記部分用の緊密なフィットを判定するべく、前記物体フィッティング学習済みモデルの前記少なくとも1つのパラメータを変更するステップに基づいている、方法。
  12. 請求項10に記載の方法において、
    前記プロセッサ及び前記プロセッサに結合された通信ユニットを使用し、前記新たに遭遇した物体に関する応答の導出に関する問合せに対応した出力データを出力するステップを更に有する、方法。
  13. 第1視覚的データ及び第2視覚的データを含む視覚的データセットに基づいてターゲット物体の姿勢及び位置決め情報を推定するコンピュータベースの方法であって、
    データベースを使用し、少なくとも1つのパラメータをそれぞれが有する複数の物体モデルを提供するステップと、
    プロセッサを使用し、少なくとも1つのターゲット物体に対応した前記視覚的データを受け取るか又は検出するステップと、
    前記プロセッサを使用することにより、且つ、前記複数の物体モデルに対する前記第1視覚的データの比較により、前記第1視覚的データの第1エンクロージャに隣接した、その周りの、又はその内部における第1ターゲットデータを第1物体モデルに対して形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用し、前記第1エンクロージャに基づいて前記ターゲット物体に対応した前記第2視覚的データ内のクラスタをセグメント化及び抽出するステップと、
    前記プロセッサを使用し、前記保存されている複数の物体モデルとの比較において前記クラスタを分析するステップと、
    前記プロセッサを使用し、前記分析されたクラスタ上に、その周りにおいて、又はその内部において、前記学習された物体モデルをフィッティングするステップと、
    前記プロセッサを使用し、前記物体フィッティングモデルの前記少なくとも1つのパラメータを推定するステップと、
    前記プロセッサを使用し、前記物体フィッティングモデル及び前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータに基づいて、学習された物体モデルを前記データベース内において保存するステップと、
    を有する方法。
  14. 請求項13に記載の方法において、
    前記プロセッサを使用し、且つ、前記複数の物体モデルに対する前記第1視覚的データの比較により、第2エンクロージャに隣接した、その周りの、又はその内部の前記第1ターゲットデータの第1ターゲットデータ部分を少なくとも1つのパラメータを有する第1部分フィッティングモデルに対して形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用し、前記第2エンクロージャに基づいて前記クラスタの第1クラスタ部分をセグメント化及び抽出するステップと、
    前記プロセッサを使用し、前記保存されている複数の物体モデルとの比較において前記第1クラスタ部分を分析するステップと、
    前記プロセッサを使用し、第1部分フィッティングモデルを前記分析されたクラスタ上に、その周りにおいて、又はその内部においてフィッティングするステップであって、前記第1部分フィッティングモデルは、少なくとも1つのパラメータを有する、ステップと、
    を更に有する、方法。
  15. 請求項14に記載の方法において、
    前記学習された物体モデルを保存するステップは、前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータ又は前記第1部分フィッティングモデルの前記推定された少なくとも1つのパラメータに基づいている、方法。
  16. 請求項15に記載の方法において、
    前記プロセッサを使用し、且つ、前記複数の物体モデルに対する前記第1視覚的データの比較により、第3エンクロージャに隣接した、その周りの、又はその内部の前記第1ターゲットデータの第2ターゲットデータ部分を少なくとも1つのパラメータを有する第2部分フィッティングモデルに対して形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用し、前記第3エンクロージャに基づいて、前記クラスタの第2クラスタ部分をセグメント化及び抽出するステップと、
    前記プロセッサを使用し、前記保存されている複数の物体モデルとの比較において前記第2クラスタ部分を分析するステップと、
    前記プロセッサを使用し、第2部分フィッティングモデルを前記分析された第2クラスタ部分上に、その周りにおいて、又はその内部においてフィッティングするステップであって、前記第2部分フィッティングモデルは、少なくとも1つのパラメータを有する、ステップと、
    を更に有する、方法。
  17. 請求項16に記載の方法において、
    前記学習された物体モデルを保存するステップは、前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータ、前記第1部分フィッティングモデルの前記推定された少なくとも1つのパラメータ、前記第2部分フィッティングモデルの前記推定された少なくとも1つのパラメータ、又はこれらの組合せに基づいている、方法。
  18. 少なくとも1つのターゲット物体に対応した視覚的データセットに基づいて物体の姿勢及び位置決め情報を推定するコンピュータベースの方法であって、
    データベースを使用し、少なくとも1つのパラメータをそれぞれが有する複数の物体モデルを提供するステップと、
    プロセッサを使用し、且つ、前記複数の物体モデルに対する前記視覚的データセットの比較により、第1エンクロージャに隣接した、その周りの、或いは、その内部のターゲットデータセットを少なくとも1つのパラメータを有する前記複数の物体モデルの第1物体モデルに対して形状又は構造において類似していると認識するステップと、
    前記プロセッサを使用し、前記保存されている複数の物体モデルとの比較において前記認識されたターゲットデータセットを分析するステップと、
    前記プロセッサを使用し、前記保存されている複数の物体モデルとの比較において、前記分析された視覚的データセットに基づいて、前記複数の物体モデルの前記少なくとも1つのパラメータを推定するステップと、
    前記プロセッサを使用し、前記物体フィッティングモデル及び前記物体フィッティングモデルの前記推定された少なくとも1つのパラメータに基づいて、学習された物体モデルを前記データベース内において保存するステップと、
    を有する方法。
  19. 請求項18に記載の方法において、
    前記プロセッサを使用し、前記ターゲット物体に対応した前記ターゲットデータセットの第1エンクロージャに隣接した、その周りの、又はその内部のクラスタをセグメント化及び抽出するステップと、
    前記プロセッサを使用し、前記保存されている複数の物体モデルとの比較において前記クラスタを分析するステップと、
    を更に有し、
    前記複数の物体モデルの前記少なくとも1つのパラメータを推定するステップは、前記分析されたクラスタに基づいている、方法。
  20. 請求項19に記載の方法において、
    前記プロセッサを使用し、且つ、前記複数の物体モデルの前記推定された少なくとも1つのパラメータに基づいて、物体フィッティングモデルを前記分析されたクラスタ上に、その周りにおいて、又はその内部においてフィッティングするステップであって、前記物体フィッティングモデルは、少なくとも1つのパラメータを有し、前記保存された学習済みの物体モデルは、前記物体フィッティングモデルに基づいている、ステップと、
    前記プロセッサを使用し、前記複数の保存されている物体モデル及び前記学習された物体モデルを使用して新たに遭遇した物体を分析するステップと、
    を更に有する、方法。
JP2016501646A 2013-03-15 2014-03-12 動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム Active JP6306683B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/843,793 US9111348B2 (en) 2013-03-15 2013-03-15 Computer-based method and system of dynamic category object recognition
US13/843,793 2013-03-15
PCT/US2014/024806 WO2014151035A1 (en) 2013-03-15 2014-03-12 Computer-based method and system of dynamic category object recognition

Publications (2)

Publication Number Publication Date
JP2016517084A JP2016517084A (ja) 2016-06-09
JP6306683B2 true JP6306683B2 (ja) 2018-04-04

Family

ID=51527217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016501646A Active JP6306683B2 (ja) 2013-03-15 2014-03-12 動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム

Country Status (3)

Country Link
US (1) US9111348B2 (ja)
JP (1) JP6306683B2 (ja)
WO (1) WO2014151035A1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8255225B2 (en) 2008-08-07 2012-08-28 Vocollect Healthcare Systems, Inc. Voice assistant system
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9464885B2 (en) * 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
WO2015097635A1 (en) * 2013-12-23 2015-07-02 Pirelli Tyre S.P.A. Method and apparatus for detecting defects on tyres in a tyre production process
US9501498B2 (en) * 2014-02-14 2016-11-22 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
JP6879938B2 (ja) * 2015-05-11 2021-06-02 マジック リープ, インコーポレイテッドMagic Leap,Inc. ニューラルネットワークを利用するバイオメトリックユーザ認識のためのデバイス、方法、およびシステム
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (en) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensioning device with dynamic accuracy compatible with nist standard
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
CN108780519B (zh) 2016-03-11 2022-09-02 奇跃公司 卷积神经网络的结构学习
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
EP4131172A1 (en) * 2016-09-12 2023-02-08 Dassault Systèmes Deep convolutional neural network for 3d reconstruction of a real object
JP6705738B2 (ja) 2016-12-05 2020-06-03 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびプログラム
JP7051287B2 (ja) 2016-12-05 2022-04-11 株式会社ソニー・インタラクティブエンタテインメント システム、治具、および情報処理方法
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US20180150697A1 (en) * 2017-01-09 2018-05-31 Seematics Systems Ltd System and method for using subsequent behavior to facilitate learning of visual event detectors
US20180262739A1 (en) * 2017-03-10 2018-09-13 Denso International America, Inc. Object detection system
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
CN108267121A (zh) * 2018-01-24 2018-07-10 锥能机器人(上海)有限公司 一种可变场景下多设备的视觉导航方法及***
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
WO2020236993A1 (en) 2019-05-21 2020-11-26 Magic Leap, Inc. Hand pose estimation
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624594B2 (ja) 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US7496619B2 (en) * 2002-06-18 2009-02-24 Vanderbilt University System and methods of nonuniform data sampling and data reconstruction in shift invariant and wavelet spaces
ATE528724T1 (de) 2002-08-30 2011-10-15 Mvtec Software Gmbh Auf hierarchischen gliedern basierte erkennung von gegenständen
GB2412756A (en) 2004-03-31 2005-10-05 Isis Innovation Method and apparatus for retrieving visual object categories from a database containing images
US7680748B2 (en) 2006-02-02 2010-03-16 Honda Motor Co., Ltd. Creating a model tree using group tokens for identifying objects in an image
EP1870211B1 (en) * 2006-06-22 2019-02-27 Honda Research Institute Europe GmbH Method for controlling a robot by assessing the fitness of a plurality of simulated behaviours
US8015125B2 (en) 2006-08-31 2011-09-06 Drexel University Multi-scale segmentation and partial matching 3D models
US8538757B2 (en) * 2007-05-17 2013-09-17 Redstart Systems, Inc. System and method of a list commands utility for a speech recognition command system
US8170280B2 (en) 2007-12-03 2012-05-01 Digital Smiths, Inc. Integrated systems and methods for video-based object modeling, recognition, and tracking
EP2071515A1 (en) * 2007-12-11 2009-06-17 Honda Research Institute Europe GmbH Visually tracking an object in real world using 2D appearance and multicue depth estimations
JP5083715B2 (ja) * 2008-03-10 2012-11-28 株式会社Ihi 三次元位置姿勢計測方法および装置
JP5259286B2 (ja) 2008-07-16 2013-08-07 株式会社日立製作所 3次元物体認識システム及びそれを用いた棚卸システム
US9189886B2 (en) 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
US9600067B2 (en) 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
US8473141B2 (en) * 2008-12-11 2013-06-25 Kabushiki Kaisha Yaskawa Denki Robot system
EP2249286A1 (en) 2009-05-08 2010-11-10 Honda Research Institute Europe GmbH Robot with vision-based 3D shape recognition
JP5229912B2 (ja) * 2009-08-21 2013-07-03 独立行政法人産業技術総合研究所 物体認識装置および物体認識方法
WO2011088450A2 (en) * 2010-01-18 2011-07-21 Generac Power Systems, Inc. Smart battery charging system for electrical generator
US20120011119A1 (en) 2010-07-08 2012-01-12 Qualcomm Incorporated Object recognition system with database pruning and querying
US9495760B2 (en) 2010-09-20 2016-11-15 Qualcomm Incorporated Adaptable framework for cloud assisted augmented reality
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US8565482B2 (en) 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US8917336B2 (en) * 2012-05-31 2014-12-23 Apple Inc. Image signal processing involving geometric distortion correction
US8897600B1 (en) * 2013-12-20 2014-11-25 I.R.I.S. Method and system for determining vanishing point candidates for projective correction

Also Published As

Publication number Publication date
US9111348B2 (en) 2015-08-18
WO2014151035A1 (en) 2014-09-25
US20140270361A1 (en) 2014-09-18
JP2016517084A (ja) 2016-06-09

Similar Documents

Publication Publication Date Title
JP6306683B2 (ja) 動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム
US11132809B2 (en) Stereo matching method and apparatus, image processing apparatus, and training method therefor
CN112232293B (zh) 图像处理模型训练、图像处理方法及相关设备
US10769496B2 (en) Logo detection
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
US10573018B2 (en) Three dimensional scene reconstruction based on contextual analysis
EP3327617B1 (en) Object detection in image data using depth segmentation
CN110738101A (zh) 行为识别方法、装置及计算机可读存储介质
KR101581112B1 (ko) 계층적 패턴 구조에 기반한 기술자 생성 방법 및 이를 이용한 객체 인식 방법과 장치
CN111222395A (zh) 目标检测方法、装置与电子设备
JP2019096294A (ja) 視差推定装置及び方法
KR20180055070A (ko) 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
WO2016179808A1 (en) An apparatus and a method for face parts and face detection
EP3613017A1 (en) Learning-based matching for active stereo systems
CN111275060A (zh) 识别模型更新处理方法、装置、电子设备及存储介质
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
CN107918767A (zh) 目标检测方法、装置、电子设备及计算机可读介质
KR20170108339A (ko) 영상에서 다수의 객체를 인식하는 방법
KR102158095B1 (ko) 영상의 유사도 예측 방법 및 장치
KR102665603B1 (ko) 스테레오 매칭을 위한 하드웨어 디스패러티 평가
KR20190018274A (ko) 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
CN114219936A (zh) 目标检测方法、电子设备、存储介质和计算机程序产品
US20230376106A1 (en) Depth information based pose determination for mobile platforms, and associated systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180308

R150 Certificate of patent or registration of utility model

Ref document number: 6306683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350