JP2013502634A - Apparatus and method for identifying objects using morphological coding - Google Patents

Apparatus and method for identifying objects using morphological coding Download PDF

Info

Publication number
JP2013502634A
JP2013502634A JP2012525251A JP2012525251A JP2013502634A JP 2013502634 A JP2013502634 A JP 2013502634A JP 2012525251 A JP2012525251 A JP 2012525251A JP 2012525251 A JP2012525251 A JP 2012525251A JP 2013502634 A JP2013502634 A JP 2013502634A
Authority
JP
Japan
Prior art keywords
value
elements
image
processor
repeated reference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012525251A
Other languages
Japanese (ja)
Inventor
カフトリー、ラン
ホロビッツ、ロネン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eyecue Vision Technologies Ltd
Original Assignee
Eyecue Vision Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eyecue Vision Technologies Ltd filed Critical Eyecue Vision Technologies Ltd
Publication of JP2013502634A publication Critical patent/JP2013502634A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B1/00Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
    • G09B1/32Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

画像内に、参照フォームと参照フォームに対して既知の距離および向きのエレメントの集合とを含む繰り返しユニットを検出し、ユニットに含まれるエレメントから値を導き、導出した値を既知の値と比較するための方法およびシステム。エレメントは値の導出で使用してもよいバイナリ値を示してもよく、値はオブジェクトに関連付けられてもよい。画像内のオブジェクトの同一性を識別または確認するときに、画像内のエレメントから導出した値とオブジェクトに関連する格納されている値との比較を使用してもよい。Detect repeated units in the image that contain a reference form and a set of elements with a known distance and orientation relative to the reference form, derive values from the elements contained in the unit, and compare the derived values to known values Method and system for. An element may indicate a binary value that may be used in value derivation, and the value may be associated with an object. When identifying or verifying the identity of an object in the image, a comparison of values derived from elements in the image and stored values associated with the object may be used.

Description

本出願は、コンピュータビジョンに関し、特に制御されていない照明条件で捕捉される画像内のオブジェクトを識別することに関し、識別はオブジェクトに現れる形態学的コードの繰り返しユニットに基づく。   This application relates to computer vision, and in particular to identifying objects in an image that are captured in uncontrolled lighting conditions, where the identification is based on repeating units of morphological code appearing on the objects.

デジタル撮像装置によって捕捉される画像内のオブジェクトの識別は、オブジェクトの特徴の抽出に依拠して、オブジェクトを識別するためにその特徴のパターン認識を使用してもよい。パターン認識および特徴抽出は、とりわけ、照明条件、オブジェクトの向きの変化、撮像装置からのオブジェクトの相対的な距離、およびオクルージョンによって不正確になりやすい。そのため、典型的な識別プロセスは回転、平行移動および縮尺不変の特徴を伴ってもよく、また複雑なパターン認識アルゴリズムを必要としてもよい。そのため認識作業にオブジェクトを加えることは、照明条件の認識アルゴリズム補償を調整しなければならないことがある。   Identification of an object in an image captured by a digital imaging device may rely on the extraction of the object's features and use pattern recognition of that feature to identify the object. Pattern recognition and feature extraction tend to be inaccurate due to, among other things, lighting conditions, changes in object orientation, the relative distance of objects from the imaging device, and occlusion. As such, a typical identification process may involve rotation, translation and invariant features and may require complex pattern recognition algorithms. So adding objects to the recognition task may have to adjust the recognition algorithm compensation of the lighting conditions.

本発明の実施形態は、オブジェクトの画像を捕捉することによってオブジェクトを識別する方法を含んでもよく、画像内に繰り返し参照フォームと繰り返し参照フォームに対して所定の距離および向きのエレメントの集合とを検出する。エレメントの集合から値を導出してもよく、その値をオブジェクトに関連付けられて格納されている値と比較してもよい。画像内のエレメントの導出および検出した値は、メモリに格納されている関連付けられた値を有するオブジェクトをマッチングしながら画像内のオブジェクトを確認してもよい。繰り返しユニットのインスタンスはオブジェクトの周縁または他の場所に現れることがあり、ユニットの繰り返しはユニットの一部のオクルージョンまたは撮像装置の不具合を補償するので、ユニットまたはエレメントの1以上を明確に捕捉してもよい。いくつかの実施形態では、エレメントの導出値は位置調整バーの周縁に沿った長さなどの位置調整バーに対するその長さに基づいて、または位置調整バーに連結された状態のその基部からのエレメントの末端の距離などの位置調整バーに対するエレメントの垂直高さによって判定してもよい。例えば、「0」を表すエレメントは位置調整バーの内縁上の点に沿ったエレメントの不存在であってもよい。「1」は、位置調整バーの内縁上の位置に沿ったエレメントの存在を表してもよい。値は互いのもしくは位置調整バーに対するエレメントの他の高さ、厚さ、形状またはサイズから導出してもよい。   Embodiments of the present invention may include a method for identifying an object by capturing an image of the object and detecting a repeated reference form and a set of elements at a predetermined distance and orientation relative to the repeated reference form in the image. To do. A value may be derived from the set of elements, and the value may be compared to a value stored in association with the object. The derived and detected values of the elements in the image may identify objects in the image while matching objects having associated values stored in memory. An instance of a repeating unit may appear at the periphery of the object or elsewhere, and repeating the unit compensates for some occlusion in the unit or malfunction of the imaging device, so that one or more of the units or elements can be clearly captured. Also good. In some embodiments, the derived value of the element is based on its length relative to the alignment bar, such as the length along the periphery of the alignment bar, or from its base when connected to the alignment bar. It may be determined by the vertical height of the element with respect to the position adjustment bar such as the distance of the end of the element. For example, an element representing “0” may be the absence of an element along a point on the inner edge of the alignment bar. “1” may represent the presence of an element along a position on the inner edge of the alignment bar. The values may be derived from other heights, thicknesses, shapes or sizes of the elements relative to each other or to the alignment bar.

いくつかの実施形態では、エレメントは位置調整バーまたは参照フォームの曲線に連結して続けてもよく、参照フォームに対して同じもしくは指定の色または色群であってもよい。   In some embodiments, the elements may continue to be connected to the alignment bar or the curve of the reference form and may be the same or specified color or color group for the reference form.

いくつかの実施形態では、値は画像内で検出される1より多いエレメントの集合から導出してもよく、検出される画像および値の計算の正確さを確認するためにその値を比較してもよい。   In some embodiments, the value may be derived from a set of more than one element detected in the image, comparing the value to confirm the accuracy of the detected image and the calculation of the value. Also good.

いくつかの実施形態では、画像内で検出される2つのエレメントの集合の値が等しくない場合、第3のエレメントの集合から値を導出して、他の2つの値と比較してもよい。エレメントの3つのうちの2つの導出、または何か他の比率が同じ値を出す場合、かかる値を画像内に現れる値と考えてもよい。識別にローバストさを加えるために、エレメントの集合のさらなる導出を行ってもよい。   In some embodiments, if the values of the two sets of elements detected in the image are not equal, a value may be derived from the third set of elements and compared to the other two values. If two derivations of three of the elements, or some other ratio, give the same value, such a value may be considered as a value appearing in the image. In order to add robustness to the identification, a further derivation of the set of elements may be performed.

いくつかの実施形態では、それが位置調整バーなどの参照フォームおよび参照フォームに連結されるもしくは参照フォームに対する既知の向きのエレメントを含むかに基づいてユニットを検出してもよい。   In some embodiments, the unit may be detected based on a reference form such as an alignment bar and whether it includes an element that is linked to or known to the reference form.

いくつかの実施形態では、プロセッサは画像のオブジェクトの識別を確認すると信号を発してもよい。いくつかの実施形態では、撮像装置は5メートルまでの距離のユニットおよびエレメントの集合を捕捉して、検出してもよい。   In some embodiments, the processor may signal upon confirming the identity of the image object. In some embodiments, the imaging device may capture and detect a collection of units and elements up to a distance of 5 meters.

本発明のいくつかの実施形態は、オブジェクトに繰り返し参照フォームおよび繰り返し参照フォームから所定の向きおよび距離のエレメントの集合を現すオブジェクトのシステムと、エレメントに関連する値を計算して、その値をメモリに格納されている値と比較するプロセッサとを含んでもよい。   Some embodiments of the present invention provide a system of objects that presents a set of elements with a predetermined orientation and distance from the repeated reference form and the repeated reference form to the object, calculates values associated with the elements, and stores the values in the memory. And a processor for comparing with the value stored in.

いくつかの実施形態は、プロセッサによって実行できる命令の集合を格納する媒体を含んでもよく、かかる実行時、プロセッサは数値を非数バイナリ形状の集合に翻訳して、参照フォームに対して既知の位置に配向される形状を含むプリントファイルになるように挿入アイテムを作成する。このアイテムは、例えば印刷されるべきオブジェクトの画像の周縁の周囲に繰り返しユニットでプリントファイルに追加してもよい。繰り返しユニットは印刷画像に印刷されるオブジェクトの画像に対して既知の位置で現れてもよい。いくつかの実施形態では、繰り返しユニットは印刷されるオブジェクトの形状に適合するようにプリントファイルに構成または追加されてもよい。例えば、印刷されるオブジェクトが丸顔の場合、繰り返しユニットは印刷される顔の周囲に丸いフレームを形成してもよい。繰り返しユニットは印刷されるオブジェクトから少なくとも最小距離で現れるようにプリントファイルに追加することによって、エレメントが印刷画像にオーバーラップまたは接触しないようにしてもよい。   Some embodiments may include a medium that stores a set of instructions that can be executed by the processor, during which the processor translates the numerical value into a set of non-binary binary shapes to a known location relative to the reference form. Create an insert item to be a print file containing a shape oriented in This item may be added to the print file in a repeating unit, for example around the periphery of the image of the object to be printed. The repeat unit may appear at a known position relative to the image of the object printed on the printed image. In some embodiments, the repeat unit may be configured or added to the print file to match the shape of the object being printed. For example, if the object to be printed is a round face, the repeating unit may form a round frame around the face to be printed. The repeat unit may be added to the print file so that it appears at least a minimum distance from the object to be printed so that the elements do not overlap or touch the printed image.

いくつかの実施形態では、命令は印刷されるオブジェクトをエレメントに翻訳された値と関連付けてもよい。例えば、プロセッサは23の値を有する位置調整バーに形状の集合を生成して、印刷される丸顔の周囲に形状の繰り返しユニットを追加してもよい。印刷される丸顔はメモリで値23と関連付けて、後で23の値を出す形状を検出する際に、プロセッサが丸顔の検出の信号を発してもよい。   In some embodiments, the instruction may associate the printed object with the value translated into the element. For example, the processor may generate a set of shapes on an alignment bar having a value of 23 and add a repeating unit of shapes around the round face to be printed. The round face to be printed is associated with the value 23 in the memory, and the processor may issue a round face detection signal when detecting a shape that will later yield a value of 23.

本発明と考えられる主題は、具体的には明細書の末部で指摘し、明確に請求する。しかし、本発明は、構成および操作方法のどちらに関しても、その特徴および利点とあわせて、以下の詳細な説明を参照して添付の図面とあわせて読むと最善に理解できるであろう。   The subject matter considered as the invention is particularly pointed out and distinctly claimed at the end of the specification. However, the invention, together with its features and advantages, both in terms of construction and method of operation, will be best understood when read in conjunction with the accompanying drawings, with reference to the following detailed description.

本発明の実施形態による撮像装置と、プロセッサと、識別するべきオブジェクトとを含むシステムの模式図である。1 is a schematic diagram of a system including an imaging device according to an embodiment of the present invention, a processor, and an object to be identified. 本発明の実施形態により識別され得るオブジェクトの例である。FIG. 4 is an example of an object that can be identified by an embodiment of the present invention. FIG. 本発明の実施形態により識別され得るブジェクトの例である。FIG. 4 is an example of a object that can be identified by an embodiment of the present invention. FIG. 本発明の実施形態による方法のフロー図である。FIG. 3 is a flow diagram of a method according to an embodiment of the invention.

以下の説明において、本発明の様々な実施形態を説明する。説明のために特定の実施例を記載して、本発明の少なくとも1つの実施形態を完全に理解できるようにする。しかし、当業者には本発明の他の実施形態はここに記載される実施例に制限されるわけではないことは明らかにもなる。また、ここに記載する本発明の実施形態が不明瞭にならないように、よく知られた特徴は省略または簡素化していることがある。   In the following description, various embodiments of the present invention will be described. For purposes of explanation, specific examples are set forth in order to provide a thorough understanding of at least one embodiment of the invention. However, it will be apparent to one skilled in the art that other embodiments of the invention are not limited to the examples described herein. In other instances, well-known features may be omitted or simplified in order not to obscure the embodiments of the present invention described herein.

別途具体的に述べない限り、以下の説明から明らかなように、本明細書を通して、「選択する」、「評価する」、「処理する」、「演算する」、「計算する」、「関連付ける」、「判定する」、「指定する」、「割り当てる」または同様な他の言葉のような用語を利用する説明は、コンピューティングシステムのレジスタおよびメモリ、もしくはその一方内の電子量などの物理量を操作し、かつそれをコンピューティングシステムのメモリ、レジスタまたは他の同様な情報記憶装置、伝送もしくはディスプレイ装置内に物理的な量として同様に表される他のデータに変換する、またはその一方を行うコンピュータ、コンピュータプロセッサもしくはコンピューティングシステム、または同様な電子コンピューティング装置のアクションおよびプロセス、もしくはその一方をいう。   Unless otherwise specified, as will be apparent from the following description, throughout this specification, “select”, “evaluate”, “process”, “compute”, “calculate”, “associate” Descriptions that use terms such as "determine", "specify", "assign" or other similar words manipulate physical quantities such as electronic quantities in a computing system register and / or memory And converting it into memory, registers or other similar information storage devices of a computing system, or other data that is also represented as a physical quantity in a transmission or display device Computer processor or computing system, or similar electronic computing device actions and Process, or say one of them.

ここで提示されるプロセスおよび機能はいずれかの特定のコンピュータ、ネットワークまたは他の装置に固有に関係するわけではない。ここで説明する本発明の実施形態は、いずれか特定のプログラミング言語、マシンコードなどを参照して説明するわけではない。ここで説明されるとおりに本発明の実施形態の教唆を実施するために、多様なプログラミング言語、ネットワークシステム、プロトコルまたはハードウェア構成を使用してもよいことは認識されるであろう。いくつかの実施形態では、本発明の実施形態の1または複数の方法はメモリディバイスなどの物に命令として格納してもよく、かかる命令はプロセッサで実行すると、本発明の実施形態の方法を生じさせる。   The processes and functions presented herein are not inherently related to any particular computer, network, or other apparatus. The embodiments of the invention described herein are not described with reference to any particular programming language, machine code, or the like. It will be appreciated that a variety of programming languages, network systems, protocols, or hardware configurations may be used to implement the teachings of embodiments of the invention as described herein. In some embodiments, one or more methods of embodiments of the present invention may be stored as instructions in an object such as a memory device, such instructions executing on a processor yield the methods of embodiments of the present invention. Let

本出願で使用される「形態学的」という用語は、その通常の意味に加えて、第1形状が第2形状から出現することを含意してもよい。例えば、情報のビットを示し得る画像内のある形状は、位置調整バーに付着し、または位置調整バーから延長、出現もしくは変形してもよいことから、ビットを表す形状の検出を位置調整バーの形状または存在の検出に関連付けるまたは関係付けるようにしてもよい。   The term “morphological” as used in this application may imply that the first shape emerges from the second shape in addition to its usual meaning. For example, certain shapes in an image that may represent bits of information may adhere to the alignment bar, or may extend, appear, or deform from the alignment bar, thus detecting the shape that represents the bit in the alignment bar. It may be associated with or related to the detection of shape or presence.

図1は、本発明の実施形態による撮像装置と、プロセッサと、識別するべきオブジェクトとを含むシステムの模式図である。いくつかの実施形態では、システム100は例えばプロセッサ106に接続されまたは関連付けられ得るスクリーンまたはディスプレイ101と、オブジェクト104の画像を捕捉し得る撮像装置102とを含んで、画像に関するデジタル情報をプロセッサ106に中継または送信する。オブジェクト104は、オブジェクト104の外縁もしくは周縁110などのオブジェクト104の領域またはオブジェクト104の他の既知の領域に、例えば既知または所定のパターンで配列し得る様々な形状108を含み、またはそれに印刷もしくは配置して、かかる形状108が撮像装置102に見えるようにしてもよい。いくつかの実施形態では、かかる形状は単色の形態学的形状でもよく、またはそれを含んでもよい。いくつかの実施形態では、オブジェクト104の中央部もしくは他の部分に、識別するべき形状、数字、文字、図形、または他の模様112などのマークを貼付、付着または印刷する。形状108のパターンのリストを、1または複数のオブジェクト104もしくはオブジェクト104に付着し得る模様112に関連付けてもよく、かかるリストおよび関連付けはプロセッサ106に接続され得るメモリ114に格納してもよい。   FIG. 1 is a schematic diagram of a system including an imaging device according to an embodiment of the present invention, a processor, and an object to be identified. In some embodiments, the system 100 includes, for example, a screen or display 101 that can be connected or associated with the processor 106 and an imaging device 102 that can capture an image of the object 104 to provide digital information about the image to the processor 106. Relay or send. The object 104 includes, or is printed or arranged with, various shapes 108 that can be arranged in a known or predetermined pattern, for example in a region of the object 104, such as the outer edge or periphery 110 of the object 104, or other known regions of the object 104. Then, the shape 108 may be visible to the imaging device 102. In some embodiments, such a shape may be or include a monochromatic morphological shape. In some embodiments, a mark such as a shape, number, character, graphic, or other pattern 112 to be identified is affixed, attached, or printed to the center or other portion of the object 104. A list of patterns of the shape 108 may be associated with one or more objects 104 or patterns 112 that may be attached to the objects 104, and such lists and associations may be stored in a memory 114 that may be connected to the processor 106.

操作時、ディスプレイ101は文字Aなどの模様112を例えばユーザに提示または表示する。次にユーザは、文字Aを印刷もしくは付着され得るカードまたは他のオブジェクトなど、表示された模様112に一致もしくはその他対応するオブジェクトを見つける。ユーザはオブジェクト104を撮像装置102に見せるまたは他の形で呈示してもよく、撮像装置102はオブジェクト104の一部に印刷、付着する、もしくはその他形作ってもよいオブジェクト104および形状108の画像を捕捉する。画像はプロセッサ106に送信され、プロセッサ106は画像のオブジェクト104に単色の形態学的形状108のパターンを発見または判別する。プロセッサ106は形状108の識別パターンの数値または他の値に関してメモリ114を検索し、画像内のオブジェクト104に現れた形状108のその特定のパターンがディスプレイ101に提示された模様112に割り当てられた値に関連付けられているか判定する。表示される模様112と撮像装置に呈示したオブジェクト104との間の一致が検出されたら、プロセッサ106は例えば、ベルまたはスピーカ116などの音声、視覚もしくは他のインジケータまたは計算器に信号を発して、画像内に捕捉されたオブジェクト104の模様がディスプレイ101に提示される模様に対応することを知らせる。例えば、値との関連付けをメモリ114に格納してもよいため、文字Aは値23に関連付けてもよい。模様112として文字Aを有するカードは、メモリ114で値23にも関連付けられている形状108パターンを含み得る。ユーザにAを提示するディスプレイ101に信号を送ったプロセッサ106は、表示される模様112に関連付けられている値と、形状108のパターンによって示される値との一致を検出する。   During operation, the display 101 presents or displays a pattern 112 such as the letter A to the user, for example. The user then finds an object that matches or otherwise corresponds to the displayed pattern 112, such as a card or other object on which the letter A can be printed or attached. The user may show the object 104 to the imaging device 102 or otherwise present the imaging device 102 with an image of the object 104 and the shape 108 that may be printed, attached or otherwise shaped to a portion of the object 104. To capture. The image is transmitted to the processor 106, which finds or determines a pattern of monochromatic morphological shapes 108 on the object 104 of the image. The processor 106 searches the memory 114 for a numeric value or other value of the identification pattern of the shape 108 and that particular pattern of the shape 108 that appeared on the object 104 in the image is the value assigned to the pattern 112 presented on the display 101. Determine if it is associated with. Once a match between the displayed pattern 112 and the object 104 presented on the imaging device is detected, the processor 106 signals a voice, visual or other indicator or calculator, such as a bell or speaker 116, for example, The fact that the pattern of the object 104 captured in the image corresponds to the pattern presented on the display 101 is notified. For example, since the association with the value may be stored in the memory 114, the character A may be associated with the value 23. A card having the letter A as the pattern 112 may include a shape 108 pattern that is also associated with the value 23 in the memory 114. The processor 106 that has sent a signal to the display 101 that presents A to the user detects a match between the value associated with the displayed pattern 112 and the value indicated by the pattern of the shape 108.

いくつかの実施形態では、例えば色付きの壁またはカーテンなどの不均一な背景に対して、および直接光もしくは間接光、日光、室内の環境光または他の不均一な照明条件などの未制御の照明および陰影条件などの未制御の環境で画像が捕捉される場合でも、形状108のパターンを識別し得る。   In some embodiments, uncontrolled lighting, such as against uneven backgrounds, such as colored walls or curtains, and direct or indirect light, sunlight, indoor ambient light, or other non-uniform lighting conditions Even if the image is captured in an uncontrolled environment, such as shadow conditions, the pattern of shape 108 can be identified.

いくつかの実施形態では、形状108のパターンは、撮像装置102に対するオブジェクト104の向きが撮像装置102に入る光もしくは反射する光に垂直以外の場合でも識別し得る。例えば、オブジェクト104は撮像装置102に鋭角もしくは他の角度で保持されてもよく、回転しても、ユーザの手などの例えば障害物によって一部隠されても、またはその他不完全に撮像されてもよく、撮像装置102はそれでも形状108の繰り返しパターンのうちの少なくとも1つまたは一部を検出して識別してもよい。   In some embodiments, the pattern of shapes 108 may be identified even when the orientation of the object 104 relative to the imaging device 102 is other than perpendicular to the light that enters or reflects the imaging device 102. For example, the object 104 may be held on the imaging device 102 at an acute angle or other angle, rotated, partially hidden by an obstacle such as a user's hand, or otherwise imperfectly imaged. Alternatively, the imaging device 102 may still detect and identify at least one or a portion of the repeating pattern of the shape 108.

いくつかの実施形態では、形状108のパターンは、例えば10cmから5メートルまで、もしくはそれ以上など、撮像装置102からオブジェクト104の様々な距離で識別され得る。いくつかの実施形態では、オブジェクト104の形状108のパターンを識別する撮像装置102からの距離は、例えば撮像装置102の解像度に依存してもよく、撮像装置102からのオブジェクト104の距離の判定をさせてもよい。例えば、プロセッサ106は第1形状108および第2形状を含む捕捉された画像の画素数に基づいて、画像内の第1形状108のサイズおよび第2形状108のサイズを判定する。   In some embodiments, the pattern of the shape 108 may be identified at various distances from the imaging device 102 to the object 104, such as from 10 cm to 5 meters or more. In some embodiments, the distance from the imaging device 102 that identifies the pattern 108 of the shape 108 of the object 104 may depend, for example, on the resolution of the imaging device 102 and may determine the distance of the object 104 from the imaging device 102. You may let them. For example, the processor 106 determines the size of the first shape 108 and the size of the second shape 108 in the image based on the number of pixels of the captured image that includes the first shape 108 and the second shape.

いくつかの実施形態では、撮像装置102は色または強度画像データを捕捉して送信できるCCD、CMOSまたは他の映像もしくは静止デジタル画像捕捉装置など、適したデジタル撮像装置でもよく、またはそれを含んでもよい。いくつかの実施形態では、典型的にはウェブカムまたはネットワーク対応カメラ構成に含まれるものなど、QVGAまたはVGAの解像度を有する低解像度カメラが本発明の実施形態に適していてもよい。   In some embodiments, the imaging device 102 may be or include a suitable digital imaging device, such as a CCD, CMOS or other video or still digital image capture device that can capture and transmit color or intensity image data. Good. In some embodiments, low resolution cameras having QVGA or VGA resolution, such as those typically included in webcam or network enabled camera configurations, may be suitable for embodiments of the present invention.

いくつかの実施形態では、プロセッサ106は典型的にはホームコンピューティング構成で使用される埋め込み型プロセッサ、またはDSPもしくはPentium(登録商標)IVもしくはそれ以上のプロセッサ、または他の匹敵するプロセッサでもよく、またはそれを含んでもよい。メモリ114は、例えばデータベース、アレイ、ツリーまたは他のデータ記憶構造を格納してもよいハードドライブ、フラッシュまたは他の電子データ記憶装置などの適したデータ記憶装置でもよく、またはそれに含まれていてもよい。いくつかの実施形態では、ディスプレイ101およびベルまたはスピーカ116は、一致または他のアクションがユーザに投げかけられる質問、問題もしくは他の信号に対して正確、不正確またはその他の反応であることをユーザに知らせてもよい例えばディスプレイおよびサウンドシステムなどの単一の装置であってもよく、またはそれに含まれていてもよい。   In some embodiments, the processor 106 may be an embedded processor typically used in a home computing configuration, or a DSP or Pentium IV or higher processor, or other comparable processor, Or it may be included. The memory 114 may be or be included in a suitable data storage device such as a hard drive, flash or other electronic data storage device that may store a database, array, tree or other data storage structure, for example. Good. In some embodiments, display 101 and bell or speaker 116 may indicate to the user that a match or other action is accurate, inaccurate, or other response to a question, problem or other signal that is thrown at the user. It may be a single device such as a display and a sound system that may be informed, or may be included in it.

いくつかの実施形態では、プロセッサ106は携帯電話、おもちゃ、人形、トイハウスなどのオブジェクトの内部に収容されている埋め込み型プロセッサでもよい。いくつかの実施形態では、撮像装置102およびベル/スピーカ116は人形またはおもちゃまたはトイハウスの内部にあってもよく、またはその内部に含まれていてもよい。   In some embodiments, the processor 106 may be an embedded processor housed inside an object such as a cell phone, toy, doll, toy house. In some embodiments, the imaging device 102 and the bell / speaker 116 may be within or contained within a doll or toy or toy house.

図2Aおよび図2Bは本発明の実施形態によって識別し得るオブジェクトの例であり、かかるオブジェクトの周縁の繰り返しコードおよび位置調整バーの拡大図である。いくつかの実施形態では、オブジェクト200および201は、例えばユーザまたは何か他のシステムによって撮像装置102で撮像される領域にもっていくように移動、上昇もしくはその他操作をするのに適する平らな、球形、立方形または他の形状のオブジェクトでもよく、またはそれを含んでもよい。いくつかの実施形態では、オブジェクト200および201は厚紙、プラスチックまたは他の半硬質の材料でもよく、またはそれを含んでもよいカードもしくはディスクでもよい。オブジェクト200および201は単色の形態学的形状パターンが印刷、付着、スタンプもしくは膠着できる限り、ボール、おもちゃ、工業品または他のアイテムを含んでもよい。   2A and 2B are examples of objects that can be identified according to embodiments of the present invention, and are enlarged views of repetitive codes and alignment bars around the perimeter of such objects. In some embodiments, the objects 200 and 201 are flat, spherical, suitable for moving, raising or otherwise maneuvering, for example, to take the area imaged by the imaging device 102 by a user or some other system. May be or may include a cubic or other shaped object. In some embodiments, the objects 200 and 201 may be cardboard, plastic or other semi-rigid material, or may be a card or disk that may contain it. Objects 200 and 201 may include balls, toys, industrial goods, or other items as long as a monochromatic morphological shape pattern can be printed, adhered, stamped or glued.

例えばオブジェクト200の外周縁に付着または刻印されるのは、例えば繰り返しまたは反復単色バイナリコードのパターンを作ることのできる一連の形状コード202でもよい。単色の形態学的形状コード202は位置調整バー204または位置調整曲線(図2では視覚化の目的で水平線で示している)などの参照フォームと、データビット206(図2では視覚化の目的で斜線で示している)とから構成してもよい。図2Bに図示するように、位置調整バー205は湾曲してもよく、または何か他の形状もしくは幾何学形を呈していてもよい。いくつかの実施形態では、コード202はバイナリでよく、位置調整バー204の位置に従って右から左に、またはその他の順番で読み取ってもよい。暗いビットは「1」と解釈し、明るいビットは「0」と解釈してもよい。位置調整バー204およびデータビット206は、オブジェクト200の背景色にコントラストを提供してもよいいずれかの色で着色してもよい。コード202エレメントの比率を、図2Aおよび図2Bのコードおよび位置調整バーの拡大図に図示している。他の比率および寸法も可能である。いくつかの実施形態では、このコードが撮像装置によって認識される最大距離は、画像内の単一画素でも検出されるコード202ユニットに依存してもよい。   For example, attached to or stamped on the outer periphery of the object 200 may be a series of shape codes 202 that can create, for example, a pattern of repetitive or repetitive single color binary codes. The monochromatic morphological shape code 202 includes a reference form such as an alignment bar 204 or alignment curve (shown as a horizontal line in FIG. 2 for visualization purposes) and data bits 206 (in FIG. 2 for visualization purposes). (Shown by diagonal lines). As illustrated in FIG. 2B, the alignment bar 205 may be curved or may have some other shape or geometry. In some embodiments, the code 202 may be binary and may be read from right to left or in other order according to the position of the alignment bar 204. A dark bit may be interpreted as “1”, and a bright bit as “0”. The alignment bar 204 and the data bits 206 may be colored with any color that may provide contrast to the background color of the object 200. The ratio of cord 202 elements is illustrated in the enlarged view of the cord and alignment bar of FIGS. 2A and 2B. Other ratios and dimensions are possible. In some embodiments, the maximum distance that this code is recognized by the imaging device may depend on the code 202 unit that is also detected in a single pixel in the image.

いくつかの実施形態では、コード202のビット206の面の比率が互いに対しておよびバー5に対して維持されるので、コード202はバー205の曲面に沿って描かれてもよい。   In some embodiments, the code 202 may be drawn along the curved surface of the bar 205 because the ratio of the faces of the bits 206 of the code 202 to each other and to the bar 5 is maintained.

形状202は幾何学的形状(例、線、円など)を形成してもよく、または他の外形を呈してもよい。コード202のパターンを撮像装置に呈示されるオブジェクト200の1つの面、いくつかの面またはすべての面に記してもよい。オブジェクト200は、コード202が貼付されてもよく、またはコード202が提示されてもよい触覚オブジェクトを含んでもよい。   The shape 202 may form a geometric shape (eg, line, circle, etc.) or may exhibit other outlines. The pattern of the code 202 may be written on one surface, some surfaces, or all surfaces of the object 200 presented to the imaging device. Object 200 may include a tactile object to which code 202 may be affixed or code 202 may be presented.

単色の形態学的形状コード202の異なるパターンに関連するコードのバリエーションおよびそのためアイテムもしくは模様206の数は、単色の形態学的形状202に含まれているビット206の数が増えるにつれて増えてもよいが、単色の形態学的形状コード202のシーケンスは少なくとも2つのバイナリビットを含んでもよい。各単色の形態学的形状202のサイズは、例えば、オブジェクト200と撮像装置102との意図される距離および撮像装置102の解像度によって判定してもよい。   The code variations associated with different patterns of the monochromatic morphological shape code 202 and therefore the number of items or patterns 206 may increase as the number of bits 206 contained in the monochromatic morphological shape 202 increases. However, the sequence of monochrome morphological shape codes 202 may include at least two binary bits. The size of each monochromatic morphological shape 202 may be determined by, for example, the intended distance between the object 200 and the imaging device 102 and the resolution of the imaging device 102.

単色の形態学的形状202のオブジェクト200の周縁、外縁、辺、または他の所定の領域周辺へのローカリゼーションは、コード202の一部のオクルージョンの影響を回避でき、オブジェクト200がある画像で検出されたらコード202のよりローバストな検出および識別を提供できる。同様に、オブジェクトが一部遮られたときでも、または画像内のオブジェクト200の向きがその撮像装置102への呈示を一部妨げるときでも、パターンの繰り返しはパターンの識別をさせることができる。   Localization of the solid morphological shape 202 around the periphery, outer edge, edge, or other predetermined area of the object 200 can avoid the effect of some occlusions in the code 202 and is detected in an image in which the object 200 is present. Once this is done, more robust detection and identification of the code 202 can be provided. Similarly, repeating a pattern can identify the pattern even when the object is partially obstructed or when the orientation of the object 200 in the image partially obstructs its presentation to the imaging device 102.

パターンはオブジェクトもしくは模様にさらに関連付けられ得る値に関連付けられている場合、例えばバイナリコード10101など、特定の単色の形態学的形状コード202をあらかじめ定義してメモリ114に格納してもよい。いくつかの実施形態では、単色コードはパターン内にバイナリコードを指定してもよく、その場合、組み合わせ数は以下のように定義し得る。   If the pattern is associated with a value that can be further associated with an object or pattern, a particular monochromatic morphological shape code 202, such as binary code 10101, may be pre-defined and stored in memory 114. In some embodiments, the monochromatic code may specify a binary code in the pattern, in which case the number of combinations may be defined as follows:

−2
上記式において、nはコード内のビットの数であり、すべてゼロまたはすべて1のコードは禁止される。例えば、5ビットを使用する場合、2−2=30の組み合わせになるだろう。いくつかの実施形態では、単色コードの色など可能なコードの数を増やすために、追加の特徴を使用してもよい。多色の組み合わせまたはコードが可能であってもよいため、r個の異なる色を使用する場合には以下の式となる。
2 n -2
In the above equation, n is the number of bits in the code, and all zero or all one codes are prohibited. For example, if 5 bits are used, there will be 2 5 −2 = 30 combinations. In some embodiments, additional features may be used to increase the number of possible codes, such as the color of a single color code. Since multiple color combinations or codes may be possible, the following equation is used when r different colors are used.

(2−2)
所与の例では、6個の異なる色を使用する場合、180通りの組み合わせが可能であろう。
(2 n -2) * r
In the given example, 180 different combinations would be possible when using 6 different colors.

いくつかの実施形態では、さらに多くの特徴を使用して、単色コードの背景色など可能なコードの数を増やしてもよい。r個の異なる色を使用し、k個の異なる背景色を使用する場合、以下の式となる。   In some embodiments, more features may be used to increase the number of possible codes, such as the background color of a single color code. When r different colors are used and k different background colors are used, the following equation is obtained.

(2−2)
所与の例では、同様に6個の異なる背景色も使用する場合、1080通りもの組み合わせになる。
(2 n -2) * r * k
In the given example, if six different background colors are used as well, there are as many as 1080 combinations.

これ以上の色を使用せずに可能なコードの数をさらに拡大するために、両側バイナリコーディングスキームを使用してもよいが、同じ幅の場合は、高さの増加が撮像装置で区別できる限りは、コードの高さの増大を使用してもよい。かかる可変高さは可能な組み合わせを指数関数的に増大するだろう。これにより、例えば、25*=210−4=1020通りの組み合わせが可能となる。 A double-sided binary coding scheme may be used to further expand the number of possible codes without using more colors, but for the same width, as long as the increase in height can be distinguished by the imaging device May use an increase in cord height. Such variable height will increase the possible combinations exponentially. Thereby, for example, 2 5 * 2 5 = 2 10 -4 = 1020 combinations are possible.

捕捉された画像内のバーまたはコードの検出および識別は、以下のプロセスのうちのいくつかもしくは全部を伴ってもよい。
・画像に捕捉されるエッジの抽出で、かかる抽出は、例えばエッジ抽出のためにCanny演算子に実装されてもよい非最大抑制など、適したエッジ抽出法で実施される。
Detection and identification of bars or codes in the captured image may involve some or all of the following processes.
• Extraction of edges captured in the image, such extraction is performed with a suitable edge extraction method, for example non-maximum suppression that may be implemented in the Canny operator for edge extraction.

・閉鎖輪郭を形成する捕捉されるエッジの識別で、かかる識別は正規の標識演算などの連結要素アルゴリズムを使用して実施してもよい。かかる識別は位置調整バー、コードまたはオブジェクトの互いの1以上との所定の比率に適合するエッジ輪郭の存在を検出してもよい。   • Identification of captured edges that form a closed contour, such identification may be performed using a connected element algorithm such as regular sign operation. Such identification may detect the presence of edge contours that match a predetermined ratio of the alignment bar, code or object to one or more of each other.

・例えば、閉鎖エッジ輪郭の一部である画素のいくつかもしくは全部の曲率の計算などの角検出器によって、識別される閉鎖輪郭の角の抽出。
・例えば位置調整バーの長さを識別できるように、1または複数の輪郭上で、2つの隣接する角の間の最大距離の計算。
Extraction of the corners of the closed contour identified by a corner detector, for example calculating the curvature of some or all of the pixels that are part of the closed edge contour.
Calculation of the maximum distance between two adjacent corners on one or more contours so that, for example, the length of the alignment bar can be identified.

・コードを形成するビット数によって位置調整バーの長さを割ることによって、1または複数のビットに含まれている画素数の計算。
・例えばビットの中央領域または別の領域の画素の値を点検することによって、画像から1または複数のビットの強度を読み取ること。
Calculation of the number of pixels contained in one or more bits by dividing the length of the alignment bar by the number of bits forming the code.
Reading the intensity of one or more bits from the image, for example by checking the values of the pixels in the central area of the bit or in another area.

・ビットの強度を閉鎖輪郭の外側およびその内側の強度と比較して、ビットの強度が閉鎖輪郭の外側の強度に近い場合「0」と識別してもよいが、そうでなければ「1」と識別するようにしてもよい。   • Compare the strength of the bit with the strength outside and inside the closure contour and may identify “0” if the strength of the bit is close to the strength outside the closure contour, otherwise “1” May be identified.

・画像から抽出した様々な可能なコードから繰り返しが最大のコードを識別することによって、真実らしいコードを判定する。
いくつかの実施形態では、例えば印刷されるコードの現実世界のサイズが演繹的に分かる場合には、位置調整バーの長さを使用して、コードを含むオブジェクトの撮像装置からの絶対距離を測定してもよい。
Determine the true code by identifying the code with the largest iteration from the various possible codes extracted from the image.
In some embodiments, for example, if the real-world size of the printed code is a priori known, the length of the alignment bar is used to measure the absolute distance of the object containing the code from the imaging device. May be.

いくつかの実施形態では、形状、位置調整バーおよびコードは反復的なので、画像内に複数のパターンのシーケンスが現れそうである。パターンの確率関数を使用して、コードもしくはパターンの存在およびそれが現れる回数だけでなく、隣接するシーケンスの数または距離もしくは分散などのかかる繰り返し間の他の空間ベースの関係も考慮することによってオブジェクト分類を検証してもよい。最も確率の高いパターンを正しいコードおよび関連オブジェクトに関連するパターンを表すとして選択してもよい。いくつかの実施形態では、この手順は画像の連続したフレームで適用してもよく、少数もしくは連続したフレームで同じパターンを選択すると分類の信頼性を高めることができる。   In some embodiments, the shape, alignment bar and code are repetitive, so multiple sequences of sequences are likely to appear in the image. Using pattern probability functions, objects by considering not only the presence of codes or patterns and the number of times they appear, but also other spatial-based relationships between such iterations, such as the number of adjacent sequences or distance or variance Classification may be verified. The most probable pattern may be selected to represent the pattern associated with the correct code and related objects. In some embodiments, this procedure may be applied in consecutive frames of the image, and selecting the same pattern in a few or consecutive frames can increase the reliability of the classification.

いくつかの実施形態では、形状パターンは模様が何もない空白のカードなどのオブジェクトに付着してもよく、ユーザは白紙カードに画像を接着または画像を描画してもよい。例えば、メモリで「My Pet(わたしのペット)」に関連するパターンをユーザのペットの絵に付着してもよく、白紙カードはペットに関連しているとしてシステムに認識されてもよい。   In some embodiments, the shape pattern may be attached to an object such as a blank card with no pattern, and the user may glue or draw an image on a blank card. For example, a pattern associated with “My Pet” in memory may be attached to the user's pet picture, and a blank card may be recognized by the system as being associated with the pet.

いくつかの実施形態では、形状のパターンは印刷される模様自体に統合されるように撮像装置によって観察される絵またはアイテム内に埋め込んでもよいため、人の眼からカモフラージュしてもよく、または認識できないようにしてもよい。例えば、文字、数字または模様は、撮像装置によって識別されるが、ユーザによる明らかな認識からは隠すことのできる成形パターンを含むように描いてもよい。例えば、絵の中またはアイテム上の形状パターンは、IRもしくは近IRなどの可視光スペクトルでは反射しないインクを使用して印刷してもよく、画像を捕捉する撮像装置はIRカメラであってもよい。いくつかの実施形態では、形状およびコードのマイクロコードバージョンをオブジェクトに貼付して、よりカモフラージュしたバージョンのコード化オブジェクトを作成してもよい。   In some embodiments, the shape pattern may be camouflaged or recognized from the human eye because it may be embedded in a picture or item viewed by the imaging device to be integrated into the printed pattern itself. It may not be possible. For example, letters, numbers, or patterns may be drawn to include a shaped pattern that is identified by the imaging device but can be hidden from obvious recognition by the user. For example, a shape pattern in a picture or on an item may be printed using ink that does not reflect in the visible light spectrum, such as IR or near IR, and the imaging device that captures the image may be an IR camera . In some embodiments, a microcode version of the shape and code may be affixed to the object to create a more camouflaged version of the encoded object.

いくつかの実施形態では、コードを含む形状の検出は、形状を含むオブジェクトが第1画像の捕捉の後に撮像装置の視野に入ったと仮定すると、第1もしくは前の画像には含まれなかった第2画像でオブジェクトを分離する減法プロセスを含んでもよい。かかる減法は一連の画像内でのオブジェクトの検出に必要な試行または計算の回数を減らすことができる。   In some embodiments, the detection of the shape including the code is not included in the first or previous image, assuming that the object including the shape has entered the field of view of the imaging device after capture of the first image. It may include a subtractive process that separates objects in two images. Such subtraction can reduce the number of trials or calculations required to detect an object in a series of images.

いくつかの実施形態では、コード化オブジェクトの認識を、子供または生徒の教育課程の一部として使用してもよい。コード化オブジェクトの認識を質問に対する回答に関連付けてもよく、例えば、「動物カードを持ち上げなさい!」という指示に対して、生徒は動物の絵または名前を表示したカードに関連付けられている単色形状でコード化された動物カードを持ち上げる。システムはコードを検出して、コード番号を認識し、「それはクマです!」と回答する。このプロセスをコンピュータおよび1もしくは複数の撮像装置を装備した教室へ展開してもよく、そこでコンピュータは、1人または複数人が正しいもしくは間違ったカードまたはオブジェクトを持ち上げるかもしれない多数の生徒がいるクラス全体の経験のために異なるオブジェクトまたはカードを認識する。   In some embodiments, recognition of coded objects may be used as part of a child or student curriculum. The recognition of the coded object may be associated with the answer to the question, for example, in response to the instruction “Pick up the animal card!” The student will be in a single color shape associated with the card displaying the animal picture or name. Lift the coded animal card. The system detects the code, recognizes the code number, and answers, "It's a bear!" This process may be deployed in a classroom equipped with a computer and one or more imaging devices, where the computer has a class with many students where one or more may lift the correct or incorrect card or object Recognize different objects or cards for the whole experience.

いくつかの実施形態では、形状およびコードを有するオブジェクトの認識を顧客との対話の一部として使用してもよい。例えば、ウェイターに気づいてほしいレストランで待っている客はコード化画像または他のコード化オブジェクトを持ち上げてもよく、レストランのカメラがコード化画像を検出して、「勘定書を持ってきてください」または他のメッセージに関連付けることのできるコード番号とともにテーブルの位置を送ってもよい。   In some embodiments, recognition of objects having shapes and codes may be used as part of the customer interaction. For example, a customer waiting at a restaurant that the waiter wants to notice may lift a coded image or other coded object, and the restaurant's camera will detect the coded image and “Please bring the bill” Alternatively, the table location may be sent along with a code number that can be associated with other messages.

いくつかの実施形態では、ある特定のコードの検出または識別は例えば携帯電話によってコンピュータ化されたもしくは自動化された応答を引き出してもよく、携帯電話のカメラが形状またはコードの存在を検出して、電話の画面にコードの関連オブジェクトに関係付けられたアニメーションシーケンスを表示し、またはオブジェクトの関係付けられた番号をダイヤルしてもよい。   In some embodiments, detection or identification of a particular code may elicit a computerized or automated response, for example by a mobile phone, where the mobile phone camera detects the presence of a shape or code, An animation sequence associated with the code's associated object may be displayed on the phone screen, or the associated number of the object may be dialed.

別の実施形態では、農場で人または動物の位置を追跡するために、コード化された布きれ、画像またはシャツを使用することができる。周囲の様々な位置に、カメラの視野を横切ったときに人または動物を認識するコンピュータに接続されているカメラを配置してもよい。   In another embodiment, a coded cloth, image or shirt can be used to track the position of a person or animal on the farm. Cameras connected to a computer that recognizes a person or animal when crossing the camera's field of view may be placed at various positions around the camera.

別の実施形態では、コード化されたオブジェクトまたはカードをコンピュータに関連付けられたウェブカムに提示することによって様々なウェブサイトに移動するためにコード化されたオブジェクトまたはカードを使用することができ、例えば、映画「Transformers(登録商標)」からコード化された車を提示すると、コンピュータ内のブラウザを関連のあるTransformers(登録商標)のウェブサイトに送ってもよく、またはBarbie(登録商標)人形のコード化された画像を提示するとブラウザをBarbie(登録商標)のウェブサイトに向けてもよい。   In another embodiment, the encoded object or card can be used to navigate to various websites by presenting the encoded object or card on a webcam associated with the computer, for example, Presenting a coded car from the movie “Transformers®” may send a browser in the computer to the relevant Transformers® website or Barbie® doll coding Presenting the rendered image may point the browser to the Barbie® website.

本発明の実施形態による方法のフローチャートである図3を参照する。いくつかの実施形態はオブジェクトを識別する方法を含んでもよく、かかる方法は、ブロック300で、画像内に繰り返し参照フォームおよびエレメントの集合を検出するステップを含み、エレメントの集合は繰り返し参照フォームに対して所定の距離および向きにある。例えば、参照フォームは曲線状または直線状の位置調整バーでもよく、エレメントは位置調整バーから例えば直角に張り出していてもよい。ブロック302で、エレメントの画像から値を導出してもよい。ブロック304で、導出した値をメモリ内に格納されている値と比較してもよく、格納されている値はオブジェクトに関連付けられている。   Please refer to FIG. 3, which is a flowchart of a method according to an embodiment of the present invention. Some embodiments may include a method of identifying an object, such as block 300, detecting a repeated reference form and a set of elements in the image at block 300, wherein the set of elements is relative to the repeated reference form. At a predetermined distance and orientation. For example, the reference form may be a curved or straight alignment bar, and the element may protrude from the alignment bar, for example at a right angle. At block 302, a value may be derived from the image of the element. At block 304, the derived value may be compared to a value stored in memory, and the stored value is associated with the object.

いくつかの実施形態では、オブジェクトの画像は最大5メートルの距離からの撮像装置から離れて捕捉してもよい。
いくつかの実施形態では、検出するステップは位置調整バーに連結されているエレメントを検出するステップを含んでもよく、この場合値を導出するステップはエレメントの第1集合から第1の値を導出し、エレメントの第2集合から第2の値を導出するステップと、その値を比較してそれが同じかどうかを判定するステップを含む。値が同じではない場合、いくつかの実施形態では、エレメントの第3集合から第3の値を選択してもよく、第3の値を第1および第2の値のそれぞれと比較してもよい。集合のうち2以上から導出される値が真の値と考えてもよい。
In some embodiments, the image of the object may be captured away from the imaging device from a distance of up to 5 meters.
In some embodiments, the detecting step may include detecting an element coupled to the alignment bar, in which case the step of deriving a value derives a first value from the first set of elements. Deriving a second value from the second set of elements and comparing the values to determine if they are the same. If the values are not the same, in some embodiments, a third value may be selected from the third set of elements, and the third value may be compared to each of the first and second values. Good. A value derived from two or more of the set may be considered as a true value.

いくつかの実施形態では、エレメントは、位置調整バーまたは参照フォームに連結されている、またはそれから所定の距離または向きにある場合に限ってエレメントとして認識してもよい。   In some embodiments, an element may be recognized as an element only if it is connected to an alignment bar or reference form, or at a predetermined distance or orientation therefrom.

いくつかの実施形態では、エレメントから導出した値がメモリに格納されているまたはメモリから指定される値と一致する場合、かかる一致をユーザに知らせる信号を発してもよい。   In some embodiments, if the value derived from the element matches a value stored in memory or specified from memory, a signal may be issued to inform the user of such a match.

いくつかの実施形態では、エレメントの性質もしくは意味は、参照または位置調整バーからのエレメントの距離からのエレメントのサイズまたは長さから導出してもよい。いくつかの実施形態では、エレメントの集合のうちの単一のエレメントがゼロまたは1のいずれかを表してもよい。いくつかの実施形態では、エレメントは異なる色を有してもよく、かかる色によって区別してもよい。   In some embodiments, the nature or meaning of the element may be derived from the size or length of the element from the reference or distance of the element from the alignment bar. In some embodiments, a single element of the set of elements may represent either zero or one. In some embodiments, the elements may have different colors and may be distinguished by such colors.

いくつかの実施形態では、例えばソフトウェアの形態の一連の命令を電子記憶媒体に格納して、数値を、位置調整バーから延ばしてもよいものなどの非数バイナリ形状の集合に翻訳するようにプロセッサによって実行してもよい。プロセッサは、バーに対して直角に連結するなど、位置調整バーに対して既知の位置で形状を配向して、位置調整バーの繰り返しユニットおよび形状の集合を、周囲に繰り返しユニットを現すべき画像を含むプリントファイルに追加してもよい。オブジェクトの画像を印刷する場合、繰り返しユニットは印刷画像の周囲または横または他の場所に現れてもよい。印刷される繰り返しユニットの形状は印刷画像のアウトラインに適合してもよく、印刷画像の縁から所定の距離もしくは最低距離で印刷してもよい。   In some embodiments, the processor stores a series of instructions, for example in the form of software, on an electronic storage medium and translates numerical values into a collection of non-binary binary shapes, such as those that may extend from the alignment bar. It may be executed by. The processor orients the shape at a known position with respect to the alignment bar, such as connecting at a right angle to the bar, and displays the repeat unit and the set of shapes for the alignment bar and the image in which the repeat unit appears around You may add to the print file that contains it. When printing an image of an object, the repeating unit may appear around or next to the printed image or elsewhere. The shape of the repeating unit to be printed may be adapted to the outline of the printed image, and may be printed at a predetermined distance or the minimum distance from the edge of the printed image.

いくつかの実施形態では、命令はエレメントで表される値をかかる値の印刷オブジェクトとの関連付けとあわせて格納してもよい。
本発明の実施形態は上記具体的に提示し説明してきたものによって制限されるのではないことは当業者には認識されるであろう。むしろ、本発明の少なくとも1つの実施例の範囲は以下の請求項によって定義される。
In some embodiments, the instruction may store the value represented by the element along with the association of such value with the print object.
Those skilled in the art will recognize that embodiments of the invention are not limited by what has been particularly shown and described above. Rather, the scope of at least one embodiment of the invention is defined by the following claims.

Claims (20)

オブジェクトを識別する方法であって、
画像内で繰り返し参照フォームおよびエレメントの集合を検出することであって、前記エレメントの集合は前記繰り返し参照フォームに対して所定の距離および向きにある、前記検出すること、
前記エレメントの集合に関連付けられている値を導出すること、
前記値をメモリ内に格納されている値と比較することであって、前記メモリに格納されている値は前記オブジェクトに関連付けられている、前記比較すること
を含む方法。
A method of identifying an object,
Detecting a set of repeated reference forms and elements in an image, wherein the set of elements is at a predetermined distance and orientation relative to the repeated reference forms;
Deriving a value associated with the set of elements;
Comparing the value with a value stored in a memory, wherein the value stored in the memory is associated with the object.
前記検出することは、検出された繰り返し参照フォームの各々に連結されている前記エレメントの集合を検出することを含み、
前記値を導出することは、前記エレメントのうちの第1エレメントから第1の値を導出することを含み、
前記方法は、
エレメントの第2集合から第2の値を導出すること、
前記第1の値が前記第2の値と等しいかを判定すること
をさらに含む、請求項1に記載の方法。
The detecting includes detecting a set of elements connected to each of the detected repeated reference forms;
Deriving the value includes deriving a first value from a first of the elements;
The method
Deriving a second value from the second set of elements;
The method of claim 1, further comprising: determining whether the first value is equal to the second value.
繰り返しエレメントの第3集合から第3の値を導出すること、前記第3の値が前記第1の値または前記第2の値のいずれかと等しいかどうかを判定することをさらに含む、請求項2に記載の方法。   The method further comprises deriving a third value from the third set of repeating elements and determining whether the third value is equal to either the first value or the second value. The method described in 1. 前記検出することは、前記エレメントの集合が前記参照フォームに連結されていることを検出することを含む、請求項1に記載の方法。   The method of claim 1, wherein the detecting includes detecting that the set of elements is coupled to the reference form. 前記繰り返し参照フォームのうちの1つに対する前記エレメントの集合のうちの1つの向きを判定することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising determining an orientation of one of the set of elements relative to one of the repeated reference forms. 前記オブジェクトが前記値に関連付けられているという信号を発することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising signaling that the object is associated with the value. 撮像装置から最大5メートル離れた位置にある前記オブジェクトの画像を捕捉することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising capturing an image of the object at a maximum distance of 5 meters from the imaging device. 前記エレメントのうちの第1エレメントおよび前記エレメントのうちの第2エレメントを識別すること、
前記参照フォームに対する前記エレメントの各々のサイズに基づいて、前記第1エレメントを前記第2エレメントから区別すること
をさらに含む、請求項1に記載の方法。
Identifying a first element of the elements and a second element of the elements;
The method of claim 1, further comprising: distinguishing the first element from the second element based on the size of each of the elements relative to the reference form.
前記識別することは、前記第1エレメントを0または1のいずれかとして識別することを含む、請求項8に記載の方法。   The method of claim 8, wherein the identifying includes identifying the first element as either 0 or 1. 前記エレメントのうちの第1エレメントおよび前記エレメントのうちの第2エレメントを識別すること、
前記第1エレメントの色および前記第2エレメントの色に基づいて、前記エレメントのうちの第1エレメントを前記エレメントのうちの第2エレメントから区別すること
をさらに含む、請求項1に記載の方法。
Identifying a first element of the elements and a second element of the elements;
The method of claim 1, further comprising: distinguishing a first element of the elements from a second element of the elements based on a color of the first element and a color of the second element.
オブジェクトを識別するシステムであって、
オブジェクトであって、該オブジェクト上に現れる繰り返し参照フォームおよびエレメントの集合を有し、前記エレメントの集合は前記繰り返し参照フォームの1つから所定の向きおよび距離にある、前記オブジェクトと、
前記繰り返し参照フォームおよび前記エレメントの集合のうちの少なくとも1つの画像を捕捉する撮像装置と、
前記エレメントの集合に関連付けられている値を計算して、前記値をメモリに格納されている値と比較するプロセッサと
を備えるシステム。
A system for identifying objects,
An object having a set of repeated reference forms and elements appearing on the object, wherein the set of elements is at a predetermined orientation and distance from one of the repeated reference forms;
An imaging device for capturing an image of at least one of the repeated reference form and the set of elements;
A processor that calculates a value associated with the set of elements and compares the value to a value stored in memory.
前記プロセッサは、
前記繰り返し参照フォームの第1インスタンスに関連付けられているエレメントの集合と、前記繰り返し参照フォームの第2インスタンスに関連付けられているエレメントの集合とを検出し、
前記エレメントの第1集合から第1の値を計算し、前記エレメントの第2集合から第2の値を計算し、
前記第1の値が前記第2の値と等しいかどうかを判定する、請求項11に記載のシステム。
The processor is
Detecting a set of elements associated with a first instance of the repeated reference form and a set of elements associated with a second instance of the repeated reference form;
Calculating a first value from the first set of elements, calculating a second value from the second set of elements;
The system of claim 11, wherein the system determines whether the first value is equal to the second value.
前記プロセッサは、エレメントの第3集合から第3の値を導出し、前記第3の値が前記第1の値および前記第2の値のいずれかと等しいかどうかを判定する、請求項12に記載のシステム。   13. The processor of claim 12, wherein the processor derives a third value from a third set of elements and determines whether the third value is equal to either the first value or the second value. System. 前記プロセッサは、前記エレメントの集合が前記繰り返し参照フォームの1つに連結されていることを検出する、請求項11に記載のシステム。   The system of claim 11, wherein the processor detects that the set of elements is linked to one of the repeated reference forms. 前記プロセッサは、前記繰り返し参照フォームの1つに対する前記エレメントの集合の向きを判定する、請求項11に記載のシステム。   The system of claim 11, wherein the processor determines an orientation of the set of elements relative to one of the repeated reference forms. 命令を格納する媒体であって、前記命令をプロセッサで実行すると、
数値をバイナリ形状の集合に翻訳すること、
前記形状の集合を参照フォームに対する既知の位置に配向すること、
前記形状の集合と前記参照フォームとを含む繰り返しユニットを、画像のプリントファイルに追加することであって、前記ユニットは前記プリントファイル内の画像に対し既知の位置に現れる、前記追加すること
をもたらす、媒体。
A medium for storing instructions, wherein the instructions are executed by a processor;
Translating numerical values into a set of binary shapes,
Orienting the set of shapes to a known location relative to a reference form;
Adding a repeating unit including the set of shapes and the reference form to an image print file, the unit resulting in the addition appearing at a known location relative to the image in the print file. , Medium.
実行すると、前記繰り返しユニットの構成を前記画像の形状に適合させることをさらにもたらす命令を含む、請求項16に記載の媒体。   17. The medium of claim 16, comprising instructions that, when executed, further result in adapting a configuration of the repeat unit to the shape of the image. 実行すると、前記形状の集合および前記値をメモリ内の前記画像に関連付けることをさらにもたらす命令を含む、請求項16に記載の媒体。   17. The medium of claim 16, comprising instructions that, when executed, further result in associating the set of shapes and the value with the image in memory. 前記配向することは、前記形状を前記参照フォームの第1辺に、前記第1辺に垂直な向きで連結することを含む、請求項16に記載の媒体。   The medium of claim 16, wherein the orienting includes connecting the shape to a first side of the reference form in an orientation perpendicular to the first side. 前記既知の位置は少なくとも前記画像からの最低距離を含む、請求項16に記載の媒体。   The medium of claim 16, wherein the known location includes at least a minimum distance from the image.
JP2012525251A 2009-08-17 2010-08-17 Apparatus and method for identifying objects using morphological coding Pending JP2013502634A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US27442709P 2009-08-17 2009-08-17
US61/274,427 2009-08-17
PCT/IL2010/000668 WO2011021193A1 (en) 2009-08-17 2010-08-17 Device and method for identification of objects using morphological coding

Publications (1)

Publication Number Publication Date
JP2013502634A true JP2013502634A (en) 2013-01-24

Family

ID=43606696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012525251A Pending JP2013502634A (en) 2009-08-17 2010-08-17 Apparatus and method for identifying objects using morphological coding

Country Status (4)

Country Link
EP (1) EP2467808A1 (en)
JP (1) JP2013502634A (en)
CN (1) CN102696043A (en)
WO (1) WO2011021193A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035041A (en) * 2013-08-08 2015-02-19 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013065045A1 (en) * 2011-10-31 2013-05-10 Eyecue Vision Technologies Ltd System for vision recognition based toys and games operated by a mobile device
DE102014009686A1 (en) * 2014-07-02 2016-01-07 Csb-System Ag Method for detecting slaughter-related data on a slaughtered animal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8301893B2 (en) * 2003-08-13 2012-10-30 Digimarc Corporation Detecting media areas likely of hosting watermarks
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
CN101163234A (en) * 2006-10-13 2008-04-16 杭州波导软件有限公司 Method of implementing pattern recognition and image monitoring using data processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035041A (en) * 2013-08-08 2015-02-19 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US9361500B2 (en) 2013-08-08 2016-06-07 Casio Computer Co., Ltd. Image processing apparatus, image processing method, and recording medium

Also Published As

Publication number Publication date
EP2467808A1 (en) 2012-06-27
CN102696043A (en) 2012-09-26
WO2011021193A8 (en) 2011-04-28
WO2011021193A1 (en) 2011-02-24

Similar Documents

Publication Publication Date Title
US8126264B2 (en) Device and method for identification of objects using color coding
US10713528B2 (en) System for determining alignment of a user-marked document and method thereof
WO2020211499A1 (en) Self-checkout method and device for commodities
CN102549527B (en) A system for portable tangible interaction
US20190371134A1 (en) Self-checkout system, method thereof and device therefor
US8606000B2 (en) Device and method for identification of objects using morphological coding
CN103154972A (en) Text-based 3D augmented reality
JP2017516204A (en) Generation and decoding of machine-readable optical codes with aesthetic elements
CN104361353A (en) Application of area-of-interest positioning method to instrument monitoring identification
CN102903142A (en) Method for realizing three-dimensional augmented reality
CN104025116A (en) Image acquisition method
US20150371103A1 (en) System and method for identification of printed matter in an image
US11610375B2 (en) Modulated display AR tracking systems and methods
JP2013502634A (en) Apparatus and method for identifying objects using morphological coding
KR20070014767A (en) Id judgment method by using extension type visual marker including direrction information
JP6915611B2 (en) Information processing equipment, information processing methods and programs
CN110705363B (en) Commodity specification identification method and device
US20140098991A1 (en) Game doll recognition system, recognition method and game system using the same
CN108764033A (en) Auth method and device, electronic equipment, computer program and storage medium
CN110832504A (en) Detecting whether a mobile computing device is pointing at a visual code
Charles et al. Real-time screen reading: reducing domain shift for one-shot learning.
US20240046765A1 (en) Self-checkout device
CN109117844A (en) A kind of password determines method and apparatus
Lin et al. Interactive image tools for autonomous spelling robot
JPH01112371A (en) Drawing recognizing device