JP2009165197A - 画像インジケーター - Google Patents

画像インジケーター Download PDF

Info

Publication number
JP2009165197A
JP2009165197A JP2009106931A JP2009106931A JP2009165197A JP 2009165197 A JP2009165197 A JP 2009165197A JP 2009106931 A JP2009106931 A JP 2009106931A JP 2009106931 A JP2009106931 A JP 2009106931A JP 2009165197 A JP2009165197 A JP 2009165197A
Authority
JP
Japan
Prior art keywords
image
indicator
unit
content data
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009106931A
Other languages
English (en)
Inventor
Yao-Hung Tsai
曜鴻 蔡
Li-Ching Chen
麗卿 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonix Technology Co Ltd
Original Assignee
Sonix Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38618561&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2009165197(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sonix Technology Co Ltd filed Critical Sonix Technology Co Ltd
Publication of JP2009165197A publication Critical patent/JP2009165197A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/33Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F15/00Boards, hoardings, pillars, or like structures for notices, placards, posters, or the like
    • G09F15/0006Boards, hoardings, pillars, or like structures for notices, placards, posters, or the like planar structures comprising one or more panels
    • G09F15/0025Boards, hoardings, pillars, or like structures for notices, placards, posters, or the like planar structures comprising one or more panels display surface tensioning means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)

Abstract

【課題】 画像インジケーターの提供。
【解決手段】 コンテンツデータ部(content part)及びインジケーター認識部(header part)を含む画像インジケーターである。コンテンツデータ部は、複数個の画像マイクロユニットを含み、且つコンテンツデータ部が占有するエリアは複数の状態エリアに区分される。その中の各状態エリアには全て画像マイクロユニットが設置され、また当該画像マイクロユニットは選択的に前記状態エリアを等分して形成する複数のサブエリア中の1つに位置する。インジケーター認識部は複数個の画像マイクロユニットを含み、且つ各画像マイクロユニットは予め定められた方式で排列され、画像インジケーターを識別するヘッダー情報を提供させる。
【選択図】 図5

Description

本発明は画像識別(pattern/image recognition)を利用して読み取ることができる画像インジケーターに関するもので、当該画像インジケーターは物体表面上に形成され、且つインジケーターデータをマッピングする。
図1は物体表面100上に形成される画像インジケーター(graphical indicator) 102を表示するイメージ図である。図1に示すように、画像インジケーター102は多くの画像マイクロユニット(graphicalmicro−units)が組み合わされて成り、画像マイクロユニットは相当微小であるため、視覚上見過ごされやすい、或いは人の目に地色として解読される。画像インジケーター102とメイン情報(main information) 104 (例:図1の文字図案”APPLE”)は、例えば印刷等の方式を利用し、例えば紙等の物体表面100上に共同形成される。画像インジケーター102はインジケーターデータをマッピングし、且つ人の目のメイン情報104受信に影響しない。
図2は電子システム110を表示する図である。その電子システム110は光学デバイス112、プロセッサー114及び出力デバイス116を有し、画像識別ステップによりその画像インジケーター102を読み取る。光学デバイス112、プロセッサー114、及び出力デバイス116は互いに有線或いは無線方式で接続されている。光学デバイス112は物体表面を読み取り、拡大影像を取得し、続いてプロセッサー114が拡大影像中から画像インジケーター102を取り出し、さらにデジタルデータに転換すると同時にそのデジタルデータに対応する付加情報を取得する。最後に、出力デバイス116がこの付加情報を受け取ると同時に、予め定められた形式でこの付加情報を出力する。こうして、画像インジケーター102の設計により、例えばブックページ等のよく見かける物体の表面上に、より多くの付加情報をロードすることができる。
図3は、周知の多くの画像インジケーター102を含む図案設計を表示する図である。図3に示すように、1つの画像インジケーター102 (破線で囲んだエリア)は、1つのキーポイント202、複数のグリッド204、及び複数の情報ポイント206が予め定められた規則に従って排列して形成される。詳しく言うと、1つの画像インジケーター102はキーポイント202を中心とし、周囲に多くのグリッド204を配置する。その中で、4個のグリッド204毎に1つの角型ブロックを配置し、且つ4個のグリッド204毎に中心を1つのバーチャルポイントとする。角型ブロック内に位置する情報ポイント206は、選択的にそのバーチャルポイントの上、下、左、右方向へ一定距離偏移させることができ、それぞれ異なる数値で表し、さらに前記の電子システム110により読み出す。キーポイント202は1つの画像インジケーター102中心のグリッド204を予め定められた方向へ一定距離偏移させる方式で形成される。キーポイント202は画像インジケーター102の参考方向を提供することができ、光学デバイス112が物体表面を読み取り、拡大影像を取得する時の方向付けの参考とする。さらに、4個のグリッド204は1つの角型ブロック方式で配置され、画像インジケーター102を読み取り、印刷する時に変形が起こった場合、校正の参考とすることができる。
図1に示すように、画像インジケーター102は通常、物体表面100上のメイン情報104と共存する。そのため、画像マイクロユニットの密度が高くなるほど、視覚効果が悪くなり、且つ人の目で画像インジケーター102の存在を感知しやすくなり、しかも画像インジケーター102とメイン情報104が混乱する機会が増加する。もう一方では、画像インジケーター102が有限の物体表面エリアに形成される時、同じ情報量が提供されるという前提のもと、画像マイクロユニットの分布密度が高すぎると、2つの隣り合う画像マイクロユニット間の距離が小さくなりすぎる。そのため画像マイクロユニットが、例えば印刷方式で紙上に形成される時、比較的はっきりした視覚干渉を起こす。この視覚干渉を減らしたい時は、通常、画像マイクロユニットの寸法をさらに縮小する必要があり、このようにしてプリンター及び紙の解析度の要求を高める。且つ印刷時にも印刷漏れしやすく、相対的に印刷の困難さが増し、また光学デバイスの判読ミスが起りやすく、区別が難しくなる。図3に示す周知の画像インジケーター102の設計方式は、画像マイクロユニットの密度が高くなりすぎることが明らかで、上記の種々の問題が発生する。
このため、本発明の目的は比較的低い画像マイクロユニット密度を提供し、且つ少量の画像マイクロユニットで画像インジケーターを構成することで、上記周知の設計の種々問題を避けることができる、画像インジケーターの設計を提供することである。
本発明に基づく設計では、画像インジケーターが物体の表面上に形成され、且つインジケーターデータをマッピングする。またその画像インジケーターはコンテンツデータ部(content part)及びインジケーター認識部(header part)を含む。コンテンツデータ部は複数個の画像マイクロユニット(micro−units)を含み、且つコンテンツデータ部が占有するエリアは複数の状態エリアに区分される。その中で各状態エリアには全て画像マイクロユニットが設置され、且つ画像マイクロユニットは選択的に前記状態エリアを等分して形成する複数のサブエリア中の1つに位置する。インジケーター認識部は複数個の画像マイクロユニットを含み、且つ画像マイクロユニットは予め定められた方式で排列され、その画像インジケーターを識別するヘッダー情報(header information)を提供させる。インジケーター認識部はコンテンツデータ部のボーダー上に分布し、且つコンテンツデータ部の画像マイクロユニットの分布エリアを定めることができる。
さらに、コンテンツデータ部の設計が9個の画像マイクロユニットを有し、且つ9個の状態エリアに区分され、さらに各状態エリアが4個のサブエリアに等分される時、画像マイクロユニットは選択的にその第1、第2、第3、或いは第4サブエリアに設置され、そのコンテンツデータ部に262144種の状態組み合わせを持たせることができる。その262144種の状態組み合わせ中から65536種の状態組み合わせを取り出し、ユニコード(Unicode)のコード構造中の1プレーン(plane)に属する65536個のコード位置に対応させることができる。
本発明に基づく設計では、比較的少ないドット数(比較的低いドット密度)を用いて大量の情報量を提供することができ、こうすることで比較的良い視覚効果が提供できる。且つ人の目は比較的画像インジケーターの存在を感知しにくく、画像インジケーターと共存するメイン情報を混乱させない。
請求項1の発明は、物体表面に形成され、且つインジケーターデータに対応する画像インジケーターであって、前記画像インジケーターがコンテンツデータ部とインジケーター認識部とを含み、
前記コンテンツデータ部は複数個の画像マイクロユニットを含み、且つ前記コンテンツデータ部が占有するエリアは複数の状態エリアに区分され、且つ前記コンテンツデータ部の各状態エリアにはいずれも画像マイクロユニットが設置され、且つ前記画像マイクロユニットが選択的に前記状態エリアを等分してなる複数のサブエリアのうち一に位置し、
前記インジケーター認識部は、前記コンテンツデータ部の少なくとも二つの互いに隣り合うボーダーに設置され、前期コンテンツデータ部の前記画像マイクロユニットの分布範囲を画定し、前記インジケーター認識部が複数の画像マイクロユニットを含み、且つ前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、且つ各前記状態エリアにいずれも画像マイクロユニットを設置し、且つ前記インジケーター認識部の前記画像マイクロユニットにおいて、少なくとも一画像マイクロユニットの前記状態エリアにおける分布位置がその他画像マイクロユニットと異なり、前記画像インジケーターの方向付けをすることを特徴とする画像インジケーターである。
請求項2の発明は、前記インジケーター認識部の前記少なくとも一の画像マイクロユニットが、前記状態エリアの中心から一定距離偏移した位置に設置され、前記その他の画像マイクロユニットがいずれも前記状態エリアの中心位置に設置されたことを特徴とする請求項1記載の画像インジケーターである。
請求項3の発明は、前記インジケーター認識部の前記状態エリアの中心から一定距離偏移した位置に設置された前記少なくとも一の画像マイクロユニットが、特定方向に偏移し、且つ前記特定方向が任意の二つの隣り合う状態エリアの中心を結ぶ線と平行又は垂直であることを特徴とする請求項2記載の画像インジケーターである。
請求項4の発明は、前記インジケーター認識部の前記画像マイクロユニットをそれぞれ前記コンテンツデータ部の二つの隣り合うボーダーに設置してL型分布を構成することを特徴とする請求項1記載の画像インジケーターである。
請求項5の発明は、画像識別方法であって、物体表面にインジケーターデータに対応する少なくとも一の画像インジケーターを形成するステップであって、前記画像インジケーターがコンテンツデータ部と、インジケーター認識部と、を含み、
前記コンテンツデータ部は、複数個の画像マイクロユニットを含み、且つ前記コンテンツデータ部が占有するエリアは複数の状態エリアに区分され、且つ前記各状態エリアにはいずれも等分に複数のサブエリアを形成し、前記コンテンツデータ部の各状態エリアにいずれも画像マイクロユニットを設置し、且つ前記画像マイクロユニットが選択的に前記複数のサブエリアのうち一に位置し、
前記インジケーター認識部は、複数個の画像マイクロユニットを含み、且つ前記画像マイクロユニットは予め定められた方式で排列され、その画像インジケーターを識別するヘッダー情報を提供し、前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、前記インジケーター認識部の各前記状態エリアにいずれも画像マイクロユニットを設置し、前記インジケーター認識部の前記画像マイクロユニットが前記コンテンツデータ部の前記画像マイクロユニットの分布範囲を画定し、且つ前記インジケーター認識部の前記画像マイクロユニットにおいて、少なくとも一の画像マイクロユニットの前記状態エリアにおける分布位置がその他の画像マイクロユニットと異なるステップと、
前記物体表面を光学的に読み取って前記画像インジケーター構造を含む拡大画像を取得して前記画像インジケーター構造に対応する前記インジケーターデータをキャプチャーするステップとを含むことを特徴とする画像識別方法である。
請求項6の発明は、前記光学的に前記物体表面を読み取って前記インジケーターデータをキャプチャーするステップが、
前記インジケーター認識部の前記画像マイクロユニットに基づいて前記コンテンツデータ部の前記画像マイクロユニットの分布範囲を識別するステップと、
前記インジケーター認識部における画像マイクロユニットの前記状態エリアにおける分布位置に基づいて前記画像インジケーターの方向付けをするステップと、
を含むことを特徴とする請求項5記載の画像識別方法である。
請求項7の発明は、前記画像インジケーターの前記インジケーター認識部の前記少なくとも一の画像マイクロユニットが前記状態エリアの中心から一定距離偏移した位置に設置され、前記その他画像マイクロユニットがいずれも前記状態エリアの中心位置に設置され、且つ前記画像インジケーターの前記インジケーター認識部の前記画像マイクロユニットをそれぞれ前記コンテンツデータ部の二つの隣り合うボーダー上に設置してL型分布を構成して、前記コンテンツデータ部の前記画像マイクロユニットの分布範囲を画定することを特徴とする請求項6記載の画像識別方法である。
請求項8の発明は、前記光学的に前記物体表面を読み取って前記インジケーターデータをキャプチャーするステップが、前記サブエリアにおける前記画像マイクロユニットが前記状態エリアの中心位置に近いか遠いかに置かれている状態によって、異なるビット値を取得するステップを更に含むことを特徴とする請求項6記載の画像識別方法としている。
請求項9の発明は、物体表面に形成され、且つインジケーターデータに対応する画像インジケーターであって、前記画像インジケーターがコンテンツデータ部と、インジケーター認識部と、を含み
前記コンテンツデータ部は複数個の画像マイクロユニットを含み、且つ前記コンテンツデータ部が占有するエリアは、二次元配列を構成する複数の状態エリアに区分され、且つ前記コンテンツデータ部の各状態エリアにはいずれも第一画像マイクロユニットが設置され、各前記状態エリアに等分に複数のサブエリアを形成し、且つ前記画像マイクロユニットが選択的に前記状態エリアを等分してなる複数のサブエリアのうち一に位置し、
前記インジケーター認識部は、複数の画像マイクロユニットを含み、且つ前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、前記インジケーター認識部の各前記状態エリアにいずれも第二画像マイクロユニットを設置し、且つ前記各第二画像マイクロユニットの各前記状態エリアにおける設置位置が前記画像インジケーターを識別するヘッダー情報を構成して、前記インジケーター認識部が前記コンテンツデータ部のボーダーに分布して前記コンテンツデータ部の前記第一画像マイクロユニットの分布範囲を確定し、
前記各第一画像マイクロユニットは第一方向を有し、前記各第二画像マイ
クロユニットは、第一方向と異なる第二方向を有する、
ことを特徴とする画像インジケーターである。
請求項10の発明は、前記第一及び前記第二画像マイクロユニットが線状を呈することを特徴とする請求項9記載の画像インジケーターである。
請求項11の発明は、物体表面に形成され、且つインジケーターデータに対応する画像インジケーターであって、前記画像インジケーターがインジケーター認識部と、コンテンツデータ部と、を含み、
前記インジケーター認識部が、複数個の画像マイクロユニットを含んで、前記画像インジケーターを識別するヘッダー情報を提供し、且つ前記画像マイクロユニットが、互いに略垂直である少なくとも一の第一仮想線及び少なくとも一の第二仮想線を配列形成し、
前記コンテンツデータ部は、複数の画像マイクロユニットを含み、前記コンテンツデータ部が占有するエリアは複数の状態エリアに区分され、且つ前記状態エリアが前記第一仮想線若しくは前記第二仮想線と略並行に配列され、前記コンテンツデータ部の各前記状態エリアにいずれも第一画像マイクロユニットを設置し、前記各状態エリアに等分に複数のサブエリアを形成し、且つ前記画像マイクロユニットが選択的に前記状態エリアを等分してなる前記サブエリアのうち一に位置して異なるビット値を表すことを特徴とする画像インジケーターである。
請求項12の発明は、前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、各前記状態エリアにいずれも画像マイクロユニットを設置して、且つ前記インジケーター認識部の少なくとも一の画像マイクロユニットを前記状態エリアの中心から一定距離偏移した位置に設置し、その他の画像マイクロユニットをいずれも前記状態エリアの中心位置に設置したことを特徴とする請求項11記載の画像インジケーターである。
請求項13の発明は、前記状態エリアの中心から一定距離偏移した位置の前記少なくとも一の画像マイクロユニットが、前記第一仮想線若しくは前記第二仮想線と略並行の方向に偏移したことを特徴とする請求項12記載の画像インジケーターである。
本発明は比較的低い画像マイクロユニット密度を提供し、且つ少量の画像マイクロユニットで画像インジケーターを構成することで、上記の周知の設計の種々の問題を避けることができる、画像インジケーターの設計を提供することである。
図4は本発明に基づく実施例で設計された、多くの画像インジケーター10が排列し形成する図案を表示し、図5はその中の画像インジケーター10の拡大図で、はっきりと本発明の設計を説明するものである。図5に示すように、画像インジケーター10はコンテンツデータ部(content part) 12及びインジケーター認識部(header part) 14を含む。本実施例によると、コンテンツデータ部12は9個のドット16で構成される9個の画像マイクロユニットを含み、且つそのコンテンツデータ部12の占有エリアは9個の状態エリア18に区分され、3*3の平面2次元配列の状態エリアを構成する。各状態エリア18は全て1つのドット16を含む。本実施例に基づく設計では、1つのドット16が状態エリア18中の異なる配列位置に置かれると、マッピングしたインジケーターデータ中の個別の数値で表すことを利用することができる。詳しく言うと、図6に示すように、1つの状態エリア18は4個のサブエリアに等分することができ、ドット16は選択的に右下方、左下方、左上方或いは右上方のサブエリアに設置でき、それぞれ4個の異なるビット値00、01、10或いは11で表すことができる。こうして、図5のコンテンツデータ部12が示すドット16の配置関係は、図7に示すビット配列に対応させることができる。コンテンツデータ部12が9個のドット16を有し、且つそれぞれ9個の状態エリア中に置く時、各状態エリア18が4個のサブエリアに等分されているため、各ドット16を選択的に4個のサブエリア中の1つに設置する場合、そのコンテンツデータ部12に4 (=262144)種の状態の組み合わせを持たせることができる。そこで、図5に示す画像インジケーター10の設計を利用すると、マッピングするインジケーターデータ中の262144個の異なる数値を表示することができる。そのため、本実施例によるコンテンツデータ部12の設計は、その262144種の状態組み合わせ中から、65536種の状態組み合わせを取り出し、ユニコード(Unicode)のコード構造中の1つのプレーン(plane)に属する65536個のコード位置に対応させ、その残りの状態組み合わせは、その他の用途のために保留することができる。例をあげると、チェックサムコード(checksum code)に対応させるコード位置として状態組み合わせを提供することができる。
もう一方では、画像インジケーター10が1グループの画像マイクロユニットから構成されているため、インジケーター認識部14を設置して2つの隣り合う画像インジケーター10を区分する必要がある。図8に示すように、4個の画像インジケーター10は全て同じコンテンツデータ部12を持ち、また同じインジケーターデータ内容を有する。そのため、4個の画像インジケーター10には全て同じ特定のインジケーター認識部14を設置し、こうすることで、その特定のインジケーター認識部14を探し出すだけで、同じ画像インジケーター10が探し出せ、近隣の他の画像インジケーター10における干渉を受けない。インジケーター認識部14は同様に例えばドット16から構成される多くの画像マイクロユニットを含み、且つそのインジケーター認識部14の占有エリアが多くの状態エリア18に区分されている。さらに図5を参照する。本実施例に基づく設計では、インジケーター認識部14の各状態エリア18は全て状態エリア18の中心位置に設置される1つのドットを含み、そのためインジケーター認識部14は7個のドットを持つ。且つ2つの隣り合うボーダー上を9個のドットを有するコンテンツデータ部12で囲み、インジケーター認識部14をL型分布に形成させ、且つ画像インジケーター10全体を16個のドットで構成される4*4マトリックス排列とする。図5に示すように、インジケーター認識部14のドットの配列位置は全て状態エリアの中心位置に予設され、画像インジケーターがインジケーター認識部14を識別する過程をさらに速くさせることができる。但し、インジケーター認識部14中の1つのドット16'の位置は特定方向に偏移させ、その他のドット16の位置と変える必要がある。そのため画像識別(pattern/image recognition)を行い、その画像インジケーター10を読み取る時、光学デバイス(図の表示なし)が物体表面を読み取り拡大影像を取得した後、まず画像インジケーター10のインジケーター認識部14を識別するだけで、その画像インジケーター10に対する方向付けができ、コンテンツデータ部12の状態組み合わせを正確にキャプチャーすることができる。
さらに、インジケーター認識部14中のドット16の配置位置を変更することで、互いに異なるインジケーター認識部14を発生させることができる。このため、各画像インジケーター10がコンテンツデータ部12の状態組み合わせを調整し、異なる数値をマッピングすると、2つの異なる数値の画像インジケーター10をそれぞれマッピングして、相異なるインジケーター認識部14によって両者を区別することができる。図9に示すように、2つのドット16の配置位置が異なる相異なるインジケーター認識部14a及び14bを、上下に隣り合い異なるコンテンツを持つデータ部12a及び12bの区別に用いることができる。或いは、図10に示すように、2つのドット16の配置位置が異なるインジケーター認識部14c及び14dを、左右に隣り合い異なるコンテンツを持つデータ部12c及び12dの区別に用いることができる。
このほか、本実施例に基づく設計では、インジケーター認識部14はコンテンツデータ部12の2つの隣り合うボーダー上に形成され、且つそのコンテンツデータ部12のドット16の分布範囲を定める。そのため光学デバイスを利用して影像を読み取った後、画像インジケーター10が変形等を起し実物と異なった時は、インジケーター認識部14を利用して校正を行い、コンテンツデータ部12中のドット排列を正確にキャプチャーする。
下記の比較図で、本発明と周知の設計の長所を比較し説明する。
図11は周知の設計の概略図を表示する。図12は本発明の設計の概略図を表示する。本発明の長所を説明する前にまず、有効情報の比率値を定義する:
E=(画像インジケーターのコンテンツ情報を表すドット数)/(全ドット数)。
図11に示すように、周知の設計の5*5ドットマトリックス・ブロック中において、各情報ポイント206は全て4個のグリッド204で囲まれているため、画像インジケーターは破線で示す多くのグリッドペア22に分割することができる。各グリッドペア22は1つのグリッド204と1つの情報ポイント206を含み、そのため、周知の設計の有効情報比率値は50%となる。且つその値はドットマトリックス・ブロックの大きさの変化に左右されず固定常数である。もう一方、図12に示す同じ5*5のドットマトリックス・ブロックの本発明における設計の場合、2つのボーダーを占拠するインジケーター認識部のドットを控除すると、その有効情報比率値は(4*4)/(5*5)=64%となる。且つ本発明に基づく設計では、画像インジケーター10が大きくなるほど有効情報比率値がさらに高くなる。例をあげると、10*10のドットマトリックス・ブロックの場合、その有効情報比率値は(9*9)/(10*10)=81%となる。このことから、本発明の有効情報比率値は周知の設計より明らかに高く、且つ画像インジケーターが増大するにつれさらに高まることがわかる。言い換えると、本発明は比較的少ないドット数(比較的低いドット密度)を用いて同じ情報量を表示することができる。
つまり画像インジケーターの設計で言うなら、画像マイクロユニットの寸法及び互いの間隔に基づき、画像マイクロユニットの数をできるだけ減らして、画像インジケーターの物体表面に対する全体の輝度の影響を減少させるべきである。前記したように、画像インジケーターは通常、物体表面のメイン情報と共存するため、ドットの密度が高くなるほど、視覚効果が悪くなるだけでなく、このように人の目は画像インジケーターの存在をより感知しやすくなり、画像インジケーターとメイン情報が混乱する機会が増す。そこで、本発明の有効情報比率値は周知の設計より明らかに高いため、比較的少ないドット数(比較的低いドット密度)を利用して同じ情報量を表示することができる。このようにして比較的よい視覚効果を提供し、且つ人の目が画像インジケーターの存在を比較的感知しにくいため、画像インジケーターとメイン情報が混乱しない。もう一方で、画像インジケーターが有限の物体表面エリアに形成される時、同じ情報量が提供されるという前提のもと、図11Aに示すようにドット分布密度が高すぎると、2つの隣り合うドット距離が小さくなりすぎ、明らかな視覚干渉をもたらしたり、印刷の困難度が容易に増加し、且つ光学デバイスの判読ミスをもたらしたり、区別しにくくなる。しかし、本発明の比較的低密度の設計はこの問題を引き起こさない。
図13及び図14は本発明と周知の設計を比較した、もう1つの図である。図13に示すように、周知の設計は画像インジケーター中に少なくとも1つのキーポイント202を形成する必要があり、そのため、その周囲の4個のグリッド204で構成される4個の角型ブロック及び情報ポイント206を連同させ、少なくとも13個のドットで1つの画像インジケーターを構成しなければならない。しかし、図14に示すように、本発明に基づく設計では、わずか4個のドット16だけで1つの画像インジケーターを形成することができる。このため、本発明は比較的少ないドット数を用いて、1つの画像インジケーターを構成することができ、このように異なる物体の表面上への設置方式において、将来比較的弾性があり、且つ高すぎるドット分布密度が起こりにくい。
図15は本発明の画像インジケーター10の別設計例を表示する。コンテンツデータ部12の状態エリア18上のドット16における分布方式もまた限定されない。図15に示すように、状態エリア18を4個のサブエリアに分ける時、状態エリアの中心ポイントPからの距離の遠近に基づき、2組のドット分布方式に区分される。中心ポイントPからの距離が比較的近いドット16aが右下方、左下方、左上方或いは右上方のサブエリアに設置されると、それぞれ4個の異なるビット値000、001、010或いは011で表すことができる。中心ポイントPからの距離が比較的遠いドット16bが右下方、左下方、左上方或いは右上方のサブエリアに設置されると、それぞれ別の4個の異なるビット値100、101、110或いは111で表す。この設計により、ドット16の状態エリア18上の分布は8種の可能な状態組み合わせを発生させることができる。
当然、本発明に基づく設計では、ドット16を複数個のサブエリア中の1つに置くだけで、異なるビット値で表示され、各状態エリア18が等分されたサブエリアの数量も限定されない。また図16に示すように、状態エリア18を八個のサブエリアに区分でき、それぞれのドット16を選択的にその中の1つのサブエリアに置くと、8種の可能な状態組み合わせが発生する。言い換えると、本発明ではそれぞれのドット16を置く状態エリアの位置は限定されず、状態エリア18が、幾つのサブエリアに区分されているかだけを見ればよい。
さらに、画像インジケーター10の画像マイクロユニットもまた、前記の各実施例で示したドット16に限定せず、例えばその他の外形のポイントでもよい。当然、異なる状態を識別するという目的が達成されるだけでよく、画像マイクロユニットはまた、ある特定の表示方式の使用に限定されない。例をあげると、図15に示すように、ショートライン・セグメント24を利用して表示することもできる。このほか、画像インジケーター10の画像マイクロユニット総数と排列もまた限定されず、且つ画像インジケーター10の状態エリアのマトリックスもまた縦横が等しいマトリックス排列の採用だけに限定しない。例えば図17に示すような縦横が違う角型マトリックスでもよい。
図18は、画像インジケーター10中のインジケーター認識部14を表示するもう1つの設計図である。インジケーター認識部14は画像インジケーター10のボーダー上への分布に限定されない。例えば、図17に示すように画像インジケーター10の中央部分に設置してもよく、画像インジケーター10の識別と位置決め効果さえ達成できればよい。
物体の表面上に形成される画像インジケーターを表示する図である。 画像インジケーターを読み取る電子システムを表示する図である。 周知の多くの画像インジケーターを含む図案設計を表示する図である。 本発明に基づく実施例で設計した、多くの画像インジケーターが排列し形成する図案を表示である。 図4中の画像インジケーターの拡大図である。 画像マイクロユニットの状態エリア中の設置方式を表示する図である。 図5の画像インジケーターに対応するビット配列図である。 同じ画像インジケーターにそれぞれ対応する、同じインジケーター認識部の設計を表示する図である。 2つの隣り合い異なる画像インジケーターにそれぞれ対応する、相異なるインジケーター認識部の設計を表示する図である。 2つの隣り合い異なる画像インジケーターにそれぞれ対応する、相異なるインジケーター認識部の設計を表示する図である。 本発明と周知の設計を比較する概略図である。 本発明と周知の設計を比較する概略図である。 本発明と周知の設計を比較するもう1つの概略図である。 本発明と周知の設計を比較するもう1つの概略図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。
10 画像インジケーター
12、12a、12b、12c、12d コンテンツデータ部
14、14a、14b、14c、14d インジケーター認識部
16、16'、16a、16b ドット
18 状態エリア
22 グリッドペア
24 ショートライン・セグメント
100 物体表面
102 画像インジケーター
104 メイン情報
110 電子システム
112 光学デバイス
114 プロセッサー
116 出力デバイス
202 キーポイント
204 グリッド
206 情報ポイント

Claims (13)

  1. 物体表面に形成され、且つインジケーターデータに対応する画像インジケーターであって、前記画像インジケーターがコンテンツデータ部とインジケーター認識部とを含み、
    前記コンテンツデータ部は複数個の画像マイクロユニットを含み、且つ前記コンテンツデータ部が占有するエリアは複数の状態エリアに区分され、且つ前記コンテンツデータ部の各状態エリアにはいずれも画像マイクロユニットが設置され、且つ前記画像マイクロユニットが選択的に前記状態エリアを等分してなる複数のサブエリアのうち一に位置し、
    前記インジケーター認識部は、前記コンテンツデータ部の少なくとも二つの互いに隣り合うボーダーに設置され、前期コンテンツデータ部の前記画像マイクロユニットの分布範囲を画定し、前記インジケーター認識部が複数の画像マイクロユニットを含み、且つ前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、且つ各前記状態エリアにいずれも画像マイクロユニットを設置し、且つ前記インジケーター認識部の前記画像マイクロユニットにおいて、少なくとも一画像マイクロユニットの前記状態エリアにおける分布位置がその他画像マイクロユニットと異なり、前記画像インジケーターの方向付けをすることを特徴とする画像インジケーター。
  2. 前記インジケーター認識部の前記少なくとも一の画像マイクロユニットが、前記状態エリアの中心から一定距離偏移した位置に設置され、前記その他の画像マイクロユニットがいずれも前記状態エリアの中心位置に設置されたことを特徴とする請求項1記載の画像インジケーター。
  3. 前記インジケーター認識部の前記状態エリアの中心から一定距離偏移した位置に設
    置された前記少なくとも一の画像マイクロユニットが、特定方向に偏移し、且
    つ前記特定方向が任意の二つの隣り合う状態エリアの中心を結ぶ線と平行又
    は垂直であることを特徴とする請求項2記載の画像インジケーター。
  4. 前記インジケーター認識部の前記画像マイクロユニットをそれぞれ前記コンテンツデ
    ータ部の二つの隣り合うボーダーに設置してL型分布を構成することを特徴
    とする請求項1記載の画像インジケーター。
  5. 画像識別方法であって、
    物体表面にインジケーターデータに対応する少なくとも一の画像インジケーターを形成するステップであって、前記画像インジケーターがコンテンツデータ部と、インジケーター認識部と、を含み、
    前記コンテンツデータ部は、複数個の画像マイクロユニットを含み、且つ前記コンテンツデータ部が占有するエリアは複数の状態エリアに区分され、且つ前記各状態エリアにはいずれも等分に複数のサブエリアを形成し、前記コンテンツデータ部の各状態エリアにいずれも画像マイクロユニットを設置し、且つ前記画像マイクロユニットが選択的に前記複数のサブエリアのうち一に位置し、
    前記インジケーター認識部は、複数個の画像マイクロユニットを含み、且つ前記画像マイクロユニットは予め定められた方式で排列され、その画像インジケーターを識別するヘッダー情報を提供し、前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、前記インジケーター認識部の各前記状態エリアにいずれも画像マイクロユニットを設置し、前記インジケーター認識部の前記画像マイクロユニットが前記コンテンツデータ部の前記画像マイクロユニットの分布範囲を画定し、且つ前記インジケーター認識部の前記画像マイクロユニットにおいて、少なくとも一の画像マイクロユニットの前記状態エリアにおける分布位置がその他の画像マイクロユニットと異なるステップと、
    前記物体表面を光学的に読み取って前記画像インジケーター構造を含む拡大画像を取得して前記画像インジケーター構造に対応する前記インジケーターデータをキャプチャーするステップとを含むことを特徴とする画像識別方法。
  6. 前記光学的に前記物体表面を読み取って前記インジケーターデータをキャプチャーするステップが、
    前記インジケーター認識部の前記画像マイクロユニットに基づいて前記コンテンツデータ部の前記画像マイクロユニットの分布範囲を識別するステップと、
    前記インジケーター認識部における画像マイクロユニットの前記状態エリアにおける分布位置に基づいて前記画像インジケーターの方向付けをするステップと、
    を含むことを特徴とする請求項5記載の画像識別方法。
  7. 前記画像インジケーターの前記インジケーター認識部の前記少なくとも一の画像マイクロユニットが前記状態エリアの中心から一定距離偏移した位置に設置され、前記その他画像マイクロユニットがいずれも前記状態エリアの中心位置に設置され、且つ前記画像インジケーターの前記インジケーター認識部の前記画像マイクロユニットをそれぞれ前記コンテンツデータ部の二つの隣り合うボーダー上に設置してL型分布を構成して、前記コンテンツデータ部の前記画像マイクロユニットの分布範囲を画定することを特徴とする請求項6記載の画像識別方法。
  8. 前記光学的に前記物体表面を読み取って前記インジケーターデータをキャプチャーするステップが、前記サブエリアにおける前記画像マイクロユニットが前記状態エリアの中心位置に近いか遠いかによって、異なるビット値を取得するステップを更に含むことを特徴とする請求項6記載の画像識別方法。
  9. 物体表面に形成され、且つインジケーターデータに対応する画像インジケーターであって、前記画像インジケーターがコンテンツデータ部と、インジケーター認識部と、を含み
    前記コンテンツデータ部は複数個の画像マイクロユニットを含み、且つ前記コンテンツデータ部が占有するエリアは、二次元配列を構成する複数の状態エリアに区分され、且つ前記コンテンツデータ部の各状態エリアにはいずれも第一画像マイクロユニットが設置され、各前記状態エリアに等分に複数のサブエリアを形成し、且つ前記画像マイクロユニットが選択的に前記状態エリアを等分してなる複数のサブエリアのうち一に位置し、
    前記インジケーター認識部は、複数の画像マイクロユニットを含み、且つ前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、前記インジケーター認識部の各前記状態エリアにいずれも第二画像マイクロユニットを設置し、且つ前記各第二画像マイクロユニットの各前記状態エリアにおける設置位置が前記画像インジケーターを識別するヘッダー情報を構成して、前記インジケーター認識部が前記コンテンツデータ部のボーダーに分布して前記コンテンツデータ部の前記第一画像マイクロユニットの分布範囲を確定し、
    前記各第一画像マイクロユニットは第一方向を有し、前記各第二画像マイ
    クロユニットは、第一方向と異なる第二方向を有する、
    ことを特徴とする画像インジケーター。
  10. 前記第一及び前記第二画像マイクロユニットが線状を呈することを特徴とする請求項9記載の画像インジケーター。
  11. 物体表面に形成され、且つインジケーターデータに対応する画像インジケーターであって、前記画像インジケーターがインジケーター認識部と、コンテンツデータ部と、を含み、
    前記インジケーター認識部が、複数個の画像マイクロユニットを含んで、前記画像インジケーターを識別するヘッダー情報を提供し、且つ前記画像マイクロユニットが、互いに略垂直である少なくとも一の第一仮想線及び少なくとも一の第二仮想線を配列形成し、
    前記コンテンツデータ部は、複数の画像マイクロユニットを含み、前記コンテンツデータ部が占有するエリアは複数の状態エリアに区分され、且つ前記状態エリアが前記第一仮想線若しくは前記第二仮想線と略並行に配列され、前記コンテンツデータ部の各前記状態エリアにいずれも第一画像マイクロユニットを設置し、前記各状態エリアに等分に複数のサブエリアを形成し、且つ前記画像マイクロユニットが選択的に前記状態エリアを等分してなる前記サブエリアのうち一に位置して異なるビット値を表すことを特徴とする画像インジケーター。
  12. 前記インジケーター認識部が占有するエリアは複数の状態エリアに区分され、各前記状態エリアにいずれも画像マイクロユニットを設置して、且つ前記インジケーター認識部の少なくとも一の画像マイクロユニットを前記状態エリアの中心から一定距離偏移した位置に設置し、その他の画像マイクロユニットをいずれも前記状態エリアの中心位置に設置したことを特徴とする請求項11記載の画像インジケーター。
  13. 前記状態エリアの中心から一定距離偏移した位置の前記少なくとも一の画像マイクロユニットが、前記第一仮想線若しくは前記第二仮想線と略並行の方向に偏移したことを特徴とする請求項12記載の画像インジケーター。
JP2009106931A 2006-04-14 2009-04-24 画像インジケーター Pending JP2009165197A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW095113473A TWI370413B (en) 2006-04-14 2006-04-14 Graphical indicator

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006204347A Division JP2007288756A (ja) 2006-04-14 2006-07-27 画像インジケーター

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011218281A Division JP2012016060A (ja) 2006-04-14 2011-09-30 データ入出力方法

Publications (1)

Publication Number Publication Date
JP2009165197A true JP2009165197A (ja) 2009-07-23

Family

ID=38618561

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2006204347A Pending JP2007288756A (ja) 2006-04-14 2006-07-27 画像インジケーター
JP2009106931A Pending JP2009165197A (ja) 2006-04-14 2009-04-24 画像インジケーター
JP2011218281A Pending JP2012016060A (ja) 2006-04-14 2011-09-30 データ入出力方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2006204347A Pending JP2007288756A (ja) 2006-04-14 2006-07-27 画像インジケーター

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011218281A Pending JP2012016060A (ja) 2006-04-14 2011-09-30 データ入出力方法

Country Status (4)

Country Link
US (2) US7549597B2 (ja)
JP (3) JP2007288756A (ja)
KR (3) KR100964069B1 (ja)
TW (1) TWI370413B (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200919322A (en) * 2007-09-21 2009-05-01 Silverbrook Res Pty Ltd Coding pattern comprising registration symbols
TWI444906B (zh) * 2008-06-17 2014-07-11 Elan Microelectronics Corp Method of Decoding Two - dimensional
TWI336866B (en) * 2008-07-11 2011-02-01 Generalplus Technology Inc Method for coding two dimensional optical identification with the same gray level and printing product thereof
CN101615259B (zh) * 2008-08-01 2013-04-03 凌通科技股份有限公司 一种二维光学辨识码的识别***
JP4291404B1 (ja) 2008-11-14 2009-07-08 健治 吉田 放送制御システム
US20110182514A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Method of decoding coding pattern having self-encoded format
US20110181916A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Method of encoding coding pattern to minimize clustering of macrodots
US20110180611A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Coding pattern comprising multi-ppm data symbols in a format identified by registration symbols
US20110180612A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Coding pattern comprising multi-ppm data symbols with minimal clustering of macrodots
US20110185252A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Coding pattern comprising multi-ppm data symbols with different layouts
JP5560887B2 (ja) * 2010-05-10 2014-07-30 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
EP2580713B1 (en) * 2010-06-11 2016-04-06 Rnib Coded information systems
TWI492162B (zh) * 2011-05-25 2015-07-11 Generalplus Technology Inc 等灰度二維光學辨識碼裝置
TWI497420B (zh) * 2011-05-25 2015-08-21 Generalplus Technology Inc 可快速解碼之等灰度二維光學辨識碼裝置及解碼方法
TW201314630A (zh) * 2011-09-19 2013-04-01 Tritan Technology Inc 一種可動態決定像素量化臨界值的影像均化編碼與解碼方法
CN103024371B (zh) * 2011-09-27 2015-09-02 硕呈科技股份有限公司 可动态决定像素量化临界值的影像均化编码与解码方法
CN102567763B (zh) * 2011-12-27 2014-11-05 方正国际软件有限公司 一种数据存储和读取方法及***
CN102609748B (zh) * 2012-01-21 2014-12-10 松翰科技股份有限公司 芯片的解码方法
JP5688516B2 (ja) * 2012-01-21 2015-03-25 松翰科技股▲ふん▼有限公司 ドットコードを用いたデータ入力/出力方法
CN105069388B (zh) * 2012-01-21 2018-09-28 松翰科技股份有限公司 使用点编码的数据输出输入方法
CN103425240A (zh) * 2012-05-18 2013-12-04 上海点码数码科技有限公司 数字点控***
TWI492167B (zh) * 2014-06-05 2015-07-11 Sonix Technology Co Ltd 圖像指標
EP3076342A1 (de) 2015-04-01 2016-10-05 3S Simons Security Systems GmbH System umfassend wenigstens einen mikropartikel und wenigstens einen optischen code, verwendung eines derartigen systems sowie verfahren zur fälschungssicheren kennzeichnung eines objekts
TWI588753B (zh) * 2015-06-24 2017-06-21 松翰科技股份有限公司 載有點碼資訊配列的載體
EP3139132B1 (de) 2015-09-03 2020-02-19 Hexagon Technology Center GmbH Flächen-absolutcodierung
CN105335740B (zh) 2015-10-19 2019-01-11 松翰科技股份有限公司 图像指标的读取方法、指标结构以及其电子装置
WO2018151367A1 (ko) * 2017-02-20 2018-08-23 상명대학교서울산학협력단 교육용 교재의 그래픽 표시방법
KR102131938B1 (ko) * 2018-07-05 2020-07-08 한국기계연구원 위조 방지 패턴, 위조 방지 패턴 생성 방법 및 장치
KR102104027B1 (ko) * 2018-08-30 2020-04-23 선문대학교 산학협력단 정보를 표시하는 메쉬 구조체 및 정보를 표시하는 메쉬 구조체로 감지 전극을 형성한 터치 장치
TWI718026B (zh) * 2020-03-13 2021-02-01 松翰科技股份有限公司 圖像指標
DE102021132112A1 (de) 2021-12-07 2023-06-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Planung einer Route
KR102476025B1 (ko) * 2022-10-13 2022-12-09 주식회사 보나 광학식 전자펜을 위한 그래픽 인디케이터 장치 및 그 이미지 처리 방법

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835544A (en) * 1986-10-16 1989-05-30 Laser Impressions (Stockport) Limited Printing and packaging system and identifying an item of printed matter
JPH09226228A (ja) * 1996-02-08 1997-09-02 Eastman Kodak Co コピー規制装置
JPH10257309A (ja) * 1997-03-06 1998-09-25 Toppan Printing Co Ltd Idカード作成方法及び作成装置
JPH10261058A (ja) * 1997-03-21 1998-09-29 Dainippon Printing Co Ltd 2次元データコード
JP2003511761A (ja) * 1999-10-01 2003-03-25 アノト・アクティエボラーク 光学読み取り用の符号化用紙
WO2004029871A1 (ja) * 2002-09-26 2004-04-08 Kenji Yoshida ドットパターンを用いた情報再生・入出力方法、情報再生装置、携帯情報入出力装置および電子玩具
JP2004166177A (ja) * 2002-01-11 2004-06-10 Sonix Technology Co Ltd 標識を生成するための方法及び該標識を利用する処理装置とシステム
WO2004084125A1 (ja) * 2003-03-17 2004-09-30 Kenji Yoshida ドットパターンを用いた情報入出力方法
WO2006070458A1 (ja) * 2004-12-28 2006-07-06 Kenji Yoshida ドットパターンを用いた情報入出力方法
WO2006117869A1 (ja) * 2005-04-28 2006-11-09 Kenji Yoshida ドットパターンを用いた情報入出力方法
JP2007011890A (ja) * 2005-07-01 2007-01-18 Kenji Yoshida ドットパターン

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924078A (en) 1987-11-25 1990-05-08 Sant Anselmo Carl Identification symbol, system and method
US6533182B1 (en) * 1999-09-21 2003-03-18 Omron Corporation Two-dimensional dot code and reader thereof
JP4763905B2 (ja) * 2001-03-06 2011-08-31 オリンパス株式会社 符号化画像読取装置
WO2005064530A1 (ja) 2003-12-25 2005-07-14 Kenji Yoshida ドットパターンを用いた情報入出力方法
KR100591300B1 (ko) * 2005-01-18 2006-06-20 요시다 켄지 도트 패턴을 이용한 정보 입출력 방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835544A (en) * 1986-10-16 1989-05-30 Laser Impressions (Stockport) Limited Printing and packaging system and identifying an item of printed matter
JPH09226228A (ja) * 1996-02-08 1997-09-02 Eastman Kodak Co コピー規制装置
JPH10257309A (ja) * 1997-03-06 1998-09-25 Toppan Printing Co Ltd Idカード作成方法及び作成装置
JPH10261058A (ja) * 1997-03-21 1998-09-29 Dainippon Printing Co Ltd 2次元データコード
JP2003511761A (ja) * 1999-10-01 2003-03-25 アノト・アクティエボラーク 光学読み取り用の符号化用紙
JP2004166177A (ja) * 2002-01-11 2004-06-10 Sonix Technology Co Ltd 標識を生成するための方法及び該標識を利用する処理装置とシステム
WO2004029871A1 (ja) * 2002-09-26 2004-04-08 Kenji Yoshida ドットパターンを用いた情報再生・入出力方法、情報再生装置、携帯情報入出力装置および電子玩具
WO2004084125A1 (ja) * 2003-03-17 2004-09-30 Kenji Yoshida ドットパターンを用いた情報入出力方法
WO2006070458A1 (ja) * 2004-12-28 2006-07-06 Kenji Yoshida ドットパターンを用いた情報入出力方法
WO2006117869A1 (ja) * 2005-04-28 2006-11-09 Kenji Yoshida ドットパターンを用いた情報入出力方法
JP2007011890A (ja) * 2005-07-01 2007-01-18 Kenji Yoshida ドットパターン

Also Published As

Publication number Publication date
US20090212119A1 (en) 2009-08-27
KR20070102390A (ko) 2007-10-18
KR20090029757A (ko) 2009-03-23
KR100964069B1 (ko) 2010-06-16
US20070246547A1 (en) 2007-10-25
KR101007348B1 (ko) 2011-01-13
TW200739452A (en) 2007-10-16
JP2012016060A (ja) 2012-01-19
US7549597B2 (en) 2009-06-23
KR20100040826A (ko) 2010-04-21
KR100989319B1 (ko) 2010-10-25
TWI370413B (en) 2012-08-11
JP2007288756A (ja) 2007-11-01
US7819330B2 (en) 2010-10-26

Similar Documents

Publication Publication Date Title
JP2009165197A (ja) 画像インジケーター
JP6397977B2 (ja) ドットパターン、ドットパターン形成媒体、ドットパターンの画像データを生成するプログラム、ドットパターン形成装置、光学装置、光学読み取り装置、情報入出力装置、ドットパターン読み取り装置
JP6546317B2 (ja) ドットコードを用いたデータ入力/出力方法
CN102622599B (zh) 使用点编码的数据输出输入方法
CN101064013B (zh) 使用图像指标结构的数据输出输入方法
JP6045752B2 (ja) 二次元コード、二次元コードの解析システム及び二次元コードの作成システム
US20160155033A1 (en) Printed Material on Which Two-Dimensional Code is Displayed
JP2009045139A (ja) 画像表示システム、フォトフレーム、画像表示装置、画像表示方法およびプログラム
JP4949134B2 (ja) カメラ位置認識システム
CN102609748B (zh) 芯片的解码方法
CN101908156B (zh) 图像指标结构
CN102324039B (zh) 使用图像指标结构的数据输出输入方法
TWI588753B (zh) 載有點碼資訊配列的載體
CN102236811B (zh) 点图像编码结构、其译码方法与电子装置
US20090212120A1 (en) Graphical indicator
JPWO2006070458A1 (ja) ドットパターンを用いた情報入出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111213

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121010

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130702

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141009

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141202

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150109

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150512

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150826

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151026