JP2017129525A - 計測装置及びその制御方法、並びにプログラム - Google Patents

計測装置及びその制御方法、並びにプログラム Download PDF

Info

Publication number
JP2017129525A
JP2017129525A JP2016010603A JP2016010603A JP2017129525A JP 2017129525 A JP2017129525 A JP 2017129525A JP 2016010603 A JP2016010603 A JP 2016010603A JP 2016010603 A JP2016010603 A JP 2016010603A JP 2017129525 A JP2017129525 A JP 2017129525A
Authority
JP
Japan
Prior art keywords
distance
read
projection
distribution information
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016010603A
Other languages
English (en)
Other versions
JP6671977B2 (ja
Inventor
章宜 大井
Akiyoshi Oi
章宜 大井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016010603A priority Critical patent/JP6671977B2/ja
Priority to US15/408,675 priority patent/US10373324B2/en
Priority to EP17152145.3A priority patent/EP3196592B1/en
Publication of JP2017129525A publication Critical patent/JP2017129525A/ja
Application granted granted Critical
Publication of JP6671977B2 publication Critical patent/JP6671977B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • H04N1/00267Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector with a viewing or projecting apparatus, e.g. for reading image information from a film
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00681Detecting the presence, position or size of a sheet or correcting its position before scanning
    • H04N1/00684Object of the detection
    • H04N1/00708Size or dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00681Detecting the presence, position or size of a sheet or correcting its position before scanning
    • H04N1/00684Object of the detection
    • H04N1/00726Other properties of the sheet, e.g. curvature or reflectivity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00827Arrangements for reading an image from an unusual original, e.g. 3-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0081Image reader
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】被読取物に適した投影パターンを確実に生成することができる計測装置を提供する。
【解決手段】カメラスキャナ101は、測定された距離に基づいて原稿108の形、大きさ、及び位置を特定するための距離分布情報を生成し、生成された距離分布情報に基づいて投影を生成する。
【選択図】図1

Description

本発明は、計測装置及びその制御方法、並びにプログラムに関し、特に、原稿を離れた位置からスキャンする計測装置及びその制御方法、並びにプログラムに関する。
机等に配置された被読取物を離れた位置からスキャンするスキャン処理を実行する計測装置としてのカメラスキャナが知られている。カメラスキャナは被読取物として原稿や本等の立体物のスキャン処理を実行可能であり、通常、カメラスキャナは、立体物のスキャン処理の実行を前提とするため、原稿を引き延ばすためのプラテン等を備えない。したがって、カメラスキャナでは、原稿が折れ曲がった状態で原稿のスキャン処理が実行される場合がある。この場合、原稿の折れによって歪みのある画像データが生成されてしまう。近年では、光切断法等によって原稿の折れを高精度に計測し、計測結果に基づいて原稿の折れによる歪みを補正する技術が提案されている。例えば、光切断法では、原稿の折れを計測する場合、カメラスキャナは、当該カメラスキャナが備えるプロジェクタによって複数の投影線で構成された投影パターンを原稿に投影し、投影された投影パターンをカメラスキャナが備えるカメラ等によって検出する。カメラスキャナは検出された投影パターンから三角測量法によって各投影線の距離情報を算出し、算出された各投影線の距離情報によって原稿の折れを計測する。また、光切断法では、カメラスキャナは、原稿の大きさや形を示す形状情報や原稿が配置される位置を示す位置情報を予め格納し、格納された形状情報及び位置情報に基づいて原稿に適した投影パターンを生成する(例えば、特許文献1参照)。
特開2013−36983号公報
しかしながら、特許文献1の技術では、原稿の形状情報や位置情報が事前に格納されていない場合、原稿に適した投影パターンを生成することができない。
本発明の目的は、被読取物に適した投影パターンを確実に生成することができる計測装置及びその制御方法、並びにプログラムを提供することにある。
上記目的を達成するために、本発明の計測装置は、複数の投影線で構成される投影パターンを被読取物に投影して前記被読取物の折れを計測する計測装置であって、前記被読取物との距離を測定する距離測定手段と、前記測定された距離に基づいて前記被読取物の形、大きさ、及び位置を特定するための前記被読取物の距離分布情報を生成する距離分布情報生成手段と、前記生成された被読取物の距離分布情報に基づいて前記投影パターンを生成する投影パターン生成手段とを備えることを特徴とする。
本発明によれば、被読取物に適した投影パターンを確実に生成することができる。
本発明の実施の形態に係る計測装置としてのカメラスキャナを説明するための図であり、図1(a)はカメラスキャナの構成を概略的に示す構成図であり、図1(b)は各座標系を説明するための図であり、図1(c)は各座標系の変換を説明するための図である。 図1のカメラスキャナのハードウェアの構成を概略的に示すブロック図である。 図1のカメラスキャナのソフトウェアの構成を概略的に示すブロック図である。 図1におけるカメラスキャナで実行される計測処理の手順を示すフローチャートである。 図4のステップS401の距離分布情報生成処理の手順を示すフローチャートである。 図5の処理で用いられる各データの一例を示す図である。 図4のステップS402の投影パターン生成処理の手順を示すフローチャートである。 図7の処理を説明するための図であり、図8(a)は投影パターンの範囲を示し、図8(b)は投影線を示し、図8(c)は投影線の予測位置範囲を示し、図8(d)は投影パターンの一例を示す。 図4のステップS403の投影線検出処理の手順を示すフローチャートである。 本実施の形態における第1の変形例の課題を説明するための図であり、図10(a)は原稿台に配置された原稿を示し、図10(b)及び図10(c)の各々は投影される投影パターンの一例を示す。 図7の投影パターン生成処理の第1の変形例の手順を示すフローチャートである。 図11の処理で生成される分割線を説明するための図であり、図12(a)は原稿領域を示し、図12(b)及び図12(c)の各々は分割線の一例を示す。 本実施の形態における第2の変形例の課題を説明するための図である。 図7の投影パターン生成処理の第2の変形例の手順を示すフローチャートである。
以下、本発明の実施の形態を図面を参照しながら詳述する。
本実施の形態では、計測装置としてのカメラスキャナに本発明を適用した場合について説明するが、本発明の適用先はカメラスキャナに限られない。例えば、被読取物を離れた位置からスキャン処理可能なスタンド型スキャナ等の計測装置であれば本発明を適用することができる。
図1は、本発明の実施の形態に係る計測装置としてのカメラスキャナ101を説明するための図であり、図1(a)はカメラスキャナ101の構成を概略的に示す構成図であり、図1(b)は各座標系を説明するための図であり、図1(c)は各座標系の変換を説明するための図である。
図1において、カメラスキャナ101は、コントローラ部102、カメラ部103、腕部106、プロジェクタ107、及び距離画像センサ部109(距離測定手段)を備える。コントローラ部102、カメラ部103、プロジェクタ107、及び距離画像センサ部109は腕部106によって連結されている。
コントローラ部102は、カメラスキャナ101の本体としてカメラ部103、プロジェクタ107、及び距離画像センサ部109をそれぞれ制御する。カメラ部103は当該カメラ部103の指向方向において予め設定された領域、例えば、机等の原稿台104の一部を含む領域105の撮影を行う。カメラ部103は高解像度及び低解像度のいずれかの解像度を設定可能である。腕部106は関節による曲げ伸ばしが可能である。プロジェクタ107は被読取物としての原稿108の折れを計測するための投影パターンを当該原稿108に投影する。距離画像センサ部109は赤外線によるパターン投射方式の距離画像センサである。距離画像センサ部109は、当該距離画像センサ部109の指向方向において予め設定された領域、例えば、原稿108を含む領域105の撮影を行い、原稿108との距離を測定する。本実施の形態では、カメラスキャナ101が原稿108の折れを計測する場合、カメラ部103及び距離画像センサ部109は原稿108の読取面を指向する。
カメラスキャナ101では、図1(b)に示すように、カメラ部103、プロジェクタ107、及び距離画像センサ部109の各々に対応するカメラ座標系、プロジェクタ座標系、及び距離画像センサ座標系が定義されている。カメラ座標系はカメラ部103を基準とした座標系であり、カメラ座標系では、カメラ部103が撮影する画像平面の水平、垂直成分がX、Yと定義され、当該画像平面に直行する成分がZと定義される。プロジェクタ座標系はプロジェクタ107を基準とした座標系であり、プロジェクタ座標系では、プロジェクタ107が投影する投影画像平面の水平、垂直成分がX,Yと定義され、当該投影画像平面に直行する成分がZ成分と定義される。距離画像センサ座標系は距離画像センサ部109を基準とした座標系であり、距離画像センサ座標系では、距離画像センサ部109が撮影する画像平面の水平、垂直成分がX,Yと定義され、当該画像平面に直行する成分がZと定義される。また、カメラスキャナ101では、カメラ座標系、プロジェクタ座標系、及び距離画像センサ座標系の他に、原稿台104を基準とした座標系である直交座標系も定義されている。直交座標系では、原稿台104の平面の水平、垂直成分がX,Yと定義され、原稿台104の平面に直行する成分がZと定義される。各座標系は計算式によって互いに他の座標系に変換可能である。カメラスキャナ101は、例えば、3×3の回転行列R及び並進ベクトルtを用い、下記式(1)により、直交座標系の三次元点P[X,Y,Z]をカメラ座標系の三次元点P[X,Y,Z]に変換可能である(例えば、図1(c))。以下、回転行列R及び並進ベクトルtをカメラ部103の外部パラメータと定義する。
また、カメラスキャナ101は、下記(2)式により、図1(c)に示すように、カメラ座標系の三次元点P[X,Y,Z]を直交座標系の三次元点P[X,Y,Z]に変換可能である。
さらに、カメラスキャナ101は、焦点距離及び画像中心等で表現される3×3の行列Aを用い、下記式(3)により、カメラ座標系の三次元点P[X,Y,Z]をカメラ座標系の二次元点p[x,y]に射影変換可能である。以下、行列Aをカメラ部103の内部パラメータと定義する。
なお、本実施の形態では、説明を容易にするために、レンズに歪みが存在しないことを前提として式(3)を用いて射影変換を行う場合について説明するが、レンズの歪みを考慮したパラメータを用いて射影変換してもよい。
同様に、カメラスキャナ101は、3×3の回転行列R及び並進ベクトルtを用い、下記式(4)によって直交座標系の三次元点P[X,Y,Z]をプロジェクタ座標系の三次元点P[X,Y,Z]に変換可能である。以下、回転行列R及び並進ベクトルtをプロジェクタ107の外部パラメータと定義する。
また、カメラスキャナ101は、下記(5)式によってプロジェクタ座標系の三次元点P[X,Y,Z]を直交座標系の三次元点P[X,Y,Z]に変換可能である。
さらに、カメラスキャナ101は、焦点距離及び画像中心等で表現される3×3の行列Aを用い、下記式(6)によってプロジェクタ座標系の三次元点P[X,Y,Z]をプロジェクタ座標系の二次元点p[x,y]に射影変換可能である。以下、行列Aをプロジェクタ107の内部パラメータと定義する。
なお、上述した各内部パラメータ及び外部パラメータは予めキャリブレーションが行われていることを前提とする。
図2は、図1のカメラスキャナ101のハードウェアの構成を概略的に示すブロック図である。
図2において、カメラスキャナ101は、図1のコントローラ部102、カメラ部103、プロジェクタ107、及び距離画像センサ部109の他に、LCDタッチパネル208、スピーカ211、及び外部メモリ213を備える。コントローラ部102は、CPU201、RAM202、ROM203、HDD204、画像処理プロセッサ205、カメラI/F206、ディスプレイコントローラ207、シリアルI/F209、オーディオコントローラ210、及びUSBコントローラ212を備える。CPU201、RAM202、ROM203、HDD204、画像処理プロセッサ205、カメラI/F206、ディスプレイコントローラ207、シリアルI/F209、オーディオコントローラ210、及びUSBコントローラ212はシステムバス217を介して互いに接続されている。距離画像センサ部109は、赤外線パターン投射部214、赤外線カメラ215、及びRGBカメラ216を備える。
CPU201はコントローラ部102全体を統括的に制御し、ROM203に格納された各プログラムを実行して後述する図3のソフトウェア300の各処理を実行する。RAM202は揮発性メモリであり、CPU201の作業領域や各データの一時格納領域として用いられる。ROM203は不揮発性メモリであり、CPU201で実行される各プログラムを格納する。HDD204はRAM202より大容量のハードディスクドライブであり、各プログラムや各設定情報等を格納する。画像処理プロセッサ205はRAM202に格納された画像データを読み出して回転、変倍、色変換等の画像処理を行い、画像処理が行われた画像データをRAM202へ書き戻す。カメラI/F206はカメラ部103及び距離画像センサ部109の各々とデータ通信を行う。例えば、カメラI/F206は、CPU201からの指示に応じてカメラ部103及び距離画像センサ部109の各々から、画像データ及び距離画像データを取得し、取得された画像データ及び距離画像データをRAM202へ書き込む。また、カメラI/F206は、CPU201からの制御コマンドをカメラ部103及び距離画像センサ108へ送信し、カメラ部103及び距離画像センサ部109の各設定を行う。ディスプレイコントローラ207はプロジェクタ107及びLCDタッチパネル208とデータ通信を行い、シリアルI/F209はLCDタッチパネル208とデータ通信を行い、オーディオコントローラ210はスピーカ211とデータ通信を行う。USBコントローラ212は外部メモリ213とデータ通信を行う。赤外線パターン投射部214は視認不可能な赤外線の投影パターンを被読取物に投射する。赤外線カメラ215は被読取物に投射された投影パターンを撮影するカメラである。RGBカメラ216は可視光をRGB信号で撮影するカメラである。LCDタッチパネル208はカメラスキャナ101の各設定を行う設定画面等を表示する。スピーカ211はオーディオコントローラ210から受信したアナログ音声信号に基づいて音声を出力する。外部メモリ213はUSBメモリやSDカード等である。
図3は、図1のカメラスキャナ101のソフトウェア300の構成を概略的に示すブロック図である。
図3において、ソフトウェア300は、メイン制御モジュール301、UIモジュール302、表示モジュール303、データ管理モジュール304、画像取得モジュール305、認識処理モジュール308、及びスキャン処理モジュール309を備える。画像取得モジュール305はカメラ画像取得モジュール306及び距離画像取得モジュール307を備え、スキャン処理モジュール309は原稿形状取得モジュール310、計測画像生成モジュール311、及び原稿補正画像生成モジュール312を備える。ソフトウェア300の各処理はCPU201がROM203に格納された各プログラムを実行することによって行われる。
メイン制御モジュール301は、UIモジュール302、データ管理モジュール304、画像取得モジュール305、認識処理モジュール308、及びスキャン処理モジュール309を制御する。UIモジュール302はユーザーインターフェースに関するデータ通信を制御する。例えば、UIモジュール302は、LCDタッチパネル208等に表示するメッセージや操作ボタン等のGUIデータを生成し、GUIデータの表示の指示を表示モジュール303に送信する。また、UIモジュール302は認識処理モジュール308で検知されたLCDタッチパネル208の操作によってユーザの操作を受け付ける。表示モジュール303はディスプレイコントローラ207を制御してLCDタッチパネル208等にGUIデータを表示させる。データ管理モジュール304はカメラスキャナ101で用いられる各データの管理を行い、当該各データの格納処理等を制御する。画像取得モジュール305は画像入力処理を行う。
カメラ画像取得モジュール306はカメラI/F206を介してカメラ部103から画像データを取得する。取得された画像データはRAM202へ格納される。距離画像取得モジュール307はカメラI/F206を介して距離画像センサ部109から距離画像データを取得する。取得された距離画像データはRAM202へ格納される。認識処理モジュール308は、取得された画像データや距離画像データから原稿台104上の物体の動きを認識する。例えば、認識処理モジュール308は、画像取得モジュール305からGUIデータを含む画像データを取得し、GUIデータのタッチ等(ジェスチャ)を検知すると、当該検知結果をメイン制御モジュール301へ通知する。また、認識処理モジュール308は、物体載置待ち処理や物体除去待ち処理の通知をメイン制御モジュール301から受信すると、原稿台104が撮影された画像データを画像取得モジュール305から取得する。これにより、認識処理モジュール308は原稿台104上に物体が置かれて当該物体が静止するタイミングや物体が取り除かれるタイミングを検知する。スキャン処理モジュール309は原稿のスキャン処理を行う。原稿形状取得モジュール310は後述する図6(g)の距離分布情報610に基づいて原稿108の形、大きさ、位置を含む形状情報を取得する。計測画像生成モジュール311は、原稿台104に配置された原稿の折れを計測するための投影パターンを生成する。原稿補正画像生成モジュール312は、原稿形状取得モジュール310で取得された形状情報に基づいて原稿の折れによる歪みを補正した画像データを生成する。
図4は、図1におけるカメラスキャナ101で実行される計測処理の手順を示すフローチャートである。
図4の処理は、CPU201がROM203に格納された各プログラムを実行することによって行われる。
図4において、まず、CPU201は後述する図5の距離分布情報生成処理を実行し(ステップS401)、測定された距離に基づいて投影パターンを生成するための後述する図6(g)の距離分布情報610を生成する。次いで、CPU201は後述する図7の投影パターン生成処理を実行し(ステップS402)、ステップS401で生成された距離分布情報610に基づいて原稿108に投影する投影パターンを生成する。次いで、CPU201は後述する図9の投影線検出処理を実行し(ステップS403)、原稿108に投影された投影パターンを検出する。次いで、CPU201はステップS403で検出された投影パターンに基づいて光切断法や三角測量法を用いた高精度な三次元計測を行う(ステップS404)。これにより、カメラスキャナ101は当該三次元計測結果に基づいて原稿108の折れを計測する。その後、CPU201はステップS404の処理を実行した後に本処理を終了する。
図5は、図4のステップS401の距離分布情報生成処理の手順を示すフローチャートである。
図5において、まず、CPU201は原稿108をカメラ部103によって撮影して輝度情報を含む図6(a)の輝度画像601を生成する。また、CPU201は原稿108を距離画像センサ部109によって撮影して距離情報を含む図6(b)の距離画像602を生成する(ステップS501)。本実施の形態では、ステップS501の処理が行われる前に、同じアングルで原稿108が配置されていない原稿台104を撮影して生成された背景輝度画像及び背景距離画像がRAM202に格納されている。ステップS501で生成された距離画像602では、被読取物及び距離画像センサ部109の距離と原稿台104及び距離画像センサ部109の距離とが同じである場合に白色で示され、被読取物及び距離画像センサ部109の距離が短くなる程黒色で示される。本実施の形態では、一例として、輝度画像601及び距離画像602が一枚ずつ生成された場合を前提とするが、輝度画像及び距離画像の枚数は一枚に限られない。例えば、距離情報の測定精度を向上するために、ステップS501で複数枚の輝度画像及び距離画像が生成されてもよい。次いで、CPU201は、予めRAM202に格納された背景輝度画像及び輝度画像601の差によって図6(c)の輝度差分画像603を生成する(ステップS502)。輝度差分画像603では、背景輝度画像及び輝度画像601の輝度が一致しない領域604のみが黒色で示される。
次いで、CPU201は、輝度差分画像603をカメラ座標系から距離画像センサ座標系に変換する(ステップS503)。これにより、距離画像センサ部109を基準とした図6(d)の輝度差分画像605が生成される。次いで、CPU201は、予めRAM202に格納された背景距離画像及び距離画像602の差を算出し、算出した結果に基づいて二値化された図6(e)の距離差分画像606を生成する(ステップS504)。距離差分画像606では、背景距離画像及び距離画像602の差が所定の閾値より大きい領域607が黒色で示され、背景距離画像及び距離画像602の差が所定の閾値以下である領域607以外の領域が白色で示される。ここで、原稿108及び原稿台104が同系色である場合、原稿108及び原稿台104の輝度の差が小さくなるので、原稿108及び原稿台104の輝度の差に相当する輝度差分画像605から原稿108の領域を特定することが困難になる場合がある。また、原稿108の厚さが薄い場合、原稿108及び原稿台104の距離の差が小さくなるので、原稿108及び原稿台104の距離の差に相当する距離差分画像606から原稿108の領域を特定することが困難になる場合がある。これに対応して、本実施の形態では、CPU201が、ステップS504の処理を実行した後に輝度差分画像605及び距離差分画像606の和によって図6(f)の原稿領域画像608を生成する(ステップS505)。これにより、CPU201は原稿領域画像608から原稿108の領域を確実に特定可能になる。次いで、CPU201は原稿領域画像608から原稿領域609を抽出し(ステップS506)、抽出された原稿領域609を構成する各部分の距離情報を含む距離分布情報をRAM202に格納する。次いで、CPU201は、原稿領域609の距離分布情報を距離センサ座標系から直交座標系に変換して原稿台104を基準とした図6(g)の距離分布情報610を生成する(ステップS507)。本実施の形態では、CPU201は距離分布情報610を用いて原稿108の形、大きさ、及び位置を特定する。その後、CPU201はステップS507の処理を実行した後に図4のステップS402の処理を行う。
図7は、図4のステップS402の投影パターン生成処理の手順を示すフローチャートである。
図7において、まず、CPU201は、原稿108において、原稿台104を基準に最も高くなる箇所を検出する(ステップS701)。具体的に、CPU201は原稿台104を基準とした距離分布情報610のZ成分の最大値Zmaxを抽出する。次いで、CPU201は原稿108に投影する図8(a)の投影パターンの範囲801を決定する(ステップS702)。ステップS702では、CPU201は、例えば、距離分布情報610から図6(h)に示すような原稿台104の外接矩形領域611を導出し、外接矩形領域611の座標に射影変換を行って算出された座標に基づいて投影パターンの範囲801を決定する。次いで、CPU201は投影線の順番を示す設定値Nを1番目の投影線であることを示す「1」に設定し(ステップS703)、範囲801における1番目の投影線PLの位置を決定する(ステップS704)。ステップS704では、範囲801を構成する各辺のいずれか、例えば、下辺802から予め設定されたオフセットを持たせた位置を投影線PLの位置に決定する。次いで、CPU201は決定された位置に基づいて、図8(b)に示すように、投影パターンを含むプロジェクタ画像803に投影線PLを設定する(ステップS705)。ここで、原稿108に投影線PLが投影された場合、投影線PLは原稿台104を基準とした原稿108の高さ、つまり、距離分布情報610のZ成分の値に応じた位置でカメラ部103によって撮影される。すなわち、カメラ部103によって撮影される投影線PLの位置は距離分布情報610のZ成分の値に依存する。これに対応して、CPU201は、後述するステップS706及びS707によって原稿108に投影線PLを投影した場合、投影線PLがカメラ部103によって撮影される位置の予測位置範囲を算出する。具体的に、CPU201は、距離分布情報610のZ成分の最小値Zminの位置に投影線PLが投射された場合にカメラ部103によって撮影される投影線PLを示す撮影予測線CLの位置座標を算出する(ステップS706)。ここで、プロジェクタ107の内部パラメータに射影逆変換を行うと、下記式(7)が導出され、下記式(7)から下記式(8)及び下記式(9)が導出される。
さらに、式(8)、式(9)、及び式(5)を用いて下記式(10)が導出される。
式(7)〜式(10)を用いて原稿台104の平面、つまり、Z=0となるようなプロジェクタ座標系のZ値及び直交座標系の三次元座標が算出される。算出された直交座標系の三次元座標を式(1)及び式(3)によってカメラ座標系に変換すると、撮影予測線CLの位置座標が算出される。次いで、CPU201は、距離分布情報610のZ成分の最大値Zmaxの位置に投影線PLが投射された場合にカメラ部103によって撮影される投影線PLを示す撮影予測線CLの位置座標を算出する(ステップS707)。ステップS707では、CPU201は式(10)によってZ=Zmaxとなる直交座標系の三次元座標を算出し、算出された直交座標系の三次元座標を式(1)及び式(3)によってカメラ座標系に変換して撮影予測線CLの位置座標を算出する。次いで、CPU201は、図8(c)に示すように、撮影予測線CL,CLによって囲まれる予測位置範囲804を導出する。次いで、CPU201は、予測位置範囲804を示す情報を投影線PLに対応付けしてRAM202に格納する(ステップS708)。次いで、CPU201は、予測位置範囲804に重ならないように投影線PLの位置を算出する(ステップS709)。ステップS709では、カメラの内部パラメータに射影逆変換を行うと、下記式(11)が導出され、下記式(11)から下記式(12)及び下記式(13)が導出される。
式(12)、式(13)、及び式(2)を用いて下記式(14)が導出される。
CPU201は予測位置範囲804に重ならないように撮影予測線CLの位置を算出する。また、CPU201は、撮影予測線CLに対して式(11)、式(14)、式(4)、及び式(5)の順に変換を行って、Z=0平面上で撮影予測線CLの座標に投影するための投影線PLを算出する。次いで、CPU201は、投影線PLが予測位置範囲804の範囲外であるか否かを判別する(ステップS710)。
ステップS710の判別の結果、投影線PLが予測位置範囲804の範囲外であるとき、CPU201はステップS403の処理に進む。一方、ステップS710の判別の結果、投影線PLが予測位置範囲804の範囲内であるとき、CPU201は、算出された位置に基づいて投影線PLの位置を決定する。その後、CPU201はRAM202に格納された変数Nに1を加算し(ステップS711)、投影線PLに関してステップS705以降の処理を行う。これにより、原稿の形状情報及び原稿の位置情報が予め格納されていなくても、各投影線の位置、及び各投影線の間隔が決定され、複数の投影線、例えば、図8(d)に示すような、7本の投影線を含む投影パターン805が生成される。したがって、本実施の形態では、原稿の形状情報及び原稿の位置情報を格納する格納領域や、原稿の形状情報及び原稿の位置情報の設定を行うための設定画面をLCDタッチパネル208に表示しなくてもよい。
図9は、図4のステップS403の投影線検出処理の手順を示すフローチャートである。
図9において、まず、CPU201は、ステップS402で生成された投影パターン805をプロジェクタ107によって原稿108に投影する(ステップS901)。CPU201は、投影パターン805が投影された原稿108をカメラ部103で撮影して図6(i)の撮影画像612を生成し、当該撮影画像612をRAM203に格納する。次いで、CPU201は、ステップS401で生成された輝度画像601及び撮影画像612の差によって図6(j)の差分画像613を生成する(ステップS902)。差分画像613は各投影線の成分のみを含む。次いで、CPU201は、差分画像613から投影線を検出し(ステップS903)、ステップS903で検出された各投影線が設定値Nで設定されたいずれの番号の線であるかを識別し(ステップS904)、図4のステップS404の処理を行う。
上述した図4、図5、図7、図9の処理によれば、測定された距離に基づいて原稿108の形、大きさ、及び位置を特定するための距離分布情報610が生成され、生成された距離分布情報610に基づいて投影パターン805が生成される。これにより、原稿108の形、大きさ、及び位置に関する情報を事前に格納することなく、原稿108に適した投影パターン805を確実に生成することができる。
また、上述した図4、図5、図7、図9の処理では、距離分布情報610に基づいて各投影線の位置、及び各投影線の間隔が決定される。これにより、原稿108に適した各投影線の位置、及び各投影線の間隔の投影パターンを生成することができる。
以上、本発明について実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。
例えば、投影パターンにおいて、各投影線の間隔及び位置の他に、各投影線の向きを決定してもよい。
上述した実施の形態のように、各投影線の間隔及び位置のみが調整された投影パターンでは、被読取物の折れを正確に計測することができない場合がある。被読取物の折れを計測するためには、投影パターンの各投影線が被読取物の折れと交差する必要がある。そのため、例えば、図10(a)に示すように、原稿1001の折れが原稿台104のX方向に沿う場合、投影パターンとしては、原稿1001の折れに略水平の投影線を含む図10(b)の投影パターン1002よりも、原稿1001の折れに略直交の投影線を含む図10(c)の投影パターン1003を用いるのが好ましい。すなわち、被読取物の折れを正確に計測するには、被読取物の折れに応じて投影線の向きを決定する必要がある。
これに対応して、本実施の形態では、距離分布情報610に基づいて各投影線の向きを決定する。
図11は、図7の投影パターン生成処理の第1の変形例の手順を示すフローチャートである。
図11において、まず、CPU201は図7のステップS701〜S703と同様の処理を行う。次いで、CPU201は、距離分布情報610に基づいて投影パターンの各投影線の向きを決定する(ステップS1101)。例えば、ステップS401の処理で原稿1001が撮影されて図12(a)の距離画像1200が生成された場合、CPU201は距離画像1200のうち原稿1001に対応する原稿領域1201を分割する図12(b)の分割線1202及び図12(c)の分割線1203を生成する。分割線1202は、図12(b)に示すように、原稿領域1201を距離画像1200のX方向に沿って複数の分割領域に分割するような分割線である。分割線1203は、図12(c)に示すように、原稿領域1201を距離画像1200のY方向に沿って複数の分割領域に分割するような分割線である。通常、距離分布情報において、被読取物の折れの箇所では折れに交差する方向に関して隣接する2つの部分の距離情報の差分が大きくなる。そのため、CPU201は、距離画像1200に基づいてステップS401で生成された距離分布情報において、分割線1202に対応する距離情報の分散値から当該分割線1202に沿う方向の距離情報の差分を算出し、分割線1203に対応する距離情報の分散値から当該分割線1203に沿う方向の距離情報の差分を算出する。CPU201は、算出された差分を比較し、当該差分が大きい分割線に沿う方向を各投影線の向きに決定する。次いで、CPU201は、図7のステップS704以降の処理を行う。
上述した図11の処理では、複数の投影線の各々に関し、当該投影線が交差する各部分のうち、距離情報の差分が大きい隣接する2つの部分の配列方向を投影線の向きとして決定される。ここで、光切断法では、原稿1001の折れを正確に計測するために、折れと各投影線を交差させるのが好ましい。原稿1001では折れに交差する方向に関し、折れの箇所では隣接する2つの部分の距離情報の差分が大きくなる。これに対応して、本実施の形態では、距離情報の差分が大きい隣接する2つの部分の配列方向が投影線の向きとして決定されるため、各投影線を折れと確実に交差させることができる。その結果、光切断法において被読取物の折れを正確に計測することができる。
上述した図11の処理では、各投影線の向きとして距離画像1200のX,Y方向のいずれかに沿う方向に設定する場合について説明したが、各投影線の向きは距離画像1200のX,Y方向のいずれかに沿う方向に限られない。例えば、距離画像1200のX,Y方向の他に、当該距離画像1200のX,Y方向に対して斜めの分割線も生成して当該斜めの分割線に対応する距離情報の差分も算出し、当該差分が最も大きい分割線に沿う方向を各投影線の向きに決定してもよい。
また、本実施の形態では、輝度情報に基づいて投影パターンを生成してもよい。
ここで、距離分布情報のみに基づいて生成された投影パターンを用いて原稿の折れを正確に計測することができない場合がある。例えば、図13のように、輝度画像1300のX方向と略水平に罫線等が記された原稿1301に対して、当該罫線に沿う方向の投影線を含む投影パターンを投影した場合、照明変化等の影響により、投影パターンの他に、原稿1301の罫線に関する情報等も検出してしまう場合がある。その結果、原稿1301の折れを正確に計測することができない。
これに対応して、本実施の形態では、後述する輝度分布情報に基づいて各投影線の方向を決定する。
図14は、図7の投影パターン生成処理の第2の変形例の手順を示すフローチャートである。
図14において、まず、CPU201は、図7のステップS701〜S703と同様の処理を行う。次いで、CPU201は、ステップS401で撮影された輝度画像601から当該輝度画像601を構成する各部の輝度情報を測定し(輝度測定手段)、測定された輝度情報を含む輝度分布情報を生成する(輝度分布情報生成手段)。また、CPU201は生成された輝度分布情報における輝度の差を示す輝度勾配を算出する。輝度画像の座標(u,v)、輝度画像の各座標の輝度I(u,v)とすると、輝度勾配mは下記式(15)によって算出され、輝度勾配方向θは下記式(16)によって算出される。
CPU201は、算出された結果に基づいて最も大きい輝度勾配の輝度勾配方向θを投影線の向きに決定する(ステップS1401)。次いで、CPU201は図7のステップS704以降の処理を行う。
上述した図14の処理では、輝度分布情報に基づいて各投影線の向きが決定されるので、原稿の模様に適した投影パターンを生成することができる。
上述した実施の形態では、距離画像センサ部109及びカメラ部103は被読取物の読取面を指向するので、被読取物の読取面の距離及び輝度を確実に測定することができる。
上述した本実施の形態では、距離分布情報及び輝度分布情報を組み合わせ、距離分布情報及び輝度分布情報に基づいて各投影線の向きを決定してもよい。これにより、原稿の模様の他に、当該原稿の形、大きさ、及び位置にも適した投影パターンを生成することができる。
上述した本実施の形態では、距離分布情報及び輝度分布情報を組み合わせて用いる場合、距離情報の差や、輝度勾配等に対して重み付けをしてもよい。
本実施の形態では、距離分布情報610として、カメラスキャナ101における計測誤差の補正が行われた距離分布情報を用いてもよい。
また、本実施の形態では、投影線PL,PL及び撮影予測線CL,CLは直線として説明しているが、投影線及び撮影予測線は直線に限られず、曲線を使用してもよい。
本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 カメラスキャナ
103 カメラ部
109 距離画像センサ部
201 CPU

Claims (8)

  1. 複数の投影線で構成される投影パターンを被読取物に投影して前記被読取物の折れを計測する計測装置であって、
    前記被読取物との距離を測定する距離測定手段と、
    前記測定された距離に基づいて前記被読取物の形、大きさ、及び位置を特定するための前記被読取物の距離分布情報を生成する距離分布情報生成手段と、
    前記生成された被読取物の距離分布情報に基づいて前記投影パターンを生成する投影パターン生成手段とを備えることを特徴とする計測装置。
  2. 前記投影パターン生成手段は前記被読取物の距離分布情報に基づいて各前記投影線の位置及び各前記投影線の間隔を決定することを特徴とする請求項1記載の計測装置。
  3. 前記投影パターン生成手段は前記被読取物の距離分布情報に基づいて各前記投影線の向きを決定することを特徴とする請求項1又は2記載の計測装置。
  4. 前記距離測定手段は前記被読取物の読取面を指向することを特徴とする請求項1乃至3のいずれか1項に記載の計測装置。
  5. 前記被読取物の輝度を測定する輝度測定手段と、
    前記測定された輝度に基づいて前記被読取物の模様を特定するための前記被読取物の輝度分布情報を生成する輝度分布情報生成手段とをさらに備え、
    前記投影パターン生成手段は、前記被読取物の距離分布情報及び前記被読取物の輝度分布情報に基づいて各前記投影線の向きを決定することを特徴とする請求項1又は2記載の計測装置。
  6. 前記輝度測定手段は前記被読取物の読取面を指向することを特徴とする請求項5記載の計測装置。
  7. 複数の投影線で構成される投影パターンを被読取物に投影して前記被読取物の折れを計測する計測装置の制御方法であって、
    前記被読取物との距離を測定する距離測定ステップと、
    前記測定された距離に基づいて前記被読取物の形、大きさ、及び位置を特定するための前記被読取物の距離分布情報を生成する距離分布情報生成ステップと、
    前記生成された被読取物の距離分布情報に基づいて前記投影パターンを生成する投影パターン生成ステップとを備えることを特徴とする計測装置の制御方法。
  8. 複数の投影線で構成される投影パターンを被読取物に投影して前記被読取物の折れを計測する計測装置の制御方法をコンピュータに実行させるプログラムであって、
    前記計測装置の制御方法は、
    前記被読取物との距離を測定する距離測定ステップと、
    前記測定された距離に基づいて前記被読取物の形、大きさ、及び位置を特定するための前記被読取物の距離分布情報を生成する距離分布情報生成ステップと、
    前記生成された被読取物の距離分布情報に基づいて前記投影パターンを生成する投影パターン生成ステップとを備えることを特徴とするプログラム。
JP2016010603A 2016-01-22 2016-01-22 計測装置及びその制御方法、並びにプログラム Expired - Fee Related JP6671977B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016010603A JP6671977B2 (ja) 2016-01-22 2016-01-22 計測装置及びその制御方法、並びにプログラム
US15/408,675 US10373324B2 (en) 2016-01-22 2017-01-18 Measurement apparatus that scans original, method of controlling the same, and storage medium
EP17152145.3A EP3196592B1 (en) 2016-01-22 2017-01-19 Measurement apparatus that scans original, method of controlling the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016010603A JP6671977B2 (ja) 2016-01-22 2016-01-22 計測装置及びその制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2017129525A true JP2017129525A (ja) 2017-07-27
JP6671977B2 JP6671977B2 (ja) 2020-03-25

Family

ID=57868068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016010603A Expired - Fee Related JP6671977B2 (ja) 2016-01-22 2016-01-22 計測装置及びその制御方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10373324B2 (ja)
EP (1) EP3196592B1 (ja)
JP (1) JP6671977B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108776338B (zh) * 2018-06-19 2022-05-24 四川大学 信号源空间传感方法、装置及主动式传感***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012194061A (ja) * 2011-03-16 2012-10-11 Canon Inc 三次元距離計測装置、三次元距離計測方法、およびプログラム
WO2015140935A1 (ja) * 2014-03-18 2015-09-24 株式会社Pfu オーバーヘッド型画像読取装置、画像処理方法、および、プログラム
JP2015206654A (ja) * 2014-04-18 2015-11-19 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292134A (ja) * 1999-04-07 2000-10-20 Minolta Co Ltd 3次元情報入力カメラ
WO2007138904A1 (ja) * 2006-05-30 2007-12-06 Panasonic Corporation パターン投影光源および複眼測距装置
JP5132832B1 (ja) 2011-07-11 2013-01-30 キヤノン株式会社 計測装置および情報処理装置
US9217636B2 (en) 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
JP6346427B2 (ja) 2013-10-30 2018-06-20 キヤノン株式会社 画像処理装置、画像処理方法
JP2015108602A (ja) * 2013-12-06 2015-06-11 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム
JP6289254B2 (ja) 2014-05-02 2018-03-07 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012194061A (ja) * 2011-03-16 2012-10-11 Canon Inc 三次元距離計測装置、三次元距離計測方法、およびプログラム
WO2015140935A1 (ja) * 2014-03-18 2015-09-24 株式会社Pfu オーバーヘッド型画像読取装置、画像処理方法、および、プログラム
JP2015206654A (ja) * 2014-04-18 2015-11-19 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP6671977B2 (ja) 2020-03-25
US20170213353A1 (en) 2017-07-27
EP3196592A1 (en) 2017-07-26
EP3196592B1 (en) 2018-10-17
US10373324B2 (en) 2019-08-06

Similar Documents

Publication Publication Date Title
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
USRE42794E1 (en) Information-inputting device inputting contact point of object on recording surfaces as information
JP6344050B2 (ja) 画像処理システム、画像処理装置、プログラム
JP2010165248A (ja) 画像処理装置、画像照合方法、および、プログラム
JP2008134793A (ja) 電子的手書入力装置
JP2016100698A (ja) 校正装置、校正方法、プログラム
JP6804056B2 (ja) 投写型表示装置、投写型表示装置の制御方法、及びプログラム
JP2019215811A (ja) 投影システム、画像処理装置および投影方法
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
US20160027183A1 (en) Image processing apparatus, image processing method and program
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
US9924066B2 (en) Image processing apparatus, information processing method, and program
JPWO2018167918A1 (ja) プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム
JP6671977B2 (ja) 計測装置及びその制御方法、並びにプログラム
JP2018018308A (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP2018009927A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019016843A (ja) 原稿読取装置、原稿読取装置の制御方法、及びプログラム
JP2016072691A (ja) 画像処理装置及びその制御方法、プログラム
JP5337409B2 (ja) 情報提示装置
JP6643825B2 (ja) 装置及び方法
JP6624861B2 (ja) 画像処理装置、制御方法およびプログラム
JPWO2019171635A1 (ja) 操作入力装置、操作入力方法、及びプログラム
JP2019101753A (ja) 物体形状測定装置及びその制御方法、並びにプログラム
JP2018191094A (ja) 原稿読取装置、原稿読取装置の制御方法、及びプログラム
JP2017033389A (ja) 画像処理装置、画像読取方法、コンピュータプログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R151 Written notification of patent or utility model registration

Ref document number: 6671977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees