JP2022106386A - Dimension measuring device and dimension measuring method - Google Patents
Dimension measuring device and dimension measuring method Download PDFInfo
- Publication number
- JP2022106386A JP2022106386A JP2021001333A JP2021001333A JP2022106386A JP 2022106386 A JP2022106386 A JP 2022106386A JP 2021001333 A JP2021001333 A JP 2021001333A JP 2021001333 A JP2021001333 A JP 2021001333A JP 2022106386 A JP2022106386 A JP 2022106386A
- Authority
- JP
- Japan
- Prior art keywords
- measurement object
- dimensional
- camera
- measured
- transparent member
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 22
- 238000005259 measurement Methods 0.000 claims abstract description 273
- 238000000691 measurement method Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 26
- 238000005303 weighing Methods 0.000 description 21
- 239000000123 paper Substances 0.000 description 20
- 230000002093 peripheral effect Effects 0.000 description 12
- 230000000052 comparative effect Effects 0.000 description 10
- 229910052739 hydrogen Inorganic materials 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000031700 light absorption Effects 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- 239000004925 Acrylic resin Substances 0.000 description 1
- 229920000178 Acrylic resin Polymers 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、測定対象物(荷物等)の寸法を測定する寸法測定装置およびそれに関連する技術に関する。 The present invention relates to a dimension measuring device for measuring the dimensions of an object to be measured (baggage, etc.) and a technique related thereto.
測定対象物(荷物等)の寸法を測定する寸法測定技術が存在する。たとえば、特許文献1には、3次元カメラ(距離画像カメラ)の情報を用いて、載置面に載置された荷物の寸法を測定する寸法測定装置が記載されている。 There is a dimensional measurement technique for measuring the dimensions of an object to be measured (baggage, etc.). For example, Patent Document 1 describes a dimension measuring device that measures the dimensions of a load placed on a mounting surface using information from a three-dimensional camera (distance image camera).
しかしながら、上述のような寸法測定装置においては、たとえば、測定対象物が比較的分厚いもの(通常のダンボール箱等)ではなく比較的薄いもの(紙袋等)である場合等においては、測定対象物の寸法を正確に測定できないことがある。詳細には、測定対象物を載置した載置面と当該測定対象物の上面(上面端部等)との両者の高さ方向の位置の差が非常に小さい場合、測定誤差の影響等により、当該両者の高さ方向の位置の差異を用いた両者の区別を正確に行えないことがある。その場合、水平平面内にて測定対象物と測定対象物の周辺部分とを正確に分離できず、測定対象物の平面的な大きさを正確に測定できない。 However, in the above-mentioned dimension measuring device, for example, when the object to be measured is not a relatively thick object (such as a normal cardboard box) but a relatively thin object (such as a paper bag), the object to be measured is a relatively thin object. It may not be possible to measure the dimensions accurately. Specifically, if the difference in height position between the mounting surface on which the measurement object is placed and the upper surface (upper surface end, etc.) of the measurement object is very small, due to the influence of measurement error, etc. , It may not be possible to accurately distinguish between the two by using the difference in the position in the height direction of the two. In that case, the object to be measured and the peripheral portion of the object to be measured cannot be accurately separated in the horizontal plane, and the planar size of the object to be measured cannot be accurately measured.
そこで、この発明は、より多様な測定対象物の寸法を正確に測定することが可能な技術を提供することを課題とする。 Therefore, it is an object of the present invention to provide a technique capable of accurately measuring the dimensions of a wider variety of measurement objects.
上記課題を解決すべく、本発明に係る寸法測定装置は、測定対象物の表面の3次元位置情報を取得するための3次元カメラと、前記3次元カメラの視野内にて前記測定対象物の近傍領域に存在する所定面から、前記3次元カメラの視線方向において前記3次元カメラ側に所定の距離以上離間した状態で、前記測定対象物を保持する保持手段と、前記3次元位置情報に基づき前記測定対象物の寸法を算出する制御手段と、を備えることを特徴とする。 In order to solve the above problems, the dimension measuring device according to the present invention includes a three-dimensional camera for acquiring three-dimensional position information on the surface of the object to be measured, and the object to be measured within the field of view of the three-dimensional camera. Based on the holding means for holding the measurement object and the three-dimensional position information in a state of being separated from the predetermined surface existing in the vicinity region to the three-dimensional camera side by a predetermined distance or more in the line-of-sight direction of the three-dimensional camera. It is characterized by comprising a control means for calculating the dimensions of the object to be measured.
前記所定面は、所定の模様を有していてもよい。 The predetermined surface may have a predetermined pattern.
前記3次元カメラの前記視線方向と前記測定対象物の載置面の法線方向とは相対的に傾斜しており、前記保持手段は、前記載置面と前記載置面に垂直な且つ前記視線方向に対して傾斜した支持面とに前記測定対象物が接触した状態で前記測定対象物を保持してもよい。 The line-of-sight direction of the three-dimensional camera and the normal direction of the mounting surface of the measurement object are relatively inclined, and the holding means is perpendicular to the pre-described mounting surface and the pre-described mounting surface and said. The measurement object may be held in a state where the measurement object is in contact with a support surface inclined with respect to the line-of-sight direction.
前記3次元カメラは、前記測定対象物を斜め上方から撮影してもよい。 The three-dimensional camera may photograph the measurement object from diagonally above.
前記保持手段は、前記測定対象物の背面側と左側方側と右側方側とのうちの少なくとも1つに設けられ、前記測定対象物のはみ出しを防止するガイド部、を備えてもよい。 The holding means may be provided on at least one of the back side, the left side side, and the right side side of the measurement object, and may be provided with a guide portion for preventing the measurement object from protruding.
前記制御手段は、前記測定対象物の表面の点群を各射影面に射影した複数の射影画像に基づき、前記測定対象物の寸法を算出してもよい。 The control means may calculate the dimensions of the measurement object based on a plurality of projection images obtained by projecting a point cloud on the surface of the measurement object onto each projection surface.
前記寸法測定装置は、前記測定対象物の種別と前記測定対象物に関する運搬サービスの種類との少なくとも一方を入力する入力手段、をさらに備えてもよい。 The dimension measuring device may further include an input means for inputting at least one of the type of the measurement object and the type of transportation service related to the measurement object.
上記課題を解決すべく、本発明に係る寸法測定方法は、測定対象物の表面の3次元位置情報を取得するための3次元カメラを用いた寸法測定方法であって、a)前記3次元カメラの視野内にて前記測定対象物の近傍領域に存在する所定面から、前記3次元カメラの視線方向において前記3次元カメラ側に所定の距離以上離間した状態で保持された前記測定対象物を、前記3次元カメラで撮影し、前記測定対象物の表面の前記3次元位置情報を取得するステップと、b)前記3次元位置情報に基づき前記測定対象物の寸法を算出するステップと、を備えることを特徴とする。 In order to solve the above problems, the dimensional measurement method according to the present invention is a dimensional measurement method using a three-dimensional camera for acquiring three-dimensional position information on the surface of an object to be measured, and a) the three-dimensional camera. A measurement object held in a state of being separated from a predetermined surface existing in a region near the measurement object in the field of view of the three-dimensional camera by a predetermined distance or more in the line-of-sight direction of the three-dimensional camera. It includes a step of acquiring the three-dimensional position information of the surface of the measurement object by taking a picture with the three-dimensional camera, and b) a step of calculating the size of the measurement object based on the three-dimensional position information. It is characterized by.
本発明によれば、測定対象物が薄いものであっても当該測定対象物の寸法を正確に測定することが可能である。 According to the present invention, even if the object to be measured is thin, the dimensions of the object to be measured can be accurately measured.
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.第1実施形態>
<1-1.装置概要>
図1は、第1実施形態に係る寸法測定装置10(10Aとも称する)(詳細にはその一部)を示す概略外観図であり、図2は寸法測定装置10の機能ブロックを示す図である。寸法測定装置10は、測定対象物(荷物等)80の表面の3次元位置情報等に基づき、測定対象物80の寸法を算出する装置である。寸法測定装置10は、3次元寸法測定装置あるいは3次元測定装置とも称される。
<1. First Embodiment>
<1-1. Equipment overview>
FIG. 1 is a schematic external view showing a dimension measuring device 10 (also referred to as 10A) (partially a part thereof in detail) according to the first embodiment, and FIG. 2 is a diagram showing a functional block of the
図1に示されるように、寸法測定装置10は、測定対象物80を保持する保持部50と、当該保持部50に保持された測定対象物80の表面の3次元位置情報を取得するための3次元カメラ20とを備える。また、寸法測定装置10は、3次元カメラ20を用いて取得された3次元位置情報等に基づく寸法算出処理等を実行する寸法算出装置30(図2参照)をも備える。寸法算出装置30は、3次元位置情報に基づき測定対象物の寸法を算出する。さらに、寸法測定装置10は、重量計(重量測定部)40をも備えており、測定対象物80の寸法のみならず、保持部50に保持された測定対象物80の重量をも測定することが可能である。なお、後に詳述するように、保持部50は、透明部材51等を備えて構成される。
As shown in FIG. 1, the
寸法測定装置10は、たとえば、宅配センター等に配置され、顧客により持ち込まれた配送対象物等(測定対象物80)の寸法および重量等を測定する作業等に利用される。測定対象物80としては、ダンボール箱、紙袋、封筒などが例示される。このうち、特に薄い形状のもの(封筒類、および一端側が薄い紙袋等)の寸法測定においては、後述するような問題が顕著に生じ得る。
The
3次元カメラ20は、測定対象物80が保持部50に保持されている状態(たとえば、透明部材51の上面(載置面)51aに載置されている状態)において、当該測定対象物80を上方から見た撮影画像を撮影することが可能である。具体的には、3次元カメラ20は、測定対象物80の上面よりも更に上方に離間した位置において鉛直下向きに固定されている。3次元カメラ20は、カメラ固定部材27,28によって固定されている。カメラ固定部材27は、床面に固定され鉛直方向に伸延する支柱部材であり、カメラ固定部材28は、支柱部材27の最上部付近から測定対象物80の上方位置に向けて水平方向に伸延する梁(はり)部材である。3次元カメラ20は、カメラ固定部材28の先端部付近(且つ測定対象物80の上方且つ上面視中央付近)において鉛直下向きに固定されている。
The three-
なお、測定対象物が「保持される」状態は、測定対象物が把持される状態に限定されず、摩擦力の作用等によって測定対象物が透明部材51(載置面)上の特定位置に存在し続ける状態(特定位置での存在が維持される状態)等をも含むものとする。 The state in which the measurement object is "held" is not limited to the state in which the measurement object is gripped, and the measurement object is placed at a specific position on the transparent member 51 (mounting surface) due to the action of frictional force or the like. It shall also include a state in which it continues to exist (a state in which its existence at a specific position is maintained).
3次元カメラ20は、ここでは、ステレオ視方式の3次元カメラであり、詳細には、赤外光照射を伴うステレオ視方式の3次元カメラである。3次元カメラ20は、深度情報(距離情報)付き撮影画像を取得する。詳細には、3次元カメラ20は、その赤外光照射部(赤外線投射器)から赤外光(赤外線)を測定対象物80に照射して、当該測定対象物80からの反射光(赤外光)を2つの赤外線画像センサで受光して2枚の赤外光画像(撮影画像)を撮像する。そして、3次元カメラ20は、当該2枚の赤外線画像センサの視差を利用して、一の赤外線画像(撮影画像)の各画素の深度情報(奥行き距離情報)を取得する。
Here, the three-
深度情報(奥行き距離情報)の算出処理は、ここでは、3次元カメラ20内に組み込まれたコントローラ等によって実行される。当該コントローラは、コントローラ31(後述)等と同様のハードウエア構成(CPU等)を備える。ただし、これに限定されず、3次元カメラ20内部の当該コントローラではなく、3次元カメラ20外部のコントローラ31(図1)等が、2枚の撮影画像に基づいて奥行き距離情報等を算出してもよい。
The calculation process of the depth information (depth distance information) is executed here by a controller or the like incorporated in the three-
このようにして、3次元カメラ20は、被写体物体(測定対象物80である荷物等)の撮影画像(赤外光画像)を撮像するとともに、当該撮影画像内の各画素の深度情報(奥行き距離情報)を取得する。なお、撮影画像内の各画素の深度情報は、撮影画像内の各画素に対応する被写体物体までの距離(3次元カメラ20からの距離)の情報であって当該撮影画像に垂直な方向における距離の情報である。換言すれば、当該深度情報は、撮影画像平面の法線方向における距離情報(奥行き距離情報)である。
In this way, the three-
また、この3次元カメラ20は、画像センサとして、2つの赤外線画像センサのみならず1つのRGBカラー画像センサをも備えており、2枚の赤外光画像に加えて、可視光画像(カラー画像等)をも撮像する。可視光画像は、たとえば一の赤外線画像の撮影範囲に相当する範囲を撮影した画像である。可視光画像の各画素は当該一の赤外線画像の各画素に対応づけられ、可視光画像の各画素の深度情報もが取得される。なお、可視光画像として、カラー画像ではなく、グレースケール画像等が撮像されてもよい。
Further, the three-
なお、ここでは、3次元カメラ20として、赤外光(測定光)を測定対象物に照射して赤外線画像センサーで取得された2つの赤外光画像を用いるステレオ視方式の3次元カメラを例示するが、これに限定されない。たとえば、3次元カメラ20は、測定光として可視光を用いるステレオ視方式の3次元カメラであってもよい。詳細には、当該3次元カメラは、測定対象物にて反射された可視光(自然光の反射光、あるいは白色光源等からの照射光の反射光)による光像を2つのRGBカラー画像センサでそれぞれ撮像した2つのカラー画像(可視光画像)を取得する。そして、当該2つのRGBカラー画像センサの視差を利用して、一の可視光画像(撮影画像)の各画素の深度情報(奥行き距離情報)が取得される。3次元カメラ20は、このような可視光画像を用いるステレオ視方式の3次元カメラであってもよい。あるいは、3次元カメラ20は、ステレオ視方式以外の3次元カメラ、たとえば、TOF(Time of Flight)方式の3次元カメラ等、その他の任意の方式の3次元カメラであってもよい。
Here, as the three-
3次元カメラ20と寸法算出装置30とは有線接続されており、3次元カメラ20で取得された情報(撮影画像情報および深度情報等)は、所定の接続ケーブルを介して3次元カメラ20から寸法算出装置30に送信される。なお、これに限定されず、3次元カメラ20と寸法算出装置30とは無線接続されてもよい。
The
図2に示されるように、寸法算出装置30は、コントローラ(制御部とも称する)31と記憶部32と操作部35とを備える。
As shown in FIG. 2, the
コントローラ31は、寸法算出装置30に内蔵される装置であり、3次元カメラ20、重量計40、および寸法算出装置30の動作を制御する装置である。
The
コントローラ31は、1又は複数のハードウェアプロセッサ(例えば、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit))等を備えるコンピュータシステムとして構成される。コントローラ31は、CPU等において、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)32内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて寸法算出装置30にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて寸法算出装置30にインストールされるようにしてもよい。
The
コントローラ31は、測定対象物80に関する撮影画像情報および深度情報を3次元カメラ20から取得する。また、コントローラ31は、撮影画像情報および深度情報に基づき、測定対象物80の表面に関する3Dクラウドデータ(点群データ)(換言すれば、測定対象物80の表面に関する3次元位置情報)を生成(取得)する。そして、コントローラ31は、当該3次元位置情報に基づき、測定対象物80の寸法(幅、奥行き、高さ)を算出する。
The
また、コントローラ31は、重量計40によって測定された測定対象物80の重量を取得する。さらに、コントローラ31は、測定対象物80(配送対象物)を配送する際の配送料金等を算出する。
Further, the
記憶部32は、ハードディスクドライブ(HDD)あるいはソリッドステートドライブ(SSD)等の記憶装置で構成される。記憶部32は、データベース33等を有している。データベース33には、配送サービスの種類、各配送サービスにおける配送対象物のサイズ区分、および当該サイズ区分に応じた料金等が登録されている。
The
操作部35は、寸法算出装置30に対する操作入力を受け付ける操作入力部35aと、各種情報の表示出力を行う表示部35bとを備えている。たとえば、操作入力部35a(受付部とも称される)は、配送サービスの種類等の情報の入力を受け付ける。また、表示部35bは、配送対象物の寸法と重量とに関する測定結果、ならびに当該測定結果に基づいて算出された配送料金等を表示する。操作入力部35aとしてはマウス、キーボード等が用いられ、表示部35bとしてはディスプレイ(液晶ディスプレイ等)が用いられる。また、操作入力部35aの一部としても機能し且つ表示部35bの一部としても機能するタッチパネルが設けられてもよい。
The
なお、寸法算出装置30は、撮影画像等に基づく処理を実行する装置であることから、画像処理装置であるとも表現される。
Since the
<1-2.保持部50等>
図1に示されるように、保持部50は、板状の透明部材51を備えて構成される。透明部材51は、たとえば、透明のアクリル樹脂で形成された板状部材(端的に言えば、透明アクリル板)である。透明部材51は、所定値B以上(たとえば、1cm~数cm)の厚みを有する。透明部材51の上面(平面)51aには測定対象物80が載置される。当該上面51aは、測定対象物80の載置面(載置平面)であるとも表現される。測定対象物80は、透明部材51の上面51a(水平面)に載置されることによって、保持部50に保持される。
<1-2. Holding
As shown in FIG. 1, the holding
第1実施形態では、3次元カメラ20の視野内にて測定対象物80の近傍領域(図3の破線で囲まれる領域等)に存在する所定面61(視野内近傍面(後述))として、重量計40の上面42を例示する。なお、図3は、保持部50および当該保持部50に保持されている測定対象物80等を上から見た上面図である。換言すれば、図3は、測定対象物80付近をカメラ視線方向から見た図である。
In the first embodiment, as a predetermined surface 61 (near surface in the field of view (described later)) existing in a region near the object to be measured 80 (area surrounded by a broken line in FIG. 3 or the like) in the field of view of the three-
図1に示されるように、透明部材51は重量計40の上に配置される。具体的には、透明部材51は、重量計40と測定対象物80との間、詳細には、重量計40の上面42と測定対象物80の下面83との間に設けられる。これによって、図4等に示されるように、所定の距離B(たとえば、1cm~数cm)以上の間隙(光学上の間隙(測定光の光路差))が、重量計40の上面42と測定対象物80の下面83との間に生じる。換言すれば、測定対象物80は、重量計40の上面42に接していない。測定対象物80は、3次元カメラ20の視線方向において所定面61(ここでは重量計40の上面42)から3次元カメラ20側に所定の距離B以上離間した状態で、透明部材51(その上面51a)上に載置(保持)される。透明部材51は、重量計40の上面42(視野内近傍面61)と測定対象物80の下面83との間に間隙を形成するための部材であり、間隙部材とも称される。なお、図4の上段には、測定対象物80付近の縦断面(YZ平面に平行な縦断面)が示されており、図4の下段には、当該縦断面における測定対象物80の表面までの距離情報E等が示されている。
As shown in FIG. 1, the
所定面61は、3次元カメラ20の視野内(図3参照)にて測定対象物の近傍領域(隣接領域)に存在する(配置される)面であり、視野内近傍面(ないし近傍配置面)61とも称される。視野内近傍面61は、3次元カメラ20の視野内において、測定対象物80までの距離を測定するための光(赤外光あるいは可視光等)を3次元カメラ20へと向けて反射し得る位置(特に測定対象物の近傍領域)に存在する面である、とも表現される。また、視野内近傍面61は、測定対象物80までの距離を測定するための光を、上面視等における測定対象物80の近傍領域内にて3次元カメラ20へと向けて反射し得る面である、とも表現される。
The
ここで比較例(第1および第2の比較例)に係る技術について説明する。 Here, the techniques related to the comparative examples (first and second comparative examples) will be described.
図23は、第1の比較例に係る技術を示す図である。この第1の比較例では、図23の上側に示すように、(図4等と比較すると判るように)透明部材51が設けられておらず、重量計40の上面42に測定対象物80が直接載置されている。
FIG. 23 is a diagram showing a technique according to the first comparative example. In this first comparative example, as shown in the upper side of FIG. 23, the
また、図23の下側のグラフは、YZ平面に平行な縦断面における距離データ(3次元カメラ20からの距離E)を示している。当該グラフに示されるように、基本的には、測定対象物80の存在部分における距離Eは、測定対象物80の非存在部分における距離Eよりも小さい。ただし、当該グラフに示されるように、測定対象物80の近傍領域(特に測定対象物80の右外側)付近において、測定対象物80の上面右側端部における測定距離Eと重量計40の上面42における測定距離Eとの差は小さい(微差である)。また、3次元カメラ20による測距誤差(たとえば数ミリ~十数ミリ程度)が測距結果に含まれることがある。第1の比較例においては、当該近傍領域付近にて測距誤差等が存在する場合、測定対象物80の右側上面端部と重量計40の上面42とを適切に区別することが困難である。
The lower graph of FIG. 23 shows the distance data (distance E from the three-dimensional camera 20) in the vertical cross section parallel to the YZ plane. As shown in the graph, basically, the distance E in the existing portion of the
あるいは、図24に示される第2の比較例においても同様の問題が生じ得る。第2の比較例では、3次元カメラ20の視線方向に垂直な平面910であって3次元カメラ20から所定距離H0離れた平面910が、重量計40の上面42とみなされる。そして、当該平面910よりも所定程度(たとえば数mm(ミリメートル))以上上方に存在する物体が測定対象物80とみなされる。このような技術において、図24に示されるように、3次元カメラ20の視線方向が鉛直方向に対して微少角度(たとえば1度~3度)傾斜している(若干の誤差を有している)ことがある。このような場合、平面910の右側が重量計40の上面42よりも下側にまで食い込むため、上面42のうち測定対象物80の右側近傍領域を測定対象物80の一部であると誤判定することが生じ得る。すなわち、測定対象物80の上面右側端部と重量計40の上面42とを適切に区別することが困難である。
Alternatively, a similar problem may occur in the second comparative example shown in FIG. 24. In the second comparative example, the
これらの比較例における上述の問題は、3次元カメラの視線方向において、視野内近傍面61(上面42)と測定対象物80の上面82内の右側端部とが非常に近接していること(図23等参照)等に起因して生じる。
The above-mentioned problem in these comparative examples is that the near surface 61 (upper surface 42) in the field of view and the right end portion in the
一方、この実施形態では、図4に示されるように、測定対象物80は、視野内近傍面61(ここでは重量計40の上面42)から、3次元カメラ20の視線方向において3次元カメラ20側に所定の距離B以上離間した状態で、保持部50に保持されている。端的に言えば、測定対象物80は、カメラ視線方向手前側に向かって視野内近傍面61から浮いた状態で保持部50に保持されている。なお、所定の距離Bは、測距誤差の大きさ等に応じて適宜の値(たとえば、1cm~数cm(センチメートル))に定められればよい。
On the other hand, in this embodiment, as shown in FIG. 4, the
換言すれば、視野内近傍面61は、3次元カメラ20の視線方向において当該視線方向奥側に向けて測定対象物80の上面右側端部および下面83から所定の距離B以上離間した状態で、配置されている。具体的には、重量計40の上面42が、視野内近傍面61として、測定対象物80の載置面(透明部材51の上面51a)よりも更に(一定程度の距離を空けた状態で)下方に設けられている。謂わば、視野内近傍面61は、測定対象物80よりも3次元カメラ20の視線方向奥側(図4の下側)において、測定対象物80(詳細には、当該視線方向における測定対象物80の最も奥側の部分(下面83))に対して段差を有する状態で配置されている。なお、視野内近傍面61のうち、このような段差を有する状態で配置される視野内近傍面61は、段差配置面とも称される。
In other words, the in-field near
このような態様においては、重量計40の上面42(視野内近傍面61)と測定対象物80の下面83とは所定の距離B以上離間している。それ故、視野内近傍面61と測定対象物80の上面右側端部との間に一定程度以上のギャップ(測定光の光路差)を形成することが可能である(図4参照)。したがって、当該ギャップを利用して測定誤差等の影響(図23および図24参照)を抑制し、測定対象物80の上面右側端部と重量計40の上面42とを適切に区別することが可能である。たとえば、透明部材51の厚み方向中央位置を通る平面(XY平面)51pよりも上側(視線方向手前側)に存在する点群のみが、測定対象物80の上面82内の点群として判定されればよい。これによれば、たとえば値Bの半分程度の大きさまでの測定誤差等の影響(図23および図24参照)を抑制し、測定対象物80の上面82と重量計40の上面42とを適切に区別することが可能である。ひいては、測定対象物80の上面領域を正確に抽出し、測定対象物80の寸法を正確に測定することが可能である。
In such an embodiment, the
<1-3.コントローラ31等における処理等>
図5は、寸法算出装置30(詳細にはコントローラ31)等における処理を示すフローチャートである。以下、図5を参照しつつ当該処理について説明する。なお、保持部50に固定された座標系Σ2(後述)に関するキャリブレーション(透明部材51の上面51aの3次元位置等に関するキャリブレーション)は、図5の処理開始前において既に実行されている(完了している)ものとする。
<1-3. Processing in
FIG. 5 is a flowchart showing processing in the dimension calculation device 30 (specifically, the controller 31) and the like. Hereinafter, the process will be described with reference to FIG. The calibration for the coordinate system Σ2 (described later) fixed to the holding portion 50 (calibration for the three-dimensional position of the
ステップS11において、寸法算出装置30(コントローラ31)は、測定対象物80(ここでは、配送対象の荷物)の種類、および配送サービスの種類等の情報に関する操作入力(ユーザによる操作入力)を受け付ける。たとえば、一般荷物、精密機器、要冷蔵物、要冷凍物、ゴルフ用品、スキー用品などの荷物種類に関する情報、ならびに、片道配送、往復配送、冷蔵配送、冷凍配送などの配送サービス種類に関する情報が入力される。あるいは、荷物種類と配送サービス種類との一定の組み合わせに係る情報が入力されてもよい。 In step S11, the dimension calculation device 30 (controller 31) receives an operation input (operation input by the user) regarding information such as the type of the measurement object 80 (here, the package to be delivered) and the type of the delivery service. For example, enter information about luggage types such as general luggage, precision equipment, refrigerated items, frozen items, golf equipment, ski equipment, and delivery service types such as one-way delivery, round-trip delivery, refrigerated delivery, and frozen delivery. Will be done. Alternatively, information relating to a certain combination of the package type and the delivery service type may be input.
次に、ステップS12において、3次元カメラ20は、保持部50に保持された測定対象物80に関する撮影画像および深度情報を生成し、コントローラ31に受け渡す。コントローラ31は、このような撮影画像および深度情報に基づいて、測定対象物80の表面(ひょうめん)に関する3次元データ(ポイントクラウドデータ(点群データ))を生成する。換言すれば、コントローラ31は、被写体物体(測定対象物80)の各部分(各表面部分)の撮影画像内での平面位置に関する情報と当該各部分までの距離情報(奥行き情報)とに基づいて、各部分の3次元位置情報(実空間内での3次元位置情報)を取得する。
Next, in step S12, the three-
詳細には、コントローラ31は、各部分の3次元位置情報(実空間内での3次元位置情報)を、座標系Σ2で表現された情報として取得する。具体的には、コントローラ31は、カメラ座標系Σ1での位置情報(撮影画像内での平面位置および撮影画像の法線方向における奥行き位置)を、作業空間(たとえば透明部材51の上面51a)に対して固定された座標系Σ2での3次元位置情報へと変換する。カメラ座標系Σ1は、たとえば、撮影画像平面に平行な直交2軸と当該撮影画像平面に垂直な方向に伸びる1軸との直交3軸を基準とする3次元直交座標系である。また、変換後の座標系Σ2は、たとえば、透明部材51の上面51aに平行な直交2軸(XY軸)と当該直交2軸に垂直な方向(高さ方向)に伸びる1軸(Z軸)との直交3軸を基準とする3次元直交座標系である。図1および図3等においては、変換後の座標系Σ2の一例として、透明部材51の上面51aに固定されたXYZ直交座標系が示されている。
Specifically, the
このようにして、コントローラ31は、測定対象物80の各部分の3次元位置情報を取得(算出)する。具体的には、ポイントクラウドデータ(点群データ)における各微小領域(撮影画像の各画素に対応する微小部分(微小領域))の3次元位置の情報が取得される。この際、上述したように、測定対象物80の各部分と当該測定対象物80の近傍領域(測定対象物80ではない領域)とが、透明部材51の厚みによって生成された間隙(ギャップ)によって良好に区別される。これにより、測定対象物80の各部分の点群データ(換言すれば、測定対象物80の表面の3次元位置情報)が、当該測定対象物80の近傍領域の点群データから良好に区別された状態で取得される。
In this way, the
次のステップS13において、コントローラ31は、測定対象物80の表面の3次元位置情報に基づき、測定対象物80の寸法を算出する。
In the next step S13, the
具体的には、まず、コントローラ31は、測定対象物80のポイントクラウドデータ(点群データ)を射影変換した射影画像221(不図示)を生成する。射影画像221は、当該ポイントクラウドデータを透明部材51の上面51aの法線方向に沿って当該上面51a(詳細には、上面51aを含む平面)に対して平行射影した画像である。
Specifically, first, the
そして、コントローラ31は、この射影画像221に基づいて、測定対象物80の寸法のうち、上面51aに平行な2つの成分(たとえば、幅W(X方向成分)および奥行きD(Y方向成分))を算出する(図3参照)。より詳細には、たとえば、射影画像221の外接矩形が求められるとともに、当該外接矩形の大きさ(幅Wおよび奥行きD)が算出される。
Then, based on the projected
さらに、コントローラ31は、測定対象物80のポイントクラウドデータのうち、透明部材51の上面51aから最も上側に離れて存在するデータのZ方向位置を求め、当該Z方向位置と上面51aのZ方向位置との差分値を測定対象物80の高さHとして算出する。なお、これに限定されず、たとえば、当該ポイントクラウドデータのうち、上面51aからの距離が上位10%の点群が求められ、当該点群の上面51aからの距離の平均値が高さHとして算出されてもよい。上面51aは、測定対象物80のZ方向の大きさ(高さH)を決定する際の基準面として機能する。
Further, the
このようにして、測定対象物80(配送対象物)の寸法(サイズ情報)(W,D,H)が測定されて取得される。 In this way, the dimensions (size information) (W, D, H) of the measurement object 80 (delivery object) are measured and acquired.
次のステップS14において、コントローラ31は、重量計40による測定結果(測定対象物80の重量)を取得する。
In the next step S14, the
そして、ステップS15において、コントローラ31は、ステップS11で入力された種類情報等とステップS13で算出された寸法情報とステップS14で取得された重量情報とに基づき、配送サービス料金を算出する。より具体的には、データベース33内に記憶された料金情報(サービス種類および荷物種類ごとに、寸法および重量に応じて定められた料金情報)と測定対象物80の寸法および重量等に基づき、配送サービス料金が算出される。
Then, in step S15, the
さらに、ステップS16において、コントローラ31は、配送サービス種類および荷物種類、測定対象物80(配送対象物)の寸法情報(W,H,D)および重量、ならびに配送サービス料金等を表示部35bに表示する。
Further, in step S16, the
以上のような処理が寸法測定装置10において行われる。これによれば、上述したように、測定対象物80が、紙袋あるいは封筒等のような薄いものであっても、当該測定対象物80の寸法を正確に測定することが可能である。換言すれば、より多様な測定対象物の寸法を正確に測定することが可能である。
The above processing is performed in the
<1-4.変形例等>
上記第1実施形態では、視野内近傍面61として、重量計40の上面42を例示した。この上面42には、所定の模様(ランダムドットあるいはランダム模様(図7参照))が施されてもよい。当該模様が施された面は、模様面61aとも称される。なお、図7は、保持部50および当該保持部50に保持されている測定対象物80等を上から見た図(上面図)である。
<1-4. Modification example>
In the first embodiment, the
ここにおいて、仮に視野内近傍面61が無模様である場合、ステレオ視方式の3次元カメラ20では、視野内近傍面61のステレオ画像相互間での各画素の対応関係が不正確になり、当該無模様の部分の3次元位置の測定が不安定になることがある。
Here, if the in-field near-
これに対して、視野内近傍面61(模様面61a)に所定の模様が施されることによれば、ステレオ画像相互間での各画素の対応関係がより正確になり、視野内近傍面61(模様面61a)までの奥行き距離をより正確に取得することが可能である。それ故、測定対象物80までの奥行き距離と模様面61aまでの奥行き距離とが明確に互いに異なる状態で取得され、模様面61aと測定対象物80の上面82とをより適切に分離することが可能である。ひいては、測定対象物80の寸法を更に正確に測定することが可能である。なお、図7では、外観の意匠性を考慮した大理石調の模様が例示されているが、これに限定されず、木目調の模様、あるいはランダムドット模様等であってもよい。
On the other hand, when a predetermined pattern is applied to the near-field surface 61 (
あるいは、視野内近傍面61は、透明部材51の下面51b(図1)であってもよい。たとえば、透明部材51の下面51bに所定の模様が施されてもよい。換言すれば、透明部材51の下面51bが模様面61aであってもよい。
Alternatively, the near-viewing
あるいは、図6に示されるように、重量計40の上面42と透明部材51の下面51bとの間に配置された板状部材54(図6参照)(あるいは膜状部材(シート))の上面が、視野内近傍面61であってもよい。たとえば、当該板状部材54の上面等に所定の模様が施されてもよい。換言すれば、板状部材54の上面等が模様面61aであってもよい。
Alternatively, as shown in FIG. 6, the upper surface of the plate-shaped member 54 (see FIG. 6) (or the film-like member (sheet)) arranged between the
<2.第2実施形態>
第2実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The second embodiment is a modification of the first embodiment. Hereinafter, the differences from the first embodiment will be mainly described.
上記第1実施形態においては、3次元カメラ20の視線方向と測定対象物80の載置面(透明部材51の上面51a)とが垂直、換言すれば、3次元カメラ20の視線方向と測定対象物80の載置面(透明部材51の上面51a)の法線方向とが平行である。その結果、基本的には、当該載置面に載置された測定対象物80の上面82の3次元位置情報(ポイントクラウドデータ)が取得される。換言すれば、測定対象物80(たとえば略直方体形状の測定対象物80)の4つの側面84c~84f(図8および図9参照)および下面83(底面)の表面の3次元位置情報(ポイントクラウドデータ)は取得されない。
In the first embodiment, the line-of-sight direction of the three-
一方、この第2実施形態においては、図8に示されるように、3次元カメラ20の視線方向と測定対象物80の載置面(透明部材71の上面71a)の法線方向とが相対的に傾斜している構成について例示する。このような構成においては、測定対象物80の上面82の点群の3次元位置情報のみならず、測定対象物80の4つの側面84c~84fのうちの一の側面84c(図9も参照)の点群の3次元位置情報もが、3次元カメラ20等によって取得される。そして、測定対象物80に関する2つの面82,84cの3次元位置情報に基づき、測定対象物80の寸法が測定される。このような態様によれば、異なる2つの方向からの異なる2つの射影画像を生成すること等が可能であり、より正確に寸法を測定することが可能である。
On the other hand, in the second embodiment, as shown in FIG. 8, the line-of-sight direction of the three-
なお、図8は、第2実施形態に係る寸法測定装置10(10Bとも称する)を示す側面図である。また、図9は、第2実施形態に係る3次元カメラ20(20B)から見た測定対象物80付近の様子を示す図である。第2実施形態でも保持部50(50B)に固定されたXYZ直交座標系(Σ2)が採用されるものとする。ただし、図8に示されるように、第2実施形態におけるXYZ直交座標系(Σ2)は、第1実施形態におけるXYZ直交座標系(Σ2)をX軸周りに(反時計回りに)回転した座標系である。図8等においては、座標系Σ2におけるX軸、Y軸およびZ軸の各方向を示すことに主眼を置いて図示しており、座標系Σ2の原点位置は正確ではない。座標系Σ2の原点は適宜の位置に設けられればよい。
Note that FIG. 8 is a side view showing the dimension measuring device 10 (also referred to as 10B) according to the second embodiment. Further, FIG. 9 is a diagram showing a state in the vicinity of the
第2実施形態における3次元カメラ20の視線方向は、鉛直方向に対して(図8の時計回りに)所定程度(たとえば15度)傾いている。具体的には、3次元カメラ20は、測定対象物80よりも上方(詳細には、測定対象物80の斜め上方)の位置に取り付けられている。より具体的には、3次元カメラ20は、図8の斜め右上から、斜め左下の測定対象物80を撮影するように配置されている。
The line-of-sight direction of the three-
また、第2実施形態の寸法測定装置10Bの保持部50(50Bとも称する)は、透明部材71,72を備えている。透明部材71,72は、それぞれ第1実施形態に係る透明部材51と同様の部材である。透明部材71の上面71aは、測定対象物80が載置される面であることから、測定対象物80の載置面とも表現される。
Further, the holding portion 50 (also referred to as 50B) of the
透明部材71は、水平面に対してX軸周りに(図8では反時計回りに)所定角度傾斜した状態で配置されている。換言すれば、透明部材71の上面71a(測定対象物80の載置面)の法線方向は、鉛直方向に対してX軸周りに(図8では反時計回りに)所定角度傾斜した状態で配置されている。具体的には、図8等に示されるように、重量計40の上面42(水平面)には傾斜台75が固定されており、傾斜台75は、X軸周りに所定角度(たとえば10度)傾斜した上面(傾斜上面)を有している。そして、透明部材71は、傾斜台75の上面に固定されている。
The
このように第2実施形態では、3次元カメラ20の視線方向が鉛直方向に対して傾斜することによって、3次元カメラ20の視線方向と測定対象物80の載置面の法線方向とが相対的に傾斜している。さらに、透明部材71の上面71a(測定対象物80の載置面)の法線方向が鉛直方向に対して傾斜することによって、3次元カメラ20の視線方向と測定対象物80の載置面の法線方向との相対角度(傾斜角度)が大きくなるように構成されている。換言すれば、3次元カメラ20の視線方向と測定対象物80の載置面(透明部材71の上面71a)の法線方向との双方が鉛直方向に対して傾斜することによって、3次元カメラ20の視線方向と測定対象物80の載置面の法線方向とが相対的に傾斜している。ただし、これに限定されず、たとえば、3次元カメラ20の視線方向と測定対象物80の載置面の法線方向とのうちの一方のみが鉛直方向に対して傾斜してもよい。
As described above, in the second embodiment, the line-of-sight direction of the three-
また、透明部材72は、略矩形形状の透明部材71(詳細にはその上面71a)に対して垂直に設けられており、2つの透明部材71,72等は、断面L字型の保持部50Bを構成している。透明部材72は、図9にも示すように、ユーザが保持部50B(透明部材71等)にアクセスする方向(図8の右側)(およびカメラ視線方向)から見て、測定対象物80の背面側(透明部材71の奥側)(-Y側)に設けられている。
Further, the
操作ユーザは、水平面に対して傾斜した上面71aに沿って測定対象物80を透明部材72側に移動し、測定対象物80の背面(図9にて奥側の面(図8にて左側の面))が透明部材72の表面(支持面)72aに接するように測定対象物80を配置する。測定対象物80の背面側の支持面72aは、透明部材71に対して垂直に起立した面(上面71aに垂直な面)であり、透明部材72の起立面72a等とも称される。また、重力(詳細には、重力のうち透明部材72の起立面72aの法線方向における分力)も作用することによって、測定対象物80は、透明部材72に押しつけられた状態で保持部50Bに保持されている。
The operating user moves the
また、測定対象物80の下面(底面)83は、透明部材71の上面71a(測定対象物80の載置面)に接している。詳細には、測定対象物80は、重力の作用等によって、透明部材71に押しつけられた状態で保持部50Bに保持されている。
Further, the lower surface (bottom surface) 83 of the
第2実施形態においても第1実施形態と同様の処理(図5参照)が行われる。たとえば、ステップS12の処理等によって、測定対象物80の各部分の点群データ(換言すれば、測定対象物80の表面の3次元位置情報)が、当該測定対象物80の近傍領域の点群データから良好に区別された状態で取得される。端的に言えば、測定対象物80の表面の3次元位置情報が良好に取得される。なお、座標系Σ2のキャリブレーション(換言すれば、透明部材71の上面71aの3次元位置と透明部材72の起立面72aの3次元位置とに関するキャリブレーション)は、図5の処理開始前において既に実行されているものとする。
In the second embodiment, the same processing as in the first embodiment (see FIG. 5) is performed. For example, by the processing of step S12 or the like, the point cloud data of each part of the measurement object 80 (in other words, the three-dimensional position information of the surface of the measurement object 80) is the point cloud in the vicinity region of the
ただし、ステップS13においては、第1実施形態とは若干異なる処理が実行される。 However, in step S13, a process slightly different from that of the first embodiment is executed.
上記第1実施形態では、常に射影画像221が利用されて、測定対象物80の寸法情報(W,H,D)が算出されている。射影画像221は、測定対象物80の表面のポイントクラウドデータ(点群)を測定対象物80の載置面(詳細には、透明部材51の上面51aの延長面)に対して平行射影した射影画像である。
In the first embodiment, the projected
これに対して、第2実施形態では、状況に応じて射影画像222が利用される。射影画像222は、当該ポイントクラウドデータを測定対象物80の背面側の保持面(透明部材72の起立面72a)(詳細にはその延長面)の法線方向に沿って当該保持面(射影面)に対して平行射影した射影画像である。なお、射影画像221はXY平面への射影画像であり、射影画像222はXZ平面への射影画像である、とも表現される。
On the other hand, in the second embodiment, the projected
まず、図15に示すような状況、具体的には、取っ手付きの紙袋が測定対象物80(配送対象物)であり、当該紙袋が透明部材71の上面71aに横たえられて載置される状況を想定する。ここでは、紙袋の配送料金は、取っ手部分を除外した紙袋本体の寸法に基づいて算出され、取っ手部分を除外して紙袋本体の寸法を測定することを要するものとする。このような状況においては、(XY平面への)射影画像221の利用が有用である。
First, the situation as shown in FIG. 15, specifically, the situation where the paper bag with the handle is the measurement object 80 (delivery object), and the paper bag is laid down on the
図16は、射影画像221の一例を示す図である。図16においては、紙袋(測定対象物80)の表面を示す点の集合が白色で示されており、それ以外の部分(測定対象物80の表面上の点が存在しない部分)は黒色で示されている。
FIG. 16 is a diagram showing an example of the projected
図16における射影画像221のうち、左側付近には取っ手部分に対応する領域が存在する。当該取っ手部分に対応する領域は、射影画像221から適宜の画像処理によって比較的容易に除去される。たとえば、任意の方向における所定幅(たとえば3cm相当)未満の連続画素群を削除する画像処理等が行われることによって、細い幅の領域(取っ手およびノイズ等)が除去される。この結果、射影画像221は、図17のような画像に修正される。この場合、図17の射影画像221に基づいて、測定対象物80のX方向の長さ(幅W)およびY方向の長さ(奥行きD)が良好に算出される。
In the projected
一方、図11に示すような状況、具体的には、取っ手付きの紙袋(80C)が透明部材72の起立面72aに立てかけられて載置される状況においては、図12のような射影画像221が取得される。
On the other hand, in the situation shown in FIG. 11, specifically, in the situation where the paper bag (80C) with the handle is placed against the
しかしながら、射影画像221に基づいて測定対象物80のX方向の長さ(幅W)およびY方向の長さ(奥行きD)が算出される場合、測定対象物80に関して取っ手部分を除去した後のZ方向の長さ(高さH)を正確に算出することは容易ではない。たとえば、第1実施形態と同様の手法で高さHを算出すると、当該高さHに取っ手部分の高さが含まれてしまう。また、射影画像221には取っ手部分が現れていないので、射影画像221のみを利用しても、紙袋本体の上部からさらに上方に突出している取っ手部分の高さを正確に除去することはできない。
However, when the length (width W) in the X direction and the length (depth D) in the Y direction of the
そこで、この第2実施形態では、別の射影画像222(図13参照)を利用する。射影画像222は、測定対象物80のポイントクラウドデータを測定対象物80の背面側の支持面72a(図11参照)(を含む射影平面72f(図10))に平行射影した画像である。図13に示されるように、射影画像221とは異なる射影平面に射影された射影画像222には、取っ手が現れている。
Therefore, in this second embodiment, another projected image 222 (see FIG. 13) is used. The projected
当該取っ手部分に対応する領域は、射影画像222から適宜の画像処理によって除去される。たとえば、任意の方向における所定幅(たとえば3cm相当)未満の連続画素群を削除する画像処理等が行われることによって、細い幅の領域(取っ手およびノイズ等)が除去される。この結果、図13の射影画像222は、図14のような射影画像222に修正される。この場合、図14の射影画像222に基づいて、測定対象物80のX方向の長さ(幅W)およびZ方向の長さ(高さH)が良好に算出される。
The region corresponding to the handle portion is removed from the projected
なお、一般的には、紙袋の把持部(取っ手)は、測定対象物の寸法のうち最も大きな寸法の方向に突出するように取り付けられている。以下では、そのような性質を考慮して、適切な射影方向(射影画像)が利用される態様について、さらに詳細に説明する。 In general, the grip portion (handle) of the paper bag is attached so as to project in the direction of the largest dimension of the dimensions of the object to be measured. In the following, a mode in which an appropriate projection direction (projection image) is used in consideration of such a property will be described in more detail.
まず、第1実施形態と同様に、XY平面への射影画像221を利用して測定対象物80の寸法の3成分(W,D,H)が暫定的に算出される。
First, as in the first embodiment, the three components (W, D, H) of the dimensions of the object to be measured 80 are tentatively calculated using the projected
詳細には、測定対象物80の表面の三次元位置情報に基づきXY平面への射影画像221が生成される。そして、当該射影画像221に基づいて、測定対象物80のX方向の長さ(幅W)およびY方向の長さ(奥行きD)が算出される。換言すれば、測定対象物80の寸法のうち、透明部材71の上面71aに平行な成分(奥行きD(Y方向長さ)および幅W(X方向長さ))が算出される。この際、取っ手部分の存在可能性を考慮して、上述のような画像処理が施される。また、測定対象物80のZ方向の長さ(高さH)は、次のようにして算出される。たとえば、測定対象物80のポイントクラウドデータのうち、透明部材71の上面71aからの距離が上位10%の点群が求められ、当該点群に関する上面71aからの距離の平均値が高さHとして算出される。
Specifically, the projected
そして、算出された3成分のうちの最大成分がW,D,Hのいずれであるかに応じて追加処理を行うべきか否かが判定される。 Then, it is determined whether or not the additional processing should be performed according to which of W, D, and H is the maximum component among the calculated three components.
測定対象物80の寸法の3成分(W,D,H)のうち幅Wあるいは奥行きDが最も大きい場合(図15参照)には、XY平面への射影画像221を用いて算出された値W,D,Hが、寸法算出装置30の寸法として確定される。
When the width W or the depth D is the largest among the three components (W, D, H) of the dimensions of the object to be measured 80 (see FIG. 15), the value W calculated using the projected
一方、測定対象物80の寸法の3成分(W,D,H)のうち高さH(Z方向成分)が最も大きい場合(図10および図11参照)には、XZ平面への射影画像222を用いた追加処理が行われる。
On the other hand, when the height H (Z direction component) is the largest among the three components (W, D, H) of the dimensions of the object to be measured 80 (see FIGS. 10 and 11), the projected
この追加処理においては、測定対象物80の表面の三次元位置情報に基づきXZ平面への射影画像222が生成される。そして、射影画像222に基づいて、測定対象物80のX方向の長さ(幅W)およびZ方向の長さ(高さH)が算出される。換言すれば、射影画像222に基づいて、測定対象物80の寸法のうち、透明部材72の起立面72aに平行な成分(高さH(Z方向長さ)および幅W(X方向長さ))が算出される。この際、取っ手部分の存在可能性を考慮して、上述のような画像処理が施される。また、測定対象物80のY方向の長さ(奥行きD)は、次のようにして算出される。たとえば、ポイントクラウドデータのうち、透明部材72の起立面72aからの距離が上位10%の点群が求められ、当該点群に関する起立面72aからの距離の平均値が奥行きDとして算出される。起立面(支持面)72aおよびその延長面72fは、測定対象物80のY方向の大きさ(奥行きD)を決定する際の基準面として機能する。
In this additional process, a projected
そして、XZ平面への射影画像222を用いて算出された値W,D,Hが、寸法算出装置30の寸法として確定される。
Then, the values W, D, and H calculated using the projected
このように、測定対象物80の表面の点群(3次元位置を有する)を複数(ここでは2つ)の射影面にそれぞれ射影した複数の射影画像(ここでは2つの射影画像221,222)に基づき、測定対象物80の寸法が算出される。詳細には、射影画像221を用いて暫定的な寸法が暫定的に算出され、当該暫定的な寸法の3成分のうち最も大きな成分が高さHである場合にのみ、追加処理(射影画像222を用いた寸法算出処理)が実行される。
In this way, a plurality of projected images (here, two projected
<第2実施形態の効果等>
上記第2実施形態における透明部材71は、(測定対象物80を)視野内近傍面61から、3次元カメラ20の視線方向29において3次元カメラ20側に所定の距離B(ここではB2)以上離間した状態で、測定対象物80を保持している(図8参照)。なお、視野内近傍面61(透明部材71の下面、あるいは、傾斜台75の上面等)は、3次元カメラ20の視野内にて測定対象物80の近傍領域(特に前面84cの下端に隣接する領域)に存在する面である(図9参照)。
<Effects of the second embodiment, etc.>
The
また、透明部材72は、(測定対象物80を)視野内近傍面62(次述)から、3次元カメラ20の視線方向29において3次元カメラ側に所定の距離B(ここではB2)以上離間した状態で、測定対象物80を保持している(図8参照)。なお、視野内近傍面62(透明部材72の背面(-Y側の面))は、3次元カメラ20の視野内にて測定対象物80の近傍領域(特に上面82の奥側端に隣接する領域)に存在する(配置される)面である(図9等も参照)。このような視野内近傍面62が、3次元カメラ20の視線方向29において当該視線方向奥側に向けて測定対象物80の背面84dから所定の距離B2以上離間した状態で、配置されている。
Further, the
このような構成においては、測定対象物80の2つの面(前面(手前側側面)84cおよび上面82)は、それぞれの周辺(近傍)の背景面(視野内近傍面61および/または62)よりもカメラ側に浮き上がっている。特に、前面84cの下端は、当該下端の周辺領域(近傍領域)に存在する視野内近傍面61から、カメラ側に一定程度以上離間している。また、上面82の奥側端は、当該奥側端の周辺の近傍領域に存在する視野内近傍面62から、カメラ視線方向手前側に一定程度以上離間している。
In such a configuration, the two surfaces (front surface (front side surface) 84c and upper surface 82) of the object to be measured 80 are from the background surfaces (near surfaces 61 and / or 62 in the field of view) of their respective periphery (nearby). Is also floating on the camera side. In particular, the lower end of the
そして、このような状態で透明部材71,72によって保持された測定対象物80の表面の3次元位置情報が、3次元カメラ20の撮影画像および距離情報等に基づいて取得される。それ故、測定対象物80の2つの面(前面84cおよび上面82)の表面の3次元位置情報は、それぞれの周辺の背景面(視野内近傍面61および/または62)から良好に分離された状態で取得される。具体的には、前面84cの点群データと測定対象物80の上面82の点群データとの双方が、カメラ視野内における測定対象物80の近傍領域の点群データから良好に区別された状態で取得される。より具体的には、測定対象物80の前面84cの点群データは、視野内近傍面61の点群データ等から良好に区別され、測定対象物80の上面82の点群データは、視野内近傍面62の点群データ等から良好に区別される。
Then, the three-dimensional position information of the surface of the
端的に言えば、カメラ視線方向29において、測定対象物80の2つの面(前面84cおよび上面82)がそれぞれの周辺の背景(視野内近傍面61,62)よりも手前側に浮き上がっているので、当該2つの面の3次元位置情報を正確に取得することが可能である。
In short, in the camera line-of-
ここにおいて、図8に示されるように、視野内近傍面61,62は、カメラ視線方向29において測定対象物80よりも奥側に距離B2以上離間して配置される。このような配置によって、カメラ視野内においてカメラ視野内の中央位置(センター位置)から離れた周辺位置でも、測定対象物80が手前側に浮いた状態が実現される。具体的には、測定対象物80は、カメラ視線方向29に対して傾斜角度θを有する方向(二点鎖線で示す)において、視野内近傍面61,62から一定程度(たとえば、第1実施形態の距離B(B1))以上カメラ手前側に離間した状態を有している。逆に言えば、第2実施形態に係る距離B(B2)は、このような状態を実現できるような値(たとえば、上記第1実施形態の距離B(B1)よりも大きな値)であることが好ましい。
Here, as shown in FIG. 8, the in-field neighborhood surfaces 61 and 62 are arranged at a distance B2 or more behind the
なお、透明部材72は、Z方向において必ずしも測定対象物80よりも大きい(高い)ことを要しない。図10等に示されるように、透明部材72は、測定対象物80の高さよりも低く(短く)てもよい。詳細には、測定対象物80の上部付近においては、透明部材72が存在せず、(背後の)支柱部材27および居室内の壁面(不図示)等が視野内近傍面(カメラ視野内において測定対象物80の近傍領域に存在する面)として存在する。ただし、支柱部材27および居室内の壁面等は、測定対象物80の上部付近の背後側(図10の左側)(カメラ視線方向奥側)の空間79(カメラ視線方向にて距離B2に亘る空間)の更に背後側(奥側)に存在する。すなわち、測定対象物80は、カメラ視野内において測定対象物80の近傍領域に存在する視野内近傍面(面61,62、支柱部材27の表面、および壁面等)から、カメラ視線方向29においてカメラ側に所定の距離B2以上離間した状態で保持されている。測定対象物80は、このような状態で保持されてもよい。
The
また、上記第2実施形態においては、3次元カメラ20の視線方向29と測定対象物80の載置面(透明部材71の上面71a)の法線方向との両方向は相対的に傾斜している。より詳細には、当該両方向は、(X軸周りの相対回転角度(傾斜角度)を有する状態で)YZ平面内において相対的に傾斜している。これにより、3次元カメラ20は、測定対象物80の上面82のみならず測定対象物80の他の面(たとえば前面84c)の3次元位置情報(点群データ)をも取得することが可能である。すなわち、測定対象物80の複数の面(ここでは2面)の3次元位置情報を同時に測定することが可能である。換言すれば、1つの方向からの1台の3次元カメラ20(最小台数の3次元カメラ20)によって、測定対象物80の2つの面(上面82および前面84c)(図9参照)の表面の3次元位置情報が取得され得る。
Further, in the second embodiment, both the line-of-
さらに、上記第2実施形態においては、測定対象物80が、透明部材71の上面71aに接触して支持(載置)されるとともに透明部材72の起立面72aにも接触して支持されている。換言すれば、保持部50Bは、測定対象物80の載置面(上面71a)と当該載置面に垂直な起立面72aとに対して測定対象物80が接触した状態で測定対象物80を保持する。なお、上面71aおよび起立面72aは、それぞれ、測定対象物80を支持(ないしガイド)する支持面(ないしガイド面)とも表現される。また、上面71aおよび起立面72aも、それぞれ、3次元カメラ20の視線方向に対して傾斜している。
Further, in the second embodiment, the
また、上述のように、測定対象物80のうちの6つの面のうち2つの面(具体的には、上面71aに対向する上面82、および起立面72aに対向する前面84c)の点群データが取得されている。一方、測定対象物80のうちの6つの面のうち当該2つの面82,84cに対向する面(すなわち、下面83および背面84d)の点群データは取得されていない。ただし、測定対象物80の下面83は上面71aに接触して支持され、測定対象物80の背面84dは起立面72aに接触して支持されている。また、上面71aおよび起立面72aの3次元位置は、キャリブレーションによって予め取得されている。
Further, as described above, the point cloud data of two of the six surfaces of the object to be measured 80 (specifically, the
それ故、たとえば、測定対象物80の上面82のZ方向位置と透明部材71の上面71aのZ方向位置との差分値として高さHが正確に求められる。また、測定対象物80の前面84cのY方向位置と透明部材72の起立面72aのY方向位置との差分値として奥行きDが正確に求められる。なお、上面71aは、Z方向のサイズを測定するための基準面などとも表現され、起立面72aは、Y方向のサイズを測定するための基準面であるとも表現される。
Therefore, for example, the height H can be accurately obtained as a difference value between the Z-direction position of the
ここにおいて、測定対象物80の背面側に設けられた透明部材72(起立面72a)は、測定対象物80が起立面72aから-Y方向に「はみ出す」こと(測定対象物80のはみ出し)を防止するガイド部(面状ガイド部材)として機能している。同様に、測定対象物80の下面(底面)側に設けられた透明部材71(上面71a)は、測定対象物80が上面71aから-Z方向へ「はみ出す」ことを防止するガイド部として機能している。
Here, the transparent member 72 (
このように、測定対象物80が透明部材72(測定対象物80の背面の支持部材)等を超えてはみ出すことが防止される。したがって、測定対象物80の膨張部分(理想的な直方体形状に対する膨張部分)、たとえば測定対象物80の背面84dから更に背後側に突出した膨張部分(凸状部分)がカメラの死角に存在する場合であっても、当該膨張部分を含む寸法をより正確に測定することが可能である。
In this way, the
また、上記第2実施形態においては、重力が作用すること等によって、透明部材71および透明部材72は、いずれも水平面に対して傾斜している。これによれば、測定対象物80は、透明部材71と透明部材72とに押しつけられた状態で保持部50Bに保持されている。したがって、測定対象物80の高さHと奥行きDとを正確に測定することが可能である。
Further, in the second embodiment, both the
また、上述のように、取っ手部を有する紙袋が図10のように配置された場合であっても、射影画像222等を用いることによって、当該取っ手部を除外した高さH(紙袋本体の高さH)をより正確に測定することが可能である。
Further, as described above, even when the paper bag having the handle portion is arranged as shown in FIG. 10, by using the projected
なお、上記においては、測定対象物80の寸法算出にあたって、射影画像222は必要に応じて用いられているが、これに限定されず、射影画像221,222の双方が常に利用されてもよい。たとえば、射影画像221に基づいて測定対象物80の幅Wおよび奥行きDが算出されるとともに、射影画像222に基づいて測定対象物80の高さHが算出されてもよい。あるいは、射影画像221に基づいて測定対象物80の奥行きDが算出されるとともに、射影画像222に基づいて測定対象物80の幅Wおよび高さHが算出されてもよい。
In the above, the projected
あるいは、測定対象物80の幅Wのみが射影画像221あるいは射影画像222を用いて算出され、測定対象物80の奥行きDおよび高さHは射影画像を用いずに算出されてもよい。たとえば、測定対象物80のポイントクラウドデータのうち、透明部材72の起立面72aからの距離が上位10%の点群(測定対象物80の手前側側面(前面)84cの点群に相当)が求められ、当該点群に関する起立面72aからの距離の平均値が測定対象物80の奥行きDとして算出されてもよい。同様に、測定対象物80のポイントクラウドデータのうち、透明部材71の上面71aからの距離が上位10%(所定割合)の点群(測定対象物80の上面82の点群に相当)が求められ、当該点群に関する上面71aからの距離の平均値が測定対象物80の高さHとして算出されてもよい。このようにして、測定対象物80に関する2つの面(82,84c)の3次元位置情報に基づき、測定対象物80の寸法が測定されてもよい。
Alternatively, only the width W of the
ただし、上記第2実施形態のように射影画像221,222を用いることによれば、紙袋の取っ手部分を除外した紙袋本体の寸法を良好に測定することが可能である。
However, by using the projected
また、上記第2実施形態において、視野内近傍面61,62は、模様が施された面(模様面)等として構成されてもよい。 Further, in the second embodiment, the in-field neighborhood surfaces 61 and 62 may be configured as a patterned surface (patterned surface) or the like.
また、上記第2実施形態においては、2つの透明部材71,72が設けられているが、これに限定されない。たとえば、2つの透明部材71,72のうち透明部材71のみが設けられ、透明部材72の位置にはいずれの部材も設けられなくてもよい。
Further, in the second embodiment, the two
また、視野内近傍面(61,62等)は、必ずしも測定対象物80の全周囲に亘って存在することを要しない。たとえば、測定対象物80の全周囲の一部(たとえば上方部分)には視野内近傍面が存在しなくてもよい。
Further, the near surface in the visual field (61, 62, etc.) does not necessarily have to exist over the entire circumference of the
<3.他の変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<3. Other variants>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.
<3つの支持面等>
たとえば、上記第2実施形態では、測定対象物80の下面83および奥側側面(背面)84dをそれぞれ支持する透明部材71(上面71a)および透明部材72(起立面72a)が設けられている(図8および図9等参照)が、これに限定されない。図18に示されるように、保持部50は、測定対象物80の右側面84fを支持(ガイド)する透明部材74(起立面74a)を更に有してもよい。すなわち、透明部材71の上面71aと透明部材72の起立面72aとの2面のみならず更に透明部材74の起立面74aをも加えた3面で測定対象物80が支持されてもよい。なお、透明部材74は、透明部材72と同様に、透明部材71に対して垂直に起立する板状部材である。ただし、透明部材74は、透明部材72とは異なり、透明部材71の右側(-X側)において、YZ平面に平行に設けられる。換言すれば、透明部材74は、測定対象物80の右側方側に設けられ、起立面74aからの測定対象物80のはみ出しを防止するガイド部である。
<Three support surfaces, etc.>
For example, in the second embodiment, the transparent member 71 (
透明部材74は、(測定対象物80を)視野内近傍面64(次述)から、3次元カメラ20の視線方向29において3次元カメラ側に所定の距離B(ここではB2)以上離間した状態で、測定対象物80を保持することが好ましい。なお、視野内近傍面64(透明部材74の右側面(-X側の面))は、3次元カメラ20の視野内にて測定対象物80の近傍領域(特に上面82の右端に隣接する領域)に存在する(配置される)面である。このような視野内近傍面64が、3次元カメラ20の視線方向29において当該視線方向奥側に向けて測定対象物80の右側面84fから所定の距離B2以上離間した状態で、配置されることが好ましい。視野内近傍面64は、模様が施された面(模様面)等として構成されてもよい。
The
また、図19に示されるように、これらの3つの透明部材71,72,74は、Y軸周りにも回転(図18において時計回りに)されて配置されてもよい。換言すれば、透明部材71が水平に配置された状態から、これらの透明部材71,72,74が、X,Y,Z軸のうちの2軸周りに回転されてもよい。これによれば、3次元カメラ20は、測定対象物80の3面(上面82、前面84c、左側面84e)を撮影することが可能である。また、これに加えて或いはこれに代えて、3次元カメラ20が、測定対象物80の斜め上方(詳細には、左手前斜め上方)に配置され、右奥斜め下方の測定対象物80を(左手前斜め上方から)撮影してもよい。このような配置においては、起立面74aも、3次元カメラ20の視線方向に対して傾斜している。
Further, as shown in FIG. 19, these three
また、図18あるいは図19のような態様において、透明部材74等に代えて、測定対象物80の左側面84eを支持(ガイド)する透明部材73(および起立面73a)(不図示)等が設けられてもよい。透明部材73は、透明部材74と同様の部材である。ただし、透明部材73は、透明部材74とは異なり、透明部材71の左側(+X側)に(換言すれば、測定対象物80の左側方側に)設けられる。
Further, in the embodiment shown in FIG. 18 or 19, instead of the
図18あるいは図19のような態様において透明部材73等が設けられる場合には、Y軸周りの回転方向、および3次元カメラ20と測定対象物80との相対位置関係等は左右逆転されればよい。
When the transparent member 73 or the like is provided in the manner shown in FIG. 18 or FIG. 19, if the rotation direction around the Y axis and the relative positional relationship between the three-
また、透明部材73(あるいは透明部材74)が用いられる態様においては、射影画像223(あるいは射影画像224)が用いられてもよい。射影画像223は、測定対象物80のポイントクラウドデータを測定対象物80の左側の起立面73a(を含む射影平面)に平行射影した画像である。射影画像224は、測定対象物80のポイントクラウドデータを測定対象物80の右側の支持面74a(を含む射影平面)に平行射影した画像である。
Further, in the embodiment in which the transparent member 73 (or the transparent member 74) is used, the projected image 223 (or the projected image 224) may be used. The projected image 223 is an image in which the point cloud data of the
また、上記各実施形態等では、模様面61aが透明部材51(,71)の上面に対して平行に設けられているが、これに限定されない。模様面61aは透明部材51(,71)の上面に対して傾斜して設けられてもよい。たとえば、傾斜台75(図8参照)もが透明材料で構成されるとともに、傾斜台75の底部において重量計40の上面に対して平行な模様面61aが設けられてもよい。
Further, in each of the above embodiments, the
また、上記第2実施形態等においては、3次元カメラ20の視線方向と透明部材71の上面71a(測定対象物80の載置面)の法線方向とが相対的に傾斜した状態で、透明部材72等が更に設けられているが、これに限定されない。たとえば、3次元カメラ20の視線方向が透明部材71の上面71a(測定対象物80の載置面)の法線方向に対して平行であり、且つ、透明部材72~74(支持面72a~74a)のうちの2つ以上が設けられてもよい。
Further, in the second embodiment or the like, the three-
<周辺領域除去>
3次元カメラ20は、2枚の赤外光画像に加えてカラー画像をも撮影する。測定対象物80の表面の各点(3次元位置情報を有する)に対して当該カラー画像(可視光画像)内の対応点のテクスチャ情報(色情報)を割り当てることによって、カラー画像の3次元モデルが生成される。
<Removal of peripheral area>
The three-
そして、この3次元モデル(カラーモデル)をXY平面に平行射影することによって、カラー情報を有する射影画像(カラー射影画像)241(図20上段参照)が生成される。この射影画像241は、射影画像221内の各点に対して色情報が付与された画像に相当する。また、同様に、当該3次元モデル(カラーモデル)をXZ平面に平行射影することによって、カラー情報を有する射影画像242(不図示)が生成される。この射影画像242は、射影画像222内の各点に対して色情報(濃淡情報)が付与された画像に相当する。同様に、射影画像223,224に対応する射影画像243,244も生成され得る。なお、これに限定されず、射影画像241~244は、色情報を有するカラー画像ではなく、濃淡情報を有するグレースケール画像(濃淡画像)として生成されてもよい。
Then, by projecting the three-dimensional model (color model) in parallel on the XY plane, a projected image (color projected image) 241 having color information (see the upper part of FIG. 20) is generated. The projected
このような射影画像241を用いて、測定対象物80の寸法(たとえば、W,D)が算出されてもよい。同様に、射影画像242を用いて、測定対象物80の寸法(たとえば、W,H)が算出されてもよい。以下では、射影画像241を利用した寸法算出処理について主に説明するが、他の射影画像242(,243,244)を利用した寸法算出処理についても同様である。
The dimensions (for example, W, D) of the object to be measured 80 may be calculated using such a projected
図20は、このような技術について説明する図である。図20の上段においては、測定対象物80(たとえば封筒)の表面の射影画像(カラー射影画像)241が示されている。図20の中段においては、画像処理によって抽出された直線(エッジ直線)248が射影画像241に対して(仮想的に)重畳して示されている。また、図20の下段においては、測定対象物80に隣接する外部領域(非表面部分249)が当該直線248に基づき除去された後の射影画像241が示されている。
FIG. 20 is a diagram illustrating such a technique. In the upper part of FIG. 20, a projected image (color projected image) 241 of the surface of the measurement object 80 (for example, an envelope) is shown. In the middle part of FIG. 20, a straight line (edge straight line) 248 extracted by image processing is shown (virtually) superimposed on the projected
図20の上段に示されるように、本来の測定対象物80の4辺のエッジ周辺の非表面部分249(実際には測定対象物80の表面ではないにもかかわらず、測定誤差等に起因して誤検出された部分)が3次元モデルおよびその射影画像に残存していることがある。図20の上段においては、本来の測定対象物80が灰色(グレー)で示されており、測定対象物80のエッジ周辺の非表面部分249には模様面61aの模様が黒色等で示されている。
As shown in the upper part of FIG. 20, the
ここでは、測定対象物80(封筒等)が直線のエッジ部分を有することを前提として、当該エッジ部分付近に残存する非表面部分249(たとえば数mm幅)を測定対象物80の表面部分から除外する。 Here, assuming that the object to be measured 80 (envelope, etc.) has a straight edge portion, the non-surface portion 249 (for example, a width of several mm) remaining in the vicinity of the edge portion is excluded from the surface portion of the object to be measured 80. do.
具体的には、まず、コントローラ31は、射影画像241のエッジ付近においてエッジ抽出処理等(画像処理)を実行する。より詳細には、カラー画像である射影画像241が2値画像(あるいはグレースケール画像)に変換され、変換後の画像に対してエッジ抽出処理が施される。そして、エッジ抽出処理によって抽出された複数のエッジに最も近い直線248(複数のエッジに基づく近似直線(推定直線エッジ))が求められる(図20の中段参照)。そして、当該直線よりも外側にある部分が、測定対象物80以外の領域(外部領域)として、射影画像241から除去される。これにより、非表面部分249を除去した後の射影画像241が得られる(図20の下段参照)。
Specifically, first, the
このような処理によれば、測定対象物80の寸法をさらに精度よく検出することが可能である。 According to such a process, the dimension of the object to be measured 80 can be detected more accurately.
<他の保持部>
上記第1実施形態等においては、所定の厚み(長さB以上の厚み)を有する透明部材51等が設けられることによって、測定対象物80が3次元カメラ20の視線方向にて視野内近傍面61から当該カメラ側に所定の距離以上離間した状態で保持されている。より詳細には、透明部材51が重量計40の上面42の全体を覆うように設けられている。換言すれば、カメラ視野内において(換言すれば、平面視等において)測定対象物80よりも広い範囲に亘る領域に透明部材51が設けられている。しかしながら、本発明は、これに限定されない。
<Other holding parts>
In the first embodiment or the like, by providing the
具体的には、図21に示されるように、所定の厚み(長さB以上の厚み)を有する部材(スペーサー)55が平面視において測定対象物80よりも狭い領域(小さな領域)に設けられてもよい。部材55は、円柱状部材でもよく、あるいは角柱状部材等でもよい。また、部材55は、透明部材でもよく、非透明部材でもよい。このような部材55が、視野内近傍面61(上面42等)と測定対象物80の下面83との間に設けられることによって、測定対象物80が3次元カメラの視線方向において視野内近傍面61から当該カメラ側に所定の距離以上離間した状態で保持されてもよい。なお、測定対象物80が柔軟物である場合等には、上記各実施形態のような保持部50(カメラ視野内において測定対象物80よりも広い範囲に亘る透明部材51等を有する保持部50)が設けられることが好ましい。
Specifically, as shown in FIG. 21, a member (spacer) 55 having a predetermined thickness (thickness of length B or more) is provided in a region (small region) narrower than the
あるいは、図22に示されるように、重量計40の上面42の端部付近(たとえば上面視における四隅のそれぞれ)に支持部材(支柱部材)57が立設されるとともに、当該支持部材57で固定支持された薄板状の透明部材56が設けられてもよい。換言すれば、透明部材56と上面42との間に中空部58が設けられてもよい。このような中空部58等によって、測定対象物80が3次元カメラ20の視線方向にて視野内近傍面61(上面42)から当該カメラ側に所定の距離以上離間した状態で保持されてもよい。
Alternatively, as shown in FIG. 22, a support member (post member) 57 is erected near the end of the
このように、測定対象物80を3次元カメラ20の視線方向にて視野内近傍面61から当該カメラ側に所定の距離以上離間した状態で保持する各種の保持部(保持手段)が採用されてもよい。
As described above, various holding portions (holding means) for holding the
また、このような改変は、第2実施形態等に対して施されてもよい。 Moreover, such a modification may be made to the second embodiment and the like.
<赤外光吸収面>
また、上記各実施形態等においては、視野内近傍面61は模様面61aとして構成されてもよいことについて説明したが、これに限定されず、視野内近傍面61は、赤外光吸収面61b(不図示)として構成されてもよい。特に、3次元カメラ20としてTOF(Time of Flight)方式の装置が用いられる場合に特に有用である。他の視野内近傍面62~64についても同様である。
<Infrared light absorption surface>
Further, in each of the above embodiments, it has been described that the in-field near
TOF方式の3次元カメラ20においては、3次元カメラ20から測定対象物80へと向かう測定光(時間測定用の光(赤外光等))が照射され、その反射光が3次元カメラ20に戻るまでの時間の計測結果に基づき測定対象物80までの距離が測定される。
In the TOF
しかしながら、当該3次元カメラ20の視野内における測定対象物80の上面82等の辺縁部の測距において、誤差が生じ易いという問題が存在する。これは、3次元カメラ20から出射された測定光のうち、測定対象物80の上面82内の辺縁部での反射光のみならず、3次元カメラ20の視野内における上面82の周辺領域(当該辺縁部に隣接する外部近傍領域)での反射光もが3次元カメラ20に戻ること等に起因する。
However, there is a problem that an error is likely to occur in the distance measurement of the peripheral portion such as the
これに対して、視野内近傍面61等が赤外光吸収面61bとして構成されることによれば、このような問題を解消することが可能である。具体的には、3次元カメラ20から出射された測定光のうち、3次元カメラ20の視野内における測定対象物80の上面82の周辺領域(図3の破線楕円領域等参照)に到達した光は、当該周辺領域に存在する赤外光吸収面61bによって吸収される。それ故、当該周辺領域から3次元カメラ20へと戻ってくる測定光は大幅に(理想的にはゼロに)低減され、当該周辺領域(外部近傍領域)からの反射光に起因する測距誤差の発生を回避ないし抑制することが可能である。赤外光吸収面61bは、たとえば、赤外光を吸収し易い黒色面として構成されてもよく、赤外光吸収インクが塗布された面として構成されてもよい。
On the other hand, if the near-
なお、この改変例においては、3次元カメラ20の視野内にて測定対象物80の近傍領域に存在する赤外光吸収面61bから、3次元カメラの視線方向において3次元カメラ側に所定の距離以上離間した状態で、測定対象物80が保持されている。しかしながら、これに限定されない。たとえば、赤外光吸収面61bの上に直に(距離Bを空けることなく)測定対象物80が載置されてもよい。赤外光を測定光として用いるTOF方式の3次元カメラ20は、その視野内における測定対象物80の近傍領域(周辺領域)からの反射光を受光せずに済むので、測定対象物80の表面の3次元位置情報を正確に取得することが可能である。
In this modified example, a predetermined distance from the infrared light absorbing surface 61b existing in the vicinity region of the
<その他>
また、各実施形態等においては、寸法測定装置10は重量計40を備え、重量計40の上に保持部50が配置されているが、これに限定されない。たとえば、寸法測定装置10は、重量計40を備えなくてもよい。保持部50は、重量計40以外の部材(寸法測定装置10の底面部材等)の上に配置されてもよい。
<Others>
Further, in each embodiment and the like, the
10 寸法測定装置
20 3次元カメラ
27,28 カメラ固定部材
29 カメラ視線方向
30 寸法算出装置
40 重量計
50 保持部
51,71~74 透明部材
55 スペーサ
58 中空部
61~64 視野内近傍面
61a 模様面
61b 赤外光吸収面
75 傾斜台
79 空間
80 測定対象物
221~224,241~244 射影画像
10
Claims (8)
前記3次元カメラの視野内にて前記測定対象物の近傍領域に存在する所定面から、前記3次元カメラの視線方向において前記3次元カメラ側に所定の距離以上離間した状態で、前記測定対象物を保持する保持手段と、
前記3次元位置情報に基づき前記測定対象物の寸法を算出する制御手段と、
を備えることを特徴とする寸法測定装置。 A 3D camera for acquiring 3D position information on the surface of the object to be measured,
The object to be measured is separated from a predetermined surface existing in a region near the object to be measured in the field of view of the three-dimensional camera by a predetermined distance or more from the predetermined surface in the line-of-sight direction of the three-dimensional camera to the side of the three-dimensional camera. And the holding means to hold
A control means for calculating the dimensions of the object to be measured based on the three-dimensional position information, and
A dimensional measuring device comprising.
前記保持手段は、前記載置面と前記載置面に垂直な且つ前記視線方向に対して傾斜した支持面とに前記測定対象物が接触した状態で前記測定対象物を保持することを特徴とする、請求項1または請求項2に記載の寸法測定装置。 The line-of-sight direction of the three-dimensional camera and the normal direction of the mounting surface of the measurement object are relatively inclined.
The holding means is characterized in that the measurement object is held in a state where the measurement object is in contact with the front-described mounting surface and the support surface perpendicular to the front-state placement surface and inclined with respect to the line-of-sight direction. The dimensional measuring device according to claim 1 or 2.
前記測定対象物の背面側と左側方側と右側方側とのうちの少なくとも1つに設けられ、前記測定対象物のはみ出しを防止するガイド部、
を備えることを特徴とする、請求項1から請求項4のいずれかに記載の寸法測定装置。 The holding means is
A guide portion provided on at least one of the back side, the left side side, and the right side side of the measurement object to prevent the measurement object from protruding.
The dimensional measuring device according to any one of claims 1 to 4, wherein the dimensional measuring device is provided.
をさらに備えることを特徴とする、請求項1から請求項6のいずれかに記載の寸法測定装置。 An input means for inputting at least one of the type of the measurement object and the type of transportation service related to the measurement object.
The dimensional measuring device according to any one of claims 1 to 6, further comprising.
a)前記3次元カメラの視野内にて前記測定対象物の近傍領域に存在する所定面から、前記3次元カメラの視線方向において前記3次元カメラ側に所定の距離以上離間した状態で保持された前記測定対象物を、前記3次元カメラで撮影し、前記測定対象物の表面の前記3次元位置情報を取得するステップと、
b)前記3次元位置情報に基づき前記測定対象物の寸法を算出するステップと、
を備えることを特徴とする寸法測定方法。 It is a dimensional measurement method using a three-dimensional camera for acquiring three-dimensional position information on the surface of an object to be measured.
a) It was held in a state of being separated from a predetermined surface existing in a region near the object to be measured in the field of view of the 3D camera to the 3D camera side by a predetermined distance or more in the line-of-sight direction of the 3D camera. A step of photographing the measurement object with the three-dimensional camera and acquiring the three-dimensional position information on the surface of the measurement object, and
b) A step of calculating the dimensions of the object to be measured based on the three-dimensional position information, and
A dimensional measurement method comprising.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021001333A JP2022106386A (en) | 2021-01-07 | 2021-01-07 | Dimension measuring device and dimension measuring method |
PCT/JP2021/035531 WO2022149315A1 (en) | 2021-01-07 | 2021-09-28 | Dimension-measuring device and dimension-measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021001333A JP2022106386A (en) | 2021-01-07 | 2021-01-07 | Dimension measuring device and dimension measuring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022106386A true JP2022106386A (en) | 2022-07-20 |
Family
ID=82357881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021001333A Pending JP2022106386A (en) | 2021-01-07 | 2021-01-07 | Dimension measuring device and dimension measuring method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022106386A (en) |
WO (1) | WO2022149315A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023037107A (en) * | 2021-09-03 | 2023-03-15 | Necプラットフォームズ株式会社 | Package measurement device and package measurement method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07334680A (en) * | 1994-06-02 | 1995-12-22 | Mitsubishi Heavy Ind Ltd | Three-dimensional shape processing device |
JP5493105B2 (en) * | 2010-03-19 | 2014-05-14 | オプテックス株式会社 | Object dimension measuring method and object dimension measuring apparatus using range image camera |
EP2573526B1 (en) * | 2011-09-20 | 2013-11-13 | Neopost Technologies | Apparatus for sizing parcel |
CN106152947B (en) * | 2015-03-31 | 2019-11-29 | 北京京东尚科信息技术有限公司 | Measure equipment, the method and apparatus of dimension of object |
JP6542574B2 (en) * | 2015-05-12 | 2019-07-10 | 株式会社豊田中央研究所 | forklift |
-
2021
- 2021-01-07 JP JP2021001333A patent/JP2022106386A/en active Pending
- 2021-09-28 WO PCT/JP2021/035531 patent/WO2022149315A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023037107A (en) * | 2021-09-03 | 2023-03-15 | Necプラットフォームズ株式会社 | Package measurement device and package measurement method |
Also Published As
Publication number | Publication date |
---|---|
WO2022149315A1 (en) | 2022-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9971455B2 (en) | Spatial coordinate identification device | |
US10156937B2 (en) | Determining a segmentation boundary based on images representing an object | |
TWI498580B (en) | Length measuring method and length measuring apparatus | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
CN101739567B (en) | Terminal apparatus and display control method | |
US20110267264A1 (en) | Display system with multiple optical sensors | |
US10379680B2 (en) | Displaying an object indicator | |
TWI546719B (en) | Projection screen for specularly reflecting infrared light | |
JP5518321B2 (en) | Laser radar installation position verification apparatus, laser radar installation position verification method, and laser radar installation position verification apparatus program | |
JP2007036482A (en) | Information projection display and program | |
CN110398215A (en) | Image processing apparatus and method, system, article manufacturing method, storage medium | |
WO2022149315A1 (en) | Dimension-measuring device and dimension-measuring method | |
CN107025003A (en) | Input unit | |
JP6528964B2 (en) | INPUT OPERATION DETECTING DEVICE, IMAGE DISPLAY DEVICE, PROJECTOR DEVICE, PROJECTOR SYSTEM, AND INPUT OPERATION DETECTING METHOD | |
US10725586B2 (en) | Presentation of a digital image of an object | |
Moller et al. | An automatic evaluation procedure for 3-D scanners in robotics applications | |
JP6427981B2 (en) | Image display device | |
JP2022191000A (en) | Dimension measurement device and dimension measurement method | |
Palka et al. | 3D object digitization devices in manufacturing engineering applications and services | |
JP2005061886A (en) | Volume-measuring method and volume-measuring instrument | |
US20240212269A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
KR102026699B1 (en) | Method for providing an interactive human contents service using spatial projection | |
JP2023005398A (en) | Measurement device | |
JP2021148432A (en) | Tunnel photographed image processing device and program | |
JP2022028196A (en) | Information processing apparatus, system, detection method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231116 |