JP2016168558A - 配達物処理装置、および配達物処理プログラム - Google Patents

配達物処理装置、および配達物処理プログラム Download PDF

Info

Publication number
JP2016168558A
JP2016168558A JP2015050703A JP2015050703A JP2016168558A JP 2016168558 A JP2016168558 A JP 2016168558A JP 2015050703 A JP2015050703 A JP 2015050703A JP 2015050703 A JP2015050703 A JP 2015050703A JP 2016168558 A JP2016168558 A JP 2016168558A
Authority
JP
Japan
Prior art keywords
unit
delivery object
delivery
type
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015050703A
Other languages
English (en)
Inventor
英 朴
Hide Boku
英 朴
浜村 倫行
Tomoyuki Hamamura
倫行 浜村
匡哉 前田
Masaya Maeda
匡哉 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015050703A priority Critical patent/JP2016168558A/ja
Priority to EP15200109.5A priority patent/EP3067844A1/en
Priority to US14/972,826 priority patent/US20160267355A1/en
Publication of JP2016168558A publication Critical patent/JP2016168558A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/10Apparatus characterised by the means used for detection ofthe destination
    • B07C3/14Apparatus characterised by the means used for detection ofthe destination using light-responsive detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0833Tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Development Economics (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Sorting Of Articles (AREA)

Abstract

【課題】利用者の利便性を向上させることができる配達物処理装置、および配達物処理プログラムを提供することである。
【解決手段】実施形態の配達物処理装置は、搬送部と、認識部と、決定部とを持つ。搬送部は、配達対象物を搬送する。認識部は、前記搬送部により搬送される配達対象物が撮像された画像に基づいて、前記配達対象物に付与された情報を複数の認識アルゴリズムのうちいずれかの認識アルゴリズムで認識処理する。決定部は、前記搬送部により搬送される配達対象物のタイプを判別し、前記判別したタイプに基づいて、前記認識部が認識処理に用いる認識アルゴリズムを決定する。
【選択図】図2

Description

本発明の実施形態は、配達物処理装置、および配達物処理プログラムに関する。
従来、宅配物や、はがき、封筒等の種々の配達対象物を撮影した画像から文字認識処理により住所を読み取り、読み取った住所を用いて配達対象物の宛先住所を確定する処理装置が知られている。この種の装置において、利用者が配達対象物の種類に応じて認識処理のモードを手動で選択することで、配達対象物の種類に対応した認識処理が行われる場合があった。しかしながら、従来の技術では、利用者の手を煩わす必要があり、利便性が十分でない場合があった。
特開平8−10712号公報
本発明が解決しようとする課題は、利用者の利便性を向上させることができる配達物処理装置、および配達物処理プログラムを提供することである。
実施形態の配達物処理装置は、搬送部と、認識部と、決定部とを持つ。搬送部は、配達対象物を搬送する。認識部は、前記搬送部により搬送される配達対象物が撮像された画像に基づいて、前記配達対象物に付与された情報を複数の認識アルゴリズムのうちいずれかの認識アルゴリズムで認識処理する。決定部は、前記搬送部により搬送される配達対象物のタイプを判別し、前記判別したタイプに基づいて、前記認識部が認識処理に用いる認識アルゴリズムを決定する。
配達物処理システム1の概要図。 配達物処理装置20を中心とした機能構成例を示す図。 判別テーブル32の一例を示す図。 アルゴリズムテーブル34として格納される情報の一例を示す図。 配達物処理装置20により実行される処理の流れを示すフローチャート。 利用者による配達対象物Pのタイプを判別するための情報の修正を受け付ける際に、端末装置5の表示部に表示される画像IMの一例を示す図。 第1の実施形態の配達物処理装置20の変形例の機能構成を示す図。 学習部28により実行される処理の流れを示すフローチャート。 タブレット端末40により表示される画像の一例を示す図。 情報処理部24が、判別条件を用いて実行する処理の流れを示すフローチャート。 第2の実施形態の配達物処理装置20Aの機能構成を示す図。 第2の実施形態においてアルゴリズムテーブル34Aとして格納されるデータの一例を示す図。 第2の実施形態の情報処理部24により実行される処理の流れを示すフローチャート。 端末装置5の表示部や、タブレット端末40により表示される画像の一例を示す図。 第3の実施形態の配達物処理装置20Bの機能構成を示す図。 搬送部16の搬送速度の算出手法の一例について説明するための図。 第4の実施形態の配達物処理装置20Cの機能構成を示す図。 第4の実施形態の配達物処理装置20Cにより実行される処理の流れを示すフローチャート。
以下、実施形態の配達物処理装置、および配達物処理プログラムを含む配達物処理システムを、図面を参照して説明する。
図1は、配達物処理システム1の概要図である。配達物処理システム1は、宅配物や、はがき、封筒等を含む種々の配達対象物Pを配達先に応じた区分箇所に区分するシステムである。配達物処理システム1は、例えばベルトコンベアや挟持ベルト等を含む搬送部16により搬送される配達対象物Pを撮像する。配達物処理システム1は、撮像部6により撮像された画像から配達対象物Pに付与された住所情報を認識し、認識した住所情報に基づいて配達対象物Pを区分する。住所情報とは、配達対象物Pの配達先の住所を示す情報である。住所情報は、氏名または名称等を含んでもよい。
配達物処理システム1は、例えば、端末装置5と、撮像部6と、対象物検出部8と、重量センサ10と、バーコードリーダ(以下、「BCR」と称する。)12と、バーコードライタ(以下、「BCW」と称する。)14と、搬送部16と、区分部18と、配達物処理装置20とを備える。端末装置5は、操作者が情報を入力するための装置である。端末装置5は、画像を表示する表示部と、キーボードやマウス、タッチパネル、マイク等の画像、音声及びその他の入力デバイスとを備える。端末装置5と、配達物処理装置20とは、LAN(Local Area Network)等のネットワークで接続されている。なお、端末装置5は、配達物処理装置20に統合されてもよい。
撮像部6は、撮像位置に到達した配達対象物Pを撮像し、撮像した画像を配達物処理装置20に出力する。撮像部6は、例えば移動する配達対象物Pを高解像度に撮影できるラインスキャン方式の複数のスキャナを有する。撮像部6は、複数のスキャナを、例えば異なる角度から配達対象物Pを撮影できる位置に配置することで、配達対象物Pの各面を撮像することができる。なお、撮像部6は、例えば、所定の平面領域を一度に撮影可能なカメラを備えてもよい。
対象物検出部8は、配達対象物Pの立体的形状を検出する。対象物検出部8は、例えばステレオカメラ8A、8Bである。ステレオカメラ8A、8Bは、撮像位置に到達した配達対象物Pを撮像し、撮像した画像を配達物処理装置20に出力する。また、対象物検出部8は、配達対象物Pとの距離を測定可能な赤外線センサ等の光学的手法を用いたセンサや、超音波センサ等であってもよい。
重量センサ10は、例えば搬送部16のベルトコンベアの下側に配置され、搬送されてくる配達対象物Pの重量を測定する。重量センサ10は、測定位置に到達した配達対象物Pの重量を測定し、測定結果を配達物処理装置20に出力する。
BCR12は、配達対象物Pに付与されている識別情報が含まれるIDバーコードや、配達対象物Pの住所情報が含まれる住所バーコードにエンコードされた情報を読み取る。BCR12は、読み取った情報を配達物処理装置20に出力する。BCW14は、配達物処理装置20の指示に基づいて、配達対象物PにIDバーコード、および住所バーコードを印字する。BCW14は、例えば、任意に決定された識別情報をエンコードしたIDバーコードと、配達物処理装置20の認識結果としての住所情報をエンコードした住所バーコードを印字する。
搬送部16は、配達物処理装置20の指示に基づいて、供給部(不図示)から供給された配達対象物Pを区分部18に向けて搬送する。搬送部16は、例えば搬送ベルト、駆動プーリ、および駆動モータを備える。駆動プーリは、駆動モータの駆動により出力される駆動力により回転する。搬送ベルトは、駆動プーリの回転力により動作して配達対象物Pを搬送する。
区分部18は、搬送部16の下流側(供給部の反対側)に設けられる。区分部18は、例えば複数の段、および複数の列に区画された複数の区分ポケット(不図示)を含む。区分部18は、配達物処理装置20の指示に基づいて、指示された区分先に対応する区分ポケットに配達対象物Pを搬送して集積させる。
図2は、配達物処理装置20を中心とした機能構成例を示す図である。配達物処理装置20は、通信部21と、情報取得部22と、情報処理部24と、制御部26と、記憶部30とを備える。これらのうち情報処理部24、および制御部26は、CPU(Central Processing Unit)等のプロセッサが記憶部30に格納されたプログラムを実行することで機能するソフトウェア機能部である。なお、これらのソフトウェア機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。記憶部30は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD、フラッシュメモリ等により実現される。また、配達物処理装置20は、通信部21を用いて端末装置5と通信する。通信部21は、LANやWAN(Wide Area Network)等のネットワークに接続するための通信ネットワークである。
情報取得部22は、例えば撮像部6、対象物検出部8、または重量センサ10と通信するための通信インターフェースである。情報取得部22は、撮像部6により撮像された画像、対象物検出部8により検出された情報、および重量センサ10により検出された情報を取得し、取得した情報を情報処理部24に出力する。
情報処理部24は、認識部24Aと、決定部24Bとを備える。認識部24Aは、決定部24Bにより決定されたアルゴリズムに基づいて、配達対象物Pの住所情報を認識する。認識部24Aは、例えばOCR(Optical Character Recognition)により配達対象物Pの住所情報を認識処理する。認識部24Aは、認識処理を行った結果を、各部(例えば制御部26)に出力する。
決定部24Bは、情報取得部22が撮像部6、対象物検出部8、または重量センサ10から取得した情報に基づいて、配達対象物Pのタイプを特定する。配達対象物Pのタイプとは、配達物処理装置20を用いて配達対象物Pを区分する運用者が任意に定めることができる配達対象物Pの種別である。例えば郵便事業者が運用者の場合、「定型郵便」や、「定形外郵便」、「小包」等のタイプが運用者によって設定される。また、宅配便を扱う運用者の場合、荷物や、メール便等のタイプが運用者によって設定される。
決定部24Bは、例えば、対象物検出部8から取得される画像に基づいて、配達対象物Pのサイズ(例えば縦、横、および奥行等の寸法)または形状(例えば立体物か、平板状の物体か)を認識し、認識したサイズまたは形状に基づいて配達対象物Pのタイプを判別する。また、決定部24Bは、対象物検出部8から取得される画像の特徴に基づいて、配達対象物Pのタイプを判別する。また、決定部24Bは、重量センサ10により計測される重量に基づいて配達対象物Pのタイプを特定してもよい。また、決定部24Bは、画像の認識処理により抽出される画像の特徴量に基づいて配達対象物Pのタイプを特定してもよい。決定部24Bは、判別した配達対象物Pのタイプに基づいて、認識部24Aが認識処理を行うアルゴリズムを決定する。
制御部26は、認識部24Aの認識処理結果に基づいて、区分部18を制御して配達対象物を区分先に区分する。
記憶部30は、判別テーブル32およびアルゴリズムテーブル34を格納する。図3は、判別テーブル32として格納される情報の一例を示す図である。判別テーブル32は、例えば、配達対象物Pのサイズ、厚さ、および重さ等のパラメータに、配達対象物Pのタイプが対応付けられたテーブルデータである。図4は、アルゴリズムテーブル34として格納される情報の一例を示す図である。アルゴリズムテーブル34は、配達対象物Pのタイプと認識アルゴリズムが対応付けられたテーブルデータである。各タイプに対応付けられた認識アルゴリズムは、それぞれのタイプの配達対象物Pを認識処理する場合に最適な認識アルゴリズムである。最適な認識アルゴリズムとは、処理時間をいたずらに長くしない範囲内で、要求される認識率を満たすことができる認識アルゴリズムである。各テーブルデータは、プログラムの中に関数として埋め込まれてもよい。
図5は、配達物処理装置20により実行される処理の流れを示すフローチャートである。まず、情報処理部24の決定部24Bが、情報取得部22を介して対象物検出部8、および重量センサ10から情報を取得する(ステップS100)。次に、決定部24Bは、判別テーブル32を参照し、ステップS100で取得した情報に基づいて、配達対象物Pのタイプを判別する(ステップS102)。決定部24Bは、例えば、対象物検出部8、および重量センサ10から取得した情報が、判別テーブル32の各タイプに対応付けられたサイズや厚さ、重さ等の条件を満たすか否かを、各タイプについて判定することで、配達対象物Pのタイプを判別する。
次に、決定部24Bは、アルゴリズムテーブル34を参照して、ステップS102で判別したタイプに対応する認識アルゴリズムを選択する(ステップS104)。次に、認識部24Aが、ステップS104で決定部24Bにより選択された認識アルゴリズムを用いて、認識処理を実行する(ステップS106)。次に、認識部24Aは、ステップS106で実行した認識処理の結果を区分部18に出力する(ステップS108)。これにより本フローチャートの処理は終了する。
なお、決定部24Bは、配達対象物Pのタイプと、配達対象物Pのタイプを判別するための条件(判別テーブル32の各パラ―メータ)とを表示しながら、利用者による配達対象物Pのタイプを判別するための情報の修正を受け付けてもよい。この際に、決定部24Bは、配達対象物Pのタイプと、配達対象物Pのタイプを判別するための情報とを対応付けて端末装置5の表示部に表示させる。図6は、利用者による配達対象物Pのタイプを判別するための情報の修正を受け付ける際に、端末装置5の表示部に表示される画像IMの一例を示す図である。決定部24Bは、端末装置5の表示部に配達対象物Pのタイプと、配達対象物Pのタイプを判別するための情報とが表示された状態で、端末装置5の入力部を介して入力された入力情報に基づいて、配達対象物Pのタイプを判別するための情報を変更する。例えば、決定部24Bは、端末装置5の入力部を介して入力された入力情報に基づいて、配達対象物Pのタイプを判別するためのサイズや、厚さ、または重さを変更する。また、決定部24Bは、端末装置5の入力部を介して入力された入力情報に基づいて、配達対象物Pのタイプを追加、または削除してもよい。
なお、決定部24Bは、判別テーブル32の各パラメータを、他のコンピュータ装置から通信部21を用いてインポートしてもよい。
本実施形態では、一例として、対象物検出部8、および重量センサ10から取得した情報に基づいて、配達対象物Pのタイプを判別するものとしたが、配達対象物Pのタイプの判別に用いられる情報は、これらに限られない。例えば配達物処理装置20は、配達対象物Pのタイプを示すタイプ情報に基づいて、配達対象物Pのタイプを判別してもよい。タイプ情報は、例えば配達対象物Pに付与されたICタグに記憶されたり、配達対象物Pに付与されたバーコードにエンコードされたりする配達対象物Pのタイプを示す情報である。この場合、配達物処理装置20は、ICタグに記憶されたタイプ情報を読み込むICタグリーダや、バーコードにエンコードされた情報を読み取るバーコードリーダを備えることで、配達対象物Pのタイプを判別する。
以上説明した第1の実施形態の配達物処理装置20によれば、決定部24Bが、対象物検出部8、および重量センサ10から取得した情報に基づいて、配達対象物Pのタイプを判別し、認識部24Aが、決定部24Bにより判別された配達対象物Pのタイプに対応する認識アルゴリズムを用いて住所情報を認識するため、自動的に配達対象物Pのタイプに適した認識アルゴリズムを選択することができ、利用者の利便性を向上させることができる。
(第1の実施形態の変形例)
第1の実施形態は、以下のように変更されてもよい。図7は、第1の実施形態の配達物処理装置20の変形例の機能構成を示す図である。第1の実施形態の変形例の配達物処理装置20は、第1の実施形態の配達物処理装置20の機能構成に加え、更に学習部28を備え、通信部21を用いてタブレット端末40と通信する。
第1の実施形態の変形例の決定部24Bは、情報取得部22から撮像部6、または対象物検出部8により撮像された配達対象物Pの画像を取得し、取得した画像における特徴量を算出する。決定部24Bは、算出した特徴量から配達対象物Pのタイプを判別する。また、第1の実施形態の変形例の決定部24Bは、対象物検出部8から取得される画像の特徴に基づいて、配達対象物Pのタイプを判別する。
学習部28は、情報取得部22から撮像部6、または対象物検出部8により撮像された配達対象物Pの画像を取得し、タブレット端末40に対してなされた利用者の操作に基づいて、画像における特徴量または/および画像の特徴と配達対象物Pのタイプとの関係について機械学習を実行し、配達対象物Pのタイプを判別するための判別条件を決定する。学習部28は、生成した判別条件を決定部24Bに出力する。
タブレット端末40は、例えば画像を表示すると共に、画像に対してタッチ操作された位置を検出可能なタッチパネル式表示装置を備える端末装置である。また、タブレット端末40は、他装置と通信する通信部(不図示)を備える。タブレット端末40は、ネットワークNWを介して通信部21と通信する。
図8は、学習部28により実行される処理の流れを示すフローチャートである。本処理では、一例として画像の特徴量を用いた処理について説明する。まず、学習部28が、所定の学習期間において撮像部6により撮像された画像の一覧をタブレット端末40に表示させ(ステップS150)、タブレット端末40が、利用者による画像毎のタイプの指定を受け付ける(ステップS152)。タブレット端末40は、例えば、分類対象の配達対象物Pの画像と、分類対象の配達対象物Pの画像をドラッグ操作等によって移動させる先のタイプ毎の領域とを並べて表示する。
図9は、タブレット端末40により表示される画像の一例を示す図である。図中、A1は、撮像部6により撮像された配達対象物Pの画像である。図中、A2は、例えばタイプAに該当する配達対象物Pの画像がドラッグアンドドロップされる領域であり、A3は、例えばタイプBに該当する配達対象物Pの画像がドラッグアンドドロップされる領域である。タブレット端末40の利用者は、タブレット端末40により表示された配達対象物Pの画像をドラッグして、該当するタイプに対応する領域に配達対象物Pの画像をドロップすることで、各画像について、配達対象物Pのタイプを指定する。
次に、学習部28が、タブレット端末40から、利用者の入力操作によって指定された画像毎の配達対象物Pのタイプを取得する(ステップS154)。次に、学習部28は、ステップS100で取得した各画像について決定部24Bにより算出されていた特徴量を取得し、取得した特徴量と、各画像についての利用者によるタイプの指定とに基づいて、特徴量とタイプとの関係を学習し(ステップS156)、学習の結果に基づいて判別条件を生成して決定部24Bに出力する(ステップS158)。これにより本フローチャートの処理は終了する。この結果、決定部24Bは、取得した判別条件を用いて配達対象物Pのタイプを判別する。なお、学習部28は、利用者によりタイプが指定された配達対象物Pの画像における特徴量に基づいて、回帰分析や、決定木分析等の公知手法を用いて判別条件を生成する。また、学習部28は、例えばadaboostや、SVM(Support Vector Machine)等の再帰的な機械学習アルゴリズムを用いて、判別条件を生成してもよい。
図10は、情報処理部24が、判別条件を用いて実行する処理の流れを示すフローチャートである。まず、決定部24Bが、撮像部6、または対象物検出部8により撮像された画像を取得する(ステップS180)。次に、決定部24Bは、ステップS180で取得した画像における特徴量を抽出する(ステップ182)。次に、決定部24Bは、ステップS154で学習部28により生成された判別条件を用いて、ステップS182で抽出した特徴量から配達対象物Pのタイプを判別する(ステップS184)。次に、決定部24Bは、ステップS184で判別されたタイプに対応する認識アルゴリズムを選択する(ステップS186)。次に、認識部24Aは、ステップS186で決定部24Bにより選択された認識アルゴリズムを用いて、認識処理を実行する(ステップS188)。次に、認識部24Aは、ステップS188で実行した認識処理の結果を区分部18に出力する(ステップS190)。これにより本フローチャートの処理は終了する。
以上説明した第1の実施形態の変形例の配達物処理装置20によれば、情報処理部24が、学習部28により生成された判別条件を用いて、配達対象物Pのタイプを判別し、判別したタイプに対応する認識アルゴリズムによって配達対象物Pの認識処理を実行する。この結果、第1の実施形態と同様の効果を奏すると共に、より精度よく配達対象物Pのタイプを判別することができる。
(第2の実施形態)
以下、第2の実施形態について説明する。第2の実施形態の配達物処理装置20Aは、配達対象物Pのタイプに基づいて、配達対象物Pを認識処理する認識アルゴリズムを変更すると共に、搬送部16が配達対象物Pを搬送する搬送速度を変更する点で、第1の実施形態と相違する。以下、この相違点を中心に説明する。
図11は、第2の実施形態の配達物処理装置20Aの機能構成を示す図である。第2の実施形態の配達物処理装置20Aの情報処理部24は、第1の実施形態の配達物処理装置20の機能構成に加え、表示制御部24Cを更に備える。表示制御部24Cは、画像を表示する表示部に、自装置が配達対象物Pを処理した結果を示す情報を表示する。自装置が配達対象物Pを処理した結果を示す情報とは、例えば、自装置が処理した配達対象物P毎に、決定部24Bによる配達対象物Pのタイプの判別結果を示す情報である。また、制御部26は、情報処理部24の決定部24Bからの指示に基づいて、搬送部16の搬送速度を制御する。
図12は、第2の実施形態においてアルゴリズムテーブル34Aとして格納されるデータの一例を示す図である。第2の実施形態に係るアルゴリズムテーブル34Aには、認識アルゴリズムに加え、配達対象物Pのタイプに搬送部16が配達対象物Pを搬送する搬送速度が対応付けられたテーブルデータである。
図13は、第2の実施形態の情報処理部24により実行される処理の流れを示すフローチャートである。まず、決定部24Bが、情報取得部22を介して対象物検出部8、および重量センサ10から情報を取得する(ステップS200)。次に、決定部24Bは、判別テーブル32Aを参照して、ステップS200で取得した情報に基づいて、配達対象物Pのタイプを判別する(ステップS202)。次に、決定部24Bは、判別テーブル32Aを参照して、ステップS202で判別したタイプに対応する認識アルゴリズムを選択する(ステップS204)。決定部24Bは、ステップS204で選択したタイプに対応する搬送部16が配達対象物Pを搬送する搬送速度を選択する(ステップS206)。次に、決定部24Bは、制御部26を介して搬送部16を制御することで、搬送部16の搬送速度をステップS206で選択した搬送部16の搬送速度に変更する(ステップS208)。決定部24Bは、例えば認識処理の難しいタイプの配達対象物P(例えば小包)の場合は搬送部16の搬送速度を遅く、認識の容易なタイプの配達対象物P(例えば封筒や、はがき)の場合は搬送部16の搬送速度を速くするように搬送部16に指示する。次に、認識部24Aは、ステップS204で決定部24Bにより選択された認識アルゴリズムを用いて、認識処理を実行する(ステップS210)。次に、認識部24Aは、ステップS210で実行した認識処理の結果を区分部18に出力する(ステップS212)。これにより本フローチャートの処理は終了する。
また、表示制御部24Cは、例えば、利用者が配達物処理装置20の動作状態を確認したい場合に、自装置が配達対象物Pを処理した結果を示す情報であって、処理した配達対象物P毎に、決定部24Bによる配達対象物Pのタイプの判別結果を示す情報を端末装置5の表示部に表示させる。表示制御部24Cは、例えば利用者の操作に応じて、決定部24Bにより判別された配達対象物Pの識別情報(図中、No.1、No.2、…)と、配達対象物Pのタイプと、認識処理に用いた認識アルゴリズムと、搬送速度とを対応付けて端末装置5の表示部、またはタブレット端末40に表示させる。図14は、端末装置5の表示部や、タブレット端末40により表示される画像の一例を示す図である。なお、第1の実施形態においても、図14から「搬送速度」の項目を省略した画像を表示するようにしてもよい。
以上説明した第2の実施形態によれば、決定部24Bが、配達対象物Pのタイプに基づいて、認識アルゴリズムのみならず搬送部16が配達対象物Pを搬送する搬送速度を変更する。この結果、第1の実施形態と同様の効果を奏するのに加えて、配達対象物Pを区分部18まで搬送させるまでの時間を好適に変更することができる。
(第3の実施形態)
以下、第3の実施形態について説明する。第3の実施形態の配達物処理装置20Bは、速度算出部27が、認識部24Aの認識処理時間と、搬送部16の搬送路の長さとに基づいて、搬送部16の搬送速度を算出する点で、第1または第2の実施形態と相違する。以下、この相違点を中心に説明する。
図15は、第3の実施形態の配達物処理装置20Bの機能構成を示す図である。第3の実施形態の配達物処理装置20Bは、第1の実施形態の配達物処理装置20が有する機能構成に加え、速度算出部27を更に備える。
第3の実施形態に係る認識部24Aは、認識処理の進捗度を速度算出部27に出力する。速度算出部27は、認識部24Aから取得した情報に基づいて、配達対象物Pに対する認識処理が完了するまでの残り時間を特定する。また、速度算出部27は、配達対象物Pから搬送部16における区分部18までの距離を、特定した残り時間で除算することで、配達対象物Pを搬送する搬送速度を算出する。速度算出部27は、算出結果を制御部26に出力する。なお、速度算出部27は、例えば制御部26から取得した搬送部16が配達対象物Pを搬送する搬送速度と、予め記憶されている搬送部16の搬送路の長さに基づいて、配達対象物Pから搬送部16における区分部18までの距離を算出する。より具体的には、速度算出部27は、搬送部16が配達対象物Pを搬送する搬送速度に基づいて、各配達対象物Pの位置をリアルタイムに把握しており、距離の算出タイミングにおける配達対象物Pの位置に基づいて、配達対象物Pから搬送部16における区分部18までの距離を算出する。また、制御部26は、速度算出部27から入力された搬送速度で、配達対象物Pを搬送するように搬送部16を制御する。
以下、速度算出部27が実行する搬送部16の搬送速度の算出手法の一例について説明する。図16は、搬送部16の搬送速度の算出手法の一例について説明するための図である。図16では、時刻T0、時刻T1、および時刻T2のときにおける配達対象物A、およびBの状態を示している。
時刻T0では、速度算出部27は、配達対象物Pの中で、区分部18に最初に到達する先頭の配達対象物Aのタイプに基づいて、搬送部16が配達対象物AおよびBを搬送する搬送速度V1を算出する。搬送速度V1は、例えば式(1)により算出される。式中、L1は、配達対象物Aの位置から区分部18までの長さであり、PT1は、配達対象物Aの認識処理に必要な時間である。なお、配達対象物Aの認識処理に必要な時間は、例えば、配達対象物Aの属するタイプの配達対象物Pにおける認識処理に必要な標準的な時間として、予め設定されている。
V1=L1/PT1 …(1)
この場合、配達対象物Aの上流側(区分部18とは反対側)に位置する配達対象物Bは、先頭の配達対象物Aに基づいて算出される搬送速度V1で搬送される。時刻T1では、この状態が継続している。
一方、配達対象物Aが区分部18に到達した時刻T2において、速度算出部27は、配達対象物Pの中で、区分部18に最初に到達する先頭の配達対象物Bのタイプに基づいて、搬送部16が配達対象物Bを搬送する搬送速度V2を算出する。搬送速度V2は、例えば式(2)により算出される。式中、L2は、配達対象物Bの位置から区分部18までの長さであり、PT2は、配達対象物Bの認識処理に必要な時間である。
V2=L2/PT2 …(2)
なお、認識部24Aが、複数のコアを有するマルチコアプロセッサとして構成される場合、複数の配達対象物Pに対して、認識処理が並行して実施される場合がある。このとき、複数の配達対象物Pが搬送部16により搬送されている場合、配達対象物Pが先頭になった時点で、認識処理がある程度進んでいる(或いは完了している)場合があるため、上記した「認識処理に必要な時間」は、先頭になった配達対象物Pについての認識処理の進捗度に基づいて算出される。
上説明した第3の実施形態によれば、速度算出部27が、認識部24Aの認識処理の進捗度に応じて、配達対象物Pを搬送する速度を調整する。この結果、第1の実施形態と同様の効果を奏すると共に、配達対象物Pの住所情報を認識処理する時間に適した搬送速度で配達対象物Pを搬送するため、余剰な時間の発生を更に抑制することができる。
(第4の実施形態)
以下、第4の実施形態について説明する。第4の実施形態の配達物処理装置20Cは、処理時間蓄積部25に蓄積された認識処理時間に基づいて、速度算出部27が、配達対象物Pを搬送する速度を算出する点で、第3の実施形態と相違する。以下、この相違点を中心に説明する。
図17は、第4の実施形態の配達物処理装置20Cの機能構成を示す図である。配達物処理装置20Cは、第3の実施形態の配達物処理装置20Bの機能構成に加え、更に処理時間蓄積部25を備える。
処理時間蓄積部25は、認識部24Aによる配達対象物Pの認識処理時間と、配達対象物Pのタイプとを対応付けて蓄積情報として蓄積する。また、処理時間蓄積部25は、蓄積情報が所定の条件を満たすか否かを判別し、所定の条件を満たす場合、速度算出部27に蓄積情報を送信する。所定の条件とは、例えば蓄積情報が一定量蓄積されたことである。
速度算出部27は、処理時間蓄積部25から送信された蓄積情報に基づいて、配達対象物Pを搬送する搬送速度を算出し、算出した搬送速度を制御部26に出力する。速度算出部27は、例えば蓄積情報を参照して、配達対象物Pの認識処理時間からタイプ毎の平均認識処理時間を算出する。そして、速度算出部27は、配達対象物Pから搬送部16における区分部18までの距離を、算出した平均認識処理時間で除算することで、配達対象物Pを搬送する搬送速度を算出する。
図18は、第4の実施形態の配達物処理装置20Cにより実行される処理の流れを示すフローチャートである。まず、決定部24Bが、情報取得部22を介して対象物検出部8、および重量センサ10から情報を取得する(ステップS300)。次に、決定部24Bは、判別テーブル32を参照し、ステップS300で取得した情報に基づいて、配達対象物Pのタイプを判別する(ステップS302)。次に、決定部24Bは、アルゴリズムテーブル34を参照して、ステップS302で判別したタイプに対応する認識アルゴリズムを選択する(ステップS304)。次に、決定部24Bが、ステップS304で選択したタイプに対応する搬送部16の搬送速度を選択する(ステップS306)。次に、決定部24Bは、制御部26を介して搬送部16を制御することで、ステップS306で選択した搬送部16の搬送速度を選択した搬送速度に変更する(ステップS308)。次に、認識部24Aは、ステップS304で決定部24Bにより選択された認識アルゴリズムを用いて、認識処理を実行する(ステップS310)。次に、認識部24Aは、ステップS310で実行した認識処理の結果を区分部18に出力し(ステップS312)、ステップS312で実行した認識処理結果を処理時間蓄積部25に蓄積する(ステップS314)。なお、認識処理結果には、認識処理により算出された文字認識スコア、認識処理時間、および住所情報が完了したか否かを示す情報が含まれる。
また、ステップS304からステップS314の処理と並行して、ステップS316およびステップS318の処理を実行する。処理時間蓄積部25は、ステップS314で認識部24Aにより蓄積された認識処理結果が十分に蓄積されたか否かを判別する(ステップS316)。認識処理結果が十分に蓄積されている場合、処理時間蓄積部25は、ステップS314で認識部24Aにより蓄積された認識処理結果を速度算出部27に送信する(ステップS318)。認識処理結果が十分に蓄積されていない場合、本フローチャートの処理は終了する。
上述したステップS318の処理により、速度算出部27は、配達対象物Pのタイプ毎の平均認識処理時間を算出する。速度算出部27は、配達対象物Pから搬送部16における区分部18までの距離を、配達対象物Pのタイプに応じた平均認識処理時間で除算することで、配達対象物Pのタイプに応じた搬送部16の搬送速度を算出する。
以上説明した第4の実施形態によれば、情報処理部24は、速度算出部27により算出されたタイプ毎の平均認識処理時間を用いて、配達対象物Pの搬送速度を算出する。この結果、第3の実施形態と同様の効果を奏すると共に、配達対象物Pの住所情報を認識処理する時間により適した搬送部16の搬送速度で配達対象物Pを搬送するため、余剰な時間の発生をより抑制することができる。
以上説明した少なくともひとつの実施形態によれば、搬送部(16)により搬送された配達対象物Pが撮像された画像に基づいて、配達対象物に付与された情報を複数の認識アルゴリズムのうちいずれかで認識処理する認識部(24A)と、搬送部により搬送された配達対象物のタイプを判別し、判別したタイプに基づいて、認識部が認識処理する認識アルゴリズムを決定する決定部(24B)とを持つことにより、利用者の利便性を向上させることができる。
本実施形態は、以下のように表現することができる。
配達対象物を搬送する搬送部と、
前記搬送部により搬送される配達対象物が撮像された画像に基づいて、前記配達対象物に付与された情報を、文字認識処理を行うための複数の認識アルゴリズムのうちいずれかの認識アルゴリズムで認識処理する認識部と、
前記搬送部により搬送される配達対象物の形状、サイズ、重量、または前記画像の特徴に基づいて前記配達対象物のタイプを判別し、前記判別したタイプと認識アルゴリズムとの対応情報を参照して、前記認識部が認識処理に用いる認識アルゴリズムを決定する決定部と、
を備える配達物処理装置。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…配達対象物処理システム、6…撮像部、8…対象物検出部、10…重量センサ、16…搬送部、18…区分部、20…配達物処理装置、22…情報取得部、24…情報処理部、24A…認識部、24B…決定部、24C…表示制御部、25…処理時間蓄積部、26…制御部、27…速度算出部、30…記憶部、32…判別テーブル、34…アルゴリズムテーブル

Claims (9)

  1. 配達対象物を搬送する搬送部と、
    前記搬送部により搬送される配達対象物が撮像された画像に基づいて、前記配達対象物に付与された情報を複数の認識アルゴリズムのうちいずれかの認識アルゴリズムで認識処理する認識部と、
    前記搬送部により搬送される配達対象物のタイプを判別し、前記判別したタイプに基づいて、前記認識部が認識処理に用いる認識アルゴリズムを決定する決定部と、
    を備える配達物処理装置。
  2. 前記決定部は、前記配達対象物の形状、サイズ、重量、または前記画像の特徴に基づいて前記配達対象物のタイプを判別する、
    請求項1記載の配達物処理装置。
  3. 前記搬送部は、搬送速度の変更が可能であり、
    前記決定部は、前記判別したタイプに基づいて、前記搬送部が前記配達対象物を搬送する速度を決定する、
    請求項2記載の配達物処理装置。
  4. 前記認識部から前記配達対象物に対する認識処理が完了するまでの残り時間を特定し、前記配達対象物から前記搬送部における分岐箇所までの距離を、前記残り時間で除算することで、前記配達対象物を搬送する搬送速度を算出する速度算出部を、更に備える、
    請求項3記載の配達物処理装置。
  5. 前記認識部による前記配達対象物の認識処理時間と、前記配達対象物のタイプとを対応付けて蓄積情報として蓄積する蓄積部を備え、
    前記速度算出部は、前記蓄積部から前記蓄積情報を取得し、取得した蓄積情報に基づいて、前記残り時間を特定する、
    請求項4記載の配達物処理装置。
  6. 前記決定部は、前記配達対象物が撮像された画像を取得し、取得した画像における特徴量、または取得した画像の特徴に基づいて、前記配達対象物のタイプを判別し、
    前記配達対象物が撮像された画像から画像における特徴量を算出し、算出した特徴量、または前記取得した画像の特徴に基づいて、前記特徴量または前記画像の特徴と前記タイプとの関係を学習し、学習の結果を前記決定部による判別処理に反映させる学習部を、更に備える、
    請求項1から5のうちいずれか1項記載の配達物処理装置。
  7. 前記決定部は、前記配達対象物のタイプと、前記配達対象物のタイプを判別するための条件とを表示すると共に、利用者による前記配達対象物のタイプを判別するための条件の修正、または前記配達対象物のタイプの追加、若しくは削除を受け付け、前記受け付けた修正に基づいて、前記配達対象物のタイプの追加、若しくは削除、または前記タイプを判別するための条件の変更をする、
    請求項1から6のうちいずれか1項記載の配達物処理装置。
  8. 画像を表示する表示部に、自装置が配達対象物を処理した結果を示す情報であって、前記処理した配達対象物毎に前記決定部による判別結果を示す情報を表示させる表示制御部を更に備える、
    請求項1から7のうちいずれか1項記載の配達物処理装置。
  9. コンピュータに、
    配達対象物を搬送する搬送部に前記配達対象物を搬送させ、
    前記搬送部により搬送される配達対象物が撮像された画像に基づいて、前記配達対象物に付与された情報を複数の認識モードのうちいずれかで認識処理させ、
    前記搬送部により搬送される配達対象物のタイプを示す情報を取得して、取得したタイプを示す情報に基づいて、配達対象物に付与された情報を認識処理する認識アルゴリズムを決定させる、
    配達物処理プログラム。
JP2015050703A 2015-03-13 2015-03-13 配達物処理装置、および配達物処理プログラム Pending JP2016168558A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015050703A JP2016168558A (ja) 2015-03-13 2015-03-13 配達物処理装置、および配達物処理プログラム
EP15200109.5A EP3067844A1 (en) 2015-03-13 2015-12-15 Delivery processor, method, and computer readable storage medium
US14/972,826 US20160267355A1 (en) 2015-03-13 2015-12-17 Delivery system, method, and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050703A JP2016168558A (ja) 2015-03-13 2015-03-13 配達物処理装置、および配達物処理プログラム

Publications (1)

Publication Number Publication Date
JP2016168558A true JP2016168558A (ja) 2016-09-23

Family

ID=54936810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050703A Pending JP2016168558A (ja) 2015-03-13 2015-03-13 配達物処理装置、および配達物処理プログラム

Country Status (3)

Country Link
US (1) US20160267355A1 (ja)
EP (1) EP3067844A1 (ja)
JP (1) JP2016168558A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2635259C1 (ru) * 2016-06-22 2017-11-09 Общество с ограниченной ответственностью "Аби Девелопмент" Способ и устройство для определения типа цифрового документа
US10713520B2 (en) * 2016-10-27 2020-07-14 Engineering Innovation, Inc. Method of taking a picture without glare
CN108722888B (zh) * 2018-03-27 2020-06-02 重庆酋创科技有限公司 用于电脑配件的检测装置
CN109759349A (zh) * 2018-12-26 2019-05-17 成都九洲电子信息***股份有限公司 一种非标品生鲜产品分拣***及方法
CN110665824B (zh) * 2019-10-31 2021-07-02 郑州航空工业管理学院 一种电子商务拣货装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60262290A (ja) * 1984-06-08 1985-12-25 Hitachi Ltd 情報認識システム
IL82037A0 (en) * 1987-03-29 1987-10-20 Kalman Peleg Method and apparatus for automatically inspecting and classifying different objects
US4992649A (en) * 1988-09-30 1991-02-12 United States Postal Service Remote video scanning automated sorting system
DE3942932A1 (de) * 1989-12-23 1991-06-27 Licentia Gmbh Verfahren zum verteilen von paketen o. ae.
US6371278B1 (en) * 1999-11-04 2002-04-16 Colin R. Hart Patty loader and method
AU2001293265A1 (en) * 2000-09-08 2002-03-22 United States Postal Service Systems and methods for sorting mail using a name/firm database
US7463783B1 (en) * 2002-09-20 2008-12-09 Lockheed Martin Corporation Constant magnification imaging method and system
FR2933628B1 (fr) * 2008-07-11 2010-07-30 Solystic Procede de tri de plusieurs objets avec un depouillement d'informations
JP5407485B2 (ja) * 2009-03-27 2014-02-05 日本電気株式会社 物品区分機、物品区分方法、及び物品区分プログラム
CH704690A1 (de) * 2011-03-24 2012-09-28 Ferag Ag Steuervorrichtung und Verfahren zur Steuerung einer Druckproduktverarbeitungsanlage.
CN103489149B (zh) * 2012-06-08 2017-08-29 联想(北京)有限公司 一种图像获取的方法及一种电子设备
JP5708689B2 (ja) * 2013-03-13 2015-04-30 株式会社デンソー 物体検出装置
US9355123B2 (en) * 2013-07-19 2016-05-31 Nant Holdings Ip, Llc Fast recognition algorithm processing, systems and methods

Also Published As

Publication number Publication date
EP3067844A1 (en) 2016-09-14
US20160267355A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
JP6709862B2 (ja) 畳み込みニューラルネットワーク画像認識技術による会計方法及び設備
JP2016168558A (ja) 配達物処理装置、および配達物処理プログラム
US9364865B2 (en) System and method for sorting parcel
EP3008666B1 (en) Image based object classification
US20150360877A1 (en) System for loading parcel and method thereof
JP6203084B2 (ja) 配達物区分処理システム、および配達物区分処理方法
JPWO2015145982A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびコンピュータプログラム
EP3273394A1 (en) Package inspection system and package inspection program
US20210272309A1 (en) System and methods for automatic determination of item dimensions
KR102283197B1 (ko) 상품의 유형을 결정하는 방법 및 디바이스
JP2018171579A (ja) 宛先認識装置、小包自動区分システム、宛先認識方法及びプログラム
KR101255076B1 (ko) 소포 우편물 순서화 시스템 및 방법
JP2022088474A (ja) 測定システム
RU2597572C1 (ru) Устройство распознавания адреса, устройство сортировки, интегрированное устройство распознавания адреса и способ распознавания адреса
JP6699890B2 (ja) 荷物検査システム
US9037288B2 (en) Method of processing mailpieces with digital models of running mailpieces being generated on an interactive terminal
JP2014182618A (ja) 区分装置及びパターン認識装置
KR20060020460A (ko) 우편물 분류 방법 및 시스템
JP6896910B2 (ja) 検査管理装置
US11594047B2 (en) Article distinguishing system
WO2023148929A1 (ja) 容器選別システム
JP2014232436A (ja) 配送情報管理サーバ、及び、配送情報管理システム
JP7192037B2 (ja) 仕分管理装置及び検査システム
JP2002032711A (ja) 帳票認識装置および帳票認識方法
JP2013103162A (ja) ビデオコーディングシステム、画像の表示優先度判定プログラムおよび小包処理装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911