JP2019139570A - 判別装置、判別方法およびプログラム - Google Patents

判別装置、判別方法およびプログラム Download PDF

Info

Publication number
JP2019139570A
JP2019139570A JP2018023266A JP2018023266A JP2019139570A JP 2019139570 A JP2019139570 A JP 2019139570A JP 2018023266 A JP2018023266 A JP 2018023266A JP 2018023266 A JP2018023266 A JP 2018023266A JP 2019139570 A JP2019139570 A JP 2019139570A
Authority
JP
Japan
Prior art keywords
work
worker
unit
area
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018023266A
Other languages
English (en)
Inventor
山内 康晋
Yasuaki Yamauchi
康晋 山内
和範 井本
Kazunori Imoto
和範 井本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018023266A priority Critical patent/JP2019139570A/ja
Priority to US16/102,795 priority patent/US10902246B2/en
Publication of JP2019139570A publication Critical patent/JP2019139570A/ja
Priority to JP2021168171A priority patent/JP7423584B2/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Factory Administration (AREA)
  • Image Analysis (AREA)

Abstract

【課題】作業者の作業内容を表す作業種別を効率良く判別する。【解決手段】実施形態に係る判別装置は、位置特定部と、領域特定部と、選択部と、動作情報生成部と、判別処理部と、を備える。位置特定部は、作業者位置を特定する。領域特定部は、作業者位置を含む作業領域を特定する。選択部は、人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、作業領域に対応付けられた少なくとも1つの判別器を選択する。動作情報生成部は、作業者の動作を表す作業者動作情報を生成する。判別処理部は、選択された少なくとも1つの判別器を用いて、作業者動作情報に基づき、作業者の作業内容を表す作業種別を判別する。【選択図】図4

Description

本発明の実施形態は、判別装置、判別方法およびプログラムに関する。
工場等において、作業者の動作を認識する認識システムが知られている。この認識システムでは、作業者が装着したセンサ等から動作情報を取得し、予め学習された判別器(例えば、辞書データ等)を用いて、取得した動作情報から作業者の動作を認識する。これにより、認識システムは、作業者が正しい作業を行っているか等を管理者等に確認させることができる。
ところで、工場での作業者の作業は様々である。このため、認識システムは、共通の1つの判別器を用いて、全ての動作を判別することは困難であった。しかし、認識システムは、多数の判別器を並行に用いて認識処理をすることは効率が悪く、コストが高くなってしまっていた。
また、工場では、適宜生産改善が行われる。このため、認識システムは、常に、作業者の動作情報の収集、教師データの生成および学習処理等を行い、判別器を適切に更新しなければならない。しかし、複数の判別器を常時更新することは非常に効率が悪く、コストが高くなってしまっていた。
特開2009−122302号公報
本発明が解決しようとする課題は、作業者の作業内容を表す作業種別を効率良く判別することにある。
実施形態に係る判別装置は、位置特定部と、領域特定部と、選択部と、動作情報生成部と、判別処理部と、を備える。前記位置特定部は、作業者位置を特定する。前記領域特定部は、前記作業者位置を含む作業領域を特定する。前記選択部は、人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた少なくとも1つの判別器を選択する。前記動作情報生成部は、前記作業者の動作を表す作業者動作情報を生成する。前記判別処理部は、選択された前記少なくとも1つの判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容を表す作業種別を判別する。
認識システムを示す図。 複数の部分領域の第1例を示す図。 複数の部分領域の第2例を示す図。 第1実施形態に係る判別装置の構成を示す図。 第1実施形態に係る判別装置の処理の流れを示すフローチャート。 第2実施形態に係る判別装置の構成を示す図である。 第2実施形態に係る判別装置の処理の流れを示すフローチャート。 第2実施形態に係る判別装置により表示される画像の第1例を示す図。 第2実施形態に係る判別装置により表示される画像の第2例を示す図。 第3実施形態に係る判別装置の構成を示す図。 部分領域の統合例を示す図。 第4実施形態に係る判別装置の構成を示す図。 第4実施形態に係る判別装置の処理の流れを示すフローチャート。 第4実施形態に係る判別装置により表示される画像の一例を示す図。 判別装置のハードウェア構成を示す図。
以下に添付図面を参照して、本発明の実施形態を説明する。
(第1実施形態)
図1は、実施形態に係る認識システム10を示す図である。
認識システム10は、例えば工場の製造ライン20における、作業者の作業内容を判別する。認識システム10は、少なくとも1つの位置センサ22と、少なくとも1つの動作センサ24と、判別装置30とを備える。
少なくとも1つの位置センサ22のそれぞれは、作業者位置を示す位置情報を検出する。位置センサ22は、例えば、対象範囲36内での作業者位置を検出する。対象範囲36は、認識システム10により作業者の作業内容を判別する範囲である。工場における作業者の作業内容を判別する場合には、対象範囲36は、例えば、工場の建屋内の部屋または工場の敷地等である。
位置センサ22は、作業者位置を検出することができれば、どのような装置であってもよい。例えば、位置センサ22は、作業者を撮像して撮像画像から、作業者の位置情報を検出するカメラであってもよい。
また、例えば、位置センサ22は、作業者により装着される無線受信端末(例えば、Bluetooth(登録商標)端末)であってもよい。この場合、無線受信端末は、複数の位置に配置された複数の無線送信端末のそれぞれから送信された複数のビーコンを受信する。無線受信端末は、複数のビーコンのそれぞれの受信強度から、それぞれの無線送信端末までの距離を推定する。そして、無線受信端末は、推定した距離および複数の無線送信端末の位置に基づき、作業者位置を算出する。
また、作業者が屋外にいる場合、受信端末は、複数のGPS(全地球測位システム)衛星から送信された複数の信号を受信し、受信した複数の信号から作業者位置を算出してもよい。また、例えば、位置センサ22は、作業者に装着された加速度センサ等から、作業者の移動距離を算出する装置であってもよい。
少なくとも1つの動作センサ24のそれぞれは、作業者の動作を表す動作情報を検出する。動作センサ24は、作業者の体の全体の動きを検出してもよい。また、動作センサ24は、作業者の腕、手、指、足、頭、関節または目等の各部位の個別の動きを検出してもよい。また、動作センサ24は、作業者の腰に取り付けられた加速度センサおよびジャイロセンサであって、作業者が静止しているか、歩行しているか等を検出してもよい。例えば、動作センサ24は、作業者の腕、足および頭等に取り付けられた加速度センサおよびジャイロセンサであって、腕、足または頭等の個別の動きを検出してもよい。また、例えば、動作センサ24は、作業者を撮像するカメラおよび撮像画像に基づき作業者の動作を解析する情報処理装置であってもよい。
判別装置30は、例えば汎用のコンピュータと同様のハードウェアを有し、所定のアプリケーションプログラムを実行する。判別装置30は、少なくとも1つの位置センサ22のそれぞれから位置情報を受信する。また、判別装置30は、少なくとも1つの動作センサ24のそれぞれから動作情報を受信する。判別装置30は、一定期間毎(例えば、5秒毎)、位置情報および動作情報を受信する。そして、判別装置30は、受信した位置情報および動作情報に基づき、作業者の作業内容を表す作業種別を判別する。
なお、判別装置30は、複数の作業者が存在する場合には、作業者毎に位置情報および動作情報を受信する。そして、判別装置30は、作業者毎に、作業内容を表す作業種別を判別する。
図2は、対象範囲36に対して設定された複数の部分領域38の第1例を示す図である。図3は、対象範囲36に対して設定された複数の部分領域38の第2例を示す図である。
判別装置30には、複数の部分領域38を示す情報が登録されている。部分領域38は、作業者がその中で同一の作業を行うと予測される、対象範囲36内における一部の領域である。複数の部分領域38は、例えば管理者により定められる。
工場では、対象範囲36内に製造装置および搬送装置等を含む製造ライン20が設けられる。そして、工場では、製造ライン20における製造装置および搬送装置の位置に応じて、作業者が行う作業の内容が定められている。従って、管理者は、製造ライン20における製造装置および搬送装置の位置等に基づき、同一の作業を行うと予測される部分領域38を予め設定することができる。
また、複数の部分領域38は、認識システム10によりどのような作業種別を判別したいかによっても調整される。例えば、作業者の移動が多く、大まかな作業者の動作を判別したい場合、部分領域38は、図2に示すように比較的に大きな範囲に設定される。一方、手元の作業が多く、例えば製造機器毎に作業者の動作を判別したい場合、部分領域38は、図3に示すように製造機器付近の比較的に小さな範囲に設定される。
図4は、第1実施形態に係る判別装置30の構成を示す図である。判別装置30は、領域受付部40と、領域情報記憶部42と、位置特定部44と、領域特定部46と、判別器記憶部48と、選択部50と、動作情報生成部52と、判別処理部54とを有する。
領域受付部40は、管理者の指示等に応じて、複数の部分領域38を示す情報を受け付ける。例えば、領域受付部40は、対象範囲36を示す画像を表示装置に表示させて、管理者による複数の部分領域38の指定を受け付ける。領域情報記憶部42は、領域受付部40が受け付けた複数の部分領域38を示す情報を記憶する。
位置特定部44は、少なくとも1つの位置センサ22のそれぞれから位置情報を受信する。位置特定部44は、受信した位置情報に基づき、対象範囲36内における作業者位置を特定する。位置特定部44は、特定した作業者位置を領域特定部46に与える。
領域特定部46は、領域情報記憶部42に記憶された情報を参照して、複数の部分領域38のうち、位置特定部44により特定された作業者位置を含む1つの部分領域38を、作業領域として特定する。領域特定部46は、特定した作業領域を示す情報を選択部50に与える。
判別器記憶部48は、複数の判別器を記憶する。複数の判別器のそれぞれは、人間の動作を表す所定のフォーマットの動作情報から人間の作業内容を判別するために用いられる情報である。複数の判別器のそれぞれは、例えば互いに異なる作業種別を判別する。
例えば、判別器は、サポートベクトルマシン等のパターン認識モデルである。この場合、判別器は、予め教師データとなる動作情報に対して所定の判別結果が得られるように訓練がされている。判別器は、動作情報から作業種別を判別するために用いられる情報およびモデル等であれば、サポートベクトルマシンに限らず、ランダムフォレスト、多層パーセプトロンおよびニューラルネットワーク等であってもよい。
また、複数の部分領域38のそれぞれは、少なくとも1つの判別器が対応付けられている。1つの部分領域38に対して、1つの判別器が対応付けられていてもよいし、複数の判別器が対応付けられていてもよい。
例えば、本実施形態においては、下記の表1に示すように、複数の部分領域38のそれぞれには、少なくとも1つの作業者の種別が対応付けられている。そして、それぞれの種別には、1つの判別器が対応付けられている。
例えば、表1では、部分領域38−Aに“部品補充”という種別が対応付けられており、部分領域38−Bに“機器操作”および“メモ書き”という種別が対応付けられており、部分領域38−Cに“台車移動”および“PC入力”という種別が対応付けられている。また、表1では、“部品補充”には第1判別器が対応付けられており、“機器操作”には第2判別器が対応付けられており、“メモ書き”には第3判別器が対応付けられており、“台車移動”には第4判別器が対応付けられており、“PC入力”には第5判別器が対応付けられている。
なお、判別器記憶部48は、判別装置30に備えられるのではなく、他のサーバに備えられていてもよい。この場合、判別装置30は、ネットワークを介してサーバにアクセスして、複数の判別器を取得する。
選択部50は、判別器記憶部48に記憶された複数の判別器のうち、特定された作業領域に対応付けられた少なくとも1つの判別器を選択する。例えば、表1の例であれば、選択部50は、部分領域38−Aが作業領域として特定された場合、第1判別器を選択する。また、部分領域38−Bが作業領域として特定された場合、選択部50は、第2判別器および第3判別器を選択する。また、部分領域38−Cが作業領域として特定された場合、選択部50は、第4判別器および第5判別器を選択する。選択部50は、選択した判別器を示す情報を判別処理部54に与える。
動作情報生成部52は、少なくとも1つの動作センサ24のそれぞれから作業者の動作を表す動作情報を受信する。動作情報生成部52は、受信した動作情報に基づき、作業者の動作を表す作業者動作情報を生成する。例えば、動作情報生成部52は、複数の動作センサ24から取得した複数の動作情報を組み合わせて、所定のフォーマットの作業者動作情報を生成する。動作情報生成部52は、生成した作業者動作情報を判別処理部54に与える。
判別処理部54は、選択部50により選択された少なくとも1つの判別器を用いて、動作情報生成部52により生成された作業者動作情報に基づき、作業者の作業内容を表す作業種別を判別する。
例えば、判別処理部54は、作業者が、部品補充作業をしているか、機器操作作業をしているか、メモ書き作業をしているか、台車移動作業をしているか、または、PC入力作業をしているか等を判別する。また、判別処理部54は、作業種別毎に、その作業をしている信頼度を生成してもよい。この場合、判別処理部54は、作業種別の候補である候補種別と、信頼度との組を出力する。また、判別処理部54は、複数の判別器を用いて作業種別を判別した場合には、信頼度が最も高い候補種別を、作業種別として出力する。
また、判別装置30は、所定時間毎(例えば、1分毎)に、作業種別を判別してもよい。また、判別装置30は、複数の作業者についての位置情報および動作情報を受信してもよい。この場合、判別装置30は、作業者毎に、作業種別を判別する。
図5は、第1実施形態に係る判別装置30の処理の流れを示すフローチャートである。第1実施形態に係る判別装置30は、図5に示す流れで処理を実行する。
まず、S11において、判別装置30は、位置センサ22から位置情報を受信し、受信した位置情報に基づき作業者位置を特定する。続いて、S12において、判別装置30は、動作センサ24から作業者の動作を表す動作情報を受信し、受信した動作情報に基づき作業者動作情報を生成する。
続いて、S13において、判別装置30は、複数の部分領域38のうち、特定された作業者位置を含む1つの部分領域38を作業領域として特定する。続いて、S14において、判別装置30は、判別器記憶部48に記憶された複数の判別器のうち、特定された作業領域に対応付けられた少なくとも1つの判別器を選択する。そして、S15において、判別装置30は、選択された少なくとも1つの判別器を用いて、生成した作業者動作情報に基づき、作業者の作業内容を表す作業種別を判別する。
以上のような第1実施形態に係る判別装置30は、作業者位置に応じて適切な判別器を選択し、選択した適切な判別器により作業者の作業内容を表す作業種別を判別する。これにより、判別装置30によれば、効率良く且つ精度良く作業種別を判別することができる。
(第2実施形態)
つぎに、第2実施形態に係る判別装置30について説明する。第2実施形態に係る判別装置30は、第1実施形態と同一の認識システム10に適用される。また、第3実施形態以降も同様である。また、第2実施形態に係る判別装置30は、第1実施形態と略同一の構成および機能を有するので、共通の要素には同一の符号を付けて、相違点を除き詳細な説明を省略する。
図6は、第2実施形態に係る判別装置30の構成を示す図である。第2実施形態に係る判別装置30は、結果記憶部56と、表示制御部58とをさらに有する。
結果記憶部56は、所定時間毎(例えば1分毎)に特定された作業領域および作業種別を、動作時刻に対応させて記憶する。表示制御部58は、判別処理部54が判別した作業種別を表示装置に表示させる。表示制御部58は、現在の作業種別を表示装置に表示させる。また、表示制御部58は、管理者により指定された過去の時刻における作業種別を結果記憶部56から読み出し、読み出した作業種別を表示装置に表示させてもよい。
図7は、第2実施形態に係る判別装置30の処理の流れを示すフローチャートである。第2実施形態に係る判別装置30は、図7に示す流れで処理を実行する。
第2実施形態に係る判別装置30は、S11からS15まで、図5のフローチャートで示した処理と同一の処理を実行する。S15に続いて、S16において、判別装置30は、判別した作業種別を表示装置に表示させる。
図8は、第2実施形態に係る判別装置30により表示される画像の第1例を示す図である。表示制御部58は、対象範囲36を表す対象範囲画像60を表示装置に表示させる。例えば、対象範囲画像60は、製造装置が配置されている位置に製造装置画像64を含む。また、例えば、対象範囲画像60は、搬送装置が配置されている位置に搬送装置画像66を含む。
また、表示制御部58は、作業者位置を示す作業者マーク62を、対象範囲画像60における対応する位置上に表示させる。これにより、表示制御部58は、作業者位置を管理者に容易に確認させることができる。
また、表示制御部58は、部分領域38の範囲を表す部分領域画像70を、対象範囲画像60における対応する位置上に表示させる。これにより、表示制御部58は、部分領域38の範囲を、管理者に容易に確認させることができる。
また、表示制御部58は、判別した作業種別を表す判別結果画像72を表示させる。例えば、表示制御部58は、対象範囲画像60における作業者に対応する位置に判別結果画像72を表示させる。図8の例においては、表示制御部58は、作業者マーク62から吹き出す吹出画像を、判別結果画像72として表示装置に表示させる。これにより、表示制御部58は、作業者の作業内容を管理者に容易に確認させることができる。
また、複数の候補種別を判別した場合には、表示制御部58は、信頼度が高い順に複数の候補種別を並べた候補画像74を表示装置に表示させてもよい。これにより、表示制御部58は、判別装置30による判別内容を管理者に確認させることができる。
図9は、第2実施形態に係る判別装置30により表示される画像の第2例を示す図である。表示制御部58は、対象範囲画像60、作業者マーク62、判別結果画像72および複数の部分領域画像70を表示装置に表示させる。
この場合において、表示制御部58は、複数の部分領域38のそれぞれ毎に、所定作業期間(例えば、1日)において作業者が作業をした合計の作業時間を算出する。そして、表示制御部58は、算出した合計の作業時間をさらに表す部分領域画像70を表示装置に表示させる。
例えば、表示制御部58は、合計の作業時間の長さに応じて色または濃さが変化する部分領域画像70を表示させる。例えば、表示制御部58は、その部分領域38での合計の作業時間が長い程、色またはハッチングが濃くなる部分領域画像70を表示させてもよい。
表示制御部58は、何れかの部分領域38内での作業者の平均位置を算出し、算出した平均位置に作業者マーク62を表示させてもよい。また、表示制御部58は、何れかの部分領域38内での作業種別を示す判別結果画像72を表示させてもよい。
これにより、表示制御部58は、判別結果を統計処理した結果を管理者に確認させることができる。このように第2実施形態に係る判別装置30は、複数の観点から判別結果を分析して、管理者に提供することができる。
(第3実施形態)
つぎに、第3実施形態に係る判別装置30について説明する。第3実施形態に係る判別装置30は、第2実施形態と略同一の構成および機能を有するので、共通の要素には同一の符号を付けて、相違点を除き詳細な説明を省略する。
図10は、第3実施形態に係る判別装置30の構成を示す図である。第3実施形態に係る判別装置30は、領域再構築部80をさらに有する。
領域再構築部80は、所定作業期間(例えば、1日または1週間等)おいて、隣接する2つの部分領域38における作業種別の統計を取る。さらに、領域再構築部80は、所定作業期間において、隣接する2つの部分領域38における作業種別の一致割合が予め定められた値以上であるか否かを判断する。そして、領域再構築部80は、所定作業期間において隣接する2つの部分領域38における作業種別の一致割合が予め定められた値以上である場合、その2つの部分領域38を統合して1つの部分領域38とするように、領域情報記憶部42に記憶された複数の部分領域38を再構築する。さらに、領域再構築部80は、複数の部分領域38を再構築した場合、部分領域38と判定器との対応関係も更新する。
図11は、部分領域38の統合例を示す図である。例えば、図11の上側に示すように、初期設定時において、対象範囲36内に、A−1、A−2、A−3、B−1およびB−2の5個の部分領域38が設定されていたとする。初期設定から所定作業期間、作業者の作業内容を解析した結果、A−1、A−2およびA−3の隣接する3個の部分領域38における作業種別の一致割合が予め定められた値以上であった。また、B−1およびB−2の隣接する2個の部分領域38における作業種別の一致割合が予め定められた値以上であった。
このような場合、領域再構築部80は、図11の下側に示すように、A−1、A−2およびA−3を統合して、1個の部分領域38(A)を生成する。また、領域再構築部80は、B−1およびB−2を統合して1個の部分領域38(B)を生成する。これにより、判別装置30は、近似した複数の部分領域38を統合して、効率良く作業領域を特定することができる。
また、複数の部分領域38のそれぞれを表す複数の部分領域画像70を、表示装置に表示させる場合、表示制御部58は、複数の部分領域38を統合して表示してもよい。具体的には、表示制御部58は、所定作業期間において、隣接する2つの部分領域38における作業種別の一致割合が予め定められた値以上である場合、その2つの部分領域38を統合して1つの部分領域38として表示する。これにより、判別装置30は、近似した複数の部分領域38を統合して、管理者にわかりやすく作業領域を確認させることができる。
(第4実施形態)
つぎに、第4実施形態に係る判別装置30について説明する。第4実施形態に係る判別装置30は、第2実施形態と略同一の構成および機能を有するので、共通の要素には同一の符号を付けて、相違点を除き詳細な説明を省略する。
図12は、第4実施形態に係る判別装置30の構成を示す図である。第4実施形態に係る判別装置30は、動作記憶部82と、入力受付部84と、学習部86とをさらに有する。
動作記憶部82は、動作情報生成部52により生成された作業者動作情報、および、判別処理部54により判別された作業種別を対応付けて記憶する。さらに、動作記憶部82は、領域特定部46により特定された作業領域を、作業種別に対応付けて記憶する。
入力受付部84は、提示された作業種別が誤っていた場合、管理者から正しい作業種別を受け付ける。正しい作業種別を受け付けた場合、表示制御部58は、表示装置に正しい作業種別を表示させる。また、正しい作業種別を受け付けた場合、結果記憶部56は、誤った作業種別に代えて、正しい作業種別を記憶する。
学習部86は、管理者から正しい作業種別を受け付けた場合、動作記憶部82により記憶された作業者動作情報および正しい作業種別に基づき、判別器記憶部48に記憶された複数の判別器を訓練する。この場合、学習部86は、判別器記憶部48に記憶された複数の判別器の全てを訓練するのではなく、特定された作業領域に対応付けられた判別器を訓練してもよい。これにより、学習部86は、誤った判別をした判別器を訓練することができる。
図13は、第4実施形態に係る判別装置30の処理の流れを示すフローチャートである。第4実施形態に係る判別装置30は、図13に示す流れで処理を実行する。
第4実施形態に係る判別装置30は、S11からS13まで、図7に示す第2実施形態と同一の処理を実行する。S13に続いて、S21において、判別装置30は、生成した作業者動作情報および特定した作業領域を記憶する。S21に続いて、判別装置30は、S14からS16まで、図7に示す第2実施形態と同一の処理を実行する。
S16に続いて、S22において、判別装置30は、管理者から正しい作業種別を受け付けたか否かを判断する。管理者から正しい作業種別を受け付けてない場合、すなわち、判別処理での判別結果が正しい場合(S22のNo)、判別装置30は、本フローを終了する。
管理者から正しい作業種別を受け付けた場合、すなわち、判別処理での判別結果が誤っていた場合(S22のYes)、判別装置30は、処理をS23に進める。S23において、判別装置30は、表示装置に正しい作業種別を表示させ、結果記憶部56に対して誤った作業種別に代えて正しい作業種別を記憶させる。続いて、S24において、判別装置30は、動作記憶部82により記憶された作業者動作情報および正しい作業種別に基づき、特定された作業領域に対応付けられた判別器を訓練する。続いて、S25において、判別装置30は、訓練結果に基づき判別器を更新する。そして、S25の処理を終えた場合、判別装置30は、本フローを終了する。
図14は、第4実施形態に係る判別装置30により表示される画像の一例を示す図である。第4実施形態に係る表示制御部58は、対象範囲画像60、作業者マーク62および複数の部分領域画像70を表示装置に表示させる。
さらに、表示制御部58は、判別された作業種別、および、作業種別の候補である少なくとも1つの候補種別を含む種別画像90を、表示装置に表示させる。管理者は、種別画像90に含まれる作業種別が誤っていた場合、少なくとも1つの候補種別のうちの1つを、正しい作業種別として選択する。
正しい作業種別が選択された場合、表示制御部58は、表示装置に正しい作業種別を表示させる。そして、結果記憶部56は、誤った作業種別に代えて、正しい作業種別を記憶する。さらに、学習部86は、正しい作業種別に基づき、判別器を訓練する。このように、第3実施形態に係る判別装置30は、判別結果の修正および判別器の学習を適切に実行することができる。
(ハードウェア構成)
図15は、判別装置30のハードウェア構成を示す図である。判別装置30は、一例として、一般のコンピュータ(情報処理装置)と同様のハードウェア構成により実現される。判別装置30は、所定プログラムを実行することにより機能することができる。
判別装置30は、CPU(Central Processing Unit)202と、ROM(Read Only Memory)204と、RAM(Random Access Memory)206と、操作部208と、表示部210、通信装置212と、記憶装置214とを備える。各部は、バスにより接続される。
CPU202は、情報処理を実行するプロセッサであって、記憶装置214に記憶されたプログラムをRAM206に展開して実行し、各部を制御して入出力を行ったり、データの加工を行ったりする。CPU202は、1または複数のプロセッサにより構成されていてもよい。また、判別装置30は、プログラムを実行することが可能であれば、CPU202に限らず他のプロセッサを備えてもよい。ROM204には、起動用プログラムを記憶装置214からRAM206に読み出すスタートプログラムが記憶されている。RAM206は、CPU202の作業領域としてデータを記憶する。
操作部208は、マウスまたはキーボード等の入力デバイスであって、ユーザから操作入力された情報を指示信号として受け付け、その指示信号をCPU202に出力する。表示部210は、例えばLCD(Liquid Crystal Display)等の表示装置である。表示部210は、CPU202からの表示信号に基づいて、各種情報を表示する。通信装置212は、ネットワーク等を介して、外部機器と情報をやり取りする。記憶装置214は、例えば、ハードディスクドライブまたはフラッシュメモリ等である。記憶装置214は、判別装置30で実行されるプログラム、および、オペレーティングシステムを記憶している。
本実施形態の判別装置30で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、本実施形態の判別装置30で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の判別装置30で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態のプログラムを、ROM204等に予め組み込んで提供するように構成してもよい。
情報処理装置を判別装置30として機能させるためのプログラムは、領域受付モジュールと、位置特定モジュールと、領域特定モジュールと、選択モジュールと、動作情報生成モジュールと、判別処理モジュールとを有する。判別装置30は、プロセッサ(CPU202)が記憶媒体(記憶装置214等)からプログラムを読み出して実行することにより各モジュールが主記憶装置(RAM206)上にロードされ、プロセッサ(CPU202)が、領域受付部40、位置特定部44、領域特定部46、選択部50、動作情報生成部52および判別処理部54として機能する。なお、これらの一部または全部がプロセッサ以外のハードウェアにより実現されてもよい。また、記憶装置214は、領域情報記憶部42および判別器記憶部48として機能する。なお、領域情報記憶部42および判別器記憶部48は、判別装置30の外部のサーバ等により実現されてもよい。この場合、判別装置30は、通信装置212を介して領域情報記憶部42および判別器記憶部48にアクセスする。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
10 認識システム
20 製造ライン
22 位置センサ
24 動作センサ
30 判別装置
36 対象範囲
38 部分領域
40 領域受付部
42 領域情報記憶部
44 位置特定部
46 領域特定部
48 判別器記憶部
50 選択部
52 動作情報生成部
54 判別処理部
56 結果記憶部
58 表示制御部
60 対象範囲画像
62 作業者マーク
64 製造装置画像
66 搬送装置画像
70 部分領域画像
72 判別結果画像
74 候補画像
80 領域再構築部
82 動作記憶部
84 入力受付部
86 学習部
90 種別画像

Claims (15)

  1. 作業者位置を特定する位置特定部と、
    前記作業者位置を含む作業領域を特定する領域特定部と、
    人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた少なくとも1つの判別器を選択する選択部と、
    作業者の動作を表す作業者動作情報を生成する動作情報生成部と、
    選択された前記少なくとも1つの判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容を表す作業種別を判別する判別処理部と、
    を備える判別装置。
  2. 前記領域特定部は、予め設定された複数の部分領域のうち、前記作業者位置を含む1つの部分領域を前記作業領域として特定する
    請求項1に記載の判別装置。
  3. 前記判別処理部は、前記作業者の作業内容の候補である複数の候補種別と、前記複数の候補種別のそれぞれの信頼度とを算出し、前記信頼度が最も高い1つの候補種別を前記作業種別として出力する
    請求項1または2に記載の判別装置。
  4. 所定時間毎に、
    前記位置特定部は、前記作業者位置を特定し、
    前記領域特定部は、前記作業領域を特定し、
    前記選択部は、前記少なくとも1つの判別器を選択し、
    前記動作情報生成部は、前記作業者動作情報を生成し、
    前記判別処理部は、前記作業種別を判別する
    請求項1から3の何れか1項に記載の判別装置。
  5. 所定時間毎に判別された前記作業種別、および、前記所定時間毎に特定された前記作業領域を、前記作業者が動作した時刻に対応させて記憶する結果記憶部をさらに備える
    請求項2に記載の判別装置。
  6. 前記作業者の作業内容を判別する対象範囲を表す対象範囲画像、前記対象範囲における前記作業者位置を示す作業者マーク、および、判別した前記作業種別を表す判別結果画像を、表示装置に表示させる表示制御部をさらに備える
    請求項1から5の何れか1項に記載の判別装置。
  7. 前記信頼度が高い順に前記複数の候補種別が並べられた候補画像を表示装置に表示させる表示制御部をさらに備える
    請求項3に記載の判別装置。
  8. 前記作業者の作業内容を判別する対象範囲を表す対象範囲画像、および、前記対象範囲における前記複数の部分領域のそれぞれを表す複数の部分領域画像を、表示装置に表示させる表示制御部をさらに備え、
    前記表示制御部は、前記複数の部分領域のそれぞれ毎に、所定作業期間において前記作業者が作業をした作業時間を算出し、算出した作業時間をさらに表す前記複数の部分領域画像を表示させる
    請求項5に記載の判別装置。
  9. 前記作業者の作業内容を判別する対象範囲を表す対象範囲画像、および、前記対象範囲における前記複数の部分領域のそれぞれを表す複数の部分領域画像を、表示装置に表示させる表示制御部をさらに備え、
    前記表示制御部は、所定作業期間において、隣接する2つの部分領域における前記作業種別の一致割合が予め定められた値以上である場合、前記2つの部分領域を統合して1つの部分領域として表示する
    請求項5に記載の判別装置。
  10. 所定作業期間において、隣接する2つの部分領域における前記作業種別の一致割合が予め定められた値以上である場合、前記2つの部分領域を統合して1つの部分領域とするように、前記複数の部分領域を再構築する領域再構築部をさらに備える
    請求項2に記載の判別装置。
  11. 生成された前記作業者動作情報および判別された前記作業種別を対応付けて記憶する動作記憶部と、
    前記動作記憶部により記憶された前記作業者動作情報および前記作業領域に基づき、前記複数の判別器を訓練する学習部と、
    をさらに備える請求項1に記載の判別装置。
  12. 前記動作記憶部は、特定された前記作業領域を、前記作業種別に対応付けてさらに記憶し、
    前記学習部は、前記作業領域に対応付けられた少なくとも1つの判別器を訓練する
    請求項11に記載の判別装置。
  13. 判別された前記作業種別と、前記作業者の作業内容の候補である複数の候補種別とをユーザに提示する表示制御部と、
    前記複数の候補種別の中から1つの候補種別の選択を受け付ける入力受付部と、
    をさらに備え、
    前記判別処理部は、前記入力受付部が前記ユーザに提示した前記作業種別とは異なる候補種別の選択を受け付けた場合、選択された候補種別を新たな作業種別として出力し、
    前記学習部は、提示した前記作業種別とは異なる候補種別の選択を受け付けた場合、判別に用いた前記判別器を、前記新たな作業種別を用いて訓練する
    請求項12に記載の判別装置。
  14. 作業者の作業内容を表す作業種別を情報処理装置により判別する判別方法であって、
    前記情報処理装置が、作業者位置を特定し、
    前記情報処理装置が、前記作業者位置を含む作業領域を特定し、
    前記情報処理装置が、人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた少なくとも1つの判別器を選択し、
    前記情報処理装置が、前記作業者の動作を表す作業者動作情報を生成し、
    前記情報処理装置が、選択された前記少なくとも1つの判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容を表す作業種別を判別する
    判別方法。
  15. 作業者の作業内容を表す作業種別を判別する判別装置として情報処理装置を機能させるためのプログラムであって、
    前記情報処理装置を、
    作業者位置を特定する位置特定部と、
    前記作業者位置を含む作業領域を特定する領域特定部と、
    人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた少なくとも1つの判別器を選択する選択部と、
    前記作業者の動作を表す作業者動作情報を生成する動作情報生成部と、
    選択された前記少なくとも1つの判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容を表す作業種別を判別する判別処理部として
    機能させるプログラム。
JP2018023266A 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム Pending JP2019139570A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018023266A JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム
US16/102,795 US10902246B2 (en) 2018-02-13 2018-08-14 Device and method for determining job types based on worker movements
JP2021168171A JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018023266A JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021168171A Division JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019139570A true JP2019139570A (ja) 2019-08-22

Family

ID=67541672

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018023266A Pending JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム
JP2021168171A Active JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021168171A Active JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Country Status (2)

Country Link
US (1) US10902246B2 (ja)
JP (2) JP2019139570A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220092496A1 (en) * 2019-11-26 2022-03-24 Ncr Corporation Frictionless and autonomous control processing
JP2022048014A (ja) * 2020-09-14 2022-03-25 株式会社東芝 負荷推定装置、方法およびプログラム
US20220198804A1 (en) * 2019-09-27 2022-06-23 Ncr Corporation Frictionless Authentication and Monitoring
JP7456616B2 (ja) 2020-08-04 2024-03-27 公立大学法人岩手県立大学 学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム
JP7493390B2 (ja) 2020-06-15 2024-05-31 株式会社日立ハイテク 監視システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7339167B2 (ja) * 2020-01-17 2023-09-05 株式会社日立製作所 作業支援システム及び作業支援方法
JP7299187B2 (ja) * 2020-03-23 2023-06-27 株式会社日立製作所 作業支援システムおよび作業支援方法
CN113838133A (zh) * 2021-09-23 2021-12-24 上海商汤科技开发有限公司 一种状态检测方法、装置、计算机设备和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644203A (ja) * 1992-05-12 1994-02-18 Matsushita Electric Ind Co Ltd 統合型学習システム
JP2006178583A (ja) * 2004-12-21 2006-07-06 Yokogawa Electric Corp 作業者行動記録システム
JP2007021652A (ja) * 2005-07-15 2007-02-01 Mikuni Corp 製品の生産装置および製品の生産方法
JP2009122302A (ja) * 2007-11-14 2009-06-04 Hitachi Ltd 作業情報処理装置、プログラム及び作業情報処理方法
JP2010161991A (ja) * 2009-01-16 2010-07-29 Fujitsu Ltd 作業記録装置、作業記録システムおよび作業記録プログラム
JP2013151063A (ja) * 2009-05-22 2013-08-08 Toyota Motor East Japan Inc 作業ロボット支援システム
JP2014199514A (ja) * 2013-03-29 2014-10-23 株式会社クボタ 作業管理支援装置
WO2015098577A1 (ja) * 2013-12-27 2015-07-02 日本郵船株式会社 作業管理システム
JP2017010186A (ja) * 2015-06-19 2017-01-12 三菱電機株式会社 物流作業分析システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0816986B1 (en) * 1996-07-03 2006-09-06 Hitachi, Ltd. System for recognizing motions
US7421491B2 (en) * 2002-04-23 2008-09-02 Seer Insight Security K.K. Method and system for monitoring individual devices in networked environments
WO2005006138A2 (en) * 2003-06-30 2005-01-20 Idocuments, Llc Worker and document management system
JP4460528B2 (ja) * 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
US20060259472A1 (en) * 2005-05-13 2006-11-16 Macclellan Mary Automated factory work analyzer
JP2007328435A (ja) 2006-06-06 2007-12-20 Mitsubishi Electric Corp 移動体行動分析装置
TWI413923B (zh) 2009-06-30 2013-11-01 E Pin Optical Industry Co Ltd 微機電掃描之座標偵測方法及其觸控螢幕
US8983124B2 (en) * 2009-12-03 2015-03-17 National Institute Of Advanced Industrial Science And Technology Moving body positioning device
US8554605B2 (en) * 2011-06-29 2013-10-08 CrowdFlower, Inc. Evaluating a worker in performing crowd sourced tasks and providing in-task training through programmatically generated test tasks
US20140244209A1 (en) * 2013-02-22 2014-08-28 InvenSense, Incorporated Systems and Methods for Activity Recognition Training
US8948783B2 (en) * 2013-06-28 2015-02-03 Facebook, Inc. User activity tracking system
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2016015026A (ja) 2014-07-02 2016-01-28 富士通株式会社 作業対象確定プログラム、作業対象確定装置及び作業対象確定方法
JP6786862B2 (ja) 2016-04-26 2020-11-18 株式会社ジェイテクト 工程計画作成装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644203A (ja) * 1992-05-12 1994-02-18 Matsushita Electric Ind Co Ltd 統合型学習システム
JP2006178583A (ja) * 2004-12-21 2006-07-06 Yokogawa Electric Corp 作業者行動記録システム
JP2007021652A (ja) * 2005-07-15 2007-02-01 Mikuni Corp 製品の生産装置および製品の生産方法
JP2009122302A (ja) * 2007-11-14 2009-06-04 Hitachi Ltd 作業情報処理装置、プログラム及び作業情報処理方法
JP2010161991A (ja) * 2009-01-16 2010-07-29 Fujitsu Ltd 作業記録装置、作業記録システムおよび作業記録プログラム
JP2013151063A (ja) * 2009-05-22 2013-08-08 Toyota Motor East Japan Inc 作業ロボット支援システム
JP2014199514A (ja) * 2013-03-29 2014-10-23 株式会社クボタ 作業管理支援装置
WO2015098577A1 (ja) * 2013-12-27 2015-07-02 日本郵船株式会社 作業管理システム
JP2017010186A (ja) * 2015-06-19 2017-01-12 三菱電機株式会社 物流作業分析システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220198804A1 (en) * 2019-09-27 2022-06-23 Ncr Corporation Frictionless Authentication and Monitoring
US11948365B2 (en) * 2019-09-27 2024-04-02 Ncr Voyix Corporation Frictionless authentication and monitoring
US20220092496A1 (en) * 2019-11-26 2022-03-24 Ncr Corporation Frictionless and autonomous control processing
JP7493390B2 (ja) 2020-06-15 2024-05-31 株式会社日立ハイテク 監視システム
JP7456616B2 (ja) 2020-08-04 2024-03-27 公立大学法人岩手県立大学 学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム
JP2022048014A (ja) * 2020-09-14 2022-03-25 株式会社東芝 負荷推定装置、方法およびプログラム
JP7414676B2 (ja) 2020-09-14 2024-01-16 株式会社東芝 負荷推定装置、方法およびプログラム

Also Published As

Publication number Publication date
JP2022009097A (ja) 2022-01-14
US10902246B2 (en) 2021-01-26
US20190251338A1 (en) 2019-08-15
JP7423584B2 (ja) 2024-01-29

Similar Documents

Publication Publication Date Title
JP7423584B2 (ja) 判別装置、判別方法およびプログラム
US9036018B2 (en) Facial expression recognition systems and methods and computer program products thereof
US10964057B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US20190347285A1 (en) Electronic device for determining emotion of user and method for controlling same
JP2018116599A (ja) 情報処理装置、情報処理方法およびプログラム
KR102579904B1 (ko) 비전 검사 관리 방법 및 비전 검사 시스템
CN109117893A (zh) 一种基于人体姿态的动作识别方法及装置
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
JP2022103189A (ja) 作業現場監視装置、作業現場監視システム、作業現場監視方法およびプログラム
US20190251355A1 (en) Method and electronic device for generating text comment about content
JP2020091801A (ja) 作業分析システムおよび作業分析方法
CN111837094A (zh) 信息处理装置、信息处理方法和程序
JP6733995B2 (ja) 作業分析装置、作業分析方法、及びプログラム
JP2017174212A (ja) 行動解析装置、行動解析方法及びプログラム
KR102263695B1 (ko) 복수개의 카메라를 이용한 휴대 장치 및 제어방법
US11210566B2 (en) Training apparatus, training method and recording medium
US11887331B2 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2018055151A (ja) 炎検出装置及びプログラム
JP6981553B2 (ja) 識別システム、モデル提供方法およびモデル提供プログラム
US20210027481A1 (en) System, method, and computer-readable medium for managing position of target
CN113642374A (zh) 动作评价***、动作评价装置及动作评价方法
JP2021056922A (ja) 人動作支援システム及びその方法
JP2019146087A (ja) 情報処理装置、撮像装置の制御方法、コンピュータプログラム、及び記憶媒体
US20230137094A1 (en) Measurement device, measurement system, measurement method, and computer program product
JP2021077230A (ja) 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210713