JP6674515B2 - 判定装置および判定方法 - Google Patents

判定装置および判定方法 Download PDF

Info

Publication number
JP6674515B2
JP6674515B2 JP2018164877A JP2018164877A JP6674515B2 JP 6674515 B2 JP6674515 B2 JP 6674515B2 JP 2018164877 A JP2018164877 A JP 2018164877A JP 2018164877 A JP2018164877 A JP 2018164877A JP 6674515 B2 JP6674515 B2 JP 6674515B2
Authority
JP
Japan
Prior art keywords
operation error
work
image
determination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018164877A
Other languages
English (en)
Other versions
JP2020037463A (ja
Inventor
大塚 誠
誠 大塚
弘司 椎崎
弘司 椎崎
門地 正史
正史 門地
拓也 明石
拓也 明石
昭伍 南
昭伍 南
中島 慎
慎 中島
貴大 萩野
貴大 萩野
佑輔 竹内
佑輔 竹内
健次 中山
健次 中山
南望 大西
南望 大西
遼介 別府
遼介 別府
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2018164877A priority Critical patent/JP6674515B2/ja
Publication of JP2020037463A publication Critical patent/JP2020037463A/ja
Application granted granted Critical
Publication of JP6674515B2 publication Critical patent/JP6674515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Description

本発明は、作業用車両を用いた作業において操作ミスが発生するか否かを判定する判定装置等に関する。
フォークリフト等の作業用車両を用いた作業においては、作業者が操作ミスを発生させることがあり、そのような操作ミスを未然に防ぐための技術の開発が従来から進められている。例えば、下記特許文献1には、搬送対象の荷物の高さが所定の上限値以上の場合に警告手段を動作させることによって、フォークリフトの運転者が荷崩れを発生させることを防ぐ技術が開示されている。
特開2008‐156093号公報
しかし、荷崩れは荷物が高く積み上げられていれば必ず発生するというものではない。また、荷物が高く積み上げられていることは運転者が目視で認識できる事項であるから、警告手段の動作を運転者が煩わしく感じるおそれがある。さらに、上記従来技術では、荷崩れとは関係のない操作ミスの発生を防ぐことはできない。そのため、作業の様子を撮影した画像に基づいて操作ミスが発生するか否かを判定する技術が求められている。
本発明の一態様は、作業用車両による作業の様子を撮影した画像に基づき、操作ミスが発生するか否かを判定することができる判定装置等を実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る判定装置は、作業用車両を用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルを用いて、対象作業用車両による作業の様子を撮影した画像から、当該対象作業用車両を用いた作業において操作ミスが発生するか否かを判定する判定部を備えている。
また、上記の課題を解決するために、本発明の一態様に係る判定方法は、判定装置による判定方法であって、作業用車両を用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルを用いて、対象作業用車両による作業の様子を撮影した画像から、当該対象作業用車両を用いた作業において操作ミスが発生するか否かを判定する判定ステップを含む。
本発明の一態様によれば、作業用車両による作業の様子を撮影した画像に基づいて操作ミスが発生するか否かを判定することができる。
本発明の実施形態1に係る判定装置の要部構成の一例を示すブロック図である。 上記判定装置が行う判定の概要を示す図である。 上記判定装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態2に係る判定装置の要部構成の一例を示すブロック図である。
〔実施形態1〕
(判定の概要)
本実施形態の判定装置による判定の概要を図2に基づいて説明する。図2は、判定装置1が行う判定の概要を示す図である。判定装置1は、対象作業用車両による作業シーンを撮影した画像から、当該対象作業用車両を用いた作業において操作ミスが発生するか否かを判定する装置である。
図2の例では、対象作業用車両の一例であるフォークリフトAを作業者Bが操作している。また、作業者BがフォークリフトAを用いて所定の作業を行うシーンを撮影装置Cが撮影しており、撮影した動画像が判定装置1に入力されている。なお、図2では、対象作業用車両の例としてフォークリフトAを記載しているが、対象作業用車両は、作業に用いられる車両であればよく、フォークリフトAに限られない。
判定装置1は、入力された上記動画像に基づいてフォークリフトAの操作ミスが発生するか否かを判定する。例えば、図2の例のように作業者Bが疲れを感じており、その疲労感が操作ミスの予兆として作業者Bの作業の様子に表れていた場合、判定装置1は、上記動画像に基づいて操作ミスが発生すると判定する。そして、判定装置1は、操作ミスが発生する可能性が高い状況であることを作業者Bに報知する。
このように、判定装置1は、作業の様子を撮影した画像に基づき、操作ミスが発生するか否かを判定することができる。また、判定装置1は、操作ミスが発生すると判定した場合に、作業者Bへの報知を行う。これにより、操作ミスの発生を効果的に防ぐことができる。
なお、図2の例では、1台のフォークリフトAについて1台の判定装置1が判定を行っているが、複数台のフォークリフトをそれぞれ撮影した動画像を取得すれば、1台の判定装置1によって複数台のフォークリフトについての判定を行うこともできる。また、1台のフォークリフトAについて1台の判定装置1が判定を行う場合、判定装置1をフォークリフトAに搭載してもよい。本実施形態では、判定装置1をフォークリフトAに搭載した例を説明する。
(判定装置の要部構成)
判定装置1の要部構成について図1に基づいて説明する。図1は、判定装置1の要部構成の一例を示すブロック図である。図示のように、判定装置1は、判定装置1の各部を統括して制御する制御部10と、判定装置1が使用する各種データを記憶する記憶部20を備えている。さらに、判定装置1は、判定装置1に対する入力操作を受け付ける入力部30と、判定装置1が情報を出力するための出力部40と、判定装置1が他の装置と通信するための通信部50とを備えている。また、制御部10には、入力データ生成部101、学習済みモデル102、判定部103、および報知部104が含まれている。
入力データ生成部101は、フォークリフトAを用いた作業の様子を撮影した画像から、学習済みモデル102に対する入力データを生成する。学習済みモデル102は、作業用車両を用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルである。そして、判定部103は、学習済みモデル102の出力データに基づき、フォークリフトAの操作ミスが発生するか否かを判定する。上記入力データ、学習済みモデル102、および判定部103の判定の詳細は後述する。
報知部104は、操作ミスが発生する可能性が高い状況であることを報知する。具体的には、報知部104は、出力部40を制御して、操作ミスが発生する可能性が高い状況であることを示す情報を出力させる。本実施形態では、判定装置1がフォークリフトAに搭載されていることを想定しているので、出力部40に上記の情報を出力させることにより、作業者Bへの報知を行うことができる。なお、上記情報の出力態様は特に限定されず、例えば出力部40が表示部であれば表示出力させればよいし、音声出力部であれば音声出力させればよい。また、判定装置1がフォークリフトAから離れた位置にある場合、報知部104は、フォークリフトAと通信することにより、フォークリフトAが備える出力部に上記情報を出力させてもよい。この他にも、例えば、報知部104は、作業者Bの所持する端末装置や、作業者Bの作業を管理する管理者の端末装置等の他の装置に上記情報を出力させることにより報知を行ってもよい。
(学習済みモデルについて)
本実施形態の学習済みモデル102は、作業用車両を用いた作業において操作ミスが発生したときの、該操作ミスの発生直前における所定の作業のシーンを撮影した画像を教師データとして用いた機械学習により生成された学習済みモデルである。なお、本実施形態ではフォークリフトAの操作ミスが発生するかを判定することを想定しているため、上記作業用車両が、フォークリフトAと操作方法が共通したフォークリフトである例を説明する。
より詳細には、本実施形態では、フォークリフトを用いた荷役作業において、フォークをパレットに差し込む操作をミスして荷崩れを発生させた事例における、そのフォーク操作の直前の作業のシーンを撮影した画像を教師データとした例を説明する。上記直前の作業のシーンは、具体的には、フォークポケットにフォークを位置合わせする作業である。そして、この画像には、操作ミスの発生の予兆として、例えば、位置合わせがスムーズに行われておらず、何度もフォークの上下動を繰り返す様子などが表れている。
なお、教師データとして用いる画像は、フォークリフトAによる作業時と同様の操作ミスの予兆が表れたものであればよく、フォークリフト以外の作業用車両を用いた作業において操作ミスが発生したときに撮影した画像であってもよい。また、操作ミスは、作業用車両を用いた作業時に発生したものであればよく、フォークをパレットに差し込む操作における操作ミスに限られない。例えば、作業用車両の通常走行時における操作ミス(例えば積荷や他の車両などとの接触を発生させるようなもの)であってもよいし、積荷運搬時における操作ミス(例えばフォークをティルトさせずに運搬して積荷を落下させてしまう等)であってもよい。
また、上記所定の作業のシーンは、操作ミスが発生した作業における1つのシーンであってもよいし、操作ミスが発生した作業の直前に行われた別の作業における1つのシーンであってもよい。例えば、操作ミスが、以下の(1)〜(4)のステップからなる荷役作業における(3)のステップで発生したとする。この場合、(1)または(2)のシーンの画像を教師データとして用いてもよいし、この荷役作業の直前に行われた別の作業(例えば、トラックの積荷を下ろす作業)を撮影した画像を教師データとして用いてもよい。
(1)積荷の前でフォークリフトを停車。
(2)フォークをパレットに位置合わせ。
(3)フォークをパレットに差し込む。
(4)積荷を持ち上げて手前に引き出す。
また、上記画像は、フォークリフトを撮影したものであってもよいし、フォークリフトを運転する作業者を撮影したものであってもよいし、それら両方を撮影したものであってもよい。また、作業者を撮影した画像を用いる場合、作業者の表情および所作の少なくとも何れかを撮影した画像を用いてもよい。操作ミスの発生に関連がある、疲労した状態や注意散漫な状態は、作業者の表情や所作として表れることが多い。このため、作業者の表情および所作の少なくとも何れかを撮影した画像を用いた機械学習により生成された学習済みモデル102を用いることにより、作業者Bの表情や所作という観点から操作ミスが発生するか否かを判定することができる。
なお、教師データおよび入力データとして動画像を用いる場合、学習済みモデル102としては、例えば、CNN(Convolutional Neural Network)とRNN(Recurrent Neural Network)、あるいはCNNとLSTM(Long Short-Term Memory)を組み合わせた学習済みモデルを用いることが好ましい。RNNやLSTMのような時系列データの扱いに適したモデルと、画像認識性能の高いCNNとを組み合わせることにより、信頼性の高い出力データを得ることができる。
(入力データについて)
入力データ生成部101は、上述のような教師データを多数用いて機械学習を行うことにより生成された学習済みモデル102に入力する入力データを生成する。具体的には、入力データ生成部101は、フォークリフトAのフォークを位置合わせするシーンを撮影した動画像から上記入力データを生成する。
入力データの生成に用いる動画像は、学習済みモデル102の機械学習用の教師データに用いた動画像と同様の撮影条件で撮影したものであることが好ましい。上記撮影条件には、例えば、撮影装置Cと、被写体(フォークリフトAおよび作業者Bの少なくとも何れか)との位置関係、被写体の背景、および周囲の明るさ等が含まれる。撮影条件を揃えるため、例えば一連の作業が行われる様子が画角に入る位置に固定された撮影装置Cによって撮影した動画像から教師データを生成し、同じ撮影装置Cによって撮影した動画像を入力データとすることが好ましい。
また、入力データ生成部101は、動画像をそのまま入力データとして用いてもよいし、動画像に対して所定の処理を施したものを用いてもよい。上記所定の処理は、操作ミスの予兆が表れている特徴(動画像の特徴)を失わせることなく、該特徴と関係のない情報を減らすことができるものであればよい。例えば、動画像がカラー画像であれば、グレースケール化して入力データとしてもよいし、動画像を構成する一部のフレーム画像を抽出して入力データとしてもよい。
さらに、例えば動画像に写る対象物の中から所定の被写体(フォークリフトAおよび作業者Bの少なくとも何れか)を検出し、検出した被写体が写る領域のみから入力データを生成してもよい。これにより、被写体の背景の影響を排除することができるので、判定精度を高めることができる。なお、所定の被写体の検出には、例えばCNN等の学習済みモデルを用いることができる。
ただし、入力データ生成部101は、教師データと同じ形式の入力データを生成する必要がある。例えば、教師データが動画像から抽出したフレーム画像であれば、入力データ生成部101も動画像から抽出したフレーム画像を入力データとする必要がある。
なお、本実施形態では、簡単のため、所定のシーン(具体的にはフォークをパレットに位置合わせするシーン)の動画像が、入力データ生成部101に入力される例を説明するが、動画像から所定のシーンを抽出する機能を判定装置1に持たせてもよい。抽出方法は特に限定されず、例えばシーンの開始時に特有の操作(フォークの昇降操作等)がある場合、その操作を検出した時点をシーンの開始時点として、動画像からシーンを抽出することもできる。また、動画像を画像解析することにより、所定のシーンを検出し、検出したシーンの動画像を抽出してもよいし、フォークリフトAの動作を検出するセンサの出力値に基づいて所定のシーンを検出し、検出したシーンの動画像を抽出してもよい。
(学習済みモデルの出力データと判定部の判定について)
学習済みモデル102は、上述の入力データの入力に応じて、該入力データが示す上記シーンが、操作ミスの予兆が表れたシーンと一致する確率を示す出力データを出力する。この確率は、操作ミスの予兆が表れた教師データにおけるシーンの特徴と同様の特徴が入力データに含まれているほど高い値となる。このため、判定部103は、学習済みモデル102が出力した出力データに示される確率が所定の閾値以上であれば、操作ミスが発生すると判定する。なお、判定部103は、閾値による上記判定を行う代わりに、上記確率の値を、操作ミスが発生するか否かの判定結果としてもよい。この場合、報知部104は、判定結果である確率値を作業者Bに報知して、操作ミスが発生する可能性が高い状況であるか否かを作業者Bに認識させることができる。
(処理の流れ)
判定装置1が実行する処理の流れを図3に基づいて説明する。図3は、判定装置1が実行する処理(判定方法)の一例を示すフローチャートである。
S1では、入力データ生成部101が、フォークリフトAを用いた作業の様子、具体的にはフォークをパレットに位置合わせするシーンを撮影した動画像を、通信部50を介した通信により、撮影装置Cから取得する。続いて、S2では、入力データ生成部101は、取得した動画像から、学習済みモデル102に入力する入力データを生成する。そして、S3では、入力データ生成部101は、生成した入力データを学習済みモデル102に入力する。
S4(判定ステップ)では、判定部103が、学習済みモデル102の出力データに基づいて操作ミスが発生するか否かを判定する。ここで判定部103が、操作ミスが発生すると判定した場合(S4でYES)にはS5に進み、操作ミスは発生しないと判定した場合(S4でNO)にはS6に進む。
S5では、報知部104が、操作ミスが発生する可能性が高いことを作業者Bに報知する。報知の態様は上述したとおりであるからここでは説明を繰り返さない。なお、報知部104は、学習済みモデル102の出力データが示す確率が高いほど作業者Bの注意をより強く喚起するように、確率に応じて異なる態様で報知を行ってもよい。例えば、報知部104は、音声による報知を行う場合、上記確率が高いほどその音量を大きくしてもよい。
S6では、入力データ生成部101が、フォークリフトAを用いた作業が終了したか否かを判定する。ここで作業が終了したと判定された場合(S6でYES)、図3の処理は終了する。一方、作業は終了していないと判定された場合(S6でNO)、S1の処理に戻る。
(実施形態1のまとめ)
以上のように、本実施形態の判定部103は、学習済みモデル102を用いて、フォークリフトAによる作業の様子を撮影した画像から、フォークリフトAの操作ミスが発生するか否かを判定する。そして、この学習済みモデル102は、フォークリフトを用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルである。よって、本実施形態の判定装置1によれば、フォークリフトAを用いた作業の様子を撮影した画像に基づき、操作ミスが発生するか否かを判定することができる。
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態の判定装置1は、教師データを自動で生成して学習済みモデル102の再学習を行う点で実施形態1の判定装置1と異なっている。
図4は、本実施形態の判定装置1の要部構成の一例を示すブロック図である。図示のように、本実施形態の判定装置1は、制御部10に操作ミス判定部105、教師データ生成部106、および学習部107が含まれている点で、実施形態1の判定装置1(図1参照)と相違している。
操作ミス判定部105は、フォークリフトAを用いた作業において、操作ミスが発生したか否かを判定する。操作ミスの発生有無の判定方法は特に限定されない。例えば、操作ミス判定部105は、判定部103による判定に用いられたシーンの直後に撮影された画像(動画像であってもよいし、静止画像であってもよい)を解析することにより、操作ミスが発生したか否かを判定してもよい。この画像解析には、例えば操作ミスが発生したシーンを機械学習させたCNN等を利用することもできる。また、例えば、積荷を崩してしまう操作ミスのように、操作ミスの痕跡がフォークリフトAや作業者Bの周囲に残るような場合には、周囲を撮影した画像に基づいて操作ミスが発生したか否かを判定してもよい。
教師データ生成部106は、学習済みモデル102の更新に用いる教師データを生成する。具体的には、教師データ生成部106は、入力データ生成部101が生成した入力データに対し、操作ミス判定部105の判定結果を正解データとして対応付けることにより、教師データを生成する。そして、学習部107は、教師データ生成部106が生成した教師データを用いて学習済みモデル102を更新する。
以上のように、本実施形態の判定装置1は、フォークリフトAを用いた作業において、操作ミスが発生したか否かを判定する操作ミス判定部105を備えている。また、本実施形態の判定装置1は、判定部103の判定のために学習済みモデル102に入力された入力データと、操作ミス判定部105の判定結果とを対応付けて、学習済みモデル102の機械学習用の教師データを生成する教師データ生成部106を備えている。そして、学習部107は、上記のようにして生成された教師データを用いて学習済みモデル102の再学習を行う。よって、判定装置1のユーザは、判定装置1を使用しながら、学習済みモデル102の信頼性を維持または向上することができる。
〔分散処理について〕
上記各実施形態で説明した判定装置1の実行する処理の一部は、判定装置1と通信接続された1または複数の装置に実行させてもよい。例えば、学習済みモデル102の実行する処理を、判定装置1と通信接続されたAIサーバに実行させてもよい。この場合、判定装置1は、入力データを生成してAIサーバに送信し、該AIサーバから出力データを受信して操作ミスが発生するか否かの判定を行う。
〔画像の他の例〕
図2にはフォークリフトAを斜め上方から撮影する様子を示したが、教師データおよび学習済みモデル102への入力データとして用いる動画像は、作業の様子が認識できるようなものであればよく、図2のようにして撮影されたものに限定されない。例えば、フォークリフトAにドライブレコーダが設置されている場合、そのカメラの被写体(フォークリフトAと作業者B)は、直上から撮影される。このように直上から撮影した画像からは、作業者Bの手元の動きや顔の向き等が認識しやすい。よって、このような動画像は、操作ミスの予兆が、作業者Bの手元の動きや顔の向き等に表れている場合における判定に有用である。また、ドライブレコーダの画像を流用するため撮影装置Cを新たに設ける必要がない点、およびフォークリフトAがどこに移動しても撮影が継続できるという点も利点である。
この他にも、例えば眼鏡型のウェアラブル機器を作業者Bに装着させる等により撮影した、作業者目線の画像から入力データを生成してもよい。この場合、作業者Bの目線で撮影された画像からは、作業者Bがどこを注視しているかを認識することができるので、操作ミス発生の予兆が作業者Bの脇見である場合等に有用である。また、フォークリフトAがどこに移動しても撮影が継続できるという点も利点である。
無論、ドライブレコーダで撮影した画像から入力データを生成する場合、学習済みモデル102の生成に用いる教師データもドライブレコーダで撮影した画像から生成したものを用いることが好ましい。同様に、作業者目線の画像から入力データを生成する場合、学習済みモデル102の生成に用いる教師データも作業者目線の画像から生成したものを用いることが好ましい。
また、上記各実施形態では、作業用車両を用いた作業において操作ミスが発生したときの、該操作ミスの発生直前における所定の作業のシーンを撮影した画像から生成した教師データを用いる例を説明した。しかし、教師データの生成に用いる画像は、操作ミスが発生したときの、該操作ミスの発生直前における作業の様子を撮影した画像であって、操作ミスの予兆が表れた画像であればよく、この例に限られない。
例えば、操作ミスの予兆といえる作業の様子や作業者の表情(例えば、あくびをしている、脇見をしている、眠そうにしている等の集中力を欠いた作業の様子)を撮影した画像を教師データとする機械学習で生成した学習済みモデル102を用いてもよい。この場合、教師データとして使用する画像は、必ずしも実際に操作ミスが発生した事例で撮影されたものに限られない。
〔複数種類の予兆の検出〕
また、操作ミスの発生の予兆が複数種類ある場合、各予兆について機械学習を行うことにより生成された学習済みモデル102を用いてもよい。この場合、判定部103は、学習済みモデル102の出力データから、複数種類の予兆の有無をそれぞれ判定することができる。なお、この場合、判定部103は、複数種類の予兆の何れか1つでも存在すると判定したときに、操作ミスが発生すると判定してもよいし、複数種類の予兆の少なくとも2つが存在すると判定したときに、操作ミスが発生すると判定してもよい。また、この場合、報知部104は、存在すると判定された予兆の数および種類の少なくとも何れかに応じて報知の態様を変えてもよい。これにより、例えば多数の予兆が存在すると判定された場合や、操作ミスと相関の高い予兆が存在すると判定された場合等のように、作業者Bが注意して操作を行う必要性が高い状況において、作業者Bに十分な注意喚起を行うことが可能になる。
また、予兆の種類ごとに相関の高い操作ミスがある場合、報知部104は、存在すると判定された予兆に相関の高い操作ミスに応じた態様で報知を行ってもよい。例えば、判定部103が存在すると判定した予兆が、パレットにフォークを差し込む際にフォークをパレットに接触させる操作ミスに相関の高い予兆であったとする。この場合、報知部104は、フォークをパレットに接触させないように注意喚起するメッセージを出力部40に出力させてもよい。
〔ソフトウェアによる実現例〕
判定装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、判定装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 判定装置
102 学習済みモデル
103 判定部
105 操作ミス判定部
106 教師データ生成部

Claims (3)

  1. 作業用車両を用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルを用いて、対象作業用車両を用いた作業の様子を撮影した画像から、当該対象作業用車両を用いた作業において操作ミスが発生するか否かを判定する判定部を備えており、
    上記学習済みモデルは、上記作業用車両を操作する作業者の表情、および操作ミスが発生した事例における当該操作ミスに係る操作前の作業シーンの少なくとも何れかを撮影した画像を用いた機械学習により生成されたものであることを特徴とする判定装置。
  2. 作業用車両を用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルを用いて、対象作業用車両を用いた作業の様子を撮影した画像から、当該対象作業用車両を用いた作業において操作ミスが発生するか否かを判定する判定部と、
    上記対象作業用車両による作業において、操作ミスが発生したか否かを判定する操作ミス判定部と、
    上記判定部の判定のために上記学習済みモデルに入力された入力データと、上記操作ミス判定部の判定結果とを対応付けて、上記学習済みモデルの機械学習用の教師データを生成する教師データ生成部と、を備えていることを特徴とする判定装置。
  3. 判定装置による判定方法であって、
    作業用車両を用いた作業における操作ミスの発生の予兆が表れた作業の様子を撮影した画像を用いた機械学習により生成された学習済みモデルを用いて、対象作業用車両を用いた作業の様子を撮影した画像から、当該対象作業用車両を用いた作業において操作ミスが発生するか否かを判定する判定ステップを含み、
    上記学習済みモデルは、上記作業用車両を操作する作業者の表情、および操作ミスが発生した事例における当該操作ミスに係る操作前の作業シーンの少なくとも何れかを撮影した画像を用いた機械学習により生成されたものであることを特徴とする判定方法。
JP2018164877A 2018-09-03 2018-09-03 判定装置および判定方法 Active JP6674515B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018164877A JP6674515B2 (ja) 2018-09-03 2018-09-03 判定装置および判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018164877A JP6674515B2 (ja) 2018-09-03 2018-09-03 判定装置および判定方法

Publications (2)

Publication Number Publication Date
JP2020037463A JP2020037463A (ja) 2020-03-12
JP6674515B2 true JP6674515B2 (ja) 2020-04-01

Family

ID=69737456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018164877A Active JP6674515B2 (ja) 2018-09-03 2018-09-03 判定装置および判定方法

Country Status (1)

Country Link
JP (1) JP6674515B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6892210B1 (ja) * 2020-04-01 2021-06-23 三菱ロジスネクスト株式会社 荷役車用画像記憶システムおよび画像記憶プログラム
JP6969857B1 (ja) * 2020-06-24 2021-11-24 三菱ロジスネクスト株式会社 荷役システムおよび制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003167613A (ja) * 2001-11-30 2003-06-13 Sharp Corp 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体
JP5686108B2 (ja) * 2012-02-24 2015-03-18 株式会社ダイフク 誤作業防止装置および誤作業防止装置が設けられた仕分け設備
JP5489314B1 (ja) * 2013-02-28 2014-05-14 ニチユ三菱フォークリフト株式会社 ピッキングリフトの転落防止装置、および該転落防止装置を備えたピッキングリフト
JP2015048171A (ja) * 2013-08-30 2015-03-16 学校法人立命館 ピッキングシステム
JP6823402B2 (ja) * 2016-08-23 2021-02-03 グローリー株式会社 有価媒体処理装置及び有価媒体処理方法
CN108137230B (zh) * 2016-09-12 2020-07-03 爱鸥自动化***有限公司 拣货辅助装置

Also Published As

Publication number Publication date
JP2020037463A (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
EP2849031B1 (en) Information processing apparatus and information processing method
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
JP2020021323A (ja) 判定装置および判定方法
US20150193698A1 (en) Data processing device
JP6569532B2 (ja) 管理システム、リスト作成装置、リスト作成方法、管理方法及び管理用プログラム
US20190244008A1 (en) Manufacturing Part Identification Using Computer Vision And Machine Learning
US20230410321A1 (en) Information processing apparatus, control method, and program
JP6674515B2 (ja) 判定装置および判定方法
US11741685B2 (en) Commodity identification device, non-transitory computer-readable storage medium, and learning method
KR102645340B1 (ko) 전자 장치 및 그의 녹화 방법
CN111461070B (zh) 文本识别方法、装置、电子设备及存储介质
US10965858B2 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image
JP6600726B1 (ja) 判定装置および判定方法
JP4717445B2 (ja) 画像処理システム、画像処理装置、ゲーム装置、プログラム、情報記憶媒体および画像処理方法
US10521653B2 (en) Image processing device, image processing method, and storage medium
JP6722733B2 (ja) 判定装置および判定方法
CN115187988A (zh) 区域文本识别方法、装置、电子设备及存储介质
US20230196840A1 (en) Work management device and work state determination method
US10909402B2 (en) Information processing apparatus, information processing method, and storage medium
JP6893198B2 (ja) 情報処理装置および情報処理方法
CN114692757A (zh) 一种异常驾驶行为的监测方法、装置及电子设备
JP7407777B2 (ja) 照合装置および照合方法
US20230214024A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US20220230333A1 (en) Information processing system, information processing method, and program
CN112115941B (zh) 火灾检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200306

R150 Certificate of patent or registration of utility model

Ref document number: 6674515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150