KR102502387B1 - Method, device and system for handling logistics based on voice recognition - Google Patents

Method, device and system for handling logistics based on voice recognition Download PDF

Info

Publication number
KR102502387B1
KR102502387B1 KR1020220072588A KR20220072588A KR102502387B1 KR 102502387 B1 KR102502387 B1 KR 102502387B1 KR 1020220072588 A KR1020220072588 A KR 1020220072588A KR 20220072588 A KR20220072588 A KR 20220072588A KR 102502387 B1 KR102502387 B1 KR 102502387B1
Authority
KR
South Korea
Prior art keywords
user
product
headset
weight
confirmed
Prior art date
Application number
KR1020220072588A
Other languages
Korean (ko)
Inventor
서한수
김성민
Original Assignee
주식회사 모아시스템즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모아시스템즈 filed Critical 주식회사 모아시스템즈
Priority to KR1020220072588A priority Critical patent/KR102502387B1/en
Application granted granted Critical
Publication of KR102502387B1 publication Critical patent/KR102502387B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G23/00Auxiliary devices for weighing apparatus
    • G01G23/18Indicating devices, e.g. for remote indication; Recording devices; Scales, e.g. graduated
    • G01G23/36Indicating the weight by electrical means, e.g. using photoelectric cells
    • G01G23/37Indicating the weight by electrical means, e.g. using photoelectric cells involving digital counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Acoustics & Sound (AREA)
  • Accounting & Taxation (AREA)
  • Electromagnetism (AREA)
  • Finance (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

According to one embodiment of the present invention, a method for processing logistics based on voice recognition is performed by a device and comprises: a step of controlling to output a notification message requesting voice input for user recognition through a speaker of a first headset when it is verified that one among users working in a logistics center wears the first headset; a step of acquiring first voice information from the first headset when a user voice is inputted through a microphone of the first headset; a step of recognizing the user wearing the first headset as a first user if it is verified that the first voice information and reference voice information of the first user match as a result of comparing the first voice information with reference voice information learned for each user; a step of verifying whether a job assigned to the first user is present; and a step of controlling to output a notification message instructing the first user to move to a first area to process a first job through the speaker of the first headset when it is verified that the first job is assigned to the first user.

Description

음성 인식 기반 물류 처리 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR HANDLING LOGISTICS BASED ON VOICE RECOGNITION}Voice recognition based logistics processing method, apparatus and system {METHOD, DEVICE AND SYSTEM FOR HANDLING LOGISTICS BASED ON VOICE RECOGNITION}

아래 실시예들은 음성 인식을 기반으로 물류를 처리하기 위한 기술에 관한 것이다.The embodiments below relate to techniques for handling logistics based on voice recognition.

음성 인식이란 음성에 포함된 음향학적 음운 즉, 언어적 정보를 추출하여 이를 기계가 인지하고 반응하게 만드는 일련의 과정이다. 음성으로 대화하는 것은 수많은 인간과 기계의 정보 교환 매체 중 가장 자연스럽고 간편한 방법으로 인식되고 있다.Speech recognition is a series of processes that extract acoustic phonemes, that is, linguistic information, contained in speech, and make machines recognize and respond to them. Voice communication is recognized as the most natural and convenient method among numerous information exchange media between humans and machines.

하지만, 기계와 음성으로 대화하기 위해서는 인간의 음성을 기계가 처리할 수 있는 코드로 변환을 해줘야 하는 제약이 따르게 된다. 이런 코드로 변환해주는 과정이 바로 음성 인식이다.However, in order to communicate with a machine by voice, there is a restriction that human voice must be converted into a code that can be processed by a machine. The process of converting into such a code is voice recognition.

음성 인식 기술은 소용량 어휘(small vocabulary)의 고립 단어의 수준을 넘어서 대용량 어휘(large vocabulary)의 연속 음성 인식에 대한 연구가 진행되고 있는 상태이다.Speech recognition technology goes beyond the level of isolated words of small vocabulary, and research on continuous speech recognition of large vocabulary is in progress.

하지만, 인간의 궁극적 목표인 인간 사이의 발성 습관이나 성별, 조음 결합 현상, 컴퓨터의 계산능력, 주변 환경 잡음 및 음성 신호를 전송하는 라인상의 채널 잡음으로 인한 왜곡 현상 등 완전한 음성 인식 기술의 구현을 위해 해결해야 할 문제가 많이 남아있다.However, for the realization of complete voice recognition technology, such as the ultimate goal of human beings, such as vocalization habits or gender, articulatory coupling phenomenon, computer calculation ability, distortion caused by noise in the surrounding environment and channel noise on the line transmitting voice signals. Many issues remain to be addressed.

이러한 여러 가지 문제 속에서도 음성 인식 기술은 지속적으로 발전하고 있으며, 인간의 음성 정보를 이용한 시스템은 가전기기, 컴퓨터, 각종 보안시스템, 자동차, 열차, 항공기를 포함하는 차세대 운송수단, 각종 기계 장치 등에 적용되어, 음성 인식을 통한 다양한 시스템이 개발되고 있는 상황이다.Despite these various problems, voice recognition technology continues to develop, and systems using human voice information are applied to home appliances, computers, various security systems, next-generation vehicles including automobiles, trains, and aircraft, and various mechanical devices. However, various systems through voice recognition are being developed.

한편, 종래의 물류를 처리하고 관리하는데 있어, 물류 센터에 근무하는 사용자들은 각자 PDA(Personal Digital Assistant)와 개인용 단말을 소집하여, 단말을 통해 물류 처리 현황을 확인하였다.On the other hand, in processing and managing conventional logistics, users working in the logistics center each summon a PDA (Personal Digital Assistant) and a personal terminal to check the status of logistics processing through the terminal.

이에 따라, 물류를 처리할 때 한 손에는 단말을 소지하고 있어야 하고, 물류를 처리할 때마다 단말의 화면을 보면서 진행해야 하기 때문에, 업무를 수행하는데 불편함이 있다.Accordingly, it is inconvenient to perform work because the terminal must be held in one hand when processing logistics, and the user must proceed while viewing the screen of the terminal whenever processing logistics.

따라서, 물류를 처리할 때 두 손을 자유롭게 쓸 수 있도록 해주면서, 단말의 화면을 보지 않고 업무를 진행할 수 있는 기술의 구현에 대한 요구가 증가하고 있는 실정이다.Therefore, there is an increasing demand for the implementation of a technology capable of performing work without looking at the screen of the terminal while allowing both hands to be used freely when handling logistics.

한국공개특허 제10-2021-0047047호Korean Patent Publication No. 10-2021-0047047 한국공개특허 제10-2013-0010223호Korean Patent Publication No. 10-2013-0010223 한국공개특허 제10-2011-0071738호Korean Patent Publication No. 10-2011-0071738 한국등록특허 제10-0884461호Korean Patent Registration No. 10-0884461

일실시예에 따르면, 물류 센터에 근무하는 사용자들 중 어느 하나가 제1 헤드셋을 착용한 것으로 확인되면, 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 제1 헤드셋의 스피커를 통해 출력되도록 제어하고, 제1 헤드셋의 마이크를 통해 사용자 음성이 입력되면, 제1 헤드셋으로부터 제1 음성 정보를 획득하고, 제1 음성 정보를 사용자 별로 학습된 기준 음성 정보와 비교한 결과, 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것으로 확인되면, 제1 헤드셋을 착용한 사용자를 제1 사용자로 인식하고, 제1 사용자에게 할당되어 있는 업무가 있는지 여부를 확인하고, 제1 사용자에게 제1 업무가 할당되어 있는 것으로 확인되면, 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋의 스피커를 통해 출력되도록 제어하는, 음성 인식 기반 물류 처리 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to one embodiment, if it is confirmed that any one of the users working in the distribution center is wearing the first headset, a notification message requesting a voice input for user recognition is controlled to be output through the speaker of the first headset; , When a user voice is input through the microphone of the first headset, first voice information is obtained from the first headset, and as a result of comparing the first voice information with the standard voice information learned for each user, the first voice information and the first voice information If it is confirmed that the reference voice information of the users matches, the user wearing the first headset is recognized as the first user, whether there is a task assigned to the first user is determined, and the first task is assigned to the first user. Provides a voice recognition-based logistics processing method, apparatus, and system for controlling a notification message guiding movement to a first zone to handle a first task to be output through a speaker of a first headset when it is confirmed that it is assigned to do for that purpose.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood from the description below.

일실시예에 따르면, 장치에 의해 수행되는, 음성 인식을 기반으로 물류를 처리하는 방법에 있어서, 물류 센터에 근무하는 사용자들 중 어느 하나가 제1 헤드셋을 착용한 것으로 확인되면, 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계; 상기 제1 헤드셋의 마이크를 통해 사용자 음성이 입력되면, 상기 제1 헤드셋으로부터 제1 음성 정보를 획득하는 단계; 상기 제1 음성 정보를 사용자 별로 학습된 기준 음성 정보와 비교한 결과, 상기 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것으로 확인되면, 상기 제1 헤드셋을 착용한 사용자를 상기 제1 사용자로 인식하는 단계; 상기 제1 사용자에게 할당되어 있는 업무가 있는지 여부를 확인하는 단계; 및 상기 제1 사용자에게 제1 업무가 할당되어 있는 것으로 확인되면, 상기 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계를 포함하는, 음성 인식 기반 물류 처리 방법이 제공된다.According to one embodiment, in the method for processing logistics based on voice recognition performed by a device, when it is confirmed that any one of the users working in the logistics center is wearing a first headset, the user recognition controlling a notification message requesting voice input to be output through a speaker of the first headset; obtaining first voice information from the first headset when a user's voice is input through the microphone of the first headset; As a result of comparing the first voice information with reference voice information learned for each user, if it is confirmed that the first voice information and the reference voice information of the first user match, the user wearing the first headset is assigned to the first voice information. recognizing as a user; checking whether there is a task assigned to the first user; and if it is confirmed that the first task is assigned to the first user, controlling a notification message to guide movement to a first zone to process the first task to be output through a speaker of the first headset. Including, there is provided a voice recognition-based logistics processing method.

상기 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계는, 상기 제1 업무가 제1 상품을 제1 수량 옮기는 작업인 경우, 상기 제1 상품의 무게와 상기 제1 수량을 곱한 값으로, 제1 무게를 산출하는 단계; 제1 사용자 정보를 기초로, 상기 제1 사용자에게 허용된 최대 무게를 제2 무게로 확인하는 단계; 상기 제2 무게가 상기 제1 무게 보다 큰지 여부를 확인하는 단계; 상기 제2 무게가 상기 제1 무게 보다 큰 것으로 확인되면, 상기 제1 상품을 옮길 때 상기 제1 수량을 한 번에 옮기는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계; 및 상기 제2 무게가 상기 제1 무게 보다 작은 것으로 확인되면, 상기 제1 무게를 상기 제2 무게로 나눈 값에서 소수점을 올림한 값으로, 제1 횟수를 산출하고, 상기 제1 상품을 옮길 때 상기 제1 수량을 상기 제1 횟수에 나누어 옮기는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계를 포함할 수 있다.Controlling so that a notification message guiding movement to the first area is outputted through a speaker of the first headset may include, when the first task is a task of moving a first product in a first quantity, Calculating a first weight by multiplying the weight by the first quantity; determining a maximum weight allowed for the first user as a second weight based on first user information; checking whether the second weight is greater than the first weight; If it is confirmed that the second weight is greater than the first weight, controlling so that a notification message guiding moving the first quantity at a time when moving the first product is output through the speaker of the first headset. ; And if it is confirmed that the second weight is smaller than the first weight, the first number is calculated as a value obtained by dividing the first weight by the second weight and the decimal point is rounded up, and when moving the first product and controlling so that a notification message informing that the first amount is divided by the first number of times is output through a speaker of the first headset.

상기 음성 인식 기반 물류 처리 방법은, 상기 제1 사용자에게 할당되어 있는 업무가 없는 것으로 확인되면, 상기 제1 사용자의 성별, 나이 및 근무 기간에 기초하여, 상기 제1 사용자의 능력치를 산출하는 단계; 상기 제1 사용자의 업무 처리 내역에 기초하여, 미리 설정된 제1 기간 동안 상기 제1 사용자가 처리한 업무의 수인 제1 업무 수를 확인하고, 상기 제1 업무 수와 반비례하는 값을 기반으로, 제1 가중치를 설정하는 단계; 상기 제1 사용자의 능력치에 상기 제1 가중치를 적용하여, 상기 제1 사용자의 작업 가능 능력치를 산출하는 단계; 및 상기 제1 사용자의 작업 가능 능력치를 업무 별로 설정된 필요 능력치와 비교한 결과, 상기 제1 사용자의 작업 가능 능력치가 상기 제1 업무의 필요 능력치 보다 높은 것으로 확인되면, 상기 제1 사용자에게 상기 제1 업무를 할당하는 단계를 더 포함할 수 있다.The voice recognition-based logistics processing method may include calculating a capability level of the first user based on gender, age, and working period of the first user when it is confirmed that there is no task assigned to the first user; Based on the work processing details of the first user, the first number of tasks, which is the number of tasks processed by the first user during a first preset period, is determined, and based on a value inversely proportional to the first number of tasks, 1 setting weights; calculating a work capability level of the first user by applying the first weight to the capability level of the first user; and as a result of comparing the work capability value of the first user with the required capability value set for each task, when it is confirmed that the work capability value of the first user is higher than the required capability value for the first task, the first user is instructed to perform the first task. A step of allocating tasks may be further included.

일실시예에 따르면, 물류 센터에 근무하는 사용자들 중 어느 하나가 제1 헤드셋을 착용한 것으로 확인되면, 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 제1 헤드셋의 스피커를 통해 출력되도록 제어하고, 제1 헤드셋의 마이크를 통해 사용자 음성이 입력되면, 제1 헤드셋으로부터 제1 음성 정보를 획득하고, 제1 음성 정보를 사용자 별로 학습된 기준 음성 정보와 비교한 결과, 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것으로 확인되면, 제1 헤드셋을 착용한 사용자를 제1 사용자로 인식하고, 제1 사용자에게 할당되어 있는 업무가 있는지 여부를 확인하고, 제1 사용자에게 제1 업무가 할당되어 있는 것으로 확인되면, 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋의 스피커를 통해 출력되도록 제어함으로써, 음성 인식을 기반으로 물류를 처리할 수 있는 효과가 있다.According to one embodiment, if it is confirmed that any one of the users working in the distribution center is wearing the first headset, a notification message requesting a voice input for user recognition is controlled to be output through the speaker of the first headset; , When a user voice is input through the microphone of the first headset, first voice information is obtained from the first headset, and as a result of comparing the first voice information with the standard voice information learned for each user, the first voice information and the first voice information If it is confirmed that the reference voice information of the users matches, the user wearing the first headset is recognized as the first user, whether there is a task assigned to the first user is determined, and the first task is assigned to the first user. If it is confirmed that the assignment is made, a notification message guiding movement to the first area to handle the first task is controlled to be output through the speaker of the first headset, so that logistics can be processed based on voice recognition. there is

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 음성 인식을 기반으로 물류를 처리하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 한 번에 옮길 수 있는 상품의 수량을 안내하는 알림 메시지를 제공하는 과정을 설명하기 위한 순서도이다
도 4는 일실시예에 따른 사용자에게 업무를 할당하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 사용자의 심박수를 통해 사용자에게 허용된 최대 무게를 설정하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 상품의 반출량을 관리하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 상품 출고 내역을 통해 상품의 반출량을 확인하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram schematically showing the configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of processing logistics based on voice recognition according to an embodiment.
Figure 3 is a flow chart for explaining a process of providing a notification message for guiding the quantity of goods that can be moved at one time according to an embodiment.
4 is a flowchart illustrating a process of allocating a task to a user according to an exemplary embodiment.
5 is a flowchart illustrating a process of setting a maximum weight allowed to a user through the user's heart rate according to an embodiment.
6 is a flow chart illustrating a process of managing the amount of products taken out according to an embodiment.
7 is a diagram for explaining an artificial neural network according to an embodiment.
8 is a flowchart illustrating a process of confirming the amount of products taken out through product release details according to an embodiment.
9 is an exemplary diagram of a configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

실시예에서 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.In an embodiment, an artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, a machine learns and judges on its own. The more AI systems are used, the higher the recognition rate and the more accurate understanding of user preferences. Conventional rule-based smart systems are gradually being replaced by deep learning-based AI systems.

인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithm technology that classifies/learns the characteristics of input data by itself, and element technology is a technology that uses machine learning algorithms such as deep learning to mimic functions such as recognition and judgment of the human brain. It consists of technical fields such as understanding, inference/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing and applying/processing human language/characters, including natural language processing, machine translation, dialogue systems, question and answering, voice recognition/synthesis, and the like. Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, person recognition, scene understanding, space understanding, image improvement, and the like. Inference prediction is a technique of reasoning and predicting logically by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization). Motion control is a technology for controlling the autonomous driving of a vehicle and the movement of a robot, and includes motion control (navigation, collision, driving), manipulation control (action control), and the like.

일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.In general, in order to apply machine learning algorithms to real life, learning is performed in a trial and error method due to the nature of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in an actual physical external environment, so instead, the actual physical external environment is virtually implemented on a computer and learning is performed through simulation.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 복수의 헤드셋(100) 및 장치(200)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a plurality of headsets 100 and a device 200 capable of communicating with each other through a communication network.

먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, a communication network may be configured regardless of its communication mode, such as wired or wireless, and may be implemented in various forms so that communication between servers and communication between servers and terminals is performed.

복수의 헤드셋(100) 각각은 스피커와 마이크가 함께 달린 장비로 구현될 수 있다. 바람직하게, 도 1에 도시된 바와 같이, 제1 헤드셋(110), 제2 헤드셋(120), 제3 헤드셋(130) 등은 머리에 착용하는 일반형의 형태로 구현될 수 있으나, 이에 제한되지 않으며, 밴드를 목 뒤로 착용하는 넥밴드형, 귀에 걸치는 이어셋형 등의 다양한 형태로 구현될 수 있어, 실시예에 따라 달리 채용될 수도 있다. Each of the plurality of headsets 100 may be implemented as a device equipped with a speaker and a microphone. Preferably, as shown in FIG. 1, the first headset 110, the second headset 120, the third headset 130, etc. may be implemented in the form of a general type worn on the head, but are not limited thereto. , It can be implemented in various forms, such as a neckband type worn behind the neck, an earset type worn over the ear, and the like, and may be employed differently depending on the embodiment.

복수의 헤드셋(100) 각각은 소리를 출력하는 스피커 기능, 소리를 입력하는 마이크 기능, 무선 통신 기능, GPS를 통한 위치 추적 기능 등을 전부 또는 일부 수행하도록 구성될 수 있다. 복수의 헤드셋(100)은 장치(200)와 무선을 통해 통신하도록 구성될 수 있다.Each of the plurality of headsets 100 may be configured to perform all or part of a speaker function for outputting sound, a microphone function for inputting sound, a wireless communication function, a location tracking function through GPS, and the like. Multiple headsets 100 may be configured to communicate with device 200 wirelessly.

일실시예에 따르면, 복수의 헤드셋(100)과 장치(200)는 직접적으로 연결될 수 있고, 복수의 헤드셋(100) 각각이 복수의 사용자 단말과 연결되고 복수의 사용자 단말이 장치(200)와 연결되어, 복수의 헤드셋(100)과 장치(200)는 복수의 사용자 단말을 통해 간접적으로 연결될 수도 있다. 이를 위해, 복수의 헤드셋(100)은 복수의 사용자 단말과 대응 관계를 가질 수 있다. 예를 들어, 제1 헤드셋(110)은 제1 사용자 단말과 연결되어 있는 상태에서, 제1 사용자 단말은 장치(200)와 연결될 수 있다.According to an embodiment, the plurality of headsets 100 and the device 200 may be directly connected, each of the plurality of headsets 100 is connected to a plurality of user terminals, and the plurality of user terminals are connected to the device 200. Thus, the plurality of headsets 100 and the device 200 may be indirectly connected through a plurality of user terminals. To this end, a plurality of headsets 100 may have a corresponding relationship with a plurality of user terminals. For example, while the first headset 110 is connected to the first user terminal, the first user terminal may be connected to the device 200 .

이하에서는 설명의 편의상, 제1 헤드셋(110)의 동작을 위주로 설명하지만, 제2 헤드셋(120) 등의 다른 헤드셋에서 제1 헤드셋(110)의 동작을 대신 수행할 수 있는 것은 물론이다.Hereinafter, for convenience of description, the operation of the first headset 110 will be mainly described, but it goes without saying that other headsets such as the second headset 120 can perform the operation of the first headset 110 instead.

장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 또한, 장치(200)는 단말일 수도 있다.The device 200 may be a server owned by a person or organization that provides services using the device 200, may be a cloud server, or may be a peer-to-peer (p2p) set of distributed nodes. may be Also, the device 200 may be a terminal.

장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다.The device 200 may be configured to perform all or some of the arithmetic function, storage/reference function, input/output function, and control function of a normal computer. The device 200 may include one or more artificial neural networks that perform an inference function.

장치(200)는 복수의 헤드셋(100)과 유무선으로 통신하도록 구성될 수 있으며, 복수의 헤드셋(100) 각각의 동작을 제어할 수 있다.The device 200 may be configured to communicate with a plurality of headsets 100 by wire or wirelessly, and may control the operation of each of the plurality of headsets 100 .

한편, 설명의 편의를 위해 도 1에서는 복수의 헤드셋(100) 중 제1 헤드셋(110), 제2 헤드셋(120) 및 제3 헤드셋(130)만을 도시하였으나, 헤드셋들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(200)의 처리 용량이 허용하는 한, 헤드셋들의 수는 특별한 제한이 없다.Meanwhile, for convenience of description, FIG. 1 shows only the first headset 110, the second headset 120, and the third headset 130 among the plurality of headsets 100, but the number of headsets may vary depending on the embodiment. Anything can be different. The number of headsets is not particularly limited, as long as the processing capacity of device 200 allows.

일실시예에 따르면, 장치(200)는 사용자의 음성 인식을 위해 사용자 별로 사용자의 음성 정보를 수집하여 학습시킨 후, 학습된 사용자의 음성 정보를 기반으로 사용자의 음성을 인식할 수 있다. 즉, 장치(200)는 미리 설정된 시간(예를 들면, 30분) 동안 사용자의 음성 정보를 수집하여, 수집된 음성 정보에 기초하여 사용자의 음성 정보를 학습시키고, 이를 통해, 사용자의 음성 인식 과정에서 오류 방지를 위한 확인 작업을 수행할 수 있다. 사용자의 음성 정보를 수집할 때, 물류 센터에서 많이 사용되는 단어들 위주로 사용자의 음성 정보를 수집할 수 있다.According to an embodiment, the apparatus 200 may collect and learn user voice information for each user in order to recognize the user's voice, and then recognize the user's voice based on the learned user's voice information. That is, the device 200 collects the user's voice information for a preset time (eg, 30 minutes), learns the user's voice information based on the collected voice information, and through this, the user's voice recognition process. You can perform checks to prevent errors in . When collecting the user's voice information, the user's voice information may be collected mainly for words frequently used in the distribution center.

장치(200)는 사용자의 음성 인식을 기반으로 물류 처리를 위한 업무를 할당할 수 있다. 이때, 장치(200)는 음성 인식을 기반으로 사용자를 식별한 후, 그에 따라 작업할 수 있는 수량을 파악하고, 그 파악된 수량에 따라 작업 명령을 사용자에게 전달할 수 있다.The device 200 may allocate tasks for logistics processing based on the user's voice recognition. At this time, the device 200 may identify the user based on voice recognition, determine the quantity of work that can be performed accordingly, and deliver work commands to the user according to the identified quantity.

예를 들어, 장치(200)는 음성 인식을 기반으로 사용자를 식별하게 되면, 식별된 사용자의 성별, 나이, 근무 기간 등을 파악할 수 있으며, 파악된 사용자의 특징에 따라 사용자가 처리할 수 있는 작업 수량을 파악하고, 파악된 작업 수량을 넘어서 업무를 수행하려고 하는 경우, 수량을 줄이는 것을 안내하는 알림 메시지를 사용자에게 전달할 수 있다.For example, when the device 200 identifies a user based on voice recognition, the device 200 can determine the identified user's gender, age, work period, etc., and tasks the user can process according to the characteristics of the identified user. When the quantity is determined and a task is to be performed beyond the identified quantity, a notification message instructing the user to reduce the quantity may be delivered.

장치(200)는 사용자의 생체 정보를 기반으로 노동 강도를 파악하고, 이에 따라 작업량을 조절할 수 있다. 예를 들어, 장치(200)는 사용자의 심박수를 기반으로 사용자의 현재 상태를 파악한 후, 파악된 상태에 따라 작업량을 조절할 수 있다.The apparatus 200 may determine the labor intensity based on the user's biometric information and adjust the amount of work accordingly. For example, the apparatus 200 may determine the current state of the user based on the user's heart rate, and then adjust the amount of work according to the determined state.

장치(200)는 작업중인 사용자의 헬스케어 정보를 획득하여 관리할 수 있으며, 중대재해를 방지하기 위해, 헬스케어 정보를 실시간으로 획득하여 사용자의 건강 상태를 모니터링할 수 있다.The apparatus 200 may obtain and manage health care information of a user at work, and obtain health care information in real time to monitor the user's health status in order to prevent serious accidents.

장치(200)는 음성 인식을 기반으로 사용자를 식별하게 되면, 식별된 사용자 별로 강도가 높은 업무(무거운 거를 나르는 업무), 강도가 낮은 업무(가벼운 거를 나르는 업무) 등을 차별적으로 할당하여 분배할 수 있다.When the device 200 identifies a user based on voice recognition, a high-intensity task (carrying heavy objects), a low-intensity task (carrying light objects), etc. are differentially allocated and distributed for each identified user. can do.

일실시예에 따르면, 장치(200)는 인공지능을 기반으로 상품의 종류 별로 재고량을 분석할 수 있다. 이를 위해, 장치(200)는 기계 학습 알고리즘의 수행을 위하여 미리 학습된 다수의 인공 신경망을 포함할 수 있다.According to one embodiment, the device 200 may analyze the amount of inventory for each type of product based on artificial intelligence. To this end, the device 200 may include a plurality of pre-trained artificial neural networks to perform the machine learning algorithm.

본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) means a technology that imitates human learning ability, reasoning ability, perception ability, etc., and implements it with a computer, and concepts such as machine learning and symbolic logic can include Machine learning (ML) is an algorithm technology that classifies or learns the characteristics of input data by itself. Artificial intelligence technology is a machine learning algorithm that analyzes input data, learns the result of the analysis, and can make judgments or predictions based on the result of the learning. In addition, technologies that mimic the functions of the human brain, such as recognition and judgment, using machine learning algorithms, can also be understood as artificial intelligence. For example, technical fields such as linguistic understanding, visual understanding, inference/prediction, knowledge expression, and motion control may be included.

기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning may refer to processing that trains a neural network model using experience of processing data. Through machine learning, computer software could mean improving its own data processing capabilities. A neural network model is constructed by modeling a correlation between data, and the correlation may be expressed by a plurality of parameters. The neural network model derives a correlation between data by extracting and analyzing features from given data, and optimizing the parameters of the neural network model by repeating this process can be referred to as machine learning. For example, a neural network model may learn a mapping (correlation) between an input and an output with respect to data given as an input/output pair. Alternatively, even when only input data is given, the neural network model may learn the relationship by deriving a regularity between given data.

인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.An artificial intelligence learning model or a neural network model may be designed to implement a human brain structure on a computer, and may include a plurality of network nodes having weights while simulating neurons of a human neural network. A plurality of network nodes may have a connection relationship between them by simulating synaptic activities of neurons that transmit and receive signals through synapses. In the artificial intelligence learning model, a plurality of network nodes can send and receive data according to a convolutional connection relationship while being located in layers of different depths. The artificial intelligence learning model may be, for example, an artificial neural network model, a convolutional neural network model (CNN), and the like. As an embodiment, the artificial intelligence learning model may be machine-learned according to methods such as supervised learning, unsupervised learning, and reinforcement learning. Machine learning algorithms for performing machine learning include Decision Tree, Bayesian Network, Support Vector Machine, Artificial Neural Network, Ada-boost , Perceptron, Genetic Programming, Clustering, etc. may be used.

이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Of these, CNNs are a type of multilayer perceptrons designed to use minimal preprocessing. A CNN consists of one or several convolution layers and general artificial neural network layers on top, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize the input data with a two-dimensional structure. Compared to other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained via standard back-propagation. CNNs are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.

컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increasing size of available training data and the availability of computational power, combined with algorithmic advances such as piecewise linear unit and dropout training, have greatly improved many computer vision tasks. With huge data sets, such as those available for many tasks today, overfitting is not critical, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. To this end, a distributed, scalable implementation of deep neural networks can be used.

도 2는 일실시예에 따른 음성 인식을 기반으로 물류를 처리하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of processing logistics based on voice recognition according to an embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 물류 센터에 근무하는 사용자들 중 어느 하나가 제1 헤드셋(110)을 착용한 것을 확인할 수 있다.Referring to FIG. 2 , first, in step S201 , the device 200 may check that one of the users working in the distribution center is wearing the first headset 110 .

구체적으로, 제1 헤드셋(110)에는 감지 센서가 부착되어 있으며, 감지 센서는 제1 헤드셋(110)이 사용자에 의해 착용되는 것을 압력을 통해 감지하여, 제1 헤드셋(110)이 착용될 때 감지 신호를 발생할 수 있으며, 제1 헤드셋(110)은 감지 센서에 의해 발생된 감지 신호를 장치(200)로 전송할 수 있다.Specifically, a detection sensor is attached to the first headset 110, and the detection sensor detects that the first headset 110 is worn by the user through pressure, and detects when the first headset 110 is worn. A signal may be generated, and the first headset 110 may transmit the detection signal generated by the detection sensor to the device 200 .

장치(200)는 제1 헤드셋(110)으로부터 감지 신호를 수신하게 되면, 어느 사용자에 의해 제1 헤드셋(110)이 착용된 것으로 확인할 수 있으며, 제1 헤드셋(110)을 착용한 사용자가 누구인지는 후술할 S205 단계에서 확인될 수 있다.When the device 200 receives the detection signal from the first headset 110, it can determine which user is wearing the first headset 110, and who the user is wearing the first headset 110. Can be confirmed in step S205 to be described later.

S202 단계에서, 장치(200)는 물류 센터에 근무하는 사용자들 중 어느 하나가 제1 헤드셋(110)을 착용한 것으로 확인되면, 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다. 즉, 어느 사용자가 제1 헤드셋(110)을 착용한 경우, 제1 헤드셋(110)의 스피커에서는 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 출력될 수 있다.In step S202, the device 200, when it is confirmed that any one of the users working in the distribution center is wearing the first headset 110, a notification message requesting a voice input for user recognition is sent to the first headset 110. ) can be controlled to be output through the speaker. That is, when a user wears the first headset 110, a notification message requesting a voice input for user recognition may be output from a speaker of the first headset 110.

예를 들어, 장치(200)는 랜덤으로 “시계”라는 단어를 생성하여 “시계”라는 단어를 사용자가 발화하여 음성으로 입력해줄 것을 요청하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.For example, the device 200 randomly generates the word "watch", and a notification message requesting the user to utter the word "watch" and input it by voice is output through the speaker of the first headset 110. can be controlled as much as possible.

S203 단계에서, 장치(200)는 제1 헤드셋(110)의 마이크를 통해 사용자의 음성이 입력되면, 제1 헤드셋(110)으로부터 제1 음성 정보를 획득할 수 있다.In step S203 , when the user's voice is input through the microphone of the first headset 110 , the device 200 may obtain first voice information from the first headset 110 .

구체적으로, 제1 헤드셋(110)의 스피커를 통해 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 출력된 이후, 제1 헤드셋(110)의 마이크를 통해 사용자의 음성이 입력되면, 제1 헤드셋(110)은 마이크를 통해 입력된 사용자의 음성을 기반으로 제1 음성 정보를 생성할 수 있으며, 장치(200)는 제1 헤드셋(110)으로부터 제1 음성 정보를 수신하여 획득할 수 있다.Specifically, after a notification message requesting voice input for user recognition is output through the speaker of the first headset 110, when the user's voice is input through the microphone of the first headset 110, the first headset ( 110 ) may generate first voice information based on the user's voice input through the microphone, and the device 200 may receive and obtain the first voice information from the first headset 110 .

S204 단계에서, 장치(200)는 제1 음성 정보를 사용자 별로 학습된 기준 음성 정보와 비교한 결과, 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것을 확인할 수 있다.In step S204, the apparatus 200 compares the first voice information with the standard voice information learned for each user, and as a result, confirms that the first voice information matches the standard voice information of the first user.

구체적으로, 장치(200)는 미리 설정된 시간 동안 사용자 별로 음성 정보를 수집하여 학습시킨 후, 학습된 사용자의 음성 정보를 기반으로 기준 음성 정보를 생성할 수 있다.Specifically, the apparatus 200 may collect and learn voice information for each user for a preset time, and then generate reference voice information based on the learned voice information of the user.

예를 들어, 장치(200)는 제1 사용자의 음성 정보를 일정 시간 동안 수집하여 학습시킨 후, 제1 사용자의 기준 음성 정보를 생성하고, 제2 사용자의 음성 정보를 일정 시간 동안 수집하여 학습시킨 후, 제2 사용자의 기준 음성 정보를 생성할 수 있다.For example, the device 200 collects voice information of the first user for a certain period of time and trains it, generates reference voice information of the first user, and collects and learns voice information of the second user for a certain period of time. Then, reference voice information of the second user may be generated.

이후, 장치(200)는 제1 음성 정보를 사용자 별로 학습된 기준 음성 정보와 비교하여, 제1 음성 정보가 어느 사용자의 기준 음성 정보와 일치하는지 여부를 분석할 수 있다.Thereafter, the apparatus 200 compares the first voice information with reference voice information learned for each user, and analyzes whether the first voice information matches the reference voice information of a user.

예를 들어, 장치(200)는 제1 음성 정보를 제1 사용자의 기준 음성 정보, 제2 사용자의 기준 음성 정보 등과 각각 비교하여, 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것을 확인할 수 있다.For example, the apparatus 200 compares the first voice information with the reference voice information of the first user and the reference voice information of the second user, respectively, and determines that the first voice information matches the reference voice information of the first user. You can check.

S205 단계에서, 장치(200)는 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것으로 확인되면, 제1 헤드셋(110)을 착용한 사용자를 제1 사용자로 인식할 수 있다.In step S205 , the device 200 may recognize the user wearing the first headset 110 as the first user when it is determined that the first voice information matches the reference voice information of the first user.

S206 단계에서, 장치(200)는 제1 헤드셋(110)을 착용한 사용자가 제1 사용자로 인식되면, 제1 사용자에게 할당되어 있는 업무가 있는지 여부를 확인할 수 있다. 여기서, 업무는 물류 처리를 위해 필요한 작업으로, 상품의 적치, 피킹, 분배, 이동, 재고실사 등일 수 있다.In step S206, when the user wearing the first headset 110 is recognized as the first user, the device 200 may check whether there is a task assigned to the first user. Here, the work is a work required for logistics processing, and may include product placement, picking, distribution, movement, inventory counting, and the like.

S206 단계에서 제1 사용자에게 할당되어 있는 업무가 없는 것으로 확인되면, S401 단계가 수행될 수 있으며, 이와 관련된 자세한 설명은 도 4를 참조하여 후술하기로 한다.If it is confirmed in step S206 that there is no task assigned to the first user, step S401 may be performed, and a detailed description related to this will be described later with reference to FIG. 4 .

S206 단계에서 제1 사용자에게 할당되어 있는 업무가 있는 것으로 확인되면, S207 단계에서, 장치(200)는 제1 사용자에게 제1 업무가 할당되어 있는 것을 확인할 수 있다.If it is confirmed in step S206 that there is a task assigned to the first user, in step S207, the device 200 may confirm that the first task is assigned to the first user.

S208 단계에서, 장치(200)는 제1 사용자에게 제1 업무가 할당되어 있는 것으로 확인되면, 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.In step S208, when it is determined that the first task is assigned to the first user, the device 200 sends a notification message instructing movement to the first zone to handle the first task of the first headset 110. It can be controlled to be output through the speaker.

예를 들어, 제1 업무가 제1 구역에 적치되어 있는 제1 상품을 피킹하는 작업인 경우, 장치(200)는 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.For example, when the first task is a task of picking a first product stored in the first area, the device 200 sends a notification message guiding movement to the first area to process the first task. 1 can be controlled to be output through the speaker of the headset 110.

장치(200)는 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력된 이후, 제1 헤드셋(110)의 위치를 추적하여 제1 사용자가 제1 구역으로 이동하였는지 여부를 확인할 수 있다.The device 200 tracks the location of the first headset 110 after a notification message guiding movement to the first area to handle the first task is output through the speaker of the first headset 110, 1 It is possible to check whether the user has moved to the first zone.

장치(200)는 제1 헤드셋(110)의 위치 정보를 통해 제1 사용자가 제1 구역으로 이동한 것이 확인되면, 제1 상품을 피킹하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다. 이때, 사용자 별로 한 번에 옮길 수 있는 상품의 수량이 상이할 수 있으므로, 장치(200)는 사용자 별로 한 번에 옮길 수 있는 상품이 어느 정도인지를 안내하는 알림 메시지를 제공할 수 있다. 이와 관련된 자세한 설명은 도 3을 참조하여 후술하기로 한다.When it is confirmed that the first user has moved to the first area through the location information of the first headset 110, the device 200 sends a notification message guiding picking the first product to the speaker of the first headset 110. It can be controlled to be output through . In this case, since the number of goods that can be moved at one time may vary for each user, the device 200 may provide a notification message informing how many goods that can be moved at one time for each user. A detailed description related to this will be described later with reference to FIG. 3 .

도 3은 일실시예에 따른 한 번에 옮길 수 있는 상품의 수량을 안내하는 알림 메시지를 제공하는 과정을 설명하기 위한 순서도이다Figure 3 is a flow chart for explaining a process of providing a notification message for guiding the quantity of goods that can be moved at one time according to an embodiment.

도 3을 참조하면, 먼저, S301 단계에서, 장치(200)는 제1 사용자에게 제1 업무가 할당되어 있는 것으로 확인되면, 제1 업무가 제1 상품을 제1 수량 옮기는 작업인 것을 확인할 수 있다.Referring to FIG. 3 , first, in step S301, if it is confirmed that the first task is assigned to the first user, the device 200 can confirm that the first task is a task of moving a first product in a first quantity. .

S303 단계에서, 장치(200)는 제1 업무가 제1 상품을 제1 수량 옮기는 작업인 경우, 제1 상품의 무게와 제1 수량을 곱한 값으로, 제1 무게를 산출할 수 있다. 이때, 장치(200)는 데이터베이스에 저장된 상품 정보를 조회하여, 제1 상품 정보를 획득한 후, 제1 상품 정보를 통해 제1 상품의 무게를 확인할 수 있다.In step S303, the device 200 may calculate the first weight by multiplying the weight of the first product by the first quantity when the first task is to move the first product by the first quantity. At this time, the device 200 may inquire product information stored in the database, obtain first product information, and then check the weight of the first product through the first product information.

예를 들어, 제1 상품의 무게가 1kg이고 제1 수량이 10개인 경우, 장치(200)는 제1 무게를 10kg로 산출할 수 있다.For example, when the weight of the first product is 1 kg and the first quantity is 10, the device 200 may calculate the first weight as 10 kg.

한편, S302 단계에서, 장치(200)는 제1 사용자 정보를 기초로, 제1 사용자의 특징을 분석할 수 있다. 이때, 장치(200)는 데이터베이스에 저장된 사용자 정보를 조회하여, 제1 사용자 정보를 획득한 후, 제1 사용자 정보를 통해 제1 사용자의 성별, 나이 등을 확인하여 제1 사용자의 특징을 분석할 수 있다.Meanwhile, in step S302, the device 200 may analyze the characteristics of the first user based on the first user information. At this time, the device 200 searches for user information stored in the database, obtains first user information, and then analyzes the characteristics of the first user by identifying the first user's gender, age, etc. through the first user information. can

S304 단계에서, 장치(200)는 제1 사용자의 특징에 대한 분석 결과를 기반으로, 제1 사용자에게 허용된 최대 무게를 제2 무게로 확인할 수 있다. 이때, 제2 무게는 성별이 남성인 경우 여성일 때보다 더 무거운 무게로 설정될 수 있고, 나이가 어릴수록 더 무거운 무게로 설정될 수 있다. In step S304, the device 200 may determine the maximum weight allowed for the first user as the second weight based on the analysis result of the characteristics of the first user. In this case, the second weight may be set to a heavier weight when the gender is male than when the gender is female, and may be set to a heavier weight as the age is younger.

예를 들어, 장치(200)는 제1 사용자의 특징을 분석한 결과, 제1 사용자가 20대 남자로 확인되면, 20대 남자에게 허용된 최대 무게인 10kg를 제2 무게로 확인할 수 있고, 제1 사용자가 40대 여자로 확인되면 40대 여자에게 허용된 최대 무게인 5kg를 제2 무게로 확인할 수 있다.For example, as a result of analyzing the characteristics of the first user, if the first user is identified as a man in his twenties, the device 200 may determine the maximum weight allowed for a man in his twenties of 10kg as the second weight, and 1 If the user is identified as a woman in her 40s, the maximum weight allowed for a woman in her 40s, 5kg, can be checked as a second weight.

S305 단계에서, 장치(200)는 제2 무게가 제1 무게 보다 큰지 여부를 확인할 수 있다.In step S305, the device 200 may determine whether the second weight is greater than the first weight.

S305 단계에서 제2 무게가 제1 무게 보다 큰 것으로 확인되면, S306 단계에서, 장치(200)는 제1 상품을 옮길 때 제1 수량을 한 번에 옮기는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.When it is confirmed that the second weight is greater than the first weight in step S305, in step S306, the device 200 sends a notification message guiding moving the first quantity at once when the first product is moved, the first headset 110 ) can be controlled to be output through the speaker.

즉, 장치(200)는 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력된 이후, 제1 헤드셋(110)의 위치 정보를 통해 제1 사용자가 제1 구역으로 이동한 것이 확인되면, 제1 상품을 옮길 때 제1 수량을 한 번에 옮기는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.That is, after a notification message guiding movement to the first area to handle the first task is output through the speaker of the first headset 110, the device 200 receives location information of the first headset 110. When it is confirmed that the first user has moved to the first zone through, when moving the first product, a notification message guiding that the first quantity is moved at once can be controlled to be output through the speaker of the first headset 110. there is.

S305 단계에서 제2 무게가 제1 무게 보다 작은 것으로 확인되면, S307 단계에서, 장치(200)는 제1 무게를 제2 무게로 나눈 값에서 소수점을 올림한 값으로, 제1 횟수를 산출할 수 있다.If it is confirmed that the second weight is smaller than the first weight in step S305, in step S307, the device 200 may calculate the first number of times as a value obtained by rounding up a decimal point from a value obtained by dividing the first weight by the second weight. there is.

예를 들어, 제1 무게가 17kg이고 제2 무게가 4kg인 경우, 장치(200)는 제2 무게가 제1 무게 보다 작은 것으로 확인되어, 제1 무게를 제2 무게로 나눈 값인 4.25에서 소수점을 올림한 값인 5를 제1 횟수로 산출할 수 있다.For example, when the first weight is 17 kg and the second weight is 4 kg, the device 200 determines that the second weight is smaller than the first weight, and sets a decimal point at 4.25, which is the value obtained by dividing the first weight by the second weight. The rounded value 5 can be calculated as the first number of times.

S308 단계에서, 장치(200)는 제1 횟수가 산출되면, 제1 상품을 옮길 때 제1 수량을 제1 횟수에 나누어 옮기는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.In step S308, when the first number of times is calculated, the device 200 outputs a notification message guiding the moving by dividing the first quantity by the first number of times when moving the first product through the speaker of the first headset 110. You can control it.

즉, 장치(200)는 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력된 이후, 제1 헤드셋(110)의 위치 정보를 통해 제1 사용자가 제1 구역으로 이동한 것이 확인되면, 제1 상품을 옮길 때 제1 수량을 제1 횟수에 나누어 옮기는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.That is, after a notification message guiding movement to the first area to handle the first task is output through the speaker of the first headset 110, the device 200 receives location information of the first headset 110. When it is confirmed that the first user has moved to the first zone through the control, when moving the first product, a notification message guiding the moving of the first product by dividing the first quantity by the first number of times is output through the speaker of the first headset 110. can do.

도 4는 일실시예에 따른 사용자에게 업무를 할당하는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of allocating a task to a user according to an exemplary embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1 사용자에게 할당되어 있는 업무가 없는 것으로 확인되면, 제1 사용자의 성별, 나이 및 근무 기간에 기초하여, 제1 사용자의 능력치를 산출할 수 있다.Referring to FIG. 4 , first, in step S401, if it is determined that there is no task assigned to the first user, the device 200 determines the first user's ability value based on the first user's gender, age, and working period. can be calculated.

구체적으로, 장치(200)는 제1 사용자의 성별을 통해 제1 사용자의 성별 점수를 산정하고, 제1 사용자의 나이를 통해 제1 사용자의 나이 점수를 산정하고, 제1 사용자의 근무 기간을 통해 제1 사용자의 근무 점수를 산정한 후, 성별 점수, 나이 점수 및 근무 점수를 합산한 값으로, 제1 사용자의 능력치를 산출할 수 있다. 이때, 성별 점수는 성별이 남성인 경우 여성일 때보다 더 높은 점수로 산정될 수 있고, 나이 점수는 나이가 어릴수록 더 높은 점수로 산정될 수 있고, 근무 점수는 근무 기간이 길수록 더 높은 점수로 산정될 수 있다.Specifically, the device 200 calculates the first user's gender score based on the first user's gender, calculates the first user's age score based on the first user's age, and calculates the first user's age score based on the first user's working period. After calculating the work score of the first user, the ability value of the first user may be calculated as a sum of the gender score, the age score, and the work score. At this time, the gender score may be calculated as a higher score when the gender is male than when the female is female, the age score may be calculated as a higher score as the age is younger, and the work score may be calculated as a higher score as the working period is longer. can be calculated.

S402 단계에서, 장치(200)는 제1 사용자의 업무 처리 내역에 기초하여, 제1 기간 동안 제1 사용자가 처리한 업무의 수인 제1 업무 수를 확인할 수 있다. 여기서, 제1 기간은 실시예에 따라 상이하게 설정될 수 있다.In step S402 , the device 200 may check the first number of tasks, that is, the number of tasks processed by the first user during the first period, based on the task processing details of the first user. Here, the first period may be set differently according to embodiments.

구체적으로, 장치(200)의 데이터베이스에는 사용자 별로 처리한 업무들의 내역이 구분되어 저장되어 있으며, 장치(200)는 데이터베이스에 저장된 업무 처리 내역을 조회하여, 제1 사용자의 업무 처리 내역을 획득할 수 있다.Specifically, the database of the device 200 stores the details of tasks processed for each user by dividing them, and the device 200 searches the task processing details stored in the database to obtain the task processing details of the first user. there is.

이후, 장치(200)는 제1 사용자의 업무 처리 내역에 기초하여, 제1 기간 동안 제1 사용자가 얼마나 많은 수의 업무를 처리한지 파악한 후, 파악된 업무의 수를 제1 업무 수로 확인할 수 있다.Thereafter, the device 200 determines how many tasks the first user has processed during the first period based on the task processing details of the first user, and then identifies the number of tasks as the first number of tasks. .

예를 들어, 제1 기간이 24시간으로 설정되어 있는 경우, 장치(200)는 최근 24시간 동안 제1 사용자가 처리한 업무의 수를 제1 업무 수로 확인할 수 있다.For example, when the first period is set to 24 hours, the device 200 may check the number of tasks processed by the first user for the last 24 hours as the number of first tasks.

S403 단계에서, 장치(200)는 제1 업무 수와 반비례하는 값을 기반으로, 제1 가중치를 설정할 수 있다.In step S403, the device 200 may set a first weight based on a value inversely proportional to the number of first tasks.

예를 들어, 장치(200)는 제1 업무 수가 10인 경우, 제1 가중치를 0.5로 설정할 수 있고, 제1 업무 수가 8인 경우, 제1 가중치를 0.7로 설정할 수 있고, 제1 업무 수가 6인 경우, 제1 가중치를 0.9로 설정할 수 있다.For example, the apparatus 200 may set the first weight to 0.5 when the first number of tasks is 10, set the first weight to 0.7 when the first number of tasks is 8, and set the first weight to 0.7 when the first number of tasks is 6. In case of , the first weight may be set to 0.9.

S404 단계에서, 장치(200)는 제1 사용자의 능력치에 제1 가중치를 적용하여, 제1 사용자의 작업 가능 능력치를 산출할 수 있다.In step S404, the apparatus 200 may apply a first weight to the ability level of the first user to calculate the ability level of the first user.

예를 들어, 제1 사용자의 능력치가 300이고, 제1 가중치가 0.7인 경우, 장치(200)는 제1 사용자의 작업 가능 능력치를 210으로 산출할 수 있다.For example, when the first user's ability level is 300 and the first weight is 0.7, the device 200 may calculate the first user's ability level as 210.

S405 단계에서, 장치(200)는 제1 사용자의 작업 가능 능력치를 업무 별로 설정된 필요 능력치과 비교한 결과, 제1 사용자의 작업 가능 능력치가 제1 업무의 필요 능력치 보다 높은 것을 확인할 수 있다. 이를 위해, 업무 별로 노동 강도에 따라 필요 능력치가 설정되어 있다. 예를 들어, 옮겨야 하는 상품의 무게가 무거울수록 필요 능력치가 높은 점수로 설정될 수 있고, 옮겨야 하는 상품의 수량이 많을수록 필요 능력치가 높은 점수로 설정될 수 있고, 옮겨야 하는 거리가 길수록 필요 능력치가 높은 점수로 설정될 수 있다.In step S405 , the apparatus 200 compares the first user's work capability with the required capability set for each task, and can confirm that the first user's work capability is higher than the first task's required capability. To this end, the required ability level is set according to the intensity of labor for each task. For example, the heavier the weight of the product to be moved, the higher the required ability score, the greater the quantity of the product to be moved, the higher the required ability score, and the longer the distance to be moved, the higher the required ability. score can be set.

즉, 장치(200)는 제1 사용자의 작업 가능 능력치를 업무 별로 설정된 필요 능력치과 비교하여, 제1 사용자의 작업 가능 능력치가 어느 업무의 필요 능력치 보다 높은지를 분석할 수 있다.That is, the apparatus 200 may compare the work capability of the first user with the required capability set for each task, and analyze whether the first user's work capability is higher than the required capability for a certain task.

예를 들어, 장치(200)는 제1 사용자의 작업 가능 능력치를 제1 업무의 필요 능력치, 제2 업무의 필요 능력치 등과 각각 비교하여, 제1 사용자의 작업 가능 능력치가 제1 업무의 필요 능력치 보다 높은 것을 확인할 수 있다.For example, the device 200 compares the work capability of the first user with the required capability for the first task and the required capability for the second task, respectively, so that the first user's work capability is higher than the required capability for the first task. high can be ascertained.

S406 단계에서, 장치(200)는 제1 사용자의 작업 가능 능력치가 제1 업무의 필요 능력치 보다 높은 것으로 확인되면, 제1 사용자에게 제1 업무를 할당할 수 있으며, 제1 사용자의 업무 내역에 제1 업무를 배정하여 등록할 수 있다.In step S406, the device 200 may assign a first task to the first user when it is confirmed that the first user's work capability is higher than the required capability level for the first task, and 1 You can register by assigning tasks.

도 5는 일실시예에 따른 사용자의 심박수를 통해 사용자에게 허용된 최대 무게를 설정하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of setting a maximum weight allowed to a user through the user's heart rate according to an embodiment.

도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 제1 사용자에게 허용된 최대 무게를 확인하기 위해, 제1 사용자의 신체에 착용된 웨어러블 기기로부터 제1 사용자의 심박수를 측정하여 생성된 제1 측정 정보를 수신할 수 있다. 이때, 제1 사용자의 신체에 착용된 웨어러블 기기는 제1 사용자의 심박수를 측정하여 제1 측정 정보를 생성하고, 생성된 제1 측정 정보를 장치(200)로 전송할 수 있다. 이를 위해, 장치(200)와 웨어러블 기기는 무선으로 통신하도록 구성될 수 있다.Referring to FIG. 5 , first, in step S501, the apparatus 200 measures and generates the heart rate of the first user from the wearable device worn on the body of the first user in order to determine the maximum weight allowed for the first user. The first measurement information may be received. In this case, the wearable device worn on the body of the first user may measure the heart rate of the first user, generate first measurement information, and transmit the generated first measurement information to the device 200 . To this end, the device 200 and the wearable device may be configured to communicate wirelessly.

S502 단계에서, 장치(200)는 제1 측정 정보를 통해 제1 사용자의 심박수인 제1 수치를 확인할 수 있다.In step S502, the device 200 may check a first value, which is the heart rate of the first user, through the first measurement information.

구체적으로, 장치(200)는 웨어러블 기기로부터 제1 측정 정보가 수신되면, 제1 측정 정보를 통해 제1 사용자의 심박수가 어느 정도인지 확인하여, 확인된 제1 사용자의 심박수를 제1 수치로 확인할 수 있다.Specifically, when the first measurement information is received from the wearable device, the device 200 determines the level of the heart rate of the first user through the first measurement information and determines the determined heart rate of the first user as a first numerical value. can

S503 단계에서, 장치(200)는 제1 수치가 정상 범위 내에 포함되어 있는지 여부를 확인할 수 있다. 여기서, 정상 범위는 제1 사용자의 평균 심박수에 따라 상이하게 설정될 수 있다. 예를 들어, 제1 사용자의 평균 심박수가 65로 확인되면, 정상 범위는 60부터 70까지로 설정될 수 있다.In step S503, the device 200 may check whether the first numerical value is within a normal range. Here, the normal range may be differently set according to the average heart rate of the first user. For example, if the average heart rate of the first user is determined to be 65, the normal range may be set from 60 to 70.

S503 단계에서 제1 수치가 정상 범위 내에 포함되어 있는 것으로 확인되면, S505 단계에서, 장치(200)는 제1 사용자에게 허용된 최대 무게를 제2 무게로 설정할 수 있다. 이때, 제2 무게는 제1 사용자의 성별이 남성인 경우 여성일 때보다 더 무거운 무게로 설정될 수 있고, 제1 사용자의 나이가 어릴수록 더 무거운 무게로 설정될 수 있다.If it is determined in step S503 that the first value is within the normal range, in step S505, the device 200 may set the maximum weight allowed to the first user as the second weight. In this case, the second weight may be set to a heavier weight when the gender of the first user is male than when the gender of the first user is female, and may be set to a heavier weight as the age of the first user is younger.

S503 단계에서 제1 수치가 정상 범위를 벗어나는 것으로 확인되면, S504 단계에서, 장치(200)는 제1 수치가 경고 범위 내에 포함되어 있는지 여부를 확인할 수 있다. 여기서, 경고 범위는 제1 사용자의 평균 심박수에 따라 상이하게 설정될 수 있다, 예를 들어, 제1 사용자의 평균 심박수가 65로 확인되면, 정상 범위는 60부터 70까지로 설정되고, 경고 범위는 50부터 60까지, 70부터 80까지로 설정될 수 있다.If it is determined that the first numerical value is out of the normal range in step S503, in step S504, the device 200 may determine whether the first numerical value is within the warning range. Here, the warning range may be set differently according to the average heart rate of the first user. For example, if the average heart rate of the first user is confirmed as 65, the normal range is set to 60 to 70, and the warning range is It can be set from 50 to 60 and from 70 to 80.

S504 단계에서 제1 수치가 경고 범위 내에 포함되어 있는 것으로 확인되면, S506 단계에서, 장치(200)는 제1 사용자에게 허용된 최대 무게를 제3 무게로 설정할 수 있다. 여기서, 제3 무게는 제2 무게 보다 낮은 값으로 설정될 수 있다.If it is confirmed in step S504 that the first value is within the warning range, in step S506, the device 200 may set the maximum weight allowed to the first user as the third weight. Here, the third weight may be set to a lower value than the second weight.

예를 들어, 제2 무게가 10kg로 설정되어 있고, 제3 무게가 5kg로 설정되어 있는 경우, 장치(200)는 제1 수치가 정상 범위 내에 포함되어 있는 것으로 확인되면, 제1 사용자에게 허용된 최대 무게를 10kg로 설정하고, 제1 수치가 정상 범위를 벗어나 경고 범위 내에 포함되어 있는 것으로 확인되면, 제1 사용자에게 허용된 최대 무게를 5kg로 설정할 수 있다.For example, when the second weight is set to 10 kg and the third weight is set to 5 kg, the device 200 determines that the first value is within the normal range, and the device 200 grants permission to the first user. When the maximum weight is set to 10 kg and it is determined that the first value is outside the normal range and is included within the warning range, the maximum weight allowed to the first user may be set to 5 kg.

S504 단계에서 제1 수치가 경고 범위를 벗어나 위험 범위 내에 포함되어 있는 것으로 확인되면, S507 단계에서, 장치(200)는 업무를 중단하고 휴식을 취하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다. 여기서 위험 범위는 제1 사용자의 평균 심박수에 따라 상이하게 설정될 수 있다, 예를 들어, 제1 사용자의 평균 심박수가 65로 확인되면, 정상 범위는 60부터 70까지로 설정되고, 경고 범위는 50부터 60까지, 70부터 80까지로 설정되고, 위험 범위는 50 미만, 80 초과로 설정될 수 있다.If it is determined in step S504 that the first value is out of the warning range and included in the danger range, in step S507, the device 200 sends a notification message guiding to stop work and take a break from the first headset 110. It can be controlled to be output through the speaker. Here, the risk range may be set differently according to the average heart rate of the first user. For example, if the average heart rate of the first user is determined to be 65, the normal range is set to 60 to 70, and the warning range is 50 to 60 and 70 to 80, and the risk range may be set to less than 50 and greater than 80.

즉, 장치(200)는 제1 수치가 위험 범위 내에 포함되어 있는 것으로 확인되면, 제1 사용자의 건강 상태를 휴식이 필요한 상태로 판단하여, 업무를 중단하고 휴식을 취하는 것을 안내하는 알림 메시지가 제1 헤드셋(110)의 스피커를 통해 출력되도록 제어할 수 있다.That is, when it is confirmed that the first numerical value is within the risk range, the device 200 determines the health condition of the first user as a state in need of a break, and provides a notification message guiding the user to stop work and take a break. 1 can be controlled to be output through the speaker of the headset 110.

도 6은 일실시예에 따른 상품의 반출량을 관리하는 과정을 설명하기 위한 순서도이다.6 is a flow chart illustrating a process of managing the amount of products taken out according to an embodiment.

도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 시점에 제1 사용자가 소지한 제1 사용자 단말의 카메라를 이용하여 제1 구역에 보관되어 있는 상품에 대한 촬영이 수행되면, 제1 시점에 제1 구역에 보관되어 있는 상품을 촬영하여 생성된 제1 이미지를 획득할 수 있다.Referring to FIG. 6 , first, in step S601 , the device 200 takes a photograph of a product stored in a first area using a camera of a first user terminal possessed by a first user at a first time point. , A first image generated by photographing a product stored in the first zone at a first point of view may be obtained.

구체적으로, 물류 센터는 복수의 구역으로 구분되어 있으며, 각 구역에는 상품들을 보관하기 위한 보관함이 구비되어 있을 수 있다. 제1 헤드셋(110)을 착용한 제1 사용자가 제1 구역으로 이동할 수 있으며, 이때, 제1 사용자는 제1 사용자 단말을 소지한 상태이다. 제1 사용자 단말은 제1 시점에 제1 사용자 단말에 구비된 카메라를 이용하여 제1 구역에 진열되어 있는 상품에 대한 촬영을 수행하여 제1 이미지를 생성할 수 있다. 장치(200)는 제1 시점에 제1 구역에 보관되어 있는 상품을 촬영하여 제1 이미지가 생성되면, 제1 사용자 단말로부터 제1 이미지를 획득할 수 있다.Specifically, the distribution center is divided into a plurality of zones, and each zone may be provided with storage boxes for storing products. A first user wearing the first headset 110 may move to a first area, and at this time, the first user is in possession of a first user terminal. The first user terminal may generate a first image by performing a photograph of products displayed in the first area using a camera provided in the first user terminal at a first point of view. When a first image is generated by photographing a product stored in a first area at a first time point, the device 200 may obtain the first image from the first user terminal.

일실시예에 따르면, 제1 사용자 단말에 포함되어 있는 카메라는 영상 촬영을 위한 Full HD(High Definition) 화질의 카메라 장비로서, 30내지 60프레임을 기준으로 하는 촬영 장비일 수 있다. 카메라는 노출, 셔터스피드, 감도를 자동으로 조절할 수 있으며, 사용자의 편의에 따라 수동 조절이 가능할 수 있다.According to one embodiment, the camera included in the first user terminal may be a full high definition (HD) quality camera equipment for capturing images, and may be a photographing equipment based on 30 to 60 frames. The camera may automatically adjust the exposure, shutter speed, and sensitivity, and manual adjustment may be possible according to the user's convenience.

S602 단계에서, 장치(200)는 제1 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있다.In step S602, the device 200 may generate a first input signal by encoding the first image.

구체적으로, 장치(200)는 제1 이미지의 픽셀을 색 정보로 인코딩 하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(200)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 이미지를 인코딩할 수 있다.Specifically, the device 200 may generate a first input signal by encoding pixels of the first image into color information. Color information may include RGB color information, brightness information, and chroma information, but is not limited thereto. The apparatus 200 may convert color information into numerical values, and may encode an image in the form of a data sheet including the values.

S603 단계에서, 장치(200)는 제1 입력 신호를 인공 신경망에 입력할 수 있다.In step S603, the device 200 may input the first input signal to the artificial neural network.

일실시예에 따르면, 인공 신경망은 컨볼루션 신경망으로 구현되어, 컨볼루션 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며, 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.According to an embodiment, the artificial neural network is implemented as a convolutional neural network, the convolutional neural network is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks an input signal through a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. As the activation function, a ReLU function, a sigmoid function, and a tanh function are generally used, but are not limited thereto. The pooling layer is a layer that reduces the matrix size of the input, and uses a method of extracting a representative value by grouping pixels in a specific area. The calculation of the pooling layer generally uses average values or maximum values, but is not limited thereto. The operation is performed using a square matrix, and a 9X9 matrix is generally used. The convolutional layer and the pooling layer are alternately repeated until the corresponding input is sufficiently small while maintaining the difference.

일실시예에 따르면, 분류 신경망은 은닉층과 출력층을 가지고 있다. 인공지능 기반의 상품 반출량 관리 방법을 위한 컨볼루션 신경망에서는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상으로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 컨볼루션 신경망의 출력층 노드는 총 50개로 할 수 있다. 컨볼루션 신경망에 대한 자세한 설명은 도 7을 참조하여 후술한다.According to one embodiment, the classification neural network has a hidden layer and an output layer. In a convolutional neural network for an artificial intelligence-based method for managing product shipments, there are generally three or more hidden layers, and the number of nodes in each hidden layer is set to 100, but in some cases more can be set. The activation function of the hidden layer uses a ReLU function, a sigmoid function, a tanh function, etc., but is not limited thereto. The number of output layer nodes of the convolutional neural network can be 50 in total. A detailed description of the convolutional neural network will be described later with reference to FIG. 7 .

S604 단계에서, 장치(200)는 컨볼루션 신경망인 인공 신경망의 입력의 대한 결과에 기초하여, 인공 신경망의 출력값인 제1 출력 신호를 획득할 수 있다.In step S604, the apparatus 200 may obtain a first output signal, which is an output value of the artificial neural network, based on a result of the input of the artificial neural network, which is a convolutional neural network.

일실시예에 따르면, 컨볼루션 신경망의 50개 출력층 노드는 상위 25개의 출력층 노드와 하위 25개의 출력층 노드를 포함할 수 있다. 컨볼루션 신경망의 50개 출력층 노드 중 상위 25개의 출력층 노드는 상품의 종류를 지시할 수 있다. 하위 25개의 노드는 상위 25개의 노드에 대응하는 상품의 재고량을 지시할 수 있다. 컨볼루션 신경망의 출력에 관한 자세한 설명은 도 7을 참조하여 후술한다.According to an embodiment, 50 output layer nodes of the convolutional neural network may include upper 25 output layer nodes and lower 25 output layer nodes. Among the 50 output layer nodes of the convolutional neural network, the top 25 output layer nodes may indicate the type of product. The lower 25 nodes may indicate the stock quantity of products corresponding to the upper 25 nodes. A detailed description of the output of the convolutional neural network will be described later with reference to FIG. 7 .

S605 단계에서, 장치(200)는 제1 출력 신호를 기초로, 제1 시점에 보관되어 있는 상품의 종류 및 재고량을 분석할 수 있다. 즉, 장치(200)는 제1 시점에 제1 구역에 보관되어 있는 상품의 종류가 어느 것인지 분석하고, 상품의 종류 별로 재고량이 몇 개인지 분석할 수 있다.In step S605, the device 200 may analyze the type and stock amount of products stored at the first time point based on the first output signal. That is, the device 200 may analyze which types of products are stored in the first zone at the first time point, and analyze how many stocks there are for each type of product.

S606 단계에서, 장치(200)는 제2 시점에 제1 사용자 단말의 카메라를 이용하여 제1 구역에 보관되어 있는 상품에 대한 촬영이 수행되면, 제2 시점에 제1 구역에 보관되어 있는 상품을 촬영하여 생성된 제2 이미지를 획득할 수 있다. 여기서, 제2 시점은 제1 시점으로부터 기준 기간이 지난 후의 시점을 의미하고, 기준 기간은 실시예에 따라 상이하게 설정될 수 있다. 예를 들어, 제1 시점이 13시인데, 기준 기간이 5시간으로 설정되어 있는 경우, 제2 시점은 18시일 수 있다.In step S606, the device 200 detects the products stored in the first area at a second point in time when a photograph of the product stored in the first area is performed using the camera of the first user terminal at the second point in time. A second image generated by photographing may be acquired. Here, the second point in time means a time point after the reference period has passed from the first point in time, and the reference period may be set differently according to embodiments. For example, when the first time point is 13:00 and the reference period is set to 5 hours, the second time point may be 18:00.

구체적으로, 제1 사용자 단말은 제2 시점에 제1 사용자 단말에 구비된 카메라를 이용하여 제1 구역에 진열되어 있는 상품에 대한 촬영을 수행하여 제2 이미지를 생성할 수 있다. 장치(200)는 제2 시점에 제1 구역에 보관되어 있는 상품을 촬영하여 제2 이미지가 생성되면, 제1 사용자 단말로부터 제2 이미지를 획득할 수 있다.Specifically, the first user terminal may create a second image by performing a photograph of products displayed in the first area using a camera provided in the first user terminal at a second point of view. When the second image is generated by photographing the goods stored in the first area at the second point of view, the device 200 may obtain the second image from the first user terminal.

S607 단계에서, 장치(200)는 제2 이미지를 인코딩 하여 제2 입력 신호를 생성할 수 있다.In step S607, the device 200 may generate a second input signal by encoding the second image.

S608 단계에서, 장치(200)는 제2 입력 신호를 인공 신경망에 입력할 수 있다.In step S608, the device 200 may input the second input signal to the artificial neural network.

S609 단계에서, 장치(200)는 인공 신경망의 입력의 대한 결과에 기초하여, 인공 신경망의 출력값인 제2 출력 신호를 획득할 수 있다.In step S609 , the apparatus 200 may obtain a second output signal, which is an output value of the artificial neural network, based on a result of the input of the artificial neural network.

S610 단계에서, 장치(200)는 제2 출력 신호를 기초로, 제2 시점에 보관되어 있는 상품의 종류 및 재고량을 분석할 수 있다. 즉, 장치(200)는 제2 시점에 제1 구역에 보관되어 있는 상품의 종류가 어느 것인지 분석하고, 상품의 종류 별로 재고량이 몇 개인지 분석할 수 있다.In step S610, the device 200 may analyze the type and stock amount of products stored at the second point in time based on the second output signal. That is, the device 200 may analyze which types of products are stored in the first zone at the second time point, and analyze how many stocks there are for each type of product.

S611 단계에서, 장치(200)는 제1 시점에 보관되어 있는 상품의 종류 및 재고량과 제2 시점에 보관되어 있는 상품의 종류 및 재고량을 비교하여, 제1 시점과 제2 시점 간에 재고량 차이가 있는 상품이 있는지 여부를 확인할 수 있다.In step S611, the device 200 compares the type and stock amount of the product stored at the first time point and the type and stock amount of the product stored at the second time point, and there is a difference in stock amount between the first time point and the second time point. You can check whether a product exists or not.

예를 들어, 제1 시점에 제1 상품이 5개, 제2 상품이 4개 보관되어 있는 것으로 확인되고, 제2 시점에 제1 상품이 4개, 제2 상품이 4개 보관되어 있는 것으로 확인되면, 장치(200)는 제1 시점과 제2 시점 간에 제1 상품의 재고량이 차이가 있는 것으로 확인할 수 있다.For example, it is confirmed that 5 first products and 4 second products are stored at a first time point, and it is confirmed that 4 first products and 4 second products are stored at a second time point. If so, the device 200 may determine that there is a difference between the first time point and the second time point in the inventory amount of the first product.

S611 단계에서 제1 상품의 재고량이 차이가 있는 것으로 확인되면, S612 단계에서, 장치(200)는 제1 시점과 제2 시점 간에 차이나는 제1 상품의 재고량을 제1 상품의 반출량으로 산출할 수 있다.If it is confirmed that there is a difference in the inventory amount of the first product in step S611, in step S612, the device 200 may calculate the inventory amount of the first product, which is different between the first time point and the second time point, as the export amount of the first product. there is.

구체적으로, 제1 시점에 제1 구역에 보관되어 있는 제1 상품의 재고량이 제2 수량이고, 제2 시점에 제1 구역에 보관되어 있는 제1 상품의 재고량이 제3 수량인 경우, 장치(200)는 제2 수량 및 제3 수량이 상이한 것으로 확인되면, 제1 시점과 제2 시점 간에 제1 상품의 재고량이 차이가 있는 것으로 확인할 수 있으며, 제2 수량에서 제3 수량을 차감하여, 제1 상품의 반출량을 산출할 수 있다.Specifically, when the stock amount of the first product stored in the first zone at the first time is the second quantity and the stock quantity of the first product stored in the first zone at the second time is the third quantity, the device ( 200), if it is confirmed that the second quantity and the third quantity are different, it can be confirmed that there is a difference in the inventory of the first product between the first time and the second time, and the third quantity is subtracted from the second quantity, 1 The export volume of goods can be calculated.

예를 들어, 제1 시점에 제1 상품이 제1 구역에 5개 보관되어 있는 것으로 확인되고, 제2 시점에 제1 상품이 제1 구역에 4개 보관되어 있는 것으로 확인되면, 장치(200)는 5개에서 4개를 차감하여, 1개를 제1 상품의 반출량으로 산출할 수 있다.For example, if it is confirmed that 5 first products are stored in the first zone at a first time point and 4 first products are stored in the first zone at a second time point, the device 200 may subtract 4 from 5 and calculate 1 as the export amount of the first product.

도 7은 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.7 is a diagram for explaining an artificial neural network according to an embodiment.

일실시예에 따르면, 장치(200)는 제1 사용자 단말의 카메라를 통한 촬영으로 생성된 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있으며, 인공 신경망(701)은 제1 입력 신호를 입력으로 하고, 상품의 종류(702) 및 상품의 재고량(703)을 출력으로 할 수 있다.According to an embodiment, the device 200 may generate a first input signal by encoding an image generated by shooting through a camera of a first user terminal, and the artificial neural network 701 may use the first input signal as an input. And, the product type 702 and the stock amount 703 of the product can be output.

일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet. The color information may include RGB color, brightness information, and saturation information of one pixel. , but not limited to

일실시예에 따르면, 인공 신경망(701)은 컨볼루션 신경망으로 구현되어, 인공 신경망(701)은 특징 추출 신경망(710)과 분류 신경망(720)으로 구성될 수 있으며, 특징 추출 신경망(710)은 상품을 찍은 이미지에서 상품과 배경을 분리하는 작업을 수행할 수 있으며, 분류 신경망(720)은 그로부터 상품을 종류별로 분류하고, 상품의 종류별로 각각의 재고량을 파악하는 작업을 수행하도록 할 수 있다. 특징 추출 신경망(710)이 상품과 배경과 구분하는 방법은, 이미지를 인코딩한 제1 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 상품과 배경의 경계로 삼을 수 있으나, 이에 국한하지 않는다.According to one embodiment, the artificial neural network 701 is implemented as a convolutional neural network, and the artificial neural network 701 may be composed of a feature extraction neural network 710 and a classification neural network 720, and the feature extraction neural network 710 An operation of separating a product from a background may be performed in an image of a product, and the classification neural network 720 may perform an operation of classifying the product by type and determining the stock amount of each product type. A method for the feature extraction neural network 710 to distinguish a product from a background is a method in which a change in each value of color information from a data sheet of a first input signal encoding an image is 30 at 6 or more out of 8 pixels including one pixel. A bundle of pixels detected as having a change of more than % may be used as a boundary between the product and the background, but is not limited thereto.

일실시예에 따르면, 특징 추출 신경망(710)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.According to an embodiment, the feature extraction neural network 710 proceeds by sequentially stacking a convolutional layer and a pooling layer on an input signal. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. As the activation function, a ReLU function, a sigmoid function, and a tanh function are generally used, but are not limited thereto. The pooling layer is a layer that reduces the matrix size of the input, and uses a method of extracting a representative value by grouping pixels in a specific area. The calculation of the pooling layer generally uses average values or maximum values, but is not limited thereto. The operation is performed using a square matrix, and a 9X9 matrix is generally used. The convolutional layer and the pooling layer are alternately repeated until the corresponding input is sufficiently small while maintaining the difference.

일실시예에 따른 분류 신경망(720)은 특징 추출 신경망(710)을 통해 배경으로부터 구분된 상품을 그 형태 및 연속성에 따라 종류를 구분하고, 상품의 재고량(703)을 종류별로 파악할 수 있다. 상품의 비교를 위해 데이터베이스에 저장된 정보들을 활용할 수 있다. 분류 신경망(720)은 상품의 종류(702)를 파악하는 작업을 우선으로 하며, 파악된 상품의 형태 및 크기에 따라 상품의 재고량(703) 파악을 용이하도록 할 수 있다.The classification neural network 720 according to an embodiment classifies products separated from the background through the feature extraction neural network 710 into types according to their shape and continuity, and can grasp the stock amount 703 of the product by type. Information stored in the database can be utilized for product comparison. The classification neural network 720 prioritizes identifying the type 702 of a product, and can easily determine the stock amount 703 of the product according to the shape and size of the identified product.

일실시예에 따르면, 분류 신경망(720)은 은닉층과 출력층을 가지고 있다. 장치(200) 내의 인공 신경망(701)에서는 일반적으로 은닉층이 5개 이상 존재하며, 각 은닉층의 노드는 80개로 지정하나 경우에 따라 그 이상으로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 인공 신경망(701)의 출력층 노드는 총 50개로 할 수 있다.According to one embodiment, the classification neural network 720 has a hidden layer and an output layer. In the artificial neural network 701 in the device 200, there are generally 5 or more hidden layers, and 80 nodes of each hidden layer are designated, but in some cases, more than 80 nodes may be designated. The activation function of the hidden layer uses a ReLU function, a sigmoid function, a tanh function, etc., but is not limited thereto. The number of output layer nodes of the artificial neural network 701 may be 50 in total.

일실시예에 따른 인공 신경망(701)의 출력은 출력층의 50개 노드 중 상위 25개의 노드는 상품의 종류(702)를 지시할 수 있고, 하위 25개의 노드는 상위 노드에 각각 대응하는 상품의 재고량(703)을 지시할 수 있다. 상위 25개의 노드와 하위 25개의 노드를 대응시키는 방식은 상위 n번 째 노드와 하위 n번 째 노드를 대응시키는 방식으로, 전체에서 n번 째 노드가 전체에서 25+n번 째 노드에 대응하는 방식으로 진행될 수 있다. 예를 들어, 1번 째 노드는 26번 째 노드에 대응하며, 2번 째 노드는 27번 째 노드에, 10번 째 노드는 35번 째 노드에, 25번 재 노드는 50번 째 노드에 대응하는 방식으로 진행될 수 있다. 상품의 종류(702)는 상품에 대응하는 코드 정보로 출력될 수 있으나, 이에 국한하지 않는다. 인공 신경망(701)의 50개의 출력층 노드 중 출력값이 없는 출력층 노드는 숫자 0을 그 출력값으로 출력할 수 있다. 상위 25개의 노드 중에 이 숫자 0이 포함되는 노드들은 해당하는 상품이 없는 것으로 간주될 수 있다. 만약 분류된 상품의 종류가 25개 이상일 경우, 남은 상품은 미리 생성한 출력값이 모두 처리된 후 이어서 자동으로 처리될 수 있다.In the output of the artificial neural network 701 according to an embodiment, among 50 nodes of the output layer, the top 25 nodes may indicate the product type 702, and the bottom 25 nodes may indicate the stock amount of the product corresponding to the top node. (703) may be indicated. The method of matching the top 25 nodes with the bottom 25 nodes is the method of matching the top nth node with the bottom nth node, and the nth node in total corresponds to the 25+nth node in all can proceed with For example, the 1st node corresponds to the 26th node, the 2nd node corresponds to the 27th node, the 10th node corresponds to the 35th node, and the 25th node corresponds to the 50th node. can proceed in this way. The product type 702 may be output as code information corresponding to the product, but is not limited thereto. An output layer node having no output value among 50 output layer nodes of the artificial neural network 701 may output the number 0 as its output value. Among the top 25 nodes, nodes containing this number 0 can be regarded as having no corresponding product. If the number of classified product types is 25 or more, the remaining products may be automatically processed after all previously generated output values are processed.

일실시예에 따르면, 인공 신경망(701)은 사용자가 인공 신경망(701)에 따른 상품 파악의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(701)에 따른 상품 파악의 문제점은 상품의 종류(702) 및 상품의 재고량(703)에 문제가 있는 경우를 의미할 수 있다.According to an embodiment, the artificial neural network 701 may receive and learn a first learning signal generated by a correction correct answer input by the user when a user discovers a problem in identifying a product according to the artificial neural network 701 . A problem in identifying a product according to the artificial neural network 701 may refer to a case in which there is a problem with the product type 702 and the stock amount 703 of the product.

일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 본 제1 학습 신호에 의해 인공 신경망(701)은 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. Based on this first learning signal, the artificial neural network 701 performs learning by modifying existing weights, and may use momentum in some cases. A cost function can be used to calculate the error, and a cross entropy function can be used as the cost function.

도 8은 일실시예에 따른 상품 출고 내역을 통해 상품의 반출량을 확인하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of confirming the amount of products taken out through product release details according to an embodiment.

도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 제1 상품의 반출량이 산출되어, 제1 상품의 반출량이 0보다 큰 것으로 확인되면, 기준 기간 동안 출고된 물류 센터의 상품 출고 내역을 획득할 수 있다. 여기서, 기준 기간은 제1 시점부터 제2 시점까지의 기간을 의미할 수 있고, 상품 출고 내역은 물류 센터에서 어느 시점에 어느 상품을 얼마나 많이 출고하였는지 나타내는 리스트로 구성될 수 있다.Referring to FIG. 8 , first, in step S801, the device 200 calculates the amount of the first product taken out, and when it is confirmed that the amount of the first product taken out is greater than 0, the product release details of the distribution center shipped during the reference period can be obtained. Here, the reference period may refer to a period from the first time point to the second time point, and the product release details may include a list indicating how many products were shipped from the distribution center at a time point.

예를 들어, 제1 시점이 13시이고, 제2 시점이 18시인 경우, 장치(200)는 13시부터 18시까지 출고된 물류 센터의 상품 출고 내역을 획득할 수 있다.For example, when the first time point is 13:00 and the second time point is 18:00, the device 200 may obtain product release details of the distribution center that were shipped from 13:00 to 18:00.

S802 단계에서, 장치(200)는 기준 기간 동안 출고된 물류 센터의 상품 출고 내역을 기초로, 기준 기간 동안 출고된 상품의 종류 및 출고량을 분석할 수 있다.In step S802 , the apparatus 200 may analyze the type and quantity of products shipped during the reference period based on the product release details of the distribution center shipped during the reference period.

예를 들어, 기준 기간이 13시부터 18시까지이고, 14시에 출고된 상품 출고 내역에는 제1 상품이 1개, 제2 상품이 2개 출고되어 있고, 15시에 출고된 상품 출고 내역에는 제2 상품이 1개, 제3 상품이 2개 출고되어 있는 경우, 장치(200)는 기준 기간 동안에 제1 상품이 1개, 제2 상품이 3개, 제3 상품이 2개 출고된 것으로, 출고된 상품의 종류 및 출고량을 분석할 수 있다.For example, if the base period is from 13:00 to 18:00, and in the product release details shipped at 14:00, one first product and two second products are shipped, and in the product release details shipped at 15:00 If one second product and two third products are shipped, the device 200 assumes that one first product, three second products, and two third products are shipped during the reference period, It is possible to analyze the type and quantity of released products.

S803 단계에서, 장치(200)는 기준 기간 동안 출고된 상품의 종류 및 출고량에 대한 분석 결과에서, 제1 상품의 출고량을 확인할 수 있다. 즉, 장치(200)는 기준 기간 동안 제1 상품이 출고된 것으로 확인되면, 기준 기간 동안 출고된 제1 상품의 출고량을 확인할 수 있다.In step S803, the device 200 may check the amount of the first product shipped from the analysis result of the type and amount of the product shipped during the reference period. That is, when it is confirmed that the first product is shipped during the reference period, the device 200 may check the amount of the first product shipped during the reference period.

S804 단계에서, 장치(200)는 제1 상품의 반출량과 제1 상품의 출고량이 일치하는지 여부를 확인할 수 있다.In step S804 , the device 200 may check whether the amount of the first product shipped out matches the amount of the first product shipped out.

S804 단계에서 제1 상품의 반출량과 제1 상품의 출고량이 일치하는 것으로 확인되면, S805 단계에서, 장치(200)는 제1 상품의 반출량에 문제가 없는 것으로 판단할 수 있다.If it is confirmed in step S804 that the amount of the first product shipped out coincides with the amount of the first product shipped out, in step S805, the device 200 may determine that there is no problem with the amount of the first product taken out.

S804 단계에서 제1 상품의 반출량과 제1 상품의 출고량이 일치하지 않는 것으로 확인되면, S806 단계에서, 장치(200)는 제1 상품의 반출량에 문제가 있는 것으로 판단할 수 있다.If it is confirmed in step S804 that the amount of the first product shipped out does not match the amount of the first product shipped out, in step S806, the device 200 may determine that there is a problem with the amount of the first product taken out.

S807 단계에서, 장치(200)는 제1 상품에 대한 반출량 확인 알림 메시지를 제1 사용자 단말로 전송할 수 있다. 여기서, 제1 상품에 대한 반출량 확인 알림 메시지는 제1 상품의 출고량과 반출량이 상이하여, 반출량에 대한 확인이 필요한 것을 알려주는 알림 메시지이다.In step S807, the device 200 may transmit a carry-out amount confirmation notification message for the first product to the first user terminal. Here, the shipment amount confirmation notification message for the first product is a notification message informing that confirmation of the shipment amount is necessary because the shipment amount and the shipment amount of the first product are different.

도 9는 일실시예에 따른 장치의 구성의 예시도이다.9 is an exemplary diagram of a configuration of a device according to an embodiment.

일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 8을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 8을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 8을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.Device 200 according to an embodiment includes a processor 210 and a memory 220 . The processor 210 may include at least one device described above with reference to FIGS. 1 to 8 or may perform at least one method described above with reference to FIGS. 1 to 8 . A person or organization using the device 200 may provide services related to some or all of the methods described above with reference to FIGS. 1 to 8 .

메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 220 may store information related to the methods described above or may store a program in which the methods described below are implemented. Memory 220 may be volatile memory or non-volatile memory.

프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 210 may execute a program and control the device 200 . Program codes executed by the processor 210 may be stored in the memory 220 . The device 200 may be connected to an external device (eg, a personal computer or network) through an input/output device (not shown) and exchange data through wired/wireless communication.

장치(200)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(220)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(200)와 학습된 인공 신경망을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.Apparatus 200 may be used to train an artificial neural network or to use a trained artificial neural network. The memory 220 may include a learning or learned artificial neural network. The processor 210 may learn or execute an artificial neural network algorithm stored in the memory 220 . The device 200 for learning the artificial neural network and the device 200 using the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (3)

장치에 의해 수행되는, 음성 인식 기반 물류 처리 방법에 있어서,
제1 헤드셋이 제1 사용자 단말과 연결되어 있는 상태에서 상기 제1 사용자 단말이 상기 장치와 연결되어 있는 경우, 물류 센터에 근무하는 사용자들 중 어느 하나가 상기 제1 헤드셋을 착용한 것으로 확인되면, 사용자 인식을 위한 음성 입력을 요청하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계;
상기 제1 헤드셋의 마이크를 통해 사용자 음성이 입력되면, 상기 제1 헤드셋으로부터 제1 음성 정보를 획득하는 단계;
상기 제1 음성 정보를 사용자 별로 학습된 기준 음성 정보와 비교한 결과, 상기 제1 음성 정보와 제1 사용자의 기준 음성 정보가 일치하는 것으로 확인되면, 상기 제1 헤드셋을 착용한 사용자를 상기 제1 사용자로 인식하는 단계;
상기 제1 사용자의 업무 내역을 통해 상기 제1 사용자에게 할당되어 있는 업무가 있는지 여부를 확인하는 단계; 및
상기 제1 사용자에게 제1 업무가 할당되어 있는 것으로 확인되면, 상기 제1 업무를 처리하기 위해 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계를 포함하고,
상기 제1 구역으로 이동하는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계는,
상기 제1 업무가 제1 상품을 제1 수량 옮기는 작업인 경우, 상기 제1 상품의 무게와 상기 제1 수량을 곱한 값으로, 제1 무게를 산출하는 단계;
제1 사용자 정보를 기초로, 상기 제1 사용자에게 허용된 최대 무게를 제2 무게로 확인하는 단계;
상기 제2 무게가 상기 제1 무게 보다 큰지 여부를 확인하는 단계;
상기 제2 무게가 상기 제1 무게 보다 큰 것으로 확인되면, 상기 제1 상품을 옮길 때 상기 제1 수량을 한 번에 옮기는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계; 및
상기 제2 무게가 상기 제1 무게 보다 작은 것으로 확인되면, 상기 제1 무게를 상기 제2 무게로 나눈 값에서 소수점을 올림한 값으로, 제1 횟수를 산출하고, 상기 제1 상품을 옮길 때 상기 제1 수량을 상기 제1 횟수에 나누어 옮기는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계를 포함하고,
상기 제1 사용자에게 허용된 최대 무게를 확인하는 단계는,
상기 제1 사용자의 신체에 착용된 웨어러블 기기로부터 상기 제1 사용자의 심박수를 측정하여 생성된 제1 측정 정보를 수신하는 단계;
상기 제1 측정 정보를 통해 확인된 제1 수치가 미리 설정된 정상 범위 내에 포함되어 있는지 여부를 확인하는 단계;
상기 제1 수치가 상기 정상 범위 내에 포함되어 있는 것으로 확인된 경우, 상기 제1 사용자에게 허용된 최대 무게를 상기 제2 무게로 설정하는 단계;
상기 제1 수치가 상기 정상 범위를 벗어나 미리 설정된 경고 범위 내에 포함되어 있는 것으로 확인된 경우, 상기 제1 사용자에게 허용된 최대 무게를 상기 제2 무게 보다 낮은 값으로 설정된 제3 무게로 설정하는 단계; 및
상기 제1 수치가 상기 경고 범위를 벗어나 미리 설정된 위험 범위 내에 포함되어 있는 것으로 확인되면, 업무를 중단하고 휴식을 취하는 것을 안내하는 알림 메시지가 상기 제1 헤드셋의 스피커를 통해 출력되도록 제어하는 단계를 포함하고,
제1 시점에 상기 제1 사용자가 소지한 상기 제1 사용자 단말의 카메라를 이용하여 상기 제1 구역에 보관되어 있는 상품에 대한 촬영이 수행되면, 상기 제1 시점에 상기 제1 구역에 보관되어 있는 상품을 촬영하여 생성된 제1 이미지를 획득하는 단계;
상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호를 기초로, 상기 제1 시점에 보관되어 있는 상품의 종류 및 재고량을 분석하는 단계;
상기 제1 시점으로부터 미리 설정된 기준 기간이 지난 후인 제2 시점에 상기 제1 사용자 단말의 카메라를 이용하여 상기 제1 구역에 보관되어 있는 상품에 대한 촬영이 수행되면, 상기 제2 시점에 상기 제1 구역에 보관되어 있는 상품을 촬영하여 생성된 제2 이미지를 획득하는 단계;
상기 제2 이미지를 인코딩 하여 제2 입력 신호를 생성하는 단계;
상기 제2 입력 신호를 상기 인공 신경망에 입력하고, 상기 인공 신경망의 입력에 대한 결과에 기초하여, 제2 출력 신호를 획득하는 단계;
상기 제2 출력 신호를 기초로, 상기 제2 시점에 보관되어 있는 상품의 종류 및 재고량을 분석하는 단계;
상기 제1 시점에 보관되어 있는 상품의 종류 및 재고량과 상기 제2 시점에 보관되어 있는 상품의 종류 및 재고량을 비교하여, 상기 제1 시점과 상기 제2 시점 간에 재고량 차이가 있는 상품이 있는지 여부를 확인하는 단계;
상기 제1 시점에 보관되어 있는 상기 제1 상품의 재고량이 제2 수량이고, 상기 제2 시점에 보관되어 있는 상기 제1 상품의 재고량이 제3 수량인 경우, 상기 제2 수량 및 상기 제3 수량이 상이한 것으로 확인되어, 상기 제1 시점과 상기 제2 시점 간에 상기 제1 상품의 재고량이 차이가 있는 것으로 확인되면, 상기 제2 수량에서 상기 제3 수량을 차감하여, 상기 제1 상품의 반출량을 산출하는 단계;
상기 제1 상품의 반출량이 0보다 큰 것으로 확인되면, 상기 기준 기간 동안 출고된 상기 물류 센터의 상품 출고 내역을 획득하는 단계;
상기 물류 센터의 상품 출고 내역을 기초로, 상기 기준 기간 동안 출고된 상품의 종류 및 출고량을 분석하는 단계;
상기 기준 기간 동안 상기 제1 상품이 출고된 것으로 확인되면, 상기 기준 기간 동안 출고된 상기 제1 상품의 출고량을 확인하는 단계; 및
상기 제1 상품의 반출량과 상기 제1 상품의 출고량이 일치하지 않는 것으로 확인되면, 상기 제1 상품의 반출량에 문제가 있는 것으로 판단하여, 상기 제1 상품에 대한 반출량 확인 알림 메시지를 상기 제1 사용자 단말로 전송하는 단계를 더 포함하는,
음성 인식 기반 물류 처리 방법.
In the voice recognition-based logistics processing method performed by the device,
When the first headset is connected to the first user terminal and the first user terminal is connected to the device, when it is confirmed that any one of the users working in the distribution center is wearing the first headset, controlling a notification message requesting a voice input for user recognition to be output through a speaker of the first headset;
obtaining first voice information from the first headset when a user's voice is input through the microphone of the first headset;
As a result of comparing the first voice information with reference voice information learned for each user, if it is confirmed that the first voice information and the reference voice information of the first user match, the user wearing the first headset is assigned to the first voice information. recognizing as a user;
checking whether there is a task assigned to the first user through task details of the first user; and
If it is confirmed that the first task is assigned to the first user, controlling a notification message to guide movement to a first area to handle the first task is output through a speaker of the first headset. include,
Controlling so that a notification message guiding movement to the first zone is output through the speaker of the first headset,
calculating a first weight by multiplying the weight of the first product by the first quantity when the first task is to move the first product in a first quantity;
determining a maximum weight allowed for the first user as a second weight based on first user information;
checking whether the second weight is greater than the first weight;
If it is confirmed that the second weight is greater than the first weight, controlling so that a notification message guiding moving the first quantity at a time when moving the first product is output through the speaker of the first headset. ; and
If it is confirmed that the second weight is smaller than the first weight, the first number is calculated as a value obtained by dividing the first weight by the second weight and the decimal point is rounded up, and when moving the first product, the Controlling a notification message for guiding the transfer by dividing the first quantity by the first number of times is output through a speaker of the first headset,
The step of checking the maximum weight allowed to the first user,
receiving first measurement information generated by measuring a heart rate of the first user from a wearable device worn on the body of the first user;
checking whether the first numerical value identified through the first measurement information is within a preset normal range;
setting a maximum weight allowed to the first user as the second weight when it is determined that the first value is within the normal range;
setting the maximum weight allowed to the first user as a third weight lower than the second weight when it is determined that the first value is outside the normal range and is included within a preset warning range; and
If it is confirmed that the first value is out of the warning range and is included within a preset risk range, controlling a notification message guiding to stop work and take a break to be output through a speaker of the first headset do,
When a photograph of a product stored in the first area is performed using a camera of the first user terminal possessed by the first user at a first point in time, the product stored in the first area at the first point in time obtaining a first image generated by photographing a product;
generating a first input signal by encoding the first image;
inputting the first input signal to an artificial neural network and obtaining a first output signal based on a result of the input of the artificial neural network;
Analyzing the type and stock amount of products stored at the first point in time based on the first output signal;
When photographing of products stored in the first zone is performed using the camera of the first user terminal at a second time point after a preset reference period has passed from the first time point, the first time point at the second time point. obtaining a second image generated by photographing products stored in the area;
generating a second input signal by encoding the second image;
inputting the second input signal to the artificial neural network and obtaining a second output signal based on a result of the input of the artificial neural network;
Analyzing the type and stock amount of products stored at the second point in time based on the second output signal;
By comparing the type and stock amount of the product stored at the first time point and the type and stock amount of the product stored at the second time point, whether there is a product having a difference in stock amount between the first time point and the second time point is determined. checking;
When the stock quantity of the first product stored at the first time point is a second quantity and the stock quantity of the first product stored at the second time point is a third quantity, the second quantity and the third quantity If it is confirmed that the difference is found, and if it is confirmed that there is a difference in the inventory amount of the first product between the first time point and the second time point, the third quantity is subtracted from the second quantity to determine the discharge amount of the first product. calculating;
acquiring product release details of the distribution center shipped during the reference period when it is determined that the amount of the first product shipped out is greater than 0;
Analyzing the type and amount of products released during the reference period based on product release details of the distribution center;
if it is confirmed that the first product has been shipped during the reference period, checking the amount of the first product shipped during the reference period; and
If it is confirmed that the amount of shipment of the first product does not match the amount of shipment of the first product, it is determined that there is a problem with the amount of shipment of the first product, and a notification message for confirming the amount of shipment of the first product is sent to the first user. Further comprising the step of transmitting to the terminal,
Voice recognition based logistics processing method.
삭제delete 제1항에 있어서,
상기 제1 사용자에게 할당되어 있는 업무가 없는 것으로 확인되면, 상기 제1 사용자의 성별, 나이 및 근무 기간에 기초하여, 상기 제1 사용자의 능력치를 산출하는 단계;
상기 제1 사용자의 업무 처리 내역에 기초하여, 미리 설정된 제1 기간 동안 상기 제1 사용자가 처리한 업무의 수인 제1 업무 수를 확인하고, 상기 제1 업무 수와 반비례하는 값을 기반으로, 제1 가중치를 설정하는 단계;
상기 제1 사용자의 능력치에 상기 제1 가중치를 적용하여, 상기 제1 사용자의 작업 가능 능력치를 산출하는 단계; 및
상기 제1 사용자의 작업 가능 능력치를 업무 별로 설정된 필요 능력치와 비교한 결과, 상기 제1 사용자의 작업 가능 능력치가 상기 제1 업무의 필요 능력치 보다 높은 것으로 확인되면, 상기 제1 사용자에게 상기 제1 업무를 할당하는 단계를 더 포함하는,
음성 인식 기반 물류 처리 방법.
According to claim 1,
calculating a capability level of the first user based on gender, age, and working period of the first user when it is confirmed that there is no task assigned to the first user;
Based on the work processing details of the first user, the first number of tasks, which is the number of tasks processed by the first user during a first preset period, is determined, and based on a value inversely proportional to the first number of tasks, 1 setting weights;
calculating a work capability level of the first user by applying the first weight to the capability level of the first user; and
As a result of comparing the work ability value of the first user with the required ability value set for each task, if it is confirmed that the work ability value of the first user is higher than the required ability value for the first task, the first user is notified of the first task. Further comprising the step of allocating
Voice recognition based logistics processing method.
KR1020220072588A 2022-06-15 2022-06-15 Method, device and system for handling logistics based on voice recognition KR102502387B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220072588A KR102502387B1 (en) 2022-06-15 2022-06-15 Method, device and system for handling logistics based on voice recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220072588A KR102502387B1 (en) 2022-06-15 2022-06-15 Method, device and system for handling logistics based on voice recognition

Publications (1)

Publication Number Publication Date
KR102502387B1 true KR102502387B1 (en) 2023-02-23

Family

ID=85329849

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220072588A KR102502387B1 (en) 2022-06-15 2022-06-15 Method, device and system for handling logistics based on voice recognition

Country Status (1)

Country Link
KR (1) KR102502387B1 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756997A (en) * 1993-06-30 1995-03-03 Hitachi Ltd Work allocating system
KR100884461B1 (en) 2007-02-22 2009-02-20 권혁숙 Wireless bar code and RFID scanner having voice communication function
KR20110071738A (en) 2009-12-21 2011-06-29 한국전자통신연구원 Apparatus for searching material-distribution having voice recognizing function and method thereof
KR20130010223A (en) 2011-07-18 2013-01-28 현대중공업 주식회사 Steel yard management system
WO2014002686A1 (en) * 2012-06-29 2014-01-03 トーヨーカネツソリューションズ株式会社 Support device and system for article picking work
WO2014038082A1 (en) * 2012-09-10 2014-03-13 富士機械製造株式会社 Manufacturing facility operator instruction system
JP2017072513A (en) * 2015-10-08 2017-04-13 株式会社奥村組 Transportation management method of radioactive waste
KR20180065840A (en) * 2016-12-07 2018-06-18 (주)씽크포비엘 Method and apparatus for automatically assigning appropriate personnel
KR101981475B1 (en) * 2018-01-25 2019-05-23 김현대 The apparatus and method of matching for allocation of cars with artificial intelligence module
KR20190134879A (en) * 2018-05-03 2019-12-05 손영욱 Method for cloud service based customized smart factory mes integrated service using ai and speech recognition
JP2020064267A (en) * 2018-10-19 2020-04-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 Voice recognition device, terminal, voice recognition method, and voice recognition program
KR20210047047A (en) 2019-10-21 2021-04-29 대우조선해양 주식회사 System and method for managing of material warehouse by using speech recognition, and computer readable storage medium storing the same

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756997A (en) * 1993-06-30 1995-03-03 Hitachi Ltd Work allocating system
KR100884461B1 (en) 2007-02-22 2009-02-20 권혁숙 Wireless bar code and RFID scanner having voice communication function
KR20110071738A (en) 2009-12-21 2011-06-29 한국전자통신연구원 Apparatus for searching material-distribution having voice recognizing function and method thereof
KR20130010223A (en) 2011-07-18 2013-01-28 현대중공업 주식회사 Steel yard management system
JP2014122075A (en) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk Supporting system for article picking operation
WO2014002686A1 (en) * 2012-06-29 2014-01-03 トーヨーカネツソリューションズ株式会社 Support device and system for article picking work
WO2014038082A1 (en) * 2012-09-10 2014-03-13 富士機械製造株式会社 Manufacturing facility operator instruction system
JP2017072513A (en) * 2015-10-08 2017-04-13 株式会社奥村組 Transportation management method of radioactive waste
KR20180065840A (en) * 2016-12-07 2018-06-18 (주)씽크포비엘 Method and apparatus for automatically assigning appropriate personnel
KR101981475B1 (en) * 2018-01-25 2019-05-23 김현대 The apparatus and method of matching for allocation of cars with artificial intelligence module
KR20190134879A (en) * 2018-05-03 2019-12-05 손영욱 Method for cloud service based customized smart factory mes integrated service using ai and speech recognition
JP2020064267A (en) * 2018-10-19 2020-04-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 Voice recognition device, terminal, voice recognition method, and voice recognition program
KR20210047047A (en) 2019-10-21 2021-04-29 대우조선해양 주식회사 System and method for managing of material warehouse by using speech recognition, and computer readable storage medium storing the same

Similar Documents

Publication Publication Date Title
WO2021014878A1 (en) Inference device, inference method, and inference program
KR20220137852A (en) Method and device to train and recognize data
KR20220112813A (en) Neural network model update method, and image processing method and device
WO2019099305A1 (en) Meta-learning for multi-task learning for neural networks
KR102281590B1 (en) System nad method of unsupervised training with weight sharing for the improvement in speech recognition and recording medium for performing the method
KR102548732B1 (en) Apparatus and Method for learning a neural network
CN112651511A (en) Model training method, data processing method and device
KR102553041B1 (en) Method, device and system for providing matching platform service between user and interior supplier based on artificial intelligence model
KR102206181B1 (en) Terminla and operating method thereof
KR102601446B1 (en) Method, device and system for providing sales product matching platform service based on influencer using artificial intelligence model
KR102447046B1 (en) Method, device and system for designing clinical trial protocol based on artificial intelligence
KR102502387B1 (en) Method, device and system for handling logistics based on voice recognition
KR102463875B1 (en) Method, device and system for providing personalized psychotherapy content using big data
KR102564996B1 (en) Method, device and system for providing user customized health functional food curation service based on artificial intelligence
KR102078765B1 (en) Method for determining a user motion detecting function and detecting a user motion using dimensionality reduction of a plularity of sensor data and device thereof
KR102426803B1 (en) Method, device and system for automatically uploading overseas sales page of product based on artificial intelligence
KR102508648B1 (en) Emergency monitoring method, device and system based on malfunction judgment of electric and firefighting equipment
KR102502922B1 (en) Method, device and system for alarming and monitoring of emergency situation
KR102530527B1 (en) Method, device and system for providing restaurant recommendation service based on health information
KR102447426B1 (en) Method, device and system for recommending lifestyle guide information analyzing personal color and timeline based behavioral data for hyper personalization
KR20210048271A (en) Apparatus and method for performing automatic audio focusing to multiple objects
KR102428941B1 (en) Method, device and system for generating textured 3d scan data through image registration based on scanning of broadband lidar
KR102676337B1 (en) Method, device and system for notificating of emergency situation and critical situation in parking lot based on closed circuit television image processing
KR102507141B1 (en) Method, device and system for providing purchasing platform service of it infrastructure equipment based on chat between seller and buyer
KR102500172B1 (en) Method, control device and system for synchronizing memory between device

Legal Events

Date Code Title Description
GRNT Written decision to grant