KR102538350B1 - Proof-of-work method and system for concurrently solving ai problems - Google Patents

Proof-of-work method and system for concurrently solving ai problems Download PDF

Info

Publication number
KR102538350B1
KR102538350B1 KR1020210187183A KR20210187183A KR102538350B1 KR 102538350 B1 KR102538350 B1 KR 102538350B1 KR 1020210187183 A KR1020210187183 A KR 1020210187183A KR 20210187183 A KR20210187183 A KR 20210187183A KR 102538350 B1 KR102538350 B1 KR 102538350B1
Authority
KR
South Korea
Prior art keywords
artificial intelligence
intelligence model
miner
parameter
proof
Prior art date
Application number
KR1020210187183A
Other languages
Korean (ko)
Inventor
박종서
채원부
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Priority to KR1020210187183A priority Critical patent/KR102538350B1/en
Application granted granted Critical
Publication of KR102538350B1 publication Critical patent/KR102538350B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • H04L67/1078Resource delivery mechanisms
    • H04L67/1082Resource delivery mechanisms involving incentive schemes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/04Payment circuits
    • G06Q20/06Private payment circuits, e.g. involving electronic currency used among participants of a common payment scheme
    • G06Q20/065Private payment circuits, e.g. involving electronic currency used among participants of a common payment scheme using e-cash
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3236Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/50Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 암호화폐의 채굴을 위한 작업 증명 방법 및 시스템에 관한 것이다. 본 발명은 복수의 마이너들에게 인공지능 모델과 관련된 정보를 전송하는 단계, 복수의 마이너들 중 적어도 하나로부터 상기 인공지능 모델에 대한 학습 정보를 수신하는 단계 및 상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너에게 보상을 수여하는 단계를 포함하고, 상기 인공지능 모델의 학습과 관련된 정보는 인공지능 모델에 대한 학습 후 산출된 파라미터를 포함하고, 상기 기 설정된 조건은 상기 파라미터를 상기 인공지능 모델에 적용하였을 때, 인공지능 모델의 정확도와 관련된 것임을 특징으로 하는 작업 증명 방법을 제공할 수 있다.The present invention relates to a proof-of-work method and system for mining cryptocurrency. The present invention includes the steps of transmitting information related to an artificial intelligence model to a plurality of miners, receiving learning information about the artificial intelligence model from at least one of the plurality of miners, and setting the learning information of the artificial intelligence model in advance. and awarding a reward to the at least one miner when a condition is satisfied, wherein information related to learning of the artificial intelligence model includes a parameter calculated after learning the artificial intelligence model, and the predetermined condition is When the parameter is applied to the artificial intelligence model, it is possible to provide a work proof method characterized in that it is related to the accuracy of the artificial intelligence model.

Figure R1020210187183
Figure R1020210187183

Description

인공지능 문제 해결을 병행하는 작업증명 방법 및 시스템{PROOF-OF-WORK METHOD AND SYSTEM FOR CONCURRENTLY SOLVING AI PROBLEMS}Proof-of-work method and system that solves artificial intelligence problems

본 발명은 암호화폐의 채굴을 위한 작업 증명 방법 및 시스템에 관한 것이다.The present invention relates to a proof-of-work method and system for mining cryptocurrency.

기존의 암호화폐 시스템은 작업증명 방식(Proof of Useful Work, PoUW)을 적용하여 컴퓨터로 일정한 계산을 달성하면 보상을 제공한다. 일정한 알고리즘에 따라 상술한 계산을 하는 행위를 채굴이라 하는데, 채굴 가능한 암호화폐의 개수는 유한하기 때문에 채굴이 이루어질수록 풀어야하는 계산이 어려워진다. 채굴에 소요되는 리소스(예를 들어, 컴퓨터 연산에 따른 전력)의 소모가 채굴의 난이도에 따라 상승한다. Existing cryptocurrency systems apply Proof of Useful Work (PoUW) to provide rewards when computers achieve certain calculations. The act of performing the above-mentioned calculation according to a certain algorithm is called mining. Since the number of cryptocurrencies that can be mined is finite, the more mining is done, the more difficult the calculation is. The consumption of resources (for example, power according to computer operation) required for mining increases according to the difficulty of mining.

한편, 암호화폐를 채굴하는 행위는 랜덤의 값을 찾아내는 행위이므로, 그 행위 자체가 생산성을 가지지는 않는다. 이 때문에, 암호화폐 채굴에 따른 전력 소모가 환경 파괴를 일으킨다는 문제가 제기되고 있다. On the other hand, since the act of mining cryptocurrency is an act of finding a random value, the act itself does not have productivity. For this reason, a problem has been raised that power consumption caused by cryptocurrency mining causes environmental destruction.

또한, 기존의 채굴 시스템은 채굴에 참여한 마이너들 중 계산을 완료한 단일 마이너에게만 보상을 한다. 이 때문에, 보상을 받지 못한 다른 마이너들이 채굴을 위해 소모한 전력은 무의미하게 소모된 전력이라는 문제가 제기되고 있다. In addition, the existing mining system rewards only a single miner who has completed the calculation among the miners who participated in mining. Because of this, a problem has been raised that the power consumed by other miners who did not receive compensation for mining is meaninglessly consumed power.

이에, 암호화폐 채굴에 소모되는 전력을 보다 의미있는 방향으로 활용할 수 있도록 하는 니즈가 존재한다.Accordingly, there is a need to utilize the power consumed in cryptocurrency mining in a more meaningful way.

본 발명은 채굴에 소모되는 전력을 유용하게 활용할 수 있도록 하는 새로운 채굴 시스템을 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a new mining system that enables useful use of power consumed in mining.

보다 구체적으로, 본 발명은 채굴에 소모되는 전력이 인공지능 모델의 학습에 투입되도록 함으로써, 채굴에 소모되는 전력을 유용하게 활용할 수 있도록 하는 새로운 채굴 시스템을 제공하는 것을 그 목적으로 한다.More specifically, an object of the present invention is to provide a new mining system that allows the power consumed in mining to be usefully utilized by allowing the power consumed in mining to be put into learning of an artificial intelligence model.

나아가, 본 발명은 단일 코인 채굴에 참여한 복수의 마이너들 각각에게 적절한 보상을 제공할 수 있도록 하는 새로운 채굴 시스템을 제공하는 것을 그 목적으로 한다.Furthermore, an object of the present invention is to provide a new mining system capable of providing appropriate compensation to each of a plurality of miners participating in single coin mining.

상술한 목적을 달성하기 위하여, 본 발명은 복수의 마이너들에게 인공지능 모델과 관련된 정보를 전송하는 단계, 복수의 마이너들 중 적어도 하나로부터 상기 인공지능 모델에 대한 학습 정보를 수신하는 단계 및 상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너에게 보상을 수여하는 단계를 포함하고, 상기 인공지능 모델의 학습과 관련된 정보는 인공지능 모델에 대한 학습 후 산출된 파라미터를 포함하고, 상기 기 설정된 조건은 상기 파라미터를 상기 인공지능 모델에 적용하였을 때, 인공지능 모델의 정확도와 관련된 것임을 특징으로 하는 작업 증명 방법을 제공할 수 있다.In order to achieve the above object, the present invention includes the steps of transmitting information related to an artificial intelligence model to a plurality of miners, receiving learning information about the artificial intelligence model from at least one of a plurality of miners, and the artificial intelligence model. and awarding a reward to the at least one miner when the learning information of the intelligence model satisfies a preset condition, wherein the information related to the learning of the artificial intelligence model includes a parameter calculated after learning the artificial intelligence model. Including, when the preset condition is applied to the artificial intelligence model, it is possible to provide a work proof method characterized in that related to the accuracy of the artificial intelligence model.

일 실시 예에 있어서, 상기 인공지능 모델의 구조 정보 및 상기 인공지능 모델의 훈련을 위한 학습 데이터를 포함할 수 있다.In one embodiment, it may include structural information of the artificial intelligence model and learning data for training of the artificial intelligence model.

일 실시 예에 있어서, 인공지능 모델에 대한 훈련은 소정 범위 내 파라미터를 인공지능 모델에 적용하고, 상기 학습 데이터에 기반하여 상기 인공지능 모델의 오차를 산출하는 단계를 포함하고, 상기 오차를 산출하는 단계는, 상기 인공지능 모델에 적용되는 파라미터를 상기 소정 범위 내에서 수정하면서 반복적으로 수행될 수 있다.In one embodiment, the training of the artificial intelligence model includes applying parameters within a predetermined range to the artificial intelligence model and calculating an error of the artificial intelligence model based on the training data, and calculating the error The step may be repeatedly performed while modifying parameters applied to the artificial intelligence model within the predetermined range.

일 실시 예에 있어서, 상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너 각각에 수여될 보상의 양을 산출하는 단계 및 상기 적어도 하나의 마이너에게 산출된 양의 보상을 수여하는 단계를 더 포함하고, 상기 보상의 양은 인공지능 모델의 훈련에 대한 상기 적어도 하나의 마이너 각각의 기여도에 기반하여 산출될 수 있다.In an embodiment, when the learning information of the artificial intelligence model satisfies a predetermined condition, calculating an amount of compensation to be awarded to each of the at least one miner and the calculated amount of compensation to the at least one miner The reward amount may be calculated based on the contribution of each of the at least one miner to the training of the artificial intelligence model.

일 실시 예에 있어서, 상기 복수의 마이너들 각각에게 상기 인공지능 모델에 적용될 수 있는 파라미터 범위 중 일부 범위를 분배하는 단계를 더 포함하고, 상기 복수의 마이너들 각각은 분배된 범위 내에서 상기 인공지능 모델에 대한 학습을 수행할 수 있다.In one embodiment, the method further comprises distributing a partial range among parameter ranges applicable to the artificial intelligence model to each of the plurality of miners, wherein each of the plurality of miners has the artificial intelligence within the distributed range. The model can be trained.

일 실시 예에 있어서, 상기 기여도는 상기 복수의 마이너들 각각에게 분배된 파라미터 범위의 크기에 기반하여 산출될 수 있다.In an embodiment, the contribution may be calculated based on the size of the parameter range distributed to each of the plurality of miners.

또한, 본 발명은 클라이언트 단말기 및 마이너 단말기를 포함하는 작업 증명 시스템을 제공한다. 구체적으로, 상기 클라이언트 단말기는 복수의 마이너 단말기에게 인공지능 모델과 관련된 정보를 전송하고, 상기 복수의 마이너 단말기 중 적어도 하나로부터 상기 인공지능 모델에 대한 학습 정보를 수신하고, 상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너에게 보상을 수여하고, 상기 인공지능 모델의 학습과 관련된 정보는 인공지능 모델에 대한 학습 후 산출된 파라미터를 포함하고, 상기 기 설정된 조건은 상기 파라미터를 상기 인공지능 모델에 적용하였을 때, 인공지능 모델의 정확도와 관련된 것임을 특징으로 하는 작업 증명 시스템을 제공할 수 있다.In addition, the present invention provides a work proof system including a client terminal and a miner terminal. Specifically, the client terminal transmits information related to an artificial intelligence model to a plurality of minor terminals, receives learning information about the artificial intelligence model from at least one of the plurality of minor terminals, and learns information about the artificial intelligence model. When a predetermined condition is satisfied, a reward is awarded to the at least one miner, information related to learning of the artificial intelligence model includes a parameter calculated after learning the artificial intelligence model, and the predetermined condition is When the parameter is applied to the artificial intelligence model, it is possible to provide a proof-of-work system characterized in that it is related to the accuracy of the artificial intelligence model.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명에 따르면, 인공지능 모델의 학습을 위한 연산을 완료한 경우 일정한 보상이 이루어진다. 이를 통해, 본 발명은 마이너들의 리소스가 랜덤의 값을 찾기 위해 투입되는 대신, 인공지능 모델의 학습에 투입되도록 한다. According to the present invention, when an operation for learning an artificial intelligence model is completed, a certain reward is made. Through this, the present invention allows miners' resources to be put into learning an artificial intelligence model instead of being put into finding a random value.

본 발명에 따르면, 인공지능 모델의 학습을 수행하고자하는 자는 자체적으로 리소스를 투입하지 않고, 마이너들에게 인공지능 모델의 학습을 위한 리소스 투입을 의뢰할 수 있다. 이를 통해, 인공지능 모델의 학습을 수행하고자하는 자는 학습에 투입되는 리소스를 저감시킬 수 있다.According to the present invention, a person who wants to learn an artificial intelligence model can request miners to invest resources for learning an artificial intelligence model without investing resources on their own. Through this, a person who wants to perform learning of an artificial intelligence model can reduce the resources invested in learning.

또한, 본 발명에 따르면, 복수의 마이너들 중 어느 하나의 마이너가 보상을 위한 연산을 달성하는 경우에도, 채굴에 참여한 다른 마이너들에게 적절한 보상이 이루어지기 때문에, 마이너들의 무의미한 전력 소모를 방지할 수 있다.In addition, according to the present invention, even when one of a plurality of miners achieves an operation for compensation, since appropriate compensation is made to other miners participating in mining, meaningless power consumption by miners can be prevented. there is.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1는 작업 증명 시스템을 나타내는 블록도이다.
도 2는 단말기를 나타내는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 작업 증명 방법을 나타내는 순서도이다.
도 4는 본 발명의 일 실시 예에 따른 작업 증명 방법을 나타내는 개념도이다.
도 5는 본 발명의 일 실시 예에 따른 인공지능 모델의 훈련 범위를 분배하는 모습을 나타내는 개념도이다.
1 is a block diagram illustrating a proof-of-work system.
2 is a block diagram illustrating a terminal.
3 is a flowchart illustrating a work proof method according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a work proof method according to an embodiment of the present invention.
5 is a conceptual diagram illustrating distribution of a training range of an artificial intelligence model according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

본 명세서에서, 인공지능 모델은 후술할 클라이언트에 의해 구축될 수 있으며, 클라이언트의 특성에 따라 인공지능 모델의 적용 분야가 달라질 수 있다. 예를 들어, 인공지능 모델은 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성, 객체 인식, 객체 추적, 영상 검색, 지식 관리, 로봇의 움직임을 제어하는 기술 등에 적용될 수 있으나, 이에 한정되지 않는다.In this specification, the artificial intelligence model may be built by a client to be described later, and the application field of the artificial intelligence model may vary according to the characteristics of the client. For example, artificial intelligence models can be applied to natural language processing, machine translation, dialog systems, question and answering, voice recognition/synthesis, object recognition, object tracking, image retrieval, knowledge management, and robot motion control technologies. Not limited.

본 명세서에서, 학습된 인공지능 모델은, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 인공지능 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드를 포함할 수 있다. 예를 들어, 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이 똔느 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 인공지능 모델에는 DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 등이 활용될 수 있으나 이에 한정되지 않는다.In this specification, the learned artificial intelligence model may be a model based on a neural network. The artificial intelligence model may be designed to simulate the structure of the human brain on a computer and may include a plurality of network nodes having weights that simulate neurons of a human neural network. For example, in a deep learning model, a plurality of network nodes may exchange data according to a convolution connection relationship while being located at different depths or layers. A deep neural network (DNN), a recurrent neural network (RNN), a bidirectional recurrent deep neural network (BRDNN), etc. may be used as an artificial intelligence model, but is not limited thereto.

본 명세서에서 인공지능 모델과 관련된 정보는 인공지능 모델의 구조, 인공지능 모델의 훈련을 위한 학습 데이터를 포함할 수 있다. 예를 들어, 인공지능 모델의 구조에 대한 정보는 다수의 입력 데이터를 받는 입력층(Input), 데이터의 출력을 담당하는 출력층(Output), 입력층과 출력층 사이에 존재하는 레이어들(은닉층)에 관한 정보를 포함할 수 있다. 구체적으로, 레이어들에 관한 정보는 레이어의 개수, 노드의 개수에 관한 정보를 포함할 수 있다. In this specification, the information related to the artificial intelligence model may include the structure of the artificial intelligence model and training data for training the artificial intelligence model. For example, information about the structure of an artificial intelligence model is provided in the input layer (Input) that receives a lot of input data, the output layer (Output) that is responsible for outputting data, and the layers (hidden layers) that exist between the input layer and the output layer. information may be included. Specifically, information about layers may include information about the number of layers and nodes.

한편, 학습 데이터는 입력층으로 입력되는 데이터(이하, 입력 데이터) 및 상기 입력 데이터에 대응되는 데이터(이하, 타켓 데이터)를 포함할 수 있다. 상기 입력 데이터와 타겟 데이터는 서로 매칭되도록 저장될 수 있다.Meanwhile, the learning data may include data input to the input layer (hereinafter, input data) and data corresponding to the input data (hereinafter, target data). The input data and target data may be stored to match each other.

본 명세서에서 인공지능 모델의 훈련은 상기 학습 데이터에 포함된 입력 데이터를 인공지능 모델에 입력한 후 인공지능 모델로부터 출력된 데이터와 상기 입력 데이터에 매칭된 타켓 데이터 간의 오차를 산출하고, 상기 오차가 최소화 되는 방향으로 인공지능 모델에 포함된 레이어 및 노드와 관련된 가중치를 변경해가는 과정을 의미한다. 인공지능 모델의 학습을 위해서는 상술한 훈련을 반복할 수 있는 복수의 학습 데이터가 필요하다. In the present specification, the training of the artificial intelligence model inputs the input data included in the training data into the artificial intelligence model, calculates an error between the data output from the artificial intelligence model and the target data matched to the input data, and the error is It means the process of changing the weights related to the layers and nodes included in the artificial intelligence model in a direction that is minimized. In order to learn the artificial intelligence model, a plurality of learning data capable of repeating the above-described training is required.

본 명세서에서 인공지능 모델에 대한 훈련 후 산출된 파라미터란 인공지능 모델에 포함된 레이어 및 노드와 관련된 가중치를 의미한다. In this specification, the parameters calculated after training the artificial intelligence model refer to weights related to layers and nodes included in the artificial intelligence model.

본 명세서에서 인공지능 모델의 정확도는 인공지능 모델로부터 출력된 데이터와 실제 값 간의 오차를 기반으로 산출되며, 상기 오차가 작을수록 상기 인공지능 모델의 정확도가 높다고 할 수 있다. 인공지능 모델의 훈련은 상기 정확도를 향상시키는 방향, 즉, 상기 오차를 최소화 하는 방향으로 수행된다.In this specification, the accuracy of the artificial intelligence model is calculated based on the error between the data output from the artificial intelligence model and the actual value, and the smaller the error, the higher the accuracy of the artificial intelligence model. Training of the artificial intelligence model is performed in a direction of improving the accuracy, that is, in a direction of minimizing the error.

본 명세서에서 채굴이란, 보상으로 코인을 얻기 위해 일정한 알고리즘에 따라 계산을 수행할 수 있도록 리소스(예를 들어, 전력 등)를 투입하는 행위를 의미한다. Mining in this specification means an act of investing resources (eg, power, etc.) to perform calculations according to a certain algorithm in order to obtain coins as a reward.

일 실시 예에 있어서, 채굴에 대한 보상은 마이너 단말기가 작업 증명(Proof of Work)을 수행함으로써 이루어질 수 있다. In an embodiment, compensation for mining may be made by the miner terminal performing Proof of Work.

채굴을 하고자 하는 주체는 리소스를 투입하여 소정 조건을 만족하는 값을 산출하고, 산출된 값을 통해 작업 증명을 수행함으로써, 보상을 받을 수 있다. A subject who wants to mine can receive a reward by injecting resources to calculate a value that satisfies a predetermined condition and performing proof-of-work through the calculated value.

본 명세서에서 마이너란 채굴을 하는 주체를 의미한다. 마이너는 반드시 개인으로 한정되지 않고, 단체, 법인을 포함할 수 있다. 마이너는 일정한 알고리즘에 따른 계산을 수행할 수 있는 연산이 가능한 전자 장비를 통해 채굴을 한다. 본 명세서에서는 마이너가 채굴을 위해 사용하는 전자 장비를 마이너 단말기라 칭하며, 이에 대한 구체적인 설명은 후술한다.In this specification, a miner means a subject that mines. Miners are not necessarily limited to individuals, but may include organizations and corporations. Miners mine through electronic equipment that can perform calculations according to a certain algorithm. In this specification, electronic equipment used by miners for mining is referred to as a miner terminal, and a detailed description thereof will be described later.

이하, 본 발명에 작업 증명 방법 및 시스템에 대하여 설명하기에 앞서 작업 증명 시스템을 구성하는 구성요소에 대하여 설명한다.Hereinafter, components constituting the proof-of-work system will be described prior to explaining the method and system for proof-of-work in the present invention.

도 1는 작업 증명 시스템을 나타내는 블록도이고, 도 2는 클라이언트 단말기 및 마이너 단말기의 구성 요소를 나타내는 블록도이다.1 is a block diagram showing a proof-of-work system, and FIG. 2 is a block diagram showing components of a client terminal and a minor terminal.

본 발명에 따른 작업 증명 시스템은 클라이언트 단말기(10) 및 마이너 단말기(20)를 포함할 수 있다.The work proof system according to the present invention may include a client terminal 10 and a miner terminal 20 .

클라이언트 단말기(10) 및 마이너 단말기(20)는 통신부(110), 제어부(120)를 포함하는 모든 장치일 수 있으며, 추가적으로, 클라이언트 단말기(10) 및 마이너 단말기(20)는 입력부(120) 및 표시부(130)를 포함할 수 있다. 예를 들어, 클라이언트 단말기(10) 및 마이너 단말기(20)는 데스트탑, 노트북, 태블릿 PC, 휴대폰 중 어느 하나일 수 있다. The client terminal 10 and the minor terminal 20 may be any device including a communication unit 110 and a control unit 120, and additionally, the client terminal 10 and the minor terminal 20 include an input unit 120 and a display unit. (130). For example, the client terminal 10 and the minor terminal 20 may be any one of a desktop, a laptop computer, a tablet PC, and a mobile phone.

통신부(110)는, 단말기 간 또는 단말기와 서버 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 통신부(110)는, 단말기를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 이러한 통신부(110)는, 유선 통신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 110 may include one or more modules enabling communication between terminals or between terminals and a server. Also, the communication unit 110 may include one or more modules that connect the terminal to one or more networks. The communication unit 110 may include at least one of a wired communication module, a mobile communication module, a wireless Internet module, a short-distance communication module, and a location information module.

입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰, 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera or video input unit for inputting a video signal, a microphone or audio input unit for inputting an audio signal, and a user input unit (eg, a touch key, a push key) for receiving information from a user. (mechanical key), etc.). Voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.

표시부(130)는 시각, 청각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 단말기와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 단말기와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The display unit 130 is for generating an output related to sight, hearing, and the like, and may include a display unit. A touch screen may be realized by forming a mutual layer structure with the touch sensor or integrally formed with the display unit. Such a touch screen may function as a user input unit providing an input interface between a terminal and a user, and may provide an output interface between a terminal and a user.

제어부(140)는 단말기에 설치된 응용 프로그램과 관련된 동작 외에도, 통상적으로 단말기의 전반적인 동작을 제어한다. 제어부(140)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리에 저장된 응용 프로그램을 구동함으로써, 본 발명에 따른 작업 증명 방법을 구현할 수 있다.The controller 140 controls general operations of the terminal in addition to operations related to applications installed in the terminal. The control unit 140 may implement the work proof method according to the present invention by processing signals, data, information, etc. input or output through the components described above or by driving an application program stored in a memory.

또한, 제어부(140)는 메모리에 저장된 응용 프로그램을 구동하기 위하여, 도 2에 기재된 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(140)는 상기 응용 프로그램의 구동을 위하여, 단말기에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 140 may control at least some of the components shown in FIG. 2 in order to drive an application program stored in a memory. Furthermore, the controller 140 may combine and operate at least two or more of the components included in the terminal to drive the application program.

이하, 상술한 구성요소를 활용한 작업 증명 방법에 대하여 구체적으로 설명한다.Hereinafter, a work proof method using the above-described components will be described in detail.

도 3은 본 발명에 따른 작업 증명 방법을 나타내는 순서도이고, 도 4는 본 발명에 따른 작업 증명 방법을 나타내는 개념도이고, 도 5는 본 발명에 따라 파라미터를 배분하는 일 실시 예를 나타내는 개념도이다. 3 is a flow chart showing a work proof method according to the present invention, FIG. 4 is a conceptual diagram showing a work proof method according to the present invention, and FIG. 5 is a conceptual diagram showing an embodiment of distributing parameters according to the present invention.

도 3을 참조하면, 복수의 마이너들에게 인공지능 모델과 관련된 정보를 전송하는 단계가 진행된다(S110). Referring to FIG. 3 , a step of transmitting information related to an artificial intelligence model to a plurality of miners proceeds (S110).

인공지능 모델과 관련된 정보는 기설정된 특성의 입력 데이터를 활용하여 원하는 값을 예측하는 모델을 의미하며, 인공지능 모델은 저장부에 저장될 수 있는 프로그램일 수 있다. Information related to the artificial intelligence model refers to a model that predicts a desired value by using input data of predetermined characteristics, and the artificial intelligence model may be a program that can be stored in a storage unit.

한편, 인공지능 모델과 관련된 정보는 인공지능 모델에 입력되는 입력 데이터의 특성, 인공지능 모델에 포함된 레이어 및 노드에 관한 정보, 인공지능 모델로부터 출력되는 데이터의 특성을 정의하는 정보를 포함할 수 있다. Meanwhile, the information related to the artificial intelligence model may include information defining characteristics of input data input to the artificial intelligence model, information about layers and nodes included in the artificial intelligence model, and characteristics of data output from the artificial intelligence model. there is.

예를 들어, 인공지능 모델은 습도 데이터를 이용하여 강수 여부를 예측하는 프로그램일 수 있다. 이 경우, 인공지능 모델과 관련된 정보는 습도 데이터를 입력받아 강수 여부를 출력하는 인공지능 프로그램을 포함할 수 있다. For example, the artificial intelligence model may be a program that predicts precipitation using humidity data. In this case, information related to the artificial intelligence model may include an artificial intelligence program that receives humidity data and outputs whether or not there is precipitation.

한편, 상기 복수의 마이너들에게 전송되는 인공지능 모델은 훈련이 되지 않은 모델일 수 있다. 인공지능 모델의 정확도를 높이기 위해서는 반복적인 훈련을 통한 학습이 이루어져야 한다.Meanwhile, the artificial intelligence model transmitted to the plurality of miners may be an untrained model. In order to increase the accuracy of an artificial intelligence model, learning through repetitive training is required.

본 명세서에서 인공지능 모델의 훈련이란 인공지능 모델의 정확도를 향상시키는 과정을 의미한다. 구체적으로, 인공지능 모델의 훈련은 컴퓨터가 데이터의 규칙을 찾고 정확도를 높이는 방향으로 수정하는 과정을 의미한다. 본 명세서에서 인공지능 모델의 훈련 과정에서 수정되는 것을 인공지능 모델의 파라미터라 한다. 인공지능 모델의 훈련 과정에서 파라미터는 계속해서 수정되며, 인공지능 모델의 정확도가 일정 수준 이상이 되었을 때 학습이 종료될 수 있다. 인공지능 모델의 정확도를 높이기 위해서는 반복적이 훈련, 즉, 연산이 필요하기 때문에, 인공지능 모델의 훈련에는 많은 연산자원이 투입되어야 한다. In this specification, training of an artificial intelligence model means a process of improving the accuracy of an artificial intelligence model. Specifically, the training of an artificial intelligence model refers to the process by which a computer finds rules in data and corrects them in a way that increases accuracy. In this specification, what is modified during training of an artificial intelligence model is referred to as a parameter of an artificial intelligence model. Parameters are continuously modified during the training process of the artificial intelligence model, and learning may end when the accuracy of the artificial intelligence model reaches a certain level or higher. Since repetitive training, that is, computation, is required to increase the accuracy of an AI model, a lot of operator resources must be invested in training an AI model.

도 4와 같이, 본 발명에 따른 작업 증명 방법은 클라이언트가 인공지능 모델의 훈련에 필요한 연산 자원을 마이너들로부터 공급받고, 마이너에게 보상을 제공할 수 있도록 한다. As shown in FIG. 4 , the proof-of-work method according to the present invention allows a client to receive computational resources necessary for training an artificial intelligence model from miners and provide rewards to the miners.

보다 구체적으로, 클라이언트는 복수의 마이너 중 적어도 하나로부터 훈련된 인공지능 모델의 파라미터를 수신하고, 이에 대한 보상을 제공한다. More specifically, the client receives a parameter of an artificial intelligence model trained from at least one of a plurality of miners and provides a reward for it.

여기서, 인공지능 모델의 파라미터는 가중치(weight) 및 절편(bias) 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되지 않고, 클라이언트가 마이너로부터 수신하는 정보는 훈련이 완료된 인공지능 모델을 정의할 수 있는 정보일 수 있다. Here, the parameter of the artificial intelligence model may include at least one of a weight and an intercept. However, it is not limited thereto, and the information received by the client from the miner may be information capable of defining a trained artificial intelligence model.

클라이언트는 채굴에 참여한 마이너에게 인공지능 모델의 훈련에 필요한 정보를 전송할 수 있다.The client can transmit information necessary for AI model training to miners who participated in mining.

이에 따라, 인공지능 모델과 관련된 정보는 인공지능 훈련에 필요한 모든 정보를 포함할 수 있다. 예를 들어, 인공지능 모델과 관련된 정보는 인공지능 모델의 구조, 인공지능 모델에 대응되는 수학식, 인공지능 모델의 훈련에 활용되는 학습 데이터 중 적어도 하나를 포함할 수 있다. Accordingly, information related to the artificial intelligence model may include all information necessary for artificial intelligence training. For example, the information related to the artificial intelligence model may include at least one of a structure of the artificial intelligence model, a mathematical expression corresponding to the artificial intelligence model, and learning data used for training the artificial intelligence model.

학습 데이터는 인공지능 모델 훈련시 입력되는 입력 데이터 및 상기 입력 데이터에 매칭되는 타겟 데이터를 포함할 수 있다. 여기서, 타겟 데이터는 인공지능 모델의 정확도를 판단하는데 활용되는 데이터를 의미한다. The training data may include input data input during training of the artificial intelligence model and target data matched to the input data. Here, the target data means data used to determine the accuracy of the artificial intelligence model.

복수의 마이너는 인공지능 모델의 파라미터를 특정한 후, 상기 입력 데이터를 입력하여 결과값을 산출하고, 상기 결과값과 타겟 데이터를 비교하여 오차를 산출한다. A plurality of miners specify parameters of an artificial intelligence model, input the input data to calculate a result value, and compare the result value with target data to calculate an error.

상기 산출된 오차가 클라이언트가 기 설정한 오차보다 작게 산출되는 경우, 마이너는 클라이언트로부터 보상을 수여할 수 있다. When the calculated error is smaller than the error set by the client, the miner may award a reward from the client.

구체적으로, 클라이언트는 정확도가 일정 수준 이상으로 확보된 인공지능 모델을 확보하기 위해 보상의 기준이 되는 오차를 설정할 수 있다. 클라이언트는 상기 인공지능 모델에 대응되는 오차(또는 오차율)을 설정하고, 특정 파라미터를 적용한 인공지능 모델의 오차가 기설정된 오차보다 작을 때, 상기 특정 파라미터가 적용된 인공지능 모델이 일정 수준 이상이 되었다고 판단할 수 있다. Specifically, the client may set an error that is a standard for compensation in order to secure an artificial intelligence model whose accuracy exceeds a certain level. The client sets an error (or error rate) corresponding to the artificial intelligence model, and when the error of the artificial intelligence model to which a specific parameter is applied is smaller than the preset error, the artificial intelligence model to which the specific parameter is applied is determined to be above a certain level can do.

클라이언트는 상기 기설정된 오차, 즉, 보상의 기준이 되는 오차를 마이너로 전송할 수 있다. 이에 따라, 상기 마이너로 전송되는 인공지능 모델과 관련된 정보는 상기 기설정된 오차를 포함할 수 있다.The client may transmit the preset error, that is, an error that is a standard for compensation to the miner. Accordingly, the information related to the artificial intelligence model transmitted to the miner may include the preset error.

마이너는 인공지능 모델이 상술한 보상의 기준이 되는 오차 이내의 결과값을 산출하도록, 인공지능 모델을 훈련시킨다.The miner trains the artificial intelligence model so that the artificial intelligence model calculates a result value within an error that is the standard for compensation described above.

한편, 클라이언트는 인공지능 모델에 적용가능한 파라미터 범위의 전체 또는 일부를 마이너로 전송할 수 있다. Meanwhile, the client may transmit all or part of the parameter range applicable to the artificial intelligence model to the miner.

마이너는 수신된 파라미터 범위 내에서 상기 파라미터를 수정하면서, 인공지능 훈련 작업을 수행할 수 있다.The miner may perform an artificial intelligence training task while modifying the parameter within the received parameter range.

한편, 인공지능 모델에 적용가능한 파라미터는 복수의 범위로 구분될 수 있다. 클라이언트는 상기 복수의 범위 각각을 복수의 마이너 각각에게 송신할 수 있다. Meanwhile, parameters applicable to the artificial intelligence model may be divided into a plurality of ranges. The client may transmit each of the plurality of ranges to each of the plurality of miners.

예를 들어, 도 5를 참조하면, 그래프의 x축은 적용가능한 파라미터 값이고, y축은 특정 파라미터에 따른 인공지능 모델의 오차를 수치화한 값이다. 클라이언트는 인공지능 모델에 적용가능한 파라미터값(x값)의 범위를 5개로 설정하고, 각각의 범위를 복수의 마이너에게 전송할 수 있다. 각 마이너는 수신된 파라미터 범위 내에서 인공지능 모델의 훈련을 수행할 수 있다.For example, referring to FIG. 5 , the x-axis of the graph is an applicable parameter value, and the y-axis is a numerical value of the error of the artificial intelligence model according to a specific parameter. The client can set the range of parameter values (x values) applicable to the artificial intelligence model to 5, and transmit each range to a plurality of miners. Each miner can perform AI model training within the received parameter range.

일 실시 예에 있어서, 클라이언트는 전체 파라미터 범위를 채굴에 참여한 마이너의 수만큼 분할하여 각 마이너에게 분배할 수 있다. 이 경우, 채굴에 참여한 복수의 마이너는 인공지능 모델에 적용가능한 파라미터 전체에 대한 오차를 서로 나누어 산출하게 된다.In one embodiment, the client may divide the entire parameter range by the number of miners participating in mining and distribute it to each miner. In this case, the plurality of miners participating in the mining divide the errors for all parameters applicable to the artificial intelligence model and calculate them.

다른 일 실시 예에 있어서, 전체 파라미터 범위를 기설정된 수만큼 분할한 후, 각 마이너에게 분배할 수 있다. 이 경우, 인공지능 모델에 적용가능한 전체 파라미터 범위 중 일부는 마이너에게 전송되지 않을 수 있다. 마이너에게 전송되지 않은 파라미터 범위는 이후 채굴에 참여하는 마이너에게 전송될 수 있다.In another embodiment, after dividing the entire parameter range by a predetermined number, it may be distributed to each miner. In this case, some of the entire parameter range applicable to the AI model may not be transmitted to the miner. Parameter ranges not transmitted to miners can be transmitted to miners participating in mining later.

다음으로, 복수의 마이너들 중 적어도 하나로부터 상기 인공지능 모델에 대한 학습 정보를 수신하는 단계가 수행된다(s120).Next, a step of receiving learning information about the artificial intelligence model from at least one of a plurality of miners is performed (s120).

복수의 마이너들 각각은 클라이언트로부터 수신한 파라미터 범위 내에서 파라미터 값을 변경하면서, 각 파라미터에 대응되는 오차를 산출할 수 있다. 보다 구체적으로, 복수의 마이너들 각각은 클라이언트로부터 수신한 파라미터 범위에 대응되는 복수의 파라미터 중 어느 하나를 인공지능 모델에 적용하고, 클라이언트로부터 수신한 입력 데이터 및 타겟 데이터에 기반하여 상기 어느 하나가 적용된 인공지능 모델의 오차를 산출한다. 이후, 마이너는 상기 수신한 파라미터 범위 내에서 기 설정된 파라미터를 다른 파라미터로 변경하고, 변경된 파라미터에 대응되는 오차를 산출한다.Each of the plurality of miners may calculate an error corresponding to each parameter while changing the parameter value within the parameter range received from the client. More specifically, each of the plurality of miners applies one of a plurality of parameters corresponding to the parameter range received from the client to the artificial intelligence model, and one of the parameters is applied based on the input data and target data received from the client. Calculate the error of the artificial intelligence model. Thereafter, the miner changes the preset parameter to another parameter within the received parameter range and calculates an error corresponding to the changed parameter.

이후, 마이너는 산출된 복수의 오차 및 상기 복수의 오차 각각에 매칭된 파라미터를 클라이언트로 전송할 수 있다. 즉, 상기 학습 정보는 상기 산출된 복수의 오차 및 상기 복수의 오차 각각에 매칭된 파라미터일 수 있다. Thereafter, the miner may transmit the calculated plurality of errors and parameters matched to each of the plurality of errors to the client. That is, the learning information may be the calculated plurality of errors and parameters matched to each of the plurality of errors.

다만, 이에 한정되지 않고, 상기 학습 정보는 기설정된 조건을 만족하는 파라미터 일 수 있다. 일 실시 예에 있어서, 상기 학습 정보는 클라이언트가 설정한 오차보다 작은 오차가 발생되는 파라미터값일 수 있다. 즉, 마이너는 상기 산출된 오차 중 상기 클라이언트가 설정한 기설정된 오차보다 작은 오차가 발생되는 파라미터가 존재하는 경우, 마이너는 해당 파라미터를 클라이언트로 전송할 수 있다.However, it is not limited thereto, and the learning information may be a parameter that satisfies a preset condition. In an embodiment, the learning information may be a parameter value at which an error smaller than an error set by a client occurs. That is, if there is a parameter that generates an error smaller than the preset error set by the client among the calculated errors, the miner may transmit the corresponding parameter to the client.

한편, 클라이언트는 상기 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너에게 보상을 수여한다(S130).Meanwhile, if the learning information of the artificial intelligence model satisfies a preset condition, the client awards a reward to the at least one miner (S130).

구체적으로, 클라이언트는 상기 학습 정보에 포함된 파라미터를 적용한 인공지능 모델의 오차가 기설정된 오차보다 작은 경우, 상기 학습 정보를 전송한 마이너에게 보상을 수여할 수 있다.Specifically, when the error of the artificial intelligence model to which the parameters included in the learning information is applied is less than a preset error, the client may award a reward to the miner who has transmitted the learning information.

클라이언트는 학습된 인공지능 모델에 적용된 파라미터 값을 전송한 마이너에게 보상을 수여할 수 있다. The client can award rewards to miners who transmit parameter values applied to the learned artificial intelligence model.

예를 들어, 인공지능 모델에 제1가중치(a), 제2가중치(b) 및 제1절편(c)가 적용되고, 적용 가능한 범위가 1≤a≤3, 4≤b≤6, 0≤c≤1일 때, 클라이언트는 파라미터를 1≤a1≤2, 2≤a1≤3, 4≤b1≤5, 5≤b2≤6, 0≤c1≤0.5, 0.5≤c2≤1로 분리하고, a1, b1, c1에 대응되는 범위를 제1마이너에게 전송하고, a2, b2, c2에 대응되는 범위를 제2마이너에게 전송할 수 있다.For example, the first weight (a), the second weight (b), and the first intercept (c) are applied to the AI model, and the applicable ranges are 1≤a≤3, 4≤b≤6, 0≤ When c≤1, the client separates the parameters into 1≤a1≤2, 2≤a1≤3, 4≤b1≤5, 5≤b2≤6, 0≤c1≤0.5, 0.5≤c2≤1, and a1 , b1, and c1 may be transmitted to the first minor, and the ranges corresponding to a2, b2, and c2 may be transmitted to the second minor.

제1마이너는 a1, b1, c1에 대응되는 범위에 근거하여, 인공지능에 적용될 파라미터를 설정하고, 상기 입력 데이터 및 타겟 데이터를 활용하여 상기 설정된 파라미터에 대응되는 오차값을 산출한다. 이후, 제1마이너는 a1, b1, c1에 대응되는 범위에 포함되는 다른 파라미터를 설정하고, 상기 입력 데이터 및 타겟 데이터를 활용하여 상기 설정된 파라미터에 대응되는 오차값을 산출한다. 이에 따라, 제1마이너는 a1, b1, c1에 대응되는 범위에 속하는 복수의 파라미터 각각에 대응되는 오차값을 산출하게 된다. 상기 산출된 복수의 오차값 중 클라이언트가 설정한 범위 이내의 오차값이 존재하는 경우, 해당 오차값에 대응되는 파라미터가 작업 증명을 위한 파라미터가 된다. 제1마이너는 상기 작업 증명을 위한 파라미터를 클라이언트에 전송하여 보상을 수여할 수 있다.The first miner sets parameters to be applied to artificial intelligence based on the ranges corresponding to a1, b1, and c1, and calculates an error value corresponding to the set parameters using the input data and target data. Thereafter, the first miner sets other parameters included in the ranges corresponding to a1, b1, and c1, and calculates an error value corresponding to the set parameters using the input data and target data. Accordingly, the first miner calculates an error value corresponding to each of a plurality of parameters belonging to the ranges corresponding to a1, b1, and c1. If there is an error value within a range set by the client among the calculated plurality of error values, a parameter corresponding to the error value becomes a parameter for work verification. The first miner may award the reward by transmitting the parameters for the proof of work to the client.

제2마이너는 a2, b2, c2에 대응되는 범위에 근거하여, 인공지능에 적용될 파라미터를 설정하고, 상기 입력 데이터 및 타겟 데이터를 활용하여 상기 설정된 파라미터에 대응되는 오차값을 산출한다. 이후, 제2마이너는 a2, b2, c2에 대응되는 범위에 포함되는 다른 파라미터를 설정하고, 상기 입력 데이터 및 타겟 데이터를 활용하여 상기 설정된 파라미터에 대응되는 오차값을 산출한다. 이에 따라, 제2마이너는 a2, b2, c2에 대응되는 범위에 속하는 복수의 파라미터 각각에 대응되는 오차값을 산출하게 된다. 상기 산출된 복수의 오차값 중 클라이언트가 설정한 범위 이내의 오차값이 존재하는 경우, 해당 오차값에 대응되는 파라미터가 작업 증명을 위한 파라미터가 된다. 제2마이너는 상기 작업 증명을 위한 파라미터를 클라이언트에 전송하여 보상을 수여할 수 있다.The second miner sets parameters to be applied to artificial intelligence based on the ranges corresponding to a2, b2, and c2, and calculates an error value corresponding to the set parameters using the input data and target data. Thereafter, the second minor sets other parameters included in the ranges corresponding to a2, b2, and c2, and calculates an error value corresponding to the set parameters using the input data and target data. Accordingly, the second minor calculates an error value corresponding to each of a plurality of parameters belonging to the range corresponding to a2, b2, and c2. If there is an error value within a range set by the client among the calculated plurality of error values, a parameter corresponding to the error value becomes a parameter for work verification. The second miner may award a reward by transmitting the parameters for the proof of work to the client.

한편, 상기 제1 및 제2마이너 각각이 수신한 범위 중 적어도 하나에서는 클라이언트가 설정한 범위 내의 오차값을 가지는 파라미터가 존재하지 않을 수 있다. 이 경우, 제1 및 제2마이너는 클라이언트에 다른 파라미터 범위를 요청하여, 상술한 작업을 반복할 수 있다. Meanwhile, in at least one of the ranges received by each of the first and second minors, a parameter having an error value within the range set by the client may not exist. In this case, the first and second miners may request a different parameter range from the client and repeat the above-described operation.

한편, 상기 제1 및 제2마이너 각각이 수신한 범위 각각에서 클라이언트가 설정한 범위 내의 오차값을 가지는 파라미터가 존재할 수 있다. 이 경우, 제1 및 제2마이너 각각은 기 설정된 보상 기준에 근거하여 보상을 받게 된다. Meanwhile, a parameter having an error value within a range set by the client may exist in each of the ranges received by the first and second miners. In this case, each of the first and second miners is rewarded based on a predetermined reward standard.

클라이언트는 상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너 각각에 수여될 보상의 양을 산출하고, 산출된 양에 대응되는 보상을 상기 적어도 하나의 마이너에게 수여할 수 있다.When the learning information of the artificial intelligence model satisfies a preset condition, the client calculates an amount of reward to be awarded to each of the at least one miner, and awards a reward corresponding to the calculated amount to the at least one miner. can

상기 보상의 양은 인공지능 모델의 훈련에 대한 상기 적어도 하나의 마이너 각각의 기여도에 기반하여 산출될 수 있다. The amount of compensation may be calculated based on the contribution of each of the at least one miner to the training of the artificial intelligence model.

일 실시 예에 있어서, 상기 보상은 상기 기설정된 조건을 만족하는 파라미터를 가장 먼저 전송한 마이너에게만 수여될 수 있다.In one embodiment, the reward may be awarded only to a miner who first transmits a parameter that satisfies the preset condition.

다른 일 실시 예에 있어서, 상기 보상은 복수의 마이너에게 분할하여 수여될 수 있다. 구체적으로, 클라이언트는 인공지능 훈련에 투입된 연산 자원의 전체 양 대비 특정 마이너가 투입한 자원의 양을 기준으로, 상기 특정 마이너에게 수여할 보상의 양을 결정할 수 있다.In another embodiment, the reward may be divided and awarded to a plurality of miners. Specifically, the client may determine the amount of reward to be awarded to a specific miner based on the amount of resources invested by a specific miner compared to the total amount of computing resources invested in artificial intelligence training.

구체적으로, 상기 보상의 양은 각 마이너가 인공지능 모델 훈련에 기여한 기여도를 기준으로 결정될 수 있다. 상기 기여도는 상기 복수의 마이너들 각각에게 분배된 파라미터 범위의 크기에 기반하여 산출될 수 있다.Specifically, the amount of the reward may be determined based on the contribution each miner has contributed to AI model training. The contribution may be calculated based on the size of the parameter range distributed to each of the plurality of miners.

예를 들어, 클라이언트가 인공지능에 적용가능한 파라미터 범위를 5개로 설정한 후 5개의 마이너로 분배한 한 경우를 가정할 수 있다. 5개의 마이너가 각 파라미터 범위에 대한 인공지능 모델 훈련을 완료한 상태에서 인공지능 모델의 훈련이 종료되었을 때, 각 마이너에게는 전체 보상의 양을 기준으로 20%의 보상이 수여될 수 있다.For example, it can be assumed that the client sets the parameter range applicable to artificial intelligence to 5 and then distributes it to 5 miners. When the training of the AI model is finished with 5 miners completing AI model training for each parameter range, 20% of the total reward amount can be awarded to each miner.

여기서, 기설정된 조건을 만족하는 파라미터를 포함하는 파라미터 범위 내에서 인공지능 훈련을 수행한 마이너 이외의 다른 마이너들은 기설정된 방법에 따라 작업 증명을 수행하는 것을 의무화 할 수 있다.Here, miners other than the miners who have performed artificial intelligence training within a parameter range including parameters that satisfy preset conditions may be obliged to perform proof-of-work according to a preset method.

일 실시 예에 있어서, 특정 마이너가 기설정된 조건을 만족하는 파라미터를 클라이언트로 송부하였을 때, 클라이언트는 인공지능 모델의 훈련이 완료되었음을 각 마이너로 통지할 수 있다. 이때, 각 마이너는 현재까지 훈련에 사용된 파라미터 및 각 파라미터에 대응되는 오차를 클라이언트로 전송할 수 있다. 클라이언트는 각 마이너로부터 수신된 파라미터 중 적어도 일부에 대한 검증을 통해 각 마이너의 작업 증명에 대한 인정 여부를 결정할 수 있다.In one embodiment, when a specific miner sends a parameter that satisfies a predetermined condition to the client, the client may notify each miner that training of the artificial intelligence model is completed. At this time, each miner may transmit parameters used for training up to now and an error corresponding to each parameter to the client. The client may determine whether to acknowledge each miner's proof of work by verifying at least some of the parameters received from each miner.

예를 들어, 클라이언트는 특정 마이너로부터 수신된 파라미터 중 임의의 파라미터를 인공지능 모델에 적용하고, 인공지능 모델 훈련에 활용된 입력 데이터를 인공지능 모델에 입력하여, 마이너가 산출한 오차와 동일한 오차가 산출되는 지 판단할 수 있다. 이를 통해, 클라이언트는 특정 마이너의 작업 증명의 진위여부를 판단할 수 있다. For example, a client applies an arbitrary parameter among the parameters received from a specific miner to an artificial intelligence model, and inputs the input data used for training the artificial intelligence model to the artificial intelligence model, so that the same error as that calculated by the miner is obtained. It can be judged whether it is produced. Through this, the client can determine the authenticity of the proof of work of a specific miner.

다만, 마이너의 작업 증명에 대한 진위 판단 방법은 이제 한정되지 않는다. However, the method for determining the authenticity of the miner's proof of work is not limited anymore.

클라이언트는 작업 증명이 완료된 파라미터의 양을 기준으로 각 마이너에 대한 보상의 양을 결정할 수 있다. The client can determine the amount of reward for each miner based on the amount of parameters for which proof-of-work has been completed.

상술한 바와 같이, 본 발명에 따르면, 인공지능 모델의 학습을 위한 연산을 완료한 경우 일정한 보상이 이루어진다. 이를 통해, 본 발명은 마이너들의 리소스가 랜덤의 값을 찾기 위해 투입되는 대신, 인공지능 모델의 학습에 투입되도록 한다. As described above, according to the present invention, a certain compensation is made when the calculation for learning the artificial intelligence model is completed. Through this, the present invention allows miners' resources to be put into learning an artificial intelligence model instead of being put into finding a random value.

본 발명에 따르면, 인공지능 모델의 학습을 수행하고자하는 자는 자체적으로 리소스를 투입하지 않고, 마이너들에게 인공지능 모델의 학습을 위한 리소스 투입을 의뢰할 수 있다. 이를 통해, 인공지능 모델의 학습을 수행하고자하는 자는 학습에 투입되는 리소스를 저감시킬 수 있다.According to the present invention, a person who wants to learn an artificial intelligence model can request miners to invest resources for learning an artificial intelligence model without investing resources on their own. Through this, a person who wants to perform learning of an artificial intelligence model can reduce the resources invested in learning.

또한, 본 발명에 따르면, 복수의 마이너들 중 어느 하나의 마이너가 보상을 위한 연산을 달성하는 경우에도, 채굴에 참여한 다른 마이너들에게 적절한 보상이 이루어지기 때문에, 마이너들의 무의미한 전력 소모를 방지할 수 있다.In addition, according to the present invention, even when one of a plurality of miners achieves an operation for compensation, since appropriate compensation is made to other miners participating in mining, meaningless power consumption by miners can be prevented. there is.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (10)

복수의 마이너들에게 인공지능 모델과 관련된 정보를 전송하는 단계;
복수의 마이너들 중 적어도 하나로부터 상기 인공지능 모델에 대한 학습 정보를 수신하는 단계; 및
상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너에게 보상을 수여하는 단계를 포함하고,
상기 기 설정된 조건은 파라미터를 상기 인공지능 모델에 적용하였을 때, 상기 인공지능 모델의 정확도와 관련된 것이고,
상기 인공지능 모델과 관련된 정보를 전송하는 단계는,
상기 복수의 마이너들 중, 상기 인공지능 모델과 관련된 제 1 정보를 전송한 제 1 마이너로부터, 상기 제 1 정보에 포함된 제 1 파라미터 범위와 다른 파라미터 범위에 대한 요청을 수신하는 단계; 및
상기 수신된 요청에 대응하여 상기 제 1 파라미터 범위와 다른 제 2 파라미터 범위가 포함된 상기 인공지능 모델과 관련된 제 2 정보를 상기 제 1 마이너에게 전송하는 단계;를 포함하며,
상기 다른 파라미터 범위에 대한 요청은, 상기 제 1 파라미터 범위에서, 상기 인공지능 모델에 대해 미리 설정된 범위 내의 오차 값을 가지는, 파라미터의 추출에 실패하여 생성된 것이고,
상기 학습 정보는, 상기 인공지능 모델에 적용되는 복수의 파라미터 및 상기 복수의 파라미터 각각과 관련된 오차를 포함하며,
상기 보상을 수여하는 단계는,
각 마이너로부터 수신된 복수의 파라미터 중 어느 하나를 상기 인공지능 모델에 적용하여, 상기 어느 하나의 파라미터가 적용된 인공지능 모델로부터 상기 어느 하나의 파라미터와 관련된 오차가 산출되는지를 판단하는 단계;
상기 판단 결과에 근거하여 상기 각 마이너의 작업 증명에 대한 진위 여부를 판단하는 단계; 및
상기 진위 여부에 대한 판단 결과에 근거하여 상기 작업 증명이 완료된 마이너에게 상기 보상을 수여하는 단계;를 포함하는 것임을 특징으로 하는 작업 증명 방법.
Transmitting information related to the artificial intelligence model to a plurality of miners;
receiving learning information about the artificial intelligence model from at least one of a plurality of miners; and
Conferring a reward to the at least one miner when the learning information of the artificial intelligence model satisfies a preset condition;
The predetermined condition is related to the accuracy of the artificial intelligence model when parameters are applied to the artificial intelligence model,
Transmitting information related to the artificial intelligence model,
Receiving a request for a parameter range different from a first parameter range included in the first information from a first miner having transmitted first information related to the artificial intelligence model among the plurality of miners; and
In response to the received request, transmitting second information related to the artificial intelligence model including a second parameter range different from the first parameter range to the first miner,
The request for the other parameter range is generated by failing to extract a parameter having an error value within a preset range for the artificial intelligence model in the first parameter range,
The learning information includes a plurality of parameters applied to the artificial intelligence model and an error associated with each of the plurality of parameters,
The step of awarding the reward,
determining whether an error related to any one parameter is calculated from the artificial intelligence model to which any one parameter is applied by applying any one of a plurality of parameters received from each miner to the artificial intelligence model;
determining whether the proof of work of each miner is authentic based on the determination result; and
and awarding the reward to a miner whose proof of work has been completed based on a result of determining whether the work is authentic or not.
제1항에 있어서,
상기 인공지능 모델과 관련된 정보는,
상기 인공지능 모델의 구조 정보 및 상기 인공지능 모델의 훈련을 위한 학습 데이터를 포함하는 것을 특징으로 하는 작업 증명 방법.
According to claim 1,
Information related to the artificial intelligence model,
The proof-of-work method comprising structural information of the artificial intelligence model and learning data for training the artificial intelligence model.
제2항에 있어서,
인공지능 모델에 대한 훈련은,
소정 범위 내 파라미터를 인공지능 모델에 적용하고, 상기 학습 데이터에 기반하여 상기 인공지능 모델의 오차를 산출하는 단계를 포함하고,
상기 오차를 산출하는 단계는, 상기 인공지능 모델에 적용되는 파라미터를 상기 소정 범위 내에서 수정하면서 반복적으로 수행되는 것을 특징으로 하는 작업 증명 방법.
According to claim 2,
Training for artificial intelligence models,
Applying a parameter within a predetermined range to an artificial intelligence model and calculating an error of the artificial intelligence model based on the learning data,
The step of calculating the error is performed repeatedly while correcting parameters applied to the artificial intelligence model within the predetermined range.
제3항에 있어서,
상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너 각각에 수여될 보상의 양을 산출하는 단계; 및
상기 적어도 하나의 마이너에게 산출된 양의 보상을 수여하는 단계를 더 포함하고,
상기 보상의 양은 인공지능 모델의 훈련에 대한 상기 적어도 하나의 마이너 각각의 기여도에 기반하여 산출되는 것을 특징으로 하는 작업 증명 방법.
According to claim 3,
calculating an amount of compensation to be awarded to each of the at least one miner when the learning information of the artificial intelligence model satisfies a preset condition; and
Further comprising awarding the calculated amount of compensation to the at least one miner,
The amount of reward is calculated based on the contribution of each of the at least one miner to the training of the artificial intelligence model.
제4항에 있어서,
상기 복수의 마이너들 각각에게 상기 인공지능 모델에 적용될 수 있는 파라미터 범위 중 일부 범위를 분배하는 단계를 더 포함하고,
상기 복수의 마이너들 각각은 분배된 범위 내에서 상기 인공지능 모델에 대한 학습을 수행하는 것을 특징으로 하는 작업 증명 방법.
According to claim 4,
Distributing a partial range of parameter ranges applicable to the artificial intelligence model to each of the plurality of miners;
Wherein each of the plurality of miners performs learning on the artificial intelligence model within a distributed range.
제5항에 있어서,
상기 기여도는 상기 복수의 마이너들 각각에게 분배된 파라미터 범위의 크기에 기반하여 산출되는 것을 특징으로 하는 작업 증명 방법.
According to claim 5,
The method of proof-of-work characterized in that the contribution is calculated based on the size of the parameter range distributed to each of the plurality of miners.
클라이언트 단말기 및 마이너 단말기를 포함하는 작업 증명 시스템에 있어서,
상기 클라이언트 단말기는,
복수의 마이너 단말기에게 인공지능 모델과 관련된 정보를 전송하고,
상기 복수의 마이너 단말기 중 적어도 하나로부터 상기 인공지능 모델에 대한 학습 정보를 수신하고,
상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너에게 보상을 수여하고,
상기 기 설정된 조건은 파라미터를 상기 인공지능 모델에 적용하였을 때, 인공지능 모델의 정확도와 관련된 것이고,
상기 클라이언트 단말기는,
상기 복수의 마이너들 중, 상기 인공지능 모델과 관련된 제 1 정보를 전송한 제 1 마이너로부터, 상기 제 1 정보에 포함된 제 1 파라미터 범위와 다른 파라미터 범위에 대한 요청을 수신하면, 상기 수신된 요청에 대응하여 상기 제 1 파라미터 범위와 다른 제 2 파라미터 범위가 포함된 상기 인공지능 모델과 관련된 제 2 정보를 상기 제 1 마이너에게 전송하되,
상기 다른 파라미터 범위에 대한 요청은, 상기 제 1 파라미터 범위에서, 상기 인공지능 모델에 대해 미리 설정된 범위 내의 오차 값을 가지는, 상기 파라미터의 추출에 실패하여 생성된 것이며,
상기 학습 정보는, 상기 인공지능 모델에 적용되는 복수의 파라미터 및 상기 복수의 파라미터 각각과 관련된 오차를 포함하고,
상기 클라이언트 단말기는,
각 마이너로부터 수신된 상기 복수의 파라미터 중 어느 하나를 상기 인공지능 모델에 적용하여, 상기 어느 하나의 파라미터가 적용된 인공지능 모델로부터 상기 어느 하나의 파라미터와 관련된 오차가 산출되는지를 판단하고, 상기 판단 결과에 근거하여 상기 각 마이너의 작업 증명에 대한 진위 여부를 판단하며, 상기 진위 여부에 대한 판단 결과에 근거하여 상기 작업 증명이 완료된 마이너에게 상기 보상을 수여하는 것임을 특징으로 하는 작업 증명 시스템.
In a proof-of-work system including a client terminal and a miner terminal,
The client terminal,
Transmits information related to the artificial intelligence model to a plurality of minor terminals,
Receiving learning information for the artificial intelligence model from at least one of the plurality of minor terminals;
When the learning information of the artificial intelligence model satisfies a preset condition, awarding a reward to the at least one miner;
The predetermined condition is related to the accuracy of the artificial intelligence model when parameters are applied to the artificial intelligence model,
The client terminal,
When a request for a parameter range different from the first parameter range included in the first information is received from the first miner, which has transmitted the first information related to the artificial intelligence model, among the plurality of miners, the received request Correspondingly, second information related to the artificial intelligence model including a second parameter range different from the first parameter range is transmitted to the first miner,
The request for the other parameter range is generated by failing to extract the parameter having an error value within a preset range for the artificial intelligence model in the first parameter range,
The learning information includes a plurality of parameters applied to the artificial intelligence model and an error associated with each of the plurality of parameters,
The client terminal,
Any one of the plurality of parameters received from each miner is applied to the artificial intelligence model to determine whether an error related to any one parameter is calculated from the artificial intelligence model to which any one parameter is applied, and the determination result The proof-of-work system is characterized in that the authenticity of the proof-of-work of each miner is determined based on, and the reward is awarded to the miner whose proof-of-work is completed based on the result of the determination of authenticity.
제7항에 있어서,
상기 인공지능 모델과 관련된 정보는,
상기 인공지능 모델의 구조 정보 및 상기 인공지능 모델의 훈련을 위한 학습 데이터를 포함하는 것을 특징으로 하는 작업 증명 시스템.
According to claim 7,
Information related to the artificial intelligence model,
The proof-of-work system comprising structural information of the artificial intelligence model and learning data for training the artificial intelligence model.
제8항에 있어서,
상기 마이너 단말기는,
소정 범위 내 파라미터를 인공지능 모델에 적용하고, 상기 학습 데이터에 기반하여 상기 인공지능 모델의 오차를 산출하고,
상기 오차의 산출은 상기 인공지능 모델에 적용되는 파라미터를 상기 소정 범위 내에서 수정하면서 반복적으로 수행되는 것을 특징으로 하는 작업 증명 시스템.
According to claim 8,
The minor terminal,
Apply parameters within a predetermined range to an artificial intelligence model, calculate an error of the artificial intelligence model based on the learning data,
The calculation of the error is performed repeatedly while correcting parameters applied to the artificial intelligence model within the predetermined range.
제9항에 있어서,
상기 클라이언트 단말기는,
상기 인공지능 모델의 학습 정보가 기 설정된 조건을 만족하는 경우, 상기 적어도 하나의 마이너 각각에 수여될 보상의 양을 산출하고,
상기 적어도 하나의 마이너에게 산출된 양의 보상을 수여하고,
상기 보상의 양은 인공지능 모델의 학습에 대한 상기 적어도 하나의 마이너 각각의 기여도에 기반하여 산출되는 것을 특징으로 하는 작업 증명 시스템.
According to claim 9,
The client terminal,
Calculating an amount of compensation to be awarded to each of the at least one miner when the learning information of the artificial intelligence model satisfies a preset condition;
Awarding the calculated amount of compensation to the at least one miner;
The proof-of-work system, characterized in that the amount of compensation is calculated based on the contribution of each of the at least one miner to the learning of the artificial intelligence model.
KR1020210187183A 2021-12-24 2021-12-24 Proof-of-work method and system for concurrently solving ai problems KR102538350B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210187183A KR102538350B1 (en) 2021-12-24 2021-12-24 Proof-of-work method and system for concurrently solving ai problems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210187183A KR102538350B1 (en) 2021-12-24 2021-12-24 Proof-of-work method and system for concurrently solving ai problems

Publications (1)

Publication Number Publication Date
KR102538350B1 true KR102538350B1 (en) 2023-05-30

Family

ID=86529524

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210187183A KR102538350B1 (en) 2021-12-24 2021-12-24 Proof-of-work method and system for concurrently solving ai problems

Country Status (1)

Country Link
KR (1) KR102538350B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190070163A (en) * 2017-12-12 2019-06-20 엔에이치엔 주식회사 Resources operating method of each of nodes communicating one another and computer device operating as one of nodes
KR20190134983A (en) * 2018-05-18 2019-12-05 박병훈 Method for providing big data-based artificial intelligence integration platform service
KR20200034171A (en) * 2018-09-21 2020-03-31 주식회사 머니브레인 Distributed computing resources sharing system and computing apparatus thereof providing reward based on block chain
KR20200080947A (en) * 2018-12-27 2020-07-07 (주)아크릴 Method for determining parameter sets of an artificial neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190070163A (en) * 2017-12-12 2019-06-20 엔에이치엔 주식회사 Resources operating method of each of nodes communicating one another and computer device operating as one of nodes
KR20190134983A (en) * 2018-05-18 2019-12-05 박병훈 Method for providing big data-based artificial intelligence integration platform service
KR20200034171A (en) * 2018-09-21 2020-03-31 주식회사 머니브레인 Distributed computing resources sharing system and computing apparatus thereof providing reward based on block chain
KR20200080947A (en) * 2018-12-27 2020-07-07 (주)아크릴 Method for determining parameter sets of an artificial neural network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Nebula AI Team. ‘NEBULAAI(NBAI) 탈중심화 인공지능 블록체인 백서’, Nebula AI Inc.(2018.02)* *

Similar Documents

Publication Publication Date Title
JP6901633B2 (en) Capsule neural network
JP6854921B2 (en) Multitasking neural network system with task-specific and shared policies
US20230376771A1 (en) Training machine learning models by determining update rules using neural networks
US11551153B2 (en) Localized learning from a global model
KR102177232B1 (en) Compressed Recurrent Neural Network Models
US10643131B1 (en) Training variational autoencoders to generate disentangled latent factors
EP3459021B1 (en) Training neural networks using synthetic gradients
US10949734B2 (en) Progressive neural networks
US20190026639A1 (en) Neural architecture search for convolutional neural networks
CN110114783A (en) Utilize the intensified learning of nonproductive task
KR20200089971A (en) Electronic device and operating method for authenticating a user
CN111598213B (en) Network training method, data identification method, device, equipment and medium
TW201636905A (en) Neural network and method of neural network training
US20200302293A1 (en) Methods and systems for field development decision optimization
WO2020196066A1 (en) Neural network learning method, neural network generation method, learned device, portable terminal device, learning processing device, and computer program
TWI785346B (en) Dual machine learning pipelines for transforming data and optimizing data transformation
KR102538350B1 (en) Proof-of-work method and system for concurrently solving ai problems
TW202006652A (en) Product testing system with assistance judgment function and assistance method applied thereto
US20220164639A1 (en) A system for mapping a neural network architecture onto a computing core and a method of mapping a neural network architecture onto a computing core
KR20230056004A (en) Apparatus and Method for Providing a Surgical Environment based on a Virtual Reality
CN115688569A (en) Gain adjustment method, gain adjustment device, computer equipment and storage medium
KR20230081214A (en) Training method for performing distributed training of neural network and apparatus for porforming the same
CN113886140A (en) Artificial intelligence model output data judgment system based on credibility verification
KR102561832B1 (en) Method, device and system for providing online education content based on artificial intelligence
KR20190061381A (en) Method and apparatus for hardware variable automation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant