WO2021149890A1 - 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법 - Google Patents

사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2021149890A1
WO2021149890A1 PCT/KR2020/012150 KR2020012150W WO2021149890A1 WO 2021149890 A1 WO2021149890 A1 WO 2021149890A1 KR 2020012150 W KR2020012150 W KR 2020012150W WO 2021149890 A1 WO2021149890 A1 WO 2021149890A1
Authority
WO
WIPO (PCT)
Prior art keywords
personal
information
model
users
user
Prior art date
Application number
PCT/KR2020/012150
Other languages
English (en)
French (fr)
Inventor
러셀 제라치제임스
이경환
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021149890A1 publication Critical patent/WO2021149890A1/ko
Priority to US17/480,859 priority Critical patent/US20220004874A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations

Definitions

  • the present disclosure relates to an electronic device for learning a user's personal model and an operating method thereof.
  • the electronic device may provide various services to the user by using a personal model learned based on various types of personal data collected in relation to the user.
  • the amount of personal data for learning the personal model is not sufficient or the accuracy or reliability of the collected personal data is low, it may be difficult to provide a suitable service to the user according to the personal model.
  • An object of the present disclosure is to solve the above-described problem, and to provide an electronic device for learning a user's personal model and an operating method thereof.
  • Another object of the present invention is to provide a computer-readable recording medium in which a program for executing the method in a computer is recorded.
  • the technical problem to be solved is not limited to the technical problems as described above, and other technical problems may exist.
  • FIG. 1 is a block diagram illustrating an example of an electronic device for learning a user's personal model according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of a plurality of individual models belonging to one group according to an embodiment.
  • FIG. 3 is a diagram illustrating an example of a personal model according to an embodiment.
  • FIG. 4 is a block diagram illustrating an internal configuration of an electronic device according to an exemplary embodiment.
  • FIG. 5 is a block diagram illustrating an internal configuration of an electronic device according to an exemplary embodiment.
  • FIG. 6 is a flowchart illustrating a method of learning a personal model according to an embodiment.
  • a first aspect of the present disclosure is a method for learning a personal model of a user in an electronic device, wherein the personal model is generated based on personal data collected about the user. acquiring first information including components of the learned personal model by learning; acquiring second information including components of the learned personal model by learning the personal model based on group model data for a plurality of users of the group to which the user belongs; determining a first weight and a second weight to be applied to each of the first information and the second information, based on the reliability of the first information; and learning the personal model based on the first information and the second information to which the determined first and second weights are applied.
  • a second aspect of the present disclosure provides an electronic device for learning a user's personal model, comprising: a communication unit configured to receive group model data for a plurality of users of a group to which the user belongs; By learning the personal model included in the personal data collected for the user, by acquiring first information representing the components of the learned personal model, and learning the personal model based on the group model data, the Obtaining second information including components of a learned personal model, determining a first weight and a second weight to be applied to each of the first information and the second information, based on the reliability of the first information, and the at least one processor configured to learn the personal model based on the first information and the second information to which the determined first and second weights are applied; and an output unit for outputting a result of an operation performed based on the learned personal model.
  • a third aspect of the present disclosure may provide a recording medium in which a program for performing the method of the first aspect is stored.
  • the processor may consist of one or a plurality of processors.
  • one or more processors may be a general-purpose processor such as a CPU, an AP, a digital signal processor (DSP), or the like, a graphics-only processor such as a GPU, a vision processing unit (VPU), or an artificial intelligence-only processor such as an NPU.
  • DSP digital signal processor
  • One or a plurality of processors control to process input data according to a predefined operation rule or artificial intelligence model stored in the memory.
  • the AI-only processor may be designed with a hardware structure specialized for processing a specific AI model.
  • the predefined action rule or artificial intelligence model is characterized in that it is created through learning.
  • being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden.
  • Such learning may be performed in the device itself on which the artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system.
  • Examples of the learning algorithm include, but are not limited to, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning.
  • the artificial intelligence model may be composed of a plurality of neural network layers.
  • Each of the plurality of neural network layers has a plurality of node weight values, and a neural network operation is performed through an operation between the operation result of a previous layer and the plurality of weights.
  • the plurality of weights of the plurality of neural network layers may be optimized by the learning result of the artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from the artificial intelligence model during the learning process is reduced or minimized.
  • the artificial neural network may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), There may be a Deep Belief Network (DBN), a Bidirectional Recurrent Deep Neural Network (BRDNN), or a Deep Q-Networks, but is not limited to the above-described example.
  • DNN Deep Neural Network
  • DNN Deep Belief Network
  • BBDNN Bidirectional Recurrent Deep Neural Network
  • Deep Q-Networks Deep Q-Networks
  • FIG. 1 is a block diagram illustrating an example of an electronic device 1000 for learning a user's personal model according to an embodiment.
  • the electronic device 1000 for learning a user's personal model includes a personal data collection unit 110 , a group model data collection unit 120 , an information learned from individual (ILI) acquisition unit 130 , It may include an f(x) determining unit 140 , an information learned from group (ILG) obtaining unit 150 , and a personal model learning unit 160 .
  • the electronic device 1000 may be implemented in various forms.
  • the electronic device 1000 described herein may include a digital camera, a smart phone, a laptop computer, a tablet PC, an electronic book terminal, a digital broadcasting terminal, and a personal digital assistant (PDA). , a Portable Multimedia Player (PMP), a navigation system, an MP3 player, and the like, but is not limited thereto.
  • PDA personal digital assistant
  • PMP Portable Multimedia Player
  • the electronic device 1000 described herein may be a wearable device that can be worn by a user.
  • Wearable devices include accessory type devices (e.g., watches, rings, wristbands, ankle bands, necklaces, eyeglasses, contact lenses), head-mounted-devices (HMDs), textile or clothing-integrated devices (e.g., electronic clothing), a body attachable device (eg, a skin pad), or a bioimplantable device (eg, an implantable circuit).
  • accessory type devices e.g., watches, rings, wristbands, ankle bands, necklaces, eyeglasses, contact lenses
  • HMDs head-mounted-devices
  • textile or clothing-integrated devices e.g., electronic clothing
  • a body attachable device eg, a skin pad
  • a bioimplantable device eg, an implantable circuit
  • the personal model according to an embodiment is an artificial intelligence model personalized for the user of the electronic device 1000 and may be used by the electronic device 1000 to provide various services to the user.
  • a personal model corresponding to each user may be learned based on different personal data collected for each user.
  • the personal model according to an embodiment may be used to provide a service suitable for each user's situation as it is learned based on personal data collected for each user.
  • the personal model according to an embodiment may be an artificial intelligence model based on a neural network such as a deep neural network (DNN) or a recurrent neural network (RNN).
  • DNN deep neural network
  • RNN recurrent neural network
  • the personal model is not limited to the above-described example, and may be various types of artificial intelligence models.
  • the personal model according to an embodiment may be learned based on personal data collected by the personal data collection unit 110 .
  • the personal model according to an embodiment is not limited to personal data, and may be further learned based on the group model data collected by the group model data collection unit 120 .
  • the user's personal data which may be collected by the personal data collection unit 110 according to an embodiment, includes personal information, location information, information related to app use, schedule information, social network service (SNS) information, etc. of the user. It may include various types of information related to context. Accordingly, according to an embodiment, an appropriately personalized service may be provided to a user according to a personal model learned based on personal data.
  • SNS social network service
  • the information about the user that can be used to learn the personal model is not limited to the above example, and may include various types of information related to the user for the personal model to be trained so that a result suitable for the user is output. .
  • the ILI acquisition unit 130 is information obtained to learn a personal model from the personal data collected by the personal data collection unit 110, for example, based on the personal data, from the personal model. Information for updating the personal model may be obtained so that a result suitable for the user is output.
  • ILI may include information on components constituting the updated personal model based on personal data according to Equation 1 below.
  • the ILI may include components that configure the updated personal model using personal data in step k+1 according to the result of the operation on the right side.
  • u is a component constituting the personal model, and may represent, for example, a node weight and a bias value for each node constituting an artificial intelligence model.
  • components constituting the personal model for example, at least one of a node weight and a bias value for each node, are updated based on personal data, so that the personal model may be updated.
  • i is an index value indicating the user i corresponding to the currently updated personal model.
  • k indicates a step in which the personal model is updated according to an embodiment. According to an embodiment, an operation of updating the personal model may be performed for each step.
  • the electronic device 1000 may update the personal model by optimizing at least one of a plurality of node weights and biases for a plurality of neural network layers constituting the personal model based on personal data.
  • the above-described node weight indicates a weight that can be applied to each node constituting the personal model.
  • the electronic device 1000 may update the personal model based on the personal data so that the difference between the prediction information output through the personal model and the prediction information and the corresponding observation information can be minimized.
  • Observation information according to an embodiment is information indicating a correct answer to prediction information, and is information that can be determined based on personal data.
  • observation information corresponding to prediction information that may be output to a personal model may be obtained based on personal data. Accordingly, a and g may be determined as values for correcting values constituting the personal model so that the difference between the observation information and the prediction information is minimized.
  • a and g are values that may be determined according to a point at which a value of a loss function representing a difference between prediction information and observation information is minimized.
  • g may include a value indicating a slope of a point at which the value of the loss function is minimized for each node weight and bias for each node constituting the personal model.
  • a can, a constant value to be the basis of being applied to the g, u k, k + 1 is obtained u.
  • a and g may be determined according to various methods for modifying values constituting the personal model so that the difference between the observation information and the prediction information is minimized.
  • the reliability of the learned personal model based on the ILI may be low.
  • the amount of personal data used to train the personal model is not sufficient, the information about the user is sufficiently reflected and the personal model is not trained, so the service provided according to the personal model is not suitable for the user. may not be
  • the electronic device 1000 may learn the personal model by further using the group model data obtained from the group to which the user belongs as well as the ILI obtained based on the personal data.
  • the group model data that can be collected by the group model data collection unit 120 includes a plurality of personal models learned based on personal data collected for a plurality of users belonging to a group to which the user belongs. may contain information related to
  • the group model data may include information indicating components of a personal model corresponding to a plurality of users, respectively.
  • a personal model corresponding to each of the plurality of users may be an artificial intelligence model updated based on personal data collected for each user.
  • the personal model according to an embodiment may be updated based on group model data that includes information on each individual personalized model for a plurality of users as well as personal data.
  • a plurality of users of the group model data may be grouped based on the similarity between various pieces of information about each user, such as each user's propensity, age, and residential area.
  • a personal model of each user is trained based on personal data including various information about a plurality of users
  • a plurality of users will be grouped based on the similarity between personal data respectively corresponding to the plurality of users.
  • a plurality of users may be grouped according to whether the surrounding environments, experiences, and personal information of each user are similar to each other.
  • the higher the correlation between various pieces of information about a plurality of users, the higher the degree of similarity may be determined.
  • users having similar age and residential area may be classified into the same group.
  • a plurality of users according to an embodiment are grouped according to various methods according to whether each user's life pattern, taste, situation, etc. are similar to each other, or randomly, without consideration of similarity They may be grouped.
  • the ILG acquisition unit 150 may include information obtained to learn a personal model from the group model data collected by the group model data collection unit 120 .
  • the ILG obtained by the ILG acquisition unit 150 may include information for updating the personal model so that a result suitable for the user is output from the personal model based on the group model data.
  • the ILG may include components of the user's personal model, updated based on group model data.
  • ILG may be obtained based on group model data including information indicating components of a personal model corresponding to a plurality of users, respectively, according to Equation 2 below.
  • the ILG may indicate components constituting the personal model updated in step k+1 based on the group model data according to the result of the operation on the right side as shown in Equation 2 below.
  • Equation 2 u, like u in Equation 1, is a component constituting the personal model. Also, as in Equation 1, i is an index value indicating the user i corresponding to the currently updated personal model, and k indicates the step at which the personal model is updated according to an embodiment.
  • j is an index value indicating other users belonging to the same group as user i.
  • N i represents other users of a group to which i belongs
  • j may be determined as index values of other users of the group to which i belongs.
  • the group model data according to an embodiment is not limited to the above-described example, and the group model data according to an embodiment is not limited to information about a personal model individually personalized for a plurality of users or information obtained according to Equation 2 described above, and a plurality of It may include information related to various types of personal data collected for each user.
  • the personal model may be learned based on the group model data collected for other users with similar propensities, so that the accuracy of the personal model and Reliability can be improved.
  • the f(x) determiner 140 may determine the ILI obtained by the ILI obtainer 130 and the ILG obtainer 150 and a weight to be applied to the ILG. According to an embodiment, based on f(x) determined by the f(x) determiner 140, the component (u i ) of the personal model updated based on personal data and group model data is expressed by the following equation 3 can be obtained.
  • user i's personal model may be updated based on f(x), based on the weighted personal model corresponding to the ILI and the personal model corresponding to the ILG. .
  • the degree to which the personal model of ILG is reflected in the personal model of user i may be adjusted as compared to the personal model of ILI.
  • f(x) may be a constant value for adjusting the degree to which the personal model of the ILG is reflected in the personal model of the user i compared to the ILI.
  • x represents an arbitrary variable for determining the constant value, and f(x) of the constant value may be obtained based on x determined according to various methods.
  • f(x) may be determined such that as the reliability of the personal model of the ILI is expected to be high, the personal model of the ILG is less reflected in the personal model of user i.
  • the reliability of the personal model according to an embodiment may indicate a degree to which an operation according to the personal model is accurate or suitable for a user.
  • the reliability of the personal model may indicate a degree to which an operation according to the personal model corresponds to a user's intention.
  • the reliability of the personal model according to an embodiment may be determined based on various types of information related to learning of the personal model.
  • the f(x) value may be determined as a low value.
  • the size of the loss function representing the difference between the observation information and the prediction information used to obtain the ILI is closer to 0, it is determined that the reliability of the personal model of the ILI is high, and the f(x) value is determined to be a low value.
  • the more the update process is performed that is, the higher the k value, the higher the reliability of the ILI personal model is determined, and the lower f(x) value may be determined.
  • f(x) may be determined according to various methods based on the reliability of the personal model updated based on personal data.
  • the personal model learning unit 160 based on f(x) determined by the f(x) determiner 140, from ILI and ILG according to Equation 3, in step k+1 An updated personal model (u i k+1 ) may be obtained.
  • FIG. 2 is a diagram illustrating an example of a plurality of individual models belonging to one group according to an embodiment.
  • individual models u1 , u2 , u3 , and u4 respectively corresponding to a plurality of users may exist.
  • Each individual model according to an embodiment may be updated according to ILG obtained based on other personal models belonging to the same group 200 as well as ILI obtained based on personal data.
  • the ILG for u1 among the individual models belonging to the group 200 may be obtained based on group model data including information related to the personal models of u2, u3, and u4.
  • the group model data is information related to each individual model, and includes components (eg, node weight and bias for each node) of individual models of u2, u3, and u4, and outputs of each individual model. It may include a degree (d).
  • each of the individual models u1, u2, u3, and u4 has an effect on the other individual models as group model data when the other individual models are trained.
  • the individual model of u1 may be used as group model data when the individual models of u2, u3, and u4 are trained.
  • the personal model of u2 may be used as group model data when the individual models of u1 and u4 are trained.
  • the personal model of u3 may be used as group model data when the individual models of u1 and u4 are trained.
  • the individual model of u4 may be used as group model data when the individual models of u1, u2, and u3 are trained.
  • the output orders for u1, u2, u3, and u4 may be determined to be 3, 2, 2, and 3, respectively.
  • FIG. 3 is a diagram illustrating an example of a personal model according to an embodiment.
  • the personal model according to an embodiment may be configured as a neural network model that mimics the way the human brain recognizes patterns.
  • the electronic device 1000 according to an embodiment may provide various services to a user by using a personal model composed of a neural network model.
  • a neural network model includes a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a bidirectional recurrent deep neural network (BRDNN), and limited Boltzmann. It may be one of a Restricted Boltzmann Machine (RBM), a Deep Belief Network (DBN), or a Deep Q-Networks. In addition, it is not limited to the above-described example, and the local model or the global model according to an embodiment may be one of various types of neural networks.
  • a neural network model may include at least one layer including at least one node.
  • the neural network model may include layer 1 which is an input layer and layer 2 which is an output layer.
  • the neural network model according to an embodiment may further include at least one hidden layer (not shown) between the input layer and the output layer.
  • a neural network including an input layer and an output layer excluding a hidden layer will be described as an example.
  • At least one input value may be input to layer 1 of the neural network model.
  • the values of I1 and I2 may be input to the nodes N11 and N12 of the layer 1, respectively.
  • nodes N11, N12, N21, and N22 included in layer 1 and layer 2 of the neural network model may be processed.
  • the value output from the node of each layer may be used as the input value of the next layer.
  • a predetermined value may be input to the nodes N21 and N22 of the layer 2 based on values obtained as the nodes N11 and N12 of the layer 1 are processed.
  • the value output from the layer 2 may be output as an output value in the neural network model.
  • values O1 and O2 output from the layer 2 may be output as output values of the neural network model.
  • different node weights are applied to one value output from one node, and a bias value is added to the value to which the node weight is applied, so that at least one edge data may be obtained from one node.
  • Edge data is data obtained by applying at least one node weight to one value output from one node and adding at least one bias value to at least one value to which each node weight is applied. Edge data may be obtained as many as the number of node weights applied to one value. Accordingly, a value output from each node of the layer 1 may be converted into at least one edge data and input to a node of a next layer.
  • edge data to which different node weights W11 and W12 are applied to values output from the node N11 may be respectively input to the nodes N21 and N22 of the next layer after bias values B11 and B12 are added.
  • edge data to which different node weights W21 and W22 are applied to the values output from the node N12 may be respectively input to the nodes N21 and N22 of the next layer after bias values B21 and B22 are added.
  • At least one node weight value and a bias value that can be applied to each node, which are values constituting the personal model, are changed, so that the personal model can be learned.
  • the ILI may include at least one node weight value and bias values of the personal model that allow a difference between the obtained prediction information and the observation information to be minimized based on personal data.
  • the ILG includes at least one node weight value constituting the personal model of another user belonging to the same group and at least one node weight value of the personal model updated based on the bias value and , may include bias values.
  • At least one node weight value and bias values of the personal model according to an embodiment are based on f(x) determined by the f(x) determiner 140, according to Equation 3, ILI and As each weight is applied to the ILG, it may be updated.
  • FIG. 4 is a block diagram illustrating an internal configuration of the electronic device 1000 according to an embodiment.
  • FIG. 5 is a block diagram illustrating an internal configuration of the electronic device 1000 according to an embodiment.
  • the electronic device 1000 may include a processor 1300 , a communication unit 1500 , and an output unit 1200 .
  • the electronic device 1000 may be implemented by more components than those illustrated in FIG. 4 , or the electronic device 1000 may be implemented by fewer components than those illustrated in FIG. 4 .
  • the electronic device 1000 includes a user input unit 1100 in addition to the processor 1300 , the communication unit 1500 , and the output unit 1200 . ), a sensing unit 1400 , an A/V input unit 1600 , and a memory 1700 may be further included.
  • the user input unit 1100 means a means for a user to input data for controlling the electronic device 1000 .
  • the user input unit 1100 includes a key pad, a dome switch, and a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral type).
  • a tension measurement method a piezo effect method, etc.
  • a jog wheel a jog switch, and the like, but is not limited thereto.
  • the user input unit 1100 may perform a user input for learning a personal model in the electronic device 1000 or performing various operations using the personal model.
  • the output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210 , a sound output unit 1220 , and a vibration motor 1230 . there is.
  • the display unit 1210 displays and outputs information processed by the electronic device 1000 .
  • the display unit 1210 may display information on the personal model learned according to an embodiment or a result of an operation performed according to the learned personal model.
  • the display unit 1210 may be used as an input device in addition to an output device.
  • the display unit 1210 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display ( 3D display) and electrophoretic display (electrophoretic display) may include at least one. Also, depending on the implementation form of the electronic device 1000 , the electronic device 1000 may include two or more display units 1210 .
  • the sound output unit 1220 outputs audio data received from the communication unit 1500 or stored in the memory 1700 .
  • the sound output unit 1220 may output information on the personal model learned according to an embodiment or a result of an operation performed according to the learned personal model.
  • the vibration motor 1230 may output a vibration signal. Also, the vibration motor 1230 may output a vibration signal when a touch is input to the touch screen. According to an embodiment, the vibration motor 1230 may output information about the personal model learned according to an embodiment or a result of an operation performed according to the learned personal model.
  • the processor 1300 generally controls the overall operation of the electronic device 1000 .
  • the processor 1300 executes programs stored in the memory 1700 , and thus the user input unit 1100 , the output unit 1200 , the sensing unit 1400 , the communication unit 1500 , and the A/V input unit 1600 . ) can be controlled in general.
  • the electronic device 1000 may include at least one processor 1300 .
  • the electronic device 1000 may include various types of processors, such as a central processing unit (CPU), a graphics processing unit (GPU), and a neural processing unit (NPU).
  • CPU central processing unit
  • GPU graphics processing unit
  • NPU neural processing unit
  • the processor 1300 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations.
  • the command may be provided to the processor 1300 from the memory 1700 or may be received through the communication unit 1500 and provided to the processor 1300 .
  • the processor 1300 may be configured to execute instructions according to program codes stored in a recording device such as a memory.
  • the processor 1300 may learn a personal model based on personal data and group model data. According to an embodiment, based on first information indicating components of a personal model learned based on personal data, and group model data collected for a plurality of users of a group to which the user of the electronic device 1000 belongs, Based on the second information indicating the components of the learned personal model, the personal model may be trained.
  • the electronic device 1000 determines a first weight and a second weight to be applied to each of the first information and the second information, based on the reliability of the first information, and applies the first weight and the second weight to the first information and the second information.
  • the individual model may be trained.
  • the first weight is determined to be lower than the second weight, so that even when the reliability of the personal model updated only with personal data is low, the personal model updated according to the group model data By using together, a highly reliable updated personal model can be obtained.
  • the sensing unit 1400 may detect a state of the electronic device 1000 or a state around the electronic device 1000 , and transmit the sensed information to the processor 1300 .
  • the sensing unit 1400 includes a geomagnetic sensor 1410 , an acceleration sensor 1420 , a temperature/humidity sensor 1430 , an infrared sensor 1440 , a gyroscope sensor 1450 , and a position sensor. (eg, GPS) 1460 , a barometric pressure sensor 1470 , a proximity sensor 1480 , and at least one of an illuminance sensor 1490 , but is not limited thereto.
  • GPS GPS
  • the communication unit 1500 may include one or more components that allow the electronic device 1000 to communicate with the server 2000 or an external device (not shown).
  • the communication unit 1500 may include a short-range communication unit 1510 , a mobile communication unit 1520 , and a broadcast receiving unit 1530 .
  • Short-range wireless communication unit 1510 Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, short-range wireless communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee (Zigbee) communication unit, infrared ( It may include an IrDA, infrared Data Association) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, and the like, but is not limited thereto.
  • the mobile communication unit 1520 transmits/receives a radio signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.
  • the broadcast receiver 1530 receives a broadcast signal and/or broadcast-related information from the outside through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the electronic device 1000 may not include the broadcast receiver 1530 .
  • the communication unit 1500 may transmit/receive data required for learning the personal model with an external device (not shown).
  • the communication unit 1500 may receive group model data collected for a plurality of users of a group to which the user belongs from an external device. Based on the group model data, an ILG may be obtained.
  • the A/V (Audio/Video) input unit 1600 is for inputting an audio signal or a video signal, and may include a camera 1610 , a microphone 1620 , and the like.
  • the camera 1610 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a shooting mode.
  • the image captured through the image sensor may be processed through the processor 1300 or a separate image processing unit (not shown).
  • the microphone 1620 receives an external sound signal and processes it as electrical voice data.
  • Voice data or video data generated by the A/V input unit 1600 may be used as personal data for learning a personal model.
  • the voice data or video data may be used according to various methods for learning a personal model.
  • the memory 1700 may store a program for processing and control of the processor 1300 , and may also store data input to or output from the electronic device 1000 .
  • the memory 1700 may store data necessary for learning a personal model.
  • the memory 1700 may store personal data and group model data for learning a personal model.
  • the memory 1700 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM.
  • RAM Random Access Memory
  • SRAM Static Random Access Memory
  • ROM Read-Only Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • PROM Programmable Read-Only Memory
  • magnetic memory magnetic disk
  • magnetic disk may include at least one type of storage medium among optical disks.
  • Programs stored in the memory 1700 may be classified into a plurality of modules according to their functions, for example, may be classified into a UI module 1710 , a touch screen module 1720 , a notification module 1730 , and the like. .
  • the UI module 1710 may provide a specialized UI, GUI, or the like that interworks with the electronic device 1000 for each application.
  • the touch screen module 1720 may detect a touch gesture on the user's touch screen and transmit information about the touch gesture to the processor 1300 .
  • the touch screen module 1720 according to some embodiments may recognize and analyze a touch code.
  • the touch screen module 1720 may be configured as separate hardware including a controller.
  • a tactile sensor is an example of a sensor for detecting a touch of a touch screen.
  • a tactile sensor refers to a sensor that senses a touch of a specific object to the extent or higher than that felt by a human.
  • the tactile sensor may sense various information such as the roughness of the contact surface, the hardness of the contact object, and the temperature of the contact point.
  • the user's touch gesture may include a tap, touch & hold, double tap, drag, pan, flick, drag and drop, swipe, and the like.
  • the notification module 1730 may generate a signal for notifying the occurrence of an event in the electronic device 1000 .
  • FIG. 6 is a flowchart illustrating a method for learning a personal model according to an embodiment.
  • the electronic device 1000 may learn a personal model based on personal data. As a result of learning the personal model, the electronic device 1000 according to an embodiment may acquire ILI, which is first information indicating components of the learned personal model.
  • the electronic device 1000 learns the user's personal model based on the group model data collected with respect to the plurality of users of the group to which the user belongs, thereby indicating a second component of the learned personal model.
  • Information, ILG can be obtained.
  • the group model data may include information related to a plurality of personal models learned based on personal data collected for a plurality of users, respectively.
  • the group model data may include information about components of a personal model corresponding to a plurality of users, respectively.
  • the electronic device 1000 may determine a first weight and a second weight to be applied to each of the first information and the second information, based on the reliability of the first information.
  • the reliability of the first information may indicate the reliability of a personal model learned based on personal data.
  • the reliability of the first information according to an embodiment may be a value indicating a degree to which an operation according to a personal model corresponds to a user's intention.
  • the reliability of the first information may be determined based on information related to personal data or information related to a learning situation of the personal model, which affects the learning of the personal model.
  • the reliability of the first information may be determined whether the amount of personal data used to obtain the first information and whether the magnitude of a loss function representing the difference between the observation information and the prediction information used to obtain the first information is close to zero. Whether or not, according to an embodiment, based on the first information and the second information, the number of times the operation for learning the personal model is repeatedly performed, and whether the correlation between the user and a plurality of users belonging to the same group as the user is high It may be determined based on at least one of
  • the first weight and the second weight may be determined to be relative to each other according to the reliability of the first information, whether the correlation between the user and a plurality of users belonging to the same group as the user is high is the first. Although it relates to the second information corresponding to the second weight, it may be used to determine the reliability of the first information.
  • the first weight and the second weight may be determined such that the sum of the two weights is 1.
  • the second weight may be determined as a value obtained by subtracting the first weight from 1 as the first weight is determined based on the above-described reliability.
  • the electronic device 1000 may learn the personal model by applying the first weight and the second weight determined in operation 630 to the first information and the second information, respectively.
  • Equation 3 the result of adding the first information and the second information to which the first weight and the second weight are applied is obtained as a component of the personal model learned according to the embodiment.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave), and this term refers to cases in which data is semi-permanently stored in a storage medium and temporary It does not distinguish the case where it is stored as
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices (eg, It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a portion of a computer program product eg, a downloadable app
  • a machine-readable storage medium such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.
  • unit may be a hardware component such as a processor or circuit, and/or a software component executed by a hardware component such as a processor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

사용자에 대하여 수집된 개인 데이터에 기초하여 개인 모델을 학습함으로써, 학습된 개인 모델의 구성 요소를 포함하는 제1 정보를 획득하고, 사용자가 속한 그룹의 복수의 사용자들에 대한 그룹 모델 데이터에 기초하여 개인 모델을 학습함으로써, 학습된 개인 모델의 구성 요소를 포함하는 제2 정보를 획득하고, 제1 정보의 신뢰도에 기초하여, 제1 정보 및 제2 정보 각각에 적용될 제1 가중치 및 제2 가중치를 결정하고, 결정된 제1 가중치 및 제2 가중치가 적용된, 제1 정보 및 제2 정보에 기초하여, 개인 모델을 학습하는, 전자 장치에서, 사용자의 개인 모델을 학습하는 방법이 제공된다.

Description

사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법
본 개시는, 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법에 관한 것이다.
전자 장치는, 사용자와 관련하여 수집된 다양한 종류의 개인 데이터에 기초하여 학습된 개인 모델을 이용하여, 사용자에게 다양한 서비스를 제공할 수 있다.
그러나, 개인 모델을 학습하기 위한 개인 데이터의 양이 충분하지 않거나, 수집된 개인 데이터의 정확도 또는 신뢰도가 낮은 경우, 개인 모델에 따라, 사용자에게 적합한 서비스가 제공되기 어려울 수 있다.
따라서, 개인 모델을 학습하기 위한 양질의 개인 데이터가 부족한 경우에도, 신뢰도 높게 학습된 개인 모델을 제공하는 방법이 필요하다.
본 개시가 해결하고자 하는 과제는 전술한 문제를 해결하기 위한 것으로서, 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법을 제공하기 위한 것이다.
또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
도 1은 일 실시 예에 의한 사용자의 개인 모델을 학습하는 전자 장치의 일 예를 나타낸 블록도이다.
도 2는 일 실시 예에 의한 하나의 그룹에 속한 복수 개의 개인 모델들의 일 예를 나타낸 도면이다.
도 3은 일 실시 예에 의한 개인 모델의 일 예를 나타낸 도면이다.
도 4는 일 실시 예에 의한 전자 장치의 내부 구성을 설명하기 위한 블록도이다.
도 5는 일 실시 예에 의한 전자 장치의 내부 구성을 설명하기 위한 블록도이다.
도 6은 일 실시 예에 의한 개인 모델을 학습하는 방법을 나타낸 순서도이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 전자 장치에서, 사용자의 개인 모델을 학습하는 방법에 있어서, 상기 사용자에 대하여 수집된 개인 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제1 정보를 획득하는 단계; 상기 사용자가 속한 그룹의 복수의 사용자들에 대한 그룹 모델 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제2 정보를 획득하는 단계; 상기 제1 정보의 신뢰도에 기초하여, 상기 제1 정보 및 제2 정보 각각에 적용될 제1 가중치 및 제2 가중치를 결정하는 단계; 및 상기 결정된 제1 가중치 및 제2 가중치가 적용된, 상기 제1 정보 및 제2 정보에 기초하여, 상기 개인 모델을 학습하는 단계를 포함하는, 방법을 제공할 수 있다.
또한, 본 개시의 제2 측면은, 사용자의 개인 모델을 학습하는 전자 장치에 있어서, 상기 사용자가 속한 그룹의 복수의 사용자들에 대한 그룹 모델 데이터를 수신하는 통신부; 상기 사용자에 대하여 수집된 개인 데이터에 포함하는 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 나타내는 제1 정보를 획득하고, 상기 그룹 모델 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제2 정보를 획득하고, 상기 제1 정보의 신뢰도에 기초하여, 상기 제1 정보 및 제2 정보 각각에 적용될 제1 가중치 및 제2 가중치를 결정하고, 상기 결정된 제1 가중치 및 제2 가중치가 적용된, 상기 제1 정보 및 제2 정보에 기초하여, 상기 개인 모델을 학습하는 적어도 하나의 프로세서; 및 상기 학습된 개인 모델에 기초하여 수행된 동작의 결과를 출력하는 출력부를 포함하는, 전자 장치를 제공할 수 있다.
또한, 본 개시의 제3 측면은, 제1 측면의 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 제공할 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 따른 인공지능과 관련된 기능은 프로세서와 메모리를 통해 동작된다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.
인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 노드 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 일 실시 예에 의한 사용자의 개인 모델을 학습하는 전자 장치(1000)의 일 예를 나타낸 블록도이다.
도 1을 참조하면, 사용자의 개인 모델을 학습하는 전자 장치(1000)는, 개인 데이터 수집부(110), 그룹 모델 데이터 수집부(120), ILI(Information learned from individual) 획득부(130), f(x) 결정부(140), ILG(Information learned from group) 획득부(150), 및 개인 모델 학습부(160)를 포함할 수 있다.
일 실시예에 따른 전자 장치(1000)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 전자 장치(1000)는, 디지털 카메라, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 본 명세서에서 기술되는 전자 장치(1000)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. 웨어러블 디바이스는 액세서리 형 장치(예컨대, 시계, 반지, 팔목 밴드, 발목 밴드, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 이하에서는, 설명의 편의상, 전자 장치(1000)가 스마트 폰인 경우를 예로 들어 설명하기로 한다.
일 실시 예에 의한 개인 모델은, 전자 장치(1000)의 사용자에 대하여 개인화된 인공지능 모델로, 전자 장치(1000)가 사용자에게 다양한 서비스를 제공하는데 이용될 수 있다. 일 실시 예에 의하면, 각 사용자 개개인에 대하여 수집된 서로 다른 개인 데이터에 기초하여, 각각의 사용자와 대응되는 개인 모델이 학습될 수 있다. 따라서, 일 실시 예에 의한 개인 모델은, 각 사용자에 대해 수집된 개인 데이터에 기초하여 학습됨에 따라, 각 사용자의 상황에 적합한 서비스를 제공하는데 이용될 수 있다.
또한, 일 실시 예에 의한 개인 모델은 DNN(Deep Neural Network), RNN(Recurrent Neural Network) 등의 뉴럴 네트워크(Neural Network)를 기반으로 하는 인공지능 모델일 수 있다. 상술한 예에 한하지 않고, 개인 모델은, 다양한 종류의 인공지능 모델일 수 있다.
일 실시 예에 의한 개인 모델은, 개인 데이터 수집부(110)에 의해 수집된 개인 데이터에 기초하여 학습될 수 있다. 또한, 일 실시 예에 의한 개인 모델은, 개인 데이터에 한하지 않고, 그룹 모델 데이터 수집부(120)에 의해 수집된 그룹 모델 데이터에 더 기초하여 학습될 수 있다.
일 실시 예에 의한 개인 데이터 수집부(110)에서 수집될 수 있는, 사용자의 개인 데이터는, 개인 정보, 위치 정보, 앱 사용과 관련된 정보, 일정 정보, SNS(social network service) 정보 등 사용자의 개인적인 상황(context)과 관련된 다양한 종류의 정보를 포함할 수 있다. 따라서, 일 실시 예에 의하면, 개인 데이터에 기초하여 학습된 개인 모델에 따라, 사용자에게 적절히 개인화된 서비스가 제공될 수 있다.
상술한 예에 한하지 않고, 개인 모델이 학습되는데 이용될 수 있는 사용자에 관한 정보는, 사용자에게 적합한 결과가 출력되도록, 개인 모델이 학습되기 위한, 사용자와 관련된 다양한 종류의 정보를 포함할 수 있다.
일 실시 예에 의한 ILI 획득부(130)는, 개인 데이터 수집부(110)에서 수집된 개인 데이터로부터 개인 모델을 학습하기 위해 획득된 정보로서, 예를 들면, 개인 데이터에 기초하여, 개인 모델로부터 사용자에게 적합한 결과가 출력되도록 개인 모델을 갱신하기 위한 정보를 획득할 수 있다.
일 실시 예에 의한 ILI는, 아래와 같은 수학식 1에 따라서, 개인 데이터에 기초하여 갱신된 개인 모델을 구성하는 구성 요소에 관한 정보를 포함할 수 있다. 예를 들어, ILI는, 이하 수학식 1과 같이, 우측의 연산이 수행된 결과에 따라, k+1 스텝에서, 개인 데이터를 이용하여 갱신된 개인 모델을 구성하는 구성 요소를 포함할 수 있다.
Figure PCTKR2020012150-appb-img-000001
수학식 1에서, u는, 개인 모델을 구성하는 구성 요소로서, 예를 들면, 인공지능 모델을 구성하는, 각 노드에 대한 노드 가중치 및 바이어스 값을 나타낼 수 있다. 일 실시 예에 의하면, 개인 모델을 구성하는 구성 요소, 예를 들면, 각 노드에 대한 노드 가중치 및 바이어스 값 중 적어도 하나가, 개인 데이터에 기초하여, 갱신됨으로써, 개인 모델이 갱신될 수 있다.
i는, 현재 갱신되는 개인 모델과 대응되는 사용자(i)를 나타내는 인덱스 값이다. k는, 일 실시 예에 따라 개인 모델이 갱신된 스텝을 나타낸다. 일 실시 예에 의하면, 각 스텝 마다 개인 모델을 갱신하는 동작이 수행될 수 있다.
예를 들면, k 단계에서 갱신된 개인 모델인 u k에 기초하여 획득된 ILI과, 후술될 ILG에 더 기초하여, k+1 단계에서 갱신된 개인 모델인 u k+1이 획득될 수 있다.
일 실시 예에 의한 전자 장치(1000)는, 개인 데이터에 기초하여, 개인 모델을 구성하는 복수의 신경망 레이어들에 대한 복수의 노드 가중치들 및 바이어스들 중 적어도 하나를 최적화함으로써, 개인 모델을 갱신할 수 있다. 상술한 노드 가중치는, 상기 개인 모델을 구성하는 각 노드에 대해 적용될 수 있는 가중치를 나타낸다. 예를 들면, 전자 장치(1000)는 개인 데이터에 기초하여, 개인 모델을 통해 출력될 수 있는 예측 정보와, 예측 정보와 대응되는 관측 정보 간의 차이가 최소화될 수 있도록, 개인 모델을 갱신할 수 있다. 일 실시 예에 의한 관측 정보는, 예측 정보에 대한 정답을 나타내는 정보이며, 개인 데이터에 기초하여 결정될 수 있는 정보이다.
일 실시 예에 의하면, 개인 데이터에 기초하여, 개인 모델에 출력될 수 있는 예측 정보와 대응되는 관측 정보가 획득될 수 있다. 따라서, a 및 g는, 상기 관측 정보와 예측 정보 간 차이가 최소화되도록, 개인 모델을 구성하는 값들을 수정하기 위한 값으로 결정될 수 있다.
일 실시 예에 의한 a 및 g는 예측 정보와 관측 정보 간의 차이를 나타내는 손실 함수의 값이 최소화되는 지점에 따라 결정될 수 있는 값이다. 예를 들어, g는, 상기 개인 모델을 구성하는 각 노드에 대한 노드 가중치 및 바이어스 각각에 대하여, 상기 손실 함수의 값이 최소화되는 지점의 기울기를 나타내는 값을 포함할 수 있다. 또한, a는 상기 g에 적용됨으로써, u k 에 기초하여, u k+1이 획득될 수 있도록 하는, 상수값일 수 있다. 상술한 예에 한하지 않고, a 및 g는, 상기 관측 정보와 예측 정보 간 차이가 최소화되도록, 개인 모델을 구성하는 값들을 수정하기 위한 다양한 방법에 따라 결정될 수 있다.
그러나, 일 실시 예에 의한 개인 데이터 수집부(110)에서 수집된 개인 데이터의 양이 충분하지 않은 경우, ILI 에 기초하여, 학습된 개인 모델의 신뢰도가 낮을 수 있다. 예를 들면, 개인 모델을 학습하는데 이용된 개인 데이터의 양이 충분하지 않은 경우, 사용자에 관한 정보가 충분히 반영되어 개인 모델이 학습되지 않음에 따라서, 개인 모델에 따라 제공되는 서비스가 사용자에게 적합하지 않을 수 있다.
따라서, 일 실시 예에 의한 전자 장치(1000)는, 개인 데이터에 기초하여 획득된 ILI 뿐만 아니라, 사용자가 속한 그룹으로부터 획득된 그룹 모델 데이터를 더 이용하여, 개인 모델을 학습할 수 있다.
일 실시 예에 의한 그룹 모델 데이터 수집부(120)에서 수집될 수 있는 그룹 모델 데이터는, 사용자가 속한 그룹에 속한, 복수의 사용자들에 대하여 각각 수집된 개인 데이터에 기초하여 학습된 복수 개의 개인 모델에 관련된 정보를 포함할 수 있다.
예를 들면, 그룹 모델 데이터는, 복수의 사용자들과 각각 대응되는 개인 모델의 구성 요소를 나타내는 정보를 포함할 수 있다. 복수의 사용자들과 각각 대응되는 개인 모델은, 각 사용자들에 대해 수집된 개인 데이터에 기초하여, 각각 갱신된 인공지능 모델일 수 있다.
따라서, 일 실시 예에 의한 개인 모델은, 개인 데이터뿐만 아니라, 복수의 사용자들에 대하여 각각 개인화된 개인 모델에 관한 정보를 포함하는, 그룹 모델 데이터에 기초하여, 갱신될 수 있다.
일 실시 예에 의한 그룹 모델 데이터의 복수의 사용자들은, 각 사용자의 성향, 나이, 거주 지역 등 각 사용자에 대한 다양한 정보들 간의 유사성에 기초하여, 그룹화될 수 있다. 복수의 사용자들에 관한 다양한 정보를 포함하는 개인 데이터에 기초하여, 각 사용자들의 개인 모델이 학습되는 경우, 복수의 사용자들에 각각 대응되는 개인 데이터들 간의 유사도에 기초하여, 복수의 사용자들이 그룹화될 수 있다. 예를 들면, 복수의 사용자들은 각 사용자들의 주변 환경, 경험, 개인 정보 등이 서로 유사한지에 따라서, 그룹화될 수 있다.
일 실시 예에 의하면, 복수의 사용자들에 관한 다양한 정보들 간의 연관성(correlation)이 높을수록, 유사도가 높은 것으로 판단될 수 있다.
일 예로, 나이 및 거주 지역이 유사한 사용자들이 동일한 그룹으로 분류될 수 있다. 상술한 예에 한하지 않고, 일 실시 예에 의한 복수의 사용자들은, 각 사용자의 생활 패턴, 취향, 상황 등이 서로 유사한지에 따라서, 다양한 방법에 따라, 그룹화되거나, 유사성에 대한 고려 없이, 랜덤하게 그룹화될 수도 있다.
일 실시 예에 의한 ILG 획득부(150)는, 그룹 모델 데이터 수집부(120)에서 수집된 그룹 모델 데이터로부터 개인 모델을 학습하기 위해 획득된 정보를 포함할 수 있다. 일 실시 예에 의한 ILG 획득부(150)에서 획득된 ILG는, 그룹 모델 데이터에 기초하여, 개인 모델로부터 사용자에게 적합한 결과가 출력되도록 개인 모델을 갱신하기 위한 정보를 포함할 수 있다. 예를 들면, ILG는, 그룹 모델 데이터에 기초하여 갱신된, 사용자의 개인 모델의 구성 요소를 포함할 수 있다.
일 실시 예에 의한 ILG는, 아래와 같은 수학식 2에 따라서, 복수의 사용자들과 각각 대응되는 개인 모델의 구성 요소를 나타내는 정보를 포함하는 그룹 모델 데이터에 기초하여 획득될 수 있다. 예를 들어, ILG는, 이하 수학식 2와 같이, 우측의 연산이 수행된 결과에 따라, 그룹 모델 데이터에 기초하여, k+1 스텝에서 갱신된 개인 모델을 구성하는 구성 요소를 나타낼 수 있다.
Figure PCTKR2020012150-appb-img-000002
수학식 2에서, u는, 수학식 1에서의 u와 같이, 개인 모델을 구성하는 구성 요소이다. 또한, 수학식 1에서와 같이, i는, 현재 갱신되는 개인 모델과 대응되는 사용자(i)를 나타내는 인덱스 값이고, k는, 일 실시 예에 따라 개인 모델이 갱신된 스텝을 나타낸다.
j는, 사용자(i)와 동일한 그룹에 속한 다른 사용자들을 나타내는 인덱스 값이다.
d는, 출력 차수(out degree)를 나타내는 값으로, 각 개인 모델이 일 실시 예에 따라 그룹 모델 데이터로서 영향을 주는, 다른 사용자의 개인 모델의 개수를 나타낸다. 예를 들어, j=3인 사용자에 대한 개인 모델이, j=0, 2, 4인 사용자에 대한 개인 모델이 갱신될 때, 그룹 모델 데이터로서 이용되는 경우, d j=d 3=3으로 결정될 수 있다.
N i는, i가 속한 그룹의 다른 사용자들을 나타내는 것으로, 일 실시 예에 의한 j는, i가 속한 그룹의 다른 사용자들의 인덱스 값으로 결정될 수 있다.
상술한 예에 한하지 않고, 일 실시 예에 의한 그룹 모델 데이터는, 복수의 사용자들에 대하여 각각 개인화된 개인 모델에 관한 정보 또는 상술한 수학식 2에 따라 획득된 정보에 한하지 않고, 복수의 사용자들에 대하여 각각 수집된 다양한 종류의 개인 데이터와 관련된 정보를 포함할 수 있다.
따라서, 일 실시 예에 의하면, 사용자에 대하여 수집된 개인 데이터가 부족한 경우에도, 성향이 비슷한 다른 사용자들에 대해 수집된 그룹 모델 데이터에 기초하여, 개인 모델이 학습될 수 있어, 개인 모델의 정확도 및 신뢰도가 개선될 수 있다.
일 실시 예에 의한 f(x) 결정부(140)는, ILI 획득부(130) 및 ILG 획득부(150)에서 획득된 ILI 및 ILG에 적용될 가중치를 결정할 수 있다. 일 실시 예에 의하면, f(x) 결정부(140)에 따라 결정된 f(x)에 기초하여, 개인 데이터 및 그룹 모델 데이터에 기초하여 갱신된 개인 모델의 구성 요소(u i)는 아래 수학식 3에 따라 획득될 수 있다.
Figure PCTKR2020012150-appb-img-000003
일 실시 예에 따라 k+1 스텝에서, 사용자 i의 개인 모델은, f(x)에 기초하여, 가중치가 적용된 ILI와 대응되는 개인 모델 및 ILG와 대응되는 개인 모델에 기초하여, 갱신될 수 있다.
일 실시 예에 의한 f(x)에 의하면, ILG의 개인 모델이 ILI의 개인 모델과 대비하여, 사용자 i의 개인 모델에 반영되는 정도가 조절될 수 있다. 일 실시 예에 의한 f(x)는, ILG의 개인 모델이 ILI 대비 사용자 i의 개인 모델에 반영되는 정도를 조절하기 위한 상수값일 수 있다. 일 실시 예에 의한 f(x)는 x는, 상기 상수값을 결정하기 위한 임의의 변수를 나타내며, 다양한 방법에 따라 결정된 x에 기초하여, 상수값의 f(x)가 획득될 수 있다.
일 실시 예에 의한 f(x)는 ILI의 개인 모델의 신뢰도가 높을 것으로 예상될수록, ILG의 개인 모델이 사용자 i의 개인 모델에 적게 반영되도록, 결정될 수 있다. 일 실시 예에 의한 개인 모델의 신뢰도는, 개인 모델에 따른 동작이 정확하거나 사용자에게 적합한 정도를 나타낼 수 있다.
예를 들면, 개인 모델의 신뢰도는, 개인 모델에 따른 동작이 사용자의 의도와 대응되는 정도를 나타낼 수 있다. 일 실시 예에 따른 개인 모델에 따른 동작이, 사용자의 의도와 대응되는 정도가 클수록, 상기 개인 모델에 의해 사용자가 원하는 결과가 출력될 가능성이 높은 만큼, 개인 모델의 신뢰도가 큰 것으로 판단될 수 있다.
일 실시 예에 의한 개인 모델의 신뢰도는, 개인 모델의 학습과 관련된 다양한 종류의 정보들에 기초하여 결정될 수 있다.
예를 들면, ILI가 획득되는데 이용된 개인 데이터의 양이 많을수록, ILI의 개인 모델의 신뢰도가 높은 것으로 판단하고, f(x) 값이 낮은 값으로 결정될 수 있다.
또한, ILI가 획득되는데 이용된, 관측 정보와 예측 정보 간의 차이를 나타내는 손실 함수의 크기가 0에 가까울수록, ILI의 개인 모델의 신뢰도가 높은 것으로 판단하고, f(x) 값이 낮은 값으로 결정될 수 있다.
또한, 갱신 과정이 여러 번 수행될수록, 즉, k 값이 높을수록, ILI의 개인 모델의 신뢰도가 높은 것으로 판단하고, f(x) 값이 낮은 값으로 결정될 수 있다.
또한, 그룹 내 사용자들과 사용자 i 간의 상관도가 높을수록, ILG의 개인 모델의 신뢰도가 높은 것으로 판단하고, f(x) 값이 높은 값으로 결정될 수 있다.
상술한 예에 한하지 않고, 일 실시 예에 의한 f(x)는, 개인 데이터에 기초하여 갱신되는 개인 모델의 신뢰도에 기초하여, 다양한 방법에 따라 결정될 수 있다.
일 실시 예에 의한 개인 모델 학습부(160)는, f(x) 결정부(140)에 의해 결정된 f(x)에 기초하여, 상기 수학식 3에 따라 ILI 및 ILG로부터, k+1 스텝에서 갱신된 개인 모델(u i k+1)을 획득할 수 있다.
따라서, 일 실시 예에 의하면, 개인 데이터만으로 갱신된 개인 모델의 신뢰도가 낮은 경우에도, 그룹 모델 데이터에 따라 갱신된 개인 모델을 함께 이용함으로써, 신뢰도 높게 갱신된 개인 모델이 획득될 수 있다.
도 2는 일 실시 예에 의한 하나의 그룹에 속한 복수 개의 개인 모델들의 일 예를 나타낸 도면이다.
도 2를 참조하면, 하나의 그룹(200)에는, 복수의 사용자들과 각각 대응되는 개인 모델들(u1, u2, u3, u4)이 존재할 수 있다. 일 실시 예에 의한 각각의 개인 모델들은, 개인 데이터에 기초하여 획득된 ILI뿐만 아니라, 동일 그룹(200)에 속한 다른 개인 모델에 기초하여 획득된 ILG에 따라서, 갱신될 수 있다.
예를 들어, 그룹(200)에 속한 개인 모델들 중 u1에 대한 ILG는, u2, u3, 및 u4의 개인 모델들에 관련된 정보를 포함하는, 그룹 모델 데이터에 기초하여 획득될 수 있다. 일 실시 예에 의한 그룹 모델 데이터는, 각각의 개인 모델에 관련된 정보로서, u2, u3, 및 u4의 개인 모델들의 구성 요소(ex. 각 노드에 대한 노드 가중치 및 바이어스)와, 각 개인 모델들의 출력 차수(d)를 포함할 수 있다.
일 실시 예에 의하면, 도 2에 도시된 화살표에 따라서, 각각의 개인 모델들(u1, u2, u3, u4)은, 다른 개인 모델이 학습될 때, 다른 개인 모델에 그룹 모델 데이터로서, 영향을 줄 수 있다. 예를 들면, u1의 개인 모델은 u2, u3, u4의 개인 모델이 학습될 때, 그룹 모델 데이터로서, 이용될 수 있다. 또한, u2의 개인 모델은 u1, u4의 개인 모델이 학습될 때, 그룹 모델 데이터로서, 이용될 수 있다. 또한, u3의 개인 모델은 u1, u4의 개인 모델이 학습될 때, 그룹 모델 데이터로서, 이용될 수 있다. 또한, u4의 개인 모델은 u1, u2, u3의 개인 모델이 학습될 때, 그룹 모델 데이터로서, 이용될 수 있다. 따라서, u1, u2, u3, 및 u4에 대한 출력 차수는, 각각 3, 2, 2, 및 3으로 결정될 수 있다.
도 3은 일 실시 예에 의한 개인 모델의 일 예를 나타낸 도면이다.
일 실시 예에 의한 개인 모델은, 인간의 뇌가 패턴을 인식하는 방식을 모사한 신경망 모델로 구성될 수 있다. 일 실시 예에 의한 전자 장치(1000)는, 신경망 모델로 구성된 개인 모델을 이용하여, 사용자에게 다양한 서비스를 제공할 수 있다.
일 실시 예에 의한 신경망 모델은 심층 신경망(Deep Neural Network, DNN), 합성곱 신경망(Convolutional Neural Network, CNN), 순환 신경망(Recurrent Neural Network, RNN), BRDNN(Bidirectional Recurrent Deep Neural Network), 제한 볼츠만 머신 (Restricted Boltzmann Machine, RBM), 심층 신뢰 신경망 (Deep Belief Network, DBN), 심층 Q-네트워크(Deep Q-Networks) 중 하나일 수 있다. 또한, 상술한 예에 한하지 않고, 일 실시 예에 의한 로컬 모델 또는 글로벌 모델은 이외 다양한 종류의 신경망 중 하나일 수 있다.
도 3을 참조하면, 일 실시 예에 의한 신경망 모델은, 적어도 하나의 노드를 포함한 적어도 하나의 레이어를 포함할 수 있다. 예를 들면, 신경망 모델은 입력 레이어인 레이어 1과, 출력 레이어인 레이어 2를 포함할 수 있다. 또한, 일 실시 예에 의한 신경망 모델은, 입력 레이어 및 출력 레이어 사이에 적어도 하나의 히든 레이어(미도시)를 더 포함할 수 있다. 이하에서는, 설명의 편의상, 히든 레이어를 제외한 입력 레이어 및 출력 레이어를 포함하는 신경망을 예로 들어 설명하기로 한다.
일 실시 예에 의하면, 신경망 모델의 레이어 1에 적어도 하나의 입력값이 입력될 수 있다. 예를 들면, 레이어 1의 노드(N11, N12)에 각각 I1, I2의 값이 입력될 수 있다. 일 실시 예에 의하면, 레이어 1에 입력값이 입력됨에 따라서, 신경망 모델의 레이어 1 및 레이어 2에 포함된 노드들(N11, N12, N21, N22)이 처리될 수 있다.
또한, 각 레이어의 노드에서 출력된 값은 다음 층의 입력 값으로 이용될 수 있다. 예를 들면, 레이어 1의 노드(N11, N12)가 처리됨에 따라 획득된 값에 기초하여, 레이어 2의 노드(N21, N22)에 소정 값이 입력될 수 있다. 레이어 2로부터 출력된 값은 신경망 모델에서 출력 값으로서 출력될 수 있다. 예를 들면, 레이어 2에서 출력된 값인 O1 및 O2는, 신경망 모델의 출력값으로서 출력될 수 있다.
일 실시 예에 의하면, 하나의 노드로부터 출력된 하나의 값에 서로 다른 노드 가중치가 적용되고, 노드 가중치가 적용된 값에 바이어스 값이 더해짐으로써, 하나의 노드로부터 적어도 하나의 엣지 데이터가 획득될 수 있다. 엣지 데이터는, 하나의 노드로부터 출력된 하나의 값에 적어도 하나의 노드 가중치가 적용되고, 각 노드 가중치가 적용된 적어도 하나의 값에 적어도 하나의 바이어스 값이 더해짐으로써, 획득될 수 있는 데이터이다. 엣지 데이터는, 하나의 값에 적용된 노드 가중치의 개수만큼, 획득될 수 있다. 따라서, 레이어 1의 각각의 노드로부터 출력된 값은, 적어도 하나의 엣지 데이터로 변환되어 다음 레이어의 노드로 입력될 수 있다.
예를 들면, 노드 N11로부터 출력된 값에 서로 다른 노드 가중치인 W11 및 W12가 적용된 엣지 데이터는 각각 바이어스 값인 B11 및 B12가 더해진 후, 다음 레이어의 노드인 N21 및 N22로 각각 입력될 수 있다. 또한, 노드 N12로부터 출력된 값에 서로 다른 노드 가중치인 W21 및 W22가 적용된 엣지 데이터는 각각 바이어스 값인 B21 및 B22가 더해진 후, 다음 레이어의 노드인 N21 및 N22로 각각 입력될 수 있다.
일 실시 예에 의하면, ILI 및 ILG에 기초하여, 개인 모델을 구성하는 값들인, 각 노드에 적용될 수 있는 적어도 하나의 노드 가중치 값과, 바이어스 값이 변경됨으로써, 개인 모델이 학습될 수 있다.
일 실시 예에 따른 ILI는, 개인 데이터에 기초하여, 획득된 예측 정보와 관측 정보 간의 차이가 최소화될 수 있도록 하는, 개인 모델의, 적어도 하나의 노드 가중치 값과, 바이어스 값들을 포함할 수 있다.
또한, 일 실시 예에 따른 ILG는, 동일 그룹에 속하는 다른 사용자의 개인 모델을 구성하는 적어도 하나의 노드 가중치 값과, 바이어스 값에 기초하여, 갱신된, 개인 모델의, 적어도 하나의 노드 가중치 값과, 바이어스 값들을 포함할 수 있다.
또한, 일 실시 예에 의한 개인 모델의 적어도 하나의 노드 가중치 값과, 바이어스 값들은, f(x) 결정부(140)에 의해 결정된 f(x)에 기초하여, 수학식 3에 따라서, ILI 및 ILG에 각각 가중치가 적용됨에 따라, 갱신될 수 있다.
도 4는 일 실시 예에 의한 전자 장치(1000)의 내부 구성을 설명하기 위한 블록도이다.
도 5는 일 실시 예에 의한 전자 장치(1000)의 내부 구성을 설명하기 위한 블록도이다.
도 4를 참조하면, 전자 장치(1000)는, 프로세서(1300), 통신부(1500) 및 출력부(1200)를 포함할 수 있다. 그러나, 도 4에 도시된 구성 요소 모두가 전자 장치(1000)의 필수 구성 요소인 것은 아니다. 도 4에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 도 4에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있다.
예를 들면, 전자 장치(1000)는 도 5에 도시된 바와 같이, 일부 실시예에 따른 전자 장치(1000)는, 프로세서(1300), 통신부(1500) 및 출력부(1200) 이외에 사용자 입력부(1100), 센싱부(1400), A/V 입력부(1600) 및 메모리(1700)를 더 포함할 수도 있다.
사용자 입력부(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
일 실시 예에 의하면, 사용자 입력부(1100)는, 전자 장치(1000)에서 개인 모델을 학습하거나, 개인 모델을 이용한 다양한 동작을 수행하기 위한 사용자 입력을 수행할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력한다. 일 실시 예에 의하면, 디스플레이부(1210)는 일 실시 예에 따라 학습된 개인 모델에 관한 정보나, 학습된 개인 모델에 따라 수행된 동작의 결과를 표시할 수 있다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 전자 장치(1000)의 구현 형태에 따라 전자 장치(1000)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 일 실시 예에 의하면, 음향 출력부(1220)는 일 실시 예에 따라 학습된 개인 모델에 관한 정보나, 학습된 개인 모델에 따라 수행된 동작의 결과를 출력할 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다. 일 실시 예에 의하면, 진동 모터(1230)는 일 실시 예에 따라 학습된 개인 모델에 관한 정보나, 학습된 개인 모델에 따라 수행된 동작의 결과를 출력할 수 있다.
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
전자 장치(1000)는 적어도 하나의 프로세서(1300)를 포함할 수 있다. 예를 들면, 전자 장치(1000)는 CPU(Central Processing Unit), GPU(Graphics Processing Unit), NPU(Neural Processing Unit) 등의 다양한 종류의 프로세서를 포함할 수 있다.
프로세서(1300)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(1700)로부터 프로세서(1300)에 제공되거나, 통신부(1500)를 통해 수신되어 프로세서(1300)로 제공될 수 있다. 예를 들면 프로세서(1300)는 메모리와 같은 기록 장치에 저장된 프로그램 코드에 따라 명령을 실행하도록 구성될 수 있다.
일 실시 예에 의한 프로세서(1300)는 개인 데이터 및 그룹 모델 데이터에 기초하여, 개인 모델을 학습할 수 있다. 일 실시 예에 의하면, 개인 데이터에 기초하여 학습된 개인 모델의 구성 요소를 나타내는 제1 정보와, 전자 장치(1000)의 사용자가 속한 그룹의 복수의 사용자들에 대하여 수집된 그룹 모델 데이터에 기초하여 학습된 개인 모델의 구성 요소를 나타내는 제2 정보에 기초하여, 개인 모델이 학습될 수 있다.
일 실시 예에 의한 전자 장치(1000)는 제1 정보의 신뢰도에 기초하여, 제1 정보 및 제2 정보 각각에 적용될, 제1 가중치 및 제2 가중치를 결정하고, 제1 정보 및 제2 정보에 제1 가중치 및 제2 가중치를 적용함으로써, 개인 모델을 학습할 수 있다.
예를 들면, 제1 정보의 신뢰도가 낮을수록, 제1 가중치는 제2 가중치 대비 낮은 값으로 결정됨으로써, 개인 데이터만으로 갱신된 개인 모델의 신뢰도가 낮은 경우에도, 그룹 모델 데이터에 따라 갱신된 개인 모델을 함께 이용함으로써, 신뢰도 높게 갱신된 개인 모델이 획득될 수 있다.
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Geomagnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
통신부(1500)는, 전자 장치(1000)가 서버(2000) 또는 외부 장치(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
일 실시 예에 의한, 통신부(1500)는 개인 모델을 학습하는데 필요한 데이터를 외부 장치(미도시)와 송수신할 수 있다. 예를 들면, 통신부(1500)는, 사용자가 속한 그룹의 복수의 사용자들에 대하여 수집된 그룹 모델 데이터를 외부 장치로부터 수신할 수 있다. 상기 그룹 모델 데이터에 기초하여, ILG가 획득될 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다.
일 실시 예에 의한 A/V 입력부(1600)에 의해 생성된 음성 데이터 또는 동영상 데이터는, 개인 모델을 학습하기 위한 개인 데이터로서, 이용될 수 있다. 상술한 예에 한하지 않고, 상기 음성 데이터 또는 동영상 데이터는 개인 모델을 학습하기 위한 다양한 방법에 따라 이용될 수 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
일 실시 예에 의한 메모리(1700)는 개인 모델을 학습하는데 필요한 데이터를 저장할 수 있다. 예를 들면, 메모리(1700)는 개인 모델을 학습하기 위한 개인 데이터 및 그룹 모델 데이터를 저장할 수 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다.
도 6은 일 실시 예에 의한 개인 모델을 학습하는 방법을 나타낸 순서도이다.
도 6을 참조하면, 단계 610에서, 전자 장치(1000)는 개인 데이터에 기초하여 개인 모델을 학습할 수 있다. 일 실시 예에 의한 전자 장치(1000)는, 개인 모델을 학습한 결과, 학습된 개인 모델의 구성 요소를 나타내는 제1 정보인, ILI를 획득할 수 있다.
단계 620에서, 전자 장치(1000)는, 사용자가 속한 그룹의 복수의 사용자들에 대하여 수집된 그룹 모델 데이터에 기초하여, 사용자의 개인 모델을 학습함으로써, 학습된 개인 모델의 구성 요소를 나타내는 제2 정보인, ILG를 획득할 수 있다.
일 실시 예에 의한 그룹 모델 데이터는, 복수의 사용자들에 대하여 각각 수집된 개인 데이터에 기초하여 학습된 복수 개의 개인 모델에 관련된 정보를 포함할 수 있다. 예를 들면, 그룹 모델 데이터는, 복수의 사용자들과 각각 대응되는 개인 모델의 구성 요소에 관한 정보를 포함할 수 있다.
단계 630에서, 전자 장치(1000)는, 제1 정보의 신뢰도에 기초하여, 제1 정보 및 제2 정보 각각에 적용될 제1 가중치 및 제2 가중치를 결정할 수 있다. 일 실시 예에 의한 제1 정보의 신뢰도는, 개인 데이터에 기초하여 학습된 개인 모델에 대한 신뢰도를 나타낼 수 있다.
일 실시 예에 의한 제1 정보의 신뢰도는, 개인 모델에 따른 동작이 사용자의 의도와 대응되는 정도를 나타내는 값일 수 있다.
따라서, 일 실시 예에 의한 제1 정보의 신뢰도는, 개인 모델의 학습에 영향을 주는, 개인 데이터에 관한 정보, 또는 개인 모델의 학습 상황에 관련된 정보에 기초하여, 결정될 수 있다.
예를 들면, 제1 정보의 신뢰도는, 제1 정보가 획득되는데 이용된 개인 데이터의 양, 제1 정보가 획득되는데 이용된 관측 정보와 예측 정보 간의 차이를 나타내는 손실 함수의 크기가 0에 가까운지 여부, 일 실시 예에 따라서, 제1 정보 및 제2 정보에 기초하여, 개인 모델이 학습되는 동작이 반복 수행된 횟수, 및 사용자와 동일 그룹에 속한 복수의 사용자들과 사용자 간의 상관도가 높은지 여부 중 적어도 하나에 기초하여, 결정될 수 있다.
일 실시 예에 의한 제1 가중치 및 제2 가중치는, 제1 정보의 신뢰도에 따라 서로 상대적인 값으로 결정될 수 있으므로, 사용자와 동일 그룹에 속한 복수의 사용자들과 사용자 간의 상관도가 높은지 여부는, 제2 가중치와 대응되는 제2 정보에 관한 것이지만, 제1 정보의 신뢰도를 결정하는데 이용될 수 있다.
일 실시 예에 의한 제1 가중치 및 제2 가중치는, 두 가중치의 합이 1이 되도록 결정될 수 있다. 예를 들어, 제2 가중치는, 제1 가중치가 상술한 신뢰도에 기초하여 결정됨에 따라서, 1에서 제1 가중치를 뺀 값으로 결정될 수 있다.
단계 640에서, 전자 장치(1000)는 단계 630에서 결정된 제1 가중치 및 제2 가중치를 각각 제1 정보 및 제2 정보에 적용함으로써, 개인 모델을 학습할 수 있다.
일 실시 예에 의하면, 상술한 수학식 3에 따라서, 제1 가중치 및 제2 가중치가 적용된 제1 정보 및 제2 정보가 더해진 결과가, 일 실시 예에 따라 학습된 개인 모델의 구성요소로서 획득될 수 있다.
일 실시 예에 의하면, 개인 데이터만으로 갱신된 개인 모델의 신뢰도가 낮은 경우에도, 그룹 모델 데이터에 따라 갱신된 개인 모델을 함께 이용함으로써, 신뢰도 높게 갱신된 개인 모델이 획득될 수 있다.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 본 명세서에서, “부”는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에서, 사용자의 개인 모델을 학습하는 방법에 있어서,
    상기 사용자에 대하여 수집된 개인 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제1 정보를 획득하는 단계;
    상기 사용자가 속한 그룹의 복수의 사용자들에 대한 그룹 모델 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제2 정보를 획득하는 단계;
    상기 제1 정보의 신뢰도에 기초하여, 상기 제1 정보 및 제2 정보 각각에 적용될 제1 가중치 및 제2 가중치를 결정하는 단계; 및
    상기 결정된 제1 가중치 및 제2 가중치가 적용된, 상기 제1 정보 및 제2 정보에 기초하여, 상기 개인 모델을 학습하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 상기 제1 정보의 신뢰도는
    상기 개인 모델에 따른 동작이 상기 사용자의 의도와 대응되는 정도를 나타내는, 방법.
  3. 제1항에 있어서, 상기 제1 정보의 신뢰도는,
    상기 제1 정보가 획득되는데 이용된 상기 개인 데이터의 양, 상기 제1 정보가 획득되는데 이용된 관측 정보와 예측 정보 간의 차이를 나타내는 손실 함수의 크기가 0에 가까운지 여부, 상기 제1 정보 및 제2 정보에 기초하여, 상기 개인 모델이 학습되는 동작이 반복 수행된 횟수, 및 상기 복수의 사용자들과 상기 사용자 간의 상관도가 높은지 여부 중 적어도 하나에 기초하여, 결정되는, 방법.
  4. 제1항에 있어서, 상기 제1 가중치 및 제2 가중치의 합이 1이 되도록, 상기 제1 가중치 및 제2 가중치가 결정되는, 방법.
  5. 제1항에 있어서, 상기 그룹 모델 데이터는,
    상기 복수의 사용자들에 대하여 각각 수집된 개인 데이터에 기초하여 학습된 복수 개의 개인 모델에 관련된 정보를 포함하는, 방법.
  6. 제5항에 있어서, 상기 복수 개의 개인 모델에 관련된 정보는,
    상기 복수 개의 개인 모델의 구성 요소 및 상기 복수 개의 개인 모델 각각에 대한 출력 차수를 포함하고,
    상기 출력 차수는, 상기 복수의 사용자들과 각각 대응되는 개인 모델이 상기 그룹 모델 데이터로서 영향을 주는, 다른 사용자의 개인 모델의 개수를 나타내는, 방법.
  7. 제1항에 있어서, 상기 복수의 사용자들은
    상기 복수의 사용자들에 대하여 각각 수집된 개인 데이터들간의 유사도에 기초하여, 그룹화되는, 방법.
  8. 사용자의 개인 모델을 학습하는 전자 장치에 있어서,
    상기 사용자가 속한 그룹의 복수의 사용자들에 대한 그룹 모델 데이터를 수신하는 통신부;
    상기 사용자에 대하여 수집된 개인 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제1 정보를 획득하고, 상기 그룹 모델 데이터에 기초하여 상기 개인 모델을 학습함으로써, 상기 학습된 개인 모델의 구성 요소를 포함하는 제2 정보를 획득하고, 상기 제1 정보의 신뢰도에 기초하여, 상기 제1 정보 및 제2 정보 각각에 적용될 제1 가중치 및 제2 가중치를 결정하고, 상기 결정된 제1 가중치 및 제2 가중치가 적용된, 상기 제1 정보 및 제2 정보에 기초하여, 상기 개인 모델을 학습하는 적어도 하나의 프로세서; 및
    상기 학습된 개인 모델에 기초하여 수행된 동작의 결과를 출력하는 출력부를 포함하는, 전자 장치.
  9. 제8항에 기초하여, 상기 제1 정보의 신뢰도는
    상기 개인 모델에 따른 동작이 상기 사용자의 의도와 대응되는 정도를 나타내는, 전자 장치.
  10. 제8항에 있어서, 상기 제1 정보의 신뢰도는,
    상기 제1 정보가 획득되는데 이용된 상기 개인 데이터의 양, 상기 제1 정보가 획득되는데 이용된 관측 정보와 예측 정보 간의 차이를 나타내는 손실 함수의 크기가 0에 가까운지 여부, 상기 제1 정보 및 제2 정보에 기초하여, 상기 개인 모델이 학습되는 동작이 반복 수행된 횟수, 및 상기 복수의 사용자들과 상기 사용자 간의 상관도가 높은지 여부 중 적어도 하나에 기초하여, 결정되는, 전자 장치.
  11. 제8항에 있어서, 상기 제1 가중치 및 제2 가중치의 합이 1이 되도록, 상기 제1 가중치 및 제2 가중치가 결정되는, 전자 장치.
  12. 제8항에 있어서, 상기 그룹 모델 데이터는,
    상기 복수의 사용자들에 대하여 각각 수집된 개인 데이터에 기초하여 학습된 복수 개의 개인 모델에 관련된 정보를 포함하는, 전자 장치.
  13. 제12항에 있어서, 상기 복수 개의 개인 모델에 관련된 정보는,
    상기 복수 개의 개인 모델의 구성 요소 및 상기 복수 개의 개인 모델 각각에 대한 출력 차수를 포함하고,
    상기 출력 차수는, 상기 복수의 사용자들과 각각 대응되는 개인 모델이 상기 그룹 모델 데이터로서 영향을 주는, 다른 사용자의 개인 모델의 개수를 나타내는, 전자 장치.
  14. 제8항에 있어서, 상기 복수의 사용자들은
    상기 복수의 사용자들에 대하여 각각 수집된 개인 데이터들간의 유사도에 기초하여, 그룹화되는, 전자 장치.
  15. 제1항 내지 제7항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
PCT/KR2020/012150 2020-01-23 2020-09-09 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법 WO2021149890A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/480,859 US20220004874A1 (en) 2020-01-23 2021-09-21 Electronic apparatus training individual model of user and method of operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200009312A KR20210095429A (ko) 2020-01-23 2020-01-23 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법
KR10-2020-0009312 2020-01-23

Publications (1)

Publication Number Publication Date
WO2021149890A1 true WO2021149890A1 (ko) 2021-07-29

Family

ID=76993040

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/012150 WO2021149890A1 (ko) 2020-01-23 2020-09-09 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법

Country Status (3)

Country Link
US (1) US20220004874A1 (ko)
KR (1) KR20210095429A (ko)
WO (1) WO2021149890A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102485528B1 (ko) * 2021-11-02 2023-01-06 주식회사 에이젠글로벌 금융 서비스를 위한 금융 모델 및 금융 데이터 가치 평가 방법 및 이러한 방법을 수행하는 장치
KR102414823B1 (ko) * 2021-11-02 2022-06-30 주식회사 에이젠글로벌 금융 서비스를 위한 금융 세그먼트 분화 방법 및 이러한 방법을 수행하는 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100086676A (ko) * 2009-01-23 2010-08-02 삼성전자주식회사 컨텐츠에 대한 선호도 예측 방법 및 장치와, 샘플 컨텐츠 선정 방법 및 장치
KR20150105830A (ko) * 2014-03-10 2015-09-18 단국대학교 산학협력단 사용자 프로파일과 상황 정보를 이용한 선호도 기반 하이브리드 필터링 콘텐츠 추천 장치 및 방법
KR20170048970A (ko) * 2015-10-27 2017-05-10 삼성전자주식회사 혈압 추정 방법
KR20180093632A (ko) * 2017-02-14 2018-08-22 영남대학교 산학협력단 멀티 모달 데이터 기반 표정인식방법 및 장치
US10339470B1 (en) * 2015-12-11 2019-07-02 Amazon Technologies, Inc. Techniques for generating machine learning training data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100086676A (ko) * 2009-01-23 2010-08-02 삼성전자주식회사 컨텐츠에 대한 선호도 예측 방법 및 장치와, 샘플 컨텐츠 선정 방법 및 장치
KR20150105830A (ko) * 2014-03-10 2015-09-18 단국대학교 산학협력단 사용자 프로파일과 상황 정보를 이용한 선호도 기반 하이브리드 필터링 콘텐츠 추천 장치 및 방법
KR20170048970A (ko) * 2015-10-27 2017-05-10 삼성전자주식회사 혈압 추정 방법
US10339470B1 (en) * 2015-12-11 2019-07-02 Amazon Technologies, Inc. Techniques for generating machine learning training data
KR20180093632A (ko) * 2017-02-14 2018-08-22 영남대학교 산학협력단 멀티 모달 데이터 기반 표정인식방법 및 장치

Also Published As

Publication number Publication date
US20220004874A1 (en) 2022-01-06
KR20210095429A (ko) 2021-08-02

Similar Documents

Publication Publication Date Title
WO2018212494A1 (ko) 객체를 식별하는 방법 및 디바이스
WO2018117428A1 (en) Method and apparatus for filtering video
WO2020060223A1 (ko) 애플리케이션의 번역 정보를 제공하는 디바이스 및 방법
WO2020067633A1 (en) Electronic device and method of obtaining emotion information
WO2021040092A1 (ko) 음성 인식 서비스 제공 방법 및 장치
WO2021149890A1 (ko) 사용자의 개인 모델을 학습하는 전자 장치 및 그 동작 방법
WO2020085796A1 (en) Electronic device and method for controlling electronic device thereof
WO2020159217A1 (en) Electronic device and method for determining task including plural actions
WO2019177373A1 (en) Electronic device for controlling predefined function based on response time of external electronic device on user input, and method thereof
WO2021045552A1 (en) Electronic device for image synthesis and operating method thereof
EP3820369A1 (en) Electronic device and method of obtaining emotion information
WO2020071854A1 (en) Electronic apparatus and control method thereof
WO2018124500A1 (ko) 객체의 인식 결과를 제공하는 방법 및 전자 장치
WO2019172642A1 (ko) 심장 박동을 측정하기 위한 전자 장치 및 방법
EP3953869A1 (en) Learning method of ai model and electronic apparatus
WO2022039433A1 (ko) 대화 텍스트에 대한 요약 정보를 생성하는 전자 장치 및 그 동작 방법
WO2020050554A1 (ko) 전자 장치 및 그의 제어방법
WO2022158692A1 (ko) 포스 터치를 식별하는 전자 장치 및 그 동작 방법
EP3545685A1 (en) Method and apparatus for filtering video
WO2019151689A1 (ko) 전자 장치 및 이의 제어 방법
WO2021210882A1 (ko) 플랜을 제공하는 전자 장치 및 그 동작 방법
WO2021049730A1 (ko) 영상 인식 모델을 학습하는 전자 장치 및 그 동작 방법
WO2022039494A1 (ko) 단말의 모델을 갱신하는 서버 및 그 동작 방법
WO2022131476A1 (ko) 인공지능 모델을 변환하는 전자 장치 및 그 동작 방법
WO2020226264A1 (ko) 영상에 기초하여 위치 정보를 획득하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20914832

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20914832

Country of ref document: EP

Kind code of ref document: A1