KR20200051540A - Server and operating method thereof - Google Patents

Server and operating method thereof Download PDF

Info

Publication number
KR20200051540A
KR20200051540A KR1020200050796A KR20200050796A KR20200051540A KR 20200051540 A KR20200051540 A KR 20200051540A KR 1020200050796 A KR1020200050796 A KR 1020200050796A KR 20200050796 A KR20200050796 A KR 20200050796A KR 20200051540 A KR20200051540 A KR 20200051540A
Authority
KR
South Korea
Prior art keywords
image
information
image filter
type
target terminal
Prior art date
Application number
KR1020200050796A
Other languages
Korean (ko)
Inventor
안상일
신범준
오민식
최은희
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to KR1020200050796A priority Critical patent/KR20200051540A/en
Publication of KR20200051540A publication Critical patent/KR20200051540A/en
Priority to KR1020210013427A priority patent/KR102289194B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a server capable of recommending two or more filters suitable for content included in an image to be photographed by a user. The server comprises: a communication part receiving an image from a target terminal among a plurality of terminals; and a control part identifying the type of content included in the received image, and selecting two or more different image filters by using a recommendation algorithm for an image filter to be applied to the image, wherein the control part selects a first image filter predicted to have a highest probability of being selected by a user of the target terminal by using the recommendation algorithm and a second image filter predicted to have a second highest probability of being selected by the user of the target terminal, and the communication part can transmit information on the first image filter and information on the second image filter to the target terminal.

Description

서버 및 그것의 동작 방법{SERVER AND OPERATING METHOD THEREOF}Server and its operation method {SERVER AND OPERATING METHOD THEREOF}

기재된 실시예는 사용자가 촬영하려는 이미지에 포함된 컨텐츠에 따라 사용자가 선택할 것으로 예측되는 두 개 이상의 이미지 필터를 추천할 수 있는 서버 및 그것의 동작 방법에 관한 것이다.The described embodiment relates to a server capable of recommending two or more image filters predicted by a user according to content included in an image to be photographed by a user, and a method of operating the same.

통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 휴대용 개인 단말기가 널리 보급되고 있다. 대부분의 단말기는 이미지 촬영 기술을 포함하고 있다. 사용자는 단말기를 이용하여 다양한 컨텐츠를 포함하는 이미지를 촬영할 수 있다.2. Description of the Related Art With the development of communication technology and the miniaturization of electronic devices, personal terminals are widely spread to general consumers. In particular, in recent years, portable personal terminals such as smart phones or smart tablets have been widely used. Most terminals include image capture technology. The user can take an image including various contents using a terminal.

또한, 사용자는 단말기에 다운로드 가능한 다양한 애플리케이션을 이용하여 촬영된 이미지를 보정할 수 있다. 예를 들어, 사용자는 애플리케이션에서 제공되는 다양한 이미지 필터들을 이용하여 촬영된 이미지를 보정할 수 있다. 애플리케이션을 통해 제공되는 이미지 필터가 다양하기 때문에 사용자는 촬영된 이미지에 모든 이미지 필터들을 적용해보기 어려울 수 있다. 또한, 사용자는 촬영된 이미지에 포함된 컨텐츠에 가장 적합한 이미지 필터가 무엇인지 모를 수 있다.In addition, the user can correct the captured image using various applications that can be downloaded to the terminal. For example, the user can correct the captured image using various image filters provided in the application. Due to the variety of image filters provided through the application, users may find it difficult to apply all image filters to the captured image. In addition, the user may not know what image filter is most suitable for the content included in the captured image.

기재된 실시예에 따르면 사용자에 의해 촬영될 이미지에 포함된 컨텐츠에 적합한 두 개 이상의 이미지 필터를 추천할 수 있는 서버 및 그것의 동작 방법이 제공될 수 있다.According to the described embodiment, a server capable of recommending two or more image filters suitable for content included in an image to be photographed by a user and a method of operating the same may be provided.

또한, 실시예에 따르면 두 개 이상의 이미지 필터를 자동으로 추천해줌으로써 사용자의 편리성을 향상시킬 수 서버 및 그것의 동작 방법이 제공될 수 있다.Further, according to an embodiment, a server and a method of operating the same may be provided to improve user convenience by automatically recommending two or more image filters.

본 발명의 실시예에 따른 서버의 동작 방법은 복수의 단말기 중 대상 단말기로부터 이미지를 수신하는 단계, 수신된 이미지에 포함된 컨텐츠의 종류를 식별하는 단계, 이미지에 적용 가능한 이미지 필터에 대한 추천 알고리즘을 준비하는 단계, 추천 알고리즘을 이용하여 컨텐츠의 종류에 대응하는 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계, 및 선택된 두 개 이상의 이미지 필터에 대한 정보를 대상 단말기에 전송하는 단계를 포함할 수 있다.A method of operating a server according to an embodiment of the present invention includes receiving an image from a target terminal among a plurality of terminals, identifying a type of content included in the received image, and recommending an algorithm for an image filter applicable to the image. The method may include preparing, selecting two or more different image filters corresponding to types of content using a recommendation algorithm, and transmitting information on the selected two or more image filters to the target terminal.

실시예로서, 서버의 동작 방법은 이미지에 포함된 컨텐츠의 종류를 식별하기 전에 다수의 사진에 대한 이미지 데이터 및 다수의 사진에 포함된 컨텐츠의 종류 사이의 상관관계에 대해 학습된, 이미지에 포함된 컨텐츠의 종류를 식별하기 위한 학습 모델을 준비하는 단계를 더 포함할 수 있다.As an embodiment, the method of operation of the server is included in the image, which is learned about the correlation between the image data for multiple photos and the kind of content included in the multiple photos before identifying the kind of content included in the image. The method may further include preparing a learning model for identifying the type of content.

실시예로서, 서버의 동작 방법은 대상 단말기로부터 대상 단말기의 사용자의 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터의 종류에 대한 정보 중 적어도 하나를 포함하는 사용자 정보를 수신하는 단계를 더 포함할 수 있다.As an embodiment, the method of operation of the server further includes receiving user information including at least one of hobby information, gender information, age information, or information on a preferred image filter type from a user of the target terminal from the target terminal. It can contain.

실시예로서, 이미지에 적용될 이미지 필터에 대한 추천 알고리즘을 준비하는 단계는 복수의 단말기 중 대상 단말기를 제외한 적어도 하나 이상의 단말기 각각으로부터 사용자 정보 및 이미지를 수신하는 단계, 적어도 하나 이상의 단말기 각각으로부터 수신된 이미지에 포함된 컨텐츠의 종류를 식별하는 단계, 적어도 하나 이상의 단말기 각각으로부터 이미지에 적용하기 위해 선택된 이미지 필터의 종류에 대한 정보를 수신하는 단계, 및 사용자 정보, 식별된 컨텐츠의 종류에 대한 정보, 및 수신된 이미지 필터의 종류에 대한 정보를 이용하여 학습 모델을 준비하는 단계를 포함할 수 있다. As an embodiment, preparing a recommendation algorithm for an image filter to be applied to an image may include receiving user information and an image from each of at least one terminal excluding a target terminal among a plurality of terminals, and images received from each of the at least one terminal Identifying the type of content included in, Receiving information about the type of the image filter selected to apply to the image from each of the at least one terminal, and user information, information on the type of the identified content, and receiving And preparing a training model using information on the type of the image filter.

실시예로서, 사용자 정보, 식별된 컨텐츠의 종류에 대한 정보, 및 수신된 이미지 필터의 종류에 대한 정보를 이용하여 학습 모델을 준비하는 단계는 사용자 정보, 및 식별된 컨텐츠의 종류에 대한 정보와 수신된 이미지 필터의 종류에 대한 정보 사이의 상관관계에 대해 학습된 서로 다른 두 개 이상의 이미지 필터를 선택하기 위한 학습 모델을 준비하는 단계를 포함할 수 있다.As an embodiment, preparing a learning model using user information, information on the type of the identified content, and information on the type of the received image filter may include receiving and receiving user information and information on the type of the identified content. And preparing a learning model for selecting two or more different image filters trained for correlation between information on the types of image filters.

실시예로서, 추천 알고리즘을 이용하여 컨텐츠의 종류에 대응하는 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계는 대상 단말기로부터 수신된 사용자 정보, 대상 단말기로부터 수신된 이미지에서 식별된 컨텐츠의 종류에 대한 정보 및 학습 모델을 이용하여 대상 단말기의 사용자가 선택할 확률이 높을 것으로 예측되는 두 개 이상의 이미지 필터를 선택하는 단계를 포함할 수 있다. As an embodiment, the step of selecting two or more different image filters corresponding to the type of content using the recommendation algorithm includes information on the user information received from the target terminal and the type of content identified in the image received from the target terminal. And selecting two or more image filters predicted to be highly likely to be selected by the user of the target terminal using the learning model.

실시예로서, 수신된 이미지에 포함된 컨텐츠의 종류를 식별하는 단계는 대상 단말기로부터 수신된 이미지에 포함된 컨텐츠가 제1 컨텐츠인 것으로 판단하는 단계를 포함하고, 이미지에 적용될 이미지 필터에 대한 추천 알고리즘을 준비하는 단계는 대상 단말기로부터 이미지가 수신되기 전에 수신된, 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보 및 복수의 단말기 중 대상 단말기를 제외한 적어도 하나 이상의 단말기로부터 각각 수신된, 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보를 준비하는 단계를 포함할 수 있다. As an embodiment, the step of identifying the type of content included in the received image includes determining that the content included in the image received from the target terminal is the first content, and a recommendation algorithm for the image filter to be applied to the image The step of preparing the image filter history information for the type of the image filter selected to be applied to the image including the first content, which is received before the image is received from the target terminal, and at least one or more of the plurality of terminals excluding the target terminal And preparing image filter history information for a type of the image filter selected to be applied to the image including the first content, respectively received from the terminal.

실시예로서, 추천 알고리즘을 이용하여 컨텐츠의 종류에 대응하는 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계는 적어도 하나 이상의 단말기로부터 각각 수신된, 이미지 필터 이력 정보 중에서 대상 단말기로부터 수신된 이미지 필터 이력 정보에 포함된 이미지 필터와 중복된 이미지 필터를 가장 많이 포함하는 이미지 필터 이력 정보를 선택하는 단계, 및 선택된 이미지 필터 이력 정보 중에서 대상 단말기로부터 수신된 이미지 필터 이력 정보와 중복되지 않은 이미지 필터에 기초하여 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계를 포함할 수 있다.As an embodiment, the step of selecting two or more different image filters corresponding to the type of content using the recommendation algorithm may include image filter history information received from a target terminal among image filter history information received from at least one terminal, respectively. Selecting the image filter history information including the image filter included in the image filter and the duplicated image filter most, and the image filter history information received from the target terminal among the selected image filter history information and each other based on the non-overlapping image filter And selecting two or more other image filters.

실시예로서, 수신된 이미지에 포함된 컨텐츠의 종류를 식별하는 단계는 컨텐츠는 사람, 특정 오브젝트(object), 특정 동물, 특정 풍경, 특정 패턴 또는 특정 색상 중 적어도 하나를 포함하는지 여부를 검출하는 단계를 포함할 수 있다.As an embodiment, the step of identifying the type of content included in the received image may include detecting whether the content includes at least one of a person, a specific object, a specific animal, a specific landscape, a specific pattern, or a specific color. It may include.

실시예로서, 추천 알고리즘을 이용하여 컨텐츠의 종류에 대응하는 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계는 추천 알고리즘을 이용하여 대상 단말기의 사용자가 선택할 확률이 가장 높을 것으로 예측된 제1 이미지 필터, 및 대상 단말기의 사용자가 선택할 확률이 두 번째로 높을 것으로 예측된 제2 이미지 필터를 선택하는 단계를 포함할 수 있다. As an embodiment, the step of selecting two or more different image filters corresponding to the type of content using the recommendation algorithm may include a first image filter predicted to have the highest probability of being selected by a user of the target terminal using the recommendation algorithm, And selecting a second image filter predicted to be the second highest probability that the user of the target terminal will select.

본 발명의 실시예에 따른 서버는 복수의 단말기 중 대상 단말기로부터 이미지를 수신하는 통신부, 및 수신된 이미지에 포함된 컨텐츠의 종류를 식별하고, 이미지에 적용될 이미지 필터에 대한 추천 알고리즘을 이용하여 서로 다른 두 개 이상의 이미지 필터를 선택하는 제어부를 포함하고, 제어부는 추천 알고리즘을 이용하여 대상 단말기의 사용자가 선택할 확률이 가장 높을 것으로 예측된 제1 이미지 필터, 및 대상 단말기의 사용자가 선택할 확률이 두 번째로 높을 것으로 예측된 제2 이미지 필터를 선택하고, 통신부는 제1 이미지 필터에 대한 정보 및 제2 이미지 필터에 대한 정보를 대상 단말기에 전송할 수 있다. The server according to an embodiment of the present invention identifies a type of content included in the received image, and a communication unit that receives an image from a target terminal among a plurality of terminals, and uses different recommendation algorithms for image filters to be applied to the images It includes a control unit for selecting two or more image filters, the control unit using a recommendation algorithm, the first image filter predicted to be the most likely to be selected by the user of the target terminal, and the second probability of selection by the user of the target terminal The second image filter predicted to be high is selected, and the communication unit may transmit information on the first image filter and information on the second image filter to the target terminal.

실시예로서, 제어부는 대상 단말기로부터 수신된 이미지에 포함된 컨텐츠가 제1 컨텐츠인 것으로 판단하고, 통신부는 대상 단말기로부터 이미지가 수신되기 전에 수신된, 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보 및 복수의 단말기 중 대상 단말기를 제외한 적어도 하나 이상의 단말기로부터 각각 수신된, 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보를 수신할 수 있다. As an embodiment, the control unit determines that the content included in the image received from the target terminal is the first content, and the communication unit is selected to be applied to the image including the first content received before the image is received from the target terminal. Image filter history information for the type of image filter and image filter history information for the type of the image filter selected to be applied to the image including the first content, respectively, received from at least one terminal excluding the target terminal among the plurality of terminals. Can receive.

실시예로서, 제어부는 적어도 하나 이상의 단말기로부터 각각 수신된, 이미지 필터 이력 정보 중에서 대상 단말기로부터 수신된 이미지 필터 이력 정보에 포함된 이미지 필터와 중복된 이미지 필터를 가장 많이 포함하는 이미지 필터 이력 정보를 선택하고, 선택된 이미지 필터 이력 정보 중에서 대상 단말기로부터 수신된 이미지 필터 이력 정보와 중복되지 않은 이미지 필터에 기초하여 서로 다른 두 개 이상의 이미지 필터를 선택할 수 있다.As an embodiment, the control unit selects image filter history information including the image filter history information received from the target terminal among the image filter history information received from at least one or more terminals, and the most overlapped image filters. Then, two or more different image filters may be selected from the selected image filter history information based on the image filter history information received from the target terminal and the image filter that is not duplicated.

실시예로서, 통신부는 대상 단말기로부터 대상 단말기의 사용자의 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터의 종류에 대한 정보 중 적어도 하나를 포함하는 사용자 정보를 수신할 수 있다.As an embodiment, the communication unit may receive user information including at least one of hobby information, gender information, age information, or information on a preferred image filter type of the user of the target terminal from the target terminal.

실시예로서, 통신부는 복수의 단말기 중 대상 단말기를 제외한 적어도 하나 이상의 단말기 각각으로부터 사용자 정보, 이미지 필터가 적용된 이미지 및 이미지 필터가 적용된 이미지의 이미지 필터의 종류에 대한 정보를 수신하고, 제어부는 적어도 하나 이상의 단말기 각각으로부터 수신된 이미지 필터가 적용된 이미지에 포함된 컨텐츠의 종류를 식별하고, 사용자 정보, 식별된 컨텐츠의 종류, 및 수신된 이미지 필터의 종류 사이의 상관관계에 대해 학습된, 서로 다른 두 개 이상의 이미지 필터를 선택하기 위한 추천 알고리즘을 준비할 수 있다.As an embodiment, the communication unit receives information about the type of the image filter of the user information, the image applied with the image filter, and the image applied with the image filter from each of at least one or more terminals excluding the target terminal among the plurality of terminals, and the control unit includes at least one Two different types, which are identified for the type of content included in the image to which the image filter received from each of the above terminals is applied, and learned about the correlation between the user information, the type of the identified content, and the type of the received image filter A recommendation algorithm for selecting the above image filters can be prepared.

기재된 실시예에 따르면 사용자에 의해 촬영될 이미지에 포함된 컨텐츠에 적합한 서로 다른 두 개 이상의 이미지 필터가 자동으로 추천될 수 있다.According to the described embodiment, two or more different image filters suitable for content included in an image to be photographed by a user may be automatically recommended.

또한, 실시예에 따르면 서로 다른 두 개 이상의 이미지 필터를 자동으로 추천해줌으로써 사용자의 편리성이 향상될 수 있다.In addition, according to an embodiment, the user's convenience may be improved by automatically recommending two or more different image filters.

도 1은 본 발명의 실시예에 따른 전자 장치가 동작하는 환경을 나타내는 네트워크 구성도이다.
도 2는 본 발명의 실시예에 따른 단말기의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 서버의 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시예에 따른 서버의 동작 방법을 보여주는 블록도이다.
도 5는 본 발명의 실시예에 따른 서버가 추천 알고리즘을 준비하는 방법을 보여주는 순서도이다.
도 6 내지 도 8은 본 발명의 실시예에 따른 단말기로부터 사용자 입력 정보가 생성되는 방법을 보여주는 도면이다.
도 9는 본 발명의 다른 실시예에 따른 서버의 동작 방법을 보여주는 순서도이다.
도 10은 본 발명의 다른 실시예에 따른 서버가 추천 알고리즘을 준비하는 방법을 보여주는 순서도이다.
도 11은 본 발명의 또 다른 실시예에 따른 서버의 동작 방법을 보여주는 순서도이다.
도 12는 본 발명의 실시예에 따른 서버에 준비된 컨텐츠의 종류별로 선택된 이미지 필터의 종류에 대한 정보를 보여주는 도면이다.
도 13 본 발명의 실시예에 따른 단말기 및 서버의 통신 방법을 보여주는 도면이다.
도 14는 본 발명의 다른 실시예에 따른 서버의 동작 방법을 보여주는 순서도이다.
1 is a network configuration diagram illustrating an environment in which an electronic device operates according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a terminal according to an embodiment of the present invention.
3 is a block diagram showing the configuration of a server according to an embodiment of the present invention.
4 is a block diagram showing a method of operating a server according to an embodiment of the present invention.
5 is a flowchart illustrating a method for a server to prepare a recommendation algorithm according to an embodiment of the present invention.
6 to 8 are diagrams showing a method of generating user input information from a terminal according to an embodiment of the present invention.
9 is a flowchart illustrating a method of operating a server according to another embodiment of the present invention.
10 is a flowchart illustrating a method for a server to prepare a recommendation algorithm according to another embodiment of the present invention.
11 is a flowchart illustrating a method of operating a server according to another embodiment of the present invention.
12 is a diagram showing information on a type of an image filter selected for each type of content prepared in a server according to an embodiment of the present invention.
13 is a diagram showing a communication method of a terminal and a server according to an embodiment of the present invention.
14 is a flowchart illustrating a method of operating a server according to another embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and the ordinary knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.Although “first” or “second” are used to describe various components, these components are not limited by the terms above. The above terms may be used only to distinguish one component from another component. Accordingly, the first component mentioned below may be the second component within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" or "comprising" implies that the stated component or step does not exclude the presence or addition of one or more other components or steps.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification may be interpreted as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.

도 1은 본 발명의 실시예에 따른 전자 장치가 동작하는 환경을 나타내는 네트워크 구성도이다. 도 1을 참조하면, 복수의 전자 장치(100~300)가 동작하는 환경은 서버(400) 및 복수의 전자 장치(100~300)를 포함할 수 있다. 예를 들어, 복수의 전자 장치(100~300)가 동작하는 환경은 서버(400)를 포함하지 않을 수 있다. 1 is a network configuration diagram illustrating an environment in which an electronic device operates according to an embodiment of the present invention. Referring to FIG. 1, an environment in which a plurality of electronic devices 100 to 300 operate may include a server 400 and a plurality of electronic devices 100 to 300. For example, the environment in which the plurality of electronic devices 100 to 300 operate may not include the server 400.

복수의 전자 장치(100~300) 각각은 서버(400)를 매개로 연결될 수 있다. 본 발명의 설명의 편의를 위해, 도 1에서 세 개의 전자 장치가 도시되어 있다. 하지만, 전자 장치의 개수는 세 개로 한정되지 않는다. 복수의 전자 장치(100~300) 각각은 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 스마트 워치, 이동 단말, 디지털 카메라, 웨어러블 디바이스(wearable device), 또는 휴대용 전자기기 중 하나로써 구현될 수 있다. 복수의 전자 장치(100~300) 각각은 프로그램 또는 애플리케이션을 실행할 수 있다. Each of the plurality of electronic devices 100 to 300 may be connected through the server 400. For convenience of description of the present invention, three electronic devices are shown in FIG. 1. However, the number of electronic devices is not limited to three. Each of the plurality of electronic devices 100 to 300 may be implemented as one of a desktop computer, a laptop computer, a smart phone, a smart tablet, a smart watch, a mobile terminal, a digital camera, a wearable device, or a portable electronic device. . Each of the plurality of electronic devices 100 to 300 may execute a program or application.

복수의 전자 장치(100~300) 각각은 통신망에 연결될 수 있다. 복수의 전자 장치(100~300) 각각은 통신망을 통해 서로 연결되거나 서버(400)와 연결될 수 있다. 복수의 전자 장치(100~300) 각각은 서로 연결된 다른 장치에 데이터를 출력하거나 다른 장치로부터 데이터를 수신할 수 있다.Each of the plurality of electronic devices 100 to 300 may be connected to a communication network. Each of the plurality of electronic devices 100 to 300 may be connected to each other or to the server 400 through a communication network. Each of the plurality of electronic devices 100 to 300 may output data to other devices connected to each other or receive data from other devices.

복수의 전자 장치(100~300) 각각에 연결된 통신망은 유선 통신망, 무선 통신망, 또는 복합 통신망을 포함할 수 있다. 통신망은 3G, LTE, 또는 LTE-A 등과 같은 이동 통신망을 포함할 수 있다. 통신망은 와이파이(Wi-Fi), UMTS/GPRS, 또는 이더넷(Ethernet) 등과 같은 유선 또는 무선 통신망을 포함할 수 있다. 통신망은 마그네틱 보안 출력(MST, Magnetic Secure Transmission), RFID(Radio Frequency IDentification), NFC(Near Field Communication), 지그비(ZigBee), Z-Wave, 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), 또는 적외선 통신(IR, InfraRed communication) 등과 같은 근거리 통신망을 포함할 수 있다. 통신망은 근거리 네트워크(LAN, Local Area Network), 도시권 네트워크(MAN, Metropolitan Area Network), 또는 광역 네트워크(WAN, Wide Area Network) 등을 포함할 수 있다.A communication network connected to each of the plurality of electronic devices 100 to 300 may include a wired communication network, a wireless communication network, or a composite communication network. The communication network may include a mobile communication network such as 3G, LTE, or LTE-A. The communication network may include a wired or wireless communication network such as Wi-Fi, UMTS / GPRS, or Ethernet. The communication network is Magnetic Secure Output (MST), Radio Frequency IDentification (RFID), Near Field Communication (NFC), ZigBee, Z-Wave, Bluetooth, Low Power Bluetooth (BLE, Bluetooth Low Energy) Or, it may include a local area network, such as infrared communication (IR, InfraRed communication). The communication network may include a local area network (LAN), a metropolitan area network (MAN), or a wide area network (WAN).

서버(400)는 복수의 전자 장치(100~300) 각각의 사용자가 복수의 전자 장치(100~300)를 이용하여 촬영된 이미지를 보정할 수 있도록 각종 프로그램 또는 애플리케이션 및 데이터를 저장할 수 있다. The server 400 may store various programs or applications and data so that each user of the plurality of electronic devices 100 to 300 can correct the photographed image using the plurality of electronic devices 100 to 300.

이하에서, 발명의 설명의 편의를 위해, 전자 장치 및 단말기는 동일한 의미로 사용될 수 있다. Hereinafter, for convenience of explanation of the present invention, the electronic device and the terminal may be used in the same sense.

도 2는 본 발명의 실시예에 따른 단말기의 구성을 나타내는 블록도이다. 도 2를 참조하면, 제1 단말기(100)는 입력부(110), 저장부(120), 제어부(130), 출력부(140) 및 통신부(150)를 포함할 수 있다. 도 1에 도시된 제2 단말기(200) 및 제3 단말기(300) 각각은 제1 단말기(100)와 유사 또는 동일하게 구현될 수 있다.2 is a block diagram showing the configuration of a terminal according to an embodiment of the present invention. Referring to FIG. 2, the first terminal 100 may include an input unit 110, a storage unit 120, a control unit 130, an output unit 140, and a communication unit 150. Each of the second terminal 200 and the third terminal 300 illustrated in FIG. 1 may be implemented similarly or identically to the first terminal 100.

입력부(110)는 외부로부터 신호를 수신할 수 있다. 입력부(110)는 단말기(100)의 사용자로부터 신호를 수신할 수 있다. 또한, 입력부(110)는 외부 장치로부터 신호를 수신할 수 있다. 입력부(110)는 예를 들어, 마이크, 카메라, 키보드, 마우스, 트랙볼, 터치스크린, 버튼, 스위치, 센서, 네트워크 인터페이스, 또는 기타 입력 장치 등을 포함할 수 있다. 입력부(110)는 입력부(110)에 포함된 마이크를 통해 외부로부터 음성을 수신할 수 있다. The input unit 110 may receive a signal from the outside. The input unit 110 may receive a signal from a user of the terminal 100. Also, the input unit 110 may receive a signal from an external device. The input unit 110 may include, for example, a microphone, camera, keyboard, mouse, trackball, touch screen, button, switch, sensor, network interface, or other input device. The input unit 110 may receive a voice from the outside through a microphone included in the input unit 110.

또한, 입력부(110)는 입력부(110)에 포함된 카메라로부터 촬영된 이미지 또는 사용자로부터 제스처를 수신할 수 있다. 또는, 입력부(110)는 단말기(100)의 주변으로부터 반사된 빛으로부터 변환된 프리뷰 이미지(preview image)를 입력받을 수 있다. 입력부(110)에 포함된 터치스크린은 단말기(100)의 사용자로부터 터치 입력을 수신할 수 있다. 입력부(110)는 단말기(100)의 사용자로부터 수신된 사용자 정보 또는 사용자 입력를 수신할 수 있다. 예를 들어, 사용자 정보는 단말기(100)의 사용자의 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터 정보 중 적어도 하나를 포함할 수 있다. 그리고, 사용자 입력은 단말기(100)의 사용자로부터 수신되는 터치 입력일 수 있다. Also, the input unit 110 may receive an image captured from a camera included in the input unit 110 or a gesture from a user. Alternatively, the input unit 110 may receive a preview image converted from light reflected from the periphery of the terminal 100. The touch screen included in the input unit 110 may receive a touch input from a user of the terminal 100. The input unit 110 may receive user information or user input received from a user of the terminal 100. For example, the user information may include at least one of user's hobby information, gender information, age information, or preferred image filter information of the terminal 100. Further, the user input may be a touch input received from a user of the terminal 100.

저장부(120)는 데이터를 저장할 수 있다. 저장부(120)는 입력부(110)로부터 수신된 음성 또는 이미지 데이터를 저장할 수 있다. 그리고, 저장부(120)는 제어부(130)에 의해 수행된 연산 결과를 저장할 수 있다. 예를 들어, 저장부(120)는 제어부(130)에 의해 인코딩된 음성을 저장할 수 있다. 저장부(120)는 통신부(150)를 통해 외부에 출력할 데이터를 저장하거나 통신부(150)를 통해 외부로부터 수신된 데이터를 저장할 수 있다. The storage unit 120 may store data. The storage unit 120 may store voice or image data received from the input unit 110. In addition, the storage unit 120 may store calculation results performed by the control unit 130. For example, the storage unit 120 may store the voice encoded by the control unit 130. The storage unit 120 may store data to be output to the outside through the communication unit 150 or data received from the outside through the communication unit 150.

저장부(120)는 입력부(110)를 통해 수신된 사용자 정보 또는 사용자 입력 정보를 저장할 수 있다. 저장부(120)는 입력부(110)를 통해 수신된 이미지를 저장할 수 있다. 그리고, 수신된 이미지에 이미지 필터가 적용된 경우, 저장부(120)는 수신된 이미지 필터에 적용된 이미지 필터의 종류에 대한 정보를 함께 저장할 수 있다. The storage unit 120 may store user information or user input information received through the input unit 110. The storage unit 120 may store an image received through the input unit 110. In addition, when an image filter is applied to the received image, the storage unit 120 may store information on the type of the image filter applied to the received image filter.

저장부(120)는 소프트웨어 또는 프로그램을 저장할 수 있다. 예를 들어, 저장부(120)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 저장부(120)는 제어부(130)에 의해 실행 가능한 명령어들을 저장할 수 있다.The storage unit 120 may store software or programs. For example, the storage unit 120 may store programs such as applications, application programming interfaces (APIs), and various types of data. The storage unit 120 may store instructions executable by the control unit 130.

저장부(120)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 하나를 포함할 수 있다. 저장부(120)는 예를 들어, 플래시(flash) 메모리, ROM(Read Only Memory), RAM(Random Access Memory), EEROM(Electrically Erasable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 중 적어도 하나를 포함할 수 있다. 저장부(120)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.The storage unit 120 may include at least one of volatile memory and nonvolatile memory. The storage unit 120 includes, for example, a flash memory, a read only memory (ROM), a random access memory (RAM), an electrically erasable ROM (EEROM), an erasable programmable ROM (EPROM), and an electrically erasable programmable ROM (EPMROM). ), A hard disk drive (HDD), or a register. The storage unit 120 may include, for example, a file system, a database, or an embedded database.

제어부(130) 또는 제어부(130)에 포함된 구성 요소들 각각은 소프트웨어(software) 또는 하드웨어(hardware) 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계코드, 펌웨어 코드(firmware code), 임베디드 코드(embedded code), 및 애플리케이션(application) 등과 같은 프로그램 실행 명령어들로써 구현될 수 있다. 하드웨어는 전기 전자 회로, 프로세서, 컴퓨터, 압력 센서, 관성 센서, MEMS(microelectromechanical system), 수동 소자들, 또는 그것들의 조합일 수 있다. Each of the components included in the control unit 130 or the control unit 130 may be implemented in the form of software or hardware. For example, the software may be implemented as program execution instructions such as machine code, firmware code, embedded code, and application. The hardware can be an electrical and electronic circuit, a processor, a computer, a pressure sensor, an inertial sensor, a microelectromechanical system (MEMS), passive elements, or a combination thereof.

제어부(130)는 단말기(100)의 동작을 제어할 수 있다. 제어부(130)는 단말기(100)에 포함된 각각의 구성요소와 서로 연결될 수 있다. 제어부(130)는 단말기(100)에 포함된 각각의 구성요소의 동작을 제어할 수 있다. 제어부(130)는 입력부(110)에 의해 수신된 신호에 대한 응답으로, 단말기(100)의 동작을 제어할 수 있다.The controller 130 may control the operation of the terminal 100. The control unit 130 may be connected to each component included in the terminal 100. The controller 130 may control the operation of each component included in the terminal 100. The control unit 130 may control the operation of the terminal 100 in response to the signal received by the input unit 110.

제어부(130)는 입력부(110)를 통해 입력되는 프리뷰 이미지를 검사할 수 있다. 프리뷰 이미지는 단말기(100)의 사용자가 입력부(110)를 통해 입력되는 이미지를 저장하기 전에, 입력부(110)를 통해 입력되는 이미지를 의미할 수 있다. 예를 들어, 제어부(130)는 입력된 프리뷰 이미지에 포함된 컨텐츠(contents)의 종류를 식별할 수 있다. The controller 130 may inspect the preview image input through the input unit 110. The preview image may mean an image input through the input unit 110 before the user of the terminal 100 stores the image input through the input unit 110. For example, the control unit 130 may identify the type of content included in the input preview image.

예를 들어, 프리뷰 이미지에 포함된 컨텐츠는 사람, 특정 오브젝트(object), 특정 동물, 특정 풍경, 특정 패턴 또는 특정 색상 중 하나를 포함할 수 있다. 좀 더 구체적으로, 프리뷰 이미지에 포함된 컨텐츠가 특정 오브젝트인 경우, 제어부(130)는 오브젝트의 종류, 색상, 또는 패턴 등을 식별할 수 있다. 프리뷰 이미지에 포함된 컨텐츠가 사람인 경우, 제어부(130)는 사람의 성별, 피부색, 또는 모발색 등을 식별할 수 있다. 제어부(130)는 준비된 학습 모델을 이용하여 프리뷰 이미지에 포함된 컨텐츠의 종류에 적합한 두 개 이상의 이미지 필터를 선택할 수 있다.For example, the content included in the preview image may include one of a person, a specific object, a specific animal, a specific landscape, a specific pattern, or a specific color. More specifically, when the content included in the preview image is a specific object, the controller 130 may identify the type, color, or pattern of the object. When the content included in the preview image is a person, the controller 130 may identify a person's gender, skin color, or hair color. The controller 130 may select two or more image filters suitable for the type of content included in the preview image using the prepared learning model.

출력부(140)는 표시부(141)를 포함할 수 있다. 표시부(141)는 화면을 표시할 수 있다. 제어부(130)는 표시부(141)에 화면이 표시되도록 제어할 수 있다. 표시부(141)는 사용자 인터페이스를 표시할 수 있다. 표시부(141)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.The output unit 140 may include a display unit 141. The display unit 141 may display a screen. The control unit 130 may control the screen to be displayed on the display unit 141. The display unit 141 may display a user interface. The display unit 141 may display another screen in response to an input from a user.

표시부(141)는 데이터를 표시할 수 있다. 표시부(141)는 제어부(130)에 의해 수행된 연산 결과를 표시할 수 있다. 예를 들어, 표시부(141)는 제어부(130)에 의해 선택된 두 개 이상의 이미지 필터가 적용된 프리뷰 이미지를 출력할 수 있다. 표시부(141)는 저장부(120)에 저장된 데이터를 표시할 수 있다. 표시부(141)는 통신부(150)에 의해 수신된 데이터를 표시할 수 있다. 예를 들어, 표시부(141)는 입력부(110)로부터 수신되는 영상을 표시할 수 있다. The display unit 141 can display data. The display unit 141 may display the calculation result performed by the control unit 130. For example, the display unit 141 may output a preview image to which two or more image filters selected by the controller 130 are applied. The display unit 141 may display data stored in the storage unit 120. The display unit 141 may display data received by the communication unit 150. For example, the display unit 141 may display an image received from the input unit 110.

표시부(141)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 또는 PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 표시부(141)는 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 표시부(141)는 터치스크린을 포함할 수 있다. 표시부(141)가 터치스크린을 포함하는 경우, 표시부(141)는 출력 동작을 수행하는 동시에 입력부(110)로써 동작할 수 있다. The display unit 141 may include, for example, a flat panel display device such as a liquid crystal display (LCD), an organic light emitting diode (OLED), or a plasma display panel (PDP). The display unit 141 may include a curved display or a flexible display. The display unit 141 may include a touch screen. When the display unit 141 includes a touch screen, the display unit 141 may operate as an input unit 110 while simultaneously performing an output operation.

출력부(140)는 소리를 출력할 수 있다. 출력부(140)는 입력부(110)를 통해 수신된 소리, 또는 외부 장치를 통해 수신된 소리를 출력할 수 있다. 예를 들어, 출력부(140)는 스피커(speaker)를 포함할 수 있다.The output unit 140 may output sound. The output unit 140 may output a sound received through the input unit 110 or a sound received through an external device. For example, the output unit 140 may include a speaker.

통신부(150)는 단말기(100)의 외부에 데이터를 출력하거나 외부로부터 데이터를 수신할 수 있다. 통신부(150)는 서버(400) 또는 외부 장치에 데이터를 출력할 수 있다. 통신부(150)는 서버(400) 및 외부 장치로부터 데이터를 수신할 수 있다. 통신부(150)는 제어부(130)에 의해 수행된 연산 결과를 외부에 출력할 수 있다.The communication unit 150 may output data to the outside of the terminal 100 or receive data from the outside. The communication unit 150 may output data to the server 400 or an external device. The communication unit 150 may receive data from the server 400 and an external device. The communication unit 150 may output an operation result performed by the control unit 130 to the outside.

통신부(150)는 프리뷰 이미지를 서버(400)에 출력하거나 프리뷰 이미지에서 식별된 컨텐츠의 종류에 대한 정보를 서버(400)에 출력할 수 있다. 통신부(150)는 저장부(120)에 저장된 이미지 또는 저장된 이미지에 적용된 이미지 필터의 종류에 대한 정보를 서버(400)에 출력할 수 있다. 또는, 통신부(150)는 저장부(120)에 저장된 사용자 정보 또는 사용자 입력 정보를 서버(400)에 출력할 수 있다. 그리고, 통신부(150)는 서버(400)로부터 선택된 두 개 이상의 이미지 필터의 종류에 대한 정보를 수신할 수 있다. The communication unit 150 may output a preview image to the server 400 or output information about the type of content identified in the preview image to the server 400. The communication unit 150 may output information about the type of the image stored in the storage unit 120 or an image filter applied to the stored image to the server 400. Alternatively, the communication unit 150 may output user information or user input information stored in the storage unit 120 to the server 400. In addition, the communication unit 150 may receive information about two or more types of image filters selected from the server 400.

통신부(150)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그(WiGig) 모듈, UWB(Ultra Wide Band) 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(150)는 마그네틱 보안 출력(MST) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비(ZigBee) 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(150)는 기타 네트워크 인터페이스를 포함할 수 있다.The communication unit 150, for example, 3G module, LTE module, LTE-A module, Wi-Fi module, WiGig (WiGig) module, UWB (Ultra Wide Band) module, or a network interface for a LAN card, etc. It can contain. Further, the communication unit 150 may include a short-range network interface such as a magnetic security output (MST) module, a Bluetooth module, an NFC module, an RFID module, a ZigBee module, a Z-Wave module, or an infrared module. In addition, the communication unit 150 may include other network interfaces.

도 3은 본 발명의 실시예에 따른 서버의 구성을 나타내는 블록도이다. 도 1 및 도 3을 참조하면, 서버(400)는 통신부(410), 저장부(420) 및 제어부(430)를 포함할 수 있다. 3 is a block diagram showing the configuration of a server according to an embodiment of the present invention. 1 and 3, the server 400 may include a communication unit 410, a storage unit 420, and a control unit 430.

통신부(410)는 서버(400)의 외부에 데이터를 출력하거나 외부로부터 데이터를 수신할 수 있다. 통신부(410)는 복수의 단말기(100~300)에 데이터를 출력할 수 있다. 통신부(410)는 복수의 단말기(100~300)로부터 데이터를 수신할 수 있다. 통신부(410)는 제어부(430)에 의해 수행된 연산 결과를 외부에 출력할 수 있다. 또한, 통신부(410)는 저장부(420)에 저장된 데이터를 외부에 출력할 수 있다.The communication unit 410 may output data to the outside of the server 400 or receive data from the outside. The communication unit 410 may output data to the plurality of terminals 100 to 300. The communication unit 410 may receive data from a plurality of terminals 100-300. The communication unit 410 may output an operation result performed by the control unit 430 to the outside. Also, the communication unit 410 may output data stored in the storage unit 420 to the outside.

통신부(410)는 복수의 단말기(100~300) 중 적어도 하나로부터 이미지를 수신할 수 있다. 이미지는 복수의 단말기(100~300) 중 적어도 하나의 주변으로부터 반사된 빛으로부터 변환된 프리뷰 이미지일 수 있다. 또는, 이미지는 복수의 단말기(100~300) 중 적어도 하나에 저장된 이미지일 수 있다. 수신된 이미지에 이미지 필터가 적용된 경우, 통신부(410)는 수신된 이미지에 적용된 이미지 필터의 종류에 대한 정보를 함께 수신할 수 있다. 또는, 통신부(410)는 복수의 단말기(100~300) 중 적어도 하나로부터 이미지 및 이미지에 포함된 컨텐츠의 종류에 대한 정보를 수신할 수 있다. 통신부(410)는 복수의 단말기(100~300) 중 적어도 하나로부터 사용자 입력 정보 또는 사용자 정보를 수신할 수 있다. The communication unit 410 may receive an image from at least one of the plurality of terminals 100-300. The image may be a preview image converted from light reflected from at least one of the plurality of terminals 100-300. Alternatively, the image may be an image stored in at least one of the plurality of terminals 100-300. When an image filter is applied to the received image, the communication unit 410 may receive information about the type of image filter applied to the received image. Alternatively, the communication unit 410 may receive information about an image and types of content included in the image from at least one of the plurality of terminals 100-300. The communication unit 410 may receive user input information or user information from at least one of the plurality of terminals 100-300.

통신부(410)에 의해 출력될 데이터 또는 통신부(410)에 의해 수신된 데이터는 저장부(420)에 저장될 수 있다. 그리고, 통신부(410)는 제어부(430)에서 학습된 기계 학습 모델에 대한 정보를 복수의 단말기(100~300) 중 하나에 전송할 수 있다. Data to be output by the communication unit 410 or data received by the communication unit 410 may be stored in the storage unit 420. Then, the communication unit 410 may transmit information about the machine learning model learned by the control unit 430 to one of the plurality of terminals 100-300.

통신부(410)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그 모듈, UWB 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(201)는 마그네틱 보안 출력(MST) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(410)는 기타 네트워크 인터페이스를 포함할 수 있다.The communication unit 410 may include, for example, a 3G module, an LTE module, an LTE-A module, a Wi-Fi module, a WiGig module, a UWB module, or a network interface for a long distance such as a LAN card. In addition, the communication unit 201 may include a short-range network interface such as a magnetic security output (MST) module, a Bluetooth module, an NFC module, an RFID module, a Zigbee module, a Z-Wave module, or an infrared module. Also, the communication unit 410 may include other network interfaces.

저장부(420)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 저장부(420)는 제어부(430)에 의해 실행 가능한 명령어들을 저장할 수 있다. 예를 들어, 애플리 케이션은 이미지에 이미지 필터를 적용 가능한 이미지 필터를 추천해주는 서비스를 제공하는 애플리케이션일 수 있다. 저장부(420)는 통신부(410)를 통해 수신된 이미지, 이미지에 적용된 이미지 필터의 종류에 대한 정보, 또는 이미지에 포함된 컨텐츠의 종류에 대한 정보 중 적어도 하나를 저장할 수 있다. 또는, 저장부(420)는 통신부(410)를 통해 수신된 복수의 단말기(100~300) 중 적어도 하나의 사용자 입력 정보 또는 사용자 정보를 저장할 수 있다. The storage unit 420 may store programs such as applications, application programming interfaces (APIs), and various types of data. The storage unit 420 may store instructions executable by the control unit 430. For example, the application may be an application that provides a service that recommends an image filter applicable to an image filter. The storage unit 420 may store at least one of an image received through the communication unit 410, information about a type of an image filter applied to the image, or information about a type of content included in the image. Alternatively, the storage unit 420 may store at least one user input information or user information among the plurality of terminals 100 to 300 received through the communication unit 410.

저장부(420)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 하나를 포함할 수 있다. 저장부(420)는 예를 들어, 플래시 메모리, ROM, EEROM, EPROM, EEPROM, 하드디스크 드라이브, 또는 레지스터 중 적어도 하나를 포함할 수 있다. 저장부(420)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.The storage unit 420 may include at least one of volatile memory and nonvolatile memory. The storage unit 420 may include, for example, at least one of a flash memory, ROM, EEROM, EPROM, EEPROM, hard disk drive, or register. The storage unit 420 may include, for example, a file system, a database, or an embedded database.

제어부(430) 또는 제어부(430)에 포함된 구성 요소들 각각은 소프트웨어 또는 하드웨어 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계코드, 펌웨어 코드, 임베디드 코드, 및 애플리케이션 등과 같은 프로그램 실행 명령어들로 구현될 수 있다. 하드웨어는 전기 전자 회로, 프로세서, 컴퓨터, 압력 센서, 관성 센서, MEMS, 수동 소자들, 또는 그것들의 조합일 수 있다. Each of the components included in the control unit 430 or the control unit 430 may be implemented in the form of software or hardware. Illustratively, software may be implemented with program execution instructions such as machine code, firmware code, embedded code, and applications. The hardware can be an electrical and electronic circuit, processor, computer, pressure sensor, inertial sensor, MEMS, passive components, or a combination thereof.

제어부(430)는 저장부(420)에 저장된 명령어들 및 애플리케이션을 실행할 수 있다. 예를 들어, 제어부(430)는 애플리케이션을 실행함으로써 복수의 단말기(100~300) 중 적어도 하나로부터 수신된 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다. 또는, 제어부(430)는 저장부(420)에 저장된 애플리케이션을 실행함으로써 복수의 단말기(100~300) 중 특정 단말기의 사용자가 선택할 확률이 높을 것으로 예측되는 적어도 두 개 이상의 이미지 필터를 선택할 수 있다. 예를 들어, 제어부(430)는 복수의 단말기(100~300) 중 적어도 하나로부터 수신된 이미지에 포함된 컨텐츠의 종류에 대한 정보 및 선택된 필터의 종류에 대한 정보 기초하여 특정 단말기의 사용자가 선택할 확률이 높을 것으로 예측되는 적어도 두 개 이상의 이미지 필터를 선택할 수 있다. The control unit 430 may execute instructions and applications stored in the storage unit 420. For example, the controller 430 may identify the type of content included in the image received from at least one of the plurality of terminals 100 to 300 by executing the application. Alternatively, the control unit 430 may select at least two or more image filters predicted to have a high probability of being selected by a user of a specific terminal among the plurality of terminals 100 to 300 by executing an application stored in the storage unit 420. For example, the control unit 430 is a probability that a user of a specific terminal selects based on information on a type of content included in an image received from at least one of a plurality of terminals 100 to 300 and information on a selected filter type. It is possible to select at least two image filters predicted to be high.

다른 예로서, 제어부(430)는 저장부(420)에 저장된 애플리케이션을 실행함으로써, 복수의 단말기(100~300) 중 적어도 하나로부터 수신된 사용자 정보, 이미지에 포함된 컨텐츠의 종류에 대한 정보, 및 선택된 필터의 종류에 대한 정보에 기초하여 특정 단말기의 사용자가 선택할 확률이 높을 것으로 예측되는 적어도 두 개 이상의 이미지 필터를 선택할 수 있다. As another example, the control unit 430 executes an application stored in the storage unit 420, and user information received from at least one of the plurality of terminals 100 to 300, information about a type of content included in the image, and Based on information on the selected filter type, at least two image filters that are predicted to have a high probability of being selected by a user of a specific terminal may be selected.

다른 예로서, 제어부(430)는 저장부(420)에 저장된 애플리케이션을 실행함으로써, 복수의 단말기(100~300) 중 적어도 하나로부터 수신된 사용자 입력 정보, 이미지에 포함된 컨텐츠의 종류에 대한 정보, 및 선택된 필터의 종류에 대한 정보에 기초하여 특정 단말기의 사용자가 선택할 확률이 높을 것으로 예측되는 적어도 두 개 이상의 이미지 필터를 선택할 수 있다.As another example, the control unit 430 executes an application stored in the storage unit 420 to input user information received from at least one of the plurality of terminals 100 to 300, and information about the type of content included in the image, And at least two image filters predicted to have a high probability of being selected by a user of a specific terminal based on information on the selected filter type.

제어부(430)의 동작은 도 4 내지 도 14를 참조하여 설명될 수 있다.The operation of the control unit 430 may be described with reference to FIGS. 4 to 14.

도 4는 본 발명의 실시예에 따른 서버의 동작 방법을 보여주는 블록도이다. S110 단계에서, 서버(400)의 통신부(410)는 대상 단말기(100)로부터 이미지를 수신할 수 있다. 본 발명의 설명을 위해, 대상 단말기(100)는 제1 단말기(100)인 것으로 가정한다. 예를 들어, 서버(400)는 통신부(410)를 통해 입력되는 이미지에 적용되는 이미지 필터를 선택할 수 있는 서비스를 제공하는 애플리케이션을 실행할 수 있다.4 is a block diagram showing a method of operating a server according to an embodiment of the present invention. In step S110, the communication unit 410 of the server 400 may receive an image from the target terminal 100. For description of the present invention, it is assumed that the target terminal 100 is the first terminal 100. For example, the server 400 may execute an application that provides a service for selecting an image filter applied to an image input through the communication unit 410.

S120 단계에서, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 준비된 학습 모델을 이용하여 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.In step S120, the control unit 430 of the server 400 may identify the type of content included in the image. For example, the control unit 430 of the server 400 may identify the type of content included in the image using the prepared learning model.

준비된 학습 모델은 애플리케이션을 통해 수신된 이미지에 포함된 컨텐츠의 종류를 식별하기 위해 이용되는 데이터 인식 모델일 수 있다. 데이터 인식 모델은 인공 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예를 들면, 학습 모델은 DNN(Deep Neural Network), RNN(Recurrent Neural Network), 및 BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다. The prepared learning model may be a data recognition model used to identify the type of content included in the image received through the application. The data recognition model may be a model based on an artificial neural network. For example, as a learning model, models such as a deep neural network (DNN), a recurrent neural network (RNN), and a bidirectional recurrent deep neural network (BRDNN) may be used as a data recognition model, but are not limited thereto.

준비된 학습 모델은 이미지에 포함된 컨텐츠의 종류를 식별하기 위한 학습 모델 일 수 있다. 컨텐츠의 종류를 식별하기 위한 학습 모델은 다수의 사진에 대한 이미지 데이터 및 다수의 사진에 포함된 컨텐츠의 종류 사이의 상관관계에 대해 학습된 결과일 수 있다. 예를 들어, 서버(400)는 다수의 사진 에 대한 이미지 데이터 및 다수의 사진에 포함된 컨텐츠의 종류 사이의 상관관계를 학습할 수 있다. 서버(400)는 학습 결과에 기초하여 인공 신경망을 훈련하여, 이미지에 포함된 컨텐츠의 종류를 식별하기 위한 학습 모델을 생성할 수 있다. The prepared learning model may be a learning model for identifying the type of content included in the image. The learning model for identifying the type of content may be a result of learning the correlation between image data for multiple photos and content types included in the multiple photos. For example, the server 400 may learn a correlation between image data for multiple photos and types of content included in the multiple photos. The server 400 may train an artificial neural network based on the learning result, and generate a learning model for identifying the type of content included in the image.

S130 단계에서, 서버(400)의 제어부(430)는 이미지에 적용 가능한 이미지 필터에 대한 추천 알고리즘을 준비할 수 있다. 예를 들어, 준비된 추천 알고리즘은 프리뷰 이미지에 적용 가능한 이미지 필터를 선택하기 위해 이용되는 데이터 인식 모델일 수 있다. 데이터 인식 모델은 인공 신경망을 기반으로 하는 모델일 수 있다. 예를 들면, 학습 모델은 DNN, RNN, 및 BRDNN과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.In step S130, the control unit 430 of the server 400 may prepare a recommendation algorithm for an image filter applicable to the image. For example, the prepared recommendation algorithm may be a data recognition model used to select an image filter applicable to the preview image. The data recognition model may be a model based on an artificial neural network. For example, as the learning model, models such as DNN, RNN, and BRDNN may be used as data recognition models, but are not limited thereto.

준비된 추천 알고리즘은 이미지에 적용 가능한 이미지 필터를 추천하기 위한 학습 모델일 수 있다. 이미지 필터를 추천하기 위한 학습 모델은 다수의 이미지에 포함된 컨텐츠의 종류 및 다수의 이미지를 보정하기 위해 사용자에 의해 선택된 이미지 필터의 종류 사이의 상관관계에 대해 학습된 결과일 수 있다. 예를 들어, 서버(400)는 다수의 이미지에 포함된 컨텐츠의 종류 및 다수의 이미지를 보정하기 위해 선택된 이미지 필터의 종류 사이의 상관관계를 학습할 수 있다. 서버(400)는 학습 결과에 기초하여 인공 신경망을 훈련하여, 이미지에 적용 가능한 이미지 필터의 종류를 선택하기 위한 학습 모델을 생성할 수 있다. The prepared recommendation algorithm may be a learning model for recommending an image filter applicable to an image. The learning model for recommending the image filter may be a result of learning the correlation between the type of content included in the multiple images and the type of the image filter selected by the user to correct the multiple images. For example, the server 400 may learn a correlation between a type of content included in multiple images and a type of image filter selected to correct multiple images. The server 400 may train an artificial neural network based on the learning result, and generate a learning model for selecting the type of image filter applicable to the image.

또는, 준비된 추천 알고리즘은 복수의 단말기(100~300) 중 대상 단말기(100)를 제외한 나머지 단말기(200, 300)로부터 수신된 정보에 기초하여 학습될 수 있다. 이에 대한 실시예는 도 5를 참조하여 설명될 수 있다. Alternatively, the prepared recommendation algorithm may be learned based on information received from the remaining terminals 200 and 300 excluding the target terminal 100 among the plurality of terminals 100 to 300. An embodiment of this can be described with reference to FIG. 5.

S140 단계에서, 서버(400)의 제어부(430)는 이미지 필터를 선택하기 위한 추천 알고리즘을 이용하여 두 개 이상의 이미지 필터를 선택할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 대상 단말기(100)로부터 수신된 이미지에 포함된 컨텐츠를 보정하기 위한 두 개 이상의 이미지 필터를 선택할 수 있다. In step S140, the controller 430 of the server 400 may select two or more image filters using a recommendation algorithm for selecting the image filter. For example, the control unit 430 of the server 400 may select two or more image filters for correcting content included in the image received from the target terminal 100.

예를 들어, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류에 따라 대상 단말기(100)의 사용자가 선택할 확률이 높을 것으로 예측되는 두 개 이상의 이미지 필터를 선택할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류에 따라 단말기(100)의 사용자가 선택할 확률이 가장 높을 것으로 예측된 이미지 필터 및 선택할 확률이 두 번째로 높을 것으로 예측된 이미지 필터를 선택할 수 있다.For example, the control unit 430 of the server 400 may select two or more image filters predicted to be highly likely to be selected by a user of the target terminal 100 according to the type of content included in the image. For example, the control unit 430 of the server 400 predicts that the image filter predicted to be the most likely to be selected by the user of the terminal 100 and the second probability to be selected according to the type of content included in the image. Image filter can be selected.

S150 단계에서, 서버(400)의 통신부(410)는 선택된 두 개 이상의 이미지 필터에 대한 정보를 대상 단말기(100)에 전송할 수 있다. 예를 들어, 대상 단말기(100)의 출력부(140)는 두 개 이상의 이미지 필터에 대한 정보를 기반으로 이미지를 두 개 이상의 이미지 영역으로 구분하고, 두 개 이상의 이미지 영역에 각각 선택된 두 개 이상의 이미지 필터를 적용할 수 있다. In step S150, the communication unit 410 of the server 400 may transmit information about two or more selected image filters to the target terminal 100. For example, the output unit 140 of the target terminal 100 divides an image into two or more image regions based on information about two or more image filters, and two or more images respectively selected in the two or more image regions Filters can be applied.

도 5는 본 발명의 실시예에 따른 서버가 추천 알고리즘을 준비하는 방법을 보여주는 순서도이다. 도 4 및 도 5를 참조하면 S131 단계에서, 서버(400)의 통신부(410)는 적어도 하나 이상의 단말기로부터 사용자 입력 정보 및 이미지를 수신할 수 있다. 예를 들어, 적어도 하나 이상의 단말기는 복수의 단말기(100~300) 중 대상 단말기(100)를 제외한 나머지 단말기들(200, 300)일 수 있다. 사용자 입력 정보는 대상 단말기(100)의 표시부(141)에 입력되는 터치 드래그(touch drag) 입력으로부터 생성되는 정보일 수 있다. 사용자 입력 정보가 생성되는 방법은 도 6 내지 도 8을 참조하여 설명될 수 있다.5 is a flowchart illustrating a method for a server to prepare a recommendation algorithm according to an embodiment of the present invention. 4 and 5, in step S131, the communication unit 410 of the server 400 may receive user input information and images from at least one terminal. For example, at least one or more terminals may be the remaining terminals 200 and 300 except for the target terminal 100 among the plurality of terminals 100 to 300. The user input information may be information generated from a touch drag input input to the display unit 141 of the target terminal 100. The method of generating user input information can be described with reference to FIGS. 6 to 8.

도 6 내지 도 8은 본 발명의 실시예에 따른 단말기로부터 사용자 입력 정보가 생성되는 방법을 보여주는 도면이다.6 to 8 are diagrams showing a method of generating user input information from a terminal according to an embodiment of the present invention.

도 6에 도시된 단말기는 제2 단말기(200)인 것으로 가정한다. 본 발명은 이에 한정되지 않고, 도 6에 도시된 단말기는 제2 단말기(200) 또는 제3 단말기(300) 중 적어도 하나로 구현될 수 있다. It is assumed that the terminal illustrated in FIG. 6 is the second terminal 200. The present invention is not limited thereto, and the terminal illustrated in FIG. 6 may be implemented as at least one of the second terminal 200 or the third terminal 300.

제2 단말기(200)의 출력부(141)를 통해 프리뷰 이미지가 표시될 수 있다. 프리뷰 이미지는 제2 단말기(200)의 입력부(110)를 통해 입력된 제2 단말기(200)의 주변으로부터 반사된 빛으로부터 생성될 수 있다. 예를 들어, 표시부(141)의 제1 표시 영역(142)은 프리뷰 이미지의 제1 이미지 영역에 대응하고, 제2 표시 영역(143)은 프리뷰 이미지의 제2 이미지 영역에 대응할 수 있다. A preview image may be displayed through the output unit 141 of the second terminal 200. The preview image may be generated from light reflected from the periphery of the second terminal 200 input through the input unit 110 of the second terminal 200. For example, the first display area 142 of the display unit 141 may correspond to the first image area of the preview image, and the second display area 143 may correspond to the second image area of the preview image.

제1 표시 영역(142)을 통해 표시되는 제1 이미지 영역 및 제2 표시 영역(143)을 통해 표시되는 제2 이미지 영역 각각에 서로 다른 이미지 필터가 적용될 수 있다. 예를 들어, 제1 표시 영역(142)에는 제1 이미지 필터(예를 들어, ‘mellow’ 이미지 필터)가 적용된 제1 이미지 영역이 표시될 수 있고, 제2 표시 영역(143)에는 제2 이미지 필터(예를 들어, ‘hipster’ 이미지 필터)가 적용된 제2 이미지 영역이 표시될 수 있다. 즉, 제1 이미지 영역은 프리뷰 이미지에서 제1 이미지 필터가 적용된 범위일 수 있고, 제2 이미지 영역은 프리뷰 이미지에서 제2 이미지 필터가 적용된 범위일 수 있다. Different image filters may be applied to each of the first image area displayed through the first display area 142 and the second image area displayed through the second display area 143. For example, a first image area to which a first image filter (eg, a 'mellow' image filter) is applied may be displayed on the first display area 142, and a second image on the second display area 143. A second image area to which a filter (eg, a 'hipster' image filter) is applied may be displayed. That is, the first image area may be a range in which the first image filter is applied in the preview image, and the second image area may be a range in which the second image filter is applied in the preview image.

예를 들어, 제1 이미지 영역은 프리뷰 이미지의 좌측 일부 영역에 대응할 수 있다. 제2 이미지 영역은 프리뷰 이미지의 우측 일부 영역에 대응할 수 있다. 그리고, 제2 이미지 영역은 프리뷰 이미지에서 제1 이미지 영역을 제외한 나머지 영역에 대응할 수 있다. 본 발명은 이에 한정되지 않고, 제1 이미지 영역은 프리뷰 이미지의 상측 일부 영역에 대응할 수 있다. 제2 이미지 영역은 프리뷰 이미지의 하측 일부 영역에 대응할 수 있다. 그리고, 제2 이미지 영역은 프리뷰 이미지에서 제1 이미지 영역을 제외한 나머지 영역에 대응할 수 있다.For example, the first image area may correspond to a partial left area of the preview image. The second image area may correspond to a part of the right side of the preview image. In addition, the second image area may correspond to the remaining areas excluding the first image area from the preview image. The present invention is not limited to this, and the first image area may correspond to a partial area above the preview image. The second image area may correspond to a partial lower area of the preview image. In addition, the second image area may correspond to the remaining areas excluding the first image area from the preview image.

예를 들어, 제1 이미지 영역에 적용된 제1 이미지 필터는 서버(400)에서 프리뷰 이미지에 포함된 오브젝트의 종류에 따라 단말기(100)의 사용자가 선택할 확률이 가장 높을 것으로 예측된 이미지 필터일 수 있다. 제2 이미지 영역에 적용된 제2 이미지 필터는 서버(400)에서 프리뷰 이미지에 포함된 오브젝트의 종류에 따라 단말기(100)의 사용자가 선택할 확률이 두 번째로 높을 것으로 예측된 이미지 필터일 수 있다 For example, the first image filter applied to the first image area may be an image filter predicted to have the highest probability that the user of the terminal 100 selects the server 400 according to the type of object included in the preview image. . The second image filter applied to the second image area may be an image filter predicted by the server 400 to be the second most likely to be selected by the user of the terminal 100 according to the type of object included in the preview image.

예를 들어, 제2 단말기(200)의 표시부(141)는 제1 표시 영역(142) 및 제2 표시 영역(143)의 경계의 임의의 지점에서 시작하는 터치 드래그 입력을 수신할 수 있다. 도 6을 참조하면, 제2 단말기(200)는 제1 표시 영역(142) 및 제2 표시 영역(143)의 경계의 임의의 지점을 터치하고, 제1 방향(D1)으로 드래그하는 사용자 입력 또는 제1 방향(D1)과 반대되는 제2 방향(D2)으로 드래그하는 사용자 입력 중 하나를 수신할 수 있다. 예를 들어, 제1 방향(D1)은 제2 표시 영역(143)에서 제1 표시 영역(142)을 향하는 방향이고, 제2 방향(D2)은 제1 표시 영역(142)에서 제2 표시 영역(143)을 향하는 방향일 수 있다. 제2 단말기(200)는 사용자 입력에 기초하여 프리뷰 이미지의 제1 이미지 영역 또는 제2 이미지 영역의 비율을 조정할 수 있다. For example, the display unit 141 of the second terminal 200 may receive a touch drag input starting at any point of the boundary between the first display area 142 and the second display area 143. Referring to FIG. 6, the second terminal 200 touches an arbitrary point of the boundary between the first display area 142 and the second display area 143 and drags the user in the first direction D1 or One of the user inputs dragging in the second direction D2 opposite to the first direction D1 may be received. For example, the first direction D1 is a direction from the second display area 143 toward the first display area 142, and the second direction D2 is a second display area from the first display area 142. It may be a direction toward (143). The second terminal 200 may adjust the ratio of the first image area or the second image area of the preview image based on the user input.

도 7을 참조하면, 제1 표시 영역(142) 및 제2 표시 영역(143)의 경계의 임의의 지점에서부터 시작되는 제1 방향(D1)으로의 터치 드래그 입력이 수신되는 경우, 단말기(100)는 터치 드래그 입력의 시작점과 종점 사이의 거리에 비례하도록 프리뷰 이미지에서 제2 이미지 영역의 비율을 증가시킬 수 있다. 그리고, 제2 이미지 영역의 비율이 증가한만큼 제1 이미지 영역의 비율이 감소할 것이다. 제2 이미지 영역의 크기가 증가하면, 제2 이미지 영역에 대응하는 제2 표시 영역(143)의 크기도 함께 증가할 수 있다. Referring to FIG. 7, when a touch drag input in a first direction D1 starting from an arbitrary point of a boundary between the first display area 142 and the second display area 143 is received, the terminal 100 May increase the proportion of the second image area in the preview image to be proportional to the distance between the start point and the end point of the touch drag input. And, as the proportion of the second image area increases, the proportion of the first image area will decrease. When the size of the second image area increases, the size of the second display area 143 corresponding to the second image area may also increase.

제1 표시 영역(142) 및 제2 표시 영역(143)의 경계의 임의의 지점에서부터 시작되는 제1 방향(D1)으로의 터치 드래그 입력이 수신되는 경우, 제2 단말기(200)는 터치 드래그 입력의 시작점과 종점 사이의 거리에 비례하도록 프리뷰 이미지에서 제2 이미지 영역의 비율을 증가시킬 수 있다. 그리고, 제2 이미지 영역의 비율이 증가한만큼 제1 이미지 영역의 비율이 감소할 것이다. 제2 이미지 영역의 크기가 증가하면, 제2 이미지 영역에 대응하는 제2 표시 영역(143)의 크기도 함께 증가할 수 있다. When a touch drag input in a first direction D1 starting from an arbitrary point of the boundary between the first display area 142 and the second display area 143 is received, the second terminal 200 inputs the touch drag The proportion of the second image area in the preview image may be increased to be proportional to the distance between the start point and the end point of. And, as the proportion of the second image area increases, the proportion of the first image area will decrease. When the size of the second image area increases, the size of the second display area 143 corresponding to the second image area may also increase.

도 8을 참조하면, 제1 표시 영역(142) 및 제2 표시 영역(143)의 경계의 임의의 지점에서부터 시작되는 제2 방향(D2)으로의 터치 드래그 입력이 수신되는 경우, 제2 단말기(200)는 터치 드래그 입력의 시작점과 종점 사이의 거리에 비례하도록 프리뷰 이미지에서 제1 이미지 영역의 비율을 증가시킬 수 있다. 그리고, 제1 이미지 영역의 비율이 증가한만큼 제2 이미지 영역의 비율은 감소할 것이다. 제1 이미지 영역의 크기가 증가하면, 제1이미지 영역에 대응하는 제1 표시 영역(142)의 크기도 함께 증가할 수 있다.Referring to FIG. 8, when a touch drag input in a second direction D2 starting from an arbitrary point of a boundary between the first display area 142 and the second display area 143 is received, the second terminal ( 200) may increase the ratio of the first image area in the preview image to be proportional to the distance between the start point and the end point of the touch drag input. And, as the proportion of the first image area increases, the proportion of the second image area will decrease. When the size of the first image area increases, the size of the first display area 142 corresponding to the first image area may also increase.

제1 이미지 영역의 비율이 제2 이미지 영역보다 증가하면, 제1 표시 영역(142)에서 표시되는 제1 이미지 영역의 가로 폭(W1)은 제2 표시 영역(143)에서 표시되는 제2 이미지 영역의 가로 폭(W2)보다 넓어질 수 있고, 프리뷰 이미지에서 제2 이미지 필터가 적용된 제2 이미지 영역보다 제1 이미지 필터가 적용된 제1 이미지 영역의 크기가 더 커질 수 있다. When the ratio of the first image area is increased to the second image area, the horizontal width W1 of the first image area displayed in the first display area 142 is the second image area displayed in the second display area 143 The width may be wider than W2, and the size of the first image area to which the first image filter is applied may be larger than the second image area to which the second image filter is applied in the preview image.

예를 들어, 제2 단말기(200)는 제1 이미지 영역의 비율이 제2 이미지 영역의 비율보다 높아진 횟수, 또는 제2 이미지 영역의 비율이 제1 이미지 영역의 비율보다 높아진 횟수에 대한 정보를 사용자 입력 정보로서 생성할 수 있다. 제2 단말기(200)는 생성된 사용자 입력 정보를 서버(400)에 전송할 수 있다. For example, the second terminal 200 may use the information on the number of times the ratio of the first image region is higher than the ratio of the second image region, or the number of times the ratio of the second image region is higher than the ratio of the first image region. Can be generated as input information. The second terminal 200 may transmit the generated user input information to the server 400.

다른 예로서, 제2 단말기(200)는 제1 이미지 영역의 비율이 제2 이미지 영역의 비율보다 높아진 시간, 또는 제2 이미지 영역의 비율이 제1 이미지 영역의 비율보다 높아진 시간에 대한 정보를 사용자 입력 정보로서 생성할 수 있다. 제2 단말기(200)는 생성된 사용자 입력 정보를 서버(400)에 전송할 수 있다.As another example, the second terminal 200 may use the information on the time when the ratio of the first image region is higher than the ratio of the second image region, or the time when the ratio of the second image region is higher than the ratio of the first image region. Can be generated as input information. The second terminal 200 may transmit the generated user input information to the server 400.

제3 단말기(300)는 도 6 내지 도 8을 참조하여 설명된 방법과 유사 또는 동일한 방법으로 사용자 입력 정보를 생성할 수 있다. 제3 단말기(300)는 생성된 사용자 정보를 서버(400)에 전송할 수 있다. The third terminal 300 may generate user input information in a method similar to or the same as the method described with reference to FIGS. 6 to 8. The third terminal 300 may transmit the generated user information to the server 400.

다시 도 5를 참조하면, S132 단계에서, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 준비된 학습 모델을 이용하여 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.Referring back to FIG. 5, in step S132, the control unit 430 of the server 400 may identify the type of content included in the image. For example, the control unit 430 of the server 400 may identify the type of content included in the image using the prepared learning model.

S133 단계에서, 서버(400)의 통신부(410)는 적어도 하나 이상의 단말기(200, 300)로부터 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 정보를 수신할 수 있다. 예를 들어, 이미지에 적용되기 위해 선택된 이미지 필터는 적어도 하나 이상의 단말기(200, 300) 각각의 사용자가 자신의 단말기에 저장된 이미지에 적용한 이미지 필터일 수 있다. In step S133, the communication unit 410 of the server 400 may receive information on the type of the image filter selected to be applied to the image from the at least one terminal (200, 300). For example, the image filter selected to be applied to the image may be an image filter applied to an image stored in a user's terminal by each user of the at least one terminal 200 or 300.

S134 단계에서, 서버(400)의 제어부(430)는 적어도 하나 이상의 단말기(200, 300)로부터 수신된 사용자 입력 정보, 이미지로부터 식별된 컨텐츠의 종류 및 적용된 필터의 종류를 이용하여 학습 모델을 학습할 수 있다. 학습 모델은 적어도 하나 이상의 단말기(200, 300)로부터 수신된 사용자 입력 정보, 및 적어도 하나 이상의 단말기(200, 300)로부터 수신된 이미지로부터 식별된 컨텐츠의 종류와 이미지에 적용되기 위해 선택된 이미지 필터의 종류 사이의 상관관계에 대해 학습된 결과일 수 있다. In step S134, the control unit 430 of the server 400 learns a learning model using user input information received from at least one or more terminals 200 and 300, a type of content identified from the image, and a type of applied filter. Can be. The learning model includes user input information received from at least one or more terminals 200 and 300, and types of content identified from images received from at least one or more terminals 200 and 300 and a type of image filter selected to be applied to the image. It may be the result of learning about the correlation between.

서버(400)의 제어부(430)는 학습 결과에 기초하여 인공 신경망을 훈련하여, 서로 다른 두 개 이상의 이미지 필터를 선택하기 위한 학습 모델을 생성할 수 있다. 서버(400)의 제어부(430)는 대상 단말기(100)로부터 수신된 이미지 및 학습 모델을 이용하여 대상 단말기(100)의 사용자가 선택할 확률이 높을 것으로 예측되는 적어도 두 개 이상의 이미지 필터를 선택할 수 있다. The controller 430 of the server 400 may train an artificial neural network based on the learning result, and generate a learning model for selecting two or more different image filters. The control unit 430 of the server 400 may select at least two or more image filters predicted to be highly likely to be selected by the user of the target terminal 100 using the image and the learning model received from the target terminal 100. .

도 9는 본 발명의 다른 실시예에 따른 서버의 동작 방법을 보여주는 순서도이다. S210 단계에서, 서버(400)의 통신부(410)는 대상 단말기(100)로부터 사용자 정보 및 이미지를 수신할 수 있다. 사용자 정보는 대상 단말기(100)의 사용자가 자신의 단말기에 입력한 프로필 정보일 수 있다. 프로필 정보는 단말기의 사용자의 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터의 종류에 대한 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 서버(400)는 대상 단말기(100)로부터 수신된 이미지에 적용 가능한 이미지 필터를 추천할 수 있는 서비스를 제공하는 애플리케이션을 실행할 수 있다. 9 is a flowchart illustrating a method of operating a server according to another embodiment of the present invention. In step S210, the communication unit 410 of the server 400 may receive user information and images from the target terminal 100. The user information may be profile information input by the user of the target terminal 100 to his terminal. The profile information may include at least one of the user's hobby information, gender information, age information, or information about a preferred image filter type. For example, the server 400 may execute an application providing a service capable of recommending an image filter applicable to an image received from the target terminal 100.

S220 단계에서, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 준비된 학습 모델을 이용하여 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.In step S220, the control unit 430 of the server 400 may identify the type of content included in the image. For example, the control unit 430 of the server 400 may identify the type of content included in the image using the prepared learning model.

S230 단계에서, 서버(400)의 제어부(430)는 이미지에 적용 가능한 이미지 필터에 대한 추천 알고리즘을 준비할 수 있다. 예를 들어, 준비된 추천 알고리즘은 애플리케이션을 통해 이미지에 적용 가능한 이미지 필터를 선택하기 위해 이용되는 데이터 인식 모델일 수 있다. 서버(400)의 제어부가 추천 알고리즘을 준비하는 방법은 도10을 참조하여 설명될 수 있다. In step S230, the control unit 430 of the server 400 may prepare a recommendation algorithm for an image filter applicable to the image. For example, the prepared recommendation algorithm may be a data recognition model used to select an image filter applicable to an image through an application. The method in which the control unit of the server 400 prepares the recommendation algorithm can be described with reference to FIG. 10.

S240 단계에서, 서버(400)의 제어부(430)는 이미지 필터를 선택하기 위한 추천 알고리즘을 이용하여 두 개 이상의 이미지 필터를 선택할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 대상 단말기(100)로부터 수신된 이미지에 포함된 컨텐츠를 보정하기 위한 두 개 이상의 이미지 필터를 선택할 수 있다. 서버(400)의 제어부(430)는 대상 단말기로부터 수신된 사용자 정보, 이미지, 및 추천 알고리즘을 이용하여 서로 다른 두 개 이상의 이미지 필터를 선택할 수 있다. In step S240, the control unit 430 of the server 400 may select two or more image filters using a recommendation algorithm for selecting an image filter. For example, the control unit 430 of the server 400 may select two or more image filters for correcting content included in the image received from the target terminal 100. The control unit 430 of the server 400 may select two or more different image filters using user information, images, and recommendation algorithms received from the target terminal.

예를 들어, 서버(400)의 제어부(430)는 대상 단말기(100)의 사용자의 사용자 정보 및 이미지에 포함된 컨텐츠의 종류에 따라 대상 단말기(100)의 사용자가 선택할 확률이 높을 것으로 예측되는 두 개 이상의 이미지 필터를 선택할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 대상 단말기(100)의 사용자의 사용자 정보 및 이미지에 포함된 컨텐츠의 종류에 따라 단말기(100)의 사용자가 선택할 확률이 가장 높을 것으로 예측된 이미지 필터 및 선택할 확률이 두 번째로 높을 것으로 예측된 이미지 필터를 선택할 수 있다.For example, the control unit 430 of the server 400 may be predicted to have a high probability that a user of the target terminal 100 will select a high probability according to the user information of the user of the target terminal 100 and the type of content included in the image. More than one image filter can be selected. For example, the controller 430 of the server 400 is an image predicted to have the highest probability of being selected by the user of the terminal 100 according to user information of the user of the target terminal 100 and the type of content included in the image. You can select filters and image filters that are predicted to have the second highest probability.

S250 단계에서, 서버(400)의 통신부(410)는 선택된 두 개 이상의 이미지 필터에 대한 정보를 대상 단말기(100)에 전송할 수 있다. 예를 들어, 대상 단말기(100)의 출력부(140)는 이미지를 두 개 이상의 이미지 영역으로 구분하고, 두 개 이상의 이미지 영역에 각각 선택된 두 개 이상의 이미지 필터를 적용할 수 있다. In step S250, the communication unit 410 of the server 400 may transmit information about two or more selected image filters to the target terminal 100. For example, the output unit 140 of the target terminal 100 may divide an image into two or more image regions, and apply two or more image filters respectively to the two or more image regions.

도 10은 본 발명의 다른 실시예에 따른 서버가 추천 알고리즘을 준비하는 방법을 보여주는 순서도이다. 도 3, 도 9, 및 도 10을 참조하면, S231 단계에서, 서버(400)의 통신부(410)는 적어도 하나 이상의 단말기로부터 사용자 정보 및 이미지를 수신할 수 있다. 예를 들어, 적어도 하나 이상의 단말기(200, 300)는 복수의 단말기(100~300) 중 대상 단말기(100)를 제외한 나머지 단말기들일 수 있다. 사용자 정보는 적어도 하나 이상의 단말기(200, 300) 각각의 사용자가 자신의 단말기에 입력한 프로필 정보일 수 있다. 프로필 정보는 단말기의 사용자의 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터 정보 중 적어도 하나를 포함할 수 있다. 10 is a flowchart illustrating a method for a server to prepare a recommendation algorithm according to another embodiment of the present invention. 3, 9, and 10, in step S231, the communication unit 410 of the server 400 may receive user information and images from at least one or more terminals. For example, the at least one or more terminals 200 and 300 may be terminals other than the target terminal 100 among the plurality of terminals 100 to 300. The user information may be profile information input by each user of at least one or more terminals 200 and 300 to their terminal. The profile information may include at least one of hobby information, gender information, age information, or preferred image filter information of the user of the terminal.

S232 단계에서, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 준비된 학습 모델을 이용하여 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.In step S232, the control unit 430 of the server 400 may identify the type of content included in the image. For example, the control unit 430 of the server 400 may identify the type of content included in the image using the prepared learning model.

S233 단계에서, 서버(400)의 통신부(410)는 적어도 하나 이상의 단말기(200, 300)로부터 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 정보를 수신할 수 있다. 예를 들어, 선택된 이미지 필터는 적어도 하나 이상의 단말기(200, 300) 각각의 사용자가 자신의 단말기에 입력된 이미지에 적용하기 위해 선택한 이미지 필터일 수 있다. In step S233, the communication unit 410 of the server 400 may receive information on the type of the image filter selected to be applied to the image from at least one or more terminals 200 and 300. For example, the selected image filter may be an image filter selected by each user of at least one or more terminals 200 and 300 to apply to an image input to their terminal.

S234 단계에서, 서버(400)의 제어부(430)는 적어도 하나 이상의 단말기(200, 300)로부터 수신된 사용자 정보, 이미지에서 식별된 컨텐츠의 종류 및 선택된 필터의 종류를 이용하여 학습 모델을 학습할 수 있다. 학습 모델은 적어도 하나 이상의 단말기(200, 300)로부터 수신된 사용자 정보, 및 이미지에서 식별된 컨텐츠의 종류와 적용된 필터의 종류 사이의 상관관계에 대해 학습된 결과일 수 있다. In step S234, the control unit 430 of the server 400 can learn the learning model by using the user information received from at least one or more terminals 200 and 300, the type of content identified in the image, and the selected filter type. have. The learning model may be a result of learning the correlation between the user information received from at least one or more terminals 200 and 300 and the type of content identified in the image and the type of applied filter.

서버(400)의 제어부(430)는 학습 결과에 기초하여 인공 신경망을 훈련하여, 서로 다른 두 개 이상의 이미지 필터를 선택하기 위한 학습 모델을 생성할 수 있다. 제어부(430)는 학습 모델, 대상 단말기(100)의 사용자의 사용자 정보 및 이미지에 포함된 컨텐츠의 종류를 이용하여 대상 단말기(100)의 사용자가 선택할 확률이 높을 것으로 예측되는 두 개 이상의 이미지 필터를 선택할 수 있다.The controller 430 of the server 400 may train an artificial neural network based on the learning result, and generate a learning model for selecting two or more different image filters. The control unit 430 uses the learning model, the user information of the user of the target terminal 100, and the type of content included in the image to select two or more image filters predicted to be highly likely to be selected by the user of the target terminal 100. You can choose.

도 11은 본 발명의 또 다른 실시예에 따른 서버의 동작 방법을 보여주는 순서도이다. 도 3 및 도 11을 참조하면, S310 단계에서, 서버(400)의 통신부(410)는 대상 단말기(100)로부터 이미지를 수신할 수 있다. 11 is a flowchart illustrating a method of operating a server according to another embodiment of the present invention. 3 and 11, in step S310, the communication unit 410 of the server 400 may receive an image from the target terminal 100.

S320 단계에서, 서버(400)의 제어부(430)는 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 준비된 학습 모델을 이용하여 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.In step S320, the control unit 430 of the server 400 may identify the type of content included in the image. For example, the control unit 430 of the server 400 may identify the type of content included in the image using the prepared learning model.

S330 단계에서, 서버(400)는 컨텐츠의 종류별로 선택된 이미지 필터의 종류에 대한 정보를 준비할 수 있다. S340 단계에서, 서버(400)는 컨텐츠의 종류별로 선택된 이미지 필터의 종류에 대한 정보를 기반으로 대상 단말기(100)의 사용자가 선택할 것으로 예측되는 두 개 이상의 이미지 필터를 선택할 수 있다. S330 단계 및 S340 단계는 도 12 및 도 13을 참조하여 자세히 설명될 수 있다.In step S330, the server 400 may prepare information on the type of the image filter selected for each type of content. In step S340, the server 400 may select two or more image filters predicted to be selected by the user of the target terminal 100 based on information on the type of the image filter selected for each type of content. Steps S330 and S340 may be described in detail with reference to FIGS. 12 and 13.

도 12는 본 발명의 실시예에 따른 서버에 준비된 컨텐츠의 종류별로 선택된 이미지 필터의 종류에 대한 정보를 보여주는 도면이다. 도 3, 도 11 및 도 12를 참조하면, 목록에 포함된 정보는 복수의 단말기(100~300)로부터 수신될 수 있다. 목록은 서버(400)의 저장부(420)에 저장될 수 있다. 12 is a diagram showing information on a type of an image filter selected for each type of content prepared in a server according to an embodiment of the present invention. 3, 11 and 12, information included in the list may be received from a plurality of terminals 100 to 300. The list may be stored in the storage unit 420 of the server 400.

예를 들어, 제1 이미지 필터 이력 정보(421)는 제1 단말기(100)로부터 수신된, 제1 컨텐츠(CN1)가 포함된 이미지에 적용된 이미지 필터의 종류에 대한 정보를 포함할 수 있다. 제1 단말기(100)의 사용자는 제1 컨텐츠(CN1)가 포함된 이미지에 적용하기 위한 이미지 필터로써 제2 이미지 필터(IF2), 제3 이미지 필터(IF3), 제6 이미지 필터(IF6), 제7 이미지 필터(IF7) 및 제8 이미지 필터(IF8)를 선택할 수 있다. For example, the first image filter history information 421 may include information on the type of the image filter applied to the image including the first content CN1, received from the first terminal 100. The user of the first terminal 100 is an image filter for applying to an image including the first content CN1, the second image filter IF2, the third image filter IF3, the sixth image filter IF6, The seventh image filter IF7 and the eighth image filter IF8 may be selected.

선택된 필터(예를 들어, 제2 이미지 필터(IF2), 제3 이미지 필터(IF3), 제6 이미지 필터(IF6), 제7 이미지 필터(IF7) 또는 제8 이미지 필터(IF8))에 대한 정보는 제1 단말기(100)의 사용자에 의해 제1 컨텐츠(CN1)를 포함하는 이미지에 적용하기 위해 각각의 이미지 필터가 선택될 때마다 서버(400)에 전송될 수 있다. Information about the selected filter (eg, second image filter (IF2), third image filter (IF3), sixth image filter (IF6), seventh image filter (IF7), or eighth image filter (IF8)) May be transmitted to the server 400 whenever each image filter is selected to be applied to an image including the first content CN1 by the user of the first terminal 100.

제2 이미지 필터 이력 정보(422)는 제2 단말기(200)로부터 수신된, 제1 컨텐츠(CN1)가 포함된 이미지에 적용된 이미지 필터의 종류에 대한 정보를 포함할 수 있다. 제2 단말기(200)의 사용자는 제1 컨텐츠(CN1)가 포함된 이미지에 적용하기 위한 이미지 필터로써 제3 이미지 필터(IF3), 제4 이미지 필터(IF4), 제5 이미지 필터(IF5), 제8 이미지 필터(IF8), 제9 이미지 필터(IF9), 및 제10 이미지 필터(IF10)를 선택할 수 있다.The second image filter history information 422 may include information on the type of image filter applied to the image including the first content CN1, received from the second terminal 200. The user of the second terminal 200 is an image filter for applying to an image including the first content CN1. The third image filter IF3, the fourth image filter IF4, the fifth image filter IF5, The eighth image filter IF8, the ninth image filter IF9, and the tenth image filter IF10 may be selected.

선택된 필터(예를 들어, 제3 이미지 필터(IF3), 제4 이미지 필터(IF4), 제5 이미지 필터(IF5), 제8 이미지 필터(IF8), 제9 이미지 필터(IF9), 또는 제10 이미지 필터(IF10))에 대한 정보는 제2 단말기(200)의 사용자에 의해 제1 컨텐츠(CN1)를 포함하는 이미지에 적용하기 위해 각각의 이미지 필터가 선택될 때마다 서버(400)에 전송될 수 있다. Selected filter (for example, third image filter IF3), fourth image filter IF4, fifth image filter IF5, eighth image filter IF8, ninth image filter IF9, or tenth Information about the image filter IF10 is transmitted to the server 400 each time each image filter is selected to be applied to an image including the first content CN1 by the user of the second terminal 200. Can be.

제3 이미지 필터 이력 정보(423)는 제3 단말기(300)로부터 수신된, 제1 컨텐츠(CN1)가 포함된 이미지에 적용하기 위해 선택된 이미지 필터의 종류에 대한 정보를 포함할 수 있다. 제3 단말기(300)의 사용자는 제1 컨텐츠(CN1)가 포함된 이미지에 적용하기 위한 이미지 필터로써 제1 이미지 필터(IF1), 제3 이미지 필터(IF3), 제6 이미지 필터(IF6), 제7 이미지 필터(IF7), 제8 이미지 필터(IF8), 및 제9 이미지 필터(IF9)를 선택할 수 있다.The third image filter history information 423 may include information on the type of the image filter selected to apply to the image including the first content CN1, received from the third terminal 300. The user of the third terminal 300 is an image filter for applying to an image including the first content CN1, the first image filter IF1, the third image filter IF3, the sixth image filter IF6, The seventh image filter IF7, the eighth image filter IF8, and the ninth image filter IF9 may be selected.

선택된 필터(예를 들어, 제1 이미지 필터(IF1), 제3 이미지 필터(IF3), 제6 이미지 필터(IF6), 제7 이미지 필터(IF7), 제8 이미지 필터(IF8), 또는 제9 이미지 필터(IF9))에 대한 정보는 제3 단말기(300)의 사용자에 의해 제1 컨텐츠(CN1)를 포함하는 이미지에 적용하기 위해 각각의 이미지 필터가 선택될 때마다 서버(400)에 전송될 수 있다. Selected filter (eg, first image filter IF1, third image filter IF3), sixth image filter (IF6), seventh image filter (IF7), eighth image filter (IF8), or ninth Information about the image filter IF9) is transmitted to the server 400 each time each image filter is selected to be applied to an image including the first content CN1 by the user of the third terminal 300 Can be.

대상 단말기(100)로부터 수신된 이미지로부터 식별된 컨텐츠의 종류는 제1 컨텐츠(CN1)일 수 있다. 서버(400)는 대상 단말기(100)에 제공될 두 개 이상의 이미지 필터의 종류에 대한 정보를 생성하기 위해, 복수의 단말기(100~300) 각각으로부터 수신된 제1 내지 제3 이미지 필터 이력 정보(421~423)를 이용할 수 있다. 복수의 단말기(100~300) 각각으로부터 수신된 제1 내지 제3 이미지 필터 이력 정보(421~423)는 대상 단말기(100)로부터 이미지를 수신하기 전에 수신되어 서버(400)의 저장부(420)에 저장될 수 있다. The type of content identified from the image received from the target terminal 100 may be the first content CN1. The server 400 generates first to third image filter history information received from each of the plurality of terminals 100 to 300 to generate information about the types of two or more image filters to be provided to the target terminal 100 ( 421 ~ 423). The first to third image filter history information 421 to 423 received from each of the plurality of terminals 100 to 300 is received before receiving the image from the target terminal 100 and the storage unit 420 of the server 400. Can be stored in.

서버(400)의 제어부(430)는 추천 알고리즘으로써 협업 필터링 알고리즘(collaborative filtering algorithm)을 이용할 수 있다. 서버(400)의 제어부(430)는 협업 필터링 알고리즘을 이용하여 대상 단말기(100)에 제공될 두 개 이상의 이미지 필터의 종류에 대한 정보를 생성할 수 있다. 좀 더 구체적으로, 서버(400)의 제어부(430)는 협업 필터릴 알고리즘을 이용하여 대상 단말기(100)의 사용자가 선택할 확률이 높을 것으로 예측되는 이미지 필터를 선택할 수 있다. The control unit 430 of the server 400 may use a collaborative filtering algorithm as a recommendation algorithm. The control unit 430 of the server 400 may generate information about two or more types of image filters to be provided to the target terminal 100 using a collaborative filtering algorithm. More specifically, the control unit 430 of the server 400 may select an image filter predicted to have a high probability of being selected by a user of the target terminal 100 using a collaborative filter reel algorithm.

서버(400)의 제어부(430)는 제2 이미지 필터 이력 정보(422) 및 제3 이미지 필터 이력 정보(423) 중 제1 이미지 필터 이력 정보(421)에 포함된 이미지 필터와 중복된 이미지 필터를 가장 많이 포함하는 정보를 선택할 수 있다. 제2 이미지 필터 이력 정보(422)는 제1 이미지 필터 이력 정보(421)와 두 개의 중복된 이미지 필터를 포함할 수 있다. 예를 들어, 2 이미지 필터 이력 정보(422) 및 제1 이미지 필터 이력 정보(421) 사이에 중복된 이미지 필터는 제3 이미지 필터(IF3), 및 제8 이미지 필터(IF8)일 수 있다. 그리고, 제3 이미지 필터 이력 정보(423)는 제1 이미지 필터 이력 정보(421)와 네 개의 중복된 이미지 필터를 포함할 수 있다. 예를 들어, 제3 이미지 필터 이력 정보(423) 및 제1 이미지 필터 이력 정보(421) 사이의 중복된 이미지 필터는 제3 이미지 필터(IF3), 제6 이미지 필터(IF6), 제7 이미지 필터(IF7) 및 제8 이미지 필터(IF8)일 수 있다.The control unit 430 of the server 400 selects an image filter overlapping the image filter included in the first image filter history information 421 among the second image filter history information 422 and the third image filter history information 423. You can choose the information that contains the most. The second image filter history information 422 may include the first image filter history information 421 and two overlapping image filters. For example, the image filter overlapped between the two image filter history information 422 and the first image filter history information 421 may be the third image filter IF3 and the eighth image filter IF8. In addition, the third image filter history information 423 may include the first image filter history information 421 and four overlapping image filters. For example, the overlapped image filter between the third image filter history information 423 and the first image filter history information 421 is a third image filter IF3, a sixth image filter IF6, and a seventh image filter (IF7) and an eighth image filter (IF8).

제1 이미지 필터 이력 정보(421)와 중복된 이미지 필터를 가장 많이 포함하는 정보는 제3 이미지 필터 이력 정보(423)이다. 따라서, 서버(400)의 제어부(430)는 제3 단말기(300)의 사용자가 선택한 이미지 필터를 대상 단말기(100)의 사용자가 선호할 것으로 예측할 수 있다. The information including the first image filter history information 421 and the most overlapped image filter is the third image filter history information 423. Accordingly, the control unit 430 of the server 400 may predict that the user of the target terminal 100 will prefer the image filter selected by the user of the third terminal 300.

서버(400)의 제어부(430)는 제3 이미지 필터 이력 정보(423)를 기반으로 대상 단말기(100)에 제공될 이미지 필터의 종류를 선택할 수 있다. 예를 들어, 서버(400)의 제어부(430)는 제3 이미지 필터 이력 정보(423)에 포함된 이미지 필터의 종류 중에서, 제1 이미지 필터 이력 정보(421)에 포함된 이미지 필터의 종류와 중복되지 않는 나머지 두 개의 이미지 필터를 대상 단말기(100)의 사용자가 선호할 이미지 필터로서 선택할 수 있다. 나머지 두 개의 이미지 필터는 제1 이미지 필터(IF1) 및 제9 이미지 필터(IF9)일 수 있다. The control unit 430 of the server 400 may select the type of image filter to be provided to the target terminal 100 based on the third image filter history information 423. For example, the control unit 430 of the server 400 overlaps with the type of the image filter included in the first image filter history information 421 among the types of image filters included in the third image filter history information 423. The remaining two image filters may be selected as image filters that the user of the target terminal 100 will prefer. The other two image filters may be the first image filter IF1 and the ninth image filter IF9.

다시 도 11을 참조하면, S350 단계에서, 서버(400)의 통신부(410)는 선택된 두 개 이상의 이미지 필터의 종류에 대한 정보를 대상 단말기에 전송할 수 있다. 서버(400)는 협업 필터링 알고리즘을 이용하여 대상 단말기(100)의 사용자가 선호할 것으로 예측된 이미지 필터를 선택하고, 선택된 이미지 필터의 종류에 대한 정보를 대상 단말기(100)에 전송할 수 있다. 서버(400)가 이미지 필터의 종류에 대한 정보를 대상 단말기(100)에 전송하는 방법은 도 9를 참조하여 설명될 수 있다.Referring back to FIG. 11, in step S350, the communication unit 410 of the server 400 may transmit information on the types of two or more selected image filters to the target terminal. The server 400 may select an image filter predicted to be preferred by the user of the target terminal 100 using a collaborative filtering algorithm, and transmit information about the selected type of the image filter to the target terminal 100. The method in which the server 400 transmits information on the type of the image filter to the target terminal 100 may be described with reference to FIG. 9.

도 13 본 발명의 실시예에 따른 단말기 및 서버의 통신 방법을 보여주는 도면이다. 도 11 내지 도 13을 참조하면, 서버(400)는 이미지 필터의 종류에 대한 정보로서 제1 이미지 필터 정보(IF1_INF), 및 제9 이미지 필터 정보(INF9_INF)를 대상 단말기(100)에 전송할 수 있다.13 is a diagram showing a communication method of a terminal and a server according to an embodiment of the present invention. 11 to 13, the server 400 may transmit the first image filter information IF1_INF and the ninth image filter information INF9_INF as information on the type of the image filter to the target terminal 100. .

도 14는 본 발명의 다른 실시예에 따른 서버의 동작 방법을 보여주는 순서도이다. 도 4 및 도 14를 참조하면, S410 단계에서, 서버(400)의 통신부(410)는 대상 단말기(100)로부터 컨텐츠의 종류에 대한 정보를 수신할 수 있다. 예를 들어, 대상 단말기(100)는 이미지에 적용되는 이미지 필터를 선택할 수 있는 서비스를 제공하는 애플리케이션을 실행할 수 있다. 대상 단말기(100)는 준비된 학습 모델을 이용하여 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.14 is a flowchart illustrating a method of operating a server according to another embodiment of the present invention. 4 and 14, in step S410, the communication unit 410 of the server 400 may receive information on the type of content from the target terminal 100. For example, the target terminal 100 may run an application that provides a service for selecting an image filter applied to an image. The target terminal 100 may identify the type of content included in the image using the prepared learning model.

준비된 학습 모델은 이미지에 포함된 컨텐츠의 종류를 식별하기 위한 학습 모델 일 수 있다. 컨텐츠의 종류를 식별하기 위한 학습 모델은 다수의 사진에 대한 이미지 데이터 및 다수의 사진에 포함된 컨텐츠의 종류 사이의 상관관계에 대해 학습된 결과일 수 있다. 대상 단말기(100)는 컨텐츠의 종류를 식별하기 위한 학습 모델 및 이미지를 이용하여 이미지에 포함된 컨텐츠의 종류를 예측할 수 있다. 예측된 컨텐츠의 종류에 대한 정보는 대상 단말기(100)로부터 서버(400)에 전송될 수 있다. The prepared learning model may be a learning model for identifying the type of content included in the image. The learning model for identifying the type of content may be a result of learning the correlation between image data for multiple photos and the type of content included in the multiple photos. The target terminal 100 may predict the type of content included in the image using a learning model and image for identifying the type of content. Information on the type of the predicted content may be transmitted from the target terminal 100 to the server 400.

S420 단계에서, 서버(400)의 제어부(430)는 이미지에 적용 가능한 이미지 필터에 대한 추천 알고리즘을 준비할 수 있다. S430 단계에서, 서버(400)의 제어부(430)는 이미지 필터를 선택하기 위한 추천 알고리즘을 이용하여 두 개 이상의 이미지 필터를 선택할 수 있다. 그리고, S440 단계에서, 서버(400)의 통신부(410)는 선택된 두 개 이상의 이미지 필터에 대한 정보를 대상 단말기(100)에 전송할 수 있다. S420 단계 내지 S440 단계는 각각 도 4를 참조하여 설명된 S130 단계 내지 S150 단계와 유사 또는 동일할 수 있다. 따라서, S420 단계 내지 S440 단계에 대한 자세한 설명은 생략된다. In step S420, the controller 430 of the server 400 may prepare a recommendation algorithm for an image filter applicable to the image. In step S430, the controller 430 of the server 400 may select two or more image filters using a recommendation algorithm for selecting an image filter. Then, in step S440, the communication unit 410 of the server 400 may transmit information about two or more selected image filters to the target terminal 100. Steps S420 to S440 may be similar to or the same as steps S130 to S150 described with reference to FIG. 4, respectively. Therefore, detailed descriptions of steps S420 to S440 are omitted.

도 1 내지 도 14를 참조하여 설명된 바와 같이, 본 발명의 실시예에 따른 서버(400)는 사용자에 의해 촬영될 이미지에 포함된 컨텐츠의 종류에 적합한 서로 다른 두 개 이상의 이미지 필터가 자동으로 추천할 수 있다. 서버(400)가 서로 다른 두 개 이상의 이미지 필터를 자동으로 추천해줌으로써 사용자의 편리성이 향상될 수 있다.As described with reference to FIGS. 1 to 14, the server 400 according to an embodiment of the present invention automatically recommends two or more different image filters suitable for types of content included in an image to be photographed by a user can do. The user convenience may be improved by the server 400 automatically recommending two or more different image filters.

이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다.The embodiments described above may also be implemented in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer, and can include both volatile and nonvolatile media, removable and non-removable media.

또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 또는 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 출력 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.In addition, computer readable media may include computer storage media or communication media. Computer storage media can include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other output mechanism, and may include any information delivery media.

이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand that there is. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (14)

서버의 동작 방법에 있어서,
복수의 단말기 중 대상 단말기로부터 이미지 및 사용자 정보를 수신하는 단계;
상기 수신된 이미지에 포함된 컨텐츠의 종류를 식별하는 단계;
상기 이미지에 적용 가능한 이미지 필터에 대한 추천 알고리즘을 준비하는 단계;
상기 추천 알고리즘을 이용하여 상기 컨텐츠의 종류에 대응하는 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계; 및
상기 선택된 두 개 이상의 이미지 필터에 대한 정보를 상기 대상 단말기에 전송하는 단계를 포함하는 동작 방법.
In the server operation method,
Receiving an image and user information from a target terminal among a plurality of terminals;
Identifying a type of content included in the received image;
Preparing a recommendation algorithm for an image filter applicable to the image;
Selecting two or more different image filters corresponding to the type of the content using the recommendation algorithm; And
And transmitting information on the selected two or more image filters to the target terminal.
제 1 항에 있어서,
상기 이미지에 포함된 상기 컨텐츠의 종류를 식별하기 전에 다수의 사진에 대한 이미지 데이터 및 상기 다수의 사진에 포함된 컨텐츠의 종류 사이의 상관관계에 대해 학습된, 상기 이미지에 포함된 상기 컨텐츠의 종류를 식별하기 위한 학습 모델을 준비하는 단계
를 더 포함하는 동작 방법.
According to claim 1,
Prior to identifying the type of the content included in the image, the type of the content included in the image, learned about the correlation between the image data for multiple photos and the type of content included in the multiple photos, Steps to prepare a learning model for identification
Operation method further comprising a.
제 1 항에 있어서,
상기 사용자 정보는 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터의 종류에 대한 정보를 포함하는 동작 방법.
According to claim 1,
The user information includes hobby information, gender information, age information, or information about a type of a preferred image filter.
제 1 항에 있어서,
상기 이미지에 적용될 상기 이미지 필터에 대한 상기 추천 알고리즘을 준비하는 단계는,
상기 복수의 단말기 중 상기 대상 단말기를 제외한 적어도 하나 이상의 단말기 각각으로부터 상기 사용자 정보 및 이미지를 수신하는 단계;
상기 적어도 하나 이상의 단말기 각각으로부터 수신된 상기 이미지에 포함된 컨텐츠의 종류를 식별하는 단계;
상기 적어도 하나 이상의 단말기 각각으로부터 상기 이미지에 적용하기 위해 선택된 이미지 필터의 종류에 대한 정보를 수신하는 단계; 및
상기 사용자 정보, 상기 식별된 컨텐츠의 종류에 대한 정보, 및 상기 수신된 이미지 필터의 종류에 대한 정보를 이용하여 학습 모델을 준비하는 단계
를 포함하는 동작 방법.
According to claim 1,
Preparing the recommendation algorithm for the image filter to be applied to the image,
Receiving the user information and images from each of at least one or more terminals other than the target terminal among the plurality of terminals;
Identifying a type of content included in the image received from each of the at least one terminal;
Receiving information on a type of an image filter selected for application to the image from each of the at least one terminal; And
Preparing a learning model using the user information, information on the type of the identified content, and information on the type of the received image filter.
Method of operation comprising a.
제 1 항에 있어서,
상기 수신된 이미지에 포함된 컨텐츠의 종류를 식별하는 단계는,
상기 대상 단말기로부터 상기 수신된 이미지에 포함된 상기 컨텐츠가 제1 컨텐츠인 것으로 판단하는 단계를 포함하고,
상기 이미지에 적용될 이미지 필터에 대한 상기 추천 알고리즘을 준비하는 단계는,
상기 대상 단말기로부터 상기 이미지가 수신되기 전에 수신된, 상기 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보 및 상기 복수의 단말기 중 상기 대상 단말기를 제외한 적어도 하나 이상의 단말기로부터 각각 수신된, 상기 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보를 준비하는 단계
를 포함하는 동작 방법.
According to claim 1,
The step of identifying the type of content included in the received image,
And determining that the content included in the received image from the target terminal is the first content,
Preparing the recommendation algorithm for the image filter to be applied to the image,
At least one or more of the image filter history information for the type of the image filter selected to be applied to the image including the first content received before the image is received from the target terminal, and the target terminal among the plurality of terminals. Preparing image filter history information for a type of an image filter selected to be applied to an image including the first content, each received from a terminal.
Method of operation comprising a.
제 5 항에 있어서,
상기 추천 알고리즘을 이용하여 상기 컨텐츠의 종류에 대응하는 상기 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계는,
상기 적어도 하나 이상의 단말기로부터 각각 수신된, 상기 이미지 필터 이력 정보 중에서 상기 대상 단말기로부터 수신된 이미지 필터 이력 정보에 포함된 이미지 필터와 중복된 이미지 필터를 가장 많이 포함하는 이미지 필터 이력 정보를 선택하는 단계; 및
상기 선택된 이미지 필터 이력 정보 중에서 상기 대상 단말기로부터 수신된 상기 이미지 필터 이력 정보와 중복되지 않은 이미지 필터에 기초하여 상기 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계
를 포함하는 동작 방법.
The method of claim 5,
The step of selecting two or more different image filters corresponding to the type of the content using the recommendation algorithm may include:
Selecting image filter history information, which includes the most image filters and image filters included in the image filter history information received from the target terminal, from among the image filter history information, each received from the at least one terminal; And
Selecting two or more different image filters based on the image filter not overlapping with the image filter history information received from the target terminal among the selected image filter history information.
Method of operation comprising a.
제 1 항에 있어서,
상기 수신된 이미지에 포함된 상기 컨텐츠의 종류를 식별하는 단계는,
상기 컨텐츠는 사람, 특정 오브젝트(object), 특정 동물, 특정 풍경, 특정 패턴 또는 특정 색상 중 적어도 하나를 포함하는지 여부를 검출하는 단계
를 포함하는 동작 방법.
According to claim 1,
The step of identifying the type of the content included in the received image,
Detecting whether the content includes at least one of a person, a specific object, a specific animal, a specific landscape, a specific pattern, or a specific color
Method of operation comprising a.
제 1 항에 있어서,
상기 추천 알고리즘을 이용하여 상기 컨텐츠의 종류에 대응하는 상기 서로 다른 두 개 이상의 이미지 필터를 선택하는 단계는,
상기 추천 알고리즘을 이용하여 상기 대상 단말기의 사용자가 선택할 확률이 가장 높을 것으로 예측된 제1 이미지 필터, 및 상기 대상 단말기의 상기 사용자가 선택할 확률이 두 번째로 높을 것으로 예측된 제2 이미지 필터를 선택하는 단계
를 포함하는 동작 방법.
According to claim 1,
The step of selecting two or more different image filters corresponding to the type of the content using the recommendation algorithm may include:
Selecting a first image filter predicted to have the highest probability to be selected by the user of the target terminal using the recommendation algorithm, and a second image filter predicted to have a second highest probability to be selected by the user of the target terminal. step
Method of operation comprising a.
제1항의 동작 방법을 컴퓨터에서 실행시키는 프로그램이 기록된 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium on which a program for executing the method of claim 1 is executed on a computer. 복수의 단말기 중 대상 단말기로부터 이미지 및 사용자 정보를 수신하는 통신부; 및
상기 수신된 이미지에 포함된 컨텐츠의 종류를 식별하고, 상기 이미지에 적용될 이미지 필터에 대한 추천 알고리즘을 이용하여 서로 다른 두 개 이상의 이미지 필터를 선택하는 제어부를 포함하고,
상기 제어부는 상기 추천 알고리즘을 이용하여 상기 대상 단말기의 사용자가 선택할 확률이 가장 높을 것으로 예측된 제1 이미지 필터, 및 상기 대상 단말기의 사용자가 선택할 확률이 두 번째로 높을 것으로 예측된 제2 이미지 필터를 선택하고,
상기 통신부는 상기 제1 이미지 필터에 대한 정보 및 상기 제2 이미지 필터에 대한 정보를 상기 대상 단말기에 전송하는 서버.
A communication unit receiving an image and user information from a target terminal among a plurality of terminals; And
And a control unit for identifying types of content included in the received image, and selecting two or more different image filters using a recommendation algorithm for an image filter to be applied to the image,
The control unit may use the first algorithm to predict a first image filter predicted to have the highest probability of being selected by the user of the target terminal and a second image filter predicted to have a second highest probability to be selected by the user of the target terminal using the recommendation algorithm. Choose,
The communication unit transmits information on the first image filter and information on the second image filter to the target terminal.
제 10 항에 있어서,
상기 제어부는 상기 대상 단말기로부터 상기 수신된 이미지에 포함된 상기 컨텐츠가 제1 컨텐츠인 것으로 판단하고,
상기 통신부는 상기 대상 단말기로부터 상기 이미지가 수신되기 전에 수신된, 상기 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보 및 상기 복수의 단말기 중 상기 대상 단말기를 제외한 적어도 하나 이상의 단말기로부터 각각 수신된, 상기 제1 컨텐츠를 포함하는 이미지에 적용되기 위해 선택된 이미지 필터의 종류에 대한 이미지 필터 이력 정보를 수신하는 서버.
The method of claim 10,
The control unit determines that the content included in the received image from the target terminal is the first content,
The communication unit excludes the target terminal from among the plurality of terminals and image filter history information for the type of the image filter selected to be applied to the image including the first content, which was received before the image was received from the target terminal. A server that receives image filter history information for a type of an image filter selected to be applied to an image including the first content, each received from at least one or more terminals.
제 11 항에 있어서,
상기 제어부는 상기 적어도 하나 이상의 단말기로부터 각각 수신된, 상기 이미지 필터 이력 정보 중에서 상기 대상 단말기로부터 수신된 이미지 필터 이력 정보에 포함된 이미지 필터와 중복된 이미지 필터를 가장 많이 포함하는 이미지 필터 이력 정보를 선택하고, 상기 선택된 이미지 필터 이력 정보 중에서 상기 대상 단말기로부터 수신된 상기 이미지 필터 이력 정보와 중복되지 않은 이미지 필터에 기초하여 상기 서로 다른 두 개 이상의 이미지 필터를 선택하는 서버.
The method of claim 11,
The control unit selects image filter history information that includes the most image filters and image filters included in the image filter history information received from the target terminal among the image filter history information received from the at least one or more terminals, respectively. And selecting the two or more different image filters based on the image filter history information not duplicated with the image filter history information received from the target terminal among the selected image filter history information.
제 10 항에 있어서,
상기 통신부는 상기 대상 단말기로부터 상기 대상 단말기의 사용자의 취미 정보, 성별 정보, 나이 정보, 또는 선호하는 이미지 필터의 종류에 대한 정보를 포함하는 상기 사용자 정보를 수신하는 서버.
The method of claim 10,
The communication unit is a server that receives the user information including information on the user's hobby information, gender information, age information, or a preferred image filter type from the target terminal.
제 13 항에 있어서,
상기 통신부는 상기 복수의 단말기 중 상기 대상 단말기를 제외한 적어도 하나 이상의 단말기 각각으로부터 상기 사용자 정보, 이미지 필터가 적용된 이미지 및 상기 이미지 필터가 적용된 이미지의 이미지 필터의 종류에 대한 정보를 수신하고,
상기 제어부는 상기 적어도 하나 이상의 단말기 각각으로부터 수신된 상기 이미지 필터가 적용된 이미지에 포함된 컨텐츠의 종류를 식별하고, 상기 사용자 정보, 상기 식별된 컨텐츠의 종류, 및 상기 수신된 이미지 필터의 종류 사이의 상관관계에 대해 학습된, 상기 서로 다른 두 개 이상의 이미지 필터를 선택하기 위한 상기 추천 알고리즘을 준비하는 서버.
The method of claim 13,
The communication unit receives information about the type of the image filter of the user information, the image to which the image filter is applied, and the image to which the image filter is applied from each of at least one or more terminals excluding the target terminal among the plurality of terminals,
The control unit identifies the type of content included in the image to which the image filter is applied, received from each of the at least one or more terminals, and correlates between the user information, the type of the identified content, and the type of the received image filter A server that prepares the recommendation algorithm for selecting two or more different image filters, learned about a relationship.
KR1020200050796A 2020-04-27 2020-04-27 Server and operating method thereof KR20200051540A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200050796A KR20200051540A (en) 2020-04-27 2020-04-27 Server and operating method thereof
KR1020210013427A KR102289194B1 (en) 2020-04-27 2021-01-29 Server and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200050796A KR20200051540A (en) 2020-04-27 2020-04-27 Server and operating method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180018563A Division KR20190098518A (en) 2018-02-14 2018-02-14 Server and operating method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210013427A Division KR102289194B1 (en) 2020-04-27 2021-01-29 Server and operating method thereof

Publications (1)

Publication Number Publication Date
KR20200051540A true KR20200051540A (en) 2020-05-13

Family

ID=70729698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200050796A KR20200051540A (en) 2020-04-27 2020-04-27 Server and operating method thereof

Country Status (1)

Country Link
KR (1) KR20200051540A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022055015A1 (en) * 2020-09-08 2022-03-17 김성철 Method and system for providing customized information based on image analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022055015A1 (en) * 2020-09-08 2022-03-17 김성철 Method and system for providing customized information based on image analysis

Similar Documents

Publication Publication Date Title
KR102079091B1 (en) Terminal and image processing method thereof
JP6732977B2 (en) Server and its operation method (SERVER AND OPERATING METHOD THEREOF)
US10593322B2 (en) Electronic device and method for controlling the same
KR102311603B1 (en) Mobile and operating method thereof
KR20190084789A (en) Electric terminal and method for controlling the same
US11868739B2 (en) Device and method for providing application translation information
US10382907B2 (en) Device and method for providing notification message about call request
KR20180096183A (en) Method for controlling an intelligent system that performs multilingual processing
KR102389996B1 (en) Electronic device and method for screen controlling for processing user input using the same
KR102264431B1 (en) An electronic device having the plurality of piezolectric sensor
KR20180055708A (en) Device and method for image processing
KR20190117837A (en) Device and method for providing response message to user input
US11606397B2 (en) Server and operating method thereof
KR20190089628A (en) Method and system for processing Neural network model using a plurality of electronic devices
EP3816917A1 (en) Electronic device for updating artificial intelligence model, server, and operation method therefor
KR20200120557A (en) Electronic device, Server and operating method for updating a artificial intelligence model
KR20180106731A (en) Mobile terminal having artificial intelligence agent
KR102399594B1 (en) Display apparatus and operation method of the same
KR102399809B1 (en) Electric terminal and method for controlling the same
US20190163436A1 (en) Electronic device and method for controlling the same
KR20200051540A (en) Server and operating method thereof
US11531912B2 (en) Electronic apparatus and server for refining artificial intelligence model, and method of refining artificial intelligence model
US20210004702A1 (en) System and method for generating information for interaction with a user
KR102289194B1 (en) Server and operating method thereof
CN112740322A (en) Voice recognition method and electronic device supporting same

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination