KR102148451B1 - 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템 - Google Patents

멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템 Download PDF

Info

Publication number
KR102148451B1
KR102148451B1 KR1020190121900A KR20190121900A KR102148451B1 KR 102148451 B1 KR102148451 B1 KR 102148451B1 KR 1020190121900 A KR1020190121900 A KR 1020190121900A KR 20190121900 A KR20190121900 A KR 20190121900A KR 102148451 B1 KR102148451 B1 KR 102148451B1
Authority
KR
South Korea
Prior art keywords
shopping mall
text
product
data
data set
Prior art date
Application number
KR1020190121900A
Other languages
English (en)
Inventor
한경훈
Original Assignee
한경훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한경훈 filed Critical 한경훈
Priority to KR1020190121900A priority Critical patent/KR102148451B1/ko
Application granted granted Critical
Publication of KR102148451B1 publication Critical patent/KR102148451B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • G06K9/00442
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법이 제공되며, 판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장하는 단계, 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 판매자 단말로 추천하는 단계, 판매자 단말에서 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 적어도 하나의 쇼핑몰 페이지에 사용자 정보로 엑세스하는 단계, 및, 엑세스된 적어도 하나의 쇼핑몰 페이지에 저장된 질의응답 데이터 셋을 등록시켜 동기화하는 단계를 포함한다.

Description

멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템{METHOD, SERVER, AND SYSTEM FOR PROVIDING QUESTION AND ANSWER DATA SET SYNCHRONIZATION SERVICE FOR INTEGRATION MANAGEMENT AND INKAGE OF MULTI-SHOPPING MALL}
본 발명은 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 관한 것으로, 상품 데이터의 분석에 기반하여 추천된 질의응답 데이터 셋을 복수의 멀티 쇼핑몰에 일괄등록되도록 동기화하는 방법을 제공한다.
정보통신 기술과 물류시스템의 발달로 인해 다양한 형태의 온라인 쇼핑몰이 등장하고 있다. 일반적으로 온라인 쇼핑몰이라 하면 판매자와 구매자가 일대일로 연결되는 쇼핑몰 구조만을 생각하기 쉬우나, 판매자는 하나의 온라인 쇼핑몰에만 상품을 게재하는 것이 아니기 때문에 판매자와 복수의 쇼핑몰이 일대다 형태로 연결되며 거래규모도 매우 크다. 온라인 쇼핑몰은 상품을 만드는 제조사와 상품을 판매하기 위해 오픈 마켓에 등록하는 기업(Vender), 온라인 몰을 제공하는 웹 서비스 기업, 소비자로 구성되어 있는데, 각 기업의 온라인 쇼핑몰에 진출하기 위한 벤더사는 늘어나고 있으며, 상품이 몇 천개에서 수 만개씩 등록되고 있기 때문에 온라인 쇼핑몰을 운영하는 기업들은 벤더들을 효율적으로 관리하기 위한 방안을 모색 중이다.
이때, 복수의 쇼핑몰을 통합적으로 관리하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2019-0073039호(2019년06월26일 공개)에는, 복수의 쇼핑몰의 판매상품의 등록 또는 수정 정보를 수신하여, 적어도 하나의 쇼핑몰 각각에 판매상품의 등록 또는 수정기능 및 주문 상품의 배송관리 정보를 제어하는 구성, 통합관리 서버에 유무선 통신을 통해 접속가능하며, 다수의 쇼핑몰에 상품의 등록 또는 수정 및 주문 상품의 배송관리 정보를 통합 관리 서버를 통해 일괄 수행하는 구성, 취합 및 제공되는 정보를 처리하여 복수의 쇼핑몰의 판매 상품의 변동이력 및 주문 배송에 대한 관리 정보를 변경하는 구성이 개시되어 있다.
다만, 상술한 방법을 이용한다고 할지라도 상품의 배송관리 정보만을 통합적으로 관리할 수 있을 뿐, 각 쇼핑몰마다 질의응답으로 등록되는 F&Q 또는 Q&A는 통합적으로 등록되지 않기 때문에 각 쇼핑몰마다 판매자가 하나하나 설정 및 입력을 해주어야 한다. 또한, 판매자가 쇼핑몰에 상품을 업로드할 때 상술한 구성을 이용하면 동시에 업로드할 수는 있겠지만, 각 쇼핑몰에 접속하는 고객의 배경지식이 서로 다르고, 구매과정에서 개인을 포함한 다양한 조직구성원이 참여하기 때문에 다르게 질의되는 사항들을 각각 응답을 하다보면 동일한 질문 및 답변이 시차를 두고 반복되는 상황이 발생한다. 시스템적으로 효율적으로 관리하는 기법이 필요한 실정이지만 아쉽게도 국내 온라인 쇼핑몰의 운영은 그렇게 하고 있지 못하다. 결국, 현재와 같이 비효율적인 운영이 지속된다면 온라인 쇼핑몰 운영의 발전은 더디게 진행될 것이다.
본 발명의 일 실시예는, 멀티 쇼핑몰을 운영하는 판매자가 어느 하나의 쇼핑몰에서 질의응답 데이터 셋을 선택하여 등록하는 경우, 다른 쇼핑몰의 페이지에서도 동일하게 반영이 되도록 연동 및 동기화를 수행하고, 질의응답 데이터 셋에 존재하지 않는 질의응답이 새로이 등록된 경우, 등록된 질의응답을 동기화시키는 것은 물론, 등록된 질의응답을 입력으로 데이터를 재학습시킴으로써 데이터베이스가 판매자인 사용자에 의해 스스로 진화하고 풍부해질 수 있는, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장하는 단계, 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 판매자 단말로 추천하는 단계, 판매자 단말에서 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 적어도 하나의 쇼핑몰 페이지에 사용자 정보로 엑세스하는 단계, 및, 엑세스된 적어도 하나의 쇼핑몰 페이지에 저장된 질의응답 데이터 셋을 등록시켜 동기화하는 단계를 포함한다.
본 발명의 다른 실시예는, 판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장하는 저장부, 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 판매자 단말로 추천하는 추천부, 판매자 단말에서 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 적어도 하나의 쇼핑몰 페이지에 사용자 정보로 엑세스하는 엑세스부, 및 엑세스된 적어도 하나의 쇼핑몰 페이지에 저장된 질의응답 데이터 셋을 등록시켜 동기화하는 동기화부를 포함한다.
본 발명의 또 다른 실시예는, 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 전송하고, 추천된 질의응답 데이터 셋을 선택하여 동기화시키는 판매자 단말, 및, 판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장하는 저장부, 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 판매자 단말로 추천하는 추천부, 판매자 단말에서 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 적어도 하나의 쇼핑몰 페이지에 사용자 정보로 엑세스하는 엑세스부, 및 엑세스된 적어도 하나의 쇼핑몰 페이지에 저장된 질의응답 데이터 셋을 등록시켜 동기화하는 동기화부를 포함하는 질의응답 동기화 서비스 제공 서버를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 멀티 쇼핑몰을 운영하는 판매자가 어느 하나의 쇼핑몰에서 질의응답 데이터 셋을 선택하여 등록하는 경우, 다른 쇼핑몰의 페이지에서도 동일하게 반영이 되도록 연동 및 동기화를 수행하고, 질의응답 데이터 셋에 존재하지 않는 질의응답이 새로이 등록된 경우, 등록된 질의응답을 동기화시키는 것은 물론, 등록된 질의응답을 입력으로 데이터를 재학습시킴으로써 데이터베이스가 판매자인 사용자에 의해 스스로 진화하고 풍부해질 수 있다.
도 1은 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 질의응답 동기화 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 도 1의 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 시스템(1)은, 적어도 하나의 판매자 단말(100), 질의응답 동기화 서비스 제공 서버(300), 적어도 하나의 쇼핑몰 서버(400)를 포함할 수 있다. 다만, 이러한 도 1의 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 판매자 단말(100)은 네트워크(200)를 통하여 질의응답 동기화 서비스 제공 서버(300) 및 적어도 하나의 쇼핑몰 서버(400)와 연결될 수 있다. 그리고, 질의응답 동기화 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 판매자 단말(100), 적어도 하나의 쇼핑몰 서버(400)와 연결될 수 있다. 또한, 적어도 하나의 쇼핑몰 서버(400)는 적어도 하나의 판매자 단말(100), 및 질의응답 동기화 서비스 제공 서버(300)와 연결될 수 있다.
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
적어도 하나의 판매자 단말(100)은, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 질의응답 데이터 셋(Data Set)을 등록하는 단말일 수 있다. 이를 위해, 적어도 하나의 판매자 단말(100)은, 질의응답 동기화 서비스 제공 서버(300)로 적어도 하나의 쇼핑몰 페이지와 적어도 하나의 쇼핑몰 페이지에 엑세스 가능한 사용자 정보를 등록하는 단말일 수 있다. 그리고, 적어도 하나의 판매자 단말(100)은, 질의응답 동기화 서비스 제공 서버(300)로부터 추천된 질의응답 데이터 셋을 선택하는 단말일 수 있다. 또한, 적어도 하나의 판매자 단말(100)은 선택된 질의응답 데이터 셋을 수정하거나 편집하는 단말일 수 있고, 수정 또는 편집 후 등록을 위해 저장하는 단말일 수 있다. 그리고, 적어도 하나의 판매자 단말(100)은, 저장한 질의응답 데이터 셋을 질의응답 동기화 서비스 제공 서버(300)를 통하여 적어도 하나의 쇼핑몰 서버(400)에 일괄 등록시키는 단말일 수 있다.
여기서, 적어도 하나의 판매자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 판매자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 판매자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
질의응답 동기화 서비스 제공 서버(300)는, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 질의응답 동기화 서비스 제공 서버(300)는, 적어도 하나의 판매자 단말(100)로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지의 정보와, 쇼핑몰 페이지에 접근하기 위한 사용자 정보를 입력받는 서버일 수 있다. 또한, 질의응답 동기화 서비스 제공 서버(300)는, 등록된 쇼핑몰 페이지에 접근하여 상품 데이터를 수집하는 서버일 수 있고, 상품 데이터에 포함된 텍스트 또는 이미지를 분석하여 기 저장된 질의응답 데이터 셋에 매핑된 텍스트 또는 이미지와 유사도에 따라 추천 질의응답 데이터 셋을 리스트업하는 서버일 수 있다. 그리고, 질의응답 동기화 서비스 제공 서버(300)는, 리스트업된 질의응답 데이터 셋을 판매자 단말(100)로 전송하고, 판매자 단말(100)에서 어느 하나의 질의응답 데이터 셋을 선택하는 경우, 이를 적어도 하나의 쇼핑몰 페이지에 일괄등록되도록 동기화하는 서버일 수 있다. 만약, 판매자 단말(100)에서 질의응답 데이터 셋을 수정하거나 삭제 또는 부가하는 등의 편집을 수행하는 경우, 상품 데이터와 매핑되도록 편집된 질의응답 데이터 셋을 수정하고, 기 구축된 질의응답 데이터 셋과, 질의응답 데이터 셋에 매핑되어 저장된 상품 데이터 등의 텍스트를 추가하여 재학습을 실행함으로써 데이터베이스를 진화시키는 서버일 수 있다.
여기서, 질의응답 동기화 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
적어도 하나의 쇼핑몰 서버(400)는, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 쇼핑몰의 서버일 수 있다. 이때, 적어도 하나의 쇼핑몰 서버(400)는, 판매자 단말(100)의 쇼핑몰 페이지 및 쇼핑몰 페이지에 접근가능한 사용자 정보를 관리하는 서버일 수 있다. 그리고, 적어도 하나의 쇼핑몰 서버(400)는, 질의응답 동기화 서비스 제공 서버(300)로부터 판매자 단말(100)의 계정에 접근 및 쇼핑몰 페이지에 엑세스하는 경우, 이를 허용하는 서버일 수 있고, 쇼핑몰 페이지에 질의응답 프레임 내에 질의응답 동기화 서비스 제공 서버(300)에서 등록된 데이터를 입력하여 저장하는 서버일 수 있다.
여기서, 적어도 하나의 쇼핑몰 서버(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
도 2는 도 1의 시스템에 포함된 질의응답 동기화 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 질의응답 동기화 서비스 제공 서버(300)는, 저장부(310), 추천부(320), 엑세스부(330), 동기화부(340)를 포함할 수 있다.
본 발명의 일 실시예에 따른 질의응답 동기화 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 판매자 단말(100), 및 적어도 하나의 쇼핑몰 서버(400)로 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 판매자 단말(100), 및 적어도 하나의 쇼핑몰 서버(400)는, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 판매자 단말(100), 및 적어도 하나의 쇼핑몰 서버(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hyper text mark-up language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함한다.
도 2를 참조하면, 저장부(310)는, 판매자 단말(100)로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장할 수 있다. 이때, 엑세스하기 위해 요구되는 사용자 정보는, 아이디, 패스워드를 포함한 로그인 정보일 수 있으나 이에 한정되는 것은 아니다. 그리고, 판매자 단말(100)에서 질의응답 데이터 셋을 초기에 등록할 때, 또는 수정하여 일괄 동기화가 요구되는 경우에만 사용자 정보를 일시적으로 수신하고, 사용 후 완전삭제하는 방식을 이용할 수 있다. 최근 2018년 5월 적용될 개인정보보호 관련 컴플라이언스 중 최소 과징금 200억원 등 법적 책임이 매우 엄격한 GDPR(General Data Protection Regulation)이 적용, 이에 따른 준비가 요구되기 때문에, 아이디와 패스워드 같은 고유식별정보는 아니지만 타정보와 함께 사용되었을 때 개인을 식별가능한 정보는 최소한으로 이용되어야 한다. 또한, 암호화 대상 파일은 평문화 저장이나 보관만으로도 개인정보보호법 위반 사항이므로, 저장부(310)는, 수신된 정보는 영구보관이 아니라 적어도 하나의 쇼핑몰 서버(400)에 일괄 동기화를 수행하는 동안에만 암호화하여 사용하도록 하고, 사용 이후에는 완전삭제를 수행하도록 한다. 이때, 판매자 단말(100)은 자신의 계정 정보 등을 모두 저장하고 있으므로, 접속시마다 입력하지 않아도 되고, 저장부(310)에서 저장된 채널로 접근허용권만 얻는다면 자동으로 정보들에 엑세스할 수 있고 이를 추출할 수 있다.
이때, 암호화 방식 또는 복호화 방식은, 블록암호화 알고리즘을 이용 블록암호화 알고리즘 중 ARIA 방식, SEED 방식, AES 방식을 이용할 수 있으나, 이에 한정되는 것은 아니다. ARIA 알고리즘은 정부 주도의 암호화 알고리즘으로 2004년 국가 표준 기본법에 의거 지식경제부에 의하여 국가표준(KS)으로 지정된 알고리즘으로 국가를 대상으로 한 암호화 지원은 SEED 방식을 대부분 사용하고 있다. SEED 방식은 민간지원을 위한 암호화 알고리즘으로 전자상거래, 금융 및 무선통신 보안을 이해 한국인터넷 진흥원과 국내 암호화 전문가들과 함께 만들어낸 알고리즘이다. AES는 고급 암호화 표준(Advanced Encryption Standard, AES)은 미국 표준 기술 연구소(NIST)에 의해 제정된 암호화 방식이다. 완전삭제는, 전자기적 파일 형태인 경우 복원이 불가능한 방법으로 영구 삭제하도록 하는 것을 의미하며, 복원이 불가능한 방법이란 개인정보보호법 표준지침 제10조(개인정보의 파기방법 및 절차)에 의거 현재의 기술수준에서 사회통념상 적정한 비용으로 파기한 개인정보의 복원이 불가능하도록 조치하는 방법을 말한다. 완전삭제는 정보통신망법 제29조 개인정보의 파기, 신용정보법 제21조 폐업시 보유정리의 처리 등 다양한 법률에서 요구하는 방법일 수 있다. 완전삭제 알고리즘은, DoD 5220.22-M-ECE, DoD 5220.22-M, HMG IAS No.5 Higher Overwrite 등을 이용할 수 있으나 이에 한정되는 것은 아니다. 그리고, 개인정보가 포함되어있는 전자기적의 파일은 단순 운영체제에서 지원하고 있는 삭제 방식이 아닌 DoD 5220.22-M 방식의 알고리즘을 사용하여 구현할 수 있으며, 전체섹터에 0을 기록하고 다시 1을 기록하고 임의의 문자로 채운 후 검증하는 방법으로 이루어질 수 있고, 전자기적 보관 파일에 대한 완전한 삭제를 구현할 수 있다.
추천부(320)는, 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 판매자 단말(100)로 추천할 수 있다. 여기서, 질의응답 데이터 셋이란, 상품에 대해 자주 질문하는 사항에 대해 정리해놓은 F&Q이나, Q&A의 리스트일 수 있다. 추천부(320)는, 상품 데이터에 포함된 텍스트, 상품 데이터에 포함된 상품 이미지에 포함된 텍스트, 상품 데이터 중 상품 이미지와 유사한 기 저장된 유사 이미지에 기 매핑되어 저장된 텍스트, 및 상품 데이터 중 상품명 텍스트로부터 추출된 텍스트 중 적어도 하나의 텍스트에 기반하여 기 저장된 질의응답 데이터 셋을 추출할 수 있다. 이때, 본 발명의 일 실시예에 따른 추천부(320)는, 4 개의 엔진을 상호적으로 연계되도록 구동시켜 질의응답 데이터 셋을 추천하는데, 4 개의 엔진은, 텍스트 분석 엔진, OCR 텍스트 엔진, 유사이미지 검색 엔진, 카테고리 분석 엔진을 포함한다. 4 개의 엔진에 대하여 이하에서 설명을 하도록 하며 공통으로 적용되는 것은 반복하여 설명하지 않는다.
<텍스트 분석 엔진>
추천부(320)는, 상품 데이터에 포함된 텍스트를 전처리를 수행하고, 품사 태깅을 통한 형태소 분석 후 최소 단위의 어절을 생성하고, 생성된 어절을 TF-IDF(Term Frequency Inverse Document Frequency) 알고리즘을 이용하여 분석할 수 있다. 이때, 추천부(320)에서 전처리를 수행할 때 띄어쓰기 오류 보정, 철자 오류 보정, 불용어 제거 등을 수행할 수 있는데 띄어쓰기 오류 보정 모델은 상품 데이터에 포함된 텍스트에서 모든 띄어쓰기를 삭제한 후, 기계학습 모델을 이용하여 띄어 쓸 위치를 결정하는 순차 레이블링(sequence labeling) 방법을 이용할 수 있다. 순차 레이블링 방법은, 문장의 처음부터 끝까지 음절과 음절 사이에 띄어쓰기 여부를 판단하여 표지(그림에서는 0 또는 1)을 부착하는데, 표지 결정을 위해서는 현 위치를 기준으로 앞뒤 n개의 음절을 자질로 사용하며, 기계학습 방법으로는 양방향(처음부터 현재위치와 마지막부터 현재위치까지) 전이 정보(transition information)를 잘 반영하는 것으로 알려져 있는 CRFs(Conditional Random Fields)나 Structural SVM(Support Vector Machine)이 이용될 수 있으나 이에 한정되지 않는다. 철자오류 보정 모델은 사전이나 통계 정보를 주로 이용할 수 있는데, 사전을 사용한 철자 오류 보정은 말뭉치(Corpus)에서 검색되지 않거나 일반 사전에 존재하지 않는 경우에는 철자 오류라고 가정할 수 있으며, 철자오류로 가정된 문자열은 편집거리(edit-distance)나 메타폰(metaphone) 알고리즘 등을 사용하여 해당 단어와 거리가 가까운 사전 단어로 대체될 수 있다. 이러한 사전 기반의 방법은 모든 철자 오류 후보 단어들을 미리 구축해야 하기 때문에, 통계 정보에 기반 한 확률 모델들도 이용될 수 있다. 예를 들어, 철자 오류 보정 방법인 노이즈 채널(noise channel) 모델을 이용할 수도 있고, 노이즈 채널 모델은 입력된 노이즈(철자 오류)를 생성할 확률을 최대화하는 단어를 찾는 생성 모델의 일종인데, 올바른 단어와 오류 단어 사이의 음절(또는 알파벳) 단위 편집 거리를 기반으로 계산된다. 예를 들어, 올바른 단어 ‘actress’로부터 오류 단어 ‘acress’가 생성될 확률(=‘ct’에서 ‘c’가 삭제되거나 ‘ct’가 ‘c’로 대체될 확률)를 이용하여 계산될 수 있다.
이때, 한국어는 조사와 어미가 발달한 전형적인 교착어(agglutinative language or affixing language)로서, 영어와 달리 단어(word)가 아닌 형태소(morpheme)가 감성분석이나 문장의 구조분석에서 중요한 역할을 한다. 형태소는 뜻을 가진 가장 작은 말의 단위로 정의되며, 단어는 하나 이상의 형태소로 이루어진다. 예를 들어, ‘예쁘고’가 단어라면 이에 대한 형태소는 ‘예쁘(=형용사)’와 ‘고(=연결 어미)’가 된다. 이러한 형태소의 중요성을 반영하여 한국어를 대상으로 하는 텍스트 분석에서는 단어 보다는 형태소를 기본 단위로 하는 것이 일반적이고, 텍스트 분석에서 입력으로 영어 텍스트에서 주로 사용되는 단어 벡터(word vector)가 아닌, 형태소 벡터(morpheme vector)가 사용될 수 있으나, 단어 벡터를 배제하는 것은 아니다. 형태소 벡터는 형태소에 대한 벡터 표현이라 할 수 있으며, 형태소 단위로 표현된 문장에 기본적인 단어 벡터 도출 메커니즘을 적용하여 도출할 수 있다. 이때, 단어 벡터(word vector)는 단어(word)를 실수(real number) 원소로 이루어진 수십에서 수백 차원의 벡터(vector)로 변환한 것이다. 이렇게 변환된 단어 벡터들은 단순한 수치 이상의 의미적 자질들을 포함하고 있다. 실제로 의미적(semantic) 문법적(syntactic) 성질이 비슷한 단어들은 벡터 공간상에서 유클리디안(Eucledian) 거리나 코사인유사도(cosine similarity) 거리가 가까운 벡터들로 표현된다. 예를 들어, Word2Vec 모델은 내부적으로 CBOW(Continuous Bag-Of-Words)나 Skip-Gram 이라는 신경망 구조를 이용해 단어들의 벡터 표현을 학습하게 된다. CBOW는 컨텍스트 단어들로부터 타겟 단어를 예측하는데, 예를 들어, “This lipstick is beautiful in (_) and has a good sustainability.”라는 문장에서 (_) 앞 뒤에 나오는 컨텍스트 단어들로부터 (_)에 해당되는 ‘color’와 같은 타겟 단어를 예측하는 방식이다. Skip-Gram 구조는 타겟 단어로부터 컨텍스트 단어들을 역으로 예측한다.
예를 들어, “이 립스틱은 컬러도 예쁘고 지속력도 좋다.”라는 문장이 있을 때, 어절 단위로 분리한 단어를 CBOW에 대한 입력으로 사용하면 ‘립스틱은’이나 ‘컬러도’와 같은 단어 벡터를 얻게 될 것이다. 그런데 이렇게 하면‘립스틱을’, ‘립스틱이’나 ‘컬러가’, ‘컬러를’, ‘컬러는’ 등도 모두 다른 단어로 인식하게 되므로, 고려해야할 단어 수가 비효율적으로 증가하게된다. 그런데 이 문장을 형태소분석하면, 선택한 형태소분석기나 분절 정도에 따라 약간 달라지겠지만,“이(=관형사) 립스틱(=일반 명사) 은(=보조사) 컬러(=일반 명사) 도(=보조사) 예쁘(=형용사) 고(=연결 어미) 지속력(=일반 명사) 도(=보조사) 좋(=형용사) 다(=종결 어미) .(=마침표)”라는 결과를 얻을 수 있다. 이로부터 “이 립스틱 은 컬러 도 예쁘 고 지속력 도 좋 다 .”와 같은 형태소 단위의 문장 표현을 얻을 수 있고, 이것을 CBOW에 입력하면 형태소 단위의 형태소 벡터를 얻을 수 있게 된다. 여기서, 형태소 벡터를 CNN(Convolutional Neural Network) 딥러닝 모델의 입력으로 사용할 수도 있다.
CNN은 다층퍼셉트론(multi-layer perceptron)이라고도 불리는 전형적인 피드포워드 뉴럴넷(feedforward neural network)은 인접한 층(layer)의 유닛(unit)이 서로 모두 연결된(fully-connected) 형태이다. CNN은 이러한 전결합층(fully-connected layer)외에 인접층의 특정한 유닛만이 연결되는 합성곱층(convolution layer)과 풀링층(pooling layer)을 갖는다. 합성곱층에서는 가중치 행렬 형태로 표현된 이미지의 가중치 영역에 해당 이미지 보다 사이즈가 작은 가중치 행렬 형태의 필터(filter)를 순차적으로 이동시키면서 대응되는 원소끼리(element-wise) 곱한 후 합을 구하는 합성곱 연산이 일어난다. 그리고 풀링층에서는 합성곱으로 얻어진 값들에 대해 특정 사이즈 영역별로 순차적으로 최대값이나 평균값 등의 대표값을 추출하는 연산을 수행한다. 합성곱층과 풀링층은 서로 쌍을 이루며 여러번 반복되거나, 합성곱층만 여러번 반복된 후 풀링층이 오는 구조도 가능하다. 이러한 연산을 통해 입력된 이미지로부터 유용한 자질(feature)들이 계층적으로 추출되며, 추출된 자질들은 하나 이상의 전결합층(fully-connected layer)을 통해 입력 데이터를 타겟 클래스로 분류하는 작업에 활용된다. 문장을 단어 벡터의 결합으로 표현한 가중치 행렬에 CNN을 적용하면, 필터(filter)의 윈도우 사이즈에 따라 지역적인 n-그램(n-gram) 자질(feature)들을 추출할 수 있다. 그리고 이러한 자질들을 기반으로 다시 상위 레벨의 자질들을 추출하는 것이 가능하다. 합성곱 연산은 새로운 자질(feature)을 추출하기 위해 단어 윈도우에 필터를 적용하고, 필터는 해당 문장의 모든 가능한 윈도우에 대해 적용되어 피쳐맵(feature map)을 생성한다. 풀링 연산은 이러한 피쳐맵에 대해 전역(global) 최대값을 구하거나 특정 사이즈별로 지역(local) 대표값을 구한다. 윈도우 사이즈가 다른 여러 개의 필터를 적용하면 여러 특성의 자질들을 추출할 수 있고, 이렇게 추출된 자질들은 전결합층으로 연결되어 클래스 분류에 사용된다.
그리고, 추천부(320)는 띄어쓰기 오류, 철자 오류, 불용어 제거 등이 수행된 후에 문서를 단어로 나누어주는 과정, 단어 임베딩, TF-IDF 가중치 부여 단계를 수행할 수 있다. 우선, CNN은 2차원 형태의 입력 데이터를 요구한다. 따라서 이를 만족시키기 위해 추천부(320)는 문서를 단어로 나누고 각각의 단어에 번호를 매기는 임베딩 작업(word embedding)을 수행할 수 있다. 이때, 임베딩 방법으로는 단어가 등장한 순서에 따라서 순차적으로 숫자를 매기는 방법을 사용할 수도 있고, 단어를 기본 단위로 하는 단어 수준의 모델 또는 개개의 문자를 기본 단위로 처리하는 문자 수준의 모델을 이용할 수도 있다. 그리고, 추천부(320)는 임베딩된 단어들이 해당 문서에서 얼마나 중요한지를 나타내기 위해 TF-IDF 가중치 값을 구하고 임베딩된 단어들로 이루어진 배열에 이 가중치 값을 붙여 하나의 컨볼루션 뉴럴 네트워크의 입력 값을 만들어 사용할 수 있다. 여기서, TF-IDF는 정보 검색과 텍스트 마이닝에서 이용하는 가중치로, 여러 문서로 이루어진 문서군이 있을 때 어떤 단어가 특정 문서 내에서 얼마나 중요한 것인지를 나타내는 통계적 수치이다. 단어 빈도(Term Frequency)는 특정 단어가 문서 내에 얼마나 자주 등장하는지를 나타내는 값이며, 역문서 빈도(Inverse Document Frequency)는 다른 문서에는 많지 않고 해당 문서에서 자주등장하는 단어를 의미한다. TF-IDF의 값은 단어 빈도와 역문서 빈도의 곱으로 사용한다. 예를 들어 가죽가방이라는 단어는 원피스 질의응답 데이터 셋에서는 잘 나오지 않기 때문에 IDF 값이 커지고 동시에 해당 문서의 키워드가 될 수 있다. 반대로 패션 카테고리에서는 가죽 가방이 많은 쇼핑몰 사이트에서 나타나기 때문에 IDF 값은 낮아지게 된다. TF는 기본적으로 문서 내의 단어 총 빈도수를 사용해 계산할 수 있지만 단어수가 많아질 경우 값이 지속적으로 커질 수 있기 때문에, 불린 빈도(Boolean Frequency)를 이용하여 단어의 출현 여부만으로 TF 값을 0과 1로 정의할 수 있다. 또는, 로그 스케일 빈도(Logarithmically Scaled Frequency)를 이용하여 TF 값에 로그를 취함으로써 문서의 크기 해결도 하고 실제 빈도수도 반영할 수 있다. 마지막으로, 증가 빈도(Augmented Frequency)를 이용함으로써, 문서 길이에 따른 단어의 상대적 빈도를 나타내는 방식으로 최대 스케일이 1을 넘지 않도록 할 수도 있다. 결과적으로, TF-IDF는 단어가 특정 문서 내에서 빈도수가 높고 전체 문서 중 해당 단어가 포함된 문서가 적을수록 높아진다. 이를 통해 모든 문서에서 자주 나타나는 단어들을 걸러낼 수 있다.
추천부(320)는, 분석된 텍스트를 매트릭스로 정형화시킨 후 분류기를 이용하여 모델링하는 텍스트 분석을 수행할 수 있다. 이때, 매트릭스는 벡터 공간(Vector Space)일 수 있고, 벡터 공간 모델이 이용될 수 있는데, 벡터 공간 모델은 텍스트 마이닝 분야에서 단어 공간 모델로 불리며 주어진 텍스트 문서를 단어들의 벡터로 나타낸 대수적인 모델이다. 벡터 공간 모델은 정보 필터링과 정보 검색, 색인, 유사도 순위에 사용될 수 있고, 어떤 단어가 문서에 포함되면 해당 단어는 0이 아닌 벡터 값을 갖게 된다. 단어 가중치라 불리는 이 값을 산출하는 방법에는 다양할 수 있으나, 본 발명의 일 실시예에서는 상술한 TF-IDF 방식을 이용한다. 이때, 분류기는 CNN(Convolution Neural Network) 기반 문서분류모델일 수 있지만 이에 한정되지는 않는다. CNN은, 상술한 바와 같이, 인공지능 심층 신경망의 한 종류이며, 2차원 데이터의 학습에 적합한 구조를 가지고 있으며, 역전파(Back propagation algorithm)을 통해 훈련될 수 있으며, 기 구축된 데이터베이스에 포함된 질의응답 데이터 셋을 분석된 텍스트를 이용하여 검색하고 유사도에 근거하여 판매자에게 추천을 해주기 위해 이용될 수 있다.
추천부(320)는 분석된 텍스트를 기반으로 기 저장된 질의응답 데이터 셋을 유사도에 기초하여 추출하여 판매자 단말(100)로 추천할 수 있다. 예를 들어, "여성 원피스"에 대한 상품상세설명 텍스트가 분석되었고, 분석 결과 "여성 원피스"에 기 저장된 질의응답 셋이 3 개 추출되었고, 각각 유사도가 90%, 80%, 70%였다고 하면, 유사도가 높은 순으로 질의응답 셋을 정렬하여 추천할 수 있다.
<OCR 텍스트 엔진>
추천부(320)는, 상품을 설명하는 상품 데이터를 수집한 후, 상품 데이터에 텍스트가 존재하지 않고 상품 이미지만 존재하는 경우, 상품 이미지를 OCR(Optical Character Recognition) 텍스트 기반 이미지 분석 모델을 적용하여 텍스트로 변환할 수 있다. 대부분의 쇼핑몰 페이지를 보면, 하나의 페이지에 적게는 수 개 내지 수십 개의 상품 이미지를 업로드하고, 각 상품 이미지 내에 문자가 포함되어 있을 뿐, 텍스트가 별도로 설명되어 있는 경우는 거의 없다. 예를 들어, 0061(상품번호)-자스민 원피스(상품명)-FREE(사이즈)-베이지(색상)이 썸네일에 간단히 이미지 형태의 문자로 상품 이미지와 함께 이미지로 업로드되고, 심지어 신축성, 두께감, 비침 정도, 안감, 세탁방법, 소재 등도 모두 이미지화된 상품 이미지에 포함된 경우가 많다. 따라서,추천부(320)는, 상품 이미지 + 상품 설명 텍스트가 모두 이미지화된 경우, 텍스트를 이미지 파일로부터 읽어내기 위한 작업을 우선 시행한다.
OCR이란 광학 문자 인식의 약자로 광학적으로 처리된 문자를 인식하는 방법이다. 컴퓨터에서 표현되는 문자를 인식하는 온라인 인식과 달리, 광학 인식은 기록또는 인쇄가 완료된 후에 오프라인에서 수행할 수 있는데, 손으로 인쇄하거나 인쇄 한 문자는 모두 인식 할 수 있지만 정확도는 입력 된 문서의 품질에 직접적으로 좌우된다. 광학 스캐너를 사용하여 아날로그 문서를 디지털화하는 것으로 텍스트 영역을 각 심볼로 분할 프로세스를 통해 추출할 수 있고, 전처리과정은 텍스트 추출을 용이하게 하기 위해, 심볼의 노이즈를 제거하기 위한 과정을 진행할 수 있고, 텍스트를 추출하는 과정을 거쳐 각 테스트를 비교하여 원본 텍스트의 단어와 숫자를 재구성하는 후처리과정을 거치게 된다. 이때, OCR 텍스트 기반 이미지 분석 모델은, 크게 텍스트 탐지(Text Detection)와 텍스트 인식(Text Recognition)의 과정을 진행한다. 전자는, 이미지로부터 텍스트가 존재한 위치를 찾아내는 딥러닝의 CTPN(Connectionist Text Proposal Network) 모델을 이용할 수 있다. 여기서, CTPN은 크게 이미지 내 텍스트와 비텍스트 구별을 위한 CNN 모델과 텍스트 추정영역을 구체화하는 RNN(Recurrent Neural Network) 모델로 구성될 수 있으며, 텍스트로 추정되는 영역을 복수의 픽셀로 세로 분할면으로 쪼개 CNN 모델을 통해 각 분할면이 텍스트에 가까운지 판단하고, RNN을 통하여 양 옆의 분할면이 연결된 텍스트인지 확인할 수 있다. 본 발명의 일 실시예에서는, VGG16, BLSTM(Bidirectional Long Short-Term Memory), FC의 구조를 이용할 수 있다.
VCC16은 옥스퍼드 대학에서 개발한 프로그램으로, 입력은 RGB 이미지이고, 구조는 8~16개의 컨볼루션 레이어(Convolutional Layer), 3개의 완전 연결된 레이어(3 Fully-Connected Layer)를 포함하는데, 상술한 구조에 한정되지는 않는다. 이때, VCC16은, 이미지의 특징을 추출하는데 이용되고, BLSTM(Bidirectional Long Short-Term Memory)는 순환신경망(RNN)의 일종으로 시계열 데이터를 분류하고 예측하기 위해 사용하는 알고리즘이다. 이때, BLSTM은 좌측에서 우측 방향으로의 순방향 상태 시퀀스와 우측에서 좌측 방향으로의 역방향 상태 시퀀스로 처리하는 2개의 LSTM 출력을 연결함으로써 작업을 수행할 수 있는데, 단방향 LSTM은 과거의 시간 인스턴스에서 온 문맥 정보만 고려되는 반면에, BLSTM은 순방향과 역방향에서 전달하는 과거와 미래의 문맥 정보를 모두 이용하여 학습할 수 있다. 여기서, LSTM은 RNN 방식에서 학습 중에 발생하는 기울기 소실 문제를 해결하기 위한 구조를 가진 순환 신경망의 일종이며, 잠재적인 장시간 기억 의존성을 유지한다. 따라서, 시계열 신호를 분류, 처리 및 예측하기 위해 LSTM은 히스토리로부터 학습할 수 있다. LSTM은 시간이 지남에 따라 그 상태를 유지하기 위해 순환적 은닉 계층에 자체 연결을 갖는 특별한 메모리 셀과 이전 상태를 기억하며 각 계층의 입력과 출력에 정보의 흐름을 제어하는 데 사용되는 3개의 게이트구조(입력 게이트, 망각 게이트 및 출력 게이트)를 가질 수 있으며, 이러한 순환 출력 계층을 갖는 LSTM은 입력 텍스트의 문맥 정보를 함께 포착할 수 있다. 그리고, BLSTM에서 시계열 데이터의 시간 관계를 학습한 결과를 상술한 완전 연결된 레이어를 거쳐 얻어낼 수 있다.
후자인 텍스트 인식(Text Recognition)은 텍스트 이미지를 텍스트로 추출하는 CRNN(Convolution Recurrent Neural Network) 모델을 이용할 수 있다. 이때, CRNN은 CNN과 RNN을 결합한 딥러닝 구조로 비디오와 같이 공간 정보와 시간 정보가 모두 중요한 데이터를 추출할 때 이용될 수 있다. 예를 들어, CNN을 통해 쇼핑몰 페이지에 업로드된 상품 이미지의 특징정보를 추출한 후, 추출한 값을 RNN의 입력으로 사용하여 데이터의 텍스트 시퀀스를 예측 및 추출하는 구조일 수 있다. 본 발명의 일 실시예에 따른 CRNN은, 컨볼루션층(Convolution Layer), 순환층(Recurrent Layer), 전사층(Transcription Layer)로 이루어질 수 있으며, 컨볼루션층에서 입력받은 이미지로부터 특징 시퀀스를 추출한 후, 순환층에서 특징 시퀀스에서 매개의 프레임에 대하여 값을 예측하며, 예측한 값들의 시퀀스는 전사층을 통하여 정답 레이블로 재작성되어 최종적으로 텍스트를 추출하게 된다. 그리고, CRNN은 CTPN(Connectionist Text Proposal Network)와는 다르게 전체 이미지가 아닌 문자 영역의 이미지를 기반으로 학습하기 때문에, 이미지 속 문자를 추출하면 이를 상품 이미지 속에 존재하는 필드별로 분류하는 개체명 인식 과정이 필요할 수 있는데, BLSTM, CNNs, CRF(Conditional Random Field) 모델을 더 이용할 수 있으며, 문자와 해당 개체명을 기반으로 학습할 수 있다.
개체명(Named Entity)은 이전에 미리 정의된 비슷한 속성을 지닌 다른 개체들의 집합에서 하나의 개체를 식별할 수 있는 단어, 또는 문장 내에서 더 이상 분해할 수 없는 어구를 의미한다. 개체명 인식 과정은 문헌 내에 표현된 개체명을 식별하는 과정을 말하며, 개체명 간의 관계를 통한 정보 추출 과정에 선행되어야 하는 과정이다. 상품 페이지에서 상품번호, 상품명, 사이즈, 색상이 일정 위치에 미리 정의된 속성을 가지면서 기재되는 것이 일반적인데, 개체명 인식은 문장 내의 정보에 대한 일종의 연속적인 레이블링(Sequence Labeling) 문제로 분류하여 어떠한 위치에 어떠한 속성을 가진 개체명이 있는지를 학습하면, 하나의 페이지에 수십개의 상품이 등록되는 의류나 패션 페이지에서 각각의 상품의 속성정보를 얻을 수 있다. 일차 선형 체인의 CRF 기반의 개체명 인식 방법을 이용하면, 문자열 정보에 대한 조건부 확률인 Log-Likelihood 값을 최대화하여 개체명 인식의 성능을 향상시킬 수 있다. 이때, 연속적인 레이블링 문제에 좋은 성능을 보이고 있는 심층학습 기법인 LSTM(Long-Short Term Unit)을 양방향으로 활용하고, 이에 조건부 랜덤 필드를 부착하는 형태의 BLSTM-CRF 모델을 구성하여 개체명 인식을 수행할 수도 있다. 개체명 인식에서는 개체 유형별 개체명 정보를 포함하는 개체명 사전 정보를 주요한 자질로 활용한다. 텍스트 기반 엔진에서도 언급된 BLSTM 모델을 기반으로 개체명 사전에 대한 매핑 정보를 이진 벡터 형태로 구성하여 입력 벡터에 병합할 수도 있다.
<유사이미지 검색 엔진>
추천부(320)는, 상품을 설명하는 상품 데이터를 수집한 이후, 상품 데이터에 텍스트가 존재하지 않고 상품 이미지만 존재하는 경우, 기 저장된 데이터베이스 중 딥러닝에 학습한 적어도 하나의 모델을 이용하여 상품 이미지의 적어도 하나의 특징(Features)을 추출하고, 추출된 적어도 하나의 특징을 벡터공간(Vector Space)에 표현하고, 유사거리(Similarity Distance)를 계산하는 알고리즘 또는 클러스터링(Clustering) 알고리즘을 이용하여 상품 이미지와 유사한 유사이미지를 검색할 수 있고, 유사이미지부(360)는 검색된 유사이미지에 기 매핑된 텍스트를 추출할 수 있다.
딥러닝은, 이미지넷(ImageNet)을 이용할 수 있고, 유사거리를 계산하는 알고리즘은 최근접 이웃(K-Nearest Neighbor)일 수 있으며, 클러스터링은 K-평균(K-means) 클러스터링일 수 있다. 여기서, 이미지의 특징을 추출할 때, 전이 학습(Transfer Learning)을 이용할 수 있고, DensNet, Resnet50, VGG16, Inceptionv3, Xception 등을 이용할 수 있다. 이때, 전이학습이란 딥러닝을 특징 추출자로 사용하고, 추출된 특징만을 가지고 다른 모델을 학습하는 것으로, 기존의 만들어진 모델을 사용하여 새로운 모델을 만들 때 학습을 빠르게 하며 예측을 높이는 방법이며, 이미 학습이 완료된 모델(Pre-Training Model)을 가지고, 목표하는 학습에 미세조정을 주어 학습시키는 방법이 전이학습이며, 신경망의 이러한 재학습 과정을 세부 조정(fine-tuning)이라 하고, 실제로 CNN을 구축하는 경우 대부분 처음부터(random initialization) 학습하지는 않게 되며, 이미지넷과 같은 대형 데이터셋을 사용할 수 있다. 정리하면, 전이학습은, 합성곱 레이어의 무작위 초기화 대신, 많은 양의 영상자료로 학습된 값으로 초기화하여 부족한 훈련자료의 한계를 극복하고 효율적으로 특징맵을 추출할 수 있는 학습 방법이다.
K-최근접 이웃 알고리즘은 최근접하는 개수의 이웃을 이용한다는 의미이다. 이 방법은 학습 데이터 집합에 있는 표본들 간의 유사도에 따라 라벨이 붙여져 있지 않는 표본들을 분류하는 매우 직관적인 방법이라고 할 수 있다. 즉, 라벨이 없는 표본이 주어질 경우, 학습 데이터 집합에서 가장 가까운 라벨이 있는 표본을 찾아내고, 부분 집합 내에 가장 빈도가 많이 나타나는 클래스에 할당하는 방법이다. K-최근접 이웃 알고리즘은 단지 상수, 라벨이 있는 학습 데이터 집합의 표본, 거리 척도 만이 필요해서 간단하다. 이때, 분류 문제의 각 데이터가 대표하는 같은 클래스 내 데이터의 부분 집합은 유클리디안(Euclidean) 거리로 계산할 수 있는데, 동일 클래스 내 가장 큰 거리값과 다른 클래스 중 가장 작은 거리값을 갖는 거리의 중간값으로 거리를 결정할 수 있다.
<카테고리 분석 엔진>
카테고리 분석은, 쇼핑몰에서 판매자가 제품의 상세내용에 텍스트 또는 이미지를 제공하지 않고 제품의 이미지마저도 없는 경우가 존재할 경우에 사용된다. 이 경우에는 쇼핑몰에서 사용하는 제품명(상품명) 자체가 제품의 카테고리를 추출할 수 있고, 카테고리를 추출할 수 있으면 해당 카테고리에 매핑된 질의응답 데이터 셋을 추출할 수 있다는 점에서 착안한다. 이를 위하여, 추천부(320)는, 상품을 설명하는 상품 데이터를 수집한 후, 상품 데이터에 텍스트 및 이미지가 존재하지 않고, 상품을 지칭하는 상품명만 존재하는 경우, 상품명에 포함된 불용어(Stop-word)를 제거를 포함한 전처리를 수행할 수 있다. 그리고, 추천부(320)는, 전처리가 수행된 상품명에 포함된 텍스트를 음절을 기준으로 원-핫 인코딩(One-hot Encoding)을 수행하여 벡터로 변경된 상품명에 포함된 텍스트를 머신러닝의 학습 데이터로 입력하고, 학습 데이터로 입력된 텍스트에 기초하여 분류 모델을 통하여 카테고리 예측을 수행할 수 있으며, 예측된 카테고리에 기 매핑되어 저장된 텍스트를 추출할 수 있다. 이때, 분류 모델은, 심층 신경망(Deep Neural Network)일 수 있다.
이때, 심층 신경망(DNN)은, 입력층(Input Layer)와 출력층(Output Layer)사이에 복수의 은닉층(Hidden Layer)로 이루어진 인공신경망(Artificial Neural Network, ANN)이다. DNN은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(Non-linear Relationship)을 모델링할 수 있고, 신경망 작동 방법은 FFN(Feed-Forward Network), 역전파(Backpropagation), 및 RNN을 포함할 수 있다. 예를 들어, 데이터에는 수치형 데이터와 텍스트 데이터나 범주형 데이터가 있다. 머신러닝이나 딥러닝 알고리즘은 수치로 된 데이터만 이해할 수 있기 때문에, 기계가 이해할 수 있는 형태로 데이터를 변환해 주는 반면, 범주형 데이터는 원-핫 인코딩 형태로 변환해 준다. 원-핫 인코딩이란 해당되는 하나의 데이터만 1로 변경해 주고 나머지는 0으로 채워주는 것을 의미하는데, 예를 들어 과일이라는 카테고리에 사과, 배, 감이 들어있다고 가정하면, 각각의 과일인 사과, 배, 감으로 컬럼을 만들어주고 해당 되는 과일에만 1로 표기를 해주고 나머지 과일은 0으로 표기해 주는 것이다. 예를 들어, 상품명으로부터 개체명인식을 수행한다고 가정하면, 추출된 개체명 중에는 지식이나 의미를 내포하고 있다고 보기 어려운 단어들도 많으며, 종목별로 추출된 개체명 개수 차이 때문에 벡터화 과정에서 차원이 달라지는 문제가 있다. 따라서 종목별 발생빈도가 높은 상위 몇 개의 개체명으로 제한하여 차원을 일치시키는 제약조건을 설정하면, 결과적으로 몇 개 종목에서 추출된 개체명을 원-핫 인코딩을 통해 벡터화시킬 수 있으며, 학습을 위한 입력 데이터가 완성된다.
이때, 테스트 데이터를 학습된 DNN 모델에 입력했을 때, 신경망의 뉴런에서 출력되는 결과 값을 기준으로 뉴런의 행동을 두 가지 부류로 나눌 수 있다. 첫 번째는 결과 값이 예상되는 범위에 속할 경우이며 이것을 메인 케이스(main case) 영역에 위치해 있다고 한다. 두 번째는 결과 값이 예상되지 않는 범위에 속할 경우이며 이를 코너 케이스 영역에 위치해 있다고 한다. 여기서, DNN의 뉴런은 입력 데이터, 가중치(Weight), 바이어스(Bias)를 이용하여 활성화 함수(Activation Function)을 통해 결과 값을 도출하는 구조를 가지고 있다. 학습된 DNN 모델의 경우 가중치와 바이어스는 고정되고, 입력 데이터만 뉴런의 결과값에 영향을 줄 수 있고, 입력 데이터에 의해 뉴런이 반응할 때, 즉 결과값이 달라질 때 뉴런이 활성화된다고 하고, 입력 데이터에 활성화되는 경우 카테고리를 예측할 수 있게 된다. 다시 말하면, 입력 데이터에 의해 뉴런의 결과값이 나눠진 구간에 속한다면, 그 구간이 활성화된다고 간주할 수 있으므로, 카테고리를 예측할 수 있는 것이다. 여기서, 뉴런이 활성화되지 않는 경우, 즉 코너 케이스는 배제한다.
상술한 4 개의 엔진들은 상호 보완적인 역할을 수행하면서 유기적으로 연결되고, 판매자가 어떠한 종류의 상품 데이터를 업로드하던지간에, 심지어는 상품명만 적는 경우라도 적절한 Q&A를 추천해줄 수 있고 판매자는 일일이 답변을 하지 않아도 되며, 소비자도 리스트형으로 나열된 상품문의 및 답변에서 자신이 원하는 답변을 찾고자 노력을 하지 않아도 된다.
엑세스부(330)는, 판매자 단말(100)에서 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 적어도 하나의 쇼핑몰 페이지에 사용자 정보로 엑세스할 수 있다. 이때, 엑세스부(330)는, SSO(Single Sign-On) 통합인증 체제를 도입하여 하나의 계정 정보로 복수의 쇼핑몰 서버(400)로 엑세스할 수도 있다. SSO는 한번의 로그인을 통해 모든 서버에 접속할 수 있는 권한을 갖게 되는 개념이다. 특히, 디렉토리 시스템인 LDAP(Lightweight Directory Service Protocol) 서버를 중심으로 인증서를 CA에서 받는 방식으로 응용프로그램과 SSO 서버 사이의 API 메커니즘을 이용하는 방식으로 구현될 수 있다. 그리고, 엑세스부(330)는, 빠른 인증서비스를 위해서 LDAP를 이용할 수도 있다. LDAP은 모든 형태의 디렉토리형 자료를 표준화된 방식으로 저장하고 검색하기 위한 통신규약으로서 ITU-T의 X.500을 근거로 개발되었다. LDAP은 X.500을 기반으로 개발된 통신규약이며, X.500은 인터넷 사용이 가능한 곳이라면 전 세계 어디에서라도 이용이 가능하도록 나라, 기관, 사람, 기계 등과 같은 객체들을 관리하고 정보를 제공하는 디렉토리 서비스 표준이다. 이에 따라, 엑세스부(330)는, LDAP 동기화에 필요한 데이터는, 통합 이용자 테이블, 사이트 가입 테이블, 인증과 사이트 접속권한에 필요한 컬럼들을 오라클 트리거를 이용해서 임시테이블에 저장하는 방식을 이용할 수 있다. 임시테이블에는 이용자 또는 관리자가 통합회원 정보의 변경시(회원가입, 탈퇴, 수정 등) 데이터가 저장될 수 있고, 임시테이블에 저장된 데이터를 LDAP에 반영하는 역할은 인증서버 측의 웹 프로그램이나 응용 프로그램에서 할 수 있다. 실시간(real time)으로 이용자 정보를 LDAP에 동기화하는 방식으로 하기 위해 인증서버 측의 서비스 플랫폼을 설명하면, 판매자가 회원에 가입하면 회원정보가 저장되고 오라클 트리거가 작동하여 인증에 필요한 회원 기본정보를 저장한다. 웹 프로그래밍에서는 이용자 가입 처리가 끝나면 LDAP 동기화 처리 API를 호출하고, LDAP 동기화 처리 API에서는 이용자 ID로 테이블에서 관련 데이터를 검색하고, LDAP에 반영하고 난 후 임시테이블에 있는 데이터를 지우는 방식으로 처리할 수 있으나 이에 한정되지는 않는다.
동기화부(340)는, 엑세스된 적어도 하나의 쇼핑몰 페이지에 저장된 질의응답 데이터 셋을 등록시켜 동기화할 수 있다. 이때, 데이터의 동기화는 네트워크에 존재하는 분산 데이터 간의 데이터 동기화에 대한 스펙으로 여러 네트워크 프로토콜을 이용하여 메세지를 전송할 때 필요한 요구사항을 표준화한 룰(Rule)을 이용할 수도 있다. 이러한 룰을 기반으로 클라이언트인 판매자 단말(100)과 적어도 하나의 쇼핑몰 서버(400)를 연결하면 서버-클라이언트 간 애플리케이션들이 생성한 데이터 간의 논리적 연결이 가능해진다. 동기화 에이전트는, 동기화 어댑터, 동기화 엔진, 동기화 처리, 네트워크 처리로 구성되는 동기화 클라이언트와 클라이언트 에이전트, 클라이언트 데이터베이스 어댑터로 구성될 수 있으나 이에 한정되지 않는다. 클라이언트 에이전트는 클라이언트에서 동기화를 요구하거나 변경된 데이터를 임베디드 클라이언트로 전달하기 위한 패키지일 수 있고, 클라이언트 데이터베이스 어댑터는 클라이언트 데이터베이스의 접근 및 갱신 기능을 위한 패키지일 수 있다. 네트워크 처리는 네트워크 환경에 따라 동기화 문서를 수신하기 위한 각 프로토콜을 지원하기 위해 필요한 함수들의 패키지일 수 있다.
덧붙여서, 본 발명의 일 실시예는, 질의응답 데이터 셋을 재학습시킬 때 딥러닝(Deep Learning)을 이용할 수 있다. 딥러닝은 학습 모델의 크기가 클수록, 학습 데이터의 양이 방대할 수록 더 좋은 모델을 학습하는 경향이 있지만, 대용량의 데이터 셋을 이용하여 크기가 큰 모델을 학습하는 것은 매우 많은 연산을 요구하기 때문에, 복수의 GPU간 협업을 통해 하나의 글로벌(global) 모델을 학습하는 분산 딥러닝 기술을 이용할 수 있다. 분산 딥러닝 기법은 크게 모델 병렬화 기반 분산 딥러닝과, 데이터 병렬화 기반 분산 딥러닝으로 나뉘는데, 모델 병렬화 기반 분산 딥러닝은 하나의 모델을 분할하여 다수의 노드에서 나누어 저장하고, 모델의 각 부분을 병렬적으로 학습하는 방식이며, 데이터 병렬화 기반 분산 딥러닝은 각 노드들이 동일한 모델을 가지되, 데이터 셋을 분할하여 다수의 노드에서 나누어 저장하고, 할당 받은 각 데이터를 병렬적으로 학습하는 방식이다.
데이터 병렬화 기반 분산 딥러닝은 방대한 양의 학습 데이터를 여러 노드에 나누어 저장하고 각 노드는 각자 담당한 데이터를 기반으로 동일한 형태의 모델을 학습시키는 분산 딥러닝의 한 방법이다. 이러한 방식은 각 노드가 서로 다른 데이터를 독립적으로 학습하기 때문에 일정 주기마다 각 노드들의 학습 결과를 합산하여 동기화하는 과정이 필요하다. 이러한 학습 방식을 위해 각 노드가 학습한 결과를 합산하고 관리하는 파라미터 서버(parameter server)를 두어 분산 딥러닝을 진행할 수 있다. 여기서, 워커(worker)는 학습을 담당하는 노드로, 각자 저장하고 있는 데이터를 학습하는 역할을 한다. 각 워커는 자신의 데이터를 학습한 결과를 파라미터 서버로 전송하고, 파라미터 서버는 워커들로부터 받은 학습결과를 합산하여 글로벌 파라미터를 업데이트하고, 업데이트된 파라미터를 각 워커들에게 재전송한다. 이때, 파라미터 서버와 워커의 통신 방식에 따라 다양한 데이터 병렬화 기반 분산 딥러닝 방법을 이용할 수 있는데, 예를 들어 Bulk Synchronous Parallel (BSP)에서는, 각 워커가 일괄 처리 데이터(batch)를 학습하고 학습 결과를 파라미터 서버에 전송하고, 파라미터 서버가 모든 워커들의 학습 결과를 합산하여 글로벌 파라미터를 업데이트하면, 각 워커는 업데이트된 파라미터를 파라미터 서버로부터 받고 다음 일괄 처리 데이터에 대해 첫 번째 과정을 반복한다. 즉, 모든 워커가 동일한 파라미터를 기반으로 학습을 진행한다.
Asynchronous Parallel(ASP) 예를 들어, 각 워커가 일괄 처리 데이터를 학습하고 학습 결과를 파라미터 서버에 전송하면, 파라미터 서버는 각 워커로부터 받은 학습 결과로 글로벌 파라미터를 업데이트하고 해당 워커에게 업데이트된 파라미터를 전송하면, 새로운 파라미터를 받은 워커는 다음 일괄 처리 데이터에 대해 첫 번째 과정을 반복한다. 즉, 각 워커 노드들은 다른 워커 노드들을 기다리지 않고 학습을 진행한다. SSP(Stalness Synchronous Parallel는 BSP(Bulk Synchronous Parallel), ASP(Asynchronous Parallel)와 다르게 로컬(local) 파라미터를 사용한 학습을 허용하는 방법으로 학습을 진행하는데, 예를 들어, 각 워커가 로컬 파라미터를 기반으로 일괄 처리 데이터를 학습하고 학습 결과를 파라미터 서버에 전송하면, 파라미터 서버가 워커로부터 받은 학습 결과로 글로벌 파라미터를 업데이트하고, 워커는 자신의 로컬 파라미터가 글로벌 파라미터와 일정 이상의 버전 차이가 날 경우에만 파라미터 서버로부터 파라미터를 받아 로컬 파라미터를 업데이트하고, 각 워커는 첫 번째 과정을 반복한다. 물론, 상술한 방법 이외에도 분산하여 학습을 진행하고 이의 결과를 동기화시키는 다양한 방법이 이용될 수 있으며, 상술한 것들로 한정되지 않는다.
이하, 상술한 도 2의 질의응답 동기화 서비스 제공 서버의 구성에 따른 동작 과정을 도 3을 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.
도 3을 참조하면, (a) 질의응답 동기화 서비스 제공 서버(300)는 적어도 하나의 판매자 단말(100)로부터 복수의 쇼핑몰 또는 멀티 쇼핑몰의 페이지 URL 등의 정보와, 각 페이지에 접속가능한 엑세스 정보, 예를 들어, 계정정보 등을 등록할 수 있고, (b) 이에 따라 질의응답 동기화 서비스 제공 서버(300)는, 각 페이지에 게재된 적어도 하나의 종류의 상품 데이터를 수집하고, 상품 데이터를 분석하여 해당 상품 데이터에 기본적으로 제공되는 질의응답 데이터 셋을 추출한다. 그리고, (c) 질의응답 동기화 서비스 제공 서버(300)는, 적어도 하나의 쇼핑몰 서버(400)에 사용자 정보를 이용하여 접속하고, 각 쇼핑몰 페이지의 상품 Q&A 또는 F&Q 프레임에 판매자 단말(100)에서 선택하거나 선택 후 편집한 질의응답 데이터 셋을 자동기록하고, 복수의 쇼핑몰 서버(400)에 동일한 내용이 등록되도록 일괄적으로 동기화시킨다. (d) 또한, 적어도 하나의 판매자 단말(100)에서 질의응답 데이터 셋을 변경하거나 편집하는 경우에는, 이를 기반으로 각 상품 데이터에 맞도록 재학습시킬 수 있고, 각 학습되는 데이터는 의류에 한정되지 않고 다양하게 구축될 수 있다.
이와 같은 도 2 및 도 3의 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 4는 본 발명의 일 실시예에 따른 도 1의 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 4를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 4에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.
도 4를 참조하면, 질의응답 동기화 서비스 제공 서버(300)는, 판매자 단말(100)에서 적어도 하나의 쇼핑몰 페이지(400)에 상품을 업로드하고(S4100), 질의응답 동기화 서비스 제공 서버(300)로 쇼핑몰 페이지의 정보와 해당 페이지에 접근가능한 정보를 등록하는 경우(S4200), 각 페이지로 접속하여 상품 데이터를 수집한다(S4300, S4400). 그리고, 질의응답 동기화 서비스 제공 서버(300)는, 상품 데이터를 분석하여(S4500), 텍스트가 포함되어 있는지를 확인하고(S4600), 텍스트가 없는 경우 상품 이미지가 존재하는지를 확인하여(S4610), 상품 이미지 내에 텍스트가 존재하는 경우(S4630), OCR 이미지 텍스트 분석 모델로 이미지로부터 텍스트를 추출한다(S4670). 그리고, 상품 이미지는 존재하나 텍스트는 이미지 형태라도 존재하지 않는 경우, 질의응답 동기화 서비스 제공 서버(300)는 유사이미지 검색 모델을 이용하여 기 구축된 이미지 중 가장 유사한 이미지를 검색한다(S4650). 또한, 질의응답 동기화 서비스 제공 서버(300)는, 상품 텍스트도 없고 상품 이미지도 없어서 Q&A를 추천할 아무런 정보가 존재하지 않는 경우 상품명을 카테고리 분석을 한다(S4700).
한편, S4600 단계에서 텍스트가 포함된 것으로 정의되는 경우, 전처리를 수행하고(S4730), 품사태깅 및 형태소 분석을 진행한 후(S4750), 텍스트 분석 알고리즘을 이용하여(S4770), 텍스트, 이미지, 및 카테고리 중 어느 하나에 매핑된 질의응답 데이터셋을 추출하는 단계로 귀결된다(S4800). 이렇게 텍스트가 이미지화되었거나 없거나 상품명만 존재하는 것으로부터 텍스트를 추출했다면, 데이터셋에 매핑된 질의응답 데이터 셋이 존재하는 경우(S4800) 또는 유사도에 기반하여 질의응답 데이터 셋을 검색하고 이를 추출하여(S4860) 판매자 단말(100)로 추천한다(S4810).
질의응답 동기화 서비스 제공 서버(300)는 판매자 단말(100)에서 추천된 질의응답 데이터 셋 중 어느 하나를 선택하는 경우(S4830), 선택된 질의응답 데이터 셋이 적어도 하나의 쇼핑몰 서버(400)로 등록되도록 각 페이지에 접근 및 등록을 시작한다(S4850). 그리고, 질의응답 동기화 서비스 제공 서버(300)는, 각 페이지에 제대로 등록되었는지를 확인하고(S4900), 그 결과를 판매자 단말(100)로 전송한다(S4920).
상술한 단계들(S4100~S4920)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S4100~S4920)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.
이와 같은 도 4의 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 3을 통해 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5는 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법을 설명하기 위한 동작 흐름도이다. 도 5를 참조하면, 질의응답 동기화 서비스 제공 서버는, 판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장한다(S5100).
질의응답 동기화 서비스 제공 서버는, 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 판매자 단말로 추천하고(S5200), 판매자 단말에서 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 적어도 하나의 쇼핑몰 페이지에 사용자 정보로 엑세스한다(S5300).
마지막으로, 질의응답 동기화 서비스 제공 서버는, 엑세스된 적어도 하나의 쇼핑몰 페이지에 저장된 질의응답 데이터 셋을 등록시켜 동기화한다(S5400).
이와 같은 도 5의 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5를 통해 설명된 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (7)

  1. 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 상기 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 전송하고, 추천된 질의응답 데이터 셋을 선택하여 동기화시키는 판매자 단말; 및 상기 판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 상기 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장하는 저장부, 상기 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상기 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 상기 판매자 단말로 추천하는 추천부, 상기 판매자 단말에서 상기 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 상기 적어도 하나의 쇼핑몰 페이지에 상기 사용자 정보로 엑세스하는 엑세스부, 및 상기 엑세스된 적어도 하나의 쇼핑몰 페이지에 상기 저장된 질의응답 데이터 셋을 등록시켜 동기화하는 동기화부를 포함하는 질의응답 동기화 서비스 제공 서버;에서 실행되는 질의응답 동기화 서비스 제공 방법에 있어서,
    판매자 단말로부터 상품이 등록된 적어도 하나의 쇼핑몰 페이지와, 상기 적어도 하나의 쇼핑몰 페이지에 엑세스하기 위해 요구되는 사용자 정보를 입력받아 저장하는 단계;
    상기 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상기 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 상기 판매자 단말로 추천하는 단계;
    상기 판매자 단말에서 상기 추천된 질의응답 데이터 셋을 선택하여 저장하는 경우, 상기 적어도 하나의 쇼핑몰 페이지에 상기 사용자 정보로 엑세스하는 단계; 및,
    상기 엑세스된 적어도 하나의 쇼핑몰 페이지에 상기 저장된 질의응답 데이터 셋을 등록시켜 동기화하는 단계;로 이루어지고,
    상기 적어도 하나의 쇼핑몰 페이지에 등록된 상품의 상품 데이터를 수집하여 전처리를 수행한 후 상기 상품 데이터를 분석하여 기 저장된 질의응답 데이터 셋을 상기 판매자 단말로 추천하는 단계는,
    상기 상품 데이터에 포함된 텍스트, 상기 상품 데이터에 포함된 상품 이미지에 포함된 텍스트, 상기 상품 데이터 중 상품 이미지와 유사한 기 저장된 유사 이미지에 기 매핑되어 저장된 텍스트, 및 상기 상품 데이터 중 상품명 텍스트로부터 추출된 텍스트 중 적어도 하나의 텍스트에 기반하여 상기 기 저장된 질의응답 데이터 셋을 추출하는 단계;를 포함하는 것인, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 상품 데이터에 포함된 텍스트에 기반하여 상기 기 저장된 질의응답 데이터 셋을 추출하는 단계는,
    상기 상품 데이터에 포함된 텍스트를 전처리를 수행하고, 품사 태깅을 통한 형태소 분석 후 최소 단위의 어절을 생성하고, 상기 생성된 어절을 분석하는 단계;
    상기 분석된 텍스트를 매트릭스로 정형화시킨 후 분류기로 모델링하는 텍스트 분석을 수행하는 단계; 및
    상기 분석된 텍스트를 기반으로 기 저장된 질의응답 데이터 셋을 유사도에 기초하여 추출하여 상기 판매자 단말로 추천하는 단계;
    를 수행함으로써 실행되는 것인, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법.
  4. 제 1 항에 있어서,
    상기 상품 데이터에 포함된 상품 이미지에 포함된 텍스트에 기반하여 상기 기 저장된 질의응답 데이터 셋을 추출하는 단계는,
    상기 상품 데이터에 텍스트가 존재하지 않고 상품 이미지만 존재하는 경우, 상기 상품 이미지를 OCR(Optical Character Recognition) 텍스트 기반 이미지 분석 모델을 적용하여 텍스트로 변환하는 단계;
    를 수행함으로써 실행되고,
    상기 OCR 텍스트 기반 이미지 분석 모델은, 이미지로부터 텍스트가 존재한 위치를 찾아내는 텍스트 탐지(Text Detection) 및 텍스트 이미지를 텍스트로 추출하는 텍스트 인식(Text Recognition)을 포함하는 것인, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법.
  5. 제 1 항에 있어서,
    상기 상품 데이터 중 상품 이미지와 유사한 기 저장된 유사 이미지에 기 매핑되어 저장된 텍스트에 기반하여 상기 기 저장된 질의응답 데이터 셋을 추출하는 단계는,
    상기 상품 데이터에 텍스트가 존재하지 않고 상품 이미지만 존재하는 경우, 기 저장된 데이터베이스 중 딥러닝에 학습한 적어도 하나의 모델을 이용하여 상기 상품 이미지의 적어도 하나의 특징(Features)을 추출하는 단계;
    상기 추출된 적어도 하나의 특징을 벡터공간(Vector Space)에 표현하고, 유사거리(Similarity Distance)를 계산하는 알고리즘 또는 클러스터링(Clustering) 알고리즘을 이용하여 상기 상품 이미지와 유사한 유사이미지를 검색하는 단계; 및,
    상기 검색된 유사이미지에 기 매핑된 텍스트를 추출하는 단계;
    를 수행함으로써 실행되는 것인, 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법.
  6. 삭제
  7. 삭제
KR1020190121900A 2019-10-02 2019-10-02 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템 KR102148451B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190121900A KR102148451B1 (ko) 2019-10-02 2019-10-02 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190121900A KR102148451B1 (ko) 2019-10-02 2019-10-02 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템

Publications (1)

Publication Number Publication Date
KR102148451B1 true KR102148451B1 (ko) 2020-08-27

Family

ID=72237464

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190121900A KR102148451B1 (ko) 2019-10-02 2019-10-02 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템

Country Status (1)

Country Link
KR (1) KR102148451B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102303469B1 (ko) * 2020-12-09 2021-09-23 엔에이치엔 주식회사 상품 기반 자동 매칭 검색 광고 시스템 및 그 방법
KR20220081398A (ko) * 2020-12-08 2022-06-16 (주)플래티어 검색어 추천 장치, 방법 및 기록매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050104319A (ko) * 2005-10-12 2005-11-02 김영선 상품 페이지 자동 제작 시스템 및 방법
KR100933702B1 (ko) * 2009-04-27 2009-12-24 웹케시 주식회사 오픈 마켓 판매 정보 통합 관리 방법, 장치 및 그 방법을 실행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체
KR20120087220A (ko) * 2010-11-25 2012-08-07 주식회사 케이티 온라인 고객 응대 방법 및 시스템
KR20170013369A (ko) * 2017-01-23 2017-02-06 오드컨셉 주식회사 검색 정보를 표시하는 방법, 장치 및 컴퓨터 프로그램
KR101982990B1 (ko) * 2018-12-27 2019-05-27 건국대학교 산학협력단 챗봇을 이용한 질의 응답 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050104319A (ko) * 2005-10-12 2005-11-02 김영선 상품 페이지 자동 제작 시스템 및 방법
KR100933702B1 (ko) * 2009-04-27 2009-12-24 웹케시 주식회사 오픈 마켓 판매 정보 통합 관리 방법, 장치 및 그 방법을 실행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체
KR20120087220A (ko) * 2010-11-25 2012-08-07 주식회사 케이티 온라인 고객 응대 방법 및 시스템
KR20170013369A (ko) * 2017-01-23 2017-02-06 오드컨셉 주식회사 검색 정보를 표시하는 방법, 장치 및 컴퓨터 프로그램
KR101982990B1 (ko) * 2018-12-27 2019-05-27 건국대학교 산학협력단 챗봇을 이용한 질의 응답 방법 및 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220081398A (ko) * 2020-12-08 2022-06-16 (주)플래티어 검색어 추천 장치, 방법 및 기록매체
KR102561662B1 (ko) 2020-12-08 2023-08-02 (주)플래티어 검색어 추천 장치, 방법 및 기록매체
KR20230117716A (ko) * 2020-12-08 2023-08-09 (주)플래티어 검색어 추천 장치, 방법 및 기록매체
KR102666635B1 (ko) 2020-12-08 2024-05-21 (주)플래티어 검색어 추천 장치, 방법 및 기록매체
KR102303469B1 (ko) * 2020-12-09 2021-09-23 엔에이치엔 주식회사 상품 기반 자동 매칭 검색 광고 시스템 및 그 방법
US11941666B2 (en) 2020-12-09 2024-03-26 Nhn Corporation System and method for automatic matching search advertisement based on product preliminary class

Similar Documents

Publication Publication Date Title
Lakshmanan et al. Machine learning design patterns
Rehman et al. A hybrid CNN-LSTM model for improving accuracy of movie reviews sentiment analysis
Santos et al. Toponym matching through deep neural networks
KR102155739B1 (ko) 질의응답 데이터 셋을 적응적으로 재사용하는 챗봇 서비스 제공 방법, 서버, 및 시스템
KR102155768B1 (ko) 학습을 통하여 진화하는 질의응답 데이터 셋을 이용한 쇼핑몰 질의응답 추천 서비스 제공 방법
National Research Council et al. Frontiers in massive data analysis
US9846836B2 (en) Modeling interestingness with deep neural networks
Dashtipour et al. Exploiting deep learning for Persian sentiment analysis
Suissa et al. Text analysis using deep neural networks in digital humanities and information science
CN112131350A (zh) 文本标签确定方法、装置、终端及可读存储介质
Kulkarni et al. Deep learning for NLP
Nguyen et al. Transformers-based information extraction with limited data for domain-specific business documents
Das et al. A CV parser model using entity extraction process and big data tools
Rafail et al. Natural language processing
KR102148451B1 (ko) 멀티 쇼핑몰의 통합 관리 및 연동을 위한 쇼핑몰 질의응답 동기화 서비스 제공 방법, 서버, 및 시스템
CN113961666A (zh) 关键词识别方法、装置、设备、介质及计算机程序产品
Zhang et al. SEMA: Deeply learning semantic meanings and temporal dynamics for recommendations
Alothman et al. Managing and Retrieving Bilingual Documents Using Artificial Intelligence‐Based Ontological Framework
Su et al. Low‐Rank Deep Convolutional Neural Network for Multitask Learning
Rajasekaran et al. Sentiment analysis of restaurant reviews
CN114328894A (zh) 文档处理方法、装置、电子设备及介质
Bhalerao et al. Social media mining using machine learning techniques as a survey
Karak et al. Sentiment Analysis of IMDb Movie Reviews: A Comparative Analysis of Feature Selection and Feature Extraction Techniques
Singh et al. Intelligent Text Mining Model for English Language Using Deep Neural Network
Lin et al. Realtime event summarization from tweets with inconsistency detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant