KR102375947B1 - 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 - Google Patents

영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR102375947B1
KR102375947B1 KR1020200033634A KR20200033634A KR102375947B1 KR 102375947 B1 KR102375947 B1 KR 102375947B1 KR 1020200033634 A KR1020200033634 A KR 1020200033634A KR 20200033634 A KR20200033634 A KR 20200033634A KR 102375947 B1 KR102375947 B1 KR 102375947B1
Authority
KR
South Korea
Prior art keywords
person
interaction information
product
product area
image frame
Prior art date
Application number
KR1020200033634A
Other languages
English (en)
Other versions
KR20210117439A (ko
Inventor
남길현
Original Assignee
주식회사 메이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메이아이 filed Critical 주식회사 메이아이
Priority to KR1020200033634A priority Critical patent/KR102375947B1/ko
Priority to PCT/KR2020/013507 priority patent/WO2021187701A1/ko
Priority to US17/912,118 priority patent/US20230133882A1/en
Publication of KR20210117439A publication Critical patent/KR20210117439A/ko
Application granted granted Critical
Publication of KR102375947B1 publication Critical patent/KR102375947B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 태양에 따르면, 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법으로서, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 상기 제1 사람과 상기 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 상기 판단 결과에 기초하여 상기 제1 사람과 상기 상품 사이의 인터랙션 정보를 추정하는 단계, 및 상기 추정되는 인터랙션 정보의 유효성을 판단하는 단계를 포함하는 방법이 제공된다.

Description

영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR ESTIMATIING INTERACTION INFORMATION BETWEEN PERSON AND PRODUCT BASED ON IMAGE}
본 발명은 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
근래에 들어 인공지능을 활용한 영상 분석 기술이 발전하면서, 오프라인 마켓에서 촬영되는 영상을 분석하여 수요자가 어떤 상품에 얼마나 관심을 갖는지에 관한 정보를 수집하고, 이러한 정보를 마케팅 전략, 판매 전략 등의 수립에 활용할 수 있도록 지원하는 기술에 대한 수요가 점차 높아지고 있다.
수요자가 어떤 상품에 얼마나 관심을 갖는지에 관한 정보는 상품의 마케팅 전략, 판매 전략 등을 수립함에 있어서 매우 중요하게 고려될 수 있다. 다만, 이러한 정보를 수집하는 것이 용이한 온라인 마켓과는 달리, 오프라인 마켓에서는 수요자의 구매 기록을 제외하면 이러한 정보를 수집하는 것이 어려운 실정이다.
한편, 이에 관한 종래 기술의 일 예로서, 한국등록특허공보 제1490505호에 개시된 기술을 예로 들 수 있는데, 이에 따르면, 카메라로부터 수신한 객체가 포함된 영상으로부터, 눈과 관련된 제1 기준 신체 상태 지표를 참조하여 위의 객체의 눈과 관련된 제1 신체 상태 정보를 분석하고, 그 분석 결과에 기반하여 위의 객체의 제1 신체 상태 지표를 생성하는 제1 신체 상태 지표 생성 모듈, 얼굴 특징과 관련된 제2 기준 신체 상태 지표를 참조하여 위의 객체의 얼굴 특징과 관련된 제2 신체 상태 정보를 분석하고, 그 분석 결과에 기반하여 위의 객체의 제2 신체 상태 지표를 생성하는 제2 신체 상태 지표 생성 모듈, 얼굴 방향과 관련된 제3 기준 신체 상태 지표를 참조하여 위의 객체의 얼굴 방향과 관련된 제3 신체 상태 정보를 분석하고, 그 분석 결과에 기반하여 위의 객체의 제3 신체 상태 지표를 생성하는 제3 신체 상태 지표 생성 모듈, 및 제1 내지 제3 신체 상태 지표 중 적어도 하나로부터 위의 객체가 주시하고 있는 대상에 대한 객체의 관심도와 관련된 대상 이목 지표를 생성하는 대상 이목 지표 생성 모듈을 포함하는 것을 특징으로 한다.
하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 오프라인 마켓에서 촬영되는 영상에 기초하여 어떤 사람이 특정 매대 또는 그 매대에 포함되는 상품과 접촉했는지 여부 등을 정확하게 판단하지는 못하였다.
이에 본 발명자(들)는, 오프라인 마켓에서 촬영되는 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 기술을 제안하는 바이다.
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 위의 제1 사람과 위의 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 그 판단 결과에 기초하여 위의 제1 사람과 위의 상품 사이의 인터랙션 정보를 추정하고, 그 추정되는 인터랙션 정보의 유효성을 판단하는 것을 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 상기 제1 사람과 상기 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 상기 판단 결과에 기초하여 상기 제1 사람과 상기 상품 사이의 인터랙션 정보를 추정하는 단계, 및 상기 추정되는 인터랙션 정보의 유효성을 판단하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 상기 제1 사람과 상기 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 상기 판단 결과에 기초하여 상기 제1 사람과 상기 상품 사이의 인터랙션 정보를 추정하는 인터랙션 정보 추정부, 및 상기 추정되는 인터랙션 정보의 유효성을 판단하는 유효성 판단부를 포함하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 위의 제1 사람과 위의 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 그 판단 결과에 기초하여 위의 제1 사람과 위의 상품 사이의 인터랙션 정보를 추정하고, 그 추정되는 인터랙션 정보의 유효성을 판단함으로써, 오프라인 마켓에서 어떤 사람이 특정 매대 또는 그 매대에 포함되는 상품과 접촉했는지 여부 등을 정확하게 판단할 수 있게 된다.
또한, 본 발명에 의하면, 오프라인 마켓에서의 수요자의 행동을 정량화하고, 이를 퍼널 분석(Funnel Analysis) 등에서 기준 지표로 활용하여 마케팅 전략, 판매 전략 등을 수립할 수 있도록 지원할 수 있다.
또한, 본 발명에 의하면, 인공 신경망을 이용한 Action Recognition에 기초하여 사람과 상품과의 접촉 여부를 판단하는 것에 비하여 계산량이 훨씬 적기 때문에, 한정된 컴퓨팅 자원을 효율적으로 활용할 수 있고 실시간 영상 처리도 가능하게 된다.
또한, 본 발명에 의하면, 복수의 영상 프레임에 관한 깊이 정보를 참조하지 않고 사람과 상품의 접촉 여부를 판단할 수 있으므로, 빠르면서도 비용 효율적인 방법으로 사람과 상품 사이의 인터랙션 정보를 추정할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따라 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인터랙션 정보 추정 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3 내지 4는 본 발명의 일 실시예에 따라 영상 프레임에서 검출되는 제1 사람 및 상품 영역을 예시적으로 나타내는 도면이다.
도 5 내지 8은 본 발명의 일 실시예에 따라 사람과 상품 간 인터랙션 정보를 추정하고, 그 추정되는 인터랙션 정보의 유효성을 판단하는 과정을 예시적으로 나타내는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따라 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 인터랙션 정보 추정 시스템(200) 및 영상 촬영 모듈(300)을 포함할 수 있다.
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드 와이드 웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 5G 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 통신 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(100)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.
다음으로, 본 발명의 일 실시예에 따른 인터랙션 정보 추정 시스템(200)은 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 위의 제1 사람과 위의 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 그 판단 결과에 기초하여 위의 제1 사람과 위의 상품 사이의 인터랙션 정보를 추정하고, 그 추정되는 인터랙션 정보의 유효성을 판단하는 기능을 수행할 수 있다.
본 발명에 따른 인터랙션 정보 추정 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다.
다음으로, 본 발명의 일 실시예에 따른 영상 촬영 모듈(300)은 인터랙션 정보 추정 시스템(200)에 접속한 후 통신할 수 있는 기능 및 영상을 촬영하는 기능을 포함하는 기기로서, CCTV, IP 카메라 등을 포함할 수 있으나 이에 제한되는 것은 아니다. 나아가, 본 발명의 일 실시예에 따른 영상 촬영 모듈(300)은 CCTV, IP 카메라 등에 의하여 촬영된 영상을 저장하는 기록 매체(예를 들면, DVR(Digital Video Recorder), NVR(Network Video Recorder) 등)를 포함하는 개념일 수 있다.
인터랙션 정보 추정 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 인터랙션 정보 추정 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따른 인터랙션 정보 추정 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인터랙션 정보 추정 시스템(200)은, 인터랙션 정보 추정부(210), 유효성 판단부(220), 통신부(230) 및 제어부(240)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 인터랙션 정보 추정부(210), 유효성 판단부(220), 통신부(230) 및 제어부(240)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 인터랙션 정보 추정 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 인터랙션 정보 추정 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
한편, 인터랙션 정보 추정 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 인터랙션 정보 추정 시스템(200)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 외부 시스템(미도시됨) 또는 외부 디바이스(미도시됨) 내에서 실현되거나 포함될 수도 있음은 당업자에게 자명하다.
먼저, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 위의 제1 사람과 위의 상품 영역에 포함되는 상품의 접촉 여부를 판단하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 영상 촬영 모듈(300)에 의하여 영상이 촬영되면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 그 촬영된 영상에 포함되는 복수의 영상 프레임 각각에서 제1 사람을 검출할 수 있다. 여기서, 위의 검출되는 제1 사람은, 위의 검출되는 제1 사람의 적어도 일부를 둘러싸는 경계 영역(예를 들면, 제1 사람의 신체 전부에 대한 Bounding Box, 제1 사람의 머리에 대한 Bounding Box 등), 위의 검출되는 제1 사람의 자세로부터 추정되는 적어도 하나의 특징점(예를 들면, 위의 제1 사람의 주요 관절 포인트) 및 그 적어도 하나의 특징점을 연결한 연결선 중 적어도 하나를 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, CenterNet 기반의 Keypoint Estimation 알고리즘, 자세 추정(Pose Estimation)에 관한 여러 공지의 알고리즘 등을 이용하여 위의 제1 사람을 검출할 수 있다. 나아가, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 칼만 필터(Kalman Filter) 기반의 객체 추적 알고리즘을 사용하여 복수의 영상 프레임 내에서 위와 같이 검출되는 제1 사람을 추적할 수 있고, 그 추적되는 제1 사람에 대하여 식별코드를 부여할 수 있다. 다만, 본 발명의 일 실시예에 따라 제1 사람을 검출하고 추적하기 위하여 이용되는 여러 알고리즘은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
한편, 본 발명의 일 실시예에 따른 상품 영역은, 오프라인 마켓에 배치된 매대에서 상품이 진열되어 있는 영역을 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따른 상품 영역은, 매대가 여러 층으로 구성된 경우에는 각 층별로 구분될 수 있으며, 더 세분화하여 같은 층에서도 상품의 종류별로 구분될 수도 있다. 그리고, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)가 객체 검출에 관한 공지의 알고리즘을 이용하여 이러한 상품 영역을 검출하는 것도 가능하지만, 오프라인 마켓에 설치된 영상 촬영 모듈(300)은 그 설치된 위치에 고정되어 있는 것이 일반적이므로, 컴퓨팅 리소스를 절약하는 측면에서 이러한 상품 영역이 미리 설정될 수 있다. 물론, 매대의 각 층별로 상품 영역을 미리 설정하고, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)가 객체 검출에 관한 공지의 알고리즘을 이용하여 위의 설정된 상품 영역에 포함되는 세부 영역(예를 들면, 상품의 종류별로 구분되는 영역)을 검출하는 방법이 사용될 수도 있다. 다만, 본 발명의 일 실시예에 따라 상품 영역을 설정하기 위하여 이용되는 여러 방법은 위의 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
한편, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)가 제1 사람과 상품 영역에 포함되는 상품의 접촉 여부를 판단함에 있어서 기초가 되는, 복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계는, 위의 검출되는 제1 사람의 적어도 일부가 위의 상품 영역에 겹쳐지는 관계를 의미할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 복수의 영상 프레임에서 검출되는 제1 사람의 적어도 일부를 둘러싸는 경계 영역, 위의 검출되는 제1 사람의 자세로부터 추정되는 적어도 하나의 특징점 및 그 적어도 하나의 특징점을 연결한 연결선 중 적어도 하나가 상품 영역에 소정 수준 이상 겹쳐지는 경우에, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 위의 제1 사람이 위의 상품 영역에 포함되는 상품에 접촉했다고 판단할 수 있다.
또한, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 복수의 영상 프레임에서 검출되는 제1 사람의 자세로부터 추정되는 적어도 하나의 특징점 및 그 적어도 하나의 특징점을 연결한 연결선 중 적어도 하나로부터 위의 제1 사람의 손의 위치를 추정하고, 그 추정되는 손의 위치가 상품 영역 안에 포함되는 경우에, 위의 제1 사람이 위의 상품 영역에 포함되는 상품에 접촉했다고 판단할 수 있다. 그리고, 본 발명의 일 실시예에 따르면, 위의 검출되는 제1 사람의 자세로부터 위의 제1 사람의 손목 및 팔꿈치를 추정하고, 그 추정되는 팔꿈치와 손목을 3:1로 외분하는 점을 위의 제1 사람의 손의 위치로 추정할 수 있다. 다만, 본 발명의 일 실시예에 따라 제1 사람의 손의 위치를 추정하는 방법이 이에 제한되는 것은 아니고, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
한편, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 복수의 영상 프레임에 관한 깊이 정보를 참조하지 않고 제1 사람과 상품 영역에 포함되는 상품의 접촉 여부를 판단할 수 있다. 즉, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 깊이 정보를 포함하는 3차원 영상을 이용하거나, 2차원 영상에 관한 복수의 영상 프레임으로부터 깊이 정보를 추정하고, 그 추정된 깊이 정보를 참조하여 위의 상품의 접촉 여부를 판단하는 것이 아니라, 2차원 영상에 관한 복수의 영상 프레임에서 검출되는 위의 제1 사람 및 위의 상품 영역 사이의 상호 관계에만 기초하여 위의 상품의 접촉 여부를 판단할 수 있다. 따라서, 본 발명의 일 실시예에 따르면, 위와 같이 2차원 영상을 이용하여 위의 상품의 접촉 여부를 판단하므로 고가의 깊이 카메라가 아닌 일반 RGB 카메라에도 적용이 가능하다. 그리고, 2차원 영상에 관한 복수의 영상 프레임으로부터 깊이 정보를 추정하는 과정은 많은 연산량을 필요로 하는데, 본 발명의 일 실시예에 따르면, 위와 같은 과정을 수행하지 않으므로, 위와 같은 과정을 수행하는 경우에 비하여 초당 처리할 수 있는 영상 프레임의 수가 훨씬 많아지게 된다.
도 3 내지 4는 본 발명의 일 실시예에 따라 영상 프레임에서 검출되는 제1 사람 및 상품 영역을 예시적으로 나타내는 도면이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 영상 프레임에서 검출되는 제1 사람의 자세로부터 추정되는 17개의 주요 관절 포인트(300 내지 316) 및 그 관절 포인트를 연결한 연결선을 예시적으로 나타낸 모습을 확인할 수 있다. 여기서, 307 및 308은 위의 제1 사람의 팔꿈치를 나타내고, 309 및 310은 위의 제1 사람의 손목을 나타낸다.
그리고, 도 4를 참조하면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 영상 프레임에서 검출되는 제1 사람(410 및 420)과 상품 영역(430)의 모습을 확인할 수 있다.
한편, 이상에서 설명한 내용에 따라 제1 사람과 상품 영역에 포함되는 상품의 접촉 여부를 판단하면, 위의 제1 사람과 위의 상품의 접촉이 없으면서 위의 상품 영역에 위의 제1의 사람의 손의 위치가 포함되는 경우처럼, 위의 제1 사람이 위의 상품과 접촉하지 않았음에도 접촉했다고 판단하는 경우가 발생하게 된다. 따라서, 이렇게 잘못 판단되는 경우를 필터링하는 과정이 필요하며, 이에 관한 기능을 수행하는 유효성 판단부(220)에 대하여는 후술하기로 한다.
한편, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 제1 사람과 상품 영역에 포함되는 상품의 접촉 여부가 판단되면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 그 판단 결과에 기초하여 위의 제1 사람과 위의 상품 사이의 인터랙션 정보를 추정하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 인터랙션 정보는 어떤 사람이 어떤 상품과 얼마나 오래 접촉했는지에 관한 정보를 의미할 수 있다. 따라서, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는, 제1 사람과 상품 영역에 포함되는 상품 사이의 인터랙션 정보에는, 위의 제1 사람의 식별 코드, 위의 상품 영역의 식별 코드(또는, 그 상품 영역에 포함되는 상품의 식별 코드), 위의 제1 사람과 위의 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임에 관한 정보, 위의 상호 관계가 종료되는 제2 영상 프레임에 관한 정보 등이 포함될 수 있다. 한편, 위의 제2 영상 프레임에 관한 정보는, 위의 제1 영상 프레임 및 위의 제2 영상 프레임 사이의 영상 프레임 수, 위의 상호 관계가 지속되는 프레임 수 등의 형식으로 표현될 수도 있다.
그리고, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 복수의 영상 프레임에서 검출되는 제1 사람 또는 그 검출되는 제1 사람으로부터 추정되는 위의 제1 사람의 손의 위치가 상품 영역에 겹쳐지기 시작하는 프레임을 위의 제1 영상 프레임으로 결정하고, 위의 검출되는 제1 사람 또는 그 검출되는 제1 사람으로부터 추정되는 위의 제1 사람의 손의 위치가 위의 상품 영역에 겹쳐지지 않게 되는 프레임을 위의 제2 영상 프레임으로 결정할 수 있다. 다만, 본 발명의 일 실시예에 따라 위의 제1 영상 프레임 및 제2 영상 프레임을 결정하는 방법이 이에 제한되는 것은 아니고, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
한편, 오프라인 마켓에서는, 제1 사람의 신체의 일부가 다른 물건 또는 다른 사람에 의하여 가려짐으로 인하여 위의 제1 사람의 신체의 일부를 촬영할 수 없거나, 또는 그 마켓에 설치된 영상 촬영 모듈(300)과 제1 사람의 위치 관계 상 위의 제1 사람의 신체의 일부를 촬영할 수 없는 경우 등이 있을 수 있다. 이러한 경우에는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의한 위의 제1 사람의 검출이 연속적으로 이루어지지 못할 수 있고, 이에 따라 위의 제1 사람과 상품 영역에 포함되는 상품 사이의 인터랙션 정보가 둘 이상으로 분할되어 추정될 수 있다. 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 위와 같이 분할된 둘 이상의 인터랙션 정보를 하나의 인터랙션 정보로 병합함으로써, 위의 제1 사람과 위의 상품 영역 사이의 상호 관계가 지속되는 시간을 정확하게 추정할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는, 제1 사람과 상품 영역에 포함되는 상품 사이의 인터랙션 정보가 [contact_start_frame, duration_frame, person_id, contacted_shelf_id]와 같은 데이터 형식으로 표현되는 경우를 가정할 수 있다. 여기서, contact_start_frame은 제1 사람과 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임의 번호, duration_frame은 위의 상호 관계가 지속되는 프레임 수, person_id는 위의 제1 사람의 식별 코드, contacted_shelf_id는 위의 상품 영역의 식별 코드를 각각 의미할 수 있다.
계속하여 예를 들면, 제1 사람과 상품 영역 사이의 상호 관계가 실제로는 30번 영상 프레임에서 시작되고, 96번 영상 프레임에서 종료되었으나(즉, 30FPS 영상 기준으로 3.2초 동안 위의 상호 관계가 지속되었으나), 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정된 인터랙션 정보는, [30, 36, 1, 2]의 데이터를 가지는 제1 인터랙션 정보 및 [70, 27, 1, 2]의 데이터를 가지는 제2 인터랙션 정보로 분할된 경우를 가정할 수 있다. 그리고, 위의 제1 인터랙션 정보에 해당하는 영상 프레임 구간을 선행 구간(즉, 30 내지 65번 영상 프레임 구간), 위의 제2 인터랙션 정보에 해당하는 영상 프레임 구간을 후행 구간(즉, 70 내지 96번 영상 프레임 구간)이라고 하면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)는, 위의 선행 구간 종료 영상 프레임인 65번 영상 프레임과 위의 후행 구간 시작 영상 프레임인 70번 영상 프레임 사이의 영상 프레임 수가 소정 기준 이하인지 판단할 수 있다. 그리고, 그 프레임 수가 소정 기준 이하라고 판단되면, 위의 제1 인터랙션 정보와 제2 인터랙션 정보를 병합하여 [30, 67, 1, 2]의 데이터를 가지는 인터랙션 정보를 생성할 수 있다.
한편, 위에서는 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보가 둘인 경우에 대하여 설명하였지만, 위의 인터랙션 정보가 셋 이상인 경우에도 마찬가지 방식으로 병합될 수 있음은 당업자에게 자명하므로, 자세한 설명은 생략하기로 한다.
다음으로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 제1 사람과 상품 영역에 포함되는 상품 사이의 인터랙션 정보가 추정되면, 그 추정되는 인터랙션 정보의 유효성을 판단하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보 중에서 제1 사람과 상품 영역에 포함되는 상품의 접촉이 없는 경우에 해당하는 인터랙션 정보를 필터링하기 위하여, 위의 추정되는 인터랙션 정보의 유효성을 판단할 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 제1 사람과 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임과 위의 상호 관계가 종료되는 제2 영상 프레임 사이의 영상 프레임 수 및 위의 제1 영상 프레임보다 시간적으로 선행하는 제3 영상 프레임과 위의 제2 영상 프레임보다 시간적으로 후행하는 제4 영상 프레임 사이의 픽셀값 변화 중 적어도 하나를 참조하여, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보의 유효성을 판단할 수 있다.
예를 들면, 본 발명의 일 실시예에 따르면, 제1 사람과 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임과 위의 상호 관계가 종료되는 제2 영상 프레임 사이의 영상 프레임 수가 소정의 최솟값 이하이거나 소정의 최댓값 이상인 경우를 가정할 수 있다. 이러한 경우에는 위의 제1 사람과 위의 상품 영역에 포함되는 상품의 접촉이 없을 가능성이 높고, 오히려 위의 제1 사람이 위의 상품 영역을 스쳐 지나가거나, 위의 제1 사람이 위의 상품 영역과 관련이 없는 다른 곳을 보면서 머물고 있을 가능성이 높으므로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보가 유효하지 않다고 판단할 수 있다.
한편, 제1 사람이 상품 영역에 포함되는 상품에 실제로 접촉한 경우(예를 들면, 제1 사람이 위의 상품을 집었다가 내려 놓거나 위의 상품을 들고 가는 경우 등)에는, 그러한 접촉이 있기 전의 영상 프레임에서의 위의 상품 영역과 접촉이 있은 후의 영상 프레임에서의 위의 상품 영역이 서로 다르게 된다. 따라서, 위의 접촉이 있기 전의 영상 프레임을 제3 영상 프레임이라고 하고, 위의 접촉이 있은 후의 영상 프레임을 제4 영상 프레임이라고 하면, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 위의 제3 영상 프레임의 위의 상품 영역과 위의 제4 영상 프레임의 위의 상품 영역을 서로 비교하여 위의 상품 영역의 픽셀값 변화를 산출할 수 있다. 그리고, 위의 픽셀값 변화가 소정 기준을 충족하지 못하는 경우에는 위의 제1 사람과 위의 상품의 접촉이 없을 가능성이 높으므로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보가 유효하지 않다고 판단할 수 있다.
한편, 본 발명의 일 실시예에 따른 제3 영상 프레임은, 제1 사람과 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임보다 시간적으로 선행하는 영상 프레임 중에서, 위의 상품 영역이 제2 사람 및 다른 물체로 가려지지 않으면서 위의 제1 영상 프레임과 시간적으로 가장 가까운 영상 프레임을 의미할 수 있다. 그리고, 본 발명의 일 실시예에 따른 제4 영상 프레임은, 제1 사람과 상품 영역 사이의 상호 관계가 종료되는 제2 영상 프레임보다 시간적으로 후행하는 영상 프레임 중에서, 위의 상품 영역이 제2 사람 및 다른 물체로 가려지지 않으면서 위의 제2 영상 프레임과 시간적으로 가장 가까운 영상 프레임을 의미할 수 있다. 그리고, 위의 상품 영역이 제2 사람 및 다른 물체로 가려지는지 여부는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)가 제2 사람이나 다른 물체를 검출함으로써 판단될 수 있다.
그리고, 본 발명의 일 실시예에 따르면, 제3 영상 프레임의 상품 영역과 제4 영상 프레임의 위의 상품 영역을 서로 비교함으로써 산출되는 위의 상품 영역의 픽셀값 변화가 소정 기준을 충족하지 못하는지 여부는, 다음의 세 개의 변수(Rcn, Rcv 및 Diffmax) 중 적어도 하나를 참조하여 판단될 수 있다.
Rcn(Ratio of changed pixel number) = 상품 영역에 포함되는 픽셀 중 픽셀값이 변화한 픽셀의 수 / 상품 영역에 포함되는 픽셀의 수
Rcv(Ratio of changed pixel value) = 상품 영역에 포함되는 각 픽셀의 픽셀값 변화량의 합 / 상품 영역에 포함되는 픽셀의 수
Diffmax = 상품 영역에 포함되는 픽셀 중 픽셀값 변화량이 가장 큰 픽셀의 픽셀값 변화량
본 발명의 일 실시예에 따르면, 위의 Rcn에서 픽셀값이 변화한 픽셀은, R채널, G채널 및 B채널 중 어느 하나의 채널의 픽셀값 변화량이 소정 기준 이상인 픽셀을 의미할 수 있다. 그리고, 위의 Rcn의 값이 소정의 최솟값 이하이거나 소정의 최댓값 이상인 경우에는, 제1 사람과 상품 영역에 포함되는 상품의 접촉이 없을 가능성이 높으므로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보가 유효하지 않다고 판단할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 위의 Rcv 및 Diffmax에서 픽셀값 변화량은, 해당 픽셀의 R채널의 픽셀값 변화량, G채널의 픽셀값 변화량 및 B채널의 픽셀값 변화량의 합을 의미할 수 있다. 그리고, 위의 Rcv의 값이 소정의 최솟값 이하이거나 소정의 최댓값 이상인 경우, 또 위의 Diffmax의 값이 소정의 최솟값 이하인 경우에는, 제1 사람과 상품 영역에 포함되는 상품의 접촉이 없을 가능성이 높으므로, 본 발명의 일 실시예에 따른 유효성 판단부(220)는, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 추정되는 인터랙션 정보가 유효하지 않다고 판단할 수 있다.
한편, 이상에서 본 발명의 일 실시예에 따른 유효성 판단부(220)가 인터랙션 정보의 유효성을 판단하는 과정에 대하여, 특정한 실시예 및 변수를 이용하여 설명하였으나, 이러한 실시예 및 변수는 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 특히, 위에서 설명된 소정의 최댓값들 및 최소값들은, 상품 영역별로 다르게 설정될 수 있고, 영상 촬영 모듈(300)의 종류, 설치 위치, 설치 각도 등에 따라 다르게 설정될 수 있다.
도 5 내지 8은 본 발명의 일 실시예에 따라 사람과 상품 간 인터랙션 정보를 추정하고, 그 추정되는 인터랙션 정보의 유효성을 판단하는 과정을 예시적으로 나타내는 도면이다.
도 5의 (a) 및 (b)를 참조하면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 영상 프레임에서 검출되는 제1 사람(510 및 520), 그 검출되는 제1 사람으로부터 추정되는 위의 제1 사람의 손의 위치(550), 상품 영역(530) 및 그 상품 영역에 포함되는 상품(540)을 확인할 수 있다. 본 발명의 일 실시예에 따르면, 도 5의 (a)가 나타내는 영상 프레임에서는 위의 제1 사람의 손의 위치(550)가 상품 영역(530)에 포함되지 않으므로, 아직 위의 제1 사람 및 위의 상품 영역 사이의 상호 관계가 시작되지 않은 것으로 판단될 수 있다.
다음으로, 도 6을 참조하면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 영상 프레임에서 검출되는 제1 사람(610 및 620), 그 검출되는 제1 사람으로부터 추정되는 위의 제1 사람의 손의 위치(650), 상품 영역(630) 및 그 상품 영역에 포함되는 상품(540)을 확인할 수 있다. 본 발명의 일 실시예에 따르면, 도 6이 나타내는 영상 프레임에서는 위의 제1 사람의 손의 위치(650)가 상품 영역(630)에 포함되므로, 위의 제1 사람 및 위의 상품 영역 사이의 상호 관계가 지속 중인 것으로 판단될 수 있다.
다음으로, 도 7의 (a) 및 (b)를 참조하면, 본 발명의 일 실시예에 따른 인터랙션 정보 추정부(210)에 의하여 영상 프레임에서 검출되는 제1 사람(710 및 720), 그 검출되는 제1 사람으로부터 추정되는 위의 제1 사람의 손의 위치(750), 상품 영역(730) 및 그 상품 영역에 포함되는 상품(540)을 확인할 수 있다. 본 발명의 일 실시예에 따르면, 도 7의 (a)가 나타내는 영상 프레임에서는 위의 제1 사람의 손의 위치(750)가 상품 영역(730)에 포함되지 않으므로, 위의 제1 사람 및 위의 상품 영역 사이의 상호 관계가 종료된 것으로 판단될 수 있다.
마지막으로, 도 8을 참조하면, 제1 사람 및 상품 영역 사이의 상호 관계가 시작되기 전의 상품 영역(530)과 위의 제1 사람 및 위의 상품 영역 사이의 상호 관계가 종료된 후의 상품 영역(730) 사이에서 픽셀값에 변화가 생긴 부분(810)을 시각적으로 나타낸 모습을 확인할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(230)는 인터랙션 정보 추정부(210) 및 유효성 판단부(220)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(240)는 인터랙션 정보 추정부(210), 유효성 판단부(220) 및 통신부(230) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(240)는 인터랙션 정보 추정 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 인터랙션 정보 추정 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 인터랙션 정보 추정부(210), 유효성 판단부(220) 및 통신부(230)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 통신망
200: 인터랙션 정보 추정 시스템
210: 인터랙션 정보 추정부
220: 유효성 판단부
230: 통신부
240: 제어부
300: 영상 촬영 모듈

Claims (10)

  1. 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법으로서,
    복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 상기 제1 사람과 상기 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 상기 판단 결과에 기초하여 상기 제1 사람과 상기 상품 사이의 인터랙션 정보를 추정하는 단계, 및
    상기 추정되는 인터랙션 정보의 유효성을 판단하는 단계를 포함하고,
    상기 유효성 판단 단계에서, 상기 제1 사람과 상기 상품의 접촉이 없는 경우에 해당하는 인터랙션 정보는 유효하지 않다고 판단하고,
    상기 유효성 판단 단계에서, 상기 검출되는 제1 사람과 상기 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임 및 상기 검출되는 제1 사람과 상기 상품 영역 사이의 상호 관계가 종료되는 제2 영상 프레임 사이의 영상 프레임 수, 및 상기 제1 영상 프레임보다 시간적으로 선행하는 제3 영상 프레임과 상기 제2 영상 프레임보다 시간적으로 후행하는 제4 영상 프레임 사이의 픽셀값 변화 중 적어도 하나를 참조하여 상기 유효성을 판단하는
    방법.
  2. 제1항에 있어서,
    상기 추정 단계에서, 상기 검출되는 제1 사람이 상기 상품 영역 안에 포함되는 정도에 기초하여, 상기 접촉 여부를 판단하는
    방법.
  3. 제1항에 있어서,
    상기 추정 단계에서, 상기 검출되는 제1 사람으로부터 추정되는 상기 제1 사람의 손의 위치 및 상기 상품 영역 사이의 상호 관계에 기초하여 상기 접촉 여부를 판단하는
    방법.
  4. 제1항에 있어서,
    상기 추정 단계에서, 상기 추정되는 인터랙션 정보는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임에 기초하여 추정되는
    방법.
  5. 제4항에 있어서,
    상기 추정 단계에서, 상기 제1 영상 프레임 및 상기 제2 영상 프레임은, 상기 검출되는 제1 사람으로부터 추정되는 상기 제1 사람의 손의 위치 및 상기 상품 영역 사이의 상호 관계에 기초하여 결정되는
    방법.
  6. 제1항에 있어서,
    상기 추정 단계에서, 상기 추정되는 인터랙션 정보가 둘 이상인 경우에, 상기 추정되는 인터랙션 정보에는 제1 인터랙션 정보 및 제2 인터랙션 정보가 포함되고, 상기 제1 인터랙션 정보의 기초가 되는 선행 구간 종료 영상 프레임은 상기 제2 인터랙션 정보의 기초가 되는 후행 구간 시작 영상 프레임보다 시간적으로 선행하고,
    상기 추정 단계는, 상기 제1 인터랙션 정보의 기초가 되는 선행 구간 종료 영상 프레임 및 제2 인터랙션 정보의 기초가 되는 후행 구간 시작 영상 프레임 사이의 영상 프레임 수에 기초하여, 상기 제1 인터랙션 정보 및 제2 인터랙션 정보를 병합하는 단계를 더 포함하는
    방법.
  7. 삭제
  8. 제1항에 있어서,
    상기 추정 단계에서, 상기 복수의 영상 프레임에 관한 깊이 정보를 참조하지 않고 상기 접촉 여부를 판단하는
    방법.
  9. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  10. 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 시스템으로서,
    복수의 영상 프레임에서 검출되는 제1 사람 및 상품 영역 사이의 상호 관계에 기초하여 상기 제1 사람과 상기 상품 영역에 포함되는 상품의 접촉 여부를 판단하고, 상기 판단 결과에 기초하여 상기 제1 사람과 상기 상품 사이의 인터랙션 정보를 추정하는 인터랙션 정보 추정부, 및
    상기 추정되는 인터랙션 정보의 유효성을 판단하는 유효성 판단부를 포함하고,
    상기 유효성 판단부는, 상기 제1 사람과 상기 상품의 접촉이 없는 경우에 해당하는 인터랙션 정보는 유효하지 않다고 판단하고,
    상기 유효성 판단부는, 상기 검출되는 제1 사람과 상기 상품 영역 사이의 상호 관계가 시작되는 제1 영상 프레임 및 상기 검출되는 제1 사람과 상기 상품 영역 사이의 상호 관계가 종료되는 제2 영상 프레임 사이의 영상 프레임 수, 및 상기 제1 영상 프레임보다 시간적으로 선행하는 제3 영상 프레임과 상기 제2 영상 프레임보다 시간적으로 후행하는 제4 영상 프레임 사이의 픽셀값 변화 중 적어도 하나를 참조하여 상기 유효성을 판단하는
    시스템.
KR1020200033634A 2020-03-19 2020-03-19 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 KR102375947B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200033634A KR102375947B1 (ko) 2020-03-19 2020-03-19 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
PCT/KR2020/013507 WO2021187701A1 (ko) 2020-03-19 2020-10-05 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US17/912,118 US20230133882A1 (en) 2020-03-19 2020-10-05 Method and system for estimating interaction information between person and product on basis of image, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200033634A KR102375947B1 (ko) 2020-03-19 2020-03-19 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
KR20210117439A KR20210117439A (ko) 2021-09-29
KR102375947B1 true KR102375947B1 (ko) 2022-03-18

Family

ID=77771553

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200033634A KR102375947B1 (ko) 2020-03-19 2020-03-19 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Country Status (3)

Country Link
US (1) US20230133882A1 (ko)
KR (1) KR102375947B1 (ko)
WO (1) WO2021187701A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
US20190205933A1 (en) * 2018-01-03 2019-07-04 Grabango Co. Marketing and couponing in a retail environment using computer vision

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809733B (zh) * 2012-11-07 2018-07-20 北京三星通信技术研究有限公司 人机交互***和方法
KR101577751B1 (ko) * 2014-02-07 2015-12-15 주식회사 에스원 정보 관리를 위한 장치 및 방법
KR101613284B1 (ko) * 2015-10-08 2016-04-18 김영덕 증강 현실 기반 쇼핑 정보 제공 시스템 및 그의 제어 방법
US9977970B2 (en) * 2016-06-29 2018-05-22 Conduent Business Services, Llc Method and system for detecting the occurrence of an interaction event via trajectory-based analysis
US11107114B2 (en) * 2019-07-29 2021-08-31 Ncr Corporation Monitoring of a project by video analysis
US11003901B2 (en) * 2019-09-11 2021-05-11 International Business Machines Corporation Action detection in a video based on image analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
US20190205933A1 (en) * 2018-01-03 2019-07-04 Grabango Co. Marketing and couponing in a retail environment using computer vision

Also Published As

Publication number Publication date
US20230133882A1 (en) 2023-05-04
KR20210117439A (ko) 2021-09-29
WO2021187701A1 (ko) 2021-09-23

Similar Documents

Publication Publication Date Title
US10037599B2 (en) Automatic gain control filter in a video analysis system
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US10438360B2 (en) Video processing apparatus, video processing method, and storage medium
US9321173B2 (en) Tracking and following people with a mobile robotic device
KR101038402B1 (ko) 모노스코픽 저전력 이동 디바이스에 의한 스테레오 이미지 및 비디오의 실-시간 포착 및 생성
US10713798B2 (en) Low-complexity motion detection based on image edges
US9098748B2 (en) Object detection apparatus, object detection method, monitoring camera system and storage medium
CN108734083B (zh) 智能设备的控制方法、装置、设备和存储介质
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9747690B2 (en) Image processing device, image processing method, and program
US20110069155A1 (en) Apparatus and method for detecting motion
KR20110023472A (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
JP6803525B2 (ja) 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法
CN113302907B (zh) 拍摄方法、装置、设备及计算机可读存储介质
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
CN113396423A (zh) 处理来自基于事件的传感器的信息的方法
KR101526499B1 (ko) 객체검출 기능을 이용한 보안용 네트워크 방범 감시 시스템 및 이를 이용한 지능형 영상 분석 방법
JP4235018B2 (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
US20100021008A1 (en) System and Method for Face Tracking
KR20190105760A (ko) 영상 처리에 기반한 전기철도 팬터그래프 모니터링 장치 및 방법
JP2016076791A (ja) 物体追尾装置、物体追尾方法、およびプログラム
KR102375947B1 (ko) 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR101061012B1 (ko) 광각영상을 이용한 이동물체추적 방법
KR101355976B1 (ko) 시공간 특징점 정합을 이용한 객체 추적방법 및 그 장치
US20220189210A1 (en) Occlusion-Aware Prediction of Human Behavior

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant