KR20170035922A - 사용자 대기 시간들의 자동적인 실시간 계산을 위한 기술들 - Google Patents

사용자 대기 시간들의 자동적인 실시간 계산을 위한 기술들 Download PDF

Info

Publication number
KR20170035922A
KR20170035922A KR1020177002617A KR20177002617A KR20170035922A KR 20170035922 A KR20170035922 A KR 20170035922A KR 1020177002617 A KR1020177002617 A KR 1020177002617A KR 20177002617 A KR20177002617 A KR 20177002617A KR 20170035922 A KR20170035922 A KR 20170035922A
Authority
KR
South Korea
Prior art keywords
line
user
overhead
target user
computing system
Prior art date
Application number
KR1020177002617A
Other languages
English (en)
Inventor
자카리 크리마
닥터 토마스 스털링
주니어 존 마스
도일 모셔
브라이언 리터
안쏘니 몬트알바노
Original Assignee
웨이트타임, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 웨이트타임, 엘엘씨 filed Critical 웨이트타임, 엘엘씨
Publication of KR20170035922A publication Critical patent/KR20170035922A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C11/00Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C11/00Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
    • G07C2011/04Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere related to queuing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

컴퓨터로 구현되는 기술은 장소(venue)의 라인에 있는 사용자들에 대한 오버헤드 이미지들을 프로세싱할 수 있는데 이는 그 라인에 대한 사용자 대기 시간을 획득하기 위한 것이다. 이러한 프로세싱은 (a) 타겟 사용자를 획득하기 위하여, 상기 사용자들의 그룹 중에서 상기 라인에서 두번째인 사용자를 식별하고, (b) 시작 시간을 획득하도록, 상기 타겟 사용자가 상기 라인에서 첫번째가 될 때를 검출하고, (c) 상기 타겟 사용자가 상기 라인에서 첫번째가 된 후에, 상기 타겟 사용자가 상기 라인을 떠날 때를 검출하여 종료 시간을 획득하고, (d) 상기 시작 시간부터 종료 시간까지의 기간을 결정하고, (e) 상기 (i) 상기 결정된 기간과 (ii) 상기 타겟 사용자가 상기 라인을 떠난 후 상기 라인에 있는 상기 사용자들의 그룹의 수량과의 곱(product)을 계산함으로써 상기 사용자 대기 시간을 계산하는 것을 포함한다. 계산된 사용자 대기 시간이 출력될 수 있다.

Description

사용자 대기 시간들의 자동적인 실시간 계산을 위한 기술들{TECHNIQUES FOR AUTOMATIC REAL-TIME CALCULATION OF USER WAIT TIMES}
본 출원은 2015 년 7월 1일자로 미국에 출원된 미국 출원 제14/789,320호 및 2014 년 7월 2일자로 미국에 출원된 미국 가출원 제62/019,940 호의 우선권을 주장한다. 상기 출원들의 개시 내용은 본 발명에 대한 참조로서 그 전체 내용이 본 명세서에 포함된다.
본 발명은 일반적으로 컴퓨터 시스템에 관한 것으로, 보다 상세하게는 사용자 대기 시간의 자동적인 실시간 계산을 위한 기술에 관한 것이다.
본 명세서에 제공된 배경 설명 부분은 일반적으로 본 명세서의 문맥을 제시하기 위한 것이다. 현재 출원인의 작업은, 이 배경 설명부분에 기술되어 있는 한, 출원시에 선행 기술로서의 자격을 갖지 않을 수도 있는 서술 양상과 함께, 명시적으로도 또는 묵시적으로도 본 개시 내용에 대한 선행 기술로서 인정되지 않는다.
도 1은 장소(venue)에서 라인(line: 이하, '라인' 또는 '줄' 이라함)(104)에서 대기하는 사용자 그룹(100-1 내지 100-N, 여기서 N > 1이며, 집합적으로 "사용자들(100)"로 지칭됨)을 예시한다. 각각의 사용자(100)는 라인(104)의 맨 앞쪽(front: 이하, '맨 앞쪽' 또는 '프론트' 라 함)(108)으로 진행하는데 걸리는 대기 시간을 알지 못할 수도 있다. 라인(104)의 맨 앞쪽(108)은 사용자(100) 각각에 대한 최종 또는 목표 목적지(112)(예를 들어, 도어)에 해당할 수 있다. 보다 구체적으로, 현재 라인(104)의 종단(116)에 있는 최종 사용자(100-N)는 프론트 사용자(100-1)가 라인(104)에서 얼마나 오랫동안 대기했는지를 알 수 없다. 사용자들(100)은 일반적으로 서로 모르는 사람들이기 때문에, 특정 사용자(100)는 사용자(100)가 라인(104)에서 얼마나 오랫동안 대기했는지를 다른 사용자(100)에게 묻는 것이 불편하거나 또는 이를 내켜하지 않을 수 있다. 또한, 대기 시간이 변동하기 때문에, 특정 사용자(100)는 짧은 대기 시간을 갖는 다른 시간에서 라인에서 대기하기를 선호할 수도 있다.
하지만, 대략적인 대기 시간을 알지 못하면 각각의 사용자(100)는 라인(104)에서 대기하도록 강제된다. 따라서, 사용자 대기 시간을 계산하는 기술 분야의 개선이 필요하다.
컴퓨터로 구현되는 방법이 제시된다. 상기 방법은 장소(venue)의 라인에 있는 사용자들의 그룹에 대한 오버헤드 이미지들을 오버헤드 카메라 시스템으로부터 컴퓨팅 시스템에서 수신하는 단계를 포함하고, 상기 컴퓨팅 시스템은 하나 이상의 프로세서들을 갖는다. 상기 방법은 상기 오버헤드 이미지를 수신하는 것에 응답하여, 상기 라인에 대한 사용자 대기 시간을 획득하기 위하여 상기 컴퓨팅 시스템에서 상기 오버헤드 이미지를 처리하는 단계를 포함하고, 상기 처리하는 단계는, (a) 타겟 사용자를 획득하기 위하여, 상기 사용자들의 그룹 중에서 상기 라인에서 두번째인 사용자를 식별하고, (b) 시작 시간을 획득하도록, 상기 타겟 사용자가 상기 라인에서 첫번째가 될 때를 검출하고, (c) 상기 타겟 사용자가 상기 라인에서 첫번째가 된 후에, 상기 타겟 사용자가 상기 라인을 떠날 때를 검출하여 종료 시간을 획득하고, (d) 상기 시작 시간부터 종료 시간까지의 기간을 결정하고, (e) 상기 (i) 상기 결정된 기간과 (ii) 상기 타겟 사용자가 상기 라인을 떠난 후 상기 라인에 있는 상기 사용자들의 그룹의 수량과의 곱(product)을 계산함으로써 상기 사용자 대기 시간을 계산하는 것을 포함한다. 상기 방법은 또한 계산된 사용자 대기 시간을 상기 컴퓨팅 시스템으로부터 출력하는 단계를 포함한다.
자동, 실시간 사용자 대기 시간 계산 시스템이 또한 제공된다. 상기 시스템은 장소(venue)의 라인에 있는 사용자들의 그룹에 대한 오버헤드 이미지들을 포착하도록 된 하나 이상의 오버헤드 카메라를 포함하는 오버헤드 카메라 시스템을 포함한다. 상기 시스템은 또한 상기 오버헤드 카메라 시스템과 통신하는 컴퓨팅 시스템을 포함하며, 상기 컴퓨팅 시스템은, (a) 타겟 사용자를 획득하기 위하여, 상기 사용자들의 그룹 중에서 상기 라인에서 두번째인 사용자를 식별하고, (b) 시작 시간을 획득하도록, 상기 타겟 사용자가 상기 라인에서 첫번째가 될 때를 검출하고, (c) 상기 타겟 사용자가 상기 라인에서 첫번째가 된 후에, 상기 타겟 사용자가 상기 라인을 떠날 때를 검출하여 종료 시간을 획득하고, (d) 상기 시작 시간부터 종료 시간까지의 기간을 결정하고, (e) 상기 (i) 상기 결정된 기간과 (ii) 상기 타겟 사용자가 상기 라인을 떠난 후 상기 라인에 있는 상기 사용자들의 그룹의 수량과의 곱(product)을 계산함으로써 상기 사용자 대기 시간을 계산하고, 그리고 (f) 계산된 사용자 대기 시간을 출력하도록 구성된다.
일부 구현예들에서, 오버헤드 카메라 시스템은 (i) 라인 위의 천장에 마운트되고 그리고 (ii) 오버헤드 이미지를 포착하도록 구성된, 적어도 하나의 오버헤드 카메라를 포함한다. 일부 구현예들에서, 각각의 오버헤드 카메라는 대략 90도의 가시 영역을 갖는다.
일부 구현예들에서, 상기 방법은 라인에 대한 사용자 대기 시간을 획득하도록 2 이상의 오버헤드 이미지들을 결합하는 단계를 더 포함한다. 일부 구현예들에서, 상기 방법은, 결합 전 또는 결합 도중에, 에지 왜곡을 정정하도록 상기 2 이상의 오버헤드 이미지들 중 적어도 하나를 상기 컴퓨팅 시스템에 의해서 조정하는 단계를 더 포함한다.
일부 구현예들에서, 상기 방법은 사용자 대기 시간을 계산할 때, 특정 타겟 사용자의 이동 속도에 기초하여, 상기 특정 타겟 사용자를 상기 컴퓨팅 시스템에서 무시하거나 폐기하는 단계를 더 포함한다. 일부 구현예들에서, 상기 특정 타겟 사용자는 상기 특정 타겟 사용자의 이동 속도가 속도 임계값보다 큰 경우 무시되거나 폐기되며, 상기 속도 임계값은 상기 특정 타겟 사용자가 상기 라인에서 대기중이 아님을 높은 가능성으로 나타낸다.
일부 구현예들에서, 사용자 대기 시간을 출력하는 단계는, (i) 모바일 컴퓨팅 디바이스 및 (ii) 원격 컴퓨팅 시스템 중 적어도 하나에게 상기 사용자 대기 시간을 출력하는 단계를 포함하며, 상기 사용자 대기 시간은 상기 모바일 컴퓨팅 디바이스로부터의 사용자 요청에 응답하여 상기 모바일 컴퓨팅 디바이스로 출력되며, 그리고 상기 원격 컴퓨팅 시스템은 상기 모바일 컴퓨팅 디바이스들에 의해서 실행가능한 모바일 어플리케이션과 관련된다.
일부 구현예들에서, 상기 라인은 (i) 상기 장소로의 입구, (ii) 상기 장소로부터의 출구, (iii) 상기 장소에 있는 화장실, 및(iv) 장소에 있는 매점(concession station)에 대한 라인이다. 일부 구현예들에서, 상기 장소는 (i) 스포츠 또는 음악 이벤트를 위한 경기장 또는 공연장, (ii) 테마 공원 또는 놀이 공원, 및 (iii) 사업장 또는 소매점 중 하나이다.
본 개시 내용의 적용 분야는 다음에 제공되는 발명의 상세한 설명으로부터 명백해질 것이다. 다음을 유의해야 하는바, 발명의 상세한 설명 및 특정 일례들은 단지 예시를 위한 것이며, 본 발명의 범위를 제한하려는 것이 아님이 이해되어야 한다.
본 개시 내용은 발명의 상세한 설명 및 첨부된 도면으로부터 더욱 완전히 이해될 것이다.
도1은 종래 기술에 따라, 라인에서 대기중인 사용자들을 예시한 도면이다.
도2는 본 발명의 일부 구현예에 따른, 라인에 있는 사용자들의 그룹에 대한 예시적인 오버헤드 카메라 시스템의 일례를 도시한다.
도3은 본 발명의 일부 구현예에 따른, 사용자들의 라인에 대한 예시적인 오버헤드 이미지를 도시한다.
도4는 도2의 오버헤드 카메라 시스템을 포함하고 그리고 본 발명의 일부 구현예에 따른 예시적인 컴퓨팅 시스템 및 예시적인 모바일 컴퓨팅 디바이스를 더 포함하는 예시적인 컴퓨팅 시스템의 부분 개략도를 도시한다.
도5는 도4의 예시적인 컴퓨팅 시스템의 기능 블록도를 도시한다.
도6은 본 발명의 일부 구현예에 따른 사용자 대기 시간의 자동, 실시간 계산을 위한 예시적인 기술의 순서도이다.
전술한 바와 같이, 사용자 대기 시간을 계산하는 기술 분야의 개선이 필요하다. 특히, 종래의 시스템은 사용자 대기 시간을 실시간으로 제공하지 않는다. 따라서, 사용자 대기 시간의 자동적인, 실시간 계산을 위한 기술이 제시된다. 이러한 기술은 90도 가시 영역을 갖는(예를 들어: 어안 렌즈(fish eye lens)) 하나 이상의 카메라들과 같은, 오버헤드 카메라 시스템을 사용하여, 한 장소에서 라인에 서 있는 사용자들의 그룹에 대한 오버헤드 이미지 데이터를 캡처할 수 있다. 본 명세서에서 사용된 용어 "장소(venue)" 라는 용어는 사용자들의 라인이 형성될 수 있는 임의의 적절한 환경을 지칭할 수 있다. 이러한 장소의 일례들은 스포츠 경기 및 음악 행사를 위한 공연장(arena) 및 경기장(stadium)을 포함한다. 이와 유사하게, 라인의 일례들은 입구(entrance)/진입(ingress) 라인, 출구(exit)/진출(egress) 라인, 화장실 라인 및 할인 라인(concession line)을 포함한다. 하지만, 본 발명은 다른 적절한 장소들/라인들에 적용될 수 있는바, 가령, 탑승/명소 구경을 위한 라인이 있는 테마 공원/놀이 공원, 화장실 줄, 엘리베이터 줄, 및/또는 구매대기 줄이 있는 사업장 혹은 소매점에 적용될 수 있으며, 또는 심지어 차량 트래픽 모니터링에도 적용될 수 있는바, 여기서 차량들은 사용자들을 나타낸다. 달리 말하면, "장소(venue)" 라는 용어는, 지시를 받아서(예컨대, 표지판에 의해서) 또는 지시를 받지 않아도(예컨대, 자연스럽게) 사람들이 "라인"에 대기하는 임의의 영역을 나타낸다.
오버헤드 이미지 데이터가 컴퓨팅 시스템에 제공되는데, 컴퓨팅 시스템은 상기 장소의 현장에 위치하거나 또는 장소로부터 원격으로 위치할 수 있다. 오버헤드 이미지 데이터는 임의의 적절한 유선 또는 무선 통신 매체를 통해 컴퓨팅 시스템에 제공될 수 있다. 소정 시간 기간에 대한 오버헤드 이미지 데이터를 이용하여, 컴퓨팅 시스템은, 라인에서 하나 이상의 타겟 사용자들을 식별하고, 타겟 사용자(들)의 움직임을 모니터링하며, 특정 사용자가 라인의 끝에서 라인의 맨 앞까지 진행하는데 걸리는 시간을 나타내는 사용자 대기 시간을 계산할 수 있다. 본 명세서에서 사용되는 "사용자 대기 시간" 이라는 용어는 특정 장소에서 특정 라인을 통해 진행하는 임의의 사람에 대한 대기 시간을 지칭할 수 있다. 일 구현 예에서, 사용자 대기 시간은 본 발명의 기술과 관련된 모바일 어플리케이션 또는 보고 서비스(reporting service)의 사용자에 대응한다. 계산된 사용자 대기 시간은 컴퓨팅 시스템에 의해서 다양한 디바이스로 출력될 수 있는바 가령, 요청 사용자의 모바일 컴퓨팅 디바이스 또는 다른 컴퓨팅 디바이스로 출력될 수 있다.
하나의 예시적인 구현예에서, 타겟 사용자는 라인의 맨 앞에서 2 번째 인(즉, 라인에서 2 번째인) 사람으로 식별된다. 타겟 사용자가 라인의 맨 앞으로 진행할 때(즉, 라인에서 첫번째가 될 때), 타이머가 시작된다. 타겟 사용자가 라인의 첫번째가 된 후에 라인을 떠날 때 타이머가 중지된다. 타이머의 값은 타겟 사용자가 라인의 첫번째가 된 후에 라인을 떠날 때까지의 기간을 나타낸다. 상기 기간과 현재 라인에 있는 총 사용자 수가 곱해져서 사용자 대기 시간이 계산될 수 있다. 이러한 프로세스는 계속 반복될 수 있으며 그리고 상기 라인에 대한 정확한, 실시간 사용자 대기 시간을 제공하기 위해서 사용자 대기 시간이 재계산된다. 또한, 사용자들은 특정 조건에 따라 필터링될 수 있다(즉, 라인에 있는 것으로 카운트되지 않음). 하나의 예시적인 조건은 사용자가 하나 이상의 오버헤드 카메라들의 가시 영역에 있지만 속도 임계 값보다 큰 속도로 이동하는 것인데, 이는 사용자가 단지 라인 근처에서 걷고 있으며 실제로는 라인에 있지 않다는 것을 나타낸다.
이제, 도2를 참조하면, 본 발명의 일부 실시예들에 따른 예시적인 오버헤드 카메라 시스템(200)의 도면이 도시된다. 오버헤드 카메라 시스템(200)은 실시간으로 사용자 대기 시간을 계산하기 위해 사용자들(100)의 그룹의 오버헤드 이미지들을 캡처하도록 구성된다. 일실시예에서, 오버헤드 카메라 시스템(200)은 90도 또는 대략 90도의 시야 범위를 갖는 오버헤드 카메라(204)를 포함한다. 오버헤드 카메라(204)의 일례는 어안 렌즈를 이용한다. 그러나, 오버헤드 카메라 시스템(200)은 3차원 이미지와 같은 사용자 대기 시간을 계산하기에 적합한 이미지를 캡처하도록 구성된 임의의 적절한 오버헤드 카메라 시스템이 될 수도 있다. 일부 구현예에서, 오버헤드 카메라 시스템(200)은 필드-프로그래머블 게이트 어레이(FPGA)(예를 들어, 군용 등급 FPGA)와 같은 온-보드 전자 장치 또는 이미지 프로세싱의 적어도 일부를 로컬적으로 수행하도록 구성된 다른 적절한 집적 회로를 더 포함한다. 또 다른 구현예에서, 오버헤드 카메라 시스템(200)은 영역 바로 위에 마운트되는 것이 아니라, 소정 각도를 갖게 마운트된다. 예를 들어, 이러한 구성은 사용자의 특정한 개수들 및 움직임 모니터링이 바람직하지 않는 대신에, 사용자들의 무리 또는 수량(mass or quantity)의 일반적인 증가/감소의 모니터링이 바람직한 진입로/진출로를 모니터링하기 위해 사용될 수 있다.
오버헤드 카메라 시스템(200)은 상기 장소에서 적절한 표면(208)에 마운트될 수 있다. 표면(208)의 일례는 상부 벽 및 천장을 포함한다. 오버헤드 카메라 시스템(200)은, 오버헤드 카메라 시스템(200)이 상기 장소에서 원하는 영역의 오버헤드 이미지들을 캡처하도록 마운트될 수 있다. 단지 일례로서, 상기 표면(208)은 약 20 피트 높이의 천장일 수 있고, 오버헤드 카메라 시스템(200)은 대략 30 x 20 피트(~ 600 평방 피트)의 관찰/캡처 영역을 갖도록 구성될 수 있다. 이러한 바람직한 영역은 라인(104)과 같은 라인이 전형적으로 형성되는 영역에 대응할 수 있다. 이러한 영역들의 일례로는 입구, 출구, 화장실 및 할인(concession)을 들 수 있다. 특히, 오버헤드 카메라 시스템(200)은 시야(212)에 대하여 오버헤드 이미지를 캡처하도록 구성된다. 예시적인 일 구현예에서, 오버헤드 카메라(204)는 라인(104)의 바로 위에 마운트되어, 더 정확한 오버헤드 이미지들 획득할 수 있으며, 따라서 사용자들(100)이 라인 내에서 진행함에 따라 사용자들(100)(예를 들어, 그들의 머리)를 더 잘 모니터링 할 수 있다.
또한, 오버헤드 카메라 시스템(200)은 서로 다른 마운팅 높이들에 대하여 서로 다른 프레임 레이트들을 이용할 수 있다. 보다 구체적으로, 마운트 높이가 더 높을수록 더 높은 프레임 레이트(예를 들어, 1080p)가 이용될 수 있는 반면에, 마운트 높이가 더 낮을수록 더 낮은 프레임 속도(예를 들어, 720p)가 이용될 수 있다. 낮은 프레임 레이트는 시스템 처리량을 감소시키는데 이상적일 수도 있으므로 시간/자원을 절약할 수 있지만, 시스템이 상기 영역을 정확하게 모니터링하고 그리고 사용자 대기 시간을 정확하게 예측하려면 최소 프레임 속도가 필요할 수 있다. 또한, 일부 구현예들에서는, 대역폭/프로세싱을 절약하기 위하여, 높은 해상도(예를 들어, 1080p) 이미지의 일부는, 이용되지 않을 때 트리밍될 수 있다. 비록, 임의의 적절한 압축된 이미지가 이용될 수 있지만, 오버헤드 카메라 시스템(200)은 JPEG 이미지와 같은 압축된 이미지를 출력하도록 구성될 수 있다. 일부 구현예들에서는, 예를 들어, 관찰 영역에 너무 많은 사용자들이 존재하고 그리고 사용자 대기 시간 계산에 오류가 있는 경우, 가공되지 않은(raw), 비압축 이미지가 출력될 수 있다. 이러한 압축 이미지들은 유선 또는 무선 연결을 통해 온-사이트(on-site)(또는, 오프 사이트) 중앙 시스템으로 출력될 수 있다. 하나의 예시적인 프레임 레이트는 초당 10 프레임이지만 다른 적절한 프레임 레이트가 활용될 수도 있다. 하나의 예시적인 프레임 레이트는 관찰 영역에서 모니터링되는 사람들에 대한 제로 손실 또는 허용가능한 손실을 경험하는 최소 프레임 레이트이다. 초당 충분히 높은 프레임을 사용함으로써, 각 사람의 근접도(proximity)가 이미지들 사이에서 추정될 수 있다(예를 들어, 10분의 1초 동안 사람이 상기 관찰 영역 밖으로 이동할 수 없다고 추정할 수 있음).
또한, 오버헤드 카메라 시스템(200)에 의해 캡처된 오버헤드 이미지는, 사용자 대기 시간을 계산하기 위한 목적을 위해, 특정 타겟 사용자를 필터링, 무시(ignore) 또는 폐기(disregard)하는데 사용될 수 있다. 예를 들면, 실제로는 상기 라인(104)에 있지 않은 사용자(100)가, 시야(212) 내에 존재할 수 있다. 일실시예에서는, 사용자(100)의 이동 속도가 이용되어, 사용자(100)가 라인(104)에 있는지 또는 아닌지를 판별할 수 있다. 예를 들어, 속도 임계값 보다 빠른 속도로 움직이는 관찰 영역(212) 내의 사용자(100)는, 사용자 대기 시간 계산을 위해 필터링되거나 무시될 수 있다. 이러한 속도 임계값은 시스템에 의해 미리 결정되거나 학습될 수 있으며 그리고 특정 타겟 사용자가 라인(104)에 있지 않을 가능성이 높은 사용자 이동 속도(예를 들어, 초당 수 피트)를 나타낼 수 있다. 라인(104)에 있는 사용자(100)는 일반적으로 다소 느리게 이동하기 때문에, 이것은 사용자들(100) 중에서 라인(104)에 있지 않은 사람들을 필터링할 수 있는 효과적인 기술이 될 수 있다.
도3을 참조하면, 라인(104)에 대한 예시적인 오버헤드 이미지(300)가 도시된다. 다른 구현예들에서, 오버헤드 이미지(300)는 2개 이상의 다른 이미지들(304, 308)를 함께 스티칭(stitching)함으로써 획득될 수 있다. 이들 다른 이미지들(304)은 예를 들어 2개의 별도의 오버헤드 카메라 시스템들(200) 또는 오버헤드 카메라 시스템(200)의 2개의 개별 카메라들에 의해서 캡춰될 수 있다. 이러한 스티칭은 중첩 부분들을 트리밍하는 것을 포함할 수 있다. 도시된 이미지(300)에서, 이미지들(304, 308)은 에지(312)를 따라 스티칭 또는 결합된다. 몇몇 경우들에 있어서, 사용자(예를 들어, 사용자 320g)는 적어도 부분적으로 2개의 이미지들(304, 308) 모두에 존재할 수 있다. 따라서, 스티칭 또는 결합 절차는, 이러한 것을 고려할 수 있다. 또한, 에지 보정이 이미지(300) 또는 이미지들(304,308)에 대해 수행될 수 있다. 에지 보정은, 오버헤드 카메라 시스템(200)의 렌즈들(예컨대, 어안 렌즈들)의 곡률(curvature)에 의해 야기되는 왜곡을 처리하도록 이미지들(300 또는 304, 308)의 에지들을 조정하는 것을 수반할 수 있다.
도시된 바와 같이, 라인은 사용자들(320a-320n)(통칭하여 "사용자(320)")을 포함한다. 라인(104)은 일반적으로 직선일 수 있지만, 라인(104)은 또한 도시된 바와 같이 곡선이될 수도 있다. 예를 들어, 라인(104)은 건물 기둥이나 쓰레기통과 같은 물체 주위에서 휘어질 수 있다. 사용자들(320) 중 어느 사람이 실제로 라인(104)에 있는지를 식별하는데 이러한 곡선이 고려될 수 있다. 상기 이미지(300)는 원(circle) 또는 포인트로 표현되는 사용자들(320) 각각에 대해 도시되는데, 이러한 원 또는 포인트는 각 사용자(320)의 검출된 머리 및/또는 어깨들에 중점을 가질 수 있다. 이미지(300)는 여전히 실제 오버헤드 사용자들(320)에 대한 그래픽 표현을 포함할 수도 있지만, 상기 원 또는 포인트는 사용자(320) 상에 존재할 수 있거나 또는 사용자(320)의 윤곽이 될 수 있다. 일부 구현예에서, 시스템은 이미지(300)에 대해 x-y 좌표 시스템을 사용할 수도 있으며 그리고 각각의 사용자(320)는 특정한 x-y 좌표에 위치하거나 또는 x-y 좌표의 특정 범위에 위치할 수 있는바, 따라서 시스템은 사용자(320)들을 모니터링하기 위한 벡터 표현을 이용할 수 있다. 다음을 유의해야 하는바, 라인에 있거나 또는 상기 가시 영역에 있는 사용자들에 대한 추적은 오직 대기 시간 계산만을 위한 것이다. 이들 사용자들은 고유하게 식별되지 않으며 또는 가시 영역 외부에서는 모니터링되지 않는다. 가시 영역 내에서의 오직 이들의 움직임만이 대기 시간 계산을 위해 모니터링된다.
도시된 바와 같이, 사용자들(320) 중 일부는 이미지(300)에 있을 수 있지만 실제로는 라인(104)에 있지 않을 수 있다. 이러한 판별은 예를 들어, 사용자들(320)의 움직임에 대한 속도 필터링에 기초하여 수행될 수 있다. 예를 들어, 사용자(320n)는 라인(104)에 근접해있지만, 그 또는 그녀의 이동 속도는 속도 임계 값보다 크며, 따라서 그 또는 그녀는 라인(104) 근처에서 걷고 있을뿐 실제로는 라인(104)에 있지않다라고 판별될 수 있다. 따라서, 오직 사용자(320a-320m)만이 라인(104)에 있다고 판별될 수 있다. 각각의 사용자(320)가 실제로 라인(104)에 있는지 또는 없는지를 판별하기 위하여, 다른 결정들이 활용될 수도 있는데, 예컨대 다른 사용자들(320)과의 근접도가 활용될 수 있다. 몇몇 경우에 있어서, 2 이상의 사용자들(예를 들어, 사용자 320d 및 320e)은 상기 라인(104)에서 나란히(side-by-side) 서 있을 수도 있다. 이것은 사용자들(320)의 총 인원수를 계산하는데는 문제가 되지 않을 수 있지만, 이들 2 이상의 사용자들(320) 중 누가 상기 라인(104)에서 다음 사용자인지를 판별하는데 영향을 줄 수도 있다. 이러한 시나리오에서, 시스템은, 나란한(side-by-side) 사용자들(320) 중 마지막 사용자가 라인(104)을 떠날 때까지, 이들 나란한(side-by-side) 사용자들(320) 모두를 각각의 대기 시간 계산에 있어서 단일 사용자로 취급할 수 있다.
앞서 설명된 바와 같이, 라인(104)에서 두번째 사용자(예를 들어, 사용자 320b)를 식별하고 그리고 식별된 또는 타겟 사용자가 라인(104)에서 첫번째가 되었을 때부터 상기 식별된 또는 타겟 사용자(320b)가 라인(104)을 떠날 때까지 걸린 기간을 결정함으로써, 사용자 대기 시간이 계산될 수 있다. 이러한 기간은 라인(104)에 남아있는 사용자들(320)의 총 수(예를 들어, 사용자 320c 내지 320m 또는 11명의 사용자)와 곱해질 수 있다. 예를 들어, 상기 기간이 30 초인 경우, 사용자 대기 시간은 30 초 곱하기 11명의 사용자 또는 5 분 30 초로 계산될 수 있다. 라인(104)의 맨 앞에 있는 사용자(320)(즉, 두번째 사용자 320b)만을 모니터링함으로써, 상기 시스템은 짧은 시간 동안에 매우 많은 수의 사용자들이 라인(104)의 끝 부분에 합류할 때 발생할 수 있는 문제점들을 처리할 수 있는데, 그렇지 않으면, 라인 전체를 모니터링하거나 또는 마지막 사용자의 라인의 끝에서부터 라인의 맨 앞까지의 진행을 모니터링하는 경우, 이러한 것이 사용자 대기 시간 계산에 영향을 미칠 것이다.
인간을 노이즈(조명, 무생물, 기타 등등)와 더 구별하기 위해 다양한 필터가 구현될 수 있다. 예를 들어, 해결되지 않는다면, 밝은 빛 및 반사 표면들은, 부주의하게(inadvertently) 인간으로 검출될 수도 있습니다. 예시적인 필터 중 하나는 에지 검출 필터인데, 에지 검출 필터는 객체의 에지만 검출하고 다른 피처들은 필터링한다. 일부 구현예들에서는, 공간적 및 시간적 다색 에지 필터들(spatial and temporal polychromatic edge filters)이 구현된다. 이러한 구현예에서, 가장 강한 에지들을 갖는 영역들은, 그들의 위치들에 대한 가장 높은 확률 적합도를 식별하도록 분류된다. 이후, 검출된 에지들은 사람과 무생물(휴지통, 테이블, 의자, 간판 등)을 구별하는데 이용될 수 있다. 다른 예시적인 필터는 지연 필터(delay filter)인데, 지연 필터는 두 명의 사용자가 경로를 교차하는 경우와 같은 간단한 모니터링 오류를 해결할 수 있도록, 비디오 피드를 예시하기 전에 지연을 도입한다(예를 들어, 장소에).이러한 지연을 도입함으로써 간단한 오류들이 신속하게 보정될 수 있으며 그리고 비디오 피드의 시청자는 이를 인식하지 못한다. 단지 일례로서, 이러한 지연은 0.5 초 또는 약 5 프레임일 수 있다.
또 다른 예시적인 필터는 사용자(320) 각각에 대한 파라미터들을 모니터링 할 수 있는(그리고 잠재적으로는 디스플레이 할 수 있는) 디버그 필터이다. 파라미터들의 일례들은 고유 식별자(unique identifier), 높이/무게 비율(height/weight ratio)(모션 강도 표시), 현재 모션 강도(current motion strength), 위치/이동 표시자, 에이지(age)(특정 사용자 320가 태그된 기간) 및 정적 가중치(static weight)를 포함할 수 있다. 디버그 필터는 과거 및 현재 이동 경로를 기반으로 특정 사용자의 장래의 선형 경로를 예측함으로써, 인공 지능을 구현할 수도 있다. 각 사용자의 이동 경로를 예측할 수 있기 때문에, 모니터링 오류(예를 들어, 사용자에 대한 추적을 놓침)가 감소되거나 제거될 수 있다. 이러한 정보를 이용하여, 상기 시스템은 또한, 잠재적으로, 사용자의 예측된 이동 경로(예를 들어, 라인으로부터 벗어남)에 기초하여 문제점들(예컨대, 사용자들의 경로가 교차됨)을 예상할 수 있거나 및/또는 자체적으로 조정할 수 있다(예컨대, 대기 시간 예측).
이제, 도4를 참조하면, 오버헤드 카메라 시스템(200)을 포함하는 예시적인 컴퓨팅 네트워크(400)의 부분 개략도가 도시된다. 오버헤드 카메라 시스템(200)은 네트워크(408)를 통해 컴퓨팅 시스템(404)과 통신할 수 있다. 본 명세서에서 사용되는 "컴퓨팅 시스템"이라는 용어는 병렬 또는 분산 아키텍처에서 동작하는 임의의 적합한 컴퓨터(들)을 지칭할 수 있다. 컴퓨터의 일례들은, 원격에 위치거나 또는 상기 장소의 현장(on-site)에 위치한 서버를 포함할 수 있다. 모바일 컴퓨팅 디바이스(412)는 또한 네트워크(408)를 통해 서버(404)와 통신할 수 있다. 네트워크(408)는 근거리 통신망(LAN), 광역 통신망(WAN), 예를 들어 인터넷 또는 이들의 조합을 포함할 수 있다. 네트워크(408)는 유선 통신 매체(예컨대, Cat 5 이더넷 케이블) 및/또는 무선 통신 매체(예를 들어, WiFi, WiFi Direct 또는 블루투스)를 포함할 수 있다. 모바일 컴퓨팅 디바이스(412)의 일례들은 랩탑 컴퓨터, 태블릿 컴퓨터, 및 휴대전화를 포함할 수 있지만, 데스크탑 컴퓨터와 같은 다른 적절한 디바이스들이 이용될 수도 있다. 일부 구현예에서, 컴퓨팅 시스템(404)은 또한 네트워크(408)를 통해 모바일 어플리케이션 서버, 웹 서버 또는 누적 데이터 수집 및 분석 서버와 같은 다른 컴퓨팅 시스템(416)과 통신할 수 있다.
하나의 오버헤드 카메라 시스템(200)이 도시되어 있지만, 컴퓨팅 네트워크(400)는 복수의 오버헤드 카메라 시스템(200)들을 포함할 수도 있음을 유의해야 한다. 예를 들어, 중요한 라인들을 가질 수 있는 상기 장소 내의 임의의 잠재적인 영역 마다 하나의 오버헤드 카메라 시스템(200)이 마운트될 수 있다. 각각의 오버헤드 카메라 시스템(200)은 오버헤드 이미지를 네트워크(408)를 통해 컴퓨팅 시스템(404)으로 전송하도록 구성된다. 오버헤드 이미지의 전송이 본 명세서에서 논의되고 있기는 하지만, 상기 오버헤드 카메라 시스템(200)은 또한 컴퓨팅 시스템(404)에 비디오 피드를 제공할 수 있다. 상기 오버헤드 이미지들은 소정 시간 기간들에 대한 것이며, 이러한 시간 기간은 몇 초 또는 몇 분이 될 수 있다. 이러한 오버헤드 이미지들에 기초하여, 컴퓨팅 시스템(404)은 오버헤드 카메라 시스템(200)들에 대응하는 영역들과 관련된 라인들에 대한 사용자 대기 시간을 처리 및 계산하도록 구성된다. 컴퓨팅 시스템(404)은 계산된 대기 시간을 모바일 컴퓨팅 디바이스(412)로 출력할 수 있는바, 가령, 사용자(420)로부터의 모바일 컴퓨팅 디바이스(412)에서의 사용자 요청에 응답하여, 계산된 대기 시간을 출력할 수 있다. 예를 들어, 사용자(420)는 상기 장소에서 그들의 좌석에 앉아있을 수 있으며 그리고 특정 위치(예를 들어, 화장실, 할인 기타 등등)에 대한 현재 대기 시간에 관심이 있을 수 있다. 일실시예에서, 모바일 컴퓨팅 디바이스(412)는 상기 컴퓨팅 시스템(404) 및 오버헤드 카메라 시스템(들)(200)과 관련된 모바일 어플리케이션을 실행할 수 있다. 일부 구현예들에서, 오버헤드 이미지(들)은, 상기 라인(104)의 라이브 스트림과 유사하게, 모바일 컴퓨팅 디바이스(412)에서 액세스될 수 있다.
부가적으로 또는 대안적으로, 컴퓨팅 시스템(404)은 계산된 대기 시간을 다른 컴퓨팅 시스템(들)(416)에 출력할 수 있다. 일 구현예에서, 다른 컴퓨팅 시스템(416)은 웹 서버이고 그리고 계산된 대기 시간은 상기 다른 컴퓨팅 시스템(416)에 의해 호스팅되는 웹 페이지에 포스팅될 수 있다. 예를 들어, 웹 페이지는 상기 장소에 관련될 수 있다. 또 다른 구현예에서, 다른 컴퓨팅 시스템(416)은 전자 표시판 또는 광고 게시판(electronic sign or billboard) 등과 같은, 상기 장소에 있는 로컬 컴퓨팅 디바이스이며, 따라서 계산된 대기 시간은 상기 장소에 있는 많은 수의 사용자들에게 디스플레이될 수 있다. 또 다른 구현예에서, 다른 컴퓨팅 시스템(416)은, 모바일 컴퓨팅 디바이스(412)와 같은 다른 디바이스들에 의해서 호출될 수 있는 어플리케이션 프로그램 인터페이스(API)와 관련된 모바일 어플리케이션 서버이다.
대기 시간들 및 다른 메트릭들(metrics)을 사용자 모바일 컴퓨팅 디바이스에 제공함으로써, 사용자들과의 직접 연결이 확립된다. 이러한 연결(예를 들어, 자신의 모바일 컴퓨팅 디바이스 상의 어플리케이션)을 사용하여 정보, 오퍼들/할인들 및 광고들이 사용자에게 제공될 수 있다. 그러한 정보의 일례는 구내 매점(concession stands)에 대한 메뉴이다. 일실시예에서, 구내 매점은, 해당 구내 매점의 대기 시간과 관련하여 사용자 모바일 컴퓨팅 디바이스에 제공되는 오퍼/할인을 생성 할 수 있다. 예를 들어, 대기 시간이 짧은 경우, 구내 매점은 사용자를 해당 위치로 끌어 들이기 위해 쿠폰/할인을 생성하려고 할 수 있다. 그런 다음 사용자는 그들의 모바일 컴퓨팅 디바이스 상의 쿠폰/할인을 보여주거나 및/또는 구내 매점에서 코드(예컨대, 퀵 리스폰스(quick response) 또는 QR 코드)를 스캔하여 상기 쿠폰/할인을 교환할 수 있다. 모바일 컴퓨팅 디바이스 상의 이러한 어플리케이션은 또한 임의의 장소(즉, 장소별로 특정한 것이 아님)에 의해서 쉽게 설정/구성될 수 있는 범용 어플리케이션일 수도 있다.
또 다른 구현예에서, 다른 컴퓨팅 시스템(416)은 누적 데이터 수집 및 분석 서버이다. 이 시나리오에서, 다른 컴퓨팅 시스템(416)은 복수개의 계산된 대기 시간을 장기간에 걸쳐 수집할 수 있고 그리고 수집된 데이터를 분석하여 평균 대기 시간, 혼잡 영역 등과 같은 메트릭을 분석할 수 있다. 상기 시스템에서 캡처할 수 있는 실시간 분석들의 다른 일례들은 사용자들의 카운트, 서브 시간(serve time)(예컨대, 구내 매점에 대한), 라인 감소(line attrition), 패스-쓰루 트래픽(pass-through traffic)(예컨대, 영역/위치를 지나가지만 실제 라인에는 있지 않은 사용자들의 수), 진입/진출, 및 집회 트래픽(ingress/egress, and congregation traffic)(예컨대, 영역/위치에 모여들고 있지만 실제 라인에는 있지 않은 사용자들의 수)를 포함한다. 단지 일례로서, 상기 시스템은 90% 이상의 정확도로 사용자들의 카운트를 획득할 수 있다. 이러한 메트릭들은 대기 시간을 감소하도록 미래에 재조직 또는 재구성되기 위해 장소 및/또는 다른 장소에서 사용될 수 있다. 또한, 이러한 메트릭들은 판매 동향, 히트 써멀 매핑(heat thermal mapping), 전략적 광고 캠페인, 교통량 추이(traffic trends), 거래 추진 시간(deal pushing times), 라인 감소(line attrition) 등을 추적하는 일환으로서 할인 업체들과 같은 다른 사람들에 의해서 이용될 수도 있다.
전술한 바와 같이, 예시적인 메트릭들 중 하나는 사용자 감소(user attrition)(즉, 라인(104)의 맨 앞에 도달하기 전에 라인(104)을 떠나는 사용자들)이다. 다른 메트릭들은 사용자 대기 시간의 급증들(spikes) 또는 불규칙한 사용자 대기 시간들을 포함하는데, 이는 형편없는 줄서기 공간의 설계(poor line area layout), 불충분한 크기의 화장실들, 또는 매대에서의 느린 서비스 등과 같은, 잠재적인 문제점을 진단하기 위해 상기 장소에서 나중에 활용될 수 있다. 또한, 이러한 메트릭들은, "귀하의 섹션의 외부에 있는 화장실 대신에 다른 화장실을 사용하세요" 또는 "귀하 근처의 핫도그 스탠드 대신에 다른 핫도그 스탠드에서 핫도그를 구입하세요" 등과 같이 상기 장소의 잠재적 사용자들에게 제안을 제공하는데 사용될 수도 있다. 상기 장소에 의해 중앙 시스템으로 다운로드할 수 있도록, 소프트웨어 업데이트들이 소프트웨어 공급자로부터 상기 시스템에 주기적으로 제공될 수 있다. 일부 구현예들에서, 소프트웨어 공급자는 하드 록(hard lock)을 구현할 수 있는데, 이러한 하드 록은 가령, 회원가입한 장소가 서비스 요금에 대한 지불을 중단하는 경우, 중앙 시스템이 사용자 대기 시간들을 제공하는 것을 자동으로 중단시킨다.
일 구현예에서, 시스템 공급자는 대화형(interactive) 대시 보드(예를 들어, 소프트웨어)를 클라이언트에게 제공할 수 있다. 이러한 대화형 대시 보드는 클라이언트에 의해서 독립형 엔티티(standalone entity)로 활용될 수 있으며, 또는 클라이언트가 이미 사용하고 있는 대화형 대시 보드에 시스템 공급자에 의해서 통합되거나 또는 다른 방식으로 채워질 수 있다. 이러한 방식으로 클라이언트는 이미 자리를 잡은 그들의 프로세스들을 중단함이 없이, 본 시스템의 이점들을 획득할 수 있다. 예시적인 일 구현예에서, 대화형 대시 보드는 상기 장소에 대한 대화형 플로어 플랜(interactive floor plan)을 포함할 수 있다. 클라이언트는 상기 장소 내의 특정 위치들을 클릭하거나 또는 다른 방법으로 선택하여, 개별적인 위치 분석들(전체 규모 또는 장소-규모의 분석과는 반대인)을 획득할 수 있다. 예시적인 일 구현예에서, 임계 경고들이 구현될 수 있다. 단지 일례로서, 라인 감소(line attrition), 대기 시간들 또는 패스-쓰루 트래픽이 기결정된 값에 도달/초과하면, 상기 장소의 클라이언트 또는 다른 직원들은 해당 위치(들)에서의 임계 경보를 실시간으로 통보받을 수 있다.
본 시스템의 또 다른 구현예는 디지털 사이나지(signage)에 관한 것이다. 즉, 상기 장소는 자신의 디지털 사이나지에 시스템의 대기 시간들 및/또는 기타 메트릭들(진입/진출, 패스 쓰루 트래픽, 기타 등등)을 입력하여, 상기 디지털 사이나지를 광고주들에게 판매할 수 있다. 이러한 정보는 사용자들의 관심을 이끌어낼 수 있는데, 이것은 광고주들이 원하는 것이며 따라서, 더 높은 가격으로 디지털 사이나지를 판매하거나 임대할 수 있어 상기 장소에 도움이 될 수 있다.
이제, 도5를 참조하면, 컴퓨팅 시스템(404)의 기능 블록도가 도시된다. 컴퓨팅 시스템(404)은 통신 디바이스(500), 프로세서(504) 및 메모리(508)를 포함할 수 있다. 통신 디바이스(500)는 네트워크(408)를 통해 통신하도록 구성된 임의의 적절한 구성 요소(예를 들어, 트랜시버)를 포함할 수 있다. 프로세서(504)는, 컴퓨팅 시스템(404)의 운영 시스템을 로딩/실행하는 것, 통신 디바이스(500)를 통한 통신을 제어하는 것, 및 메모리(508)에서의 판독/기록 동작을 제어하는 것 등을 포함하는(이에 한정되는 것은 아님) 기능들을 수행하는 것과 같은, 컴퓨팅 시스템(404)의 동작을 제어할 수 있다. 메모리(508)는 컴퓨팅 시스템(404)에서 정보를 저장하도록 구성된 임의의 적절한 저장 매체(플래시, 하드 디스크 등)일 수 있다. 본 명세서에서 사용되는 "프로세서"라는 용어는 단일 프로세서 및 병렬 또는 분산 아키텍처로 동작하는 복수의 프로세서들 모두를 지칭할 수 있다. 프로세서(504)는 또한 본 발명의 기술 중 적어도 일부를 실행하도록 구성될 수 있다.
이제, 도6을 참조하면, 사용자 대기 시간의 자동, 실시간 계산을 위한 예시적인 방법(600)의 순서도가 도시된다. 단계 604에서, 컴퓨팅 시스템(404)은 충분한 이미지 데이터가 오버헤드 카메라 시스템(200)으로부터 수신되었는지를 결정한다. 충분한 이미지 데이터는 소정의 시간 기간 동안의 오버헤드 이미지를 나타낼 수 있다. 만일, 참(true)이라면, 상기 방법(600)은 단계 608로 진행한다. 만일, 거짓(false)이라면, 상기 방법(600)은 종료되거나 또는 단계 604로 돌아갈 수 있다. 단계 608에서, 컴퓨팅 시스템(404)은 사용자들(320)의 그룹 중에서 라인(104)에서 두번째인 사용자(예컨대, 사용자 320b)를 식별할 수 있는데 이는 타겟 사용자를 획득하기 위한 것이다. 단계 612에서, 컴퓨팅 시스템(404)은 타겟 사용자가 라인(104)에서 첫번째가되었는지를 검출할 수 있다. 참이라면, 상기 방법(600)은 단계 616으로 진행하며, 단계 616에서 컴퓨팅 시스템(404)은 시작 시간을 획득할 수 있다. 거짓이라면, 상기 방법(600)은 단계 612로 되돌아 간다.
단계 620에서, 컴퓨팅 시스템(404)은 타겟 사용자가 라인(104)을 떠났는지 아닌지를 검출할 수 있다. 참이라면, 상기 방법(600)은 단계 624로 진행하며, 단계 624에서 컴퓨팅 시스템(404)은 종료 시간을 획득 할 수 있다. 거짓이라면, 상기 방법(600)은 단계 620으로 돌아갈 수 있다. 단계 628에서, 컴퓨팅 시스템(404)은 시작 시간부터 종료 시간까지의 기간을 판별할 수 있다. 단계 632에서, 컴퓨팅 시스템(404)은 타겟 사용자가 라인(104)을 떠난 후 (i) 상기 판별된 기간과 (ii) 라인(320)에 있는 사용자들(320)의 그룹의 수량(예컨대, 사용자 320c-320m)과의 곱(product)을 계산함으로써, 사용자 대기 시간을 계산할 수 있다. 단계 636에서, 컴퓨팅 시스템(404)은 계산된 사용자 대기 시간을 복수의 적절한 디바이스들(사용자 모바일 컴퓨팅 디바이스, 모바일 어플리케이션 서버, 웹 서버, 전자 사이나지/게시판, 데이터 분석 서버 등) 중 적어도 하나에 출력할 수 있고, 상기 방법(600)은 하나 이상의 추가 사이클 동안 종료되거나 또는 단계 604로 돌아갈 수 있다.
예시적인 실시예들은, 본 개시 내용이 완벽해지도록 그리고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공된다. 특정한 구성요소들, 디바이스들, 및 방법들의 일례들 등과 같은, 특정한 많은 세부 사항들이 제시되었는바, 이는 본 발명의 실시예들에 대한 완전한 이해를 제공하기 위한 것이다. 해당 기술분야의 당업자들에게 다음과 같은 것이 자명할 것인바, 전술한 특정한 세부 사항들은 반드시 채용될 필요는 없으며, 예시적인 실시예들은 서로 다른 많은 형태들로 구현될 수 있으며 그리고 본 발명의 범위를 제한하도록 해석되지 않아야 한다. 일부 예시적인 실시예들에서, 잘-알려진 절차들, 잘-알려진 디바이스 구조들 및 잘-알려진 기술들은 상세히 설명되지 않는다.
본 명세서에서 사용되는 용어는 단지 특정 실시예를 설명하기 위한 것이며 제한하고자 의도된 것이 아니다. 본 명세서에서 사용되는 바와 같이, 단수 형태들 "a", "an" 및 "the" 는 문맥상 달리 지시하지 않는 한 복수 형태도 또한 포함하는 것으로 의도될 수 있다. "및/또는" 이라는 용어는 하나 이상의 관련된 열거 항목들의 임의의 모든 조합을 포함한다. "포함한다(comprises)", "포함하는(comprising)", "포함하는(including)" 및 "갖는(having)" 이라는 용어는 포괄적이며, 따라서 언급된 피처들, 정수들, 단계들, 동작들, 요소들 및/또는 구성 요소들의 존재를 명시하지만, 하나 이상의 다른 피처들, 정수들, 단계들, 동작들, 요소들, 구성 요소들 및/또는 이들의 그룹들의 존재 또는 부가를 배제하지 않는다. 본 명세서에 설명된 방법 단계들, 프로세스들 및 동작들은 성능 순서로서 구체적으로 식별되지 않는 한, 논의되거나 예시된 특정 순서에서 그들의 성능을 반드시 요구하는 것으로 해석되어서는 안된다. 다음을 유의해야 하는바, 부가적인 또는 대안적인 단계들이 사용될 수 있다.
비록, 다양한 요소들, 구성 요소들, 영역들, 층들 및/또는 섹션들을 설명하기 위하여 제 1, 제 2, 제 3 등의 용어가 본 명세서에서 사용되었지만, 이들 요소들, 구성 요소들, 영역들, 층들 및/또는 섹션들은 이들 용어들에 의해서 한정되지 않는다. 이들 용어들은 하나의 요소, 구성 요소, 영역, 층 또는 섹션을 다른 영역, 층 또는 섹션과 구별하기 위해서만 사용될 수 있다. 본 명세서에서 사용된 "제 1", "제 2" 및 다른 수치 용어와 같은 용어는 문맥에 의해 명확히 표시되지 않는 한 시퀀스 또는 순서를 암시하지 않는다. 따라서, 이하에 논의되는 제 1 요소, 구성 요소, 영역, 층 또는 섹션은 예시적인 실시예들의 가르침을 벗어남이 없이도, 제 2 요소, 구성 요소, 영역, 층 또는 섹션으로 지칭될 수 있다.
본 명세서에서 사용되는 모듈이라는 용어는 주문형 반도체(Application Specific Integrated Circuit: ASIC); 전자 회로; 조합 논리 회로; 필드 프로그래머블 게이트 어레이(FPGA); 프로세서 또는 프로세서들의 분산 네트워크(공유, 전용, 또는 그룹) 및 코드 또는 프로세스를 실행하는 네트워크화된 클러스터 또는 데이터 센터에 있는 저장소; 서술된 기능성을 제공하는 다른 적절한 구성 요소들; 또는 시스템-온-칩(system-on-chip)과 같은 전술한 것들의 전부 또는 일부의 조합을 지칭하거나, 그 일부이거나, 또는 포함할 수 있다. 또한, 모듈 이라는 용어는 하나 이상의 프로세서들에 의해서 실행되는 코드를 저장하는 메모리(공유, 전용 또는 그룹)를 포함할 수 있다.
본 명세서에서 사용되는 바와 같은 코드라는 용어는 소프트웨어, 펌웨어, 바이트 코드 및/또는 마이크로 코드를 포함할 수 있으며, 프로그램들, 루틴들, 함수들, 클래스들 및/또는 객체들을 지칭할 수 있다. 앞서 사용된 공유라는 용어는 다수개의 모듈들로부터의 일부 또는 모든 코드가 단일의(공유된) 프로세서를 사용하여 실행될 수 있음을 의미한다. 또한, 다수의 모듈들로부터의 일부 또는 모든 코드는 단일(공유) 메모리에 저장될 수 있다. 앞서 사용된 그룹이라는 용어는 하나의 모듈로부터의 일부 또는 모든 코드가 프로세서 그룹을 사용하여 실행될 수 있음을 의미한다. 또한, 하나의 모듈로부터의 일부 또는 모든 코드는 메모리들의 그룹을 사용하여 저장될 수 있다.
본 명세서에 서술된 기술들은 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 컴퓨터 프로그램들에 의해 구현될 수 있다. 컴퓨터 프로그램은 비-일시적인 유형의 컴퓨터 판독 가능 매체 상에 저장되는 프로세서-실행가능한 명령들을 포함한다. 컴퓨터 프로그램은 또한 저장된 데이터를 포함할 수 있다. 비-일시적인 유형의 컴퓨터 판독 가능 매체의 비-제한적인 일례들은 비휘발성 메모리, 자기 저장 장치 및 광학 저장 장치이다.
전술한 설명의 일부분은 정보에 관한 연산의 알고리즘 및 기호적 표현과 관련하여 본 명세서에 설명된 기술을 나타낸다. 이러한 알고리즘 설명 및 표현은 데이터 처리 기술 분야의 당업자가 그들의 작업 내용을 당업자에게 가장 효과적으로 전달하기 위해 사용되는 수단이다. 이들 동작은 기능적으로 또는 논리적으로 설명되지만, 컴퓨터 프로그램에 의해 구현되는 것으로 이해된다. 또한, 이러한 연산들에 대한 구성은 모듈들 또는 기능적 이름들로 언급하는 것이 때때로 편리하다는 것이 입증되었다(일반성의 손실없이).
상기 설명으로부터 명백한 바와 같이 특별히 언급하지 않는 한, "프로세스"또는 "컴퓨팅" 또는 "계산" 또는 "결정" 또는 "디스플레이" 등과 같은 용어를 이용하는 설명은, 컴퓨터 시스템 메모리 또는 레지스터 또는 다른 정보 저장, 전송 또는 디스플레이 장치 내의 물리적(전자) 양으로 표현된 데이터를 조작하고 변환하는 컴퓨터 시스템 또는 유사한 전자 컴퓨팅 장치의 동작 및 프로세스를 지칭한다.
설명된 기술들의 특정 양태는 본 명세서에서 알고리즘의 형태로 기술된 처리 단계들 및 명령들을 포함한다. 서술된 프로세스 단계들 및 명령들은 소프트웨어, 펌웨어 또는 하드웨어로 구체화될 수 있고, 소프트웨어로 구체화될 때 실시간 네트워크 운영 시스템에 의해 사용되는 상이한 플랫폼 상에 상주하도록 동작될 수 있다.
본 발명은 또한 본 명세서의 동작을 수행하기 위한 장치에 관한 것이다. 이 장치는 요구되는 목적을 위해 특별히 구성될 수 있거나, 컴퓨터에 의해 액세스될 수 있는 컴퓨터 판독 가능 매체 상에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터를 포함할 수 있다. 이러한 컴퓨터 프로그램은 유형의 컴퓨터 판독 가능 저장 매체에 저장될 수 있는바, 유형의 컴퓨터 판독 가능 저장 매체는 플로피 디스크, 광학 디스크, CD-ROM, 자기 광학 디스크를 포함하는 임의의 유형의 디스크, 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), EPROM, EEPROM, 자기 또는 광학 카드, 주문형 집적회로(ASIC), 또는 전자 명령을 저장하기에 적합한 임의의 유형의 매체를 포함하며 이들 각각은 컴퓨터 시스템 버스에 연결된다. 또한, 본 명세서에서 언급되는 컴퓨터들은 단일 프로세서를 포함할 수 있거나 또는 증가된 컴퓨팅 성능을 위해 다중 프로세서 설계를 채용하는 아키텍처들일 수도 있다.
본 명세서에 제시된 알고리즘들 및 동작들은 본질적으로 임의의 특정 컴퓨터 또는 다른 장치와 관련되어 있지 않다. 또한, 다양한 범용 시스템들이 본 명세서의 교시에 따른 프로그램과 함께 사용될 수 있거나, 또는 요구되는 방법 단계를 수행하기 위해 보다 특수화된 장치를 구성하는 것이 편리할 수도 있다. 다양한 이들 시스템에 필요한 구조는 동등한 등가물과 함께 당업자에게 명백할 것이다. 또한, 본 개시는 임의의 특정 프로그래밍 언어를 참조하여 설명되지 않는다. 다양한 프로그래밍 언어가 본 명세서에서 설명된 바와 같은 본 개시의 교시를 구현하는데 사용될 수 있고, 특정 언어에 대한 임의의 참조가 본 발명의 인에이블먼트 및 최적 모드의 개시를 위해 제공되는 것으로 이해된다.
본 개시는 수많은 토폴로지에 걸친 다양한 컴퓨터 네트워크 시스템에 매우 적합하다. 이러한 분야에서, 대형 네트워크의 구성 및 관리는 인터넷과 같은 네트워크를 통해 서로 다른 컴퓨터들 및 저장 디바이스들에 통신가능하게 연결된 저장 디바이스들 및 컴퓨터들을 포함한다.
상기 실시예에 대한 설명은 예시 및 설명을 위해 제공되었다. 이것은 본 발명을 속속들이 규명한다던가 또는 본 발명을 제한하고자 의도된 것이 아니다. 특정 실시예의 개개의 구성 요소들 또는 피처들은 일반적으로 그 특정 실시예에 한정되지 않으며, 적용가능한 경우에 상호교환 가능하며, 구체적으로 도시 또는 기술되지 않더라도, 선택된 실시예에서 사용될 수 있다. 변형예들은 본 개시내용으로부터 벗어난 것으로 간주되지 않으며, 이러한 모든 변형예들은 본 발명의 범위 내에 포함되는 것으로 의도된다.

Claims (20)

  1. 컴퓨터로 구현되는 방법으로서,
    장소(venue)의 라인에 있는 사용자들의 그룹에 대한 오버헤드 이미지들을 오버헤드 카메라 시스템으로부터 컴퓨팅 시스템에서 수신하는 단계, 상기 컴퓨팅 시스템은 하나 이상의 프로세서들을 가지며;
    상기 오버헤드 이미지를 수신하는 것에 응답하여, 상기 라인에 대한 사용자 대기 시간을 획득하기 위하여 상기 컴퓨팅 시스템에서 상기 오버헤드 이미지를 처리하는 단계, 상기 처리하는 단계는,
    (a) 타겟 사용자를 획득하기 위하여, 상기 사용자들의 그룹 중에서 상기 라인에서 두번째인 사용자를 식별하고,
    (b) 시작 시간을 획득하도록, 상기 타겟 사용자가 상기 라인에서 첫번째가 될 때를 검출하고,
    (c) 상기 타겟 사용자가 상기 라인에서 첫번째가 된 후에, 상기 타겟 사용자가 상기 라인을 떠날 때를 검출하여 종료 시간을 획득하고,
    (d) 상기 시작 시간부터 종료 시간까지의 기간을 결정하고,
    (e) 상기 (i) 상기 결정된 기간과 (ii) 상기 타겟 사용자가 상기 라인을 떠난 후 상기 라인에 있는 상기 사용자들의 그룹의 수량과의 곱(product)을 계산함으로써 상기 사용자 대기 시간을 계산하는 것을 포함하며, 그리고
    계산된 사용자 대기 시간을 상기 컴퓨팅 시스템으로부터 출력하는 단계
    를 포함하는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  2. 제1항에 있어서,
    상기 오버헤드 카메라 시스템은 (i) 상기 라인 위의 천장에 마운트되고 그리고 (ii) 상기 오버헤드 이미지를 포착하도록 구성된, 적어도 하나의 오버헤드 카메라를 포함하는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  3. 제2항에 있어서,
    상기 각각의 오버헤드 카메라는 대략 90도의 가시 영역을 갖는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  4. 제1항에있어서,
    결합된 오버헤드 이미지를 획득하도록 상기 컴퓨팅 시스템에 의해서 2 이상의 오버헤드 이미지들을 결합하는 단계; 및
    상기 라인에 대한 사용자 대기 시간을 획득하도록 상기 컴퓨팅 시스템에 의해서 상기 결합된 오버헤드 이미지를 프로세싱하는 단계
    를 더 포함하는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  5. 제5항에 있어서,
    결합 전 또는 결합 도중에, 에지 왜곡을 정정하도록 상기 2 이상의 오버헤드 이미지들 중 적어도 하나를 상기 컴퓨팅 시스템에 의해서 조정하는 단계
    를 더 포함하는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  6. 제1항에 있어서,
    상기 사용자 대기 시간을 계산할 때, 특정 타겟 사용자의 이동 속도에 기초하여, 상기 특정 타겟 사용자를 상기 컴퓨팅 시스템에서 무시하거나 폐기하는 단계
    를 더 포함하는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  7. 제6항에 있어서,
    상기 특정 타겟 사용자는 상기 특정 타겟 사용자의 이동 속도가 속도 임계값보다 큰 경우 무시되거나 폐기되며, 상기 속도 임계값은 상기 특정 타겟 사용자가 상기 라인에서 대기중이 아님을 높은 가능성으로 나타내는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  8. 제1항에 있어서,
    상기 사용자 대기 시간을 출력하는 단계는,
    (i) 모바일 컴퓨팅 디바이스 및 (ii) 원격 컴퓨팅 시스템 중 적어도 하나에게 상기 사용자 대기 시간을 출력하는 단계를 포함하며,
    상기 사용자 대기 시간은 상기 모바일 컴퓨팅 디바이스로부터의 사용자 요청에 응답하여 상기 모바일 컴퓨팅 디바이스로 출력되며, 그리고 상기 원격 컴퓨팅 시스템은 상기 모바일 컴퓨팅 디바이스들에 의해서 실행가능한 모바일 어플리케이션과 관련되는 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  9. 제1항에 있어서,
    상기 라인은 (i) 상기 장소로의 입구, (ii) 상기 장소로부터의 출구, (iii) 상기 장소에 있는 화장실, 및(iv) 장소에 있는 매점(concession station)에 대한 라인인 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  10. 제9항에 있어서,
    상기 장소는 (i) 스포츠 또는 음악 이벤트를 위한 경기장 또는 공연장, (ii) 테마 공원 또는 놀이 공원, 및 (iii) 사업장 또는 소매점 중 하나인 것을 특징으로 하는 컴퓨터로 구현되는 방법.
  11. 자동, 실시간 사용자 대기 시간 계산 시스템으로서,
    장소(venue)의 라인에 있는 사용자들의 그룹에 대한 오버헤드 이미지들을 포착하도록 된 하나 이상의 오버헤드 카메라를 포함하는 오버헤드 카메라 시스템; 및
    상기 오버헤드 카메라 시스템과 통신하는 컴퓨팅 시스템을 포함하며,
    상기 컴퓨팅 시스템은,
    (a) 타겟 사용자를 획득하기 위하여, 상기 사용자들의 그룹 중에서 상기 라인에서 두번째인 사용자를 식별하고,
    (b) 시작 시간을 획득하도록, 상기 타겟 사용자가 상기 라인에서 첫번째가 될 때를 검출하고,
    (c) 상기 타겟 사용자가 상기 라인에서 첫번째가 된 후에, 상기 타겟 사용자가 상기 라인을 떠날 때를 검출하여 종료 시간을 획득하고,
    (d) 상기 시작 시간부터 종료 시간까지의 기간을 결정하고,
    (e) 상기 (i) 상기 결정된 기간과 (ii) 상기 타겟 사용자가 상기 라인을 떠난 후 상기 라인에 있는 상기 사용자들의 그룹의 수량과의 곱(product)을 계산함으로써 상기 사용자 대기 시간을 계산하고, 그리고
    (f) 계산된 사용자 대기 시간을 출력하도록 된 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  12. 제11항에 있어서,
    상기 오버헤드 카메라 시스템은 (i) 상기 라인 위의 천장에 마운트되고 그리고 (ii) 상기 오버헤드 이미지를 포착하도록 구성된, 적어도 하나의 오버헤드 카메라를 포함하는 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  13. 제12항에 있어서,
    상기 각각의 오버헤드 카메라는 대략 90도의 가시 영역을 갖는 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  14. 제11항에 있어서,
    상기 컴퓨팅 시스템은 또한,
    결합된 오버헤드 이미지를 획득하도록 2 이상의 오버헤드 이미지들을 결합하고; 그리고
    상기 라인에 대한 사용자 대기 시간을 획득하도록 상기 결합된 오버헤드 이미지를 프로세싱하도록 된 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  15. 제15항에 있어서,
    상기 컴퓨팅 시스템은 또한,
    결합 전 또는 결합 도중에, 에지 왜곡을 정정하도록 상기 2 이상의 오버헤드 이미지들 중 적어도 하나를 조정하도록 된 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  16. 제11항에 있어서,
    상기 컴퓨팅 시스템은 또한,
    상기 사용자 대기 시간을 계산할 때, 특정 타겟 사용자의 이동 속도에 기초하여, 상기 특정 타겟 사용자를 무시하거나 폐기하도록 된 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  17. 제16항에 있어서,
    상기 특정 타겟 사용자는 상기 특정 타겟 사용자의 이동 속도가 속도 임계값보다 큰 경우 무시되거나 폐기되며, 상기 속도 임계값은 상기 특정 타겟 사용자가 상기 라인에서 대기중이 아님을 높은 가능성으로 나타내는 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  18. 제11항에 있어서,
    상기 사용자 대기 시간을 출력하는 것은,
    (i) 모바일 컴퓨팅 디바이스 및 (ii) 원격 컴퓨팅 시스템 중 적어도 하나에게 상기 사용자 대기 시간을 출력하는 것을 포함하며,
    상기 사용자 대기 시간은 상기 모바일 컴퓨팅 디바이스로부터의 사용자 요청에 응답하여 상기 모바일 컴퓨팅 디바이스로 출력되며, 그리고 상기 원격 컴퓨팅 시스템은 상기 모바일 컴퓨팅 디바이스들에 의해서 실행가능한 모바일 어플리케이션과 관련되는 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  19. 제11항에 있어서,
    상기 라인은 (i) 상기 장소로의 입구, (ii) 상기 장소로부터의 출구, (iii) 상기 장소에 있는 화장실, 및(iv) 장소에 있는 매점(concession station)에 대한 라인인 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
  20. 제19항에 있어서,
    상기 장소는 (i) 스포츠 또는 음악 이벤트를 위한 경기장 또는 공연장, (ii) 테마 공원 또는 놀이 공원, 및 (iii) 사업장 또는 소매점 중 하나인 것을 특징으로 하는 사용자 대기 시간 계산 시스템.
KR1020177002617A 2014-07-02 2015-07-02 사용자 대기 시간들의 자동적인 실시간 계산을 위한 기술들 KR20170035922A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462019940P 2014-07-02 2014-07-02
US62/019,940 2014-07-02
US14/789,320 US10339544B2 (en) 2014-07-02 2015-07-01 Techniques for automatic real-time calculation of user wait times
US14/789,320 2015-07-01
PCT/US2015/038985 WO2016004304A1 (en) 2014-07-02 2015-07-02 Techniques for automatic real-time calculation of user wait times

Publications (1)

Publication Number Publication Date
KR20170035922A true KR20170035922A (ko) 2017-03-31

Family

ID=55017273

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177002617A KR20170035922A (ko) 2014-07-02 2015-07-02 사용자 대기 시간들의 자동적인 실시간 계산을 위한 기술들

Country Status (9)

Country Link
US (3) US10339544B2 (ko)
EP (1) EP3164834A1 (ko)
KR (1) KR20170035922A (ko)
CN (1) CN106687998A (ko)
AU (1) AU2015283940A1 (ko)
BR (1) BR112017000040A2 (ko)
CA (1) CA2953999A1 (ko)
IL (1) IL249890A0 (ko)
WO (1) WO2016004304A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190136931A (ko) * 2018-05-30 2019-12-10 캐논 가부시끼가이샤 정보 처리장치, 촬상장치, 정보 처리방법, 및, 기억매체

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290067B1 (en) 2014-06-05 2019-05-14 ProSports Technologies, LLC Wireless concession delivery
US10339544B2 (en) * 2014-07-02 2019-07-02 WaitTime, LLC Techniques for automatic real-time calculation of user wait times
US9965938B1 (en) * 2014-07-11 2018-05-08 ProSports Technologies, LLC Restroom queue management
US9892371B1 (en) * 2014-07-28 2018-02-13 ProSports Technologies, LLC Queue information transmission
US9607497B1 (en) 2014-08-25 2017-03-28 ProSports Technologies, LLC Wireless communication security system
US9456309B2 (en) * 2014-12-30 2016-09-27 Paypal, Inc. Systems and methods for wait time estimation
US9775003B2 (en) * 2015-06-08 2017-09-26 CUSEUM, Inc. Location and activity aware media content delivery system
US10185921B1 (en) 2015-06-29 2019-01-22 Good2Go, Inc. Facility and resource access system
US9984520B1 (en) 2015-06-29 2018-05-29 Good2Go, LLC Facility and resource access system
US9635181B1 (en) 2015-10-19 2017-04-25 Genesys Telecommunications Laboratories, Inc. Optimized routing of interactions to contact center agents based on machine learning
US9716792B2 (en) 2015-10-19 2017-07-25 Genesys Telecommunications Laboratories, Inc. System and method for generating a network of contact center agents and customers for optimized routing of interactions
US9723151B2 (en) * 2015-10-19 2017-08-01 Genesys Telecommunications Laboratories, Inc. Optimized routing of interactions to contact center agents based on forecast agent availability and customer patience
US10713670B1 (en) * 2015-12-31 2020-07-14 Videomining Corporation Method and system for finding correspondence between point-of-sale data and customer behavior data
US10943188B2 (en) * 2016-11-09 2021-03-09 Universal City Studios Llc Virtual queuing techniques
WO2018106740A1 (en) * 2016-12-08 2018-06-14 Spot You More, Inc. Line queue monitoring
JP6469139B2 (ja) * 2017-01-17 2019-02-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20180240161A1 (en) * 2017-02-21 2018-08-23 Panasonic Intellectual Property Management Co., Ltd. System and method for next generation themepark navigation
US20180260864A1 (en) * 2017-03-07 2018-09-13 Facebook, Inc. Merchant-facing Queue Interface
US20180260849A1 (en) * 2017-03-07 2018-09-13 Facebook, Inc. Multiple-Merchant Community
US10217366B2 (en) * 2017-03-29 2019-02-26 Panasonic Intellectual Property Management Co., Ltd. Autonomous resort sanitation
US11301692B2 (en) * 2017-06-30 2022-04-12 Nec Corporation Information processing apparatus, control method, and program
JP6909083B2 (ja) * 2017-07-18 2021-07-28 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US10861267B2 (en) * 2017-08-04 2020-12-08 James Andrew Aman Theme park gamification, guest tracking and access control system
CN108009870B (zh) * 2017-08-16 2020-07-31 北京嘀嘀无限科技发展有限公司 排队时间确定方法、装置、服务器和计算机可读存储介质
CN109426871B (zh) * 2017-08-23 2021-08-13 北京嘀嘀无限科技发展有限公司 出行订单信息的处理方法、装置及用户终端
CN107492182B (zh) * 2017-08-30 2019-07-26 厦门市东合传媒科技有限公司 基于多参数分析的大数据检测平台
CN107369237B (zh) * 2017-08-30 2019-08-06 北京麒麟心通网络技术有限公司 一种基于多参数分析的大数据检测方法
US10652693B2 (en) 2018-09-10 2020-05-12 International Business Machines Corporation Cognitive location and navigation services for custom applications
US11704782B2 (en) * 2018-10-03 2023-07-18 The Toronto-Dominion Bank Computerized image analysis for automatically determining wait times for a queue area
JP7267709B2 (ja) * 2018-10-09 2023-05-02 東芝テック株式会社 無人店舗システムおよびサーバ
JP6539403B1 (ja) * 2018-11-30 2019-07-03 株式会社Epark 予約管理装置、予約管理方法および予約管理プログラム
US11354909B2 (en) 2019-09-26 2022-06-07 International Business Machines Corporation Adaptive queue management system
US11144899B2 (en) * 2020-01-30 2021-10-12 Ncr Corporation Terminal access and load management
US20220114625A1 (en) * 2020-07-22 2022-04-14 Grip Places Inc. Venue experience economy engagement systems and methods
CN112565730B (zh) * 2020-12-03 2023-07-25 阿波罗智联(北京)科技有限公司 路侧感知方法、装置、电子设备、存储介质及路侧设备
US20230036521A1 (en) * 2021-07-30 2023-02-02 International Business Machines Corporation Image comparison to determine resource availability
US20230154224A1 (en) * 2021-11-12 2023-05-18 Microsoft Technology Licensing, Llc Machine-vision person tracking in service environment

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5097328A (en) * 1990-10-16 1992-03-17 Boyette Robert B Apparatus and a method for sensing events from a remote location
US5953055A (en) * 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
AU4453200A (en) * 1999-04-08 2000-10-23 Internet Pictures Corporation Perspective-corrected video presentations
US6633232B2 (en) * 2001-05-14 2003-10-14 Koninklijke Philips Electronics N.V. Method and apparatus for routing persons through one or more destinations based on a least-cost criterion
US20030036936A1 (en) * 2001-08-17 2003-02-20 Steichen Jennifer L. Computer method and apparatus to estimate customer arrival times using transactional data
US6606458B2 (en) * 2001-09-05 2003-08-12 Nisca Corporation Automatic framing camera
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
JP2003233366A (ja) * 2002-02-13 2003-08-22 Nec Access Technica Ltd 表示合成回路及び携帯用電子機器
US7224382B2 (en) * 2002-04-12 2007-05-29 Image Masters, Inc. Immersive imaging system
US8041583B2 (en) * 2007-04-12 2011-10-18 Albro Thomas W System and method for enhancing organizational efficiencies to deliver health care in an ambulatory health care setting
US8010402B1 (en) * 2002-08-12 2011-08-30 Videomining Corporation Method for augmenting transaction data with visually extracted demographics of people using computer vision
AU2003264481A1 (en) * 2002-09-24 2004-04-19 Nikon Corporation Image display unit and projection optical system
US20040260513A1 (en) * 2003-02-26 2004-12-23 Fitzpatrick Kerien W. Real-time prediction and management of food product demand
US6842719B1 (en) * 2003-02-26 2005-01-11 Kerien W. Fitzpatrick Real-time prediction and management of food product demand
US8292433B2 (en) * 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
JP4125634B2 (ja) * 2003-05-26 2008-07-30 Necソフト株式会社 顧客情報収集管理方法及びそのシステム
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
WO2006011804A1 (en) * 2004-07-30 2006-02-02 Eagle Vision Systems B.V. System and method for the detection of persons
ES2460866T3 (es) * 2004-11-02 2014-05-14 Tyco Fire & Security Gmbh Sistema y método de control de fila
US9036028B2 (en) 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
WO2007124138A2 (en) * 2006-04-18 2007-11-01 Sorensen Associates Inc Still image queue analysis system and method
JP2007318596A (ja) * 2006-05-29 2007-12-06 Opt Kk 広角レンズによる撮像データの圧縮方法、伸長表示方法、圧縮装置、広角カメラ装置およびモニタシステム
US8107676B2 (en) * 2007-07-30 2012-01-31 International Business Machines Corporation Line length estimation
WO2009101153A2 (en) * 2008-02-13 2009-08-20 Ubisoft Entertainment S.A. Live-action image capture
EP2093698A1 (en) * 2008-02-19 2009-08-26 British Telecommunications Public Limited Company Crowd congestion analysis
US10062234B2 (en) * 2008-11-12 2018-08-28 Lo-Q, Plc System for regulating access to a resource
US8779889B2 (en) * 2008-11-12 2014-07-15 Lo-Q Plc. System for regulating access to a resource
CN101615311B (zh) * 2009-06-19 2011-05-04 无锡骏聿科技有限公司 一种基于视觉的排队时间评估方法
US20110029333A1 (en) * 2009-08-03 2011-02-03 Shlomo Zytman System and method for controlling and calculating time of service
JP5195818B2 (ja) * 2010-06-01 2013-05-15 セイコーエプソン株式会社 表示制御装置
US8625005B2 (en) * 2010-11-05 2014-01-07 Raytheon Company First-in-first-out (FIFO) buffered median scene non-uniformity correction method
US9704393B2 (en) * 2011-01-11 2017-07-11 Videonetics Technology Private Limited Integrated intelligent server based system and method/systems adapted to facilitate fail-safe integration and/or optimized utilization of various sensory inputs
US20130027561A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
US9122915B2 (en) * 2011-09-16 2015-09-01 Arinc Incorporated Method and apparatus for facial recognition based queue time tracking
US8924868B2 (en) * 2011-11-03 2014-12-30 International Business Machines Corporation Moving an activity along terminals associated with a physical queue
US9111147B2 (en) * 2011-11-14 2015-08-18 Massachusetts Institute Of Technology Assisted video surveillance of persons-of-interest
US20130223678A1 (en) * 2012-02-24 2013-08-29 Bas Strategic Solutions, Inc. Time in Line Tracking System and Method
EP2709064B1 (en) * 2012-07-18 2019-06-26 AGT International GmbH Image processing to derive movement characteristics for a plurality of queue objects
GB201214432D0 (en) * 2012-08-13 2012-09-26 Lo Q Plc Queue management system
US9124778B1 (en) * 2012-08-29 2015-09-01 Nomi Corporation Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
CN103310411B (zh) * 2012-09-25 2017-04-12 中兴通讯股份有限公司 一种图像局部增强方法和装置
US8799756B2 (en) * 2012-09-28 2014-08-05 Interactive Memories, Inc. Systems and methods for generating autoflow of content based on image and user analysis as well as use case data for a media-based printable product
US9299084B2 (en) * 2012-11-28 2016-03-29 Wal-Mart Stores, Inc. Detecting customer dissatisfaction using biometric data
US20140163934A1 (en) * 2012-12-06 2014-06-12 Palo Alto Research Center Incorporated Method and apparatus for determining an average wait time for user activities based on contextual sensors
CN103049765A (zh) * 2012-12-21 2013-04-17 武汉经纬视通科技有限公司 一种基于鱼眼相机的判断人群密度和人数的方法
US20140258061A1 (en) * 2013-03-08 2014-09-11 Bank Of America Corporation Determining efficient interaction path for a customer
JP6335498B2 (ja) * 2013-03-19 2018-05-30 キヤノン株式会社 画像処理装置及びその制御方法
GB2512621A (en) * 2013-04-04 2014-10-08 Sony Corp A method and apparatus
CN103440491A (zh) * 2013-06-24 2013-12-11 中国科学院上海微***与信息技术研究所 一种基于颜色特征的密集人流量实时检测方法
JP5683663B1 (ja) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
US10262328B2 (en) * 2014-04-25 2019-04-16 Conduent Business Services, Llc System and method for video-based detection of drive-offs and walk-offs in vehicular and pedestrian queues
US10339544B2 (en) * 2014-07-02 2019-07-02 WaitTime, LLC Techniques for automatic real-time calculation of user wait times
US10732621B2 (en) * 2016-05-09 2020-08-04 Strong Force Iot Portfolio 2016, Llc Methods and systems for process adaptation in an internet of things downstream oil and gas environment
CN109952592B (zh) * 2016-11-07 2024-04-02 瑞士再保险有限公司 自动位置相关测量和预测汽车风险的绝对和相对风险***和方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190136931A (ko) * 2018-05-30 2019-12-10 캐논 가부시끼가이샤 정보 처리장치, 촬상장치, 정보 처리방법, 및, 기억매체

Also Published As

Publication number Publication date
WO2016004304A1 (en) 2016-01-07
CA2953999A1 (en) 2016-01-07
US10902441B2 (en) 2021-01-26
US10706431B2 (en) 2020-07-07
BR112017000040A2 (pt) 2018-07-17
EP3164834A1 (en) 2017-05-10
IL249890A0 (en) 2017-03-30
CN106687998A (zh) 2017-05-17
US20160005053A1 (en) 2016-01-07
US20200327561A1 (en) 2020-10-15
US20190325460A1 (en) 2019-10-24
AU2015283940A1 (en) 2017-02-02
US10339544B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
US10902441B2 (en) Techniques for automatic real-time calculation of user wait times
JP7036863B2 (ja) ビデオデータを用いた活動モニタリングのためのシステム及び方法
Cai et al. Deep learning-based video system for accurate and real-time parking measurement
CN106664391B (zh) 引导处理装置和引导方法
US9641763B2 (en) System and method for object tracking and timing across multiple camera views
US10552687B2 (en) Visual monitoring of queues using auxillary devices
US9865056B2 (en) Video based method and system for automated side-by-side drive thru load balancing
US20140253732A1 (en) Topology determination for non-overlapping camera network
US20090158309A1 (en) Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization
Sen et al. Accurate speed and density measurement for road traffic in India
JERMSURAWONG et al. One-day long statistical analysis of parking demand by using single-camera vacancy detection
US20150098621A1 (en) Video based method and system for automated side-by-side traffic load balancing
CN111127066A (zh) 基于用户信息的挖掘应用方法和装置
US9589191B2 (en) Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system
JP6746154B1 (ja) 物体検出装置及び混雑状況管理装置
US20230351832A1 (en) Methods of estimating a throughput of a resource, a length of a queue associated with the resource and/or a wait time of the queue
CN110046535B (zh) 基于机器学习的智能出行时间预测***、方法及存储介质
CN111160945A (zh) 基于视频技术的广告精准投放方法和***
Ashkanani et al. A design approach of automatic visitor counting system using video camera
TW201822082A (zh) 智慧型影像辨識動態規劃之系統及方法
US20210067680A1 (en) Automated scope limiting for video analytics
Sukhinskiy et al. Developing a parking monitoring system based on the analysis of images from an outdoor surveillance camera
BR102015010383A2 (pt) método e sistema para agendamento inteligente de compromissos a partir de dispositivos portáteis
NL2014154B1 (en) System and method for detecting the occupancy of a spatial volume.
JP2001084494A (ja) 駐車台数計測装置および駐車台数計測方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application