BR112020003661A2 - sistema de conferência - Google Patents

sistema de conferência Download PDF

Info

Publication number
BR112020003661A2
BR112020003661A2 BR112020003661-7A BR112020003661A BR112020003661A2 BR 112020003661 A2 BR112020003661 A2 BR 112020003661A2 BR 112020003661 A BR112020003661 A BR 112020003661A BR 112020003661 A2 BR112020003661 A2 BR 112020003661A2
Authority
BR
Brazil
Prior art keywords
target
captured image
area
conference
person
Prior art date
Application number
BR112020003661-7A
Other languages
English (en)
Inventor
Taketo Kochi
Kenji Saito
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Publication of BR112020003661A2 publication Critical patent/BR112020003661A2/pt

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

  A presente invenção refere-se a um sistema de conferência, que inclui: um meio gerador de imagens para obter uma imagem capturada de uma área lateral de pré-passagem com relação a todas as portas dispostas paralelamente entre si; e um meio de conferência para executar um processo de conferência na imagem capturada da área lateral de pré-passagem para todas as portas, entre um alvo previamente registrado e um alvo incluído na imagem capturada. O meio de conferência executa o processo de conferência com base em um alvo na imagem capturada correspondente a uma das portas e a um alvo na imagem capturada correspondente à outra das portas.

Description

Relatório Descritivo da Patente de Invenção para "SISTE- MA DE CONFERÊNCIA".
CAMPO TÉCNICO
[0001] A presente invenção refere-se a um sistema de conferência e, em particular, a um sistema de conferência para executar conferên- cia em um alvo, que está prestes a passar por uma porta.
TÉCNICA ANTECEDENTE
[0002] Como um meio para limitar ou controlar pessoas que en- tram ou saem de um local específico, tal como um escritório ou um lo- cal de evento, um sistema de conferência é usado para executar con- ferência em uma pessoa que está prestes a passar, para checar se a pessoa é ou não uma pessoa registrada previamente. Em particular, uma vez que uma técnica de autenticação facial humana foi desenvol- vida recentemente, um sistema de autenticação facial humana de pas- sagem tem sido usado para executar autenticação de fase de uma imagem de face de uma pessoa capturada por uma câmera instalada em uma porta. Literatura de Patente 1: JP 2015-1790A
SUMÁRIO
[0003] Em um sistema de autenticação facial de passagem, há um caso no qual várias portas são instaladas adjacentes entre si, e faixas nas quais as pessoas se movimentam na direção das respectivas por- tas são proporcionadas adjacentes entre si. Nesse caso, em uma ima- gem na qual as pessoas se movimentando em uma faixa de uma porta é capturada, há um caso no qual uma pessoa se movimentando na faixa adjacente na direção da porta adjacente é também mostrada. Portanto, a pessoa se movimentando na faixa adjacente pode ser re- conhecida erroneamente como uma pessoa se movimentando na pró- pria faixa, o que pode impedir a conferência de uma pessoa passando pela própria porta proporcionada à frente da própria faixa. Portanto,
em uma situação na qual várias portas são instaladas, um reconheci- mento errôneo de uma pessoa se movimentando na direção de todas as portas deve ser eliminado.
[0004] Ainda mais, como a técnica relacionada com o sistema de autenticação facial humana de passagem, a técnica descrita na Litera- tura de Patente 1 é conhecida. A Literatura de Patente 1 apresenta um problema que a autenticação está completa quando uma pessoa está localizada longe da porta e a porta é aberta antes da pessoa atingir a porta. Para solucionar esse problema, na Literatura de Patente 1, a conferência é feita entre a imagem de face capturada de uma pessoa e uma imagem de face registrada, e, com base no tamanho da pessoa conferida na imagem de entrada, a aproximação da porta da pessoa é detectada. Além disso, na Literatura de Patente 1, tentou-se impedir o reconhecimento errôneo de uma pessoa se movimentando na direção de uma porta adjacente por estabelecimento de diferentes valores de referência de determinação para o tamanho de uma área de face, para as respectivas áreas de uma imagem capturada.
[0005] No entanto, a técnica descrita na Literatura de Patente 1 apenas usa uma imagem capturada por uma câmera instalada, cor- respondente a uma porta pela qual a pessoa está prestes a passar, e a aproximação da própria porta por uma pessoa é detectada com uso de um valor de referência de determinação para o tamanho de uma pessoa estabelecido para cada área da imagem capturada. Isso ainda provoca um problema que, quando a área de uma pessoa mostrada em uma imagem capturada não é adequada ou o valor de referência de determinação não é adequado, uma pessoa se movimentando na direção de outra porta é reconhecida erroneamente.
[0006] Ainda mais, um problema de reconhecimento errôneo de pessoas se movimentando na direção das portas pode ser provocado no caso no qual a conferência é feita em qualquer alvo, sem ser limita-
do ao caso no qual um alvo que está prestes a passar pela porta é uma pessoa.
[0007] Portanto, um objetivo da presente invenção é proporcionar um sistema de conferência capaz de solucionar o problema descrito acima, isto é, um problema de reconhecimento errôneo de um alvo que está prestes a passar por uma porta.
[0008] Um sistema de conferência, de acordo com um aspecto da presente invenção, inclui: um meio gerador de imagens para obter uma imagem capturada de uma área lateral de pré-passagem com relação a todas as portas dis- postas em paralelo entre si; e um meio de conferência para executar um processo de conferência na imagem capturada da área lateral de pré-passagem para todas as por- tas, entre um alvo previamente registrado e um alvo incluído na ima- gem capturada.
[0009] O meio de conferência é configurado para executar um pro- cesso de conferência com base em um alvo na imagem capturada cor- respondente a uma das portas e um alvo na imagem capturada cor- respondente à outra das portas.
[0010] Ainda mais, um aparelho de processamento de informa- ções, de acordo com um aspecto da presente invenção, inclui: um meio de conferência para executar um processo de conferência em uma imagem capturada de uma área lateral de pré-passagem com re- lação a todas as portas instaladas paralelamente entre si, entre um alvo previamente registrado e um alvo na imagem capturada.
[0011] O meio de conferência é configurado para executar o pro- cesso de conferência com base em um alvo da imagem capturada cor- respondente a uma das portas e a um alvo na imagem capturada cor- respondente à outra das portas.
[0012] Ainda mais, um programa, de acordo com um aspecto da presente invenção, é um programa para fazer com que um aparelho de processamento de informações execute: um meio de conferência para conduzir um processo de conferência em uma imagem capturada de uma área lateral de pré-passagem com re- lação a todas as portas instaladas paralelamente entre si, entre um alvo previamente registrado e um alvo na imagem capturada.
[0013] O meio de conferência é configurado para executar o pro- cesso de conferência com base em um alvo na imagem capturada cor- respondente a uma das portas e um alvo na imagem capturada cor- respondente à outra das portas.
[0014] Ainda mais, um método de conferência, de acordo com um aspecto da presente invenção, é um método incluindo a execução de um processo de conferência em uma imagem capturada de uma área lateral de pré-passagem com relação a todas as portas instaladas pa- ralelamente entre si, entre um alvo previamente registrado e um alvo na imagem capturada.
[0015] O processo de conferência é executado com base em um alvo na imagem capturada correspondente a uma das portas e um al- vo na imagem capturada correspondente à outra das portas.
[0016] Como a presente invenção é configurada como descrito acima, o reconhecimento errôneo de um alvo, que está prestes a pas- sar por uma porta, pode ser eliminado.
BREVE DESCRIÇÃO DOS DESENHOS
[0017] A Figura 1 ilustra um estado usado de um sistema de au- tenticação facial de acordo com uma primeira concretização exemplifi- cativa da presente invenção.
[0018] A Figura 2 é um diagrama de blocos ilustrando uma confi- guração do sistema de autenticação facial, de acordo com a primeira concretização exemplificativa da presente invenção.
[0019] A Figura 3 ilustra um estado de formação de imagens pelo sistema de autenticação facial descrito na Figura 1.
[0020] A Figura 4A ilustra uma imagem capturada no estado de formação de imagens da Figura 3 pelo sistema de autenticação facial descrito na Figura 1.
[0021] A Figura 4B ilustra uma imagem capturada no estado de formação de imagens da Figura 3 pelo sistema de autenticação facial descrito na Figura 1.
[0022] A Figura 5 ilustra um estado de formação de imagens pelo sistema de autenticação facial descrito na Figura 1.
[0023] A Figura 6A ilustra uma imagem capturada no estado de formação de imagens da Figura 5 pelo sistema de autenticação facial descrito na Figura 1.
[0024] A Figura 6B ilustra uma imagem capturada no estado de formação de imagens da Figura 5 pelo sistema de autenticação facial descrito na Figura 1.
[0025] A Figura 7 é um fluxograma ilustrando uma operação de processamento pelo sistema de autenticação facial descrito na Figura
1.
[0026] A Figura 8 ilustra um estado de formação de imagens por um sistema de autenticação facial, de acordo com uma segunda con- cretização da presente invenção.
[0027] A Figura 9A ilustra uma imagem capturada no estado de formação de imagens da Figura 8 pelo sistema de autenticação facial, de acordo com a segunda concretização exemplificativa da presente invenção.
[0028] A Figura 9B ilustra uma imagem capturada no estado de formação de imagens da Figura 8 pelo sistema de autenticação facial, de acordo com a segunda concretização exemplificativa da presente invenção.
[0029] A Figura 10 ilustra um estado de formação de imagens pelo sistema de autenticação facial, de acordo com uma segunda concreti- zação exemplificativa da presente invenção.
[0030] A Figura 11A ilustra uma imagem capturada no estado de formação de imagens da Figura 10 pelo sistema de autenticação faci- al, de acordo com a segunda concretização exemplificativa da presen- te invenção.
[0031] A Figura 11B ilustra uma imagem capturada no estado de formação de imagens da Figura 10 pelo sistema de autenticação faci- al, de acordo com a segunda concretização exemplificativa da presen- te invenção.
[0032] A Figura 12 é um fluxograma ilustrando uma operação de processamento pelo sistema de autenticação facial, de acordo com a segunda concretização exemplificativa da presente invenção.
[0033] A Figura 13 é um diagrama de blocos ilustrando uma confi- guração do sistema de autenticação facial, de acordo com uma quarta concretização exemplificativa da presente invenção.
[0034] A Figura 14 ilustra um estado de formação de imagens pelo sistema de autenticação facial, de acordo com a quarta concretização da presente invenção.
[0035] A Figura 15A ilustra uma imagem capturada no estado de formação de imagens da Figura 12 pelo sistema de autenticação faci- al, de acordo com a quarta concretização exemplificativa da presente invenção.
[0036] A Figura 15B ilustra uma imagem capturada no estado de formação de imagens da Figura 12 pelo sistema de autenticação faci- al, de acordo com a quarta concretização exemplificativa da presente invenção.
[0037] A Figura 16A ilustra um estado de processamento de ima- gens pelo sistema de conferência, de acordo com a quarta concretiza- ção exemplificativa da presente invenção.
[0038] A Figura 16B ilustra um estado de processamento de ima- gens pelo sistema de conferência, de acordo com a quarta concretiza- ção exemplificativa da presente invenção.
[0039] A Figura 17 é um diagrama de blocos ilustrando uma confi- guração de um sistema de conferência, de acordo com uma quinta concretização exemplificativa da presente invenção.
[0040] A Figura 18 é um diagrama de blocos ilustrando uma confi- guração de um aparelho de processamento de informações, de acordo com uma quinta concretização exemplificativa da presente invenção.
CONCRETIZAÇÕES EXEMPLIFICATIVAS Primeira concretização exemplificativa
[0041] Uma primeira concretização exemplificativa da presente invenção vai ser descrita com referência às Figuras 1 a 7. A Figura 1 ilustra um estado usado de um sistema de autenticação facial. A Figu- ra 2 ilustra uma configuração de um sistema de autenticação facial. As Figuras 3 a 7 são diagramas para explicar a operação de processa- mento do sistema de autenticação facial. Configuração total
[0042] Um sistema de autenticação facial 10 (sistema de confe- rência) da presente invenção é um sistema a ser usado para limitar e controlar a entrada e a saída de pessoas (alvos) em um local específi- co, tal como um escritório ou um local de evento. Por exemplo, um dispositivo gerador de imagens constituindo o sistema de autenticação facial 10 é instalado em cada porta, que é aberta e fechada quando uma pessoa entra ou sai, nas vizinhanças do local instalado da porta.
[0043] No exemplo ilustrado na Figura 1, três portas G1, G2 e G3 são dispostas adjacentes paralelamente entre si, e são configuradas de modo que as pessoas passem em uma direção mostrada pelas se- tas do lado direito na Figura 1 na direção das respectivas portas G1, G2 e G3. Portanto, a área do lado direito na Figura 1, com relação a todas as portas G1, G2 e G3, é uma área antes de uma pessoa passar pela porta (área lateral de pré-passagem). Nas áreas laterais de pré- passagem das respectivas portas G1, G2 e G3, as faixas R1, R2 e R3, nas quais as pessoas, que estão prestes a passar pelas portas G1, G2 e G3, se movimentam em linhas, são localizadas paralelamente entre si correspondente às G1, G2 e G3, respectivamente. Notar que as respectivas faixas R1, R2 e R3 podem ser ou não divididas com al- guns elementos.
[0044] No estado ilustrado na Figura 1, os dispositivos geradores de imagens C1, C2 e C3, que constituem o sistema de autenticação facial 10 na presente concretização, são instalados nas vizinhanças das portas G1, G2 e G3 correspondentes, respectivamente, nos seus lados direitos como visto das pessoas se movimentando na direção das respectivas portas G1, G2 e G3. No entanto, as posições de insta- lação dos dispositivos geradores de imagens não são limitadas às po- sições ilustra das na Figura 1. Podem ser instalados em quaisquer po- sições, tal como no lado esquerdo como visto na direção das portas ou acima delas. Notar que o sistema de autenticação facial 10 tem tam- bém dispositivos de exibição nas vizinhanças dos dispositivos gerado- res de imagens C1, C2 e C3.
[0045] No sistema de autenticação facial 10, na porta G1, por exemplo, uma imagem de uma pessoa se movimentando na direção da porta G1 é capturada pelo dispositivo gerador de imagens C1 insta- lado. Depois, de uma imagem de face da pessoa mostrada na imagem capturada, a conferência é feita para checar se ou não a pessoa é uma pessoa previamente registrada. Quando a conferência é bem- sucedida, um processo de abertura da porta G1 é feito de modo que a permitir que a pessoa passe por ela. Notar que nas outras portas G2 e G3, os sistemas de autenticação facial e os dispositivos geradores de imagens C2 e C3 são também instalados, respectivamente, e a confe-
rência é feita em pessoas se movimentando na direção das respecti- vas portas G2 e G3. A configuração do sistema de autenticação facial 10 vai ser descrita em detalhes abaixo. Notar que ainda que a descri- ção apresentada principalmente abaixo seja do sistema de autentica- ção facial 10 proporcionado correspondente à porta G1, um sistema de autenticação facial proporcionado correspondente a outra porta G2 ou G3 tem a mesma configuração. Configuração do sistema de autenticação facial
[0046] O sistema de autenticação facial 10 da presente concreti- zação é um aparelho de processamento de informações, que inclui uma unidade aritmética e uma unidade de armazenamento, formadas integralmente com o dispositivo gerador de imagens C1 (câmera) e um dispositivo de exibição D1 (display). Dito de outro modo, um aparelho de processamento de informações, tendo uma unidade aritmética, que executa o processamento de autenticação facial, e uma unidade de armazenamento, e um dispositivo de exibição D1 são montados no dispositivo gerador de imagens C1. No entanto, o sistema de autenti- cação facial 10 não é necessariamente limitado àquele formado inte- gralmente com o dispositivo gerador de imagens C1 e o dispositivo de exibição D1. Por exemplo, o dispositivo gerador de imagens C1, o dis- positivo de exibição D1, e o aparelho de processamento de informa- ções, que processa as imagens capturadas, podem ser dispositivos diferentes e instalados em locais diferentes.
[0047] Especificamente, como ilustrado na Figura 2, o sistema de autenticação facial 10 inclui o dispositivo gerador de imagens C1 e o dispositivo de exibição D1, e uma unidade de comunicação 16, e tam- bém inclui uma unidade de extração de alvo 11, construída por execu- ção de um programa pela unidade aritmética, uma unidade de deter- minação de alvo 12, uma unidade de conferência 13 e uma unidade de controle de porta 14. O sistema de autenticação facial 10 também in-
clui uma unidade de armazenamento de dados de conferência 17, que é construída na unidade de armazenamento.
[0048] O dispositivo gerador de imagens C1 (meio gerador de imagens) é dotado com uma câmera para obter uma imagem captura- da de uma área lateral de pré-passagem com relação à porta G1, isto é, em uma área em frente da porta G1 da faixa R1 correspondente, a uma velocidade de quadro predeterminada, e uma unidade de controle de câmera. Como ilustrado na Figura 3, a área de captura do dispositi- vo gerador de imagens C1 é uma extensão entre as linhas C1a, por exemplo. Nesse caso, a área de captura do dispositivo gerador de imagens C1 é estabelecida de modo que uma pessoa P10, movimen- tando-se na faixa R1 (faixa própria), correspondente à porta G1 na qual o dispositivo gerador de imagens C1 está instalado, fique locali- zada em uma área central na direção horizontal entre as linhas C1b da área de captura. Notar que a imagem capturada é ajustada para ser focalizada grosseiramente em uma extensão de uma distância prees- tabelecida na direção de aproximação com relação ao dispositivo ge- rador de imagens C1, isto é, a uma distância de uma linha L1 a uma linha L2 ilustrada na Figura 3, por exemplo.
[0049] Uma vez que a área de captura do dispositivo gerador de imagens C1 é estabelecida como descrito acima, em uma área de ex- tremidade na direção horizontal relativa à área central, isto é, uma área entre a linha C1a e a linha C1b da área de captura, uma pessoa P20, movimentando-se na faixa R2, correspondente à porta G2 adja- cente, pode ser mostrada no estado ilustrado na Figura 3. Ainda mais, no estado ilustrado na Figura 5, uma pessoa P12 localizada na própria faixa R1, correspondente à própria porta G1 na qual o dispositivo ge- rador de imagens C1 está instalado, pode ser mostrada em uma área de extremidade. Mesmo se esse estado for provocado, o sistema de autenticação facial 10 da presente invenção é configurado para excluir a pessoa P20, que está prestes a passar pela porta G2 adjacente do alvo do processo de conferência, e reconhecer adequadamente a pes- soa P12, que está prestes a passar pela própria porta G1, para, desse modo, permitir a determinação de propriedade de passagem de porta.
[0050] A unidade de extração de alvo 11 obtém uma imagem cap- turada do dispositivo gerador de imagens C1 e extrai uma pessoa, que é um alvo de processamento da imagem capturada. A extração de uma pessoa é feita, por exemplo, por extração de um objeto móvel, ou execução de determinação da posição de uma parte de forma caracte- rística ou da posição de uma cor com relação à forma total ou imagem total. Nesse momento, a unidade de extração de alvo 11 também iden- tifica uma área na imagem capturada, na qual a pessoa extraída está localizada. Em particular, na presente concretização, identifica-se se a pessoa extraída está localizada em uma área central ou em áreas de extremidade à esquerda ou à direita na direção horizontal da imagem capturada. Por exemplo, no estado da Figura 3, em uma imagem cap- turada pelo dispositivo gerador de imagens C1 correspondente à porta G1, uma pessoa P10, localizada na área central como ilustrado na Fi- gura 4A, é extraída, e uma pessoa P20, localizada na área de extremi- dade à direita, é detectada.
[0051] A unidade de determinação de alvo 12 (meio de conferên- cia) determina se ou não as pessoas P10 e P20, extraídas pela unida- de de extração de alvo 11, são pessoas se movimentando na direção da própria porta G1. Nesse momento, quando a pessoa P20 está loca- lizada em uma área de extremidade (primeira área), a unidade de de- terminação de alvo 12 determina se ou não a pessoa P20 está se mo- vimentando na direção da própria porta G1, com base em uma ima- gem capturada, que é capturada pelo dispositivo gerador de imagens C2 do sistema de autenticação facial 20 correspondente à outra porta G2. Nesse exemplo, uma vez que a pessoa P20 é mostrada em uma área de extremidade no lado direito na imagem capturada correspon- dente à própria porta G1 ilustrada na Figura 4A, uma imagem captura- da, que é capturada pelo dispositivo gerador de imagens C2 da porta G2, adjacente ao lado direito para a porta G1, é obtida. Especificamen- te, a unidade de determinação de alvo 12 se comunica com o sistema de autenticação facial 20 da porta G2 adjacente pela unidade de co- municação 16, e obtém uma imagem capturada na porta G2 em um momento que é igual àquele quando a imagem capturada é capturada na porta G1 (por exemplo, ao mesmo tempo). Notar que a relação po- sicional entre os sistemas de autenticação facial (dispositivos gerado- res de imagens C1, C2 e C3), correspondentes às portas G1, G2 e G3, respectivamente, é considerada como sendo registrada de antemão nos respectivos sistemas.
[0052] Depois, a unidade de determinação de alvo 12 checa se ou não a pessoa P20, localizada em uma área de extremidade da ima- gem capturada da própria porta G1, é mostrada na área central (se- gunda área) da imagem capturada da porta G2 adjacente. Na presente concretização, quando qualquer pessoa é mostrada na área central da imagem capturada da porta G2 adjacente, essa pessoa é determinada como sendo a pessoa P20 localizada na área de extremidade da ima- gem capturada da própria porta G1. Nesse caso, no sistema de auten- ticação facial 10 da própria porta G1, determina-se excluir a pessoa P20, localizada na área de extremidade da imagem capturada do alvo de conferência. Notar que a área de extremidade (primeira área) da imagem capturada da própria porta G1 e a área central (segunda área) da imagem capturada da porta G2 adjacente são áreas diferentes uma da outra nas imagens capturadas, mas são um espaço sobreposto no espaço real.
[0053] Por exemplo, no estado da Figura 3, a pessoa P20, locali- zada na área de extremidade da imagem capturada da própria porta
G1 ilustrada na Figura 4A, está localizada na área central da imagem capturada da porta G2 adjacente ilustrada na Figura 4B. Portanto, a pessoa P20 é excluída do alvo de conferência do sistema de autenti- cação facial 10 da própria porta G1. Isso significa que no sistema de autenticação facial 10 da própria porta G1, apenas a pessoa P10, loca- lizada na área central da imagem capturada, é determinada como sendo um alvo de conferência. Ainda mais, no estado da Figura 5, a pessoa P12, localizada na área de extremidade da imagem capturada da própria porta G1 ilustrada na Figura 6A, não está localizada na área central da imagem capturada da porta G2 adjacente ilustrada na Figu- ra 6B. Portanto, a pessoa P12 é tratada como um alvo de conferência do sistema de autenticação facial 10 da própria porta G1. Isso significa que no sistema de autenticação facial 10 da própria porta G1, a pes- soa P10, localizada na área central da imagem capturada, e a pessoa P12, localizada na área de extremidade, são determinadas como sen- do alvos de conferência.
[0054] Notar que a unidade de extração de alvo 11 pode determi- nar se ou não uma pessoa é um alvo de conferência da própria porta por um método diferente daquele descrito acima. Como um exemplo, quando uma pessoa é localizada na área de extremidade (primeira área) da imagem capturada, a unidade de determinação de alvo 12 pode perguntar ao sistema de autenticação facial 20, correspondente à outra porta G2, se ou não a pessoa é uma pessoa da própria porta. Especificamente, no exemplo das Figuras 3, 4A e 4B, a pessoa P20 é mostrada na área de extremidade direita da imagem capturada, cor- respondente à própria porta G1 ilustrada na Figura 4A. Portanto, a unidade de determinação de alvo 12 pergunta ao sistema de autenti- cação facial 20 da porta G2, adjacente ao lado direito da porta G1, se ou não a pessoa P20 é mostrada na área central da porta G2 adjacen- te. De modo similar, no exemplo das Figuras 5, 6A e 6B, a pessoa P12 é mostrada na área de extremidade direita da imagem capturada, cor- respondente à própria porta G1 ilustrada na Figura 6A. Portanto, a unidade de determinação de alvo 12 pergunta ao sistema de autenti- cação facial 20 da porta G2 adjacente, no lado direito para a porta G1, se ou não a pessoa P12 é mostrada na área central da porta G2 adja- cente. Nesse momento, a unidade de determinação de alvo 12 se co- munica com o sistema de autenticação facial 20 da porta G2 adjacente pela unidade de comunicação 16 e pergunta se ou não uma pessoa é mostrada na área central de uma imagem capturada, que é capturada na porta G2, em um momento que é idêntico àquele quando a imagem capturada é capturada na porta G1 (por exemplo, ao mesmo tempo).
[0055] Depois, ao receber a pergunta, o sistema de autenticação facial 20 da porta G2 adjacente checa se ou não qualquer pessoa é mostrada na área central (segunda área) da própria imagem captura- da, e notifica a unidade de determinação de alvo 12 do sistema de au- tenticação facial 10 da porta G1, da qual a pergunta é feita, do resulta- do. Especificamente, o sistema de autenticação facial 20 da porta G2 adjacente tem uma função similar àquela da unidade de extração de alvo 11 descrita acima. O sistema de autenticação facial 20 obtém uma imagem capturada do dispositivo gerador de imagens C20, extrai uma pessoa, que é um alvo de processamento da imagem capturada, e identifica uma área na imagem capturada na qual a pessoa extraída está localizada. Depois, o sistema de autenticação facial 20 da porta G2 adjacente notifica o sistema de autenticação facial 10 da porta G1 se ou não uma pessoa é mostrada na área central, como uma respos- ta para a pergunta.
[0056] Ao receber uma notificação da resposta para a pergunta do sistema de autenticação facial da porta G2 adjacente, a unidade de determinação de alvo 12 do sistema de autenticação facial 10 da porta G1 determina como descrito acima, dependendo da resposta. Ao re-
ceber uma notificação indicando que uma pessoa é mostrada na área central da imagem capturada da porta G2 adjacente (exemplo das Fi- guras 3, 4A e 4B), a unidade de determinação de alvo 12 determina que essa pessoa é a pessoa P20, localizada na área de extremidade da imagem capturada da própria porta G1. Nesse caso, no sistema de autenticação facial 10 da própria porta G1, determina-se excluir a pes- soa P20, localizada na área de extremidade da imagem capturada do alvo de conferência. Por outro lado, ao receber uma notificação indi- cando que nenhuma pessoa é mostrada na área central da imagem capturada da porta G2 adjacente (exemplo das Figuras 5, 6A e 6B), a unidade de determinação de alvo 12 determina considerar a pessoa P12, localizada na área de extremidade da imagem capturada da pró- pria porta G1, como um alvo de conferência.
[0057] Por determinação de se ou não uma pessoa é um alvo de conferência por meio do método descrito acima, um processo de ex- tração de pessoa é executado em ambos os sistemas de autenticação facial 10 e 20. Portanto, o processamento não é concentrado em um sistema de autenticação facial, e também a transferência de imagens não é feita. Consequentemente, uma carga de processamento em um sistema de autenticação facial 10 pode ser eliminada, e um grau de comunicação, entre os sistemas de autenticação facial 10 e 20, tam- bém pode ser eliminado. Desse modo, uma determinação rápida pode ser feita.
[0058] A unidade de conferência 13 (meio de conferência) executa um processo de conferência na pessoa determinada como sendo um alvo de conferência na imagem capturada da própria porta G1 pela unidade de determinação de alvo 12. Em outras palavras, a unidade de conferência 13 a unidade de conferência 13 não executa um pro- cesso de conferência na pessoa excluída do alvo de conferência pela unidade de determinação de alvo 12, ainda que a pessoa seja mostra-
da na imagem capturada da própria porta G1. Nesse caso, um proces- so de conferência é conduzido como descrito acima, por exemplo. Primeiramente, uma área de face de uma pessoa, que é um alvo de um processo de conferência, é identificada, e um grau de característi- ca necessário para conferência é gerado da área de face. Depois, uma contagem de conferência, tal como similaridade entre a característica gerada e o grau de característica da pessoa, que foi registrada na uni- dade de armazenamento de dados de conferência 17, é calculada e se determina se ou não a contagem de conferência à superior a um limi- ar. Quando a contagem de conferência é superior ao limiar, determina- se que a conferência foi bem-sucedida e a pessoa, que está prestes a passar pela porta G1, é a pessoa que foi registrada. Nesse momento, o grau de característica da pessoa a ser detectada para conferência pode ser um grau de característica usado em uma técnica de confe- rência de face existente, e pode ser um grau de característica calcula- do por qualquer método. Também, como o método de conferência, qualquer método pode ser usado.
[0059] A unidade de controle de porta 14 determina, primeiramen- te, a propriedade de passagem da pessoa com relação à porta G1, com base no resultado de conferência pela unidade de conferência 13. Especificamente, determina-se que a pessoa, cuja conferência pela unidade de conferência 13 foi bem-sucedida, é deixada passar. A uni- dade de controle de porta 14 tem também a função de exibir o resulta- do de conferência, isto é, o sucesso ou falha de conferência, no dispo- sitivo de exibição D1. Além do mais, a unidade de controle de porta 14 tem uma função de controle de porta para abrir e fechar a porta G1, e executa o controle para abrir a porta G1 para a pessoa determinada como sendo permitida a passar por ela.
[0060] Notar que o dispositivo de exibição D1 é instalado de modo que a superfície de exibição fique voltada para a área lateral de pré-
passagem da porta G1, de modo a ficar visível para uma pessoa que está prestes a passar pela porta G1. No entanto, o dispositivo de exi- bição D1 não é necessariamente proporcionado. Operação
[0061] A seguir, a operação do sistema de autenticação facial 10, descrito acima, vai ser descrita com referência ao fluxograma da Figu- ra 7. Nesse caso, a operação do sistema de autenticação facial 10, correspondente à porta G1, vai ser descrita. A descrição vai ser apre- sentada no caso em que o estado de captura pelo dispositivo gerador de imagens C1 é como ilustrado nas Figuras 3 a 6B, como um exem- plo.
[0062] O dispositivo de exibição C1, correspondente à porta G1, captura imagens da área lateral de pré-passagem da porta G1. De- pois, o sistema de autenticação facial 10 executa normalmente o pro- cessamento, como descrito abaixo, nas imagens capturadas.
[0063] Primeiramente, a unidade de extração de alvo 11 extrai uma pessoa (alvo) a ser processada de uma imagem capturada (etapa S1). Depois, quando a pessoa P20 é localizada em uma área de ex- tremidade da imagem capturada, a unidade de determinação de alvo 12 obtém uma imagem capturada, que é capturada pelo dispositivo de exibição D2 do sistema de autenticação facial 20 correspondente à porta G2 adjacente (etapa S2). Nesse momento, uma imagem captu- rada da porta G2 adjacente, que é capturada no mesmo momento em que a imagem capturada da própria porta G1 é obtida.
[0064] Depois, a unidade de determinação de alvo 12 checa se ou não a pessoa P20, localizada na área de extremidade da imagem cap- turada da própria porta G1 é mostrada na área central da imagem cap- turada da porta G2 adjacente (etapa S3). Quando qualquer pessoa é mostrada na área central da imagem capturada da porta G2 adjacente, a unidade de determinação de alvo 12 determina que essa pessoa se-
ja a pessoa P20, localizada na área de extremidade da imagem captu- rada da própria porta G1. Nesse caso, no sistema de autenticação fa- cial 10 da própria porta G1, determina-se excluir a pessoa P20, locali- zada na área de extremidade, do alvo de conferência.
[0065] Por exemplo, no estado da Figura 3, a pessoa P20, locali- zada em uma área de extremidade da imagem capturada da própria porta G1 ilustrada na Figura 4A, é localizada na área central da ima- gem capturada da porta G2 adjacente ilustrada na Figura 4B. Portanto, a pessoa P20 é excluída do alvo de conferência do sistema de autenti- cação facial 10 da própria porta G1 (Sim na etapa S3). Ainda mais, no estado da Figura 5, a pessoa P12, localizada em uma área de extre- midade da imagem capturada da própria porta G1 ilustrada na Figura 6A, não está localizada na área central da imagem capturada da porta G2 adjacente ilustrada na Figura 6B. Portanto, a pessoa P12 não é excluída do alvo de conferência pelo sistema de autenticação facial 10 da própria porta G1 e é considerada como um alvo de conferência (Não na etapa S3).
[0066] Depois, a unidade de conferência 13 executa um processo de conferência na pessoa determinada para ser um alvo de conferên- cia na imagem capturada da própria porta G1 pela unidade de deter- minação de alvo 12 (etapa S4). No exemplo das Figuras 3, 4A e 4B, a unidade de conferência 13 inicia o processo de conferência apenas para a pessoa P10, e no exemplo das Figuras 5, 6A e 6B, a unidade de conferência 13 inicia o processo de conferência para a pessoa P10 e a pessoa P12. No processo de conferência, primeiramente, um grau de característica necessário para conferência é detectado da área de face de uma pessoa que é um alvo do processo de conferência, e o grau de característica é conferido com o grau de característica da pes- soa que foi registrada na unidade de armazenamento de dados de conferência 17, com o que uma contagem de conferência é obtida.
Depois, determina-se se ou não a contagem de conferência excede um limiar.
[0067] Em consequência do processo de conferência pela unidade de conferência, quando a conferência da pessoa, que está prestes a passar, tiver sido bem-sucedida (Sim na etapa S5), a unidade de con- trole de porta 14 permite a passagem da pessoa com relação à porta G1 e executa o controle para abrir a porta G1 (etapa S6).
[0068] Como descrito acima, de acordo com o sistema de autenti- cação facial 10 da presente concretização, é possível impedir um pro- cesso de conferência com relação a uma pessoa P20, que está pres- tes a passar pela porta G2 adjacente, e executar um processo de con- ferência adequadamente nas pessoas P10 e P12, que estão prestes a passar pela própria porta G1. Por exemplo, no exemplo das Figuras 3, 4A e 4B, um processo de conferência é executado na pessoa P10, que está prestes a passar pela própria porta G1, mas não é executado na pessoa P20, que está prestes a passar pela porta G2 adjacente. Ainda mais, no exemplo das Figuras 5, 6A e 6B, mesmo para a pessoa P12 mostrada na área de extremidade da imagem capturada, desde que a pessoa P12 esteja prestes a passar pela própria porta G1, um proces- so de conferência é executado adequadamente. Por conseguinte, o reconhecimento errôneo de uma pessoa, que está prestes a passar por outra porta, pode ser eliminado.
[0069] Notar que mesmo que uma imagem capturada da própria porta G1 seja comparada com uma imagem capturada da porta G2 adjacente na descrição acima, é também possível compará-la com uma imagem capturada de outra porta (por exemplo, a porta G3), sem ser limitado a uma imagem capturada da porta G2 adjacente. Além do mais, ainda que uma área de extremidade de uma imagem capturada da própria porta G1 seja comparada com a área central da porta G2 adjacente, as áreas a serem comparadas umas com as outras não são limitadas àquelas descritas acima. Quaisquer áreas entre as imagens capturadas de diferentes portas podem ser comparadas.
[0070] Além do mais, ainda que o sistema de autenticação facial 10, correspondente à própria porta G1, obtenha uma imagem captura- da da porta G2 adjacente e determine se ou não uma pessoa é um alvo de conferência na descrição acima, esse processo de determina- ção pode ser executado pelo sistema de autenticação facial da porta G2 adjacente. Isto é, o sistema de autenticação facial 10 da própria porta G1 pode dotar o sistema de autenticação facial 20 da porta G2 adjacente com uma imagem capturada, e o sistema de autenticação facial 20 da porta G2 adjacente pode retornar o resultado da determi- nação para o sistema de autenticação facial 10 da própria porta G1. Ainda mais, esse processo de determinação pode ser executado por outro aparelho de processamento de informações.
[0071] Além do mais, o sistema de autenticação facial 10 pode perguntar ao sistema de autenticação facial 20 da porta G2 adjacente se ou não uma pessoa é mostrada na área central da imagem captu- rada da porta G2 adjacente como descrito acima, e determinar se ou não a pessoa é um alvo de conferência, dependendo da resposta. Nesse caso, quando uma determinada notificação indicar que uma pessoa é mostrada na área central da imagem capturada da porta G2 adjacente, determina-se excluir a pessoa localizada na área de extre- midade da imagem capturada da própria porta G1 do alvo de confe- rência. Por outro lado, quando uma determinada notificação indicar que nenhuma pessoa é mostrada na área central da imagem captura- da da porta G2 adjacente, determina-se considerar a pessoa, localiza- da na área de extremidade da imagem capturada da própria porta G1, como um alvo de conferência.
[0072] Ainda mais, mesmo que a descrição tenha sido apresenta- da no caso no qual um alvo, que está prestes a passar pela porta G1,
é uma pessoa, como um exemplo, não é limitada a uma pessoa, mas pode ser qualquer objeto. Por exemplo, um objeto, tal como uma bagagem, é também aceitável. Segunda concretização exemplificativa
[0073] Uma segunda concretização exemplificativa da presente invenção vai ser descrita com referência às Figuras 8 a 12. As Figuras 8 a 12 são diagramas para explicar uma operação de processamento do sistema de autenticação facial. Em particular, a Figura 12 é um flu- xograma ilustrando uma operação do sistema de autenticação facial.
[0074] Um sistema de autenticação facial 10 da presente concreti- zação tem uma configuração similar àquela do sistema de autentica- ção facial da primeira concretização exemplificativa descrita acima. No entanto, um processo de determinação se ou não considerar uma pes- soa, mostrada em uma imagem capturada da própria porta G1, como um alvo de conferência é diferente. Uma configuração diferente daque- la da primeira concretização exemplificativa vai ser basicamente des- crita em detalhes abaixo.
[0075] Na presente concretização, quando a unidade de extração de alvo 11 extrai a pessoa P20 de uma área de extremidade de uma imagem capturada da própria porta G1 (etapa S11), a unidade de de- terminação de alvo 12 determina se ou não uma pessoa, igual à pes- soa P20, está localizada na área central de uma imagem capturada de outra porta G2. Nesse exemplo das Figuras 8 e 10, uma vez que a pessoa P20 é mostrada na área de extremidade direita, na imagem capturada correspondente à própria porta G1, a unidade de determi- nação de alvo 12 obtém uma imagem capturada, que é capturada pelo dispositivo gerador de imagens C2 da porta G2, adjacente ao lado di- reito para a porta G1 (etapa S12). Especificamente, a unidade de de- terminação de alvo 12 se comunica com o sistema de autenticação facial 20 da porta G2 adjacente pela unidade de comunicação 16, e obtém uma imagem capturada, que é capturada na porta G2 no mes- mo momento da imagem capturada, que é capturada na porta G1 (por exemplo, ao mesmo tempo). Notar que a relação posicional entre os sistemas de autenticação facial (dispositivos geradores de imagens C1, C2 e C3), correspondentes às portas G1, G2 e G3, respectivamen- te, é considerada como sendo registrada de antemão nos respectivos sistemas.
[0076] Depois, a unidade de determinação de alvo 12 determina a similaridade entre a pessoa P20, localizada na área de extremidade da imagem capturada da própria porta G1, e a pessoa P20, localizada na área central (segunda área) da imagem capturada da porta G2 adja- cente. Na presente concretização, primeiramente, uma área de face de cada pessoa é especifica, e um grau de característica necessário para conferência é extraído da área de face (etapa S13). Depois, dos valo- res de características de ambas as pessoas, determina-se se ou não ambas as pessoas são a mesma pessoa (etapa S14). Notar que o processo de determinação se ou não as pessoas são as mesmas pode ser um processo teno uma precisão relativamente baixa, em compara- ção com o processo de conferência descrito abaixo. Por exemplo, é possível detectar apenas um grau de característica de uma parte de uma pessoa, ou detectar gênero ou idade do valor de característica, para, desse modo, determinar a similaridade dessas informações. No entanto, qualquer processo pode ser usado como um processo de de- terminação da similaridade das pessoas.
[0077] Depois, quando se determina que a mesma pessoa que a pessoa P20, localizada em uma área de extremidade da imagem cap- turada da própria porta G1, está localizada na área central da imagem capturada da porta G2 adjacente, a unidade de determinação de alvo 12 determina que a pessoa P20 é uma pessoa se movimentando na direção da porta G2 adjacente (Sim na etapa S15). Nesse caso, no sistema de autenticação facial 10 da própria porta G1, determina-se excluir a pessoa P20, localizada na área de extremidade do alvo de conferência. Por outro lado, quando se determina que a mesma pes- soa que a pessoa P12, localizada em uma área de extremidade da imagem capturada da própria porta G1, não está localizada na área central da imagem capturada da porta G2 adjacente, a unidade de de- terminação de alvo 12 determina que a pessoa P12 é uma pessoa se movimentando na direção da própria porta G1 (Não na etapa S15). Nesse caso, no sistema de autenticação facial 10 da própria porta G1, determina-se que a pessoa P12, localizada na área de extremidade, é um alvo de conferência. Notar que a área de extremidade (primeira área) da imagem capturada da própria porta G1 e a área central (se- gunda área) da imagem capturada da porta G2 adjacente são áreas diferentes uma da outra, quando as imagens capturadas são compa- radas uma com a outra, mas são áreas se sobrepondo uma com a ou- tra no espaço real.
[0078] Por exemplo, no estado da Figura 8, a pessoa P20, locali- zada em uma área de extremidade da imagem capturada da própria porta G1 ilustrada na Figura 9A, está localizada na área central da imagem capturada da porta G2 adjacente ilustrada na Figura 9B. Por- tanto, a pessoa P20 é excluída do alvo de conferência do sistema de autenticação facial 10 da própria porta G1. Isso significa que no siste- ma de autenticação facial 10 da própria porta G1, apenas a pessoa P10, localizada na área central da imagem capturada, é determinada como sendo um alvo de conferência. Ainda mais, no estado da Figura 10, uma pessoa, que é a mesma pessoa P12 localizada na área de extremidade da imagem capturada da própria porta G1 ilustrada na Figura 11A, não está localizada na área central da imagem capturada da porta G2 adjacente ilustrada na Figura 11B. Portanto, a pessoa P12 é considerada como um alvo de conferência do sistema de autentica-
ção facial 10 da própria porta G1. Isso significa que no sistema de au- tenticação facial 10 da própria porta G1, a pessoa P10, localizada na área central, e a pessoa P12, localizada na área de extremidade da imagem capturada, são determinadas como alvos de conferência.
[0079] A unidade de conferência 13 (meio de conferência) executa um processo de conferência na pessoa determinada como sendo um alvo de conferência na imagem capturada da própria porta G1 pela unidade de determinação de alvo 12 (etapa S16). Em outras palavras, a unidade de conferência 13 não executa um processo de conferência na pessoa excluída do alvo de conferência pela unidade de determina- ção de alvo 12, ainda que a pessoa seja mostrada na imagem captu- rada da própria porta G1. Nesse caso, um processo de conferência é executado como descrito abaixo, por exemplo. Primeiramente, a área de face de uma pessoa, que é um alvo do processo de conferência, é identificada, e um valor de característica necessário para conferência é gerado da área de face. Depois, uma contagem de conferência, tal como uma similaridade entre o grau de característica gerado e o grau de característica da pessoa que foi registrada na unidade de armaze- namento de dados de conferência 17, é calculada, e se determina se ou não a contagem de conferência é superior a um limiar. Quando a contagem de conferência é superior o limiar, determina-se que a con- ferência foi bem-sucedida e que a pessoa que está prestes a passar pela porta G1 é a pessoa que foi registrada. Notar que qualquer méto- do pode ser usado como o método de conferência.
[0080] A unidade de controle de porta 14 determina a propriedade de passagem da pessoa com relação à porta G1, com base no resul- tado de conferência pela unidade de conferência 13. Especificamente, a unidade de controle de porta 14 determina que a pessoa, cuja confe- rência pela unidade de conferência 13 foi bem-sucedida, seja deixada passar (etapa S17), e executa o controle para abrir a porta G1 (etapa
S18).
[0081] Como descrito acima, no sistema de autenticação facial da presente concretização, por extração e comparação de graus de ca- racterísticas de pessoas em imagens capturadas das portas, é possí- vel determinar se ou não o mesmo alvo é mostrado em imagens captu- radas de outras portas de uma forma mais confiável. Depois, é possí- vel excluir o alvo mostrado em uma maneira sobreposta para uma de- terminada porta e para outra porta do processo de conferência, e eli- minar o reconhecimento errôneo de um alvo, que está prestes a pas- sar por uma porta. Além do mais, é possível usar os graus de caracte- rísticas dos alvos extraídos para determinar a sobreposição dos alvos, para o processo de conferência. Isso aumenta eficiência do processo.
[0082] Notar que ainda que a descrição tenha sido dada para o caso no qual um alvo, que está prestes a passar pela porta G1, é, por exemplo, uma pessoa, não é limitada a uma pessoa, mas pode ser qualquer objeto. Por exemplo, um objeto, tal como uma bagagem, é também aceitável. Terceira concretização exemplificativa
[0083] A seguir, uma terceira concretização exemplificativa da pre- sente invenção vai ser descrita. No sistema de autenticação facial 10 da presente concretização, basicamente, determina-se se ou não uma pessoa, mostrada em uma área de extremidade de uma imagem cap- turada, é uma pessoa se movimentando da direção da própria porta G1, similar à primeira concretização exemplificativa descrita acima. Isto é, se for determinado se ou não uma pessoa, mostrada em uma área de extremidade de uma imagem capturada da própria porta G1, é uma pessoa se movimentando na direção da própria porta G1, depen- dendo se ou não a pessoa é mostrada na área central de uma imagem capturada, que é capturada pelo sistema de autenticação facial 20, correspondente à outra porta G2. No entanto, na presente concretiza-
ção, o processo de determinação difere como descrito acima. A dife- rente configuração daquela da primeira concretização exemplificativa vai ser descrita basicamente em detalhes abaixo.
[0084] Primeiramente, a unidade de extração de alvo 11 da pre- sente concretização obtém uma imagem capturada do dispositivo ge- rador de imagens C1 e extrai uma pessoa, que é um alvo de proces- samento da imagem capturada. Nesse momento, a unidade de extra- ção de alvo 11 também identifica uma área na imagem capturada, na qual a pessoa extraída está localizada. Depois, a unidade de extração de alvo 11 da presente concretização determina se ou não a caracte- rística, que é informação de determinação da pessoa mostrada na área de extremidade, excede um valor de referência, e, dependendo do resultado da determinação, executa um processo de se ou não a pessoa é uma pessoa se movimentando para a própria porta G1.
[0085] Como um exemplo, a unidade de extração de alvo 11 ex- trai, primeiro, a área de face de uma pessoa localizada em uma área de extremidade de uma imagem capturada. A extração da área de fa- ce de uma pessoa é feita por determinação da posição, cor e asseme- lhados com relação à toda a imagem de uma pessoa em movimento. Depois, a unidade de extração de alvo 11 detecta a característica da pessoa, que é a informação de determinação, da área de face. Na presente concretização, a característica de uma pessoa, como a in- formação de determinação, é uma distância entre os olhos de uma pessoa (distância entre os olhos).
[0086] Depois, a unidade de determinação de alvo 12 da presente concretização checa se ou não a distância entre os olhos, que é uma informação de determinação detectada pela unidade de determinação de alvo 11, excede um valor de referência. Nesse caso, na presente concretização, o valor de referência é estabelecido como um valor que permite a determinação de se ou não uma pessoa, mostrada em uma área de extremidade de uma imagem capturada da própria porta G1, está localizada na faixa G1 da própria porta G1. Por exemplo, no esta- do da Figura 10 descrito acima, considera-se que a distância entre os olhos da pessoa P12, mostrada em uma área de extremidade da ima- gem capturada da própria porta G1 e que está se movimentando para a própria porta G1, é maior do que a distância entre os olhos da pes- soa P20 da porta G2 adjacente. Considerando isso, o valor de referên- cia é estabelecido como um valor entre a distância entre os olhos da pessoa P12, mostrada em uma área de extremidade da imagem cap- turada da própria porta G1 e que está se movimentando para a própria porta G1, e a distância entre os olhos da pessoa P20 da porta G2 ad- jacente.
[0087] Depois, quando a distância entre os olhos da pessoa, mos- trada em uma área de extremidade da imagem capturada da porta G1, detectada pela unidade de extração de alvo 11, excede o valor de refe- rência, a unidade de determinação de alvo 12 determina que a pessoa é uma pessoa se movimentando para a própria porta G1 e considera essa pessoa como um alvo de um processo de conferência. Isto é, quando a distância entre os olhos de uma pessoa excede o valor de referência, a comparação com uma imagem capturada da porta G2 adjacente não é feita, e um processo de conferência é executado dire- tamente na pessoa como uma pessoa se movimentando na direção da própria porta G1.
[0088] Por outro lado, quando a distância entre os olhos da pes- soa, mostrada na área de extremidade da imagem capturada da porta G1, detectada pela unidade de extração de alvo 11, é igual ou inferior ao valor de referência, uma vez que há uma possibilidade que a pes- soa seja uma pessoa se movimentando para a porta G2 adjacente, a unidade de determinação de alvo 12 executa a comparação com uma imagem capturada da porta G2 adjacente. Isto é, como descrito na primeira concretização exemplificativa, checa-se se ou não qualquer pessoa é mostrada na área central da imagem capturada da porta G2 adjacente. Quando uma pessoa é mostrada na área central da ima- gem capturada da porta G2 adjacente, determina-se que a pessoa, mostrada na área de extremidade da imagem capturada da própria porta G1, é uma pessoa se movimentando na direção da porta G2 ad- jacente, e a pessoa é excluída do alvo de um processo de conferência. Quando nenhuma pessoa é mostrada na área central da imagem cap- turada da porta G2 adjacente, determina-se que a pessoa, mostrada na área de extremidade da imagem capturada da própria porta G1, é uma pessoa se movimentando para a própria porta G1, e a pessoa é considerada como um alvo de um processo de conferência.
[0089] Ao longo do processo descrito acima, no exemplo das Figu- ras 10, 11A e 11B, por exemplo, a pessoa P2 é mostrada em uma área de extremidade da imagem capturada da própria porta G1, mas uma vez que a pessoa P12 está próxima do dispositivo gerador de imagens C1 da porta G1, a distância entre os olhos, que é uma infor- mação de determinação mostrando o tamanho da pessoa P12, é maior do que o valor de referência. Portanto, determina-se que a pessoa P12 é uma pessoa se movimentando na direção da própria porta G1, e a pessoa P12 é tratada como um alvo de um processo de conferência. Isto é, mesmo se a pessoa P12 se movimentando na direção da porta G2 adjacente existir, a pessoa P12 da própria porta G1 pode ser trata- da como um alvo de um processo de conferência.
[0090] Por outro lado, no exemplo das Figuras 8, 9A e 9B, a pes- soa P20 é mostrada em uma área de extremidade da imagem captu- rada da própria porta G1, mas uma vez que a pessoa P20 está distan- te do dispositivo gerador de imagens C1 da porta G1, a distância entre os olhos, que é a informação de determinação mostrando o tamanho da pessoa P20, é igual ou inferior ao valor de referência. Portanto,
checa-se se ou não a pessoa P20 é mostrada na área central da ima- gem capturada da porta G2 adjacente. Nesse caso, uma vez que uma pessoa é mostrada na área central da imagem capturada da porta G2 adjacente, determina-se que a pessoa, mostrada em uma área de ex- tremidade da imagem capturada da própria porta G1, é uma pessoa se movimentando na direção da porta G2 adjacente, e a pessoa é excluí- da do alvo do processo de conferência.
[0091] Notar que ainda que a descrição tenha sido apresentada quando a informação de determinação de uma pessoa, mostrada na área de extremidade da imagem capturada da própria porta G1, é uma distância entre os olhos, a característica da pessoa como a informação de determinação pode ser uma distância entre outras partes da face de uma pessoa, ou um valor representativo do tamanho de outra parte de uma pessoa. No entanto, a característica de uma pessoa, que é uma informação de determinação, não é necessariamente limitada a um valor representativo do tamanho de uma parte de uma pessoa. Quarta concretização exemplificativa
[0092] A seguir, uma quarta concretização exemplificativa da pre- sente invenção vai ser descrita com referência às Figuras 13 a 16B. A Figura 13 é um diagrama de blocos mostrando a configuração de um sistema de autenticação facial da presente concretização, e as Figuras 14 a 16 são diagramas para explicar uma operação de processamento do sistema de autenticação facial.
[0093] Um sistema de autenticação facial 10 da presente concreti- zação tem uma configuração similar àquela da primeira concretização exemplificativa descrita acima. No entanto, como descrito na primeira e na segunda concretizações exemplificativas, o sistema de autentica- ção facial 10 tem também uma função de estabelecer áreas sobrepos- tas, nas quais as imagens capturadas de portas adjacentes são sobre- postas umas nas outras e que são comparadas umas com as outras para checar se ou não a mesma pessoa está localizada. A configura- ção, diferente daquela da primeira e da segunda concretizações, vai ser basicamente descrita em detalhes abaixo.
[0094] Como ilustrado na Figura 13, um sistema de autenticação facial 10 da presente concretização inclui uma unidade de estabeleci- mento de área 15 (meio de estabelecimento de área), construída por execução de um programa pela unidade aritmética. A unidade de es- tabelecimento de área 15 obtém primeiro uma imagem capturada do dispositivo gerador de imagens C1 da própria porta G1, e também ob- tém uma imagem capturada do dispositivo gerador de imagens C2 da porta G2 adjacente. Nesse momento, a unidade de estabelecimento de área 15 se comunica com o sistema de autenticação facial 20 da porta G2 adjacente pela unidade de comunicação 16 e obtém uma imagem capturada, que é capturada na porta G2, no mesmo momento (por exemplo, ao mesmo tempo) quando a imagem capturada é captu- rada na porta G1.
[0095] Depois, a unidade de estabelecimento de área 15 extrai pessoas da imagem capturada obtida da porta G1 e a imagem captu- rada da porta G2. A extração de uma pessoa por, por exemplo, extra- ção de um objeto móvel, ou execução de determinação da posição de uma parte de forma de característica ou da posição de uma cor com relação à forma total ou à imagem total. Depois, a unidade de estabe- lecimento de área 15 checa se ou não a mesma pessoa é mostrada em ambas as imagens capturadas. Nesse momento, a unidade de es- tabelecimento de área 15 especifica as áreas de face das respectivas pessoas mostradas nas imagens capturadas, e determinar os graus de características necessários para conferência das áreas faciais. Depois, dos graus de características das pessoas, determina-se se ou não as pessoas são as mesmas. Notar que qualquer processo pode ser usa- do como um processo de determinação da similaridade das pessoas.
[0096] Depois, quando a unidade de estabelecimento de área 15 determina que a mesma pessoa é mostrada nas imagens capturadas, a unidade de estabelecimento de área 15 estabelece as áreas circun- dantes das partes nas quais a mesma pessoa é mostrada nas respec- tivas imagens capturadas, como áreas sobrepostas que se sobrepõem umas às outras nas respectivas imagens capturadas. Nesse momento, a área de sobreposição estabelecida é uma área obtida por expansão da parte, na qual a mesma pessoa é detectada nas extremidades infe- rior e superior da imagem capturada, e ainda por expansão da área por uma faixa predeterminada na direção horizontal da imagem captu- rada. Em particular, na imagem capturada da própria porta G1, consi- dera-se que a parte na qual a mesma pessoa é extraída pode ser po- sicionada perto de uma extremidade na direção horizontal da imagem capturada. No entanto, uma faixa ligeiramente expandida na direção horizontal, com relação à parte na qual a pessoa é extraída, é estabe- lecida como uma área de sobreposição (primeira área), e uma área, tendo o mesmo tamanho próxima da outra extremidade, é também es- tabelecida como a área de sobreposição (primeira área). Por outro la- do, na imagem capturada da porta G2 adjacente, considera-se que uma parte, na qual a mesma pessoa é extraída, é posicionada próxima do centro na direção horizontal da imagem capturada. No entanto, uma faixa expandida na direção horizontal para ser maior do que a área de sobreposição da área de extremidade, com relação à parte na qual a pessoa é extraída, é estabelecida como uma área de sobrepo- sição (segunda área). Isto é, na presente concretização, a área central é estabelecida para ser maior do que a área de extremidade. No en- tanto, o método de estabelecimento do tamanho da área de extremi- dade e da área central não é limitado ao método descrito acima.
[0097] Como um exemplo, no estado mostrado na Figura 14, pri- meiramente, uma imagem capturada de uma área de captura entre as linhas C1a é obtida do dispositivo gerador de imagens C1 da própria porta G1, e uma imagem capturada de uma área de captura entre as linhas C2a é obtida do dispositivo gerador de imagens C2 da porta G2 adjacente. Considera-se que por extração da mesma pessoa das ima- gens capturadas das Figuras 15A e 15B, a mesma pessoa P20 é de- tectada em uma área de extremidade da imagem capturada da própria porta G1 e na área central da imagem capturada da porta G2 adjacen- te. Nesse caso, no caso da imagem capturada da própria porta G1, uma área definida pelas linhas C1a e C1b, obtida por expansão adici- onal da área (área hachurada), expandida nas direções para cima e para baixo da parte na qual a pessoa P20 é extraída, ligeiramente na direção horizontal, é estabelecida como uma área de sobreposição, como ilustrado na Figura 16A. Ainda mais, na área de extremidade no lado oposto na direção horizontal, uma área de sobreposição definida pelas linhas C1a e C1b é estabelecida. Por outro lado, no caso da imagem capturada da porta G2 adjacente, uma área definida pelas li- nhas C2b, obtida por expansão adicional da área (área hachurada), expandida nas direções para cima e para baixo da parte na qual a pessoa P20 é extraída, na direção horizontal, é estabelecida como uma área de sobreposição, como ilustrado na Figura 16B.
[0098] Como descrito acima, na presente concretização, a unidade de estabelecimento de área 15 do sistema de autenticação facial 10, correspondente à porta G1, estabelece uma área de extremidade de uma imagem capturada da própria porta G1 e a área central de uma imagem capturada da porta G2 adjacente como áreas de sobreposi- ção. Depois, como descrito na primeira e na segunda concretizações exemplificativas, o sistema de autenticação facial 10 executa o pro- cessamento de extração de uma pessoa de uma área de extremidade de uma imagem capturada da própria porta G1 e da área central de uma imagem capturada da porta G2 adjacente que foram estabeleci-
das, e determina-se se ou não a mesma pessoa existe em ambas as áreas.
[0099] De acordo com o sistema de autenticação facial 10 da quar- ta concretização exemplificativa, com base na pessoa em uma ima- gem capturada, correspondente a uma determinada porta, e a uma pessoa em uma imagem capturada, correspondente à outra porta, é possível estabelecer automaticamente as áreas de sobreposição entre as imagens capturadas correspondentes às portas. Por conseguinte, é possível estabelecer adequadamente áreas de sobreposição entre os dispositivos geradores de imagens C1 e C2 das portas G1 e G2 adja- centes entre si, para promover uso facilitado do sistema de conferên- cia, e eliminar o reconhecimento errôneo com maior precisão.
[00100] Notar que ainda que um exemplo do estabelecimento de áreas de sobreposição por uso de imagens de pessoas, que estão prestes a passar pelas portas G1 e G2, tenha sido descrito, é possível estabelecer áreas de sobreposição por uso de quaisquer objetos mos- trados nas imagens capturadas, sem ser limitados a pessoas. Por exemplo, é possível determinar a similaridade de artigos ou paisagens mostrados nas imagens capturadas, e, com base no resultado de de- terminação, estabelecer faixas de sobreposição das respectivas ima- gem capturada. Quinta concretização exemplificativa
[00101] A seguir, uma quinta concretização exemplificativa da pre- sente invenção vai ser descrita com referência às Figuras 17 e 18. A Figura 17 é um diagrama de blocos ilustrativo de uma configuração de um sistema de conferência de acordo com a quinta concretização exemplificativa. A Figura 18 é um diagrama de blocos ilustrando uma configuração de um aparelho de processamento de informações de acordo com a quinta concretização exemplificativa. Notar que a pre- sente concretização mostra o esboço da configuração do sistema de autenticação facial, descrito nas primeira à quarta concretizações exemplificativas.
[00102] Como ilustrado na Figura 17, um sistema de conferência 100 da presente concretização inclui: um meio gerador de imagens 110 para obter uma imagem capturada de cada uma das áreas laterais de pré-passagem com relação a todas as portas dispostas paralelamente entre si; e um meio de conferência 120 para executar, para todas as portas, um processo de conferência na imagem capturada da área lateral de pré- passagem, entre um alvo previamente registrado e um alvo na imagem capturada.
[00103] Depois, o meio de conferência 120 executa um processo de conferência com base em um alvo em uma imagem capturada, corres- pondente a uma determinada porta, e um alvo em uma imagem captu- rada, correspondente à outra porta.
[00104] Ainda mais, na presente concretização, o meio gerador de imagens 110 pode ser removido do sistema de conferência 100 ilus- trado na Figura 17.
[00105] Isto é, um aparelho de processamento de informações 200 da presente concretização inclui: um meio de conferência 210 para executar um processo de conferência em uma imagem capturada de uma área lateral de pré- passagem, com relação a todas as portas instaladas paralelamente entre si.
[00106] Depois, o meio de conferência 210 executa um processo de conferência com base em um alvo em uma imagem capturada de uma determinada porta e em um alvo em uma imagem capturada corres- pondente à outra porta.
[00107] Notar que os meios de conferência 120 e 210 podem ser construídos por execução de um programa por uma unidade aritméti-
ca, ou podem ser construídos por um circuito eletrônico.
[00108] De acordo com o sistema de conferência 100 ou o aparelho de processamento de informações 200, tendo as configuração descri- tas acima: proporciona-se um método de conferência de execução de um processo de conferência em uma imagem capturada de uma área lateral de pré-passagem de todas as portas instaladas paralelamente entre si, entre um alvo previamente registrado e um alvo na imagem capturada.
[00109] Nesse método de conferência, o processo de conferência é executado com base em um alvo em uma imagem capturada de uma determinada porta e em um alvo em uma imagem capturada corres- pondente à outra porta.
[00110] De acordo com o sistema de conferência 100 ou o aparelho de processamento de informações 200 descritos acima, um processo de conferência de alvo é executado com base em um alvo em uma imagem capturada, correspondente a uma determinada porta, e em um alvo em uma imagem capturada, correspondente à outra porta. Portanto, mesmo no caso no qual um alvo, que está prestes a passar por outra porta, é mostrado em uma imagem capturada, corresponden- te à determinada porta, é possível determinar que esse alvo é um alvo que está prestes a passar pela outra porta. Desse modo, esse alvo pode ser excluído do processo de conferência da determinada porta. Por conseguinte, o reconhecimento errôneo de um alvo, que está pres- tes a passar por uma porta, pode ser eliminado. Notas suplementares
[00111] Todas as ou parte das concretizações exemplificativas, descritas acima, podem ser descritas como as, nas não limitadas às, seguintes notas suplementares. A seguir, os esboços das configura- ções de um sistema de conferência, um aparelho de processamento de informações, um programa e um método de conferência, de acordo com a presente invenção, vão ser descritos. No entanto, a presente invenção não é limitada às configurações descritas abaixo. Nota suplementar 1
[00112] Um sistema de conferência compreendendo: um meio gerador de imagens para obter uma imagem cap- turada de uma área lateral de pré-passagem com relação a todas as portas dispostas em paralelo entre si; e um meio de conferência para executar um processo de con- ferência na imagem capturada da área lateral de pré-passagem para todas as portas, entre um alvo previamente registrado e um alvo inclu- ído na imagem capturada, em que: o meio de conferência executa o processo de conferência com base em um alvo na imagem capturada correspondente a uma das portas e um alvo na imagem capturada correspondente à outra das portas.
[00113] Com a configuração descrita acima, o sistema de conferên- cia executa um processo de conferência em um alvo com base em um uma imagem capturada correspondente a uma determinada porta e a um alvo em uma imagem capturada correspondente à outra porta. Por- tanto, mesmo no caso no qual um alvo, que está prestes a passar por outra porta, é mostrado em uma imagem capturada correspondente a uma determinada porta, é possível determinar que esse alvo é um alvo que está prestes a passar pela outra porta. Desse modo, esse alvo pode ser excluído do processo de conferência da determinada porta. Por conseguinte, o reconhecimento errôneo de um alvo, que está pres- tes a passar por uma porta, pode ser eliminado. Nota suplementar 2
[00114] O sistema de conferência de acordo com a nota suplemen-
tar 1, em que: o meio de conferência executa o processo de conferência com base em um alvo localizado em uma área predeterminada na imagem capturada correspondente a uma das portas e um alvo na imagem capturada correspondente à outra das portas. Nota suplementar 3
[00115] O sistema de conferência de acordo com a nota suplemen- tar 2, em que: o meio de conferência executa o processo de conferência com base em um alvo localizado em uma primeira área da imagem capturada correspondente a uma das portas e um alvo localizado em uma se- gunda área da imagem capturada correspondente à outra das portas. Nota suplementar 4
[00116] O sistema de conferência de acordo com a nota suplemen- tar 3, em que: quando o alvo, localizado na primeira área da imagem cap- turada correspondente a uma das portas, é também localizado na se- gunda área da imagem capturada correspondente à outra das portas, o meio de conferência exclui o alvo localizado na primeira área da imagem capturada correspondente a uma das portas do processo de conferência. Nota suplementar 5
[00117] O sistema de conferência de acordo com a nota suplemen- tar 4, em que: quando um alvo, localizado em uma área de extremidade em uma direção horizontal, que é a primeira área da imagem captura- da correspondente a uma das portas, é também localizado em uma área central da direção horizontal, que é a segunda área da imagem capturada correspondente à outra das portas, o meio de conferência exclui o alvo localizado na área de extremidade na direção horizontal da imagem capturada correspondente a uma das portas do processo de conferência. Nota suplementar 6
[00118] O sistema de conferência de acordo com a nota suplemen- tar 4 ou 5, em que: quando o alvo localizado na primeira área da imagem cap- turada correspondente a uma das portas é também localizado na se- gunda área da imagem capturada, correspondente à outra das portas, em um momento quando o alvo é localizado na primeira área, o meio de conferência exclui o alvo localizado na primeira área da imagem capturada, correspondente a uma das portas, do processo de confe- rência.
[00119] De acordo com a configuração descrita acima, o sistema de conferência exclui um alvo, mostrado em sobreposição, por compara- ção de um alvo, mostrado em uma área predeterminada da imagem capturada correspondente ao determinado estado, com um alvo, mos- trado na imagem capturada correspondente à outra porta, e executa o processo de conferência apenas no alvo mostrado individualmente. Em particular, quando um alvo, localizado em uma área de extremida- de (primeira área) na direção horizontal da imagem capturada corres- pondente à determinada porta, é também mostrado na área central (segunda área) na direção horizontal da imagem capturada correspon- dente à outra porta, o processo de conferência não é executado nesse alvo. Por outro lado, quando um alvo, localizado em uma área de ex- tremidade (primeira área) na direção horizontal da imagem capturada correspondente à determinada área, não é mostrado na área central (segunda área) na direção horizontal da imagem capturada correspon- dente à outra porta, o processo de conferência é executado nesse al- vo. Por conseguinte, quando um alvo é mostrado na imagem captura- da correspondente à determinada porta e na imagem capturada cor-
respondente à outra porta em uma maneira sobreposta, esse alvo po- de ser excluído do processo de conferência. Portanto, o reconheci- mento errôneo de um alvo, que está prestes a passar por uma porta, pode ser eliminado. Nota suplementar 7
[00120] O sistema de conferência de acordo com a nota suplemen- tar 4 ou 5, em que: quando o sistema de conferência determina que o alvo, lo- calizado na primeira área da imagem capturada correspondente a uma das portas, é também localizado na segunda área da imagem captura- da correspondente à outra das portas, com base em um grau de ca- racterística do alvo, localizado na primeira área da imagem capturada correspondente a uma das portas, e um grau de característica do alvo, localizado na segunda área da imagem capturada correspondente à outra das portas, o meio de conferência exclui o alvo, localizado na primeira área da imagem capturada correspondente a uma das portas, do processo de conferência. Nota suplementar 8
[00121] O sistema de conferência de acordo com a nota suplemen- tar 7, em que: quando o meio de conferência determina que o alvo, locali- zado na primeira área da imagem capturada correspondente a uma das portas, está também localizado na segunda área da imagem cap- turada correspondente à outra das portas, com base em um grau de característica de uma parte de uma face de uma pessoa, que é o alvo localizado na primeira área da imagem capturada correspondente a uma das portas, e um grau de característica de uma parte de uma face de uma pessoa, que é o alvo localizado na segunda área da imagem capturada correspondente à outra das portas, o meio de conferência exclui o alvo, localizado na primeira área da imagem capturada cor-
respondente a uma das portas, do processo de conferência.
[00122] De acordo com a configuração descrita acima, o sistema de conferência pode determinar se ou não o mesmo alvo é mostrado nas imagens capturadas das portas em sobreposição por extração e com- paração dos graus de características dos alvos nas imagens captura- das correspondentes às portas. Então, um alvo, mostrado nas ima- gens capturadas da determinada porta e da outra porta em sobreposi- ção, pode ser excluído do processo de conferência, e o reconhecimen- to errôneo de um alvo, que está prestes a passar por uma porta, pode ser eliminado. Além do mais, os graus de características dos alvos ex- traídos para determinar a sobreposição do alvo podem ser usados no processo de conferência. Isso aumenta a eficiência do processo. Nota suplementar 9
[00123] O sistema de conferência de acordo com quaisquer das no- tas suplementares 3 a 8, compreendendo ainda: um meio para estabelecimento de área para estabelecer a primeira área da imagem capturada correspondente a uma das portas e a se- gunda área da imagem capturada correspondente à outra das portas, com base no alvo na imagem capturada correspondente a uma das portas e no alvo na imagem capturada correspondente à outra das portas, obtidas em um momento no qual o alvo está localizado na ima- gem capturada correspondente a uma das portas. Nota suplementar 10
[00124] O sistema de conferência de acordo com a nota suplemen- tar 9, em que: quando o alvo na imagem capturada correspondente a uma das portas e o alvo capturado na imagem capturada correspondente à outra das portas, obtidas no momento quando o alvo está localizado na imagem capturada correspondente a uma das portas, são idênticos, o meio de estabelecimento de área estabelece uma periferia de uma posição do alvo na imagem capturada correspondente a uma das por- tas como a primeira área e estabelece uma periferia de uma posição do alvo na imagem capturada correspondente à outra das portas como a segunda área, com base na posição do alvo na imagem capturada correspondente a uma das portas e na posição do alvo na imagem capturada correspondente à outra das portas. Depois, é possível ex- cluir o alvo mostrado sobreposto para uma determinada porta e outra porta do processo de conferência, e eliminar o reconhecimento errô- neo de um alvo, que está prestes a passar por uma porta. Além do mais, é possível usar os graus de características dos alvos extraídos para determinar a sobreposição do alvo para um processo de confe- rência. Isso aumenta a eficiência do processo.
[00125] De acordo com a configuração descrita acima, o sistema de conferência pode estabelecer automaticamente as áreas de sobrepo- sição entre as imagens capturadas correspondentes às portas, com base no alvo na imagem capturada correspondente à determinada por- ta e no alvo na imagem capturada correspondente à outra porta. Por conseguinte, é possível promover o uso facilitado do sistema de confe- rência e eliminar o reconhecimento errôneo com alta precisão. Nota suplementar 11
[00126] Um aparelho de processamento de informações compreen- dendo: um meio de conferência para executar um processo de con- ferência em uma imagem capturada de uma área lateral de pré- passagem com relação a todas as portas instaladas paralelamente en- tre si, entre um alvo registrado previamente e um alvo na imagem cap- turada, em que: o meio de conferência executa o processo de conferência com base em um alvo na imagem capturada correspondente a uma das portas e um alvo na imagem capturada correspondente à outra das portas. Nota suplementar 12
[00127] O aparelho de processamento de informações de acordo com a nota suplementar 11, em que: o meio de conferência executa o processo de conferência com base em um alvo localizado em uma área predeterminada da imagem capturada correspondente a uma das portas e no alvo na imagem capturada correspondente à outra das portas. Nota suplementar 13
[00128] Um programa para fazer com que um aparelho de proces- samento de informações execute: um meio de conferência para conduzir um processo de con- ferência em uma imagem capturada de uma área lateral de pré- passagem com relação a todas as portas instaladas paralelamente en- tre si, entre um alvo previamente registrado e um alvo na imagem cap- turada, em que: o meio de conferência conduz o processo de conferência com base em um alvo na imagem capturada correspondente a uma das portas e em um alvo na imagem capturada correspondente à outra das portas. Nota suplementar 14
[00129] O programa de acordo com a nota suplementar 13, em que: o meio de conferência executa o processo de conferência com base em um alvo localizado em uma área predeterminada da imagem capturada correspondente a uma das portas e no alvo na imagem capturada correspondente à outra das portas. Nota suplementar 15
[00130] Um método de conferência, compreendendo: executar um processo de conferência em uma imagem cap- turada de uma área lateral de pré-passagem com relação a todas as portas instaladas paralelamente entre si, entre alvo registrado previa- mente e um alvo na imagem capturada, em que: o processo de conferência é executado com base em um alvo na imagem capturada correspondente a uma das portas e em um alvo na imagem capturada correspondente à outra das portas. Nota suplementar 16
[00131] O método de conferência de acordo com a nota suplemen- tar 15, em que: o processo de conferência é executado com base em um alvo localizado em uma área predeterminada da imagem capturada correspondente a uma das portas e no alvo na imagem capturada cor- respondente à outra das portas. Nota suplementar 17
[00132] O método de conferência de acordo com a reivindicação 16, em que: o processo de conferência é executado com base em um alvo localizado em uma primeira área da imagem capturada corres- pondente a uma das portas e em um alvo localizado em uma segunda área da imagem capturada correspondente à outra das portas. Nota suplementar 18
[00133] O método de conferência de acordo com a reivindicação 17, compreendendo ainda: estabelecer a primeira área da imagem capturada corres- pondente a uma das portas e a segunda área da imagem capturada correspondente à outras das portas, com base no alvo na imagem capturada correspondente a uma das portas e no alvo na imagem cap- turada correspondente à outra das portas, obtidas quando o alvo está localizado na imagem capturada correspondente a uma das portas, em que: o processo de conferência é executado com base no alvo localizado na primeira área da imagem capturada correspondente a uma das portas e no alvo localizado na segunda área da imagem cap- turada correspondente à outra das portas.
[00134] Deve-se notar que o programa descrito acima pode ser ar- mazenado em um dispositivo de armazenamento ou armazenado em um meio de armazenamento legível por computador. O meio de arma- zenamento é um meio portátil, tal como, por exemplo, um disco flexí- vel, um disco óptico, um disco magneto-óptico ou uma memória semi- condutora.
[00135] Ainda que a presente invenção tenha sido descrita com re- ferência às concretizações exemplificativas descritas acima, a presen- te invenção não é limitada às concretizações descritas acima. A forma e os detalhes da presente invenção podem ser alterados dentro do âmbito da presente invenção em várias maneiras, que podem ser en- tendidas por aqueles versados na técnica.
[00136] A presente invenção é baseada no e reivindica o benefício de prioridade do pedido de patente japonesa de nº 2017-179064, de- positado em 19 de setembro de 2017, cuja descrição é incorporada no presente relatório descritivo na sua totalidade por referência.
LISTA DE SINAIS DE REFERÊNCIA 10 - sistema de autenticação facial 11 - unidade de extração de alvo 12 - unidade de determinação de alvo 13 - unidade de conferência 14 - unidade de controle de porta 15 - unidade de estabelecimento de área 16 - unidade de comunicação 17 - unidade de armazenamento de dados de conferência 20 - sistema de autenticação facial 100 - sistema de conferência
110 - meio gerador de imagens 120 - meio de conferência 200 - aparelho de processamento de informações 210 - meio de conferência C1, C2, C3 - dispositivo gerador de imagens D1 - dispositivo de exibição G1, G2, G3 - porta

Claims (10)

REIVINDICAÇÕES
1. Sistema de conferência, caracterizado pelo fato de que compreende: um meio gerador de imagens para obter uma imagem cap- turada de uma área lateral de pré-passagem com relação a todas as portas dispostas em paralelo entre si; e um meio de conferência para executar um processo de con- ferência na imagem capturada da área lateral de pré-passagem para todas as portas, entre um alvo previamente registrado e um alvo inclu- ído na imagem capturada, em que: o meio de conferência executa o processo de conferência com base em um alvo na imagem capturada correspondente a uma das portas e um alvo na imagem capturada correspondente à outra das portas.
2. Sistema de conferência, de acordo com a reivindicação 1, caracterizado pelo fato de que: o meio de conferência executa o processo de conferência com base em um alvo localizado em uma área predeterminada na imagem capturada correspondente a uma das portas e o alvo na ima- gem capturada correspondente à outra das portas.
3. Sistema de conferência, de acordo com a reivindicação 2, caracterizado pelo fato de que: o meio de conferência executa o processo de conferência com base em um alvo localizado em uma primeira área da imagem capturada correspondente a uma das portas e um alvo localizado em uma segunda área da imagem capturada correspondente à outra das portas.
4. Sistema de conferência, de acordo com a reivindicação 3, caracterizado pelo fato de que: quando o alvo, localizado na primeira área da imagem cap-
turada correspondente a uma das portas, é também localizado na se- gunda área da imagem capturada correspondente à outra das portas, o meio de conferência exclui o alvo localizado na primeira área da imagem capturada correspondente a uma das portas do processo de conferência.
5. Sistema de conferência, de acordo com a reivindicação 4, caracterizado pelo fato de que: quando um alvo, localizado em uma área de extremidade em uma direção horizontal, que é a primeira área da imagem captura- da correspondente a uma das portas, é também localizado em uma área central em uma direção horizontal, que é a segunda área da ima- gem capturada correspondente à outra das portas, o meio de confe- rência exclui o alvo localizado na área de extremidade na direção hori- zontal da imagem capturada correspondente a uma das portas do pro- cesso de conferência.
6. Sistema de conferência, de acordo com a reivindicação 4 ou 5, caracterizado pelo fato de que: quando o alvo localizado na primeira área da imagem cap- turada correspondente a uma das portas é também localizado na se- gunda área da imagem capturada, correspondente à outra das portas, em um momento quando o alvo é localizado na primeira área, o meio de conferência exclui o alvo localizado na primeira área da imagem capturada, correspondente a uma das portas, do processo de confe- rência.
7. Sistema de conferência, de acordo com qualquer uma das reivindicações 3 a 6, caracterizado pelo fato de que compreende ainda: um meio para estabelecimento de área para estabelecer a primeira área da imagem capturada correspondente a uma das portas e a segunda área da imagem capturada correspondente à outra das portas, com base no alvo na imagem capturada correspondente a uma das portas e no alvo na imagem capturada correspondente à outra das portas, obtidas em um momento no qual o alvo está localizado na ima- gem capturada correspondente a uma das portas.
8. Sistema de conferência, de acordo com a reivindicação 7, caracterizado pelo fato de que: quando o alvo na imagem capturada correspondente a uma das portas e o alvo na imagem capturada correspondente à outra das portas, obtidas no momento quando o alvo está localizado na imagem capturada correspondente a uma das portas, são idênticos, o meio de estabelecimento de área estabelece uma periferia de uma posição do alvo na imagem capturada correspondente a uma das portas como a primeira área e estabelece uma periferia de uma posição do alvo na imagem capturada correspondente à outra das portas como a segunda área, com base na posição do alvo na imagem capturada correspon- dente a uma das portas e na posição do alvo na imagem capturada correspondente à outra das portas.
9. Aparelho de processamento de informações, caracteri- zado pelo fato de que compreende: um meio de conferência para executar um processo de con- ferência em uma imagem capturada de uma área lateral de pré- passagem com relação a todas as portas instaladas paralelamente en- tre si, entre um alvo registrado previamente e um alvo na imagem cap- turada, em que: o meio de conferência executa o processo de conferência com base em um alvo na imagem capturada correspondente a uma das portas e um alvo na imagem capturada correspondente à outra das portas.
10. Método de conferência, caracterizado pelo fato de que compreende:
executar um processo de conferência em uma imagem cap- turada de uma área lateral de pré-passagem com relação a todas as portas instaladas paralelamente entre si, entre um alvo registrado pre- viamente e um alvo na imagem capturada, em que: o processo de conferência é executado com base em um alvo na imagem capturada correspondente a uma das portas e em um alvo na imagem capturada correspondente à outra das portas.
BR112020003661-7A 2017-09-19 2018-08-08 sistema de conferência BR112020003661A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-179064 2017-09-19
JP2017179064A JP6409929B1 (ja) 2017-09-19 2017-09-19 照合システム
PCT/JP2018/029807 WO2019058801A1 (ja) 2017-09-19 2018-08-08 照合システム

Publications (1)

Publication Number Publication Date
BR112020003661A2 true BR112020003661A2 (pt) 2020-09-01

Family

ID=63920569

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020003661-7A BR112020003661A2 (pt) 2017-09-19 2018-08-08 sistema de conferência

Country Status (7)

Country Link
US (5) US11295116B2 (pt)
EP (1) EP3686838A4 (pt)
JP (1) JP6409929B1 (pt)
AU (1) AU2018336236B2 (pt)
BR (1) BR112020003661A2 (pt)
SG (1) SG11202001408PA (pt)
WO (1) WO2019058801A1 (pt)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
WO2021066148A1 (en) * 2019-10-04 2021-04-08 Nec Corporation Information processing apparatus, information processing method, and storage medium
JP7424469B2 (ja) * 2020-03-17 2024-01-30 日本電気株式会社 ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法
JP7318801B2 (ja) * 2020-03-18 2023-08-01 日本電気株式会社 ゲート装置、認証システム、ゲート装置の制御方法及びプログラム
CN112613461B (zh) * 2020-12-14 2022-11-29 南京理工大学 结合人脸识别的智能闸机通行和考勤的方法及其***
CN117099139A (zh) * 2021-03-24 2023-11-21 日本电气株式会社 信息处理***、信息处理装置、信息处理方法和记录介质
JP7122543B1 (ja) * 2021-04-15 2022-08-22 パナソニックIpマネジメント株式会社 情報処理装置、情報処理システム、及び、推定方法
US20240211562A1 (en) * 2021-06-21 2024-06-27 Rakuten Group, Inc. Authentication system, authentication method and program
JP7345067B2 (ja) * 2021-06-21 2023-09-14 楽天グループ株式会社 認証システム、認証方法、及びプログラム
JP7190082B1 (ja) * 2021-06-21 2022-12-14 楽天グループ株式会社 認証システム、認証方法、及びプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6119096A (en) * 1997-07-31 2000-09-12 Eyeticket Corporation System and method for aircraft passenger check-in and boarding using iris recognition
US6513015B2 (en) * 1998-09-25 2003-01-28 Fujitsu Limited System and method for customer recognition using wireless identification and visual data transmission
TWI282941B (en) * 2001-03-15 2007-06-21 Toshiba Corp Entrance management apparatus and entrance management method by using face features identification
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
JP2005070850A (ja) 2003-08-26 2005-03-17 Omron Corp ゲート制御装置及びゲート制御システム
JP2005242775A (ja) * 2004-02-27 2005-09-08 Omron Corp ゲートシステム
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
JP2007148987A (ja) 2005-11-30 2007-06-14 Toshiba Corp 顔認証システムおよび入退場管理システム
JP2007206898A (ja) 2006-01-31 2007-08-16 Toshiba Corp 顔認証装置および入退場管理装置
JP4865346B2 (ja) 2006-02-08 2012-02-01 綜合警備保障株式会社 監視システム及び監視方法
US8064651B2 (en) * 2006-02-15 2011-11-22 Kabushiki Kaisha Toshiba Biometric determination of group membership of recognized individuals
JP2007249298A (ja) 2006-03-13 2007-09-27 Toshiba Corp 顔認証装置および顔認証方法
JP4836633B2 (ja) * 2006-03-31 2011-12-14 株式会社東芝 顔認証装置、顔認証方法および入退場管理装置
US20070252001A1 (en) * 2006-04-25 2007-11-01 Kail Kevin J Access control system with RFID and biometric facial recognition
JP2007328572A (ja) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd 顔認証装置および顔認証方法
JP2007334623A (ja) * 2006-06-15 2007-12-27 Toshiba Corp 顔認証装置、顔認証方法、および入退場管理装置
US20080080748A1 (en) * 2006-09-28 2008-04-03 Kabushiki Kaisha Toshiba Person recognition apparatus and person recognition method
WO2008108458A1 (ja) 2007-03-07 2008-09-12 Omron Corporation 顔画像取得システム、顔照合システム、顔画像取得方法、顔照合方法、顔画像取得プログラムおよび顔照合プログラム
JP4942189B2 (ja) * 2007-05-11 2012-05-30 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP4751442B2 (ja) 2008-12-24 2011-08-17 株式会社東芝 映像監視システム
JP5737909B2 (ja) * 2010-11-08 2015-06-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6055823B2 (ja) * 2012-05-30 2016-12-27 株式会社日立製作所 監視カメラ制御装置及び映像監視システム
JP6151582B2 (ja) * 2013-06-14 2017-06-21 セコム株式会社 顔認証システム
US10489973B2 (en) * 2015-08-17 2019-11-26 Cubic Corporation 3D face reconstruction from gate camera
WO2017043314A1 (ja) * 2015-09-09 2017-03-16 日本電気株式会社 ガイダンス取得装置、ガイダンス取得方法及びプログラム
JPWO2017146161A1 (ja) * 2016-02-26 2018-12-27 日本電気株式会社 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
JP2017174343A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 入店者属性抽出装置及び入店者属性抽出プログラム
JP2017179064A (ja) 2016-03-29 2017-10-05 株式会社巴川製紙所 電子部品用接着剤
US11315375B2 (en) * 2017-03-31 2022-04-26 Nec Corporation Facial authentication system, apparatus, method and program
US11328513B1 (en) * 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
JP6627894B2 (ja) * 2018-01-12 2020-01-08 日本電気株式会社 顔認証装置
KR102177453B1 (ko) * 2018-10-16 2020-11-11 서울시립대학교 산학협력단 얼굴 인식 방법 및 얼굴 인식 장치
JP2020198475A (ja) * 2019-05-30 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
US11321554B2 (en) * 2020-01-30 2022-05-03 Universal City Studios Llc Efficient management of facial recognition systems and methods in multiple areas
JP7432867B2 (ja) * 2020-02-18 2024-02-19 パナソニックIpマネジメント株式会社 照合装置、照合システム、及び、照合方法
KR102513726B1 (ko) * 2020-11-12 2023-03-24 네이버랩스 주식회사 보안 검사 방법 및 시스템

Also Published As

Publication number Publication date
US20200202110A1 (en) 2020-06-25
WO2019058801A1 (ja) 2019-03-28
US20230326276A1 (en) 2023-10-12
US11978295B2 (en) 2024-05-07
JP2019053675A (ja) 2019-04-04
EP3686838A1 (en) 2020-07-29
AU2018336236B2 (en) 2021-10-14
SG11202001408PA (en) 2020-03-30
AU2018336236A1 (en) 2020-03-12
US20230334928A1 (en) 2023-10-19
US11295116B2 (en) 2022-04-05
US20230343160A1 (en) 2023-10-26
EP3686838A4 (en) 2020-10-07
US20220180657A1 (en) 2022-06-09
JP6409929B1 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
BR112020003661A2 (pt) sistema de conferência
BR112020004513A2 (pt) sistema de conferência
JP6947202B2 (ja) 照合システム
JP2020063659A (ja) 情報処理システム
JP7468779B2 (ja) 情報処理装置、情報処理方法、及び記憶媒体
JP6774036B2 (ja) 照合システム
US20220145690A1 (en) Information processing device
JP7040578B2 (ja) 照合システム
US20220335766A1 (en) Information processing apparatus, information processing method, and storage medium
JP7298658B2 (ja) 照合システム
JP7338801B2 (ja) 情報処理装置、情報処理方法、および記憶媒体
KR102144101B1 (ko) 안면 인식 방법 및 이를 적용한 출입문 안면 인식 시스템

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]