KR102282963B1 - 단말기, 서버 및 그것의 동작 방법 - Google Patents

단말기, 서버 및 그것의 동작 방법 Download PDF

Info

Publication number
KR102282963B1
KR102282963B1 KR1020190054670A KR20190054670A KR102282963B1 KR 102282963 B1 KR102282963 B1 KR 102282963B1 KR 1020190054670 A KR1020190054670 A KR 1020190054670A KR 20190054670 A KR20190054670 A KR 20190054670A KR 102282963 B1 KR102282963 B1 KR 102282963B1
Authority
KR
South Korea
Prior art keywords
terminal
server
image
video call
received
Prior art date
Application number
KR1020190054670A
Other languages
English (en)
Other versions
KR20200129772A (ko
Inventor
안상일
정강식
용현택
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to KR1020190054670A priority Critical patent/KR102282963B1/ko
Priority to US16/869,983 priority patent/US11716424B2/en
Priority to JP2020083082A priority patent/JP6902762B2/ja
Priority to EP20173922.4A priority patent/EP3737078A1/en
Publication of KR20200129772A publication Critical patent/KR20200129772A/ko
Application granted granted Critical
Publication of KR102282963B1 publication Critical patent/KR102282963B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9202Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Child & Adolescent Psychology (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Emergency Management (AREA)
  • Hospice & Palliative Care (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Business, Economics & Management (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

시스템의 영상 통화 중개 방법은 서버가 복수의 단말기로부터 중개 요청을 수신하는 단계, 서버가 복수의 단말기 중에서 제1 단말기 및 제2 단말기를 중개하는 단계, 제1 단말기 및 제2 단말기가 영상 통화 세션을 수립하는 단계, 제1 단말기가 영상 통화 세션을 통해 제2 단말기로부터 영상을 수신하는 단계, 제1 단말기가 특정한 입력을 검출하는 단계, 제1 단말기가 특정한 입력에 대한 응답으로 서버에 수신된 영상을 신고하는 단계, 제1 단말기가 제2 단말기와의 영상 통화 세션을 종료하고 제3 단말기와의 영상 통화 세션을 수립하는 단계, 서버가 신고를 검증하고 제2 단말기의 추가 중개 요청을 거절하는 단계를 포함할 수 있다.

Description

단말기, 서버 및 그것의 동작 방법{MOBILE, SERVER AND OPERATING METHOD THEREOF}
본 발명은 영상 통화를 수행하는 사용자가 상대방으로부터 부적절한 영상에 노출되는 것을 방지할 수 있는 단말기, 서버 및 그것의 동작 방법에 관한 것이다.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 휴대용 개인 단말기가 널리 보급되고 있다. 단말기의 대부분은 통신 기능을 포함하고 있다. 사용자는 단말기를 이용하여 인터넷에서 검색을 수행하거나 다른 사용자와 메시지를 주고받을 수 있다.
또한, 소형 카메라 기술, 소형 마이크 기술, 소형 디스플레이 기술 및 소형 스피커 기술의 발전에 따라 스마트폰과 같은 대부분의 단말기에는 카메라, 마이크, 디스플레이 및 스피커가 포함되어 있다. 사용자는 단말기를 이용하여 음성을 녹음하거나 음성이 포함된 동영상을 촬영할 수 있다. 사용자는 단말기에 포함된 스피커를 통해 녹음된 음성을 확인하거나 디스플레이를 통해 상기 촬영된 동영상을 확인할 수 있다.
또한, 사용자는 단말기의 통신 기능을 이용하여 녹음된 음성 또는 촬영된 동영상을 다른 사용자와 공유할 수 있다. 사용자는 이전에 녹음된 음성 또는 이전에 촬영된 동영상을 다른 사용자에게 전송할 수 있다. 또한, 사용자는 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 다른 사용자에게 전송할 수 있다.
사용자의 단말기에 포함된 디스플레이는 사용자의 단말에 의해 현재 촬영되고 있는 동영상 및 다른 사용자의 단말에 의해 현재 촬영되고 있는 동영상을 동시에 표시할 수 있다. 또한, 사용자의 단말기에 포함된 스피커는 다른 사용자의 단말에 의해 현재 녹음되고 있는 음성을 동시에 재생할 수 있다. 다시 말해서, 사용자 및 다른 사용자는 각자의 단말기를 이용하여 서로 영상 통화(video call)를 할 수 있다.
사용자 및 다른 사용자는 서로 이미 아는 관계일 수도 있고, 서로 모르는 관계일 수도 있다. 사용자 및 다른 사용자는 서로 모르는 관계였다고 하더라도 서버의 중개를 통해 서로 영상 통화를 할 수 있다. 사용자가 상대방과 서로 영상 통화를 할 때, 사용자는 상대방으로부터의 음란한 영상에 노출될 수 있다. 특히, 사용자가 서로 모르는 관계에 있는 상대방과 영상 통화를 하는 경우 사용자가 상대방으로부터의 음란한 영상에 노출될 가능성이 높을 수 있다.
예를 들어, 상대방의 단말에 의해 촬영된 상대방의 벌거벗은 신체의 영상이 영상 통화 세션을 통해 사용자의 단말에 수신될 수 있다. 사용자가 음란한 영상에 노출된 경우 사용자는 성적 수치심 또는 불쾌함을 느낄 수 있다.
기재된 실시예에 따르면 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 음란한 영상에 노출되는 것을 방지할 수 있는 단말기, 서버 및 그것의 동작 방법이 제공될 수 있다.
또한, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함을 방지할 수 있는 단말기, 서버 및 그것의 동작 방법이 제공될 수 있다.
또한, 사용자 간의 건전한 영상 통화를 유도할 수 있는 단말기, 서버 및 그것의 동작 방법이 제공될 수 있다.
본 발명의 실시예에 따른 제1 단말기의 동작 방법은 서버로부터 제2 단말기에 대한 연결 정보를 수신하는 단계, 수신된 연결 정보를 이용하여 제2 단말기와의 영상 통화 세션을 수립하는 단계, 영상 통화 세션을 통해 제2 단말기로부터 영상을 수신하는 단계 수신된 영상에 대응하는 수신된 입력으로부터 또는 수신된 영상으로부터 특정한 입력을 검출하는 단계, 특정한 입력에 대한 응답으로 서버에 수신된 영상을 신고하는 단계 신고에 대한 응답으로 서버로부터 제2 단말기와 서로 다른 제3 단말기에 대한 연결 정보를 수신하는 단계, 및 영상 통화 세션을 종료하고 수신된 제3 단말기에 대한 연결 정보를 이용하여 제3 단말기와의 영상 통화 세션을 수립하는 단계를 포함할 수 있다.
실시예로서, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 특정한 조작, 특정한 영상, 및 특정한 소리 중에서 적어도 하나 이상을 검출할 수 있다.
실시예로서, 제1 단말기가 수신된 영상을 출력하는 단계를 더 포함하고, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 수신된 영상의 출력에 대한 응답으로 특정한 입력을 수신할 수 있다.
실시예로서, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 특정한 입력으로서 제1 단말기에 대한 특정한 조작을 검출할 수 있다.
실시예로서, 제1 단말기 특정한 조작을 검출하는 단계는, 제1 단말기가 특정한 조작으로서, 제1 단말기를 던지는 조작, 제1 단말기를 떨어트리는 조작, 제1 단말기를 뒤집는 조작, 제1 단말기를 흔드는 조작, 제1 단말기의 디스플레이를 덮는 조작, 제1 단말기의 버튼을 반복하여 누르는 조작, 및 제1 단말기에 터치 제스쳐를 반복하여 입력하는 조작 중에서 적어도 하나 이상을 검출할 수 있다.
실시예로서, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 제1 단말기의 주변의 영상을 촬영하는 단계 및 제1 단말기의 특정한 입력으로서 촬영된 영상으로부터 특정한 표정, 보디랭귀지, 및 신체 부위에 대응하는 부분을 검출할 수 있다.
실시예로서, 제1 단말기가 특정한 표정, 보디랭귀지, 또는 신체 부위에 대응하는 부분을 검출하는 단계는, 제1 단말기가 촬영된 영상으로부터 찡그린 표정, 놀란 표정, 확장된 동공, 제1 단말기로부터 시선을 피하는 제스처, 눈을 가리는 제스처, 및 손바닥이 제1 단말기를 향하도록 하는 제스처 중에서 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
실시예로서, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 제1 단말기의 주변에서 나는 소리를 녹음하는 단계, 및 제1 단말기가 특정한 입력으로서 녹음된 소리로부터 특정한 음성 또는 언어에 대응하는 부분을 검출하는 단계를 포함할 수 있다.
실시예로서, 제1 단말기가 특정한 음성 또는 언어에 대응하는 부분을 검출하는 단계는, 제1 단말기가 녹음된 소리로부터 비명 또는 욕설 중에서 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
실시예로서, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 특정한 입력으로서 수신된 영상으로부터 특정한 표정, 보디랭귀지, 및 신체 부위에 대응하는 부분 중 적어도 하나 이상을 검출할 수 있다.
실시예로서, 제1 단말기가 특정한 표정, 보디랭귀지, 또는 신체 부위에 대응하는 부분을 검출하는 단계는, 제1 단말기가 수신된 영상으로부터 욕 제스처, 모욕 제스처, 인종차별 제스처, 성적 컨텐츠, 알몸 노출(nudity), 비위생적 컨텐츠, 반사회적 컨텐츠, 반인류적 컨텐츠, 불법 행위, 범죄 행위, 및 혐오성(hateful) 컨텐츠 중 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
실시예로서, 제1 단말기가 영상 통화 세션을 통해 제2 단말기로부터 수신된 영상에 대응하는 소리를 수신할 수 있다.
실시예로서, 제1 단말기가 수신된 영상 및 수신된 소리를 출력할 수 있다.
실시예로서, 제1 단말기가 특정한 입력을 검출하는 단계는, 제1 단말기가 특정한 입력으로서 수신된 소리로부터 특정한 음성, 소음, 및 언어 중 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
실시예로서, 특정한 음성은 신음, 비명, 및 괴성 중에서 적어도 하나 이상을 포함하고, 특정한 소음은 굉음, 총성, 특정한 임계값 이상의 피치(pitch)를 갖는 소리, 및 특정한 임계값 이상의 크기를 갖는 소리 중에서 적어도 하나 이상을 포함하고, 특정한 언어는 욕설, 모욕, 명예회손, 성희롱, 반사회적 행위, 및 증오언설(hate speech) 중 적어도 하나 이상에 관련된 언어를 포함할 수 있다.
본 발명의 실시예에 따른 단말기는 서버로부터 제1 단말기에 대한 연결 정보를 수신하고, 수신된 연결 정보를 이용하여 제1 단말기와의 영상 통화 세션을 수립하고, 영상 통화 세션을 통해 제1 단말기로부터 영상을 수신하는 통신 인터페이스, 수신된 영상을 출력하는 출력 인터페이스, 수신된 영상에 대응하는 입력을 수신하는 입력 인터페이스, 및 수신된 입력 또는 수신된 영상으로부터 특정한 입력을 검출하는 프로세서를 포함하고, 통신 인터페이스는 특정한 입력에 대한 응답으로 서버에 수신된 영상을 신고하고, 신고에 대한 응답으로 서버로부터 제1 단말기와 서로 다른 제2 단말기에 대한 연결 정보를 수신하고, 제2 단말기에 대한 연결 정보의 수신에 대한 응답으로 영상 통화 세션을 종료하고 수신된 제2 단말기에 대한 연결 정보를 이용하여 제2 단말기와의 영상 통화 세션을 수립할 수 있다.
본 발명의 실시예에 따른 서버의 영상 통화 중개 방법은 서버가 복수의 단말로부터 중개 요청을 수신하는 단계, 서버가 복수의 단말 중에서 제1 단말기 및 제2 단말기 사이의 영상 통화 연결을 중개하는 단계, 제1 단말기에 의해 특정한 입력이 검출되면 서버가 제1 단말기로부터 제2 단말기에 의해 수신된 영상에 대한 신고를 수신하는 단계, 서버가 신고에 대한 응답으로 복수의 단말 중에서 제2 단말기와 서로 다른 제3 단말기를 선택하고 제1 단말기 및 제3 단말기 사이의 영상 통화를 중개하는 단계, 및 서버가 신고를 검증하고 검증 결과에 따라 제2 단말기의 추가 중개 요청을 거절하는 단계를 포함할 수 있다.
본 발명의 실시예에 따른 시스템의 영상 통화 중개 방법은 서버가 복수의 단말기로부터 중개 요청을 수신하는 단계, 서버가 복수의 단말기 중에서 제1 단말기 및 제2 단말기를 중개하는 단계, 제1 단말기 및 제2 단말기가 영상 통화 세션을 수립하는 단계, 제1 단말기가 영상 통화 세션을 통해 제2 단말기로부터 영상을 수신하는 단계, 제1 단말기가 특정한 입력을 검출하는 단계, 제1 단말기가 특정한 입력에 대한 응답으로 서버에 수신된 영상을 신고하는 단계, 서버가 신고에 대한 응답으로 복수의 단말기 중에서 제2 단말기와 서로 다른 제3 단말기를 선택하고 제1 단말기 및 제3 단말기를 중개하는 단계, 제1 단말기가 제2 단말기와의 영상 통화 세션을 종료하고 제3 단말기와의 영상 통화 세션을 수립하는 단계, 서버가 신고를 검증하고 검증의 결과에 따라 제2 단말기의 추가 중개 요청을 거절하는 단계를 포함할 수 있다.
기재된 실시예에 따르면 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 음란한 영상에 노출되는 것이 방지될 수 있다.
또한, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함이 방지될 수 있다.
또한, 사용자 간의 건전한 영상 통화가 유도될 수 있다.
도 1은 본 발명의 실시예에 따른 전자 장치가 동작하는 환경을 나타내는 시스템 구성도이다.
도 2는 본 발명의 실시예에 따른 단말기의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 서버의 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시예에 따른 단말기가 수신된 영상을 신고하는 방법을 보여주는 순서도이다.
도 5는 본 발명의 다른 실시예에 따른 제1 단말기가 특정한 입력을 검출하는 방법을 보여주는 순서도이다.
도 6은 본 발명의 또 다른 실시예에 따른 제1 단말기가 특정한 입력을 검출하는 방법을 보여주는 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 단말기가 수신된 영상을 신고하는 방법을 보여주는 순서도이다.
도 8은 본 발명의 실시예에 따른 서버의 중개 방법을 보여주는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
도 1은 본 발명의 실시예에 따른 전자 장치가 동작하는 환경을 나타내는 시스템 구성도이다. 도 1을 참조하면, 복수의 전자 장치(100~300)가 동작하는 시스템 환경은 서버(400) 및 복수의 전자 장치(100~300)를 포함할 수 있다. 예를 들어, 복수의 전자 장치(100~300)가 동작하는 환경은 서버(400)를 포함하지 않을 수 있다.
복수의 전자 장치(100~300) 각각은 서버(400)를 매개로 연결될 수 있다. 본 발명의 설명의 편의를 위해, 도 1에서 세 개의 전자 장치가 도시되어 있다. 하지만, 전자 장치의 개수는 세 개로 한정되지 않는다. 복수의 전자 장치(100~300) 각각은 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 스마트 워치, 이동 단말기, 디지털 카메라, 웨어러블 디바이스(wearable device), 또는 휴대용 전자기기 중 하나로써 구현될 수 있다. 복수의 전자 장치(100~300) 각각은 프로그램 또는 애플리케이션을 실행할 수 있다.
복수의 전자 장치(100~300) 각각은 통신망에 연결될 수 있다. 복수의 전자 장치(100~300) 각각은 통신망을 통해 서로 연결되거나 서버(400)와 연결될 수 있다. 복수의 전자 장치(100~300) 각각은 서로 연결된 다른 장치에 데이터를 출력하거나 다른 장치로부터 데이터를 수신할 수 있다.
복수의 전자 장치(100~300) 각각에 연결된 통신망은 유선 통신망, 무선 통신망, 또는 복합 통신망을 포함할 수 있다. 통신망은 3G, LTE, 또는 LTE-A 등과 같은 이동 통신망을 포함할 수 있다. 통신망은 와이파이(Wi-Fi), UMTS/GPRS, 또는 이더넷(Ethernet) 등과 같은 유선 또는 무선 통신망을 포함할 수 있다. 통신망은 마그네틱 보안 출력(MST, Magnetic Secure Transmission), RFID(Radio Frequency IDentification), NFC(Near Field Communication), 지그비(ZigBee), Z-Wave, 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), 또는 적외선 통신(IR, InfraRed communication) 등과 같은 근거리 통신망을 포함할 수 있다. 통신망은 근거리 네트워크(LAN, Local Area Network), 도시권 네트워크(MAN, Metropolitan Area Network), 또는 광역 네트워크(WAN, Wide Area Network) 등을 포함할 수 있다.
복수의 전자 장치(100~300)는 서로 메시지, 파일, 음성 데이터, 영상, 또는 동영상 등을 주고받을 수 있다. 예를 들어, 복수의 전자 장치(100~300)는 서로 TCP(Transmission Control Protocol), UDP(User Datagram Protocol), 또는 WebRTC(Web Real-Time Communication) 등을 이용하여 영상 통화 세션을 수립할 수 있다.
영상 통화 세션은 복수의 전자 장치(100~300) 중 적어도 두 개의 전자 장치 사이에 직접 수립될 수 있다. 다른 실시예에 따르면, 적어도 하나 이상의 다른 장치를 경유하여 복수의 전자 장치(100~300) 중 적어도 두 개의 전자 장치 사이에 영상 통화 세션이 수립될 수 있다. 예를 들어, 영상 통화 세션은 제1 전자 장치(100)와 서버(400) 사이에 수립된 세션 및 서버(400)와 제2 전자 장치(200) 사이에 수립된 세션을 포함할 수 있다.
서버(400)는 복수의 전자 장치(100~300)가 서로 통신을 수행할 수 있도록 연결시킬 수 있다. 예를 들어, 서버(400)는 복수의 전자 장치(100~300)가 영상 통화 세션을 수립할 수 있도록 영상 통화 서비스를 제공할 수 있다. 서버(400)는 복수의 전자 장치(100~300) 각각으로부터 중개 요청을 수신할 수 있다. 중개 요청에 응답하여, 서버(400)는 복수의 전자 장치(100~300)를 중개할 수 있다.
몇몇 실시예로서, 서버(400)는 영상 통화를 수행하는 복수의 전자 장치(100~300) 중 하나로부터 신고를 수신할 수 있다. 서버(400)는 신고를 검증하고, 신고를 전송한 단말기의 상대 단말기의 추가 중개 요청을 거절할 수 있다.
이하에서, 발명의 설명의 편의를 위해, 전자 장치 및 단말기는 동일한 의미로 사용될 수 있다.
도 2는 본 발명의 실시예에 따른 단말기의 구성을 나타내는 블록도이다. 도 2를 참조하면, 제1 단말기(100)는 입력 인터페이스(110), 메모리(120), 출력 인터페이스(130), 통신 인터페이스(140), 및 프로세서(150)를 포함할 수 있다. 도 1에 도시된 제2 단말기(200) 및 제3 단말기(300) 각각은 제1 단말기(100)와 유사 또는 동일하게 구현될 수 있다.
입력 인터페이스(110)는 외부로부터 신호를 수신할 수 있다. 입력 인터페이스(110)는 단말기(100)의 사용자로부터 신호를 수신할 수 있다. 또한, 입력 인터페이스(110)는 외부 장치로부터 신호를 수신할 수 있다. 입력 인터페이스(110)는 예를 들어, 마이크, 카메라, 키보드, 마우스, 트랙볼, 터치스크린, 버튼, 스위치, 센서, 네트워크 인터페이스, 또는 기타 입력 장치 등을 포함할 수 있다. 입력 인터페이스(110)는 입력 인터페이스(110)에 포함된 마이크를 통해 외부로부터 음성을 수신할 수 있다.
또한, 입력 인터페이스(110)는 입력 인터페이스(110)에 포함된 카메라(미도시)로부터 촬영된 이미지를 수신하거나, 단말기(100)의 사용자로부터 제스처를 수신할 수 있다. 또는, 입력 인터페이스(110)에 포함된 터치스크린은 단말기(100)의 사용자로부터 터치 입력을 수신할 수 있다. 또는 입력 인터페이스(110)에 포함된 마이크(미도시)로부터 단말기(100) 사용자의 음성 또는 단말기(100) 주변 소리를 수신할 수 있다. 입력 인터페이스(110)는 단말기(100)의 사용자로부터 수신된 사용자 정보 또는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 정보는 단말기(100)의 사용자의 취미 정보, 성별 정보, 국가 정보 또는 나이 정보 중 적어도 하나를 포함할 수 있다. 그리고, 사용자 입력은 단말기(100)의 사용자로부터 수신되는 터치 입력일 수 있다.
메모리(120)는 데이터를 저장할 수 있다. 메모리(120)는 입력 인터페이스(110)로부터 수신된 음성 또는 이미지 데이터를 저장할 수 있다. 그리고, 메모리(120)는 프로세서(150)에 의해 수행된 연산 결과를 저장할 수 있다. 예를 들어, 메모리(120)는 프로세서(150)에 의해 인코딩된 음성을 저장할 수 있다. 메모리(120)는 통신 인터페이스(140)를 통해 외부에 출력할 데이터를 저장하거나 통신 인터페이스(140)를 통해 외부로부터 수신된 데이터를 저장할 수 있다.
메모리(120)는 소프트웨어 또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(120)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(120)는 프로세서(150)에 의해 실행 가능한 명령어들을 저장할 수 있다.
메모리(120)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 하나를 포함할 수 있다. 메모리(120)는 예를 들어, 플래시(flash) 메모리, ROM(Read Only Memory), RAM(Random Access Memory), EEROM(Electrically Erasable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 중 적어도 하나를 포함할 수 있다. 메모리(120)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.
출력 인터페이스(130)는 디스플레이(131)를 포함할 수 있다. 디스플레이(131)는 화면을 표시할 수 있다. 디스플레이(131)는 사용자 인터페이스를 표시할 수 있다. 디스플레이(131)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.
디스플레이(131)는 데이터를 표시할 수 있다. 디스플레이(131)는 프로세서(150)에 의해 수행된 연산 결과를 표시할 수 있다. 디스플레이(131)는 메모리(120)에 저장된 데이터를 표시할 수 있다. 디스플레이(131)는 통신 인터페이스(140)에 의해 수신된 데이터를 표시할 수 있다. 예를 들어, 디스플레이(131)는 입력 인터페이스(110)로부터 수신되는 영상을 표시할 수 있다.
예를 들어, 디스플레이(131)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 또는 PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 디스플레이(131)는 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 디스플레이(131)는 터치스크린을 포함할 수 있다. 디스플레이(131)가 터치스크린을 포함하는 경우, 디스플레이(131)는 출력 동작을 수행하는 동시에 입력 인터페이스(110)로써 동작할 수 있다.
출력 인터페이스(130)는 소리를 출력할 수 있다. 출력 인터페이스(130)는 입력 인터페이스(110)를 통해 수신된 소리, 또는 외부 장치를 통해 수신된 소리를 출력할 수 있다. 예를 들어, 출력 인터페이스(130)는 스피커(미도시)를 포함할 수 있다.
통신 인터페이스(140)는 단말기(100)의 외부에 데이터를 출력하거나 외부로부터 데이터를 수신할 수 있다. 통신 인터페이스(140)는 서버(400) 또는 외부 장치에 데이터를 출력할 수 있다. 통신 인터페이스(140)는 서버(400) 및 외부 장치로부터 데이터를 수신할 수 있다. 통신 인터페이스(140)는 프로세서(150)에 의해 수행된 연산 결과를 외부에 출력할 수 있다.
통신 인터페이스(140)는 단말기(100)의 사용자로부터 입력된 특정한 입력을 기반으로 생성된 신고를 서버(400)에 출력할 수 있다. 또는, 통신 인터페이스(140)는 메모리(120)에 저장된 사용자 정보 또는 사용자 입력 정보를 서버(400)에 출력할 수 있다.
통신 인터페이스(140)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그(WiGig) 모듈, UWB(Ultra Wide Band) 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신 인터페이스(140)는 마그네틱 보안 출력(MST) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비(ZigBee) 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신 인터페이스(140)는 기타 네트워크 인터페이스를 포함할 수 있다.
프로세서(150) 또는 프로세서(150)에 포함된 구성 요소들 각각은 소프트웨어(software) 또는 하드웨어(hardware) 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계코드, 펌웨어 코드(firmware code), 임베디드 코드(embedded code), 및 애플리케이션(application) 등과 같은 프로그램 실행 명령어들로써 구현될 수 있다. 하드웨어는 전기 전자 회로, 프로세서, 컴퓨터, 압력 센서, 관성 센서, MEMS(microelectromechanical system), 수동 소자들, 또는 그것들의 조합일 수 있다.
프로세서(150)는 단말기(100)의 동작을 제어할 수 있다. 프로세서(150)는 단말기(100)에 포함된 각각의 구성요소와 서로 연결될 수 있고, 단말기(100)에 포함된 각각의 구성요소의 동작을 제어할 수 있다. 프로세서(150)는 입력 인터페이스(110)에 의해 수신된 신호에 대한 응답으로, 단말기(100)의 동작을 제어할 수 있다.
몇몇 실시예로서, 프로세서(150)는 입력 인터페이스(110)를 통해 수신되는 특정한 입력을 검출할 수 있다. 예를 들어, 특정한 입력은 제1 단말기(100)의 사용자에 의해 입력되는 특정한 조작, 특정한 영상, 또는 특정한 소리 중 적어도 하나를 포함할 수 있다. 특정한 입력이 검출되는 경우, 프로세서(150)는 제1 단말기(100)에 수신되는 영상을 서버(400)에 신고할 수 있다.
도 3은 본 발명의 실시예에 따른 서버의 구성을 나타내는 블록도이다. 도 1 및 도 3을 참조하면, 서버(400)는 통신 인터페이스(410), 메모리(420) 및 프로세서(430)를 포함할 수 있다.
통신 인터페이스(410)는 서버(400)의 외부에 데이터를 출력하거나 외부로부터 데이터를 수신할 수 있다. 통신 인터페이스(410)는 복수의 단말기(100~300)에 데이터를 출력할 수 있고, 복수의 단말기(100~300)로부터 데이터를 수신할 수 있다. 통신 인터페이스(410)는 프로세서(430)에 의해 수행된 연산 결과를 외부에 출력할 수 있다. 또한, 통신 인터페이스(410)는 메모리(420)에 저장된 데이터를 외부에 출력할 수 있다.
통신 인터페이스(410)는 복수의 단말기(100~300) 중 적어도 하나로부터 국가를 유추할 수 있는 정보를 수신할 수 있다. 통신 인터페이스(410)에 의해 출력될 데이터 또는 통신 인터페이스(410)에 의해 수신된 데이터는 메모리(420)에 저장될 수 있다.
통신 인터페이스(410)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그 모듈, UWB 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신 인터페이스(410)는 마그네틱 보안 출력(MST) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신 인터페이스(410)는 기타 네트워크 인터페이스를 포함할 수 있다.
메모리(420)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(420)는 프로세서(430)에 의해 실행 가능한 명령어들을 저장할 수 있다. 예를 들어, 애플리케이션은 복수의 단말기(100~300)에 영상 통화 서비스를 제공할 수 있는 애플리케이션일 수 있다.
메모리(420)는 통신 인터페이스(410)를 통해 수신된 정보를 저장할 수 있다. 예를 들어, 메모리(420)는 복수의 단말기(100~300) 각각의 사용자가 애플리케이션에 가입시 입력한 국가 정보, 및 복수의 단말기(100~300) 중 적어도 하나로부터 수신된 국가를 유추할 수 있는 정보를 저장할 수 있다.
메모리(420)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 하나를 포함할 수 있다. 메모리(420)는 예를 들어, 플래시 메모리, ROM, EEROM, EPROM, EEPROM, 하드디스크 드라이브, 또는 레지스터 중 적어도 하나를 포함할 수 있다. 메모리(420)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.
프로세서(430) 또는 프로세서(430)에 포함된 구성 요소들 각각은 소프트웨어 또는 하드웨어 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계코드, 펌웨어 코드, 임베디드 코드, 및 애플리케이션 등과 같은 프로그램 실행 명령어들로 구현될 수 있다. 하드웨어는 전기 전자 회로, 프로세서, 컴퓨터, 압력 센서, 관성 센서, MEMS, 수동 소자들, 또는 그것들의 조합일 수 있다.
프로세서(430)는 메모리(420)에 저장된 명령어들 및 애플리케이션을 실행할 수 있다. 예를 들어, 프로세서(430)는 애플리케이션을 실행함으로써 복수의 단말기(100~300)의 로그인 요청의 수락 여부를 결정할 수 있다. 예를 들어, 복수의 단말기(100~300) 중 적어도 하나로부터 로그인 요청이 수신되면, 프로세서(430)는 메모리(420)에 저장된 국가 정보와 로그인을 요청한 단말기로부터 수신된 국가를 유추할 수 있는 정보를 비교하여 로그인 요청의 수락 여부를 결정할 수 있다. 단 적어도 하나로부터 수신된 이미지에 포함된 컨텐츠의 종류를 식별할 수 있다.
복수의 단말기(100~300) 및 서버(400)의 자세한 동작 방법은 도 4 내지 도 8을 참조하여 설명될 수 있다.
도 4는 본 발명의 실시예에 따른 단말기가 수신된 영상을 신고하는 방법을 보여주는 순서도이다.
도 1, 도 2 및 도 4를 참조하면, S110 단계에서, 제1 단말기(100)는 제2 단말기(200)에 대한 연결 정보를 수신할 수 있다. 그리고, 제1 단말기(100)는 수신된 연결 정보를 기반으로 제2 단말기(200)와 영상 통화 세션을 수립할 수 있다.
S120 단계에서, 제1 단말기(100)는 영상 통화 세션을 통해 제2 단말기(200)로부터 영상을 수신할 수 있다. 영상은 제2 단말기(200)의 사용자의 얼굴의 영상 또는 신체의 영상을 포함할 수 있다. 또는, 영상은 제2 단말기(200)의 주변 영상을 포함할 수 있다.
제1 단말기(100)는 영상을 제2 단말기(200)로부터 직접 수신할 수 있다. 다른 실시예에 따르면, 제1 단말기(100)는 서버(400)를 경유하여 영상을 수신할 수 있다.
S130 단계에서, 제1 단말기(100)는 수신된 영상을 출력 인터페이스(130)의 디스플레이(131)를 통해 출력할 수 있다. 출력된 영상은 제1 단말기(100)의 사용자에게 제공될 수 있다.
S140 단계에서, 제1 단말기(100)는 영상의 출력에 대한 응답으로 특정한 입력을 검출할 수 있다. 예를 들어, 제2 단말기(200)로부터 수신된 영상에 불건전한 컨텐츠(contents)가 포함된 경우, 제1 단말기(100)의 사용자는 특정한 보디랭귀지를 취하거나 특정한 소리를 낼 수 있다. 또는 제1 단말기(100)의 사용자는 제1 단말기(100)에 특정한 동작을 취할 수 있다.
본 발명의 실시예에서, 제1 단말기(100)는 특정한 입력으로서, 제1 단말기(100)의 사용자로부터 수신되는 특정한 조작, 특정한 표정, 특정한 보디랭귀지, 또는 특정한 소리를 검출할 수 있다. 제1 단말기(100)가 특정한 입력을 검출하는 방법은 도 5 내지 도 7을 참조하여 자세히 설명될 수 있다.
본 발명의 실시예로서, 제1 단말기(100)는 특정한 입력으로서 제1 단말기(100)에 대한 특정한 조작을 검출할 수 있다. 예를 들어, 제1 단말기(100)의 디스플레이(131)를 통해 출력되는 영상에 불건전한 컨텐츠가 포함되어 있는 경우, 제1 단말기(100)의 사용자는 제1 단말기(100)를 던지는 조작, 제1 단말기(100)를 떨어트리는 조작, 제1 단말기(100)를 뒤집는 조작, 제1 단말기(100)를 흔드는 조작, 제1 단말기(100)의 디스플레이(131)를 덮는 조작, 제1 단말기의 특정 버튼을 반복하여 누르는 조작, 또는 제1 단말기(100)의 디스플레이(131)에 터치 제스쳐를 반복하여 입력하는 조작 중 적어도 하나의 동작을 취할 수 있다.
제1 단말기(100)는 제1 단말기(100)를 던지는 조작, 제1 단말기(100)를 떨어트리는 조작, 제1 단말기(100)를 뒤집는 조작, 제1 단말기(100)를 흔드는 조작, 제1 단말기(100)의 디스플레이(131)를 덮는 조작, 제1 단말기의 특정 버튼을 반복하여 누르는 조작, 또는 제1 단말기(100)의 디스플레이(131)에 터치 제스쳐를 반복하여 입력하는 조작 중 적어도 하나를 센서를 이용하여 검출할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 제1 단말기가 특정한 입력을 검출하는 방법을 보여주는 순서도이다.
도 4및 도 5를 참조하면, S143단계에서, 제1 단말기(100)는 제1 단말기(100)의 주변 영상을 촬영할 수 있다. 예를 들어 주변 영상은 제1 단말기(100)의 사용자 영상 또는 제1 단말기(100)의 주변 환경에 대한 영상을 포함할 수 있다.
S145 단계에서, 제1 단말기(100)는 특정한 입력으로서 촬영된 영상으로부터 제1 단말기(100)의 사용자의 특정한 표정, 보디랭귀지, 또는 신체 부위에 대응하는 영상을 검출할 수 있다.
몇몇 실시예로서, 제1 단말기(100)는 촬영된 영상으로부터 제1 단말기(100)의 사용자의 찡그린 표정, 놀란 표정, 확장된 동공, 제1 단말기(100)로부터 시선을 피하는 제스처, 눈을 가리는 제스처, 또는 손바닥이 상기 제1 단말기(100)를 향하도록 하는 제스처 중에서 적어도 하나 이상을 검출할 수 있다.
도 6은 본 발명의 또 다른 실시예에 따른 제1 단말기가 특정한 입력을 검출하는 방법을 보여주는 순서도이다.
도 4 및 도 6을 참조하면, S147 단계에서, 제1 단말기(100)는 제1 단말기(100)의 주변에서 나는 소리를 녹음할 수 있다. 예를 들어, 주변에서 나는 소리는 제1 단말기(100)의 사용자의 음성, 또는 제1 단말기(100)의 주변에서 발생하는 생활 소음을 포함할 수 있다.
S149 단계에서, 제1 단말기(100)는 특정한 입력으로서 녹음된 소리로부터 특정한 음성, 또는 언어에 대응하는 부분을 검출할 수 있다. 몇몇 실시예로서, 제1 단말기(100)가 녹음된 소리로부터 비명 또는 욕설 중에서 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
다시 도 4를 참조하면, S150 단계에서, 제1 단말기(100)는 특정한 입력에 대한 응답으로 수신된 영상을 서버(400)에 신고할 수 있다. 좀 더 구체적으로, 특정한 입력이 검출되는 경우, 제1 단말기(100)의 프로세서(150)는 제2 단말기(200)로부터 수신된 영상에 불량한 컨텐츠가 포함된 것으로 판단할 수 있다.
제1 단말기(100)의 프로세서(150)는 특정한 입력이 검출되는 순간에 디스플레이(131)를 통해 출력되는 영상을 캡쳐하여 이미지로 변환할 수 있다. 또는 제1 단말기(100)의 프로세서(150)는 특정한 입력이 검출된 후 기준 시간동안 디스플레이(131)를 통해 출력되는 영상을 녹화할 수 있다. 제1 단말기(100)는 캡쳐된 이미지 또는 녹화된 영상을 통신 인터페이스(140)를 통해 서버(400)로 출력할 수 있다.
S160 단계에서, 제1 단말기(100)는 신고에 대한 응답으로 서버(400)로부터 제3 단말기(300)에 대한 연결 정보를 수신할 수 있다. 그리고, 제1 단말기(100) 및 제2 단말기(200) 사이의 영상 통화 세션은 종료되고, 제1 단말기(100)는 수신된 제3 단말기(300)에 대한 연결 정보를 이용하여 제3 단말기와의 영상 통화 세션을 수립할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 단말기가 수신된 영상을 신고하는 방법을 보여주는 순서도이다.
도 2 및 도 7을 참조하면, S210 단계에서, 제1 단말기(100)는 제2 단말기(200)에 대한 연결 정보를 수신할 수 있다. 그리고, 제1 단말기(100)는 수신된 연결 정보를 기반으로 제2 단말기(200)와 영상 통화 세션을 수립할 수 있다.
S220 단계에서, 제1 단말기(100)는 영상 통화 세션을 통해 제2 단말기(200)로부터 영상 및 소리를 수신할 수 있다. 영상은 제2 단말기(200)의 사용자의 얼굴의 영상 또는 신체의 영상을 포함할 수 있다. 또는, 영상은 제2 단말기(200)의 주변 영상을 포함할 수 있다. 소리는 제2 단말기(200)의 사용자의 음성을 포함할 수 있다. 또는, 소리는 제2 단말기(200)의 주변에서 발생하는 생활 소음을 포함할 수 있다.
몇몇 실시예로서, 제1 단말기(100)는 영상 및 소리를 제2 단말기(200)로부터 직접 수신할 수 있다. 다른 실시예에 따르면, 제1 단말기(100)는 서버(400)를 경유하여 영상 및 소리를 수신할 수 있다.
S230 단계에서, 제1 단말기(100)는 수신된 영상 및 소리를 출력 인터페이스(130)를 통해 출력할 수 있다. 출력된 영상 및 소리는 제1 단말기(100)의 사용자에게 제공될 수 있다.
S240 단계에서, 제1 단말기(100)는 수신된 영상 및 소리로부터 특정한 입력을 검출할 수 있다. 제2 단말기(200)로부터 수신된 영상 또는 소리에 불건전한 컨텐츠(contents)가 포함된 경우, 제1 단말기(100)의 사용자는 불량한 컨텐츠를 특정한 입력으로서 검출할 수 있다. 몇몇 실시 예로서, 제1 단말기(100)는 특정한 입력으로서 촬영된 영상으로부터 특정한 표정, 보디랭귀지, 또는 신체 부위에 대응하는 영상을 검출할 수 있다.
몇몇 실시예로서, 제1 단말기(100)는 제2 단말기(200)로부터 수신된 영상으로부터 특정한 표정, 보디랭귀지, 또는 신체 부위에 대응하는 부분을 검출할 수 있다.
좀 더 구체적으로, 제1 단말기(100)가 제2 단말기(200)로부터 수신된 영상에서 욕 제스처, 모욕 제스처, 인종차별 제스처, 성적 컨텐츠, 알몸 노출(nudity), 성기, 성행위, 비위생적 컨텐츠, 배설물, 배설 행위, 반사회적 컨텐츠, 반인륜적 컨텐츠, 불법 행위, 범죄 행위, 증오범죄(hate crime), 폭력 행위, 학대 행위, 자해 행위, 무기, 마약, 반사회적 심볼, 혐오성(hateful) 컨텐츠, 위협성 컨텐츠, 공포증 유발(phobia-inducing) 컨텐츠, 또는 혈액 중에서 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
몇몇 실시예로서, 제1 단말기(100)는 제2 단말기(200)로부터 수신된 소리로부터 특정한 음성, 또는 언어에 대응하는 부분을 검출할 수 있다. 몇몇 실시예로서, 제1 단말기(100)가 녹음된 소리로부터 비명 또는 욕설 중에서 적어도 하나 이상에 대응하는 부분을 검출할 수 있다.
좀 더 구체적으로, 제1 단말기(100)는 제2 단말기(200)로부터 수신된 소리로부터 굉음, 총성, 구토 소리(vomit sound), 타격 소리(hit sound), 채찍 소리(whip sound), 칼 소리(knife sound), 휘두르는 소리(swing sound), 찌르는 소리(stab sound), 톱 소리(saw sound), 쇳소리(grating sound), 삐걱거리는 소리(creaking sound), 특정한 임계값 이상의 피치(pitch)를 갖는 소리, 또는 특정한 임계값 이상의 크기(loudness)를 갖는 소리 중에서 적어도 하나 이상을 검출할 수 있다.
다시 도 7을 참조하면, S250 단계에서, 제1 단말기(100)는 특정한 입력에 대한 응답으로 수신된 영상을 서버(400)에 신고할 수 있다. 좀 더 구체적으로, 수신된 영상 및 소리로부터 특정한 입력이 검출되는 경우, 제1 단말기(100)의 프로세서(150)는 제2 단말기(200)로부터 수신된 영상에 불량한 컨텐츠가 포함된 것으로 판단할 수 있다.
제1 단말기(100)의 프로세서(150)는 특정한 입력이 검출되는 순간에 디스플레이(131)를 통해 출력되는 영상을 캡쳐하여 이미지로 변환할 수 있다. 또는 제1 단말기(100)의 프로세서(150)는 특정한 입력이 검출된 후 기준 시간동안 디스플레이(131)를 통해 출력되는 영상을 녹화할 수 있다. 제1 단말기(100)는 캡쳐된 이미지 또는 녹화된 영상을 통신 인터페이스(140)를 통해 서버(400)로 출력할 수 있다.
S260 단계에서, 제1 단말기(100)는 신고에 대한 응답으로 서버(400)로부터 제3 단말기(300)에 대한 연결 정보를 수신할 수 있다. 그리고, 제1 단말기(100) 및 제2 단말기(200) 사이의 영상 통화 세션은 종료되고, 제1 단말기(100)는 수신된 제3 단말기(300)에 대한 연결 정보를 이용하여 제3 단말기와의 영상 통화 세션을 수립할 수 있다.
도 8은 본 발명의 실시예에 따른 서버의 중개 방법을 보여주는 순서도이다. 도 1, 도 3 및 도 8을 참조하면, S310 단계에서, 서버(400)는 복수의 단말기(100~300) 각각으로부터 중개 요청을 수신할 수 있다. 중개 요청에 응답하여, 서버(400)는 복수의 단말기(100~300)를 중개할 수 있다.
S320 단계에서, 서버(400)는 제1 단말기(100) 및 제2 단말기(200) 사이에 영상 통화 세션을 수립할 수 있다. 서버(400)는 제1 단말기(100)로부터 수신된 제1 영상 및 제1 소리를 제2 단말기(200)로 전송할 수 있다. 그리고, 서버(400)는 제2 단말기(200)로부터 수신된 제2 영상 및 제2 소리를 제1 단말기로 전송할 수 있다.
S330 단계에서, 제1 단말기(100)에 의해 특정한 입력이 검출되면 서버(400)는 제1 단말기(100)로부터 제2 단말기(100)에 의해 수신된 영상에 대한 신고를 신고할 수 있다.
본 발명의 실시예에서, 제1 단말기(100)는 제2 영상 및 제2 소리의 출력에 대한 응답으로 특정한 입력을 검출할 수 있다. 예를 들어, 제2 영상 및 제2 소리에 불건전한 컨텐츠가 포함된 경우, 제1 단말기(100)의 사용자는 특정한 보디랭귀지를 취하거나 특정한 소리를 낼 수 있다. 또는 제1 단말기(100)의 사용자는 제1 단말기(100)에 특정한 동작을 취할 수 있다.
다른 실시예로서, 제1 단말기(100)는 수신된 제2 영상 및 제2 소리로부터 특정한 입력을 검출할 수 있다. 제2 영상 및 제2 소리에 불건전한 컨텐츠(contents)가 포함된 경우, 제1 단말기(100)는 불량한 컨텐츠를 특정한 입력으로서 검출할 수 있다. 예를 들어, 불량한 컨텐츠는 제2 영상에 포함된 특정한 표정, 보디랭귀지, 또는 신체 부위에 대응하는 부분일 수 있다. 또는 불량한 컨텐츠는 제2 소리에 포함된 특정한 음성, 또는 언어에 대응하는 부분일 수 있다.
S340 단계에서, 서버(400)는 신고에 대한 응답으로 제1 단말기(100) 및 제3 단말기(300) 사이의 영상 통화를 중개할 수 있다. 좀 더 구체적으로, 서버(400)는 제1 단말기(100) 및 제2 단말기(200) 사이의 영상 통화 세션을 중단하고, 제1 단말기(100) 및 제3 단말기(300) 사이의 영상 통화 세션으 수립할 수 있다.
S350 단계에서, 서버(400)는 신고를 검증하고, 검증 결과에 따라 제2 단말기(200)의 추가 중개 요청을 거절할 수 있다. 좀 더 구체적으로, 서버(400)는 제1 단말기(100)로부터 수신된 캡쳐 이미지 또는 영상을 기반으로 제2 단말기(200)가 불건전한 컨텐츠가 포함된 영상 및 소리를 제공하였는지 판단할 수 있다. 그리고, 판단 결과에 따라 서버(400)는 제2 단말기(200)에 추가 영상 통화 서비스를 제공하지 않을 수 있다.
도 1 내지 도 8을 참조하여 설명된 바와 같이, 본 발명의 실시예에 따른 단말기 및 서버는 상대 단말기로부터 수신된 영상 및 소리로부터 자동으로 불량한 컨텐츠를 검출하여 차단함으로써 단말기의 사용자가 상대방으로부터의 음란한 영상에 노출되는 것을 방지할 수 있다. 또한, 단말기 및 서버는 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함을 방지할 수 있다. 또한, 단말기 및 서버는 또한, 사용자 간의 건전한 영상 통화를 유도할 수 있다.
이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다.
또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 또는 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 출력 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (19)

  1. 제1 단말기가 서버로부터 제2 단말기에 대한 연결 정보를 수신하는 단계;
    상기 제1 단말기가 상기 수신된 연결 정보를 이용하여 상기 제2 단말기와의 영상 통화 세션을 수립하는 단계;
    상기 제1 단말기가 상기 영상 통화 세션을 통해 상기 제2 단말기로부터 영상을 수신하는 단계;
    상기 제1 단말기가 상기 수신된 영상을 출력하는 단계;
    상기 제1 단말기가 상기 출력된 영상에 대한 상기 제1 단말기의 사용자의 반응을 카메라를 통해 촬영한 영상 또는 마이크를 통해 녹음한 소리로부터 특정한 입력으로 검출하는 단계;
    상기 제1 단말기가 상기 특정한 입력에 대한 응답으로 상기 서버에 상기 수신된 영상에 대해 신고하는 단계;
    상기 제1 단말기가 상기 신고에 대한 응답으로 상기 서버로부터 상기 제2 단말기와 서로 다른 제3 단말기에 대한 연결 정보를 수신하는 단계; 및
    상기 제1 단말기가 상기 영상 통화 세션을 종료하고 상기 수신된 제3 단말기에 대한 연결 정보를 이용하여 상기 제3 단말기와의 영상 통화 세션을 수립하는 단계를 포함하는 단말기의 동작 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 제1 단말기가 상기 특정한 입력을 검출하는 단계는, 상기 제1 단말기에 대한 특정한 조작을 검출하는 단계를 더 포함하는, 단말기의 동작 방법.
  5. 제 4 항에 있어서,
    상기 제1 단말기가 상기 특정한 조작을 검출하는 단계는,
    상기 제1 단말기가 상기 특정한 조작으로서, 상기 제1 단말기를 던지는 조작, 상기 제1 단말기를 떨어트리는 조작, 상기 제1 단말기를 뒤집는 조작, 상기 제1 단말기를 흔드는 조작, 상기 제1 단말기의 디스플레이를 덮는 조작, 상기 제1 단말기의 버튼을 반복하여 누르는 조작, 및 상기 제1 단말기에 터치 제스쳐를 반복하여 입력하는 조작 중에서 적어도 하나 이상을 검출하는 단말기의 동작 방법.
  6. 제 1 항에 있어서,
    상기 제1 단말기가 상기 특정한 입력을 검출하는 단계는,
    상기 제1 단말기가 상기 제1 단말기의 주변의 영상을 촬영하는 단계; 및
    상기 제1 단말기의 상기 특정한 입력으로서 상기 촬영된 영상으로부터 특정한 표정, 보디랭귀지, 및 신체 부위에 대응하는 부분 중 적어도 하나 이상을 검출하는 단계를 포함하는 단말기의 동작 방법.
  7. 제 6 항에 있어서,
    상기 제1 단말기가 상기 특정한 표정, 상기 보디랭귀지, 및 상기 신체 부위에 대응하는 상기 부분 중 적어도 하나 이상을 검출하는 단계는,
    상기 제1 단말기가 상기 촬영된 영상으로부터 찡그린 표정, 놀란 표정, 확장된 동공, 상기 제1 단말기로부터 시선을 피하는 제스처, 눈을 가리는 제스처, 및 손바닥이 상기 제1 단말기를 향하도록 하는 제스처 중에서 적어도 하나 이상에 대응하는 부분을 검출하는 단말기의 동작 방법.
  8. 제 1 항에 있어서,
    상기 제1 단말기가 상기 특정한 입력을 검출하는 단계는,
    상기 제1 단말기가 상기 제1 단말기의 주변에서 나는 소리를 녹음하는 단계; 및
    상기 제1 단말기가 상기 특정한 입력으로서 상기 녹음된 소리로부터 특정한 음성 또는 언어에 대응하는 부분을 검출하는 단계를 포함하는 단말기의 동작 방법.
  9. 제 8 항에 있어서,
    상기 제1 단말기가 상기 특정한 음성 또는 언어에 대응하는 상기 부분을 검출하는 단계는,
    상기 제1 단말기가 상기 녹음된 소리로부터 비명 및 욕설 중에서 적어도 하나 이상에 대응하는 부분을 검출하는 단말기의 동작 방법.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 제1항 및 제4항 내지 제9항 중 어느 한 항에 따른 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
  17. 서버로부터 제1 단말기에 대한 연결 정보를 수신하고, 상기 수신된 연결 정보를 이용하여 상기 제1 단말기와의 영상 통화 세션을 수립하고, 상기 영상 통화 세션을 통해 상기 제1 단말기로부터 영상을 수신하는 통신 인터페이스;
    상기 수신된 영상을 출력하는 출력 인터페이스;
    상기 출력된 영상에 대한 사용자의 반응을 카메라를 통해 촬영한 영상 또는 마이크를 통해 녹음한 소리로 수신하는 입력 인터페이스; 및
    상기 촬영된 영상 또는 상기 녹음된 소리로부터 특정한 입력을 검출하는 프로세서를 포함하고,
    상기 통신 인터페이스는 상기 특정한 입력에 대한 응답으로 상기 서버에 상기 수신된 영상에 대해 신고하고, 상기 신고에 대한 응답으로 상기 서버로부터 상기 제1 단말기와 서로 다른 제2 단말기에 대한 연결 정보를 수신하고, 상기 제2 단말기에 대한 상기 연결 정보의 수신에 대한 응답으로 상기 영상 통화 세션을 종료하고 상기 수신된 제2 단말기에 대한 연결 정보를 이용하여 상기 제2 단말기와의 영상 통화 세션을 수립하는 단말기.
  18. 서버가 복수의 단말로부터 중개 요청을 수신하는 단계;
    상기 서버가 상기 복수의 단말 중에서 제1 단말기 및 제2 단말기 사이의 영상 통화 연결을 중개하는 단계;
    상기 제1 단말기에 의해 상기 제2 단말기로부터 수신되어 출력된 영상에 대한 상기 제1 단말기의 사용자의 반응이 카메라를 통해 촬영한 영상 또는 마이크를 통해 녹음한 소리로부터 특정한 입력으로 검출되면, 상기 서버가 상기 제1 단말기로부터 상기 수신된 영상에 대한 신고를 수신하는 단계;
    상기 서버가 상기 신고에 대한 응답으로 상기 복수의 단말 중에서 상기 제2 단말기와 서로 다른 제3 단말기를 선택하고 상기 제1 단말기 및 상기 제3 단말기 사이의 영상 통화를 중개하는 단계; 및
    상기 서버가 상기 신고를 검증하고 상기 검증 결과에 따라 상기 제2 단말기의 추가 중개 요청을 거절하는 단계를 포함하는 서버의 동작 방법.
  19. 서버가 복수의 단말기로부터 중개 요청을 수신하는 단계;
    상기 서버가 복수의 단말기 중에서 제1 단말기 및 제2 단말기를 중개하는 단계;
    상기 제1 단말기 및 상기 제2 단말기가 영상 통화 세션을 수립하는 단계;
    상기 제1 단말기가 상기 영상 통화 세션을 통해 상기 제2 단말기로부터 영상을 수신하는 단계;
    상기 제1 단말기가 상기 수신된 영상을 출력하는 단계;
    상기 제1 단말기가 상기 출력된 영상에 대한 상기 제1 단말기의 사용자의 반응을 카메라를 통해 촬영한 영상 또는 마이크를 통해 녹음한 소리로부터 특정한 입력으로 검출하는 단계;
    상기 제1 단말기가 상기 특정한 입력에 대한 응답으로 상기 서버에 상기 수신된 영상에 대해 신고하는 단계;
    상기 서버가 상기 신고에 대한 응답으로 상기 복수의 단말기 중에서 상기 제2 단말기와 서로 다른 제3 단말기를 선택하고 상기 제1 단말기 및 상기 제3 단말기를 중개하는 단계;
    상기 제1 단말기가 상기 제2 단말기와의 상기 영상 통화 세션을 종료하고 상기 제3 단말기와의 영상 통화 세션을 수립하는 단계; 및
    상기 서버가 상기 신고를 검증하고 상기 검증의 결과에 따라 상기 제2 단말기의 추가 중개 요청을 거절하는 단계를 포함하는 방법.
KR1020190054670A 2019-05-10 2019-05-10 단말기, 서버 및 그것의 동작 방법 KR102282963B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190054670A KR102282963B1 (ko) 2019-05-10 2019-05-10 단말기, 서버 및 그것의 동작 방법
US16/869,983 US11716424B2 (en) 2019-05-10 2020-05-08 Video call mediation method
JP2020083082A JP6902762B2 (ja) 2019-05-10 2020-05-11 端末機、サーバ及びその動作方法(mobile、server and operating method thereof)
EP20173922.4A EP3737078A1 (en) 2019-05-10 2020-05-11 Mobile, server and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190054670A KR102282963B1 (ko) 2019-05-10 2019-05-10 단말기, 서버 및 그것의 동작 방법

Publications (2)

Publication Number Publication Date
KR20200129772A KR20200129772A (ko) 2020-11-18
KR102282963B1 true KR102282963B1 (ko) 2021-07-29

Family

ID=70681674

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190054670A KR102282963B1 (ko) 2019-05-10 2019-05-10 단말기, 서버 및 그것의 동작 방법

Country Status (4)

Country Link
US (1) US11716424B2 (ko)
EP (1) EP3737078A1 (ko)
JP (1) JP6902762B2 (ko)
KR (1) KR102282963B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US20230336595A1 (en) * 2022-04-15 2023-10-19 Hyperconnect LLC Video Mediating Apparatus, Method and Computer Readable Recording Medium Thereof

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690279A (ja) 1992-09-08 1994-03-29 Fujitsu General Ltd イタズラ電話撃退装置
JPH09200714A (ja) 1996-01-17 1997-07-31 Casio Comput Co Ltd テレビ電話付き画像処理装置
JP3642716B2 (ja) 2000-04-19 2005-04-27 三菱電機株式会社 テレビ電話装置及び通話方法
KR20010000426A (ko) 2000-09-28 2001-01-05 김용환 지능형 영상 인터페이스 방법
JP3532151B2 (ja) 2000-11-29 2004-05-31 傳一郎 片山 素炭製造方法及び素炭
US20030028875A1 (en) 2001-05-02 2003-02-06 Koninklijke Philips Electronics N.V. Television access control system
EP1311124A1 (en) 2001-11-13 2003-05-14 Matsushita Electric Industrial Co., Ltd. Selective protection method for images transmission
JP3838506B2 (ja) 2001-11-13 2006-10-25 松下電器産業株式会社 画像を用いる通信方法及びその装置
US20030126267A1 (en) 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method and apparatus for preventing access to inappropriate content over a network based on audio or visual content
US7360234B2 (en) 2002-07-02 2008-04-15 Caption Tv, Inc. System, method, and computer program product for selective filtering of objectionable content from a program
US8245252B2 (en) 2002-09-10 2012-08-14 Caption Tv, Inc. System, method, and computer program product for selective replacement of objectionable program content with less-objectionable content
KR100927271B1 (ko) 2003-01-13 2009-11-18 엘지전자 주식회사 디스플레이 장치의 시청 제한 방법
US7321384B1 (en) 2003-06-03 2008-01-22 Cisco Technology, Inc. Method and apparatus for using far end camera control (FECC) messages to implement participant and layout selection in a multipoint videoconference
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7444403B1 (en) * 2003-11-25 2008-10-28 Microsoft Corporation Detecting sexually predatory content in an electronic communication
US8977063B2 (en) 2005-03-09 2015-03-10 Qualcomm Incorporated Region-of-interest extraction for video telephony
JP2006270380A (ja) 2005-03-23 2006-10-05 Victor Co Of Japan Ltd 画像情報送信装置
US7564476B1 (en) 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
WO2007030951A1 (en) 2005-09-16 2007-03-22 Eyeball Networks Inc. Method and system to prevent spam over internet telephony
US20080012935A1 (en) 2005-11-22 2008-01-17 Gateway Inc. Inappropriate content detection and distribution prevention for wireless cameras/camcorders with e-mail capabilities and camera phones
US20070195158A1 (en) 2006-02-23 2007-08-23 Kies Jonathan K Apparatus and methods for managing video calls on a wireless device
US20080059198A1 (en) * 2006-09-01 2008-03-06 Pudding Ltd. Apparatus and method for detecting and reporting online predators
US7911513B2 (en) 2007-04-20 2011-03-22 General Instrument Corporation Simulating short depth of field to maximize privacy in videotelephony
GB0709574D0 (en) 2007-05-18 2007-06-27 Aurix Ltd Speech Screening
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
KR100844334B1 (ko) 2007-06-07 2008-07-08 엘지전자 주식회사 이동통신 단말기의 디스플레이 제어장치 및 방법
KR100882476B1 (ko) 2007-06-14 2009-02-06 유성준 음란성 이미지의 판별 방법과 그 장치
US8165416B2 (en) 2007-06-29 2012-04-24 Microsoft Corporation Automatic gain and exposure control using region of interest detection
US20090041311A1 (en) 2007-08-09 2009-02-12 Jon Hundley Facial recognition based content blocking system
JP2008159034A (ja) 2007-11-07 2008-07-10 Fujitsu Ltd サーバおよび音声信号収集配信方法
US8230011B2 (en) * 2008-03-03 2012-07-24 John Vandenburgh Networked computer alert system
US20090288131A1 (en) 2008-05-13 2009-11-19 Porto Technology, Llc Providing advance content alerts to a mobile device during playback of a media item
US8223187B2 (en) 2008-07-17 2012-07-17 Cisco Technology, Inc. Non-bandwidth intensive method for providing multiple levels of censoring in an A/V stream
KR101450580B1 (ko) 2008-11-19 2014-10-14 삼성전자주식회사 이미지 합성 방법 및 장치
US8904547B2 (en) * 2009-01-05 2014-12-02 International Business Machines Corporation Notification upon exposure to offensive behavioral patterns in collaboration
US8441356B1 (en) * 2009-02-16 2013-05-14 Handhold Adaptive, LLC Methods for remote assistance of disabled persons
JP2010237761A (ja) * 2009-03-30 2010-10-21 Nikon Corp 電子機器
KR101639392B1 (ko) 2009-08-20 2016-07-22 엘지전자 주식회사 이동 단말기
KR101189053B1 (ko) 2009-09-05 2012-10-10 에스케이플래닛 주식회사 아바타 기반 화상 통화 방법 및 시스템, 이를 지원하는 단말기
CN101668157B (zh) 2009-09-24 2011-09-21 中兴通讯股份有限公司 用于视频通话中隐私保护的方法、应用服务器及***
JP2011082694A (ja) 2009-10-05 2011-04-21 Sharp Corp 通信会議システム及び通信装置
KR101384317B1 (ko) 2009-12-21 2014-04-14 한국전자통신연구원 멀티모달 및 멀티스케일 특징 기반 유해 영상 차단 장치 및 방법
US8626879B2 (en) 2009-12-22 2014-01-07 Sling Media, Inc. Systems and methods for establishing network connections using local mediation services
US8301653B2 (en) * 2010-01-25 2012-10-30 Glenn Adamousky System and method for capturing and reporting online sessions
JP2011205243A (ja) 2010-03-24 2011-10-13 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
US8856165B1 (en) 2010-03-26 2014-10-07 Google Inc. Ranking of users who report abuse
US8826322B2 (en) 2010-05-17 2014-09-02 Amazon Technologies, Inc. Selective content presentation engine
JP5442547B2 (ja) 2010-07-08 2014-03-12 株式会社Nttドコモ コンテンツ推薦装置及び方法
JP2012054897A (ja) 2010-09-03 2012-03-15 Sharp Corp 会議システム、情報処理装置、及び情報処理方法
US9313450B2 (en) 2010-09-10 2016-04-12 Nec Corporation Mobile terminal, remote operation system, data transmission control method by mobile terminal, and non-transitory computer readable medium
US8526728B2 (en) 2010-12-21 2013-09-03 Microsoft Corporation Establishing clusters of user preferences for image enhancement
JP5771998B2 (ja) 2011-01-13 2015-09-02 株式会社ニコン 電子機器および電子機器の制御プログラム
CN103238311A (zh) 2011-01-13 2013-08-07 株式会社尼康 电子设备及电子设备的控制程序
EP2693745A4 (en) 2011-03-30 2015-04-01 Fujitsu Ltd INFORMATION PROCESSING DEVICE COMPRISING IMAGE TRANSMISSION CONTROL FUNCTION
EP2515526A3 (en) 2011-04-08 2014-12-24 FotoNation Limited Display device with image capture and analysis module
KR101237469B1 (ko) 2011-05-12 2013-02-26 재단법인 서울호서직업전문학교 음란 이미지 자동 인식 방법, 장치 및 그 방법을 실행하기 위한 프로그램 기록매체
US8970653B2 (en) 2011-06-16 2015-03-03 Vtel Products Corporation, Inc. Video conference control system and method
NO334029B1 (no) 2011-09-30 2013-11-18 Cisco Tech Inc System og fremgangsmåte for etablering av videokonferansesesjon med justerbart filter for markering av tilstedeværelsesnivå i endepunkter
KR101394597B1 (ko) 2012-05-09 2014-05-27 김명훈 얼굴검출 알고리즘을 이용한 영상보안장치와 영상보안시스템 및 얼굴검출 알고리즘을 이용한 영상보안방법
WO2014000774A1 (fr) 2012-06-26 2014-01-03 Abb Technology Ag Installation flexible d'assemblage de differents elements en tole
KR101936802B1 (ko) 2012-07-20 2019-01-09 한국전자통신연구원 얼굴인식 기반의 개인정보보호 장치 및 방법
US9288387B1 (en) 2012-09-11 2016-03-15 Amazon Technologies, Inc. Content display controls based on environmental factors
US9501702B2 (en) 2012-12-11 2016-11-22 Unify Gmbh & Co. Kg Method of processing video data, device, computer program product, and data construct
US20150070516A1 (en) * 2012-12-14 2015-03-12 Biscotti Inc. Automatic Content Filtering
US9154709B2 (en) 2012-12-21 2015-10-06 Google Inc. Recommending transformations for photography
KR101800617B1 (ko) 2013-01-02 2017-12-20 삼성전자주식회사 디스플레이 장치 및 이의 화상 통화 방법
US9013536B2 (en) 2013-03-13 2015-04-21 Futurewei Technologies, Inc. Augmented video calls on mobile devices
US9716599B1 (en) * 2013-03-14 2017-07-25 Ca, Inc. Automated assessment of organization mood
EP2782326B1 (en) 2013-03-20 2022-04-27 Samsung Electronics Co., Ltd. Method and apparatus for processing an image based on an image property and ambient environment information
US9230328B1 (en) 2013-06-28 2016-01-05 Google Inc. Providing image parameters
CN103413270A (zh) 2013-08-15 2013-11-27 北京小米科技有限责任公司 一种图像的处理方法、装置和终端设备
JP6110503B2 (ja) 2013-09-24 2017-04-05 日立マクセル株式会社 テレビ通話装置
EP2887625A1 (en) 2013-12-19 2015-06-24 Alcatel Lucent Method for real-time reporting and prevention of call abuse
US9460340B2 (en) 2014-01-31 2016-10-04 Google Inc. Self-initiated change of appearance for subjects in video and images
CN104836977B (zh) 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及***
EP3134873A1 (en) 2014-04-25 2017-03-01 Sony Corporation Processing digital photographs in response to external applications
US9451335B2 (en) 2014-04-29 2016-09-20 At&T Intellectual Property I, Lp Method and apparatus for augmenting media content
WO2015171934A1 (en) 2014-05-09 2015-11-12 Google Inc. Providing pre-edits for photos
US9462112B2 (en) 2014-06-19 2016-10-04 Microsoft Technology Licensing, Llc Use of a digital assistant in communications
US20150370907A1 (en) 2014-06-19 2015-12-24 BrightSky Labs, Inc. Systems and methods for intelligent filter application
EP3164200A4 (en) * 2014-07-03 2018-02-28 Krush Technologies, LLC Electronically mediated reaction game
US9531998B1 (en) * 2015-07-02 2016-12-27 Krush Technologies, Llc Facial gesture recognition and video analysis tool
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US9858470B2 (en) 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
US9646227B2 (en) 2014-07-29 2017-05-09 Microsoft Technology Licensing, Llc Computerized machine learning of interesting video sections
US9282287B1 (en) 2014-09-09 2016-03-08 Google Inc. Real-time video transformations in video conferences
US9516220B2 (en) 2014-10-02 2016-12-06 Intel Corporation Interactive video conferencing
KR20160051390A (ko) 2014-11-03 2016-05-11 삼성전자주식회사 전자장치 및 전자장치의 필터 제공 방법
JP6492638B2 (ja) 2014-12-25 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US9503456B1 (en) 2015-01-22 2016-11-22 Google Inc. Video chat abuse detection based on external context
US9380264B1 (en) 2015-02-16 2016-06-28 Siva Prasad Vakalapudi System and method for video communication
US9569697B1 (en) 2015-02-19 2017-02-14 Google Inc. Object oriented image editing
US9576190B2 (en) * 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
WO2016189350A1 (en) * 2015-05-23 2016-12-01 Yogesh Chunilal Rathod Calling to user(s) for real-time sharing, participation, e-commerce, workflow, communication & collaboration in the event of acceptance of call by caller user(s)
US20160350675A1 (en) 2015-06-01 2016-12-01 Facebook, Inc. Systems and methods to identify objectionable content
US10198667B2 (en) 2015-09-02 2019-02-05 Pocketguardian, Llc System and method of detecting offensive content sent or received on a portable electronic device
KR20170059201A (ko) 2015-11-20 2017-05-30 삼성전자주식회사 전자 장치 및 전자 장치의 컨텐츠 출력 방법
KR101751620B1 (ko) 2015-12-15 2017-07-11 라인 가부시키가이샤 시각적 또는 청각적 효과의 양방향 전달을 이용한 영상 통화 방법 및 시스템
KR20170082349A (ko) 2016-01-06 2017-07-14 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
BR102016007265B1 (pt) 2016-04-01 2022-11-16 Samsung Eletrônica da Amazônia Ltda. Método multimodal e em tempo real para filtragem de conteúdo sensível
US10104025B2 (en) * 2016-05-23 2018-10-16 Oath Inc. Virtual chat rooms
US9848167B1 (en) 2016-06-21 2017-12-19 Amazon Technologies, Inc. Low bandwidth video
KR20180000255A (ko) 2016-06-22 2018-01-02 엘지전자 주식회사 이동 단말기 및 그 이동 단말기의 제어 방법
JP2017228224A (ja) 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR20180039402A (ko) 2016-10-10 2018-04-18 주식회사 하이퍼커넥트 영상 표시 장치 및 영상 표시 방법
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
US10349126B2 (en) 2016-12-19 2019-07-09 Samsung Electronics Co., Ltd. Method and apparatus for filtering video
US10349224B2 (en) * 2017-01-24 2019-07-09 Essential Products, Inc. Media and communications in a connected environment
US10754965B2 (en) 2017-03-08 2020-08-25 Blackberry Limited Data messaging with privacy tokens
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR101967658B1 (ko) 2017-05-27 2019-04-29 주식회사 하이퍼커넥트 영상 통화 장치 및 영상 통화 방법
KR102283972B1 (ko) 2017-07-14 2021-08-02 주식회사 하이퍼커넥트 통신 장치, 서버 및 동작 방법
KR102312861B1 (ko) * 2017-08-09 2021-10-15 주식회사 하이퍼커넥트 통신 장치, 서버 및 통신 방법
JP2019047357A (ja) 2017-09-04 2019-03-22 キヤノン株式会社 撮像装置付き表示装置
KR101989842B1 (ko) 2017-12-07 2019-06-17 주식회사 하이퍼커넥트 단말기 및 그것의 영상 처리 방법
KR102056806B1 (ko) 2017-12-15 2019-12-18 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말과 서버
KR102044242B1 (ko) 2017-12-27 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말 및 서버
KR102079091B1 (ko) 2018-01-31 2020-02-19 주식회사 하이퍼커넥트 단말기 및 그것의 이미지 처리 방법
KR20190098518A (ko) 2018-02-14 2019-08-22 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
WO2019217251A1 (en) * 2018-05-05 2019-11-14 Tangosquared Llc Novel decency filtration tools and their use in interfacing systems
JP2020010158A (ja) 2018-07-06 2020-01-16 本田技研工業株式会社 周辺画像の提供方法、及び通信端末用プログラム
US10440063B1 (en) * 2018-07-10 2019-10-08 Eturi Corp. Media device content review and management
US10440324B1 (en) 2018-09-06 2019-10-08 Amazon Technologies, Inc. Altering undesirable communication data for communication sessions
KR102266888B1 (ko) 2018-12-31 2021-06-21 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말기 및 서버
US10810726B2 (en) 2019-01-30 2020-10-20 Walmart Apollo, Llc Systems and methods for detecting content in images using neural network architectures
US20200335089A1 (en) * 2019-04-16 2020-10-22 International Business Machines Corporation Protecting chat with artificial intelligence
WO2020250082A1 (ja) * 2019-06-14 2020-12-17 株式会社半導体エネルギー研究所 ユーザーの感情に応じた動作を実行する情報処理装置
US11330313B2 (en) * 2019-08-02 2022-05-10 Dell Products L.P. Crowd rating media content based on micro-expressions of viewers
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102287704B1 (ko) 2020-01-31 2021-08-10 주식회사 하이퍼커넥트 단말기, 그것의 동작 방법 및 컴퓨터 판독 가능한 기록매체

Also Published As

Publication number Publication date
KR20200129772A (ko) 2020-11-18
JP6902762B2 (ja) 2021-07-14
US20200358904A1 (en) 2020-11-12
EP3737078A1 (en) 2020-11-11
US11716424B2 (en) 2023-08-01
JP2020188461A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
KR102282963B1 (ko) 단말기, 서버 및 그것의 동작 방법
US11323659B2 (en) Video communication device, video communication method, and video communication mediating method
KR102311603B1 (ko) 단말기 및 그것의 동작 방법
KR102283972B1 (ko) 통신 장치, 서버 및 동작 방법
US10701315B2 (en) Video communication device and video communication method
US11606397B2 (en) Server and operating method thereof
US9819784B1 (en) Silent invocation of emergency broadcasting mobile device
WO2015062462A1 (en) Matching and broadcasting people-to-search
CN105120122A (zh) 报警方法及装置
US20210243407A1 (en) Terminal and operating method thereof
US11553157B2 (en) Device and method of displaying images
KR20190016671A (ko) 통신 장치, 서버 및 통신 방법
KR102503049B1 (ko) 신고 평가 장치 및 그것의 동작 방법
CN112134788A (zh) 事件处理方法、装置、存储介质、移动终端及电脑
CN106656746A (zh) 信息输出方法及装置
CN107257318A (zh) 电子设备的控制方法、装置及计算机可读存储介质
EP3758387A1 (en) Mobile, server and operating method thereof for matching user profiles
KR102051828B1 (ko) 영상 통화 방법 및 영상 통화 중개 장치
KR102315211B1 (ko) 단말기 및 그것의 동작 방법
CN109815030B (zh) 通信方法及装置
CN110007982B (zh) 通信方法及装置
CN107169096B (zh) 音频信息处理的方法及装置
CN112034976A (zh) 一种数据处理方法和装置、一种用于数据处理的装置

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)