JP2020188461A - 端末機、サーバ及びその動作方法(mobile、server and operating method thereof) - Google Patents

端末機、サーバ及びその動作方法(mobile、server and operating method thereof) Download PDF

Info

Publication number
JP2020188461A
JP2020188461A JP2020083082A JP2020083082A JP2020188461A JP 2020188461 A JP2020188461 A JP 2020188461A JP 2020083082 A JP2020083082 A JP 2020083082A JP 2020083082 A JP2020083082 A JP 2020083082A JP 2020188461 A JP2020188461 A JP 2020188461A
Authority
JP
Japan
Prior art keywords
terminal
video
server
received
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020083082A
Other languages
English (en)
Other versions
JP6902762B2 (ja
Inventor
アン サンギル
Sangil Ahn
アン サンギル
ジュン カンシク
Kangsik Jung
ジュン カンシク
ヨン ヒョンテク
Hyountaek Yong
ヨン ヒョンテク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyperconnect LLC
Original Assignee
Hyperconnect LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyperconnect LLC filed Critical Hyperconnect LLC
Publication of JP2020188461A publication Critical patent/JP2020188461A/ja
Application granted granted Critical
Publication of JP6902762B2 publication Critical patent/JP6902762B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9202Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Hospice & Palliative Care (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Emergency Management (AREA)
  • General Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】相手方と映像通話をする使用者が相手方からの淫らな映像にさらされることを防止する端末機、サーバ及びその動作方法を提供する。【解決手段】システムの映像通話仲介方法は、サーバが複数の端末機から仲介要請を受信する段階、サーバが複数の端末機のうち第1端末機及び第2端末機を仲介する段階、第1端末機及び第2端末機が映像通話セッションを確立する段階、第1端末機が映像通話セッションを介して第2端末機から映像を受信する段階、第1端末機が特定の入力を検出する段階、第1端末機が特定の入力に対する応答としてサーバに受信された映像を申告する段階、第1端末機が第2端末機との映像通話セッションを終了し、第3端末機との映像通話セッションを確立する段階、サーバが申告を検証し第2端末機の追加仲介要請を拒否する段階を含む。【選択図】図4

Description

本発明は、映像通話を行う使用者が相手方からの不適切な映像にさらされることを防止することができる端末機、サーバ及びその動作方法に関する。
通信技術が発展し、電子装置が小型化するに伴い、個人用端末機が一般消費者に広く普及している。特に最近では、スマートフォンまたはスマートタブレットのような携帯用個人端末機が広く普及している。ほとんどの端末機は、通信機能を含んでいる。使用者は、端末機を用いてインターネットで検索を行ったり、他の使用者とメッセージを送受信することができる。
また、小型カメラ技術、小型マイク技術、小型ディスプレイ技術及び小型スピーカー技術の発展に伴い、スマートフォンのようなほとんどの端末機には、カメラ、マイク、ディスプレイ及びスピーカーが含まれている。使用者は、端末機を用いて音声を録音したり、音声が含まれた動画を撮影することができる。使用者は、端末機に含まれたスピーカーを介して録音された音声を確認したり、ディスプレイを介して前記撮影された動画を確認することができる。
また、使用者は、端末機の通信機能を用いて録音された音声または撮影された動画を他の使用者と共有することができる。使用者は、以前に録音された音声または以前に撮影された動画を他の使用者に送信することができる。また、使用者は、端末によって現在録音されている音声または現在撮影されている動画をリアルタイムで他の使用者に送信することができる。
使用者の端末機に含まれたディスプレイは、使用者の端末によって現在撮影されている動画及び他の使用者の端末によって現在撮影されている動画を同時に表示することができる。また、使用者の端末機に含まれたスピーカーは、他の使用者の端末によって現在録音されている音声を同時に再生することができる。すなわち、使用者及び他の使用者は、各自の端末機を用いて互いに映像通話(video call)を行うことができる。
使用者及び他の使用者は、互いにすでに知っている関係であることもあり、互いに知らない関係であることもある。使用者及び他の使用者は、互いに知らない関係であったとしても、サーバの仲介を介して互いに映像通話をすることができる。使用者が相手方と互いに映像通話をするとき、使用者は相手方からの淫らな映像にさらされる可能性がある。特に、使用者が互いに知らない関係にある相手方と映像通話をする場合、使用者が相手方からの淫らな映像にさらされる可能性が高い。
例えば、相手方の端末によって撮影された相手方の裸体の映像が映像通話セッションを介して使用者の端末に受信され得る。使用者が淫らな映像にさらされた場合、使用者は性的羞恥心や不快感を感じ得る。
記載された実施形態によれば、相手方と映像通話をする使用者が相手方からの淫らな映像にさらされることを防止することができる端末機、サーバ及びその動作方法が提供されることができる。
また、相手方と映像通話をする使用者が相手方からの映像によって感じ得る性的羞恥心や不快感を防止することができる端末機、サーバ及びその動作方法が提供されることができる。
また、使用者間の健全な映像通話を誘導することができる端末機、サーバ及びその動作方法が提供されることができる。
本発明の実施形態に係る第1端末機の動作方法は、サーバから第2端末機についての連結情報を受信する段階、受信された連結情報を用いて第2端末機との映像通話セッションを確立する段階、映像通話セッションを介して第2端末機から映像を受信する段階、受信された映像に対応する受信された入力からまたは受信された映像から特定の入力を検出する段階、特定の入力に対する応答としてサーバに受信された映像を申告する段階、申告に対する応答としてサーバから第2端末機と互いに異なる第3端末機についての連結情報を受信する段階、及び映像通話セッションを終了し、受信された第3端末機についての連結情報を用いて、第3端末機との映像通話セッションを確立する段階を含むことができる。
実施形態として、第1端末機が特定の入力を検出する段階は、第1端末機が特定の操作、特定の映像、及び特定の音のうちの少なくとも1つ以上を検出することができる。
実施形態として、第1端末機が受信された映像を出力する段階をさらに含み、第1端末機が特定の入力を検出する段階は、第1端末機が受信された映像の出力に対する応答として特定の入力を受信することができる。
実施形態として、第1端末機が特定の入力を検出する段階は、第1端末機が特定の入力として第1端末機に対する特定の操作を検出することができる。
実施形態として、第1端末機の特定の操作を検出する段階は、第1端末機が特定の操作として、第1端末機を投げる操作、第1端末機を落とす操作、第1端末機を裏返す操作、第1端末機を振る操作、第1端末機のディスプレイを覆う操作、第1端末機のボタンを繰り返して押す操作、及び第1端末機にタッチジェスチャを繰り返して入力する操作のうちの少なくとも1つ以上を検出することができる。
実施形態として、第1端末機が特定の入力を検出する段階は、第1端末機が第1端末機の周辺の映像を撮影する段階及び第1端末機の特定の入力として撮影された映像から特定の表情、ボディランゲージ、及び身体部位に対応する部分を検出することができる。
実施形態として、第1端末機が特定の表情、ボディランゲージ、または身体部位に対応する部分を検出する段階は、第1端末機が撮影された映像からしかめた表情、驚いた表情、拡張した瞳孔、第1端末機から視線をそらすジェスチャー、目を覆うジェスチャー、及び手のひらが第1端末機に向くようにするジェスチャーのうちの少なくとも1つ以上に対応する部分を検出することができる。
実施形態として、第1端末機が特定の入力を検出する段階は、第1端末機が第1端末機の周辺の音を録音する段階、及び第1端末機が特定の入力として録音された音から特定の音声または言語に対応する部分を検出する段階を含むことができる。
実施形態として、第1端末機が特定の音声または言語に対応する部分を検出する段階は、第1端末機が録音された音から悲鳴や罵声のうちの少なくとも1つ以上に対応する部分を検出することができる。
実施形態として、第1端末機が特定の入力を検出する段階は、第1端末機が特定の入力として受信された映像から特定の表情、ボディランゲージ、及び身体部位に対応する部分のうちの少なくとも1つ以上を検出することができる。
実施形態として、第1端末機が特定の表情、ボディランゲージ、または身体部位に対応する部分を検出する段階は、第1端末機が受信された映像から罵声ジェスチャー、侮辱ジェスチャー、人種差別ジェスチャー、性的コンテンツ、裸体露出(nudity)、非衛生的コンテンツ、***的コンテンツ、反人倫的コンテンツ、不法行為、犯罪行為、及び嫌悪性(hateful)コンテンツのうちの少なくとも1つ以上に対応する部分を検出することができる。
実施形態として、第1端末機が映像通話セッションを介して第2端末機から受信された映像に対応する音を受信することができる。
実施形態として、第1端末機が受信された映像及び受信された音を出力することができる。
実施形態として、第1端末機が特定の入力を検出する段階は、第1端末機が特定の入力として受信された音から特定の音声、騒音、及び言語のうちの少なくとも1つ以上に対応する部分を検出することができる。
実施形態として、特定の音声はうめき声、悲鳴、及び奇声のうちの少なくとも1つ以上を含み、特定の騒音は轟音、銃声、特定の臨界値以上のピッチ(pitch)を有する音、及び特定の臨界値以上の大きさを有する音のうちの少なくとも1つ以上を含み、特定の言語は罵声、侮辱、名誉毀損、セクハラ、***的行為、及びヘイトスピーチ(hate speech)のうちの少なくとも1つ以上に関連する言語を含むことができる。
本発明の実施形態に係る端末機は、サーバから第1端末機についての連結情報を受信し、受信された連結情報を用いて第1端末機との映像通話セッションを確立し、映像通話セッションを介して第1端末機から映像を受信する通信インターフェース、受信された映像を出力する出力インターフェース、受信された映像に対応する入力を受信する入力インターフェース、及び受信された入力または受信された映像から特定の入力を検出するプロセッサを含み、通信インターフェースは、特定の入力に対する応答としてサーバに受信された映像を申告し、申告に対する応答としてサーバから第1端末機と互いに異なる第2端末機についての連結情報を受信し、第2端末機についての連結情報の受信に対する応答として映像通話セッションを終了し、受信された第2端末機についての連結情報を用いて、第2端末機との映像通話セッションを確立することができる。
本発明の実施形態に係るサーバの映像通話仲介方法は、サーバが複数の端末から仲介要請を受信する段階、サーバが複数の端末のうち第1端末機及び第2端末機の間の映像通話連結を仲介する段階、第1端末機によって特定の入力が検出されると、サーバが第1端末機から第2端末機によって受信された映像に対する申告を受信する段階、サーバが申告に対する応答として複数の端末のうち第2端末機と互いに異なる第3端末機を選択し、第1端末機及び第3端末機の間の映像通話を仲介する段階、及びサーバが申告を検証し、検証結果に基づいて第2端末機の追加仲介要請を拒否する段階を含むことができる。
本発明の実施形態に係るシステムの映像通話仲介方法は、サーバが複数の端末機から仲介要請を受信する段階、サーバが複数の端末機のうち第1端末機及び第2端末機を仲介する段階、第1端末機及び第2端末機が映像通話セッションを確立する段階、第1端末機が映像通話セッションを介して第2端末機から映像を受信する段階、第1端末機が特定の入力を検出する段階、第1端末機が特定の入力に対する応答としてサーバに受信された映像を申告する段階、サーバが申告に対する応答として複数の端末機のうち第2端末機と互いに異なる第3端末機を選択し、第1端末機及び第3端末機を仲介する段階、第1端末機が第2端末機との映像通話セッションを終了し、第3端末機との映像通話セッションを確立する段階、サーバが申告を検証し検証の結果に基づいて第2端末機の追加仲介要請を拒否する段階を含むことができる。
記載された実施形態によれば、相手方と映像通話をする使用者が相手方からの淫らな映像にさらされることが防止されることができる。
また、相手方と映像通話をする使用者が相手方からの映像によって感じ得る性的羞恥心や不快感が防止されることができる。
また、使用者間の健全な映像通話が誘導されることができる。
本発明の実施形態に係る電子装置が動作する環境を示すシステム構成図である。 本発明の実施形態に係る端末機の構成を示すブロック図である。 本発明の実施形態に係るサーバの構成を示すブロック図である。 本発明の実施形態に係る端末機が受信された映像を申告する方法を示すフローチャートである。 本発明の他の実施形態に係る第1端末機が特定の入力を検出する方法を示すフローチャートである。 本発明のまた他の実施形態に係る第1端末機が特定の入力を検出する方法を示すフローチャートである。 本発明の他の実施形態に係る端末機が受信された映像を申告する方法を示すフローチャートである。 本発明の実施形態に係るサーバの仲介方法を示すフローチャートである。
本発明の利点及び特徴、そしてそれを達成する方法は、添付した図面と共に詳細に後述されている実施形態を参照すると明確になる。しかし、本発明は、以下で開示される実施形態に限定されるものではなく、互いに異なる様々な形態で具現されることができ、単に本実施形態は、本発明の開示が完全になるようにして、本発明が属する技術分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明は、請求項の範疇によって定義されるだけである。明細書全体にわたって同一の参照符号は、同一の構成要素を指す。
「第1」または「第2」などが、様々な構成要素を記述するために使用されるが、このような構成要素は、前記のような用語によって制限されるものではない。前記のような用語は、単に1つの構成要素を他の構成要素と区別するために使用されることができる。したがって、以下に言及される第1構成要素は、本発明の技術的思想内で第2構成要素であることもできる。
本明細書で使用される用語は、実施形態を説明するためのものであって、本発明を制限しようとするものではない。本明細書において、単数形は、文句で特に言及しない限り、複数形も含む。明細書で使用される「含む(comprises)」または「含んでいる(comprising)」は、言及された構成要素または段階が1つ以上の他の構成要素または段階の存在または追加を排除しないという意味を内包する。
別途の定義がなければ、本明細書で使用されるすべての用語は、本発明が属する技術分野において、通常の知識を有する者に共通的に理解され得る意味で解釈されることができる。また、一般的に使用される辞書に定義されている用語は、明白に特別に定義されていない限り、理想的または過度に解釈されない。
図1は、本発明の実施形態に係る電子装置が動作する環境を示すシステム構成図である。図1を参照すると、複数の電子装置100〜300が動作するシステム環境は、サーバ400及び複数の電子装置100〜300を含むことができる。例えば、複数の電子装置100〜300が動作する環境は、サーバ400を含まないこともあり得る。
複数の電子装置100〜300のそれぞれは、サーバ400を媒介として連結されることができる。本発明の説明の便宜のために、図1で3つの電子装置が示されている。しかし、電子装置の数は、3つに限定されない。複数の電子装置100〜300のそれぞれは、デスクトップコンピュータ、ラップトップコンピュータ、スマートフォン、スマートタブレット、スマートウォッチ、移動端末機、デジタルカメラ、ウェアラブルデバイス(wearable device)、または携帯用電子機器のうちの1つとして具現されることができる。複数の電子装置100〜300のそれぞれは、プログラムまたはアプリケーションを実行することができる。
複数の電子装置100〜300のそれぞれは、通信網に連結されることができる。複数の電子装置100〜300のそれぞれは、通信網を介して連結されたり、サーバ400と連結されることができる。複数の電子装置100〜300のそれぞれは、互いに連結された他の装置にデータを出力したり、他の装置からデータを受信することができる。
複数の電子装置100〜300のそれぞれに連結された通信網は、有線通信網、無線通信網、または複合通信網を含むことができる。通信網は、3G、LTE、またはLTE−Aなどのような移動通信網を含むことができる。通信網は、ワイファイ(Wi−Fi)、UMTS/GPRS、またはイーサネット(Ethernet)などのような有線または無線通信網を含むことができる。通信網は、マグネチック保安出力(MST,Magnetic Secure Transmission)、RFID(Radio Frequency IDentification)、NFC(Near Field Communication)、ジグビー(ZigBee(登録商標))、Z−Wave、ブルートゥース(Bluetooth(登録商標))、低電力ブルートゥース(BLE,Bluetooth Low Energy)、または赤外線通信(IR,InfraRed communication)などのような近距離通信網を含むことができる。通信網は、近距離ネットワーク(LAN,Local Area Network)、メトロポリタン・エリア・ネットワーク(MAN,Metropolitan Area Network)、またはワイド・エリア・ネットワーク(WAN,Wide Area Network)などを含むことができる。
複数の電子装置100〜300は、互いにメッセージ、ファイル、音声データ、映像、または動画などを送受信することができる。例えば、複数の電子装置100〜300は、互いにTCP(Transmission Control Protocol)、UDP(User Datagram Protocol)、またはWebRTC(Web Real-Time Communication)などを用いて映像通話セッションを確立することができる。
映像通話セッションは、複数の電子装置100〜300のうちの少なくとも2つの電子装置の間に直接確立することができる。他の実施形態によると、少なくとも1つ以上の他の装置を経由して、複数の電子装置100〜300のうちの少なくとも2つの電子装置の間に映像通話セッションが確立することができる。例えば、映像通話セッションは、第1電子装置100とサーバ400との間に確立したセッション及びサーバ400と第2電子装置200との間に確立したセッションを含むことができる。
サーバ400は、複数の電子装置100〜300が互いに通信を行うことができるように連結させることができる。例えば、サーバ400は、複数の電子装置100〜300が映像通話セッションを確立することができるように映像通話サービスを提供することができる。サーバ400は、複数の電子装置100〜300のそれぞれから仲介要請を受信することができる。仲介要請に応答して、サーバ400は、複数の電子装置100〜300を仲介することができる。
いくつかの実施形態として、サーバ400は、映像通話を行う複数の電子装置100〜300のうちのいずれが1つから申告を受信することができる。サーバ400は、申告を検証し、申告を送信した端末機の相手端末機の追加仲介要請を拒否することができる。
以下では、発明の説明の便宜のために、電子装置及び端末機は、同一の意味で使用され得る。
図2は、本発明の実施形態に係る端末機の構成を示すブロック図である。図2を参照すると、第1端末機100は、入力インターフェース110、メモリー120、出力インターフェース130、通信インターフェース140、及びプロセッサ150を含むことができる。図1に示された第2端末機200及び第3端末機300のそれぞれは、第1端末機100と類似または同一に具現されることができる。
入力インターフェース110は、外部から信号を受信することができる。入力インターフェース110は、端末機100の使用者から信号を受信することができる。また、入力インターフェース110は、外部装置から信号を受信することができる。入力インターフェース110は、例えば、マイク、カメラ、キーボード、マウス、トラックボール、タッチスクリーン、ボタン、スイッチ、センサー、ネットワークインターフェース、またはその他の入力装置などを含むことができる。入力インターフェース110は、入力インターフェース110に含まれたマイクを介して外部から音声を受信することができる。
また、入力インターフェース110は、入力インターフェース110に含まれたカメラ(図示せず)から撮影されたイメージを受信したり、端末機100の使用者からジェスチャーを受信することができる。または、入力インターフェース110に含まれたタッチスクリーンは、端末機100の使用者からタッチ入力を受信することができる。または入力インターフェース110に含まれたマイク(図示せず)から端末機100使用者の音声または端末機100周辺の音を受信することができる。入力インターフェース110は、端末機100の使用者から受信された使用者情報または使用者入力を受信することができる。例えば、使用者情報は、端末機100の使用者の趣味情報、性別情報、国家情報または年齢情報のうちの少なくとも1つを含むことができる。そして、使用者入力は、端末機100の使用者から受信されるタッチ入力であり得る。
メモリー120は、データを保存することができる。メモリー120は、入力インターフェース110から受信した音声やイメージデータを保存することができる。また、メモリー120は、プロセッサ150によって行われた演算結果を保存することができる。例えば、メモリー120は、プロセッサ150によってエンコードされた音声を保存することができる。メモリー120は、通信インターフェース140を介して外部に出力するデータを保存したり、通信インターフェース140を介して外部から受信したデータを保存することができる。
メモリー120は、ソフトウェアまたはプログラムを保存することができる。例えば、メモリー120は、アプリケーション、アプリケーション・プログラミング・インターフェース(API)などのようなプログラム及び様々な種類のデータを保存することができる。メモリー120は、プロセッサ150によって実行可能なコマンドを保存することができる。
メモリー120は、揮発性メモリーまたは不揮発性メモリーのうちの少なくとも1つを含むことができる。メモリー120は、例えば、フラッシュ(flash)メモリー、ROM(Read Only Memory)、RAM(Random Access Memory)、EEROM(Electrically Erasable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、ハードディスクドライブ(HDD,Hard Disk Drive)、またはレジスター(register)のうちの少なくとも1つを含むことができる。メモリー120は例えば、ファイルシステム、データベース、またはエンベデッドデータベースなどを含むことができる。
出力インターフェース130は、ディスプレイ131を含むことができる。ディスプレイ131は、画面を表示することができる。ディスプレイ131は、使用者インターフェースを表示することができる。ディスプレイ131は、使用者からの入力に対する応答として他の画面を表示することができる。
ディスプレイ131は、データを表示することができる。ディスプレイ131は、プロセッサ150によって行われた演算結果を表示することができる。ディスプレイ131は、メモリー120に保存されたデータを表示することができる。ディスプレイ131は、通信インターフェース140によって受信されたデータを表示することができる。例えば、ディスプレイ131は、入力インターフェース110から受信される映像を表示することができる。
例えば、ディスプレイ131は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)、またはPDP(Plasma Display Panel)などの平板表示装置を含むことができる。ディスプレイ131は、曲面ディスプレイまたはフレキシブルディスプレイ(flexible display)を含むことができる。ディスプレイ131は、タッチスクリーンを含むことができる。ディスプレイ131がタッチスクリーンを含む場合、ディスプレイ131は、出力動作を行うとともに入力インターフェース110として動作することができる。
出力インターフェース130は、音を出力することができる。出力インターフェース130は、入力インターフェース110を介して受信された音、または外部装置を介して受信された音を出力することができる。例えば、出力インターフェース130は、スピーカー(図示せず)を含むことができる。
通信インターフェース140は、端末機100の外部にデータを出力したり、外部からデータを受信することができる。通信インターフェース140は、サーバ400または外部装置にデータを出力することができる。通信インターフェース140は、サーバ400及び外部装置からデータを受信することができる。通信インターフェース140は、プロセッサ150によって行われた演算結果を外部に出力することができる。
通信インターフェース140は、端末機100の使用者から入力された特定の入力に基づいて生成された申告をサーバ400に出力することができる。または、通信インターフェース140は、メモリー120に保存された使用者情報または使用者入力情報をサーバ400に出力することができる。
通信インターフェース140は、例えば、3Gモジュール、LTEモジュール、LTE−Aモジュール、Wi−Fiモジュール、ワイギグ(WiGig)モジュール、UWB(Ultra Wide Band)モジュール、またはLANカードなどのような遠距離用のネットワークインターフェースを含むことができる。また、通信インターフェース140は、マグネチック保安出力(MST)モジュール、ブルートゥースモジュール、NFCモジュール、RFIDモジュール、ジグビー(ZigBee)モジュール、Z−Waveモジュール、または赤外線モジュールなどのような近距離用のネットワークインターフェースを含むことができる。また、通信インターフェース140は、その他のネットワークインターフェースを含むことができる。
プロセッサ150またはプロセッサ150に含まれた構成要素のそれぞれは、ソフトウェア(software)またはハードウェア(hardware)形態で具現されることができる。例示的に、ソフトウェアは、機械コード、ファームウェアコード(firmware code)、エンベデッドコード(embedded code)、及びアプリケーション(application)などのようなプログラム実行コマンドとして具現されることができる。ハードウェアは、電気電子回路、プロセッサ、コンピュータ、圧力センサー、慣性センサー、MEMS(microelectromechanical system)、受動素子、またはそれらの組み合わせであり得る。
プロセッサ150は、端末機100の動作を制御することができる。プロセッサ150は、端末機100に含まれたそれぞれの構成要素と互いに連結されることができ、端末機100に含まれたそれぞれの構成要素の動作を制御することができる。プロセッサ150は、入力インターフェース110によって受信された信号に対する応答として、端末機100の動作を制御することができる。
いくつかの実施形態として、プロセッサ150は、入力インターフェース110を介して受信される特定の入力を検出することができる。例えば、特定の入力は、第1端末機100の使用者によって入力される特定の操作、特定の映像、または特定の音のうちの少なくとも1つを含むことができる。特定の入力が検出される場合、プロセッサ150は、第1端末機100に受信される映像をサーバ400に申告することができる。
図3は、本発明の実施形態に係るサーバの構成を示すブロック図である。図1及び図3を参照すると、サーバ400は、通信インターフェース410、メモリー420及びプロセッサ430を含むことができる。
通信インターフェース410は、サーバ400の外部にデータを出力したり、外部からデータを受信することができる。通信インターフェース410は、複数の端末機100〜300にデータを出力することができ、複数の端末機100〜300からデータを受信することができる。通信インターフェース410は、プロセッサ430によって行われた演算結果を外部に出力することができる。また、通信インターフェース410は、メモリー420に保存されたデータを外部に出力することができる。
通信インターフェース410は、複数の端末機100〜300のうちの少なくとも1つから国家を類推することができる情報を受信することができる。通信インターフェース410によって出力されるデータまたは通信インターフェース410によって受信されたデータは、メモリー420に保存されることができる。
通信インターフェース410は、例えば、3Gモジュール、LTEモジュール、LTE−Aモジュール、Wi−Fiモジュール、ワイギグモジュール、UWBモジュール、またはLANカードなどのような遠距離用のネットワークインターフェースを含むことができる。また、通信インターフェース410は、マグネチック保安出力(MST)モジュール、ブルートゥースモジュール、NFCモジュール、RFIDモジュール、ジグビーモジュール、Z−Waveモジュール、または赤外線モジュールなどのような近距離用のネットワークインターフェースを含むことができる。また、通信インターフェース410は、その他のネットワークインターフェースを含むことができる。
メモリー420は、アプリケーション、アプリケーション・プログラミング・インターフェース(API)などのようなプログラム及び様々な種類のデータを保存することができる。メモリー420は、プロセッサ430によって実行可能なコマンドを保存することができる。例えば、アプリケーションは、複数の端末機100〜300に映像通話サービスを提供することができるアプリケーションであり得る。
メモリー420は、通信インターフェース410を介して受信された情報を保存することができる。例えば、メモリー420は、複数の端末機100〜300それぞれの使用者がアプリケーションの加入時に入力した国家情報、及び複数の端末機100〜300のうちの少なくとも1つから受信された国家を類推することができる情報を保存することができる。
メモリー420は、揮発性メモリーまたは不揮発性メモリーのうちの少なくとも1つを含むことができる。メモリー420は、例えば、フラッシュメモリー、ROM、EEROM、EPROM、EEPROM、ハードディスクドライブ、またはレジスターのうちの少なくとも1つを含むことができる。メモリー420は、例えば、ファイルシステム、データベース、またはエンベデッドデータベースなどを含むことができる。
プロセッサ430またはプロセッサ430に含まれた構成要素のそれぞれは、ソフトウェアまたはハードウェアの形態で具現されることができる。例示的に、ソフトウェアは、機械コード、ファームウェアコード、エンベデッドコード、及びアプリケーションなどのようなプログラム実行コマンドで具現されることができる。ハードウェアは、電気電子回路、プロセッサ、コンピュータ、圧力センサー、慣性センサー、MEMS、受動素子、またはそれらの組み合わせであり得る。
プロセッサ430は、メモリー420に保存されたコマンド及びアプリケーションを実行することができる。例えば、プロセッサ430は、アプリケーションを実行することによって複数の端末機100〜300のログイン要請を受諾するか否かを決定することができる。例えば、複数の端末機100〜300のうちの少なくとも1つからログイン要請が受信されると、プロセッサ430は、メモリー420に保存された国家情報とログインを要請した端末機から受信された国家を類推することができる情報を比較して、ログイン要請を受諾するか否かを決定することができる。ただし、少なくとも1つから受信されたイメージに含まれたコンテンツの種類を識別することができる。
複数の端末機100〜300及びサーバ400の詳細な動作方法は、図4〜図8を参照して説明することができる。
図4は、本発明の実施形態に係る端末機が受信された映像を申告する方法を示すフローチャートである。
図1、図2及び図4を参照すると、S110段階において、第1端末機100は第2端末機200についての連結情報を受信することができる。そして、第1端末機100は、受信された連結情報に基づいて第2端末機200と映像通話セッションを確立することができる。
S120段階において、第1端末機100は、映像通話セッションを介して第2端末機200から映像を受信することができる。映像は、第2端末機200の使用者の顔の映像または身体の映像を含むことができる。または、映像は、第2端末機200の周辺映像を含むことができる。
第1端末機100は、映像を第2端末機200から直接受信することができる。他の実施形態によると、第1端末機100は、サーバ400を経由して映像を受信することができる。
S130段階において、第1端末機100は、受信された映像を出力インターフェース130のディスプレイ131を介して出力することができる。出力された映像は、第1端末機100の使用者に提供されることができる。
S140段階において、第1端末機100は、映像の出力に対する応答として特定の入力を検出することができる。例えば、第2端末機200から受信された映像に不健全なコンテンツ(contents)が含まれている場合、第1端末機100の使用者は、特定のボディランゲージを取ったり、特定の声を出すことができる。または第1端末機100の使用者は、第1端末機100に特定の動作を取ることができる。
本発明の実施形態において、第1端末機100は、特定の入力として、第1端末機100の使用者から受信される特定の操作、特定の表情、特定のボディランゲージ、または特定の声を検出することができる。第1端末機100が特定の入力を検出する方法は、図5〜図7を参照して詳細に説明することができる。
本発明の実施形態として、第1端末機100は、特定の入力として第1端末機100に対する特定の操作を検出することができる。例えば、第1端末機100のディスプレイ131を介して出力される映像に不健全なコンテンツが含まれている場合、第1端末機100の使用者は、第1端末機100を投げる操作、第1端末機100を落とす操作、第1端末機100を裏返す操作、第1端末機100を振る操作、第1端末機100のディスプレイ131を覆う操作、第1端末機の特定のボタンを繰り返して押す操作、または第1端末機100のディスプレイ131にタッチジェスチャを繰り返して入力する操作のうちの少なくとも1つの動作を取り得る。
第1端末機100は、第1端末機100を投げる操作、第1端末機100を落とす操作、第1端末機100を裏返す操作、第1端末機100を振る操作、第1端末機100のディスプレイ131を覆う操作、第1端末機の特定のボタンを繰り返して押す操作、または第1端末機100のディスプレイ131にタッチジェスチャを繰り返して入力する操作のうちの少なくとも1つをセンサーを用いて検出することができる。
図5は、本発明の他の実施形態に係る第1端末機が特定の入力を検出する方法を示すフローチャートである。
図4及び図5を参照すると、S143段階において、第1端末機100は、第1端末機100の周辺映像を撮影することができる。例えば、周辺映像は、第1端末機100の使用者映像または第1端末機100の周辺環境に対する映像を含むことができる。
S145段階において、第1端末機100は、特定の入力として撮影された映像から第1端末機100の使用者の特定の表情、ボディランゲージ、または身体部位に対応する映像を検出することができる。
いくつかの実施形態として、第1端末機100は、撮影された映像から第1端末機100の使用者のしかめた表情、驚いた表情、拡張した瞳孔、第1端末機100から視線をそらすジェスチャー、目を覆うジェスチャー、または手の平が前記第1端末機100を向くようにするジェスチャーのうちの少なくとも1つ以上を検出することができる。
図6は、本発明のまた他の実施形態に係る第1端末機が特定の入力を検出する方法を示すフローチャートである。
図4及び図6を参照すると、S147段階において、第1端末機100は、第1端末機100の周辺の音を録音することができる。例えば、周辺の音は、第1端末機100の使用者の音声、または第1端末機100の周辺で発生する生活騒音を含むことができる。
S149段階において、第1端末機100は、特定の入力として録音された音から特定の音声、または言語に対応する部分を検出することができる。いくつかの実施形態として、第1端末機100が録音された音から悲鳴や罵声のうちの少なくとも1つ以上に対応する部分を検出することができる。
再び図4を参照すると、S150段階において、第1端末機100は、特定の入力に対する応答として受信された映像をサーバ400に申告することができる。より具体的には、特定の入力が検出される場合、第1端末機100のプロセッサ150は、第2端末機200から受信された映像に不良なコンテンツが含まれていると判断することができる。
第1端末機100のプロセッサ150は、特定の入力が検出される瞬間にディスプレイ131を介して出力される映像をキャプチャーしてイメージに変換することができる。または第1端末機100のプロセッサ150は、特定の入力が検出された後、基準時間の間、ディスプレイ131を介して出力される映像を録画することができる。第1端末機100は、キャプチャーされたイメージまたは録画された映像を通信インターフェース140を介してサーバ400に出力することができる。
S160段階において、第1端末機100は、申告に対する応答としてサーバ400から第3端末機300についての連結情報を受信することができる。そして、第1端末機100及び第2端末機200の間の映像通話セッションは終了し、第1端末機100は、受信された第3端末機300についての連結情報を用いて、第3端末機との映像通話セッションを確立することができる。
図7は、本発明の他の実施形態に係る端末機が受信された映像を申告する方法を示すフローチャートである。
図2及び図7を参照すると、S210段階において、第1端末機100は、第2端末機200についての連結情報を受信することができる。そして、第1端末機100は、受信された連結情報に基づいて第2端末機200と映像通話セッションを確立することができる。
S220段階において、第1端末機100は、映像通話セッションを介して第2端末機200から映像及び音を受信することができる。映像は、第2端末機200の使用者の顔の映像または身体の映像を含むことができる。または、映像は、第2端末機200の周辺映像を含むことができる。音は、第2端末機200の使用者の音声を含むことができる。または、音は、第2端末機200の周辺で発生する生活騒音を含むことができる。
いくつかの実施形態として、第1端末機100は、映像及び音を第2端末機200から直接受信することができる。他の実施形態によると、第1端末機100は、サーバ400を経由して映像及び音を受信することができる。
S230段階において、第1端末機100は、受信された映像及び音を出力インターフェース130を介して出力することができる。出力された映像及び音は、第1端末機100の使用者に提供されることができる。
S240段階において、第1端末機100は、受信された映像及び音から特定の入力を検出することができる。第2端末機200から受信された映像または音に不健全なコンテンツ(contents)が含まれている場合、第1端末機100の使用者は、不良なコンテンツを特定の入力として検出することができる。いくつかの実施形態として、第1端末機100は、特定の入力として撮影された映像から特定の表情、ボディランゲージ、または身体部位に対応する映像を検出することができる。
いくつかの実施形態として、第1端末機100は、第2端末機200から受信された映像から特定の表情、ボディランゲージ、または身体部位に対応する部分を検出することができる。
より具体的には、第1端末機100が第2端末機200から受信された映像から罵声ジェスチャー、侮辱ジェスチャー、人種差別ジェスチャー、性的コンテンツ、裸体露出(nudity)、性器、性行為、非衛生的コンテンツ、***物、***行為、***的コンテンツ、反人倫的コンテンツ、不法行為、犯罪行為、増悪犯罪(hate crime)、暴力行為、***行為、自害行為、武器、麻薬、***的シンボル、嫌悪性(hateful)コンテンツ、脅威性コンテンツ、恐怖症誘発(phobia−inducing)コンテンツ、または血液のうちの少なくとも1つ以上に対応する部分を検出することができる。
いくつかの実施形態として、第1端末機100は、第2端末機200から受信された音から特定の音声、または言語に対応する部分を検出することができる。いくつかの実施形態として、第1端末機100が録音された音から悲鳴や罵声のうちの少なくとも1つ以上に対応する部分を検出することができる。
より具体的には、第1端末機100は、第2端末機200から受信された音から轟音、銃声、嘔吐の音(vomit sound)、打撃の音(hit sound)、ムチの音(whip sound)、刃物の音(knife sound)、振り回す音(swing sound)、刺す音(stab sound)、のこぎりの音(saw sound)、鉄の音(grating sound)、ぎしぎし音(creaking sound)、特定の臨界値以上のピッチ(pitch)を有する音、または特定の臨界値以上の大きさ(loudness)を有する音のうちの少なくとも1つ以上を検出することができる。
再び図7を参照すると、S250段階において、第1端末機100は、特定の入力に対する応答として受信された映像をサーバ400に申告することができる。より具体的には、受信された映像及び音から特定の入力が検出される場合、第1端末機100のプロセッサ150は、第2端末機200から受信された映像に不良なコンテンツが含まれていると判断するすることができる。
第1端末機100のプロセッサ150は、特定の入力が検出される瞬間にディスプレイ131を介して出力される映像をキャプチャーしてイメージに変換することができる。または第1端末機100のプロセッサ150は、特定の入力が検出された後、基準時間の間、ディスプレイ131を介して出力される映像を録画することができる。第1端末機100は、キャプチャーされたイメージまたは録画された映像を通信インターフェース140を介してサーバ400に出力することができる。
S260段階において、第1端末機100は、申告に対する応答としてサーバ400から第3端末機300についての連結情報を受信することができる。そして、第1端末機100及び第2端末機200の間の映像通話セッションは終了し、第1端末機100は、受信された第3端末機300についての連結情報を用いて第3端末機との映像通話セッションを確立することができる。
図8は、本発明の実施形態に係るサーバの仲介方法を示すフローチャートである。図1、図3及び図8を参照すると、S310段階において、サーバ400は、複数の端末機100〜300のそれぞれから仲介要請を受信することができる。仲介要請に応答して、サーバ400は、複数の端末機100〜300を仲介することができる。
S320段階において、サーバ400は、第1端末機100及び第2端末機200の間に映像通話セッションを確立することができる。サーバ400は、第1端末機100から受信された第1映像及び第1音を第2端末機200に送信することができる。そして、サーバ400は第2端末機200から受信された第2映像及び第2音を第1端末機に送信することができる。
S330段階において、第1端末機100によって特定の入力が検出されると、サーバ400は、第1端末機100から第2端末機100によって受信された映像に対する申告を受信することができる。
本発明の実施形態において、第1端末機100は、第2映像及び第2音の出力に対する応答として特定の入力を検出することができる。例えば、第2映像及び第2音に不健全なコンテンツが含まれている場合、第1端末機100の使用者は、特定のボディランゲージを取ったり、特定の声を出し得る。または第1端末機100の使用者は、第1端末機100に特定の動作を取り得る。
他の実施形態として、第1端末機100は、受信された第2映像及び第2音から特定の入力を検出することができる。第2映像及び第2音に不健全なコンテンツ(contents)が含まれている場合、第1端末機100は、不良なコンテンツを特定の入力として検出することができる。例えば、不良なコンテンツは、第2映像に含まれた特定の表情、ボディランゲージ、または身体部位に対応する部分であり得る。または不良なコンテンツは、第2音に含まれた特定の音声、または言語に対応する部分であり得る。
S340段階において、サーバ400は、申告に対する応答として第1端末機100及び第3端末機300の間の映像通話を仲介することができる。より具体的には、サーバ400は、第1端末機100及び第2端末機200の間の映像通話セッションを中断し、第1端末機100及び第3端末機300の間の映像通話セッションを確立することができる。
S350段階において、サーバ400は申告を検証し、検証結果に応じて第2端末機200の追加仲介要請を拒否することができる。より具体的には、サーバ400は、第1端末機100から受信されたキャプチャーイメージまたは映像に基づいて第2端末機200が不健全なコンテンツが含まれた映像及び音を提供したかを判断することができる。そして、判断結果に応じて、サーバ400は、第2端末機200に追加映像通話サービスを提供しないことができる。
図1〜図8を参照して説明したように、本発明の実施形態に係る端末機及びサーバは、相手端末機から受信された映像及び音から自動的に不良なコンテンツを検出して遮断することで端末機の使用者が相手方からの淫らな映像にさらされることを防止することができる。また、端末機及びサーバは、相手方と映像通話をする使用者が相手方からの映像によって感じ得る性的羞恥心や不快感を防止することができる。また、端末機及びサーバは、使用者間の健全な映像通話も誘導することができる。
以上で説明された実施形態は、コンピュータによって実行されるプログラムモジュールのようなコンピュータによって実行可能なコマンドを含む記録媒体の形態でも具現されることができる。コンピュータ判読可能媒体は、コンピュータによってアクセスすることができる任意の使用可能媒体であり得、揮発性及び不揮発性媒体、分離型及び非分離型媒体をすべて含むことができる。
また、コンピュータ判読可能媒体は、コンピュータ記憶媒体または通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ判読可能コマンド、データ構造、プログラムモジュールまたはその他のデータのような情報の保存のための任意の方法または技術で具現された揮発性及び不揮発性、分離型及び非分離型媒体をすべて含むことができる。通信媒体は、典型的にコンピュータ判読可能コマンド、データ構造、プログラムモジュール、または搬送波のような変調されたデータ信号のその他のデータ、またはその他の出力メカニズムを含み、任意の情報伝達媒体を含むことができる。
以上、添付された図面を参照して、本発明の実施形態を説明したが、本発明が属する技術分野における通常の知識を有する者は、本発明がその技術的思想や必須の特徴を変更することなく、他の具体的な形態で実施できるということを理解できるはずである。したがって、以上で記述した実施形態は、すべての面で例示的なものであり、限定的でないものとして理解しなければならない。

Claims (19)

  1. 第1端末機がサーバから第2端末機についての連結情報を受信する段階と、
    前記第1端末機が前記受信された連結情報を用いて前記第2端末機との映像通話セッションを確立する段階と、
    前記第1端末機が前記映像通話セッションを介して前記第2端末機から映像を受信する段階と、
    前記第1端末機が前記受信された映像に対応する受信された入力からまたは前記受信された映像から特定の入力を検出する段階と、
    前記第1端末機が前記特定の入力に対する応答として前記サーバに前記受信された映像を申告する段階と、
    前記第1端末機が前記申告に対する応答として前記サーバから前記第2端末機と互いに異なる第3端末機についての連結情報を受信する段階、及び
    前記第1端末機が前記映像通話セッションを終了し、前記受信された第3端末機についての連結情報を用いて、前記第3端末機との映像通話セッションを確立する段階を含む端末機の動作方法。
  2. 前記第1端末機が前記特定の入力を検出する段階は、前記第1端末機が特定の操作、特定の映像、及び特定の音のうちの少なくとも1つ以上を検出する請求項1に記載の端末機の動作方法。
  3. 前記第1端末機が前記受信された映像を出力する段階をさらに含み、
    前記第1端末機が前記特定の入力を検出する段階は、前記第1端末機が前記受信された映像の前記出力に対する応答として前記特定の入力を受信する請求項2に記載の端末機の動作方法。
  4. 前記第1端末機が前記特定の入力を検出する段階は、前記第1端末機が前記特定の入力として前記第1端末機に対する特定の操作を検出する請求項1に記載の端末機の動作方法。
  5. 前記第1端末機が前記特定の操作を検出する段階は、
    前記第1端末機が前記特定の操作として、前記第1端末機を投げる操作、前記第1端末機を落とす操作、前記第1端末機を裏返す操作、前記第1端末機を振る操作、前記第1端末機のディスプレイを覆う操作、前記第1端末機のボタンを繰り返して押す操作、及び前記第1端末機にタッチジェスチャを繰り返して入力する操作のうちの少なくとも1つ以上を検出する請求項4に記載の端末機の動作方法。
  6. 前記第1端末機が前記特定の入力を検出する段階は、
    前記第1端末機が前記第1端末機の周辺の映像を撮影する段階、及び
    前記第1端末機の前記特定の入力として前記撮影された映像から特定の表情、ボディランゲージ、及び身体部位に対応する部分のうちの少なくとも1つ以上を検出する段階を含む請求項1に記載の端末機の動作方法。
  7. 前記第1端末機が前記特定の表情、前記ボディランゲージ、及び前記身体部位に対応する前記部分のうちの少なくとも1つ以上を検出する段階は、
    前記第1端末機が前記撮影された映像からしかめた表情、驚いた表情、拡張した瞳孔、前記第1端末機から視線をそらすジェスチャー、目を覆うジェスチャー、及び手のひらが前記第1端末機に向くようにするジェスチャーのうちの少なくとも1つ以上に対応する部分を検出する請求項6に記載の端末機の動作方法。
  8. 前記第1端末機が前記特定の入力を検出する段階は、
    前記第1端末機が前記第1端末機の周辺の音を録音する段階、及び
    前記第1端末機が前記特定の入力として前記録音された音から特定の音声または言語に対応する部分を検出する段階を含む請求項1に記載の端末機の動作方法。
  9. 前記第1端末機が前記特定の音声または言語に対応する前記部分を検出する段階は、
    前記第1端末機が前記録音された音から悲鳴や罵声のうちの少なくとも1つ以上に対応する部分を検出する請求項8に記載の端末機の動作方法。
  10. 前記第1端末機が前記特定の入力を検出する段階は、
    前記第1端末機が前記特定の入力として前記受信された映像から特定の表情、ボディランゲージ、及び身体部位に対応する部分のうちの少なくとも1つ以上を検出する請求項1に記載の端末機の動作方法。
  11. 前記第1端末機が前記特定の表情、前記ボディランゲージ、及び前記身体部位に対応する部分のうちの少なくとも1つを検出する段階は、
    前記第1端末機が前記受信された映像から罵声ジェスチャー、侮辱ジェスチャー、人種差別ジェスチャー、性的コンテンツ、裸体露出(nudity)、非衛生的コンテンツ、***的コンテンツ、反人倫的コンテンツ、不法行為、犯罪行為、及び嫌悪性(hateful)コンテンツのうちの少なくとも1つ以上に対応する部分を検出する請求項10に記載の端末機の動作方法。
  12. 前記第1端末機が前記映像通話セッションを介して前記第2端末機から前記受信された映像に対応する音を受信する段階をさらに含む請求項1に記載の端末機の動作方法。
  13. 前記第1端末機が前記受信された映像及び前記受信された音を出力する段階をさらに含む請求項12に記載の端末機の動作方法。
  14. 前記第1端末機が前記特定の入力を検出する段階は、
    前記第1端末機が前記特定の入力として前記受信された音から特定の音声、騒音、及び言語に対応する部分のうちの少なくとも1つ以上を検出する請求項12に記載の端末機の動作方法。
  15. 前記特定の音声はうめき声、悲鳴、及び奇声のうちの少なくとも1つ以上を含み、
    前記特定の騒音は、轟音、銃声、特定の臨界値以上のピッチ(pitch)を有する音、及び特定の臨界値以上の大きさを有する音のうちの少なくとも1つ以上を含み、
    前記特定の言語は、罵声、侮辱、名誉毀損、セクハラ、***的行為、及びヘイトスピーチ(hate speech)のうちの少なくとも1つ以上に関連する言語を含む請求項14に記載の端末機の動作方法。
  16. 請求項1〜15のうちのいずれか1項に記載の方法を行うためのプログラムが記録されたコンピュータ判読可能な記録媒体。
  17. サーバから第1端末機についての連結情報を受信し、前記受信された連結情報を用いて前記第1端末機との映像通話セッションを確立し、前記映像通話セッションを介して前記第1端末機から映像を受信する通信インターフェースと、
    前記受信された映像を出力する出力インターフェースと、
    前記受信された映像に対応する入力を受信する入力インターフェース、及び
    前記受信された入力または受信された映像から特定の入力を検出するプロセッサを含み、
    前記通信インターフェースは、前記特定の入力に対する応答として前記サーバに前記受信された映像を申告し、前記申告に対する応答として前記サーバから前記第1端末機と互いに異なる第2端末機についての連結情報を受信し、前記第2端末機に対する前記連結情報の受信に対する応答として前記映像通話セッションを終了し、前記受信された第2端末機についての連結情報を用いて、前記第2端末機との映像通話セッションを確立する端末機。
  18. サーバが複数の端末から仲介要請を受信する段階と、
    前記サーバが前記複数の端末のうち第1端末機及び第2端末機の間の映像通話連結を仲介する段階と、
    前記第1端末機によって特定の入力が検出されると、前記サーバが前記第1端末機から前記第2端末機によって受信された映像に対する申告を受信する段階と、
    前記サーバが前記申告に対する応答として前記複数の端末のうち前記第2端末機と互いに異なる第3端末機を選択し、前記第1端末機及び前記第3端末機の間の映像通話を仲介する段階、及び
    前記サーバが前記申告を検証し、前記検証結果に基づいて前記第2端末機の追加仲介要請を拒否する段階を含むサーバの動作方法。
  19. サーバが複数の端末機から仲介要請を受信する段階と、
    前記サーバが複数の端末機のうち第1端末機及び第2端末機を仲介する段階と、
    前記第1端末機及び前記第2端末機が映像通話セッションを確立する段階と、
    前記第1端末機が前記映像通話セッションを介して前記第2端末機から映像を受信する段階と、
    前記第1端末機が特定の入力を検出する段階と、
    前記第1端末機が前記特定の入力に対する応答として前記サーバに前記受信された映像を申告する段階と、
    前記サーバが前記申告に対する応答として前記複数の端末機のうち前記第2端末機と互いに異なる第3端末機を選択し、前記第1端末機及び前記第3端末機を仲介する段階と、
    前記第1端末機が前記第2端末機との前記映像通話セッションを終了し、前記第3端末機との映像通話セッションを確立する段階、及び
    前記サーバが前記申告を検証し前記検証の結果に基づいて前記第2端末機の追加仲介要請を拒否する段階を含むサーバの動作方法。
JP2020083082A 2019-05-10 2020-05-11 端末機、サーバ及びその動作方法(mobile、server and operating method thereof) Active JP6902762B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0054670 2019-05-10
KR1020190054670A KR102282963B1 (ko) 2019-05-10 2019-05-10 단말기, 서버 및 그것의 동작 방법

Publications (2)

Publication Number Publication Date
JP2020188461A true JP2020188461A (ja) 2020-11-19
JP6902762B2 JP6902762B2 (ja) 2021-07-14

Family

ID=70681674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020083082A Active JP6902762B2 (ja) 2019-05-10 2020-05-11 端末機、サーバ及びその動作方法(mobile、server and operating method thereof)

Country Status (4)

Country Link
US (1) US11716424B2 (ja)
EP (1) EP3737078A1 (ja)
JP (1) JP6902762B2 (ja)
KR (1) KR102282963B1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US20230336595A1 (en) * 2022-04-15 2023-10-19 Hyperconnect LLC Video Mediating Apparatus, Method and Computer Readable Recording Medium Thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237761A (ja) * 2009-03-30 2010-10-21 Nikon Corp 電子機器
JP2012054897A (ja) * 2010-09-03 2012-03-15 Sharp Corp 会議システム、情報処理装置、及び情報処理方法
US20180103234A1 (en) * 2016-10-10 2018-04-12 Hyperconnect, Inc. Device and method of displaying images
KR20180116520A (ko) * 2017-04-17 2018-10-25 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR20190016671A (ko) * 2017-08-09 2019-02-19 주식회사 하이퍼커넥트 통신 장치, 서버 및 통신 방법

Family Cites Families (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690279A (ja) 1992-09-08 1994-03-29 Fujitsu General Ltd イタズラ電話撃退装置
JPH09200714A (ja) 1996-01-17 1997-07-31 Casio Comput Co Ltd テレビ電話付き画像処理装置
JP3642716B2 (ja) 2000-04-19 2005-04-27 三菱電機株式会社 テレビ電話装置及び通話方法
KR20010000426A (ko) 2000-09-28 2001-01-05 김용환 지능형 영상 인터페이스 방법
JP3532151B2 (ja) 2000-11-29 2004-05-31 傳一郎 片山 素炭製造方法及び素炭
US20030028875A1 (en) 2001-05-02 2003-02-06 Koninklijke Philips Electronics N.V. Television access control system
EP1311124A1 (en) 2001-11-13 2003-05-14 Matsushita Electric Industrial Co., Ltd. Selective protection method for images transmission
JP3838506B2 (ja) 2001-11-13 2006-10-25 松下電器産業株式会社 画像を用いる通信方法及びその装置
US20030126267A1 (en) 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method and apparatus for preventing access to inappropriate content over a network based on audio or visual content
US7360234B2 (en) 2002-07-02 2008-04-15 Caption Tv, Inc. System, method, and computer program product for selective filtering of objectionable content from a program
US8245252B2 (en) 2002-09-10 2012-08-14 Caption Tv, Inc. System, method, and computer program product for selective replacement of objectionable program content with less-objectionable content
KR100927271B1 (ko) 2003-01-13 2009-11-18 엘지전자 주식회사 디스플레이 장치의 시청 제한 방법
US7321384B1 (en) 2003-06-03 2008-01-22 Cisco Technology, Inc. Method and apparatus for using far end camera control (FECC) messages to implement participant and layout selection in a multipoint videoconference
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7444403B1 (en) * 2003-11-25 2008-10-28 Microsoft Corporation Detecting sexually predatory content in an electronic communication
US8977063B2 (en) 2005-03-09 2015-03-10 Qualcomm Incorporated Region-of-interest extraction for video telephony
JP2006270380A (ja) 2005-03-23 2006-10-05 Victor Co Of Japan Ltd 画像情報送信装置
US7564476B1 (en) 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
CA2622821A1 (en) 2005-09-16 2007-03-22 Eyeball Networks Inc. Method and system to prevent spam over internet telephony
US20080012935A1 (en) 2005-11-22 2008-01-17 Gateway Inc. Inappropriate content detection and distribution prevention for wireless cameras/camcorders with e-mail capabilities and camera phones
US20070195158A1 (en) 2006-02-23 2007-08-23 Kies Jonathan K Apparatus and methods for managing video calls on a wireless device
US20080059198A1 (en) * 2006-09-01 2008-03-06 Pudding Ltd. Apparatus and method for detecting and reporting online predators
US7911513B2 (en) 2007-04-20 2011-03-22 General Instrument Corporation Simulating short depth of field to maximize privacy in videotelephony
GB0709574D0 (en) 2007-05-18 2007-06-27 Aurix Ltd Speech Screening
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
KR100844334B1 (ko) 2007-06-07 2008-07-08 엘지전자 주식회사 이동통신 단말기의 디스플레이 제어장치 및 방법
KR100882476B1 (ko) 2007-06-14 2009-02-06 유성준 음란성 이미지의 판별 방법과 그 장치
US8165416B2 (en) 2007-06-29 2012-04-24 Microsoft Corporation Automatic gain and exposure control using region of interest detection
US20090041311A1 (en) 2007-08-09 2009-02-12 Jon Hundley Facial recognition based content blocking system
JP2008159034A (ja) 2007-11-07 2008-07-10 Fujitsu Ltd サーバおよび音声信号収集配信方法
US8230011B2 (en) * 2008-03-03 2012-07-24 John Vandenburgh Networked computer alert system
US20090288131A1 (en) 2008-05-13 2009-11-19 Porto Technology, Llc Providing advance content alerts to a mobile device during playback of a media item
US8223187B2 (en) 2008-07-17 2012-07-17 Cisco Technology, Inc. Non-bandwidth intensive method for providing multiple levels of censoring in an A/V stream
KR101450580B1 (ko) 2008-11-19 2014-10-14 삼성전자주식회사 이미지 합성 방법 및 장치
US8904547B2 (en) * 2009-01-05 2014-12-02 International Business Machines Corporation Notification upon exposure to offensive behavioral patterns in collaboration
US8441356B1 (en) * 2009-02-16 2013-05-14 Handhold Adaptive, LLC Methods for remote assistance of disabled persons
KR101639392B1 (ko) 2009-08-20 2016-07-22 엘지전자 주식회사 이동 단말기
KR101189053B1 (ko) 2009-09-05 2012-10-10 에스케이플래닛 주식회사 아바타 기반 화상 통화 방법 및 시스템, 이를 지원하는 단말기
CN101668157B (zh) 2009-09-24 2011-09-21 中兴通讯股份有限公司 用于视频通话中隐私保护的方法、应用服务器及***
JP2011082694A (ja) 2009-10-05 2011-04-21 Sharp Corp 通信会議システム及び通信装置
KR101384317B1 (ko) 2009-12-21 2014-04-14 한국전자통신연구원 멀티모달 및 멀티스케일 특징 기반 유해 영상 차단 장치 및 방법
US8626879B2 (en) 2009-12-22 2014-01-07 Sling Media, Inc. Systems and methods for establishing network connections using local mediation services
US8301653B2 (en) * 2010-01-25 2012-10-30 Glenn Adamousky System and method for capturing and reporting online sessions
JP2011205243A (ja) 2010-03-24 2011-10-13 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
US8856165B1 (en) 2010-03-26 2014-10-07 Google Inc. Ranking of users who report abuse
US8826322B2 (en) 2010-05-17 2014-09-02 Amazon Technologies, Inc. Selective content presentation engine
JP5442547B2 (ja) 2010-07-08 2014-03-12 株式会社Nttドコモ コンテンツ推薦装置及び方法
EP2615812B1 (en) 2010-09-10 2018-09-05 NEC Corporation Controlling transmission of data by a portable terminal
US8526728B2 (en) 2010-12-21 2013-09-03 Microsoft Corporation Establishing clusters of user preferences for image enhancement
JP5771998B2 (ja) 2011-01-13 2015-09-02 株式会社ニコン 電子機器および電子機器の制御プログラム
US20130234826A1 (en) 2011-01-13 2013-09-12 Nikon Corporation Electronic device and electronic device control program
EP2693745A4 (en) 2011-03-30 2015-04-01 Fujitsu Ltd INFORMATION PROCESSING DEVICE COMPRISING IMAGE TRANSMISSION CONTROL FUNCTION
EP2515526A3 (en) 2011-04-08 2014-12-24 FotoNation Limited Display device with image capture and analysis module
KR101237469B1 (ko) 2011-05-12 2013-02-26 재단법인 서울호서직업전문학교 음란 이미지 자동 인식 방법, 장치 및 그 방법을 실행하기 위한 프로그램 기록매체
US8970653B2 (en) 2011-06-16 2015-03-03 Vtel Products Corporation, Inc. Video conference control system and method
NO334029B1 (no) 2011-09-30 2013-11-18 Cisco Tech Inc System og fremgangsmåte for etablering av videokonferansesesjon med justerbart filter for markering av tilstedeværelsesnivå i endepunkter
KR101394597B1 (ko) 2012-05-09 2014-05-27 김명훈 얼굴검출 알고리즘을 이용한 영상보안장치와 영상보안시스템 및 얼굴검출 알고리즘을 이용한 영상보안방법
WO2014000774A1 (fr) 2012-06-26 2014-01-03 Abb Technology Ag Installation flexible d'assemblage de differents elements en tole
KR101936802B1 (ko) 2012-07-20 2019-01-09 한국전자통신연구원 얼굴인식 기반의 개인정보보호 장치 및 방법
US9288387B1 (en) 2012-09-11 2016-03-15 Amazon Technologies, Inc. Content display controls based on environmental factors
WO2014090262A1 (en) 2012-12-11 2014-06-19 Unify Gmbh & Co. Kg Method of processing video data, device, computer program product, and data construct
US20150070516A1 (en) * 2012-12-14 2015-03-12 Biscotti Inc. Automatic Content Filtering
US9154709B2 (en) 2012-12-21 2015-10-06 Google Inc. Recommending transformations for photography
KR101800617B1 (ko) 2013-01-02 2017-12-20 삼성전자주식회사 디스플레이 장치 및 이의 화상 통화 방법
US9013536B2 (en) 2013-03-13 2015-04-21 Futurewei Technologies, Inc. Augmented video calls on mobile devices
US9716599B1 (en) * 2013-03-14 2017-07-25 Ca, Inc. Automated assessment of organization mood
JP6068384B2 (ja) 2013-03-20 2017-01-25 三星電子株式会社Samsung Electronics Co.,Ltd. 収集された情報に基づいた映像処理方法及びその装置
US9230328B1 (en) 2013-06-28 2016-01-05 Google Inc. Providing image parameters
CN103413270A (zh) 2013-08-15 2013-11-27 北京小米科技有限责任公司 一种图像的处理方法、装置和终端设备
WO2015044994A1 (ja) 2013-09-24 2015-04-02 日立マクセル株式会社 テレビ通話装置、及びテレビ通話処理方法
EP2887625A1 (en) 2013-12-19 2015-06-24 Alcatel Lucent Method for real-time reporting and prevention of call abuse
US9460340B2 (en) 2014-01-31 2016-10-04 Google Inc. Self-initiated change of appearance for subjects in video and images
CN104836977B (zh) 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及***
CN106462946A (zh) 2014-04-25 2017-02-22 索尼公司 响应于外部应用处理数字照片
US9451335B2 (en) 2014-04-29 2016-09-20 At&T Intellectual Property I, Lp Method and apparatus for augmenting media content
US9633462B2 (en) 2014-05-09 2017-04-25 Google Inc. Providing pre-edits for photos
US9462112B2 (en) 2014-06-19 2016-10-04 Microsoft Technology Licensing, Llc Use of a digital assistant in communications
US9626103B2 (en) 2014-06-19 2017-04-18 BrightSky Labs, Inc. Systems and methods for identifying media portions of interest
WO2016004344A1 (en) * 2014-07-03 2016-01-07 Spitfire Technologies, Llc Electronically mediated reaction game
US9531998B1 (en) * 2015-07-02 2016-12-27 Krush Technologies, Llc Facial gesture recognition and video analysis tool
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US9858470B2 (en) 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
US9646227B2 (en) 2014-07-29 2017-05-09 Microsoft Technology Licensing, Llc Computerized machine learning of interesting video sections
US9282287B1 (en) 2014-09-09 2016-03-08 Google Inc. Real-time video transformations in video conferences
US9516220B2 (en) 2014-10-02 2016-12-06 Intel Corporation Interactive video conferencing
KR20160051390A (ko) 2014-11-03 2016-05-11 삼성전자주식회사 전자장치 및 전자장치의 필터 제공 방법
JP6492638B2 (ja) 2014-12-25 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US9503456B1 (en) 2015-01-22 2016-11-22 Google Inc. Video chat abuse detection based on external context
US9380264B1 (en) 2015-02-16 2016-06-28 Siva Prasad Vakalapudi System and method for video communication
US9569697B1 (en) 2015-02-19 2017-02-14 Google Inc. Object oriented image editing
US9576190B2 (en) * 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
WO2016189350A1 (en) * 2015-05-23 2016-12-01 Yogesh Chunilal Rathod Calling to user(s) for real-time sharing, participation, e-commerce, workflow, communication & collaboration in the event of acceptance of call by caller user(s)
US20160350675A1 (en) 2015-06-01 2016-12-01 Facebook, Inc. Systems and methods to identify objectionable content
US10198667B2 (en) 2015-09-02 2019-02-05 Pocketguardian, Llc System and method of detecting offensive content sent or received on a portable electronic device
KR20170059201A (ko) 2015-11-20 2017-05-30 삼성전자주식회사 전자 장치 및 전자 장치의 컨텐츠 출력 방법
KR101751620B1 (ko) 2015-12-15 2017-07-11 라인 가부시키가이샤 시각적 또는 청각적 효과의 양방향 전달을 이용한 영상 통화 방법 및 시스템
KR20170082349A (ko) 2016-01-06 2017-07-14 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
BR102016007265B1 (pt) 2016-04-01 2022-11-16 Samsung Eletrônica da Amazônia Ltda. Método multimodal e em tempo real para filtragem de conteúdo sensível
US10104025B2 (en) * 2016-05-23 2018-10-16 Oath Inc. Virtual chat rooms
US9848167B1 (en) 2016-06-21 2017-12-19 Amazon Technologies, Inc. Low bandwidth video
KR20180000255A (ko) 2016-06-22 2018-01-02 엘지전자 주식회사 이동 단말기 및 그 이동 단말기의 제어 방법
JP2017228224A (ja) 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
US10349126B2 (en) 2016-12-19 2019-07-09 Samsung Electronics Co., Ltd. Method and apparatus for filtering video
US10349224B2 (en) * 2017-01-24 2019-07-09 Essential Products, Inc. Media and communications in a connected environment
US10754965B2 (en) 2017-03-08 2020-08-25 Blackberry Limited Data messaging with privacy tokens
KR101967658B1 (ko) 2017-05-27 2019-04-29 주식회사 하이퍼커넥트 영상 통화 장치 및 영상 통화 방법
KR102283972B1 (ko) 2017-07-14 2021-08-02 주식회사 하이퍼커넥트 통신 장치, 서버 및 동작 방법
JP2019047357A (ja) 2017-09-04 2019-03-22 キヤノン株式会社 撮像装置付き表示装置
KR101989842B1 (ko) 2017-12-07 2019-06-17 주식회사 하이퍼커넥트 단말기 및 그것의 영상 처리 방법
KR102056806B1 (ko) 2017-12-15 2019-12-18 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말과 서버
KR102044242B1 (ko) 2017-12-27 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말 및 서버
KR102079091B1 (ko) 2018-01-31 2020-02-19 주식회사 하이퍼커넥트 단말기 및 그것의 이미지 처리 방법
KR20190098518A (ko) 2018-02-14 2019-08-22 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
US20190342246A1 (en) * 2018-05-05 2019-11-07 Thomas P. Theriault Novel decency filtration tools and their use in interfacing systems
JP2020010158A (ja) 2018-07-06 2020-01-16 本田技研工業株式会社 周辺画像の提供方法、及び通信端末用プログラム
US10440063B1 (en) * 2018-07-10 2019-10-08 Eturi Corp. Media device content review and management
US10440324B1 (en) 2018-09-06 2019-10-08 Amazon Technologies, Inc. Altering undesirable communication data for communication sessions
KR102266888B1 (ko) 2018-12-31 2021-06-21 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말기 및 서버
US10810726B2 (en) 2019-01-30 2020-10-20 Walmart Apollo, Llc Systems and methods for detecting content in images using neural network architectures
US20200335089A1 (en) * 2019-04-16 2020-10-22 International Business Machines Corporation Protecting chat with artificial intelligence
JPWO2020250082A1 (ja) * 2019-06-14 2020-12-17
US11330313B2 (en) * 2019-08-02 2022-05-10 Dell Products L.P. Crowd rating media content based on micro-expressions of viewers
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102287704B1 (ko) 2020-01-31 2021-08-10 주식회사 하이퍼커넥트 단말기, 그것의 동작 방법 및 컴퓨터 판독 가능한 기록매체
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237761A (ja) * 2009-03-30 2010-10-21 Nikon Corp 電子機器
JP2012054897A (ja) * 2010-09-03 2012-03-15 Sharp Corp 会議システム、情報処理装置、及び情報処理方法
US20180103234A1 (en) * 2016-10-10 2018-04-12 Hyperconnect, Inc. Device and method of displaying images
KR20180116520A (ko) * 2017-04-17 2018-10-25 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR20190016671A (ko) * 2017-08-09 2019-02-19 주식회사 하이퍼커넥트 통신 장치, 서버 및 통신 방법

Also Published As

Publication number Publication date
US11716424B2 (en) 2023-08-01
KR20200129772A (ko) 2020-11-18
KR102282963B1 (ko) 2021-07-29
JP6902762B2 (ja) 2021-07-14
EP3737078A1 (en) 2020-11-11
US20200358904A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP6902762B2 (ja) 端末機、サーバ及びその動作方法(mobile、server and operating method thereof)
US11323659B2 (en) Video communication device, video communication method, and video communication mediating method
US20190013025A1 (en) Providing an ambient assist mode for computing devices
WO2017000490A1 (zh) 报警方法及装置
CN111164539A (zh) 一种电子设备的操作方法和电子设备
US11825236B2 (en) Terminal and operating method thereof
US11606397B2 (en) Server and operating method thereof
CN106656746A (zh) 信息输出方法及装置
US10278033B2 (en) Electronic device and method of providing message via electronic device
CN114401336B (zh) 一种电子设备的操作方法、电子设备、芯片和计算机存储介质
CN109325337A (zh) 解锁方法及装置
US10972700B2 (en) Video call method and video call mediating apparatus
CN107995612A (zh) 设备寻找方法、装置及电子设备
US20200410605A1 (en) Mobile, server and operating method thereof
KR101093088B1 (ko) 화면 터치 오류 조정 방법 및 이를 적용한 이동 단말기
CN109120793A (zh) 语音处理方法及装置
CN107181669A (zh) 聊天消息的发送时间的显示方法和设备
CN109144587A (zh) 终端控制方法、装置、设备及存储介质
TWI468983B (zh) 服務啟動方法及系統
WO2024093471A1 (zh) 信息的提醒方法、电子设备及可读介质
WO2021156919A1 (ja) 電子機器、情報処理方法およびプログラム
CN118337905A (zh) 笔记生成方法、可读存储介质、程序产品和电子设备
KR20210046393A (ko) 단말기 및 그것의 동작 방법
CN107517274A (zh) 推荐方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210611

R150 Certificate of patent or registration of utility model

Ref document number: 6902762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250