JP6938734B2 - 映像通話サービスを提供する端末及びサーバ - Google Patents

映像通話サービスを提供する端末及びサーバ Download PDF

Info

Publication number
JP6938734B2
JP6938734B2 JP2020127599A JP2020127599A JP6938734B2 JP 6938734 B2 JP6938734 B2 JP 6938734B2 JP 2020127599 A JP2020127599 A JP 2020127599A JP 2020127599 A JP2020127599 A JP 2020127599A JP 6938734 B2 JP6938734 B2 JP 6938734B2
Authority
JP
Japan
Prior art keywords
terminal
exposed area
video call
size
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020127599A
Other languages
English (en)
Other versions
JP2020202567A (ja
Inventor
サン イル アン,
サン イル アン,
ヒョク チョイ,
ヒョク チョイ,
Original Assignee
ハイパーコネクト インコーポレイテッド
ハイパーコネクト インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハイパーコネクト インコーポレイテッド, ハイパーコネクト インコーポレイテッド filed Critical ハイパーコネクト インコーポレイテッド
Publication of JP2020202567A publication Critical patent/JP2020202567A/ja
Application granted granted Critical
Publication of JP6938734B2 publication Critical patent/JP6938734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Description

本発明は、相手の映像を漸進的に露出させる映像通話サービスを提供する端末及びサーバに関する。
映像通話サービスは、通話中に、相手の音声を出力すると共に、相手の映像を画面に表示するものであり、遠隔地にいる相手の姿を見ながら通話することができ、単に音声だけの通話に比べ、通話者間に互いの感情状態を容易に交換することができるという長所がある。
最近、高速情報通信が現実化され、映像通話が可能な端末装置の普及が拡大されながら、映像通話サービスが注目されており、併せて、映像通話の利用率が日増しに上昇している。
しかし、映像通話の便利性にもかかわらず、向上された画質で、ユーザ及び周辺環境を相手に非恣意的に直接露出させることにより、ユーザの肖像権及び私生活が侵害されてしまうという問題点が発生しうる。
本発明が解決しようとする課題は、映像通話サービスの進行中に発生するイベントにより、ユーザ及び周辺環境を露出させる映像通話サービスを提供する方法、サーバ及び端末を提供することである。
一開示により、コンピューター可読記録媒体に保存されたアプリケーションは、第1端末において、第1端末と第2端末との映像通話セッションを樹立する段階、第1端末に表示される第2ユーザの映像において、露出領域を除いた残り領域を変調して表示する段階、映像通話セッションが維持される間、所定イベントを検出する段階、及び所定イベントに基づいて、露出領域のサイズを制御する段階を含む映像通話サービスを提供する方法を遂行することができる。
一開示により、映像通話サービスを提供するサーバを提供し、サーバは、映像通話サービスを提供する端末と通信を行う通信インターフェース、ストレージ、プロセッサ、及びプロセッサによって実行可能な命令語を保存するメモリを含み、プロセッサは、命令語を実行することにより、第1端末と第2端末との映像通話セッションを樹立し、第1端末に表示される第2ユーザ映像において、露出領域を除いた残り領域を変調して表示し、映像通話セッションが維持される間、所定イベントを検出し、所定イベントに基づいて、露出領域のサイズを制御することができる。
一開示により、プロセッサによって実行可能な命令語が保存された非一時的コンピュータ可読記録媒体を提供し、記録媒体は、第1端末と第2端末との映像通話セッションを樹立する命令語、第1端末の映像通話画面に表示される第2ユーザ映像において、露出領域を除いた残り領域を変調して表示する命令語、映像通話セッションが維持される間、所定イベントを検出する命令語、所定イベントに基づいて、露出領域のサイズを制御する命令語を含んでもよい。
一開示により、映像通話サービスを遂行するユーザ端末を提供し、ユーザ端末は、ユーザ映像を獲得するカメラ、サーバ、及び他のユーザ端末と通信する通信インターフェース、プロセッサ、及びプロセッサによって実行可能な命令語を提供するメモリを提供し、プロセッサは命令語を実行することにより、他のユーザ端末との映像通話セッションを樹立し、ユーザ端末の映像通話画面に表示される他のユーザの映像において、露出領域を除いた残り領域を変調して表示し、映像通話セッションが維持される間、所定イベントを検出し、所定イベントに基づいて、露出領域のサイズを制御することができる。
映像通話サービスが提供される環境について説明するための図面である。 一開示による露出領域を介して、映像通話サービスを提供する様子について説明するための図面である。 一開示による、所定時間経過後、露出領域サイズを制御する様子について説明するための図面である。 一開示による、ユーザの露出領域サイズ制御要請により、露出領域サイズが増大する様子について説明するための図面である。 一開示による、露出領域サイズ増加を要請するユーザ入力による映像通話画面について説明するための図面である。 一開示により、端末でのジェスチャ検出により、露出領域サイズを制御する内容について説明するための図面である。 一開示により、経時的に、露出領域を除いた非露出領域の属性を変更する様子について説明するための図面である。 一開示による、ユーザ選択による非露出領域の属性を変更した様子について説明するための図面である。 一実施形態による端末の構成を示したブロック図である。 一実施形態による、映像通話サービスを提供するサーバの構成を示したブロック図である。 他の実施形態による、映像通話サービスを提供するサーバが、複数個の分散サーバに具現された様子について説明するための図面である。 一開示による、露出領域を介して、映像通話サービスを提供する方法について説明するためのフローチャートである。
以下、添付された図面を参照し、本発明の実施形態について、本発明が属する技術分野で当業者が容易に実施することができるように詳細に説明する。しかし、本発明は、さまざまに異なる形態にも具現され、以下で開示される実施形態に限定されるものではない。また、図面において、本発明を明確に開示するために、本発明と関係ない部分は、省略し、図面において、同一であったり類似したりする符号は、同一であったり類似したりする構成要素を示す。
本発明の目的及び効果は、下記の説明によって自然に理解されたり、さらに明らかになったりするであろうが、下記の記載だけに、本発明の目的及び効果が制限されるものではない。
以下、本発明の望ましい実施形態をについて、付した図面を参照して詳細に説明すれば、次の通りである。
図1は、映像通話サービスが提供される環境について説明するための図面である。
映像通話サービスは、複数のユーザが各自の端末を利用し、自分の映像を相手に伝送し、相手の映像を受信することにより、意思をやり取りすることができるサービスを意味する。映像通話サービスを利用するユーザは、各自の端末を介して、映像と音声とをやり取りすることができ、チャット機能を介して、テキストをやり取りすることもできる。映像通話サービスを利用しようとするユーザは、相手を直接指定するか、あるいは映像通話サービスを提供するサーバにおいて、ランダム、または所定方式によって相手を指定することにより、相手との映像通話サービスを利用することができる。
図1を参照すれば、第1端末100−1及び第2端末100−2が、通信網を介して、映像通話サービスを提供するサーバ200と連結されている。サーバ200は、複数のユーザが、各自の端末100−1,100−2を利用し、映像通話サービスを利用するように一助となる各種プログラムまたはアプリケーションと、データとを保存することができる。映像通話サービスを提供するサーバ200は、近距離通信及び遠隔地通信をいずれも行うことができる。映像通話サービスを提供するサーバ200は、通信網を介して、複数の端末100−1,100−2と連結され、複数の端末100−1,100−2は、映像通話サービスを提供するサーバ200との連結に利用される多様な種類の端末にもなる。例えば、複数の端末100−1,100−2は、映像通話サービスを提供するサーバ200と通信を行うことができる装置として、スマートウォッチのようなウェアラブル装置、スマートフォン・タブレットPC(personal computer)・ラップトップコンピュータのようなモバイル装置、デスクトップコンピュータのようなステーショナリ装置などにもなる。また、複数の端末100−1,100−2は、映像通話サービスを介して連結されるユーザ間の映像通話がなされるように、映像を撮影して再生することができる、映像通話を支援する映像通話装置でもある。
一開示により、「露出領域」は、映像通話セッションが樹立され、端末に映像通話画面が表示される場合、ユーザが端末を介して、映像を視聴することができる領域である。例えば、露出領域は、端末の画面上に表示されるユーザを撮影した映像ストリームの一部領域を意味する。一開示により、露出領域サイズが増大する場合、端末を介して見ることができるユーザの身体範囲が拡大される。すなわち、第2ユーザは、第2端末の画面上の第1露出領域を介して、第1ユーザの映像を見ることができる。また、第1ユーザは、第1端末の画面上の第2露出領域を介して、第2ユーザの映像を見ることができる。
一開示により、「非露出領域」は、端末に表示された映像通話画面において、露出領域を除いた映像領域である。例えば、端末の画面上に表示されるユーザ映像のうち非露出領域は、モザイク、陰影調節、背景挿入のように、ユーザの映像を隠すための手段としても表示される。すなわち、ユーザは、非露出領域に該当する映像において、相手の姿または周辺環境を見ることができない。一開示により、露出領域と非露出領域との大きさを合わせたものが、相手の映像大きさと同じである。
一開示により、「ピンチ(pinch)」は、ユーザが2本指を画面の上にタッチした状態で、互いに異なる方向に動かす動作を示す。オブジェクト、またはページの拡大(Pinch open)または縮小(Pinch close)のためのジェスチャであり、2本指の距離により、拡大値や縮小値が決定される。
図2は、一開示による露出領域を介して、映像通話サービスを提供する様子について説明するための図面である。
一開示により、第1端末100−1では、カメラを介して獲得した第1ユーザ21の映像ストリーム、及び第2端末100−2から受信した第2ユーザ31の映像ストリームを表示することができる。一開示により、第1ユーザ21は、第2露出領域201を介して、第2ユーザ31の映像ストリーム一部のみを見ることができる。例えば、第1ユーザ21は、第2露出領域201に位置した第2ユーザ31の両目を見ることができる。すなわち、第2露出領域201は、第2ユーザ31の映像の一部領域を隠し、一部領域だけを見せる役割を行う。
同様に、第2端末100−2は、第2ユーザ31の映像ストリーム、及び第1端末100−1から受信した第1ユーザ21の映像ストリームを表示することができる。このとき、第1ユーザ21の映像の一部領域しか、第1露出領域202を介して見ることができない。
従って、第1ユーザ21及び第2ユーザ31は、映像通話連結時、所望しない顔及び周辺環境の露出を防止することができる。
一開示により、第1端末100−1は、第2端末100−2を介して出力される映像通話サービスの音声信号の属性を制御することができる。一開示により、第1端末100−1において、第1ユーザ21の音声変調、音消去処理、音量の調節などを制御することにより、第2端末100−2から出力される第1ユーザ21の音声を制御することができる。
一開示により、第1端末100−1は、第1端末100−1を介して入力される音声信号を制御することができる。例えば、第1端末100−1は、第1端末100−1で受信した音声信号の音量大きさ、音声変調などの音声属性を制御した後、第2端末100−2に伝送することができる。
図3は、一開示による、所定時間経過後、露出領域サイズを制御する様子について説明するための図面である。
一開示により、第1端末100−1は、第2端末100−2との映像通話セッションの維持時間が拡張されることにより、第2露出領域301のサイズを拡大させることができる。一開示により、第1ユーザ21は、拡張された第2露出領域303を介して、さらに広い範囲の第2ユーザ31の映像を見ることができる。
同様に、第2端末100−2は、第1端末100−1との映像通話セッションが樹立された後、所定時間が経過すれば、第1露出領域302の大きさが拡大される。一開示により、第2ユーザ31は、拡張された第1露出領域304を介して、第1ユーザ21映像を見ることができる。
一開示により、第1端末100−1及び第2端末100−2は、映像通話セッション樹立後、所定時間が経過することにより、同時に、同じ広さに露出領域サイズが変更される。一開示により、所定時間が経過すれば、変更される露出領域サイズは、ユーザ、またはサーバの管理者によって事前に設定されている。
一開示により、第1端末100−1及び第2端末100−2の露出領域は、映像通話セッションの維持時間が長くなるほど、順次に広くなる。
図4は、一開示による、ユーザの露出領域サイズ制御要請により、露出領域サイズが増大する様子について説明するための図面である。
一開示により、第1端末100−1は、第1ユーザ21から、露出領域拡大調節アイコン403を選択する入力を受信することができる。一開示により、露出領域拡大調節アイコン403の入力により、第1端末100−1は、第2露出領域401のサイズを拡大させて変更された第2露出領域405を介して、第2ユーザ31の映像を出力することができる。
一開示により、第1端末100−1は、第1ユーザ21により、露出領域拡大調節アイコン403を選択する入力を受信すれば、第2端末100−2に、第1露出領域402の拡大信号を伝送することができる。第2端末100−2においては、第1露出領域402の拡大信号を受信することにより、サイズが変更された第1露出領域406を表示することができる。第2ユーザ31は、サイズが変更された第1露出領域406を介して、第1ユーザ21の映像を見ることができる。
一開示により、第1ユーザ21の露出領域拡大調節アイコン403を選択する入力により、サーバ200において、第1端末100−1の第2露出領域401、及び第2端末100−2の第1露出領域402のサイズを同時に調節することができる。
一開示により、露出領域拡大調節アイコン403は、ボタン、アイコン、矢印などによっても表示される。一開示により、露出領域拡大調節アイコン403は、映像通話画面において、任意の領域にも配置される。
一開示により、第1ユーザ21が、露出領域縮小調節アイコン404を選択する場合、第1端末100−1及び第2端末100−2の露出領域サイズが縮小される。
図5は、一開示による、露出領域サイズ増加を要請するユーザ入力による映像通話画面について説明するための図面である。
一開示により、露出領域は、ユーザの拡大要請及び受諾によっても変更される。双方のうちいずれか一人が、露出領域拡大を願わない場合、露出領域が任意に拡大されることを防止するためのものである。
一開示により、第1端末100−1は、第2ユーザ31の映像の第2露出領域501の拡張を第2端末100−2に要請することができる。一開示により、第1ユーザ21が、露出領域拡大調節アイコン502を選択することにより、第1端末100−1は、第2端末100−2に、第2露出領域501の拡大を要請することができる。他の開示により、第1ユーザ21が、露出領域縮小調節アイコン503を選択することにより、第1端末100−1は、第2端末100−2に、第2露出領域501の縮小を要請することができる。
一開示により、第2端末100−2は、第1端末100−1から受信した露出領域拡大要請により、要請メッセージ504を表示することができる。一開示により、要請メッセージ504は、第1ユーザ21が、第2露出領域501の拡張を願うという内容を含んでもよい。
一開示により、第2ユーザ31がOKボタン505を選択する場合、第2端末100−2は、第1端末100−1に、露出領域の拡張信号を伝送することができる。一開示により、第1端末100−1は、拡張信号を受信することにより、変更された第2露出領域507を表示することができる。また、第2端末100−2においても、拡張された露出領域が表示される。
一開示により、第2ユーザ31がNOボタン506を選択する場合、第1端末100−1及び第2端末100−2の露出領域サイズは、拡大されない。
図6は、一開示により、端末でのジェスチャ検出により、露出領域サイズを制御する内容について説明するための図面である。
一開示により、第1端末100−1及び第2端末100−2に表示された映像のジェスチャから、露出領域サイズを拡大させるか否かということを決定することができる。一開示により、第1端末100−1において、第1ユーザ21を撮影した映像、及び第2端末100−2から受信した第2ユーザ31を撮影した映像から検出した第1ユーザ21のジェスチャ及び第2ユーザ31のジェスチャのうち少なくとも一つに対応するエモーション情報が、肯定的反応に分類された情報に該当する場合、第1端末100−1は、第2露出領域601のサイズを拡大させることができる。また、前述のような方式により、第2端末100−2においても、第1露出領域602のサイズを拡大させることができる。
一開示により、ジェスチャは、ユーザが、顔、手、体などを利用して伝達する非言語的意思疎通を意味し、表情、手動作、身振りなどにもなる。ユーザは、ジェスチャを取ることにより、自分の意思を相手に伝達するか、あるいは相手にある反応を誘導することができる。表情は、ユーザが顔を介して、目、眉毛、鼻、口、額、頬などを動かることにより、自分の考えを示すものである。例えば、表情は、まばたき、目を大きくしたり閉じたりすること、口元を上げること、口を開けること、唇をかむこと、額にしわを寄せることなどにもなる。手動作は、ユーザが、手を、所定形状やアクションを取るようにすることであり、身振りは、ユーザが、体を、所定形状やアクションを取るようにすることにより、自分の考えを示すものである。手動作は、OKサイン、親指を上に上げるたり、下に下げたりすること、「V」字形作り、手を先後に振ること、手を左右に振るなどにもなる。身振りは、体ねじり、肩を小刻みに動かすこと、腕組みなどにもなる。
一方、ジェスチャは、ユーザが意識的または無意識的に、顔、手、体などを利用し、自分の意思を示したものであるので、ジェスチャそれぞれは、対応するエモーション情報がある。エモーション情報は、ジェスチャによる、ユーザの感情や、感情を引き起こす気分・雰囲気・表現自体を意味する。例えば、エモーション情報は、喜び、幸せ、怒り、楽しさ、苦しみ、悲しみ、憂鬱、眠い、退屈、関心、不機嫌、満足、微笑、笑い、ウィンク、泣くこと、肯定、否定、OK(受容)、いや(拒絶)などにもなる。
また、ジェスチャそれぞれは、対応するアイコン情報がある。アイコン情報は、ジェスチャと類似した形で、そのジェスチャを直観的に描いたり、ジェスチャに対応するエモーション情報を示したりする絵や記号でもある。例えば、アイコン情報は、ユーザの表情、手動作、身振りのそれぞれに対応する形状や様子の絵を含んだり、エモーション情報を表現したりする記号または文字を含んでもよい。
一開示により、第1端末100−1は、第1ユーザ21及び第2ユーザ31のジェスチャを検出し、それに対応するエモーション情報が、肯定的情報に該当するか否かということを判断することができる。
一開示により、ジェスチャに対応するエモーション情報が、肯定的情報であるか、あるいは否定的情報であるかということは、人工知能学習モデルによっても獲得される。一開示により、ユーザと他ユーザとのコミュニケーション情報に基づいて、ジェスチャとエモーション情報との関係性を学習した結果に基づいて、獲得された人工知能学習モデルを利用し、ユーザのジェスチャに対応するエモーション情報が、肯定的であるか否かということが判断される。
一開示により、第1端末100−1は、ジェスチャに対応するエモーション情報が、肯定的であるか否かということを判断するために、深層ニューラルネットワーク(deep neural network)技術による学習モデルを活用することができる。
一開示により、第1端末100−1において、第1ユーザ21及び第2ユーザ31の目、鼻、口などの顔の特徴点を利用し、第1ユーザ21及び第2ユーザ31が笑っていると判断する場合、「笑い」というジェスチャに対応するエモーション情報が、「肯定」であると判断することができる。それにより、第1端末100−1においては、第1ユーザ21及び第2ユーザ31のコミュニケーション状態が肯定的であるという判断により、第2露出領域601のサイズを拡張させることができる。また、第2端末100−2においても、第1露出領域602のサイズを拡張させることができる。
一開示により、第1端末100−1においては、第2端末100−2と送受信したコミュニケーション情報を検出し、コミュニケーション情報に対応するエモーション情報を決定することができる。一開示により、コミュニケーション情報は、ジェスチャ情報、イモティコン情報、テキスト情報及び音声情報のうち少なくとも一つを含んでもよい。
一開示により、第1端末100−1においては、第2端末100−2に伝送したテキスト情報及びイモティコン情報を含む第1コミュニケーション情報604と、第2端末100−2から受信したテキスト情報及びイモティコン情報を含む第2コミュニケーション情報605が、「いいよ」、「うれしいね」に対応する場合、エモーション情報を「肯定」と判断することができる。それにより、第1端末100−1においては、第1ユーザ21及び第2ユーザ31のコミュニケーション状態が肯定的であるという判断により、第2露出領域601のサイズを拡張させることができる。また、同じ判断により、第2端末100−2においても、第1露出領域602のサイズを拡張させることができる。
一開示により、第1端末100−1においては、第2ユーザ31を「友達追加」するアクション、及び第2端末100−2が第1ユーザ21を「友達追加」するアクションが検出される場合、第1ユーザ21及び第2ユーザ31のコミュニケーション状態が肯定的であると判断することができる。一開示により、第1端末100−1は、第2露出領域601のサイズを拡張させることができる。
他の開示により、第1端末100−1において、第1ユーザ21及び第2ユーザ31のコミュニケーション状態が否定的であると判断した場合、第2露出領域601のサイズを縮小することができる。また、同じ判断により、第2端末100−2においても、第1露出領域602のサイズを縮小することができる。
一開示により、第1端末100−1においては、第1ユーザ21の映像、及び第2ユーザ31の映像から検出した音声情報、ジェスチャ情報、イモティコン情報及びテキスト情報を、サーバ200に伝送することができる。また、第2端末100−2においても、第2ユーザ31の映像、及び第1ユーザ21の映像から検出した音声情報、ジェスチャ情報、イモティコン情報及びテキスト情報を、サーバ200に伝送することができる。
一開示により、サーバ200は、第1端末100−1及び第2端末100−2から受信した音声情報、ジェスチャ情報、イモティコン情報及びテキスト情報に基づいて、第1端末100−1及び第2端末100−2の露出領域サイズを制御する信号を伝送することができる。一開示により、サーバ200は、第1ユーザ21及び第2ユーザ31のコミュニケーション状態が肯定的であると判断した場合、露出領域サイズを拡大させる制御信号を伝送することができる。一方、サーバ200は、第1ユーザ21及び第2ユーザ31のコミュニケーション状態が否定的であると判断した場合、露出領域サイズを縮小する制御信号を伝送することができる。
図7は、一開示により、経時的に、露出領域を除いた非露出領域の属性を変更する様子について説明するための図面である。
一開示により、第1端末100−1においては、第2端末100−2との映像通話維持時間経過により、第2露出領域701を除いた残り領域、すなわち、第2非露出領域702の属性を変更することができる。
一開示により、図7(A)ないし図7(C)は、経時的に整列されたものである。一開示により、映像通話維持時間経過により、第1端末100−1においては、さらに広範囲の第2ユーザ31の映像を表示することができる。
一開示により、図7(A)のように、第2非露出領域702は、映像通話が樹立される当時、第2露出領域701を除き、第2ユーザ31の身体部位及び周辺環境を見ることができないように変調されて表示される。例えば、第2非露出領域702は、モザイク、変調、背景挿入などによって処理され、第2ユーザ31の他部分の映像を、第1ユーザ21が見ることができないようにする機能を行う。一開示により、第2露出領域701と第2非露出領域702との大きさの和は、第2ユーザ31の映像サイズと同一である。すなわち、第2非露出領域702は、第2露出領域701を除いた第2ユーザ31の映像を隠す用途である。
一開示により、図7(B)のように、第1端末100−1においては、所定映像通話維持時間の経過後、第2非露出領域702の変調を低減させることができる。例えば、第2非露出領域702の彩度、濃度、明るさなどを調節し、第2ユーザ31の映像が、図7(A)よりさらに見えるようにする。
一開示により、図7(C)のように、第1端末100−1においては、所定映像通話維持時間がさらに経過した後、第2非露出領域702の変調をなくすことができる。一開示により、既定の映像通話維持時間の経過後、第1端末100−1においては、第2露出領域701及び第2非露出領域702が消え、完全な第2ユーザ31映像が表示される。このとき、第2露出領域701を示す図形が、枠や点線によって表示されるか、あるいは徐々に消える。
一開示により、図7においては、経時的な非露出領域の変化について説明したが、他の実施形態によるイベント検出にも適用されるのである。
図8は、一開示による、ユーザ選択による非露出領域の属性を変更した様子について説明するための図面である。
一開示により、第1端末100−1の第1ユーザ21は、第2端末100−2に表示される第1ユーザ21の映像の第1非露出領域804の属性を変更させることができる。例えば、第1非露出領域804に背景イメージを挿入するか、背景色を変更するか、あるいは任意の写真が挿入されるようにする。
一開示により、第1ユーザ21は、第1端末100−1の制御メニューを介して、第2端末の第1非露出領域804の属性を変更することができる。
また、第2端末100−2においても、同じ動作により、第2端末100−2の第2ユーザ31は、第1端末100−1に表示された第2ユーザ31の映像の第2非露出領域803の属性を変更させることができる。
図9は、一実施形態による端末の構成を示したブロック図である。
一開示により、図9は、第1端末100−1を図示しているが、一開示により、第2端末100−2も、図9の構成を含んでもよい。
図9を参考すれば、第1端末100−1は、メモリ110、プロセッサ120、ユーザインターフェース130、通信インターフェース140、音声及び画像の入力部150を含んでもよい。本実施形態に係わる技術分野で当業者であるならば、図9に図示された構成要素以外に、他の汎用的な構成要素がさらに含まれてもよいということを知ることができるであろう。
メモリ110は、ソフトウェアまたはプログラムを保存することができる。例えば、メモリ110は、アプリケーション、アプリケーションプログラミングインターフェース(API)のようなプログラム、及び多種のデータを保存することができる。メモリ110は、プロセッサ120によって実行可能な命令語を保存することができる。
プロセッサ120は、メモリ110に保存された命令語を実行することができる。プロセッサ120は、メモリ110に保存された各種のプログラム、コンテンツ、データを利用するか、あるいは新たなプログラム、コンテンツ、データをメモリ110に保存することもできる。
プロセッサ120は、メモリ110にアクセスし、メモリ110に保存されたO/Sを利用し、起動を行うことができる。プロセッサ120は、メモリ110に保存された各種のプログラム、コンテンツ、データなどを利用し、多様な動作を遂行することができる。例えば、プロセッサ120は、メモリ110に保存された各種のプログラム、コンテンツ、データを利用し、ディスプレイ136に所定画面を表示することができる。プロセッサ120は、ディスプレイ136の一領域に対するユーザ操作がなされれば、ユーザ操作に対応する制御動作を遂行することができる。
プロセッサ120は、グラフィック処理に特化されたGPU(graphics processing unit)を含んでもよい。GPUは、第1端末100−1の起動が完了すれば、ディスプレイ136の領域に、ユーザインターフェース画面をディスプレイする。具体的には、GPUは、コンテンツ、アイコン、メニューのような多様な客体を含む映像通話レイアウトが表示された画面を生成することができる。GPUは、画面の映像通話レイアウトにより、各客体が表示される座標値、形態、大きさ、カラーのような属性値を演算することができる。そして、GPUは、演算された属性値に基づいて、客体を含む多様なレイアウトの画面を生成することができる。GPUで生成された画面は、ディスプレイ136に提供され、ディスプレイ136の各領域にそれぞれ表示される。
一方、プロセッサ120は、ビデオプロセッサとオーディオプロセッサとを含んでもよい。プロセッサ120は、ビデオプロセッサとオーディオプロセッサとを制御し、通信インターフェース140を介して受信された映像ストリーム、またはメモリ110に保存された映像ストリームに含まれたビデオデータまたはオーディオデータを処理することができる。
ユーザインターフェース130は、入力部131及び出力部135を含んでもよい。
入力部131は、ユーザから多様な命令語を入力される。入力部131は、キーパッド132、タッチパネル133及びペン認識パネル134のうち少なくとも一つを含んでもよい。
キーパッド132は、第1端末100−1の本体外観の前面部や側面部、背面部などの多様な領域に形成された機械的ボタン、ホイールのような多様な類型のキーを含んでもよい。
タッチパネル133は、ユーザのタッチ入力を感知し、感知されたタッチ信号に該当するタッチイベント値を出力することができる。タッチパネル133が表示パネルと結合し、タッチスクリーンを構成した場合、タッチスクリーンは、静電式、減圧式、圧電式のような多様な類型のタッチセンサによっても具現される。
ペン認識パネル134は、ユーザのタッチ用ペン(例えば、スタイラスペン(stylus pen))の運用による、ペンの近接入力またはタッチ入力を感知し、感知されたペン近接イベントまたはペンタッチイベントを出力することができる。ペン認識パネル134は、例えば、EMR(electromagnetic resonance)方式によっても具現され、ペンの近接またはタッチによる電磁場の強度変化により、タッチ入力または近接入力を感知することができる。ペン認識パネル134は、グリッド構造を有する電子誘導コイルセンサと、電子誘導コイルセンサの各ループコイルに順次に所定周波数を有する交流信号を提供する電子信号処理部と、を含んでも構成される。
出力部135は、ディスプレイ136、スピーカ137を含んでもよい。
ディスプレイ136は、表示パネル、及び表示パネルを制御するコントローラを含んでもよい。表示パネルは、LCD(liquid crystal display)、OLED(organic light emitting diode)ディスプレイ、AM−OLED(active-matrix organic light-emitting diode)、PDP(plasma display panel)のような多様な方式によっても具現される。表示パネルは、柔軟に(flexible)、または着用することができる(wearable)ようにも具現される。ディスプレイ136は、入力部131のタッチパネル133と結合され、タッチスクリーンにも提供される。
スピーカ137は、オーディオデータに基づいて、音を出力することができる。例えば、スピーカ137は、映像ストリームに含まれたオーディオデータにより、ユーザの音声を出力することができる。
通信インターフェース140は、多様な類型の通信方式により、多様な類型の外部器機と通信を行うことができる。通信インターフェース140は、Wi−Fi(wireless fidelity)チップ、ブルートゥース(Bluetooth)チップ、NFC(near field communication)チップ、無線通信チップのうち少なくとも一つを含んでもよい。プロセッサ120は、通信インターフェース140を利用し、各種外部機器と通信を行うことができる。
Wi−Fiチップ、ブルートゥース(Bluetooth)チップは、それぞれWiFi方式、ブルートゥース(Bluetooth)方式で通信を行うことができる。Wi−Fiチップやブルートゥース(Bluetooth)チップを利用する場合には、SSID(service set identifier)及びセッションキーのような各種連結情報をまず送受信し、それらを利用して通信連結した後、各種情報を送受信することができる。NFCチップは、多様なRFID(radio frequency identification)周波数帯域において、13.56MHz帯域を使用するNFC方式で動作するチップを意味する。無線通信チップは、IEEE(Institute of Electrical and Electronics Engineers)、ジグビー(ZigBee)、3G(3rd generation)、3GPP(3rd generation partnership project)、LTE(long term evolution)、5G(5th generation)のような多様な通信規格によって通信を行うチップを意味する。
音声及び映像の入力部150は、マイク151とカメラ153とを含んでもよい。マイク151は、ユーザ音声や、その他音を入力され、オーディオデータに変換することができる。プロセッサ120は、マイク151を介して入力されるユーザ音声を、映像通話に利用するか、あるいはオーディオデータに変換し、メモリ110に保存することができる。カメラ153は、ユーザ制御により、静止映像または動画を撮影することができる。カメラ153は、第1端末100−1の前面または背面に位置したカメラモジュールでもある。プロセッサ120は、マイク151を介して入力される音声と、カメラ153によって撮影される映像と、を利用して、映像通話のための映像ストリームを生成することができる。
一方、第1端末100−1は、モーション制御モードや音声制御モードで動作することができる。モーション制御モードで動作する場合、プロセッサ120は、カメラ153を活性化させてユーザを撮影し、ユーザのモーション変化を追跡し、それに対応する制御動作を遂行することができる。音声制御モードで動作する場合、プロセッサ120は、マイク151を介して入力されたユーザ音声を分析し、分析されたユーザ音声により、制御動作を遂行することができる。
前述の第1端末100−1の構成要素の名称は、異なりもする。また、本開示による第1端末100−1は、前述の構成要素のうち少なくとも一つを含んでも構成され、一部構成要素が省略されたり、追加的な他の構成要素をさらに含んだりしてもよい。第1端末100−1は、前述の構成要素のうち少なくとも一つを利用し、次のような動作を遂行することができる。
図10は、一実施形態による映像通話サービスを提供するサーバの構成を示したブロック図である。
図10を参照すれば、映像通話サービスを提供するサーバ200は、メモリ210、プロセッサ220、ストレージ230、通信インターフェース240を含む。本実施形態に係わる技術分野で当業者であるならば、図10に図示された構成要素以外に、他の汎用的な構成要素がさらに含まれてもよいということが分かる。図10のブロック図の各構成要素は、映像通話サービスを提供するサーバ200の具現方式により、分離、追加または省略がなされる。すなわち、具現方式により、1つの構成要素が2以上の構成要素に細分化されたり、2以上の構成要素が1つの構成要素に合わされたりもし、一部構成要素がさらに追加されたり除去されたりもする。
メモリ210は、プロセッサ220によって実行可能な命令語を保存することができる。メモリ210は、ソフトウェアまたはプログラムを保存することができる。
プロセッサ220は、メモリ210に保存された命令語を実行することができる。プロセッサ220は、映像通話サービスを提供するサーバ200の全般的な制御を行うことができる。プロセッサ220は、通信インターフェース240を介して受信される情報及び要請事項を獲得し、受信される情報をストレージ230に保存することができる。また、プロセッサ220は、受信される情報を加工することができる。例えば、プロセッサ220は、第1端末100−1または第2端末100−2から受信される情報から、映像通話サービスに利用される情報を生成するか、あるいは受信される情報を管理するための加工行為を遂行し、ストレージ230に保存することができる。また、プロセッサ220は、端末から獲得された要請事項に対する応答として、ストレージ230に保存された情報を利用し、通信インターフェース240を介して、端末に映像通話サービスを提供するための情報を伝送することができる。
ストレージ230は、映像通話サービスを提供するサーバ200が、映像通話サービスを提供するために必要な各種ソフトウェア及び情報を保存することができる。例えば、ストレージ230は、映像通話サービスを提供するサーバ200で実行されるプログラム、アプリケーション、及び映像通話サービスに利用される各種データを保存することができる。
ストレージ230は、映像通話サービスを利用するユーザ別個人情報をデータベース化し、保存及び管理を行うことができる。ストレージ230は、映像通話サービスを提供するサーバ200に接続するためのアカウント別に、ユーザの個人情報と、映像通話サービスに利用される多様な情報とを保存することができる。
通信インターフェース240は、第1端末100−1または第2端末100−2を含む外部機器と通信を行うことができる。例えば、映像通話サービスを提供するサーバ200は、端末から、映像通話サービス開始要請、映像通話サービス環境を整えるための設定情報に対する要請などを受信し、端末の要請に対する応答として、映像通話サービスに係わる全ての事項を提供することができる。
図11は、他の実施形態による、映像通話サービスを提供するサーバ200が、複数個の分散サーバによって具現された様子について説明するための図面である。以上において、映像通話サービスを提供するサーバ200に係わって記載された内容は、以下で省略された内容であるとしても、そのまま適用されるのである。
図11を参考すれば、映像通話サービスを提供する分散サーバは、負荷分散サーバ200−1と、映像通話サービスを提供する機能サーバ200−3,200−5,200−7とからも構成される。負荷分散サーバ200−1は、端末のような外部機器の映像通話サービスに係わる要請があるとき、映像通話サービスを提供する機能サーバ200−3,200−5,200−7のうち任意のサーバを決定し、端末100−1,100−2に連結させたり、映像通話サービスを提供する機能サーバ200−3,200−5,200−7の状態をモニタリングし、最適のサーバを選択し、端末100−1,100−2に連結させたりする。
図12は、一開示による露出領域を介して、映像通話サービスを提供する方法について説明するためのフローチャートである。
ブロック1201において、一開示により、サーバ200は、第1端末100−1と第2端末100−2との映像通話セッションを樹立することができる。一開示により、サーバ200は、第1ユーザ21を撮影した第1映像ストリームを、第1端末100−1から受信し、第2端末100−2に伝送することができる。一開示により、サーバ200は、第2ユーザ31を撮影した第2映像ストリームを、第2端末100−2から受信し、第1端末100−1に伝送することができる。
ブロック1202において、一開示により、サーバ200は、第1端末100−1の映像通話画面に表示される第2ユーザ映像、及び第2端末100−2の映像通話画面に表示される第1ユーザ映像において、露出領域を除いた残り領域を変調して送出することができる。第1端末100−1に第2ユーザ31の映像を送出しながら、第2ユーザ31の映像上において、露出領域を除いた残り領域をユーザが識別することができないように変調して送出することができる。また、サーバ200は、第2端末100−2において、露出領域を除いた残り領域を変調した第1ユーザ映像を伝送することができる。
ブロック1203において、一開示により、サーバ200は、映像通話セッションが維持される間、所定イベントを検出することができる。一開示により、所定イベントは、第1端末100−1と第2端末100−2との映像通話セッションの維持時間・露出領域調節アイコンの選択・露出領域調節を要請するユーザ入力、友達追加イベント、映像から検出されたユーザのジェスチャ、映像通話中に使用されたテキスト情報、音声信号、イモティコン情報を含む。
ブロック1204において、一開示により、サーバ200は、所定イベントに基づいて、第1端末100−1及び第2端末100−2の露出領域サイズを制御することができる。一開示により、サーバ200は、第1端末100−1及び第2端末100−2それぞれの露出領域サイズを同時に制御することができる。
なお、前述の映像通話サービスを提供する方法に係わる実施形態は、映像通話サービスを提供する第1端末100−1または第2端末100−2において、映像通話サービスを提供する方法を遂行させるコンピュータ可読記録媒体に保存されたアプリケーション形態でも提供される。言い替えれば、第1端末100−1または第2端末100−2に、前述の映像通話サービスを提供する方法の各段階を実行させるためのコンピュータ可読記録媒体に保存されたアプリケーションまたはコンピュータプログラム形態で提供される。
また、前述の実施形態は、コンピュータまたはプロセッサによって実行可能な命令語またはデータを保存するコンピュータ可読記録媒体の形態によっても具現される。前述の命令語及びデータのうち少なくとも一つは、プログラムコードの形態に保存され、プロセッサによって実行されたとき、所定プログラムモジュールを生成して所定動作を遂行することができる。そのようなコンピュータ可読記録媒体は、ROM(read-only memory)、RAM(random access memory)、フラッシュメモリ、CD−ROMs、CD−Rs、CD+Rs、CD−RWs、CD+RWs、DVD−ROMs、DVD−Rs、DVD+Rs、DVD−RWs、DVD+RWs、DVD−RAMs、BD−ROMs、BD−Rs、BD−RLTHs、BD−REs、マグネチックテープ、フロッピーディスク、光磁気データ保存装置、光学データ保存装置、ハードディスク、ソリッドステートディスク(SSD)、そして命令語またはソフトウェア、関連データ、データファイル及びデータ構造を保存することができ、プロセッサやコンピュータが命令語を実行するように、プロセッサやコンピュータに、命令語またはソフトウェア、関連データ、データファイル及びデータ構造を提供することができるいかなる装置でもよい。
以上、実施形態を中心に説明した。開示された実施形態が属する技術分野で当業者であるならば、開示された実施形態が、本質的な特性から外れない範囲で変形された形態に具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。発明の範囲は、前述の実施形態の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、発明の範囲に含まれたものであると解釈されなければならないのである。
本発明の、映像通話サービスを提供する端末及びサーバは、例えば、通信セキュリティ関連の技術分野に効果的に適用可能である。
100−1 第1端末
100−2 第2端末
110,210 メモリ
120,220 プロセッサ
130 ユーザインターフェース
140,240 通信インターフェース
150 音声及び画像の入力部
200 サーバ
230 ストレージ

Claims (9)

  1. 第1端末において、
    第1端末と第2端末との映像通話セッションを樹立する段階と、
    前記第1端末に表示される第2ユーザの映像において、露出領域を除いた残り領域を変調して表示する段階と、
    前記映像通話セッションが維持される間、前記露出領域のサイズ調節に対する要請を検出する段階と、
    前記第2端末に前記露出領域のサイズ調節に対する要請を伝送したことに対する応答として、前記第2端末から前記露出領域のサイズ調節に対する諾否を受信する段階と、
    前記受信された諾否によって、前記露出領域の大きさを制御する段階と、
    を含む、映像通話サービスを提供する方法を遂行させるコンピュータ可読記録媒体に保存されたアプリケーション。
  2. 前記検出する段階は、
    前記露出領域の拡大調節アイコンまたは縮小調節アイコンの選択による、前記露出領域のサイズ調節に対する要請を検出する、
    請求項1に記載の、映像通話サービスを提供する方法を遂行させるコンピュータ可読記録媒体に保存されたアプリケーション。
  3. 前記露出領域のサイズ調節に対する要請が前記露出領域の拡大要請である場合、前記露出領域のサイズ調節に対する要請は、前記露出領域の拡大を所望するという内容の要請メッセージを含む、
    請求項1に記載の、映像通話サービスを提供する方法を遂行させるコンピュータ可読記録媒体に保存されたアプリケーション。
  4. 前記制御する段階は、
    前記第2端末から前記露出領域のサイズ調節に対する受諾が受信された場合、前記露出領域のサイズ調節に対する要請によって、前記露出領域の大きさを調節し、受諾が受信されない場合、前記露出領域の大きさを維持する、
    請求項1に記載の、映像通話サービスを提供する方法を遂行させるコンピュータ可読記録媒体に保存されたアプリケーション。
  5. 映像通話サービスを提供する端末と通信を遂行する通信インターフェースと、
    プロセッサと、
    前記プロセッサによって実行可能な命令語を保存するメモリと、
    を含み、
    前記プロセッサは、
    前記命令語を実行することにより、
    第1端末と第2端末との映像通話セッションを樹立し、前記第1端末の映像通話画面に表示される第2ユーザの映像において、露出領域を除いた残り領域を変調し、前記映像通話セッションが維持される間、前記露出領域のサイズ調節に対する要請を検出し、前記第2端末において、前記露出領域のサイズ調節に対する要請を伝送したことに対する応答として、前記第2端末から前記露出領域のサイズ調節に対する諾否を受信し、前記受信された諾否によって、前記露出領域の大きさを制御する、
    映像通話サービスを提供するサーバ。
  6. 前記プロセッサは、
    前記露出領域の拡大調節アイコンまたは縮小調節アイコンの選択による、前記露出領域のサイズ調節に対する要請を検出する、
    請求項5に記載の、映像通話サービスを提供するサーバ。
  7. 前記露出領域のサイズ調節に対する要請が前記露出領域の拡大要請である場合、前記露出領域のサイズ調節に対する要請は、前記露出領域の拡大を所望するという内容の要請メッセージを含む、
    請求項5に記載の、映像通話サービスを提供するサーバ。
  8. 前記プロセッサは、
    前記第2端末から前記露出領域のサイズ調節に対する受諾が受信された場合、前記露出領域のサイズ調節に対する要請によって、前記露出領域の大きさを調節して、受諾が受信されない場合、前記露出領域の大きさを維持する、
    請求項5に記載の、映像通話サービスを提供するサーバ。
  9. 第1端末と第2端末との映像通話セッションを樹立する命令語と、
    前記第1端末の映像通話画面に表示される第2ユーザの映像において、露出領域を除いた残り領域を変調して表示する命令語と、
    前記映像通話セッションが維持される間、前記露出領域のサイズ調節に対する要請を検出する命令語と、
    前記第2端末に前記露出領域のサイズ調節に対する要請を伝送したことに対する応答として、前記第2端末から前記露出領域のサイズ調節に対する諾否を受信する命令語と、
    前記受信された諾否によって、前記露出領域の大きさを制御する命令語と、
    を含む、プロセッサによって実行可能な命令語が保存された非一時的コンピュータ可読記録媒体。
JP2020127599A 2017-12-27 2020-07-28 映像通話サービスを提供する端末及びサーバ Active JP6938734B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0181512 2017-12-27
KR1020170181512A KR102044242B1 (ko) 2017-12-27 2017-12-27 영상 통화 서비스를 제공하는 단말 및 서버
JP2018238541A JP6742394B2 (ja) 2017-12-27 2018-12-20 映像通話サービスを提供する端末及びサーバ

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018238541A Division JP6742394B2 (ja) 2017-12-27 2018-12-20 映像通話サービスを提供する端末及びサーバ

Publications (2)

Publication Number Publication Date
JP2020202567A JP2020202567A (ja) 2020-12-17
JP6938734B2 true JP6938734B2 (ja) 2021-09-22

Family

ID=64744495

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018238541A Active JP6742394B2 (ja) 2017-12-27 2018-12-20 映像通話サービスを提供する端末及びサーバ
JP2020127599A Active JP6938734B2 (ja) 2017-12-27 2020-07-28 映像通話サービスを提供する端末及びサーバ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018238541A Active JP6742394B2 (ja) 2017-12-27 2018-12-20 映像通話サービスを提供する端末及びサーバ

Country Status (4)

Country Link
US (2) US10574941B2 (ja)
EP (1) EP3506628A1 (ja)
JP (2) JP6742394B2 (ja)
KR (1) KR102044242B1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11256294B2 (en) 2014-05-30 2022-02-22 Apple Inc. Continuity of applications across devices
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR102044242B1 (ko) 2017-12-27 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말 및 서버
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
KR102266888B1 (ko) * 2018-12-31 2021-06-21 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말기 및 서버
KR102282963B1 (ko) 2019-05-10 2021-07-29 주식회사 하이퍼커넥트 단말기, 서버 및 그것의 동작 방법
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11620103B2 (en) 2019-05-31 2023-04-04 Apple Inc. User interfaces for audio media control
CN110519151B (zh) * 2019-07-12 2021-06-01 湖南新云网科技有限公司 可控好友添加方法、装置、终端设备及存储介质
GB2587231B (en) * 2019-09-20 2024-04-17 Neatframe Ltd Ultrasonic-based person detection system and method
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
CN113206970A (zh) * 2021-04-16 2021-08-03 广州朗国电子科技有限公司 一种用于视频通讯的无线投屏方法、装置及存储介质
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11360634B1 (en) 2021-05-15 2022-06-14 Apple Inc. Shared-content session user interfaces
KR20220157752A (ko) * 2021-05-21 2022-11-29 삼성전자주식회사 전자 장치 및 리액션 서비스 기반의 영상 통화 방법
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
CN118251883A (zh) * 2021-11-25 2024-06-25 索尼集团公司 信息处理装置、信息处理方法和信息处理程序
WO2023196231A1 (en) * 2022-04-04 2023-10-12 Apple Inc. User interfaces for camera sharing
US20230344956A1 (en) * 2022-04-20 2023-10-26 Samsung Electronics Company, Ltd. Systems and Methods for Multi-user Video Communication with Engagement Detection and Adjustable Fidelity

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09214921A (ja) * 1996-02-02 1997-08-15 Canon Inc 画像処理装置と画像処理方法、並びに画像通信システム
JP3642716B2 (ja) * 2000-04-19 2005-04-27 三菱電機株式会社 テレビ電話装置及び通話方法
EP1311124A1 (en) 2001-11-13 2003-05-14 Matsushita Electric Industrial Co., Ltd. Selective protection method for images transmission
JP3838506B2 (ja) 2001-11-13 2006-10-25 松下電器産業株式会社 画像を用いる通信方法及びその装置
US7321384B1 (en) * 2003-06-03 2008-01-22 Cisco Technology, Inc. Method and apparatus for using far end camera control (FECC) messages to implement participant and layout selection in a multipoint videoconference
US8977063B2 (en) * 2005-03-09 2015-03-10 Qualcomm Incorporated Region-of-interest extraction for video telephony
JP2006270380A (ja) * 2005-03-23 2006-10-05 Victor Co Of Japan Ltd 画像情報送信装置
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US8165416B2 (en) * 2007-06-29 2012-04-24 Microsoft Corporation Automatic gain and exposure control using region of interest detection
KR101403785B1 (ko) * 2007-08-16 2014-06-03 엘지전자 주식회사 터치 스크린을 구비한 이동통신 단말기 및 그 영상 통화제어방법
KR101189053B1 (ko) * 2009-09-05 2012-10-10 에스케이플래닛 주식회사 아바타 기반 화상 통화 방법 및 시스템, 이를 지원하는 단말기
US8970653B2 (en) * 2011-06-16 2015-03-03 Vtel Products Corporation, Inc. Video conference control system and method
JP6097679B2 (ja) * 2013-02-28 2017-03-15 エルジー アプラス コーポレーション 端末間機能共有方法及びその端末
US9013536B2 (en) * 2013-03-13 2015-04-21 Futurewei Technologies, Inc. Augmented video calls on mobile devices
CN104836977B (zh) * 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及***
US9858470B2 (en) * 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
US9282287B1 (en) * 2014-09-09 2016-03-08 Google Inc. Real-time video transformations in video conferences
US9516220B2 (en) * 2014-10-02 2016-12-06 Intel Corporation Interactive video conferencing
US9848167B1 (en) * 2016-06-21 2017-12-19 Amazon Technologies, Inc. Low bandwidth video
KR102044242B1 (ko) 2017-12-27 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말 및 서버

Also Published As

Publication number Publication date
JP2020202567A (ja) 2020-12-17
US10574941B2 (en) 2020-02-25
KR102044242B1 (ko) 2019-11-13
US20190199963A1 (en) 2019-06-27
US20200145613A1 (en) 2020-05-07
EP3506628A1 (en) 2019-07-03
KR20190079365A (ko) 2019-07-05
JP2019122036A (ja) 2019-07-22
US11140356B2 (en) 2021-10-05
JP6742394B2 (ja) 2020-08-19

Similar Documents

Publication Publication Date Title
JP6938734B2 (ja) 映像通話サービスを提供する端末及びサーバ
JP6691199B2 (ja) 映像通話サービスを提供する端末
US11809633B2 (en) Mirroring device with pointing based navigation
KR102034838B1 (ko) 영상 통화 서비스를 제공하는 단말과 서버
US11531400B2 (en) Electronic communication interface with haptic feedback response
US11989348B2 (en) Media content items with haptic feedback augmentations
US20220317774A1 (en) Real-time communication interface with haptic and audio feedback response
EP4315001A1 (en) Virtual reality interface with haptic feedback response
US10721437B2 (en) Terminal and server for providing video call service
EP4272062A1 (en) Communication interface with haptic feedback response
KR102120871B1 (ko) 영상 통화 서비스를 제공하는 단말 및 서버
US10554698B2 (en) Terminal and server providing video call service
US12039102B2 (en) Electronic communication interface with haptic feedback response
US20230254448A1 (en) Camera-less representation of users during communication sessions
US20240231500A1 (en) Real-time communication interface with haptic and audio feedback response
KR20200131339A (ko) 다중 참가자 라이브 통신 사용자 인터페이스

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210901

R150 Certificate of patent or registration of utility model

Ref document number: 6938734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150