JP2016537922A - 擬似ビデオ通話方法及び端末 - Google Patents

擬似ビデオ通話方法及び端末 Download PDF

Info

Publication number
JP2016537922A
JP2016537922A JP2016543309A JP2016543309A JP2016537922A JP 2016537922 A JP2016537922 A JP 2016537922A JP 2016543309 A JP2016543309 A JP 2016543309A JP 2016543309 A JP2016543309 A JP 2016543309A JP 2016537922 A JP2016537922 A JP 2016537922A
Authority
JP
Japan
Prior art keywords
terminal
facial expression
expression information
video
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016543309A
Other languages
English (en)
Inventor
リ・ガン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2016537922A publication Critical patent/JP2016537922A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

本発明は擬似ビデオ通話方法及び端末を提供する。当該方法は第一端末ユーザーのビデオ画像を収集するステップと、ビデオ画像に対して顔を認識して顔表情情報を取得するステップと、第二端末が顔表情情報及び第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、顔表情情報を第一端末と通話を確立する第二端末に送信するステップとを含む。本発明の実施形態に係る擬似ビデオ通話方法によれば、顔認識技術を利用して送信端末(例えば、第一端末)において顔表情情報を抽出し、受信端末(例えば、第二端末)において送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。伝送された顔表情のデータ量が非常に小さいため、ビデオ通話中に伝送されたデータ量を大幅に低減する。これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることなどによるビデオ通話への影響を減少する。

Description

[関連出願の相互参照]
本出願は、百度オンライン網絡技術(北京)有限公司が2013年12月20日に提出し、発明名称が「擬似ビデオ通話方法及び端末」で、中国特許出願番号が「201310714667.3」の優先権を主張する。
本発明は、通信技術分野に関し、特に擬似ビデオ通話方法及び端末に関する。
ネットワーク帯域幅の急速な拡大及びハードウェアデバイスの開発・普及に伴い、ビデオ通話の市場も急速に発展している。現在では、疑似ビデオ通話の主な方法は以下の通りである。送信端末が画像を収集するとともに、画像における顔領域を決定し、顔領域における顔特徴情報を抽出して、抽出された顔特徴情報を受信端末に送信し、受信端末において顔特徴情報を利用して対応するユーザーの顔表情を再現する。
現在では、以下の欠陥がある。それぞれの人の顔特徴が異なるため、抽出された顔特徴情報のデータは依然として非常に大きい。しかも、上述の方法は、顔特徴情報に基づいて特定対象の顔モデル(例えば、送信端末のユーザーの顔モデル)を再構築する必要もある。以上からわかるように、先行技術において、伝送されたビデオデータ量は非常に大きいため、大量のパケットフローが消費され、ビデオ通話の流暢性がよくなく、帯域幅が限られたモバイルネットワークまたはパケットフローが制限される状況に適しない。従って、ビデオ通話の普及及び拡大を大きく妨げる。
本発明は、少なくとも一つの上述の技術問題点を解決することを趣旨とする。
そのため、本発明は、擬似ビデオ通話方法を提出することを、一つ目の目的とする。当該方法は、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、ユーザー体験を向上することができる。
本発明は別の擬似ビデオ通話方法を提供することを二つ目の目的とする。
本発明は端末を提供することを三つ目の目的とする。
本発明は別の端末を提供することを四つ目の目的とする。
本発明は端末装置を提供することを五つ目の目的とする。
本発明は別の端末装置を提供することを六つ目の目的とする。
上記目的を達成するために、本発明の第一方面の実施形態に係る擬似ビデオ通話方法は、第一端末ユーザーのビデオ画像を収集するステップと、前記ビデオ画像に対して顔を認識して顔表情情報を取得するステップと、第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を前記第一端末と通話を確立する前記第二端末に送信するステップとを含む。
本発明の実施形態に係る擬似ビデオ通話方法によれば、顔認識技術を利用して送信端末(例えば、第一端末)において顔表情情報を抽出し、受信端末(例えば、第二端末)において送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、送信端末及び受信端末において伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、第二端末で第一端末ユーザーの人の顔画像モデルを再構築する必要がなく、第二端末が顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、第二端末は、容易に調整される。
上記目的を達成するために、発明の第2方面の実施形態に係る擬似ビデオ通話方法は、第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信するステップと、前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するステップとを含む。
本発明の実施形態に係る擬似ビデオ通話方法によれば、顔認識技術を利用して送信端末(例えば、第一端末)において顔表情情報を抽出し、受信端末(例えば、第二端末)において送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、送信端末及び受信端末において伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、第二端末で第一端末ユーザーの人の顔画像モデルを再構築する必要がなく、第二端末が顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、第二端末は、容易に調整される。
上記目的を達成するために、本発明の第3方面の実施形態に係る端末は、ユーザーのビデオ画像を収集するように構成された収集モジュールと、前記ビデオ画像に対して顔を認識して顔表情情報を取得するように構成された認識モジュールと、第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を端末と通話を確立する前記第二端末に送信するように構成された送信モジュールとを含む。
本発明の実施形態に係る端末によれば、顔認識技術を利用して顔表情情報を抽出し、端末と通話を確立する第二端末は、送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、第二端末でユーザーの人の顔画像モデルを再構築する必要がなく、第二端末が顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、第二端末は、容易に調整される。
上記目的を達成するために、本発明の第4方面の実施形態に係る端末は、端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信するように構成された受信モジュールと、前記顔表情情報及び前記端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように構成された合成モジュールとを含む。
本発明の実施形態に係る端末によれば、顔認識技術を利用して顔表情情報を抽出し、端末と通話を確立する第一端末は、送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、送信端末及び受信端末で伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、人の顔画像モデルを再構築する必要がなく、顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、端末は、容易に調整される。
上記目的を達成するために、本発明の第5方面の実施形態に係る端末装置は、一つまたは複数のプロセッサと、メモリと、一つまたは複数のプログラムとを備え、前記一つまたは複数のプログラムは、前記メモリに格納されており、前記一つまたは複数のプロセッサによって実行される場合には、前記端末装置ユーザーのビデオ画像を収集し、前記ビデオ画像に対して顔を認識して顔表情情報を取得し、第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を前記端末装置と通話を確立する前記第二端末に送信するように構成されている。
上記目的を達成するために、本発明の第6方面の実施形態に係る端末装置は、一つまたは複数のプロセッサと、メモリと、一つまたは複数のプログラムとを備え、前記一つまたは複数のプログラムは、前記メモリに格納されており、前記一つまたは複数のプロセッサによって実行される場合には、前記端末装置と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信し、前記顔表情情報及び前記端末装置に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように構成されている。
本発明の付加の方面及び利点が下記の説明において部分的に表れられ、一部が下記の説明においてより明らかとなり、或は本発明の実行より了解できる。
本発明の上述及び/或いは付加的方面とメリットは、下記の図面を結合した実施形態に対する説明において、明らかになり、理解されることが容易になる。その中で、
本発明の一つの実施形態による擬似ビデオ通話方法のフローチャートである; 本発明の別の実施形態による擬似ビデオ通話方法のフローチャートである; 本発明のもう一つの実施形態による擬似ビデオ通話方法のフローチャートである; 本発明の一つの実施形態による端末のブロック図である; 本発明の別の実施形態による端末のブロック図である; 本発明のもう一つの実施形態による端末のブロック図である。
以下に、本発明の実施形態を詳細に説明する。前記実施形態の実例が図面において示されるが、一貫して同一または類似する符号は、相同又は類似の部品、或いは、相同又は類似の機能を有する部品を表す。以下に、図面を参照しながら説明される実施形態が例示性のものであり、本発明を解釈するためだけに用いられるものであって、本発明を制限するように理解されてはならない。逆に、本発明の実施形態は特許請求の範囲に含まれる要旨及び内包範囲におけるあらゆる変化、変更及び同等物を含む。
本発明の説明には、用語「第一」、「第二」は単に目的を説明するためのみに用いられ、相対的な重要性を明示又は暗示するものとして理解するものではない。なお、本発明の説明において、明確な規定と限定がない限り、用語である「互いに接続」、「接続」の意味は広く理解されるべきである。例えば、固定接続や、着脱可能な接続や、あるいは一体的な接続でも可能である。機械的な接続や、電気接続でも可能である。直接的に互いに接続することや、中間媒体を介して間接的に互いに接続することも可能である。当業者にとって、具体的な状況に応じて上記用語の本発明中の具体的な意味を理解することができる。また、本発明において、別途、明確に限定した場合を除き、用語「複数」は二つ又は二つ以上を指す。
フローチャートにおいてまたはここで他の方式で説明されたいかなる過程または方法は、一つ又は複数の特定の論理機能又は過程のステップを実現するための実行可能な命令のコードのモジュール、断片又は部分であり、並びに本発明の好ましい実施形態は他の形態も含み、例示された又は議論された順序(関与された機能とほぼ同時の方式又は逆の順序を含む)によらず機能を実行できることを含むことは本発明の実施例に属する当業者であれば理解すべきである。
ビデオ通話中に伝送されたビデオデータ量が大きすぎる問題を解決するために、本発明は、擬似ビデオ通話方法及び端末を提出する。以下に、図面を参照しながら、本発明の実施形態による擬似ビデオ通話方法及び端末を説明する。
擬似ビデオ通話方法は、第一端末ユーザーのビデオ画像を収集するステップと、ビデオ画像に対して顔を認識して顔表情情報を取得するステップと、第二端末が顔表情情報及び第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、顔表情情報を第一端末と通話を確立する第二端末に送信するステップとを含む。
図1は本発明の一つの実施形態による擬似ビデオ通話方法のフローチャートである。図1に示したように、当該擬似ビデオ通話方法はステップS101と、ステップS102と、ステップS103とを含む。
ステップS101において、第一端末ユーザーのビデオ画像を収集する。
具体的には、第一端末は、当該第一端末付きカメラまたは外付けカメラによって撮影して、第一端末ユーザーのビデオ画像を収集することができる。
ステップS102において、ビデオ画像に対して顔を認識して顔表情情報を取得する。
具体的には、第一端末は、例えば、遺伝的アルゴリズムの人の顔認識、神経ネットワークの人の顔認識などのような既存の多種類のコンピュータ画像処理技術により、ビデオ画像に対して顔を認識して顔表情情報を取得する。顔表情のデータ量が非常に小さい。下記の実施形態において、顔表情の取得過程を詳しく説明する。
ステップS103において、第二端末が顔表情情報及び第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、顔表情情報を第一端末と通話を確立する第二端末に送信する。
そのうち、第一端末がサーバーによって第二端末にビデオ通話要求を送信する、または第二端末がサーバーによって第一端末にビデオ通話要求を送信する。第二端末が第一端末のビデオ通話要求を同意する、または第一端末が第二端末のビデオ通話要求を同意する場合には、サーバーは第一端末と第二端末との間のビデオ通話を確立することができる。
具体的には、第一端末は第一端末ユーザーの顔表情情報を符号化して、数字表現を形成し、当該顔表情情報をサーバーが確立したビデオ通話によって第二端末に送信することができる。
第一端末が第一端末ユーザーの顔表情情報を第二端末に送信した後に、第二端末は第一端末ユーザーの顔表情情報及び予め設定された人の顔画像モデルに基づいて合成して第一端末ユーザーの顔画像を再現するとともに、第二端末のビデオ通話インターフェースに表示することができる。そのうち、予め設定された人の顔画像モデルは、ユーザーが設定したのもであってもよく、サーバーがデフォルトで設定したものであってもよい。また、第二端末のユーザーは、更に自分の写真または第一端末ユーザーの写真と、顔表情情報とを合成することによって第一端末ユーザーの顔画像を再現することができる。
また、ビデオは1フレームずつのビデオ画像とし、第一端末において、各フレーム画像の顔表情情報を取得し、第二端末において、各フレーム画像に対して顔表情情報の合成も行い、これによって、擬似ビデオ通話を実現する。そのうち、合成過程は、先行技術であり、ここで説明しない。
本発明の実施形態に係る擬似ビデオ通話方法によれば、顔認識技術を利用して送信端末(例えば、第一端末)において顔表情情報を抽出し、受信端末(例えば、第二端末)において送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、送信端末及び受信端末で伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、第二端末で第一端末ユーザーの人の顔画像モデルを再構築する必要がなく、第二端末が顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、第二端末は、容易に調整される。
本発明の一つの実施形態において、ビデオ画像に対して顔を認識して顔表情情報を取得するステップ(即ち、S102)は、ビデオ画像に対して顔を認識して顔特徴を取得し、顔特徴から顔表情情報を抽出するステップを含む。
具体的には、まず、ビデオ画像から顔特徴を抽出し、顔特徴は、人の顔特徴(例えば目、鼻、口、耳など)の幾何学的情報(例えば、眉の位置、口の角度、目の大きさなど)を含むが、それらに限定されない。理解すべきなのは、他の方法を通じて顔特徴を取得することもできる。未来の新しい顔認識技術に対して、本実施形態の第一端末はいずれもそれを利用してビデオ画像に対して顔認識を行って、顔特徴を取得することができる。其の後、顔特徴から顔表情情報を抽出し、第一端末は顔特徴に基づいて分析して第一端末ユーザーの顔表情情報を取得することができる。
本発明の一つの実施形態において、顔表情情報は、眉顰めの有無、口開きの有無、口もとの弧度、目開けの有無、目の大きさ及び涙の有無の一つまたは複数を含む。
また、顔表情情報は、人の情緒情報を主に反映し、例えば、眉の位置、口の角度、目の大きさなどを分析することによって、ユーザーの表情が微笑や大笑、大泣き、意気消沈、興奮、怒りなどであることを取得することができる。同様に、例えば、機械学習アルゴリズムなどのような既存の様々な顔表情情報分析技術を利用して分析することができる。また、未来の似た機能を有するアルゴリズムに対して、本実施形態の第一端末はいずれもそれを利用して顔特徴を分析して、顔表情特徴を取得することができる。
第一端末は、第一端末ユーザーの顔表情情報を符号化して、数字表現を形成し、例えば、簡単ないくつかの文字であり、且ついくつかのビットのみを占有し、例えば、「大笑」に対して、文字「D:」を直接に送信し、符号化や伝送などを行い(勿論、符号化方式は更に豊富なものであってよく、ここで容易に理解するためだけに例を挙げて説明する)、そして、当該顔表情情報をサーバーが確立したビデオ通話によって第二端末に送信することができる。
説明すべきなのは、予め設定された人の顔画像モデルは更に多様化する。本発明の一つの実施形態では、予め設定された第二端末の人の顔画像モデルは、リアルな人の顔画像モデル及び漫画の人の顔画像モデルを含む。また、第二の端末に格納された写真などであることもできる。
ビデオ通話過程をより個人向けにして、趣味性を高めるために、第二端末ユーザーは自分の必要に応じて好きな漫画の人の顔画像モデルを選択することができる。本発明の一つの実施形態では、擬似ビデオ通話方法は、更に、第二端末が第二端末のユーザーに少なくとも一つの漫画の人の顔画像モデルを提供するステップと、第二端末が第二端末のユーザーにより選択された漫画の人の顔画像モデルを受信するとともに、顔表情情報及び選択された人の顔画像モデルに基づいて合成して表示するステップとを含む。具体的には、第二端末のユーザーが自分の必要に応じて、第一端末ユーザーのために好きな漫画の人の顔画像モデルを選択した後に、第二端末が第二端末のユーザーにより選択された漫画の人の顔画像モデルを受信し、第一端末ユーザーの顔表情情報及び第二端末ユーザーにより選択された漫画の人の顔画像モデルに基づいて合成して第一端末ユーザーの顔画像を再現するとともに、第二端末のビデオ通話インターフェースに表示する。例えば第一端末ユーザーの顔表情情報は、口が開いて、口もとの弧度が多く、目が少し細くなっていることである場合には、第一端末ユーザーが大笑している。第二端末ユーザーが選択したのは、スーパーマンの人の顔画像モデルであり、第二端末は第一端末ユーザーの顔表情情報及びスーパーマンの漫画画像を合成して第一端末ユーザーの顔表情情報が大笑である画像を再現する。
本発明の実施形態は、更に別の擬似ビデオ通話方法を提出する。
図2は本発明の別の実施形態による擬似ビデオ通話方法のフローチャートである。
図2に示したように、擬似ビデオ通話方法は、ステップS201と、ステップS202とを含む。
ステップS201において、第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信する。
具体的には、先ず、第一端末がサーバーによって第二端末にビデオ通話要求を送信する、または第二端末がサーバーによって第一端末にビデオ通話要求を送信する。第二端末が第一端末のビデオ通話要求を同意する、または第一端末が第二端末のビデオ通話要求を同意する場合には、サーバーは第一端末と第二端末との間のビデオ通話を確立することができる。
そのうち、第一端末は、当該第一端末付きカメラまたは外付けカメラによって撮影して、第一端末ユーザーのビデオ画像を収集することができて、上述のいずれか一つの実施形態に記載の方法により顔表情情報を取得するとともに、第二端末に送信する。
ステップS202において、顔表情情報及び第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示する。
具体的には、第二端末は第一端末ユーザーの顔表情情報及び予め設定された人の顔画像モデルに基づいて合成して第一端末ユーザーの顔画像を再現するとともに、第二端末のビデオ通話インターフェースに表示することができる。そのうち、予め設定された人の顔画像モデルは、ユーザーが設定したのもであってもよく、サーバーがデフォルトで設定したものであってもよい。また、第二端末のユーザーは、更に自分の写真または第一端末ユーザーの写真を人の顔画像モデルとして表示して第一端末ユーザーの顔画像を再現することができる。
本発明の実施形態に係る擬似ビデオ通話方法によれば、顔認識技術を利用して送信端末(例えば、第一端末)から顔表情情報を抽出し、受信端末(例えば、第二端末)に送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、送信端末及び受信端末で伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、第二端末で第一端末ユーザーの人の顔画像モデルを再構築する必要がなく、第二端末が顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、第二端末は、容易に調整される。
図3は本発明のもう一つの実施形態による擬似ビデオ通話方法のフローチャートである。
図3に示したように、当該擬似ビデオ通話方法はステップS301と、ステップS302と、ステップS303とを含む。
ステップS301において、第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信する。
ステップS302において、顔表情情報に基づいてビデオ画像を合成して表示するためのリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを選択する。
具体的には、ビデオ通話過程をより個人向けにして、趣味性を高めるために、第二端末はユーザーに、例えば、複数の漫画の人の顔画像モデルや写真、リアルな人の顔画像モデルなどのような複数のリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを提供することができる。第二端末ユーザーは自分の必要に応じて好きな人の顔画像モデルを選択することができる。例えば、第一端末ユーザーの顔表情情報は、口が開いて、口もとの弧度が多く、目が少し細くなっていることである場合には、第一端末ユーザーが大笑している。第二端末ユーザーが選択したのは、スーパーマンの人の顔画像モデルであり、第二端末は第一端末ユーザーの顔表情情報及びスーパーマンの漫画画像を合成して第一端末ユーザーの顔表情情報が大笑である画像を再現する。
ステップS303において、選択されたリアルな人の顔画像モデルまたは漫画の人の顔画像モデルと顔表情情報とに基づいてビデオ画像を合成して表示する。
本発明の実施形態の擬似ビデオ通話方法によれば、第二端末のユーザーはリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを選択するとともに、選択されたリアルな人の顔画像モデルまたは漫画の人の顔画像モデルと顔表情情報とに基づいてビデオ画像を合成して表示することができる。これによって、趣味性が高まり、ユーザー体験を向上する。
本発明の実施形態において、再現された顔画像がさらなるリアリティを持つように、第二端末が第一端末ユーザーのリアルな人の顔画像モデルを取得して顔表情を再現する。具体的には、第一端末がカメラによってビデオ画像を撮影し、撮影されたビデオ画像を分析してリアルな人の顔画像モデルを取得する、または、第一端末が撮影を必要とすることなく、ユーザーによって選択された人の顔画像を分析してリアルな人の顔画像モデルを取得し、その後に、それを第二端末に送信して格納させる。
また、第二端末は、第一端末ユーザーの人の顔画像を取得するとともに、人の顔画像に基づいて分析を行ってリアルな人の顔画像モデルを取得することができる。即ち、リアルな人の顔画像モデルは、第二端末に生成される。第二端末は、第一端末ユーザーのリアルな人の顔画像モデル及び第一端末ユーザーの顔表情情報に基づいて第一端末ユーザーの顔画像を合成して、第二端末のビデオ通話インターフェースに再現する。これによって、再現された顔画像がさらなるリアリティを持つ。
理解すべきなのは、リアルな人の顔画像モデルは、一度だけ形成され、第二端末に送信されて格納されることができ、その後のデータ送信過程においては、顔表情情報のみが送信されればよい。また、第二端末において、選択ボタンを提供することもできる。第二端末ユーザーは、第一端末ユーザーのリアルな人の顔画像モデルを選択して表示して第一端末ユーザーの顔画像を再現する、または漫画の人の顔画像モデルを選択して顔画像を再現することができる。更に具体的には、第二端末のユーザーは具体的なネットワーク環境及び端末の性能に基づいて選択し、例えば、携帯端末において、漫画の人の顔画像モデルを選択し、そして顔表情情報だけを送信してビデオ通話を実現し、パソコンにおいて、リアルな人の顔画像モデルを選択し、現実感を増加する。
本発明の実施形態に係る擬似ビデオ通話方法によれば、第一端末ユーザーのリアル人の顔画像モデルと顔表情情報とに基づいて第一端末ユーザーの顔画像を再現することができる。これによって、再現された顔画像がさらなるリアリティを持つ。また、受信端末が通話中にリアルな人の顔画像をリアルタイムで再現する必要がなく、リアルな人の顔画像モデルは一度だけ送信すれば何度も利用されることができる。これによって、受信端末の操作過程を簡略化し、ユーザー体験を向上させる。
上記目的を実現するために、本発明は、更に端末を提出する。
本発明の端末は、ユーザーのビデオ画像を収集するように構成された収集モジュールと、ビデオ画像に対して顔を認識して顔表情情報を取得するように構成された認識モジュールと、第二端末が顔表情情報及び他の端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、顔表情情報を端末と通話を確立する第二端末に送信するように構成された送信モジュールとを含む。
図4は本発明の一つの実施形態による端末のブロック図である。
図4に示したように、当該端末は、収集モジュール110と、認識モジュール120と、送信モジュール130とを含む。
具体的には、収集モジュール110は、ユーザーのビデオ画像を収集するように構成されている。もっと具体的には、収集モジュール110は、端末付きカメラまたは外付けカメラによって撮影して、ユーザーのビデオ画像を収集することができる。
認識モジュール120は、ビデオ画像に対して顔を認識して顔表情情報を取得するように構成されている。更に具体的には、認識モジュール120は、例えば、遺伝的アルゴリズムの人の顔認識、神経ネットワークの人の顔認識などのような既存の多種類のコンピュータ画像処理技術により、ビデオ画像に対して顔を認識して顔表情情報を取得する。顔表情のデータ量が非常に小さい。下記の実施形態において、顔表情の取得過程を詳しく説明する。
送信モジュール130は第二端末が顔表情情報及び他の端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、顔表情情報を端末と通話を確立する第二端末に送信するように構成されている。
そのうち、端末がサーバーによって第二端末にビデオ通話要求を送信する、または第二端末がサーバーによって端末にビデオ通話要求を送信する。第二端末が端末のビデオ通話要求を同意する、または端末が第二端末のビデオ通話要求を同意する場合には、サーバーは端末と第二端末との間のビデオ通話を確立することができる。
更に具体的には、送信モジュール130が顔表情情報を符号化して、数字表現を形成し、当該顔表情情報をサーバーが確立したビデオ通話によって第二端末に送信することができる。
顔表情情報を第二端末に送信した後に、第二端末は顔表情情報及び予め設定された人の顔画像モデルに基づいて合成して端末ユーザーの顔画像を再現するとともに、第二端末のビデオ通話インターフェースに表示することができる。そのうち、予め設定された人の顔画像モデルは、ユーザーが設定したのもであってもよく、サーバーがデフォルトで設定したものであってもよい。また、第二端末のユーザーは、更に自分の写真または端末ユーザーの写真と、顔表情情報とを合成することによって第一端末ユーザーの顔画像を再現することができる。
本発明の実施形態に係る端末によれば、顔認識技術を利用して顔表情情報を抽出し、端末と通話を確立する第二端末は、送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、第二端末でユーザーの人の顔画像モデルを再構築する必要がなく、第二端末が顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、第二端末は、容易に調整される。
本発明の一つの実施形態において、認識モジュール120は、更にビデオ画像に対して顔を認識して顔特徴を取得し、顔特徴から顔表情情報を抽出するように構成されている。
具体的には、まず、認識モジュール120はビデオ画像から顔特徴を抽出し、顔特徴は、人の顔特徴(例えば目、鼻、口、耳など)の幾何学的情報(例えば、眉の位置、口の角度、目の大きさなど)を含むが、それらに限定されない。理解すべきなのは、他の方法を通じて顔特徴を取得することもできる。未来の新しい顔認識技術はいずれもそれを利用してビデオ画像に対して顔認識を行って、顔特徴情報を取得することができる。其の後、認識モジュール120は顔特徴から顔表情情報を抽出し、認識モジュール120は顔特徴情報に基づいて分析してユーザーの顔表情情報を取得することができる。
本発明の一つの実施形態において、顔表情情報は、眉顰めの有無、口開きの有無、口もとの弧度、目開きの有無、目の大きさ及び涙の有無の一つまたは複数を含む。
また、顔表情情報は、人の情緒情報を主に反映し、例えば、眉の位置、口の角度、目の大きさなどを分析することによって、ユーザーの表情が微笑や大笑、大泣き、意気消沈、興奮、怒りなどであることを取得することができる。同様に、例えば、機械学習アルゴリズムなどのような既存の様々な顔表情情報分析技術を利用して分析することができる。また、未来の似た機能を有するアルゴリズムはいずれもそれを利用して顔特徴情報を分析して、顔表情特徴情報を取得することができる。
本発明の一つの実施形態において、顔表情情報は、眉顰めの有無、口開きの有無、口もとの弧度、目開けの有無、目の大きさ及び涙の有無の一つまたは複数を含む。
また、送信モジュール130は、顔表情情報を符号化して、数字表現を形成し、例えば、簡単ないくつかの文字であり、且ついくつかのビットのみを占有し、例えば、「大笑」に対して、文字「D:」を直接に送信し、符号化や伝送などを行い(勿論、符号化方式は更に豊富なものであってよく、ここで容易に理解するためだけに例を挙げて説明する)、そして、当該顔表情情報をサーバーが確立したビデオ通話によって第二端末に送信することができる。
上記目的を実現するために、本発明は、更に別の端末を提出する。
図5は本発明の別の実施形態による端末のブロック図である。
図5に示したように、当該端末は、受信モジュール210と、合成モジュール220とを含む。
具体的には、受信モジュール210は、端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信するように構成されている。合成モジュール220は、顔表情情報及び端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように構成されている。
更に具体的には、合成モジュール220は、第一端末ユーザーの顔表情情報及び予め設定された人の顔画像モデルに基づいて合成して第一端末ユーザーの顔画像を再現するとともに、端末のビデオ通話インターフェースに表示することができる。そのうち、予め設定された人の顔画像モデルは、ユーザーが設定したのもであってもよく、デフォルトで設定したものであってもよい。また、端末のユーザーは、更に自分の写真または第一端末ユーザーの写真を人の顔画像モデルとして表示して第一端末ユーザーの顔画像を再現することができる。
本発明の実施形態に係る端末によれば、顔認識技術を利用して顔表情情報を抽出し、端末と通話を確立する第一端末は、送信された顔表情情報及び予め設定された人の顔画像モデルに基づいて人の顔画像を簡単に合成させて復元させる。更に、送信端末及び受信端末で伝送された情報が顔表情情報のみであり、且つ当該顔表情情報によって完全な顔画像を合成する必要がなく、含まれた情報量が少なく、符号化された後に、顔表情情報のデータ量がいくつかのビットまたはバイトのみを占有するため、先行技術において伝送された情報と比較して、ビデオ通話中に伝送されたデータ量を大幅に低減し、パケットフローを節約し、これによって、ビデオ通話の流暢性をよりよくさせ、帯域幅が限られること、またはパケットフローが制限されることによるビデオ通話への影響を減少し、モバイルネットワークで情報を伝送するのに十分に適し、ユーザー体験を向上することができる。また、人の顔画像モデルを再構築する必要がなく、顔表情情報に基づいて予め設定された人の顔画像モデルの上で対応する顔表情情報を表示すればよい。これによって、端末は、容易に調整される。
図6は本発明のもう一つの実施形態による端末のブロック図である。
図6に示したように、図5に示した端末構造の上に、本実施形態の端末は、選択モジュール230を更に含む。
具体的には、選択モジュール230は、第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信モジュール210が受信した後に、顔表情情報とビデオ画像を合成して表示するためのリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを選択するように構成されている。
更に具体的には、ビデオ通話過程をより個人向けにして、趣味性を高めるために、端末はユーザーに、例えば、漫画の人の顔画像モデルや写真、リアルな人の顔画像モデルなどのような複数のリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを提供することができる。ユーザーは自分の必要に応じて好きな人の顔画像モデルを選択することができる。例えば第一端末ユーザーの顔表情情報が大笑である場合には、端末ユーザーが選択したのは、スーパーマンの人の顔画像モデルであり、端末は第一端末ユーザーの顔表情情報及びスーパーマンの漫画画像を合成して他の端末ユーザーの顔表情情報が大笑である画像を再現する。
従って、ユーザーはリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを選択するとともに、選択されたリアルな人の顔画像モデルまたは漫画の人の顔画像モデルと顔表情情報とに基づいてビデオ画像を合成して表示する。これによって、趣味性が高まり、ユーザー体験を向上する。
上記目的を実現するために、本発明は、端末装置を更に提供する。
本発明の実施形態による端末装置は、一つまたは複数のプロセッサと、メモリと、一つまたは複数のプログラムとを備える端末装置において、前記一つまたは複数のプログラムは、前記メモリに格納されており、前記一つまたは複数のプロセッサによって実行される場合には、前記端末装置ユーザーのビデオ画像を収集し、前記ビデオ画像に対して顔を認識して顔表情情報を取得し、第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を前記端末装置と通話を確立する前記第二端末に送信するように構成されている。
上記目的を実現するために、本発明は、別の端末装置を更に提供する。
本発明の実施形態による端末装置は、一つまたは複数のプロセッサと、メモリと、一つまたは複数のプログラムとを備える端末装置において、前記一つまたは複数のプログラムは、前記メモリに格納されており、前記一つまたは複数のプロセッサによって実行される場合には、前記端末装置と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信し、前記顔表情情報及び前記端末装置に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように構成されている。
理解すべきなのは、本発明の各部分は、ハードウェア、ソフトウェア、部品またはそれらの組み合わせで実現できる。上記実施形態には、複数のステップまたは方法がメモリに格納され、適当なコマンド実行システムのソフトウェアまたは部品で実現される。たとえば、ハードウェアで実現する場合、他の実施方式と同じように、本領域周知の下記の任意一つまたはそれらの組み合わせで実現できる。すなわち、データ信号に対してロジック機能を実現するロジックゲート回路を有する個別のロジック回路、ロジックゲート回路を組み合わせた適当な専用IC、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などである。
本明細書には、用語「一つの実施形態」、「いくつかの実施形態」、「例示」、「具体的例示」、「いくつかの例示」などは、当実施形態や例示の具体的特徴、構造、材料が本発明の少なくとも一つの実施形態や例示に含まれることを意味する。本明細書には、用語の説明が必ずしも同じ実施形態や例示を意味しない。また、説明の中の具体的特徴、構造、材料は、任意の一つやいくつかの実施形態や例示に適当な方式で結合されることができる。
本発明の実施形態を示して説明したが、当業者にとって理解できるのは、本発明の原理及び主旨から逸脱しない限りこれらの実施形態に対して複種の変化、補正、切り替え及び変形を行うことができる。本発明の範囲は、特許請求の範囲及びその等価物により限定される。

Claims (12)

  1. 第一端末ユーザーのビデオ画像を収集するステップと、
    前記ビデオ画像に対して顔を認識して顔表情情報を取得するステップと、
    第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を前記第一端末と通話を確立する前記第二端末に送信するステップとを含む
    ことを特徴とする擬似ビデオ通話方法。
  2. 前記ビデオ画像に対して顔を認識して顔表情情報を取得するステップは、
    前記ビデオ画像に対して顔を認識して顔特徴を取得し、前記顔特徴から前記顔表情情報を抽出するステップ
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記顔表情情報は、眉顰めの有無、口開きの有無、口もとの弧度、目開きの有無、目の大きさ及び涙の有無の一つまたは複数を含む
    ことを特徴とする請求項1または2に記載の方法。
  4. 第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信するステップと、
    前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するステップとを含む
    ことを特徴とする擬似ビデオ通話方法。
  5. 前記第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信した後に、さらに、
    前記顔表情情報に基づいてビデオ画像を合成して表示するためのリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを選択するステップを含む
    ことを特徴とする請求項4に記載の方法。
  6. ユーザーのビデオ画像を収集するように構成された収集モジュールと、
    前記ビデオ画像に対して顔を認識して顔表情情報を取得するように構成された認識モジュールと、
    第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を端末と通話を確立する前記第二端末に送信するように構成された送信モジュールとを含む
    ことを特徴とする端末。
  7. 前記認識モジュールは、更に、前記ビデオ画像に対して顔を認識して顔特徴を取得し、前記顔特徴から前記顔表情情報を抽出するように構成されている
    ことを特徴とする請求項6に記載の端末。
  8. 前記顔表情情報は、眉顰めの有無、口開きの有無、口もとの弧度、目開けの有無、目の大きさ及び涙の有無の一つまたは複数を含む
    ことを特徴とする請求項6または7に記載の端末。
  9. 端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信するように構成された受信モジュールと、
    前記顔表情情報及び前記端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように構成された合成モジュールとを含む
    ことを特徴とする端末。
  10. 前記受信モジュールが第二端末と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信した後に、前記顔表情情報に基づいてビデオ画像を合成して表示するためのリアルな人の顔画像モデルまたは漫画の人の顔画像モデルを選択するように構成された選択モジュールを更に含む
    ことを特徴とする請求項9に記載の端末。
  11. 一つまたは複数のプロセッサと、メモリと、一つまたは複数のプログラムとを備える端末装置において、
    前記一つまたは複数のプログラムは、前記メモリに格納されており、前記一つまたは複数のプロセッサによって実行される場合には、
    前記端末装置ユーザーのビデオ画像を収集し、
    前記ビデオ画像に対して顔を認識して顔表情情報を取得し、
    第二端末が前記顔表情情報及び前記第二端末に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように、前記顔表情情報を前記端末装置と通話を確立する前記第二端末に送信するように構成されていることを特徴とする端末装置。
  12. 一つまたは複数のプロセッサと、メモリと、一つまたは複数のプログラムとを備える端末装置において、
    前記一つまたは複数のプログラムは、前記メモリに格納されており、前記一つまたは複数のプロセッサによって実行される場合には、
    前記端末装置と通話を確立する第一端末から送信されたビデオ画像の顔表情情報を受信し、
    前記顔表情情報及び前記端末装置に予め設定された人の顔画像モデルに基づいてビデオ画像を合成して表示するように構成されている
    ことを特徴とする端末装置。
JP2016543309A 2013-12-20 2014-12-05 擬似ビデオ通話方法及び端末 Pending JP2016537922A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310714667.3A CN103647922A (zh) 2013-12-20 2013-12-20 虚拟视频通话方法和终端
CN201310714667.3 2013-12-20
PCT/CN2014/093187 WO2015090147A1 (zh) 2013-12-20 2014-12-05 虚拟视频通话方法和终端

Publications (1)

Publication Number Publication Date
JP2016537922A true JP2016537922A (ja) 2016-12-01

Family

ID=50253066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016543309A Pending JP2016537922A (ja) 2013-12-20 2014-12-05 擬似ビデオ通話方法及び端末

Country Status (4)

Country Link
JP (1) JP2016537922A (ja)
KR (1) KR101768980B1 (ja)
CN (1) CN103647922A (ja)
WO (1) WO2015090147A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113857A (ja) * 2019-01-10 2020-07-27 株式会社Zizai キャラクタを使ったライブ通信システム
JP2022517841A (ja) * 2019-01-23 2022-03-10 広州視源電子科技股▲分▼有限公司 ビデオ画像の伝送方法、装置、インテリジェントインタラクティブタブレット及び記憶媒体
WO2023195426A1 (ja) * 2022-04-05 2023-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 復号装置、符号化装置、復号方法及び符号化方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103647922A (zh) * 2013-12-20 2014-03-19 百度在线网络技术(北京)有限公司 虚拟视频通话方法和终端
CN105282621A (zh) * 2014-07-22 2016-01-27 中兴通讯股份有限公司 一种语音消息可视化服务的实现方法及装置
CN104333730B (zh) * 2014-11-26 2019-03-15 北京奇艺世纪科技有限公司 一种视频通信方法及装置
CN106162052A (zh) * 2015-03-30 2016-11-23 联想(北京)有限公司 传输视频图像及其装置,显示图像的方法及其装置
CN106162042A (zh) * 2015-04-13 2016-11-23 中兴通讯股份有限公司 一种视频会议的方法、服务器及终端
CN105245702B (zh) * 2015-09-25 2018-09-11 北京奇虎科技有限公司 来电显示图像的优化方法、客户端及***
CN105263040A (zh) * 2015-10-08 2016-01-20 安徽理工大学 一种节省手机流量观看球赛直播的方法
CN105407313A (zh) * 2015-10-28 2016-03-16 掌赢信息科技(上海)有限公司 一种视频通话方法、设备和***
CN105847734A (zh) * 2016-03-30 2016-08-10 宁波三博电子科技有限公司 一种基于人脸识别的视频通信方法及***
CN107465885A (zh) * 2016-06-06 2017-12-12 中兴通讯股份有限公司 一种实现视频通讯的方法和装置
CN106101858A (zh) * 2016-06-27 2016-11-09 乐视控股(北京)有限公司 一种视频生成方法及装置
CN107690055A (zh) * 2016-08-05 2018-02-13 中兴通讯股份有限公司 视频通话的控制方法、装置及***
CN106506908A (zh) * 2016-10-26 2017-03-15 宇龙计算机通信科技(深圳)有限公司 一种视频合成方法及装置
CN106649712B (zh) * 2016-12-20 2020-03-03 北京小米移动软件有限公司 输入表情信息的方法及装置
CN108347578B (zh) * 2017-01-23 2020-05-08 腾讯科技(深圳)有限公司 视频通话中视频图像的处理方法及装置
KR102256110B1 (ko) * 2017-05-26 2021-05-26 라인 가부시키가이샤 영상 압축 방법 및 영상 복원 방법
CN107396035A (zh) * 2017-08-15 2017-11-24 罗静 立体人脸表情重现构件、装置及3d远程会议***
CN107509081A (zh) * 2017-08-22 2017-12-22 姚静洁 一种用于人脸识别的图像压缩编码方法
CN108174141B (zh) * 2017-11-30 2019-12-31 维沃移动通信有限公司 一种视频通信的方法和一种移动装置
CN107911644B (zh) * 2017-12-04 2020-05-08 吕庆祥 基于虚拟人脸表情进行视频通话的方法及装置
CN108377356B (zh) * 2018-01-18 2020-07-28 上海掌门科技有限公司 基于虚拟画像的视频通话的方法、设备和计算机可读介质
CN108271058B (zh) * 2018-02-02 2021-10-12 阿里巴巴(中国)有限公司 视频互动方法、用户客户端、服务器及存储介质
CN109803109B (zh) * 2018-12-17 2020-07-31 中国科学院深圳先进技术研究院 一种可穿戴增强现实远程视频***及视频通话方法
CN109740476B (zh) * 2018-12-25 2021-08-20 北京琳云信息科技有限责任公司 即时通讯方法、装置和服务器
CN110460719B (zh) * 2019-07-23 2021-06-18 维沃移动通信有限公司 一种语音通话方法及移动终端
CN110650306B (zh) * 2019-09-03 2022-04-15 平安科技(深圳)有限公司 视频聊天中添加表情的方法、装置、计算机设备及存储介质
CN110599359B (zh) * 2019-09-05 2022-09-16 深圳追一科技有限公司 社交方法、装置、***、终端设备及存储介质
CN110769186A (zh) * 2019-10-28 2020-02-07 维沃移动通信有限公司 一种视频通话方法、第一电子设备及第二电子设备
CN113099150B (zh) * 2020-01-08 2022-12-02 华为技术有限公司 图像处理的方法、设备及***
CN111240482B (zh) * 2020-01-10 2023-06-30 北京字节跳动网络技术有限公司 一种特效展示方法及装置
CN113220500A (zh) * 2020-02-05 2021-08-06 伊姆西Ip控股有限责任公司 基于逆向差异恢复的恢复方法、设备和程序产品
CN111641798A (zh) * 2020-06-15 2020-09-08 黑龙江科技大学 一种视频通信方法及装置
CN111814652A (zh) * 2020-07-03 2020-10-23 广州视源电子科技股份有限公司 虚拟人像渲染方法、装置以及存储介质
CN111669662A (zh) * 2020-07-03 2020-09-15 海信视像科技股份有限公司 显示设备、视频通话方法及服务器
CN112116548A (zh) * 2020-09-28 2020-12-22 北京百度网讯科技有限公司 人脸图像的合成方法、装置
CN112218034A (zh) * 2020-10-13 2021-01-12 北京字节跳动网络技术有限公司 视频处理方法、***、终端和存储介质
CN112235531A (zh) * 2020-10-15 2021-01-15 北京字节跳动网络技术有限公司 视频处理的方法、装置、终端及存储介质
CN114710640B (zh) * 2020-12-29 2023-06-27 华为技术有限公司 基于虚拟形象的视频通话方法、装置和终端
CN113066497A (zh) * 2021-03-18 2021-07-02 Oppo广东移动通信有限公司 数据处理方法、装置、***、电子设备和可读存储介质
CN113613048A (zh) * 2021-07-30 2021-11-05 武汉微派网络科技有限公司 虚拟形象表情驱动方法和***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104424A (ja) * 2002-09-09 2004-04-02 Oki Electric Ind Co Ltd データ配信システムおよびそのデータ配信方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102479388A (zh) * 2010-11-22 2012-05-30 北京盛开互动科技有限公司 基于人脸跟踪和分析的表情互动方法
CN102254336B (zh) * 2011-07-14 2013-01-16 清华大学 人脸视频合成方法及装置
CN102271241A (zh) * 2011-09-02 2011-12-07 北京邮电大学 一种基于面部表情/动作识别的图像通信方法及***
CN102542586A (zh) * 2011-12-26 2012-07-04 暨南大学 一种基于移动终端的个性化卡通肖像生成***及方法
CN103369289B (zh) * 2012-03-29 2016-05-04 深圳市腾讯计算机***有限公司 一种视频模拟形象的通信方法和装置
CN104170358B (zh) * 2012-04-09 2016-05-11 英特尔公司 用于化身管理和选择的***和方法
CN103368929B (zh) * 2012-04-11 2016-03-16 腾讯科技(深圳)有限公司 一种视频聊天方法及***
CN103415003A (zh) * 2013-08-26 2013-11-27 苏州跨界软件科技有限公司 一种虚拟人物通话***
CN103647922A (zh) * 2013-12-20 2014-03-19 百度在线网络技术(北京)有限公司 虚拟视频通话方法和终端

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104424A (ja) * 2002-09-09 2004-04-02 Oki Electric Ind Co Ltd データ配信システムおよびそのデータ配信方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ERIC PETAJAN, VERY LOW BITRATE ANIMATION CODING IN MPEG-4, JPN7017003797, 2000, pages 1 - 33 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020113857A (ja) * 2019-01-10 2020-07-27 株式会社Zizai キャラクタを使ったライブ通信システム
JP7277145B2 (ja) 2019-01-10 2023-05-18 株式会社Iriam キャラクタを使ったライブ通信システム
JP2022517841A (ja) * 2019-01-23 2022-03-10 広州視源電子科技股▲分▼有限公司 ビデオ画像の伝送方法、装置、インテリジェントインタラクティブタブレット及び記憶媒体
JP7250937B2 (ja) 2019-01-23 2023-04-03 広州視源電子科技股▲分▼有限公司 ビデオ画像の伝送方法、装置、インテリジェントインタラクティブタブレット及び記憶媒体
WO2023195426A1 (ja) * 2022-04-05 2023-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 復号装置、符号化装置、復号方法及び符号化方法

Also Published As

Publication number Publication date
KR20160021146A (ko) 2016-02-24
CN103647922A (zh) 2014-03-19
KR101768980B1 (ko) 2017-08-17
WO2015090147A1 (zh) 2015-06-25

Similar Documents

Publication Publication Date Title
JP2016537922A (ja) 擬似ビデオ通話方法及び端末
US11303850B2 (en) Communication using interactive avatars
CN106231434B (zh) 一种基于人脸检测的直播互动特效实现方法及***
WO2018153267A1 (zh) 群组视频会话的方法及网络设备
US9210372B2 (en) Communication method and device for video simulation image
WO2022222810A1 (zh) 一种虚拟形象的生成方法、装置、设备及介质
US10938725B2 (en) Load balancing multimedia conferencing system, device, and methods
CN110401810B (zh) 虚拟画面的处理方法、装置、***、电子设备及存储介质
US11670015B2 (en) Method and apparatus for generating video
CN113099298B (zh) 虚拟形象的改变方法、装置和终端设备
CN108876877A (zh) 表情符号人偶化
CN110413108B (zh) 虚拟画面的处理方法、装置、***、电子设备及存储介质
KR20210060196A (ko) 아바타 메시지 서비스를 제공하는 서버, 방법 및 사용자 단말
CN109788359B (zh) 一种视频数据处理方法和相关装置
WO2021223724A1 (zh) 信息处理方法、装置和电子设备
US20150181161A1 (en) Information Processing Method And Information Processing Apparatus
JP2024506639A (ja) 画像表示方法、装置、機器及び媒体
CN111967397A (zh) 人脸影像处理方法和装置、存储介质和电子设备
CN113453027A (zh) 直播视频、虚拟上妆的图像处理方法、装置及电子设备
JP2005018305A (ja) 画像配信システムおよび画像コミュニケーション機能付情報処理装置
CN109039851B (zh) 交互数据处理方法、装置、计算机设备和存储介质
KR102058190B1 (ko) 캐릭터 서비스 시스템에서의 캐릭터 서비스를 제공하기 위한 장치
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
KR20120119244A (ko) 컨텐츠 제작 방법, 이를 위한 시스템 및 이를 위한 단말기
KR20120037712A (ko) 가상 미용체험 서비스 시스템 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180710