JP6839771B2 - 補正パターン分析による映像補正方法およびシステム - Google Patents

補正パターン分析による映像補正方法およびシステム Download PDF

Info

Publication number
JP6839771B2
JP6839771B2 JP2019550578A JP2019550578A JP6839771B2 JP 6839771 B2 JP6839771 B2 JP 6839771B2 JP 2019550578 A JP2019550578 A JP 2019550578A JP 2019550578 A JP2019550578 A JP 2019550578A JP 6839771 B2 JP6839771 B2 JP 6839771B2
Authority
JP
Japan
Prior art keywords
image
feature points
face
facial feature
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019550578A
Other languages
English (en)
Other versions
JP2020510936A (ja
Inventor
キム,ソンウク
チェー,サンホ
パク,ビョンソン
ジン,ジョン−ファン
イ,ウォンヒョ
シン,ヒョンベ
ジョン,ソンヨプ
ハム,ノア
キム,ジミン
Original Assignee
スノー コーポレーション
スノー コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スノー コーポレーション, スノー コーポレーション filed Critical スノー コーポレーション
Publication of JP2020510936A publication Critical patent/JP2020510936A/ja
Application granted granted Critical
Publication of JP6839771B2 publication Critical patent/JP6839771B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

以下の説明は、補正パターン分析による映像補正方法およびシステム、コンピュータと結合して映像補正方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されるコンピュータプログラムとその記録媒体に関する。
顔イメージから認識された顔を補正するための従来技術が存在する。このような従来技術は、予め生成されたフィルタの中からユーザによって選択されたフィルタを利用して入力された映像の顔を補正する。例えば、特許文献1は、自動顔抽出基盤の仮想顔成形方法およびシステムに関するものであり、ユーザが選択した成形スタイル(一例として、特許文献1で開示される「目の大きさ」や「鼻の高さ」など)を予めフィルタとして製作し、このようなフィルタをユーザが選択すると、入力された映像の顔が補正されることを開示している。
しかし、このような従来技術のフィルタは、ユーザの顔を利用して生成されたものではなく、ユーザが好むと思われる成形スタイル(上述したように、「目の大きさ」や「鼻の高さ」など)として既に製作されたものであるため、ユーザは自身が選択した成形スタイルが自身の顔に合ったスタイルであるかをリアルタイムで確認するのは難しい。
例えば、ユーザは、自身が好む成形スタイルでフィルタを製作した後、入力された映像に、製作されたフィルタを適用することによってその結果を確認することが可能となるため、補正結果が気に入らない場合には、新しい成形スタイルでフィルタを製作し直した後、入力された映像に、製作されたフィルタを適用する過程を繰り返さなければならず、その過程は不便かつ複雑である。
これだけでなく、従来技術に係るフィルタは、顔の特定部位に対して予め指定された変化量を歪曲させるだけに過ぎず(上述した「目の大きさ」のために指定された変化量だけ目を大きくする)、すべてのユーザに合った補正を生成するのが困難である。例えば、目が小さい人のために製作された「目の大きさ」フィルタは、目が大きい人には合わない。
言い換えれば、従来技術の映像補正方法は、ユーザ自身に適したフィルタを生成するのが困難である上に、生成されたフィルタを他のユーザと共有することにも困難が生じるという問題を抱えている。
韓国公開特許第10−2006−0104027号公報
入力された映像で認識される顔特徴点を入力された映像とともに画面に表示した状態で、顔特徴点をユーザが直接移動させる方式によって入力された映像を補正することができる機能を提供することにより、ユーザが、映像に含まれる顔が変化していく過程をリアルタイムで観察しながら映像を補正することができる映像補正方法およびシステム、コンピュータと結合して映像補正方法をコンピュータに実行させるためのコンピュータプログラムとそのコンピュータプログラムが記録されるコンピュータ読み取り可能な記録媒体を提供する。
顔の特定部位を一定の変化量だけ変更させるのではなく、移動させた顔特徴点に基づいて顔全体に対する顔部位別の比率を変化させた補正パターン情報を生成し、このような補正パターン情報に従って入力される映像を自動補正することにより、すべてのユーザに合った補正が可能な映像補正方法およびシステム、コンピュータと結合して映像補正方法をコンピュータに実行させるためのコンピュータプログラムとそのコンピュータプログラムが記録されているコンピュータ読み取り可能な記録媒体を提供する。
ユーザの他の映像に対するユーザの補正パターンを分析して補正パターン情報を更新することによって、補正パターン情報を最適化することができる映像補正方法およびシステム、コンピュータと結合して映像補正方法をコンピュータに実行させるためのコンピュータプログラムとそのコンピュータプログラムが記録されているコンピュータ読み取り可能な記録媒体を提供する。
映像補正方法であって、入力された第1映像に含まれる顔の顔特徴点を認識する段階、前記認識された顔特徴点のうちの少なくとも一部を前記入力された第1映像とともに前記電子機器の画面に表示する段階、前記画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を認識する段階、前記認識されたユーザ入力に従って前記第1映像の少なくとも1つの顔特徴点を移動させ、前記移動によって変更された前記第1映像の顔特徴点を利用して前記入力された第1映像を補正する段階、および前記第1映像の補正に対するパターンを分析して補正パターン情報を生成および記録する段階を含む、映像補正方法を提供する。
映像補正方法であって、電子機器からネットワークを介して受信された第1映像に含まれる顔の顔特徴点を認識する段階、前記認識された顔特徴点のうちの少なくとも一部が前記入力された第1映像とともに前記電子機器の画面に表示されるように制御し、前記画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を受信するための機能を提供する段階、前記認識されたユーザ入力に従って前記第1映像の少なくとも1つの顔特徴点を移動させ、前記移動によって変更された前記第1映像の顔特徴点を利用して前記入力された第1映像を補正する段階、前記第1映像の補正に対するパターンを分析して補正パターン情報を生成して前記電子機器または前記電子機器のユーザと関連付けて記録する段階、および前記補正された第1映像を、ネットワークを介して前記電子機器に送信する段階を含む、映像補正方法を提供する。
前記映像補正方法をコンピュータに実行させるためのコンピュータプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。
コンピュータと結合して前記映像補正方法をコンピュータに実行させるための、コンピュータプログラムを提供する。
映像補正システムであって、コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、電子機器からネットワークを介して受信された第1映像に含まれる顔の顔特徴点を認識し、前記認識された顔特徴点のうちの少なくとも一部が前記入力された第1映像とともに前記電子機器の画面に表示されるように制御し、前記画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を受信するための機能を提供し、前記認識されたユーザ入力に従って前記第1映像の少なくとも1つの顔特徴点を移動させ、前記移動によって変更された前記第1映像の顔特徴点を利用して前記入力された第1映像を補正し、前記第1映像の補正に対するパターンを分析して補正パターン情報を生成して前記電子機器または前記電子機器のユーザと関連付けて記録し、前記補正された第1映像を、ネットワークを介して前記電子機器に送信する、映像補正システムを提供する。
入力された映像で認識される顔特徴点を、入力された映像とともに画面に表示した状態で、ユーザが顔特徴点を直接移動させる方式によって入力された映像を補正することができる機能を提供することにより、ユーザは、映像に含まれる顔が変化していく過程をリアルタイムで観察しながら映像を補正することができる。
顔の特定部位を一定の変化量だけ変更させるのではなく、移動された顔特徴点に基づいて顔全体に対する顔部位別の比率を変化させた補正パターン情報を生成し、このような補正パターン情報に従って入力される映像を自動補正することにより、すべてのユーザに合った補正を可能にする。
ユーザの他の映像に対するユーザの補正パターンを分析して補正パターン情報を更新することにより、補正パターン情報を最適化することができる。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。 本発明の一実施形態における、映像補正環境の一例を示した図である。 本発明の一実施形態における、映像補正環境の他の例を示した図である。 本発明の一実施形態における、映像に含まれる顔の顔特徴点を認識する例を示した図である。 本発明の一実施形態における、顔全体に対する顔部位それぞれの比率情報の例を示した図である。 本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図である。 本発明の一実施形態における、電子機器が実行することのできる映像補正方法の例を示したフローチャートである。 本発明の一実施形態における、サーバのプロセッサが含むことのできる構成要素の例を示したブロック図である。 本発明の一実施形態における、サーバが実行することのできる映像補正方法の例を示したフローチャートである。
以下、実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態に係る映像補正システムは、以下で説明される電子機器やサーバで実現されてよく、本発明の実施形態に係る映像補正方法は、このような電子機器やサーバで実現された映像補正システムによって実行されてよい。このとき、電子機器またはサーバにおいては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、電子機器またはサーバは、実行されたコンピュータプログラムの制御に従って本発明の一実施形態に係る映像補正方法を実行してよい。上述したコンピュータプログラムは、コンピュータで実現される電子機器またはサーバと結合して映像補正方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器1(110)の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器1(110)は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータシステムのうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160のそれぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じ、該当のアプリケーションが目的とするサービス(一例として、映像補正サービス、メッセージングサービス、メールサービス、コンテンツ送信サービスなど)を第1サービスとして提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器1(110)の内部構成およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器1(110)またはサーバ150と同一または類似の内部構成を有してよい。
電子機器1(110)およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ211、221とは区別される別の永続的記録装置として電子機器1(110)やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器1(110)においてインストールされて実行されるブラウザや特定のサービスの提供のために電子機器1(110)にインストールされるアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピードライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードに従って受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器1(110)および/またはサーバ150が他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードに従って生成した要求が、通信モジュール213の制御に従ってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御に従って提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)で受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことができる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を含んでよく、出力装置は、ディスプレイやスピーカのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器1(110)と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器1(110)のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンに含まれる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器1(110)にさらに含まれるように実現されてよい。
図3は、本発明の一実施形態における、映像補正環境の一例を示した図である。図3の実施形態は、映像補正サーバ310がN個のユーザ端末320に映像補正サービスを提供する例を示している。例えば、映像補正サーバ310は、N個のユーザ端末320のうちの特定のユーザ端末(一例として、ユーザ端末1)の要求に従って特定のユーザ端末からネットワーク170を介して映像を受信し、受信した映像を補正して特定のユーザ端末に提供することができる。実施形態によって、特定のユーザ端末は、ウェブ上に記録された映像を指定してもよく、映像補正サーバ310は、指定された映像を補正して該当のユーザ端末に提供してもよい。ここで、映像補正サーバ310は上述したサーバ150に対応してよく、特定のユーザ端末は、上述した複数の電子機器110、120、130、140のうちの1つに対応してよい。
このような実施形態において、特定のユーザ端末においては、映像補正サービスと連係するアプリケーションがインストールされて実行されてよく、特定のユーザ端末は、アプリケーションの制御に従って映像補正サーバ310と通信しながら映像補正サービスの提供を受けることができる。例えば、特定のユーザ端末は、特定のユーザ端末の格納場所に格納された映像のうち、アプリケーションで選択された映像を映像補正サーバ310に送信してよい。他の例として、特定のユーザ端末は、特定のユーザ端末に備えられたカメラに入力される映像を映像補正サーバ310に送信してよい。このとき、映像補正サーバ310は、本発明の実施形態に係る映像補正方法に従って、受信した映像を補正して特定のユーザ端末に提供してよい。
図4は、本発明の一実施形態における、映像補正環境の他の例を示した図である。図4の実施形態は、ユーザ端末400においてインストールされて実行されたアプリケーション410が映像補正サービスを直接提供する例について説明している。例えば、ユーザ端末400は、アプリケーション410の制御に従ってカメラモジュール420に入力された映像を補正することができる。あるいは、ユーザ端末400の格納場所に格納された映像を、アプリケーション410の制御に従って補正してもよい。ここで、カメラモジュール420は、ユーザ端末400に内蔵された形態であってもよいが、別の機器としてユーザ端末400と有線/無線ネットワークを介して通信する形態で実現されてもよい。
このとき、ユーザ端末400は、入力された映像に含まれる顔の顔特徴点を認識することができ、認識された顔特徴点を、入力された映像とともにユーザ端末400の画面に表示することができる。
また、図3の実施形態では、映像補正サーバ310で受信した映像に含まれる顔の顔特徴点を認識することができ、認識された顔特徴点が、入力された映像とともに図3で説明された特定のユーザ端末の画面に表示されるように制御してよい。このとき、特定のユーザ画面に認識された顔特徴点と、入力された映像がともに表示されるように制御することは、特定のユーザ端末にインストールされたアプリケーションとの通信によってなされてよい。
図5は、本発明の一実施形態における、映像に含まれる顔の顔特徴点を認識した例を示した図である。図5は、映像に含まれる顔に対して認識される顔特徴点を、該当の映像とともに表示した例を示している。このとき、ユーザには、このような顔特徴点を移動させることができる機能を提供することができる。例えば、図4の実施形態において、ユーザ端末400にインストールされたアプリケーションは、ユーザの入力によって対応する顔特徴点を移動させることができる機能を提供してよい。一例として、ユーザは、上述した機能を利用することにより、図5の第1顔特徴点510を自身が望む位置に選択的に移動させることができる。より具体的な例として、タッチスクリーン環境において、アプリケーションは、ユーザのタッチが発生した位置に対応する顔特徴点を認識してよく、ユーザがタッチスクリーンをタッチした状態でドラッグをしてタッチを解除した位置を、認識された顔特徴点が移動する位置として認識してよい。他の例として、マウスを利用する環境において、アプリケーションは、ユーザのマウスクリックが発生した位置に対応する顔特徴点を認識してよく、ユーザがマウスをクリックした状態でドラッグしてマウスクリックを解除した位置を、認識された顔特徴点が移動する位置として認識してよい。
この場合、アプリケーションは、認識された顔特徴点を認識された位置に移動させてよく、このような顔特徴点の移動によって変更された顔特徴点を利用して映像を補正することができる。このような顔特徴点の移動は、数回にわたって繰り返されてよく、顔特徴点の移動のたびに変更される顔特徴点を利用して映像の補正が繰り返されてよい。したがって、ユーザは、補正される映像をリアルタイムで観察しながら映像補正を繰り返すことにより、ユーザ自身が好む映像を取得できるようになる。
上述した図3の実施形態では、ユーザの入力によって認識される顔特徴点の情報(一例として、該当の顔特徴点の識別子)と認識された顔特徴点を移動させる位置の情報が特定のユーザ端末で認識され、ネットワークを介して映像補正サーバ310に伝達される。このとき、映像補正サーバ310は、変更された顔特徴点を利用して映像を補正し、補正された映像を特定のユーザ端末に提供してよい。この場合にも、補正された映像は、変更された顔特徴点とともに特定のユーザ端末の画面に表示されてよい。したがって、ユーザは、変化する映像を観察しながら顔特徴点の移動を繰り返すことにより、映像を補正することが可能となる。
ユーザ端末400や映像補正サーバ310は、映像の補正に対するパターンを分析して補正パターン情報を生成および記録することができる。例えば、このような補正パターン情報は、映像補正の終了後に最終的に生成されてよい。このような補正パターン情報は、顔全体に対する顔部位それぞれの比率情報を含むように生成されてよい。
また、本発明の実施形態では、このような補正パターン情報を利用して他の映像を自動補正することが可能となる。
図6は、本発明の一実施形態における、顔全体に対する顔部位それぞれの比率情報の例を示した図である。このような比率情報は、特定部位を特定値だけを補正するフィルタではなく、顔全体の比率を変更することができる情報を提供することができる。例えば、従来技術では、目の幅を左側に0.1cmだけ補正するフィルタは、目の幅が3cmである映像内の目であっても、目の幅が4cmである映像内の目であっても、すべて一括して左側に0.1cmだけ補正をすることになるため、映像内の目の大きさによっては不自然な補正となる確率が高い。この反面、本発明の実施形態では、特定部位の大きさを調節するのではなく、補正パターン情報に基づいて顔全体に対する部位別の比率を調節するようになるため、映像に含まれる顔ごとの実際の部位別に変更する値が異なるようになり、すべてのユーザに汎用的に活用することが可能なフィルタを生成することができる。
より具体的な例として、図6では、顔全体の幅が「7」であるとき、顔の右端と右眉毛との幅(以下、第1部位)、右眉毛(以下、第2部位)、眉間(以下、第3部位)、左眉毛(以下、第4部位)、そして左眉毛と顔の左端との幅(以下、第5部位)が1:2:1:2:1の比率を有する例を示している。もし、他の映像において第1部位〜第5部位の比率が1:2:1:2:1であれば、他の映像において該当の部位は補正がなされないであろう。この反面、さらに他の映像において第1部位〜第5部位の比率が0.8:2.1:1.2:2.1:0.8であるとき、このような比率は、補正パターン情報に基づいて1:2:1:2:1の比率となるように映像が補正されてよい。他の方式で説明すると、顔全体の幅が「7」であり、左眉毛の幅が「2」である7:2の比率を考慮するとき、他の映像において左眉毛の幅と該当の映像の顔全体の幅との比率が7:2となるように、左眉毛の幅が補正されてよい。
言い換えれば、特定部位が固定された変位値だけ変更されるのではなく、補正パターン情報に含まれる、顔全体に対する該当の部位の比率情報だけが変更されるため、このような補正パターン情報は、すべてのユーザに汎用的に活用可能となり、個別のユーザそれぞれに適合した補正がなされるようになる。したがって、特定のユーザが自身の顔に合うように映像を補正する過程において、生成された補正パターン情報が他のユーザの顔映像にも適用可能となるが、これは補正パターン情報の共有による活用性の向上を意味することにもなる。
また、ユーザに対して入力される他の顔映像に対しても、このような補正パターン情報の活用が繰り返されてよい。例えば、ユーザの顔が撮影された動画に対し、このような動画に含まれるフレームそれぞれに補正パターン情報を利用した自動補正を実行して、動画全体に対する顔補正を処理してよい。他の例として、映像通話の際にカメラに入力されたユーザの顔映像フレームそれぞれに対して補正パターン情報に基づいた自動補正を実行し、映像通話の際に補正された映像が映像通話の相手に伝達されるようにしてもよい。
一方、このような補正パターン情報は、ユーザの他の映像に対する補正パターンを追加で反映して更新されてもよい。例えば、他の映像に対する補正パターンは、一例として、ユーザの要求に従って予め生成されて記録された補正パターン情報に追加で反映されて、補正パターン情報の更新に利用されてよい。この場合、変化する比率の平均値が活用されてよい。例えば、上述した顔全体の幅と左眉毛の幅との比率が最初は7:2であり、次の映像で計算された顔全体の幅と左眉毛の幅との比率が7:1.8である場合、補正パターン情報に含まれる比率7:2は、7:1.9のように更新されてよい。ここで、1.9は、(2+1.8)/2のように計算されてよい。もし、次の映像で計算された顔全体と左眉毛の幅との比率が10:2.4であれば、補正パターン情報が含む比率7:2は、70:18.4(=7:1.84)のように更新されてよい。ここで、18.4は、((2×10)+(2.4×7))/2のように計算されてよい。このような他の映像に対する補正パターンは、実施形態によっては、他の補正パターン情報の生成に活用されてもよい。
以下の表1は、補正パターン情報を記録したデータベース(DB)テーブルの例を示した図である。
Figure 0006839771
表1において、「Object」項目は、顔部位を意味する項目であって、その値は顔部位を識別してよく、「Property」項目は、顔部位の幅(Width)と長さ(Length)のように比率を測定するための基準を意味してよい。また、「Ratio」項目は、顔全体に対する該当の顔部位の比率情報を意味してよく、「Marker」項目は、顔特徴点を意味してよい。このとき、顔特徴点それぞれは、該当の顔特徴点が該当の顔映像内で該当する位置情報に対応してよい。顔全体に対する幅と長さは、それぞれ別の「Object」項目として表1に含まれてもよく、必要によっては、顔部位の結合によって計算されてもよい。
図7は、本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図8は、本発明の一実施形態における、電子機器が実行することのできる映像補正方法の例を示したフローチャートである。
本発明の実施形態に係る映像補正システムは、上述した電子機器1(110)のようなコンピュータ装置の形態で実現されてよい。また、図7に示すように、電子機器1(110)のプロセッサ212は、映像補正システムを実現するための構成要素として、顔特徴点認識部710、表示部720、ユーザ入力認識部730、映像補正部740、補正パターン情報管理部750、および送信部760を備えてよい。このようなプロセッサ212およびプロセッサ212の構成要素は、図8の映像補正方法に含まれる段階810〜段階890を実行してよい。このとき、プロセッサ212およびプロセッサ212の構成要素は、メモリ211が含むオペレーティングシステムのコードと少なくとも1つのプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212の構成要素は、電子機器1(110)に記録されたコードが提供する制御命令に従ってプロセッサ212によって実行される、プロセッサ212の互いに異なる機能(different functions)の表現であってよい。例えば、プロセッサ212が上述した制御命令に従って顔特徴点を認識するように電子機器1(110)を制御するプロセッサ212の機能的表現として顔特徴点認識部710が使用されてよい。
段階810において、顔特徴点認識部710は、入力された第1映像に含まれる顔の顔特徴点を認識することができる。顔映像で顔特徴点を認識するための具体的な技術は、当業者であれば、周知の技術から容易に理解することができるであろう。入力される映像は、電子機器1(110)に記録されたものであっても、電子機器1(110)と連動するカメラに入力される映像であっても、電子機器1(110)のローカル格納場所に格納された映像であってもよい。あるいは、電子機器1(110)がネットワーク170を介して他の機器から受信した映像やウェブ上に記録された映像であってもよい。
段階820において、表示部720は、認識された顔特徴点うちの少なくとも一部を、入力された第1映像とともに電子機器1(110)の画面に表示することができる。例えば、図5を参照しながら説明したように、映像と顔特徴点がともに1つの画面に表示されてよい。ここで、電子機器1(110)の画面は、電子機器1(110)に備えられたディスプレイ装置(一例として、タッチスクリーン)の画面を意味してもよく、電子機器1(110)とは別の装置として電子機器1(110)と通信するディスプレイ装置(一例として、モニタ)の画面を意味してもよい。
段階830において、ユーザ入力認識部730は、画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を認識することができる。タッチスクリーン環境やマウスを利用する環境でユーザ入力によって顔特徴点を移動させる例については、上述で説明したとおりである。このような例により、他の入力環境でも顔特徴点の移動のためのユーザ入力を認識することができることは、当業者であれば、容易に理解することができるであろう。
段階840において、映像補正部740は、認識されたユーザ入力に従って第1映像の少なくとも1つの顔特徴点を移動させ、移動によって変更された第1映像の顔特徴点を利用して、入力された第1映像を補正することができる。本発明の実施形態は、どのような方式によって顔特徴点を移動させることができるかに関するものであり、既に移動させた顔特徴点の位置に基づいて映像の顔を補正することについては、当業者であれば、周知の技術から容易に理解することができるであろう。例えば、予め製作されたフィルタを活用する技術も、予め設定された変化量だけマーカを移動させ、移動させたマーカに基づいて顔映像を補正する技術であって、このような補正は周知の技術である。補正された第1映像と変更された顔特徴点はともに画面に表示されてよく、このような顔特徴点の移動と移動による第1映像の補正の過程(段階820〜段階840)は、数回にわたって繰り返されてよい。
段階850において、補正パターン情報管理部750は、第1映像の補正に対するパターンを分析して補正パターン情報を生成および記録することができる。補正パターン情報は多様な方式によって生成されてよいが、上述したように、生成された補正パターン情報の汎用性のために、顔全体に対する顔部位それぞれの比率情報を利用して生成されることが好ましい。例えば、補正パターン情報管理部750は、移動によって変更された第1映像の顔特徴点を利用して、第1映像の顔の顔部位を認識し、顔全体に対する顔部位それぞれの比率情報を補正パターン情報として計算してよい。より具体的な例として、補正パターン情報は、顔部位それぞれの部位識別子、顔全体の幅および長さと顔部位それぞれの幅および長さとの比率情報、および顔部位それぞれに対応する顔特徴点の特徴点識別子が互いに連係された情報を含んでよい。このような方式によって生成された補正パターン情報は、上述した表1のようにDB化されて記録されてよい。
他の実施形態として、補正パターン情報は、移動によって変更された第1映像の顔特徴点を含むように生成されてもよい。また他の実施形態として、補正パターン情報は、変更前の第1映像の顔特徴点と変更後の第1映像の顔特徴点とをすべて含むように生成されてもよい。例えば、まずは移動によって変更された第1映像の顔特徴点だけを記録しておき、追って選択的に上述した比率情報を計算して活用するか実際に変更された顔特徴点の情報だけを活用して他の映像の自動補正を処理してもよい。
このような段階810〜段階850は、第2映像(または、2つ以上の異なる映像それぞれ)に対して選択的に繰り返されてもよい。言い換えれば、第2映像(または、2つ以上の異なる映像それぞれ)に対しても、顔特徴点の認識、移動、補正、補正パターン情報の生成のような過程が繰り返されてよい。
段階860において、補正パターン情報管理部750は、第2映像の補正に対するパターンを分析して、記録された補正パターン情報を更新することができる。例えば、第2映像に対して生成された補正パターン情報を利用することで、記録された第1映像に対する補正パターン情報が更新されてよい。補正の比率の平均値を利用して補正パターン情報を更新する例については、上述で説明したとおりである。また、このような補正パターン情報の更新に、補正パターン情報が生成された時点による加重値やユーザによって設定された加重値などがさらに活用されてもよく、計算の過程において、一定の小数点以下の値を四捨五入したり切り捨てしたりしてもよいことは、当業者であれば、上述した例から容易に理解することができるであろう。また、2つ以上の異なる映像それぞれに対して段階810〜段階850が繰り返された場合、このような2つ以上の異なる映像それぞれに対して生成された補正パターン情報を利用することで、記録された補正パターン情報が更新されてよい。このような段階860は、第2映像を含む異なる映像に対して段階810〜段階850が繰り返された場合に限って選択的に実行されてよい。
段階870において、顔特徴点認識部710は、入力された第3映像に含まれる顔の顔特徴点を認識することができる。このような段階870は段階810に対応し、第3映像に対する自動補正を処理しようとする場合に実行されてよい。例えば、ユーザから自動補正に関する明らかな命令が受信された場合や、自動補正が必要として予め設定された条件が満たされた場合、このような自動補正のための顔特徴点の認識過程が実行されてよい。
段階880において、映像補正部740は、第3映像で認識された顔特徴点のうちの少なくとも1つの顔特徴点を、記録された補正パターン情報を利用して移動させ、移動によって変更された第3映像の顔特徴点を利用することで、入力された第3映像を自動補正してよい。例えば、映像補正部740は、第3映像に含まれる顔に対し、顔全体に対する顔部位それぞれの比率情報が、記録された補正パターン情報に含まれる比率情報となるように、第3映像を自動で補正してよい。
段階890において、送信部760は、記録された補正パターン情報の共有のために、記録された補正パターン情報を、ネットワークを介して他の電子機器およびサーバのうちの少なくとも1つに送信することができる。このような段階890は、段階850で最初に補正パターン情報が生成および記録された後であれば、いつでも実行可能である。
このように、本実施形態によると、ユーザが補正しようとする映像と顔特徴点を観察しながら顔特徴点を直接移動させることで、顔特徴点の移動による映像の補正過程を観察しながら映像を望みどおりに補正していくことができ、このような補正に関する補正パターン情報を利用して他の映像も自動補正することができるだけでなく、記録された補正パターン情報も他の映像に関する補正パターン情報を利用して更新することができる。これだけでなく、顔全体に対する顔部位それぞれの比率情報を活用して補正パターン情報を生成し、このような比率情報を利用して顔映像を補正することにより、補正パターン情報の汎用性を達成することができる。
図7および図8の実施形態では、電子機器1(110)がアプリケーションの制御に従って映像補正サービスを提供する実施形態について説明したが、上述したように、映像補正サービスは、映像補正サーバ310から提供されてもよい。
図9は、本発明の一実施形態における、サーバのプロセッサが含むことのできる構成要素の例を示したブロック図であり、図10は、本発明の一実施形態における、サーバが実行することのできる映像補正方法の例を示したフローチャートである。
本実施形態に係る映像補正システムは、上述したサーバ150のようなコンピュータ装置の形態で実現されてよい。また、図9に示すように、サーバ150のプロセッサ222は、映像補正システムを実現するための構成要素として、受信部910、顔特徴点認識部920、機能提供部930、映像補正部940、送信部950、および補正パターン情報管理部960を備えてよい。このようなプロセッサ222およびプロセッサ222の構成要素は、図10の映像補正方法に含まれる段階1010〜段階1090を実行してよい。このとき、プロセッサ222およびプロセッサ222の構成要素は、メモリ221が含むオペレーティングシステムのコードと少なくとも1つのプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ222の構成要素は、サーバ150に記録されたコードが提供する制御命令に従ってプロセッサ222によって実行される、プロセッサ222の互いに異なる機能(different functions)の表現であってよい。例えば、プロセッサ222が上述した制御命令に従って映像を受信するようにサーバ150を制御するプロセッサ222の機能的表現として受信部910が使用されてよい。
段階1010において、受信部910は、電子機器からネットワークを介して第1映像を受信することができる。電子機器は、映像補正サービスと関連するアプリケーションがインストールされて実行された機器であってよく、アプリケーションを通じてサーバ150と通信し、補正しようとする第1映像をサーバ150に送信してよい。このような第1映像は、電子機器に含まれるものであっても、電子機器と連動するカメラに入力される映像であっても、電子機器のローカル格納場所に格納された映像であってもよい。あるいは、電子機器がネットワーク170を介して他の機器から受信した映像やウェブ上に記録された映像であってもよい。
段階1020において、顔特徴点認識部920は、第1映像に含まれる顔の顔特徴点を認識することができる。上述したように、顔映像で顔特徴点を認識するための具体的な技術は、当業者であれば、周知の技術から容易に理解することができるであろう。
段階1030において、機能提供部930は、認識された顔特徴点のうちの少なくとも一部が、入力された第1映像とともに電子機器の画面に表示されるように制御し、画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動に関する情報を受信するための機能を提供することができる。このような機能は、電子機器においてインストールされて実行されたアプリケーションとの連動によってなされてよい。上述したように、電子機器において移動された顔特徴点の識別子と移動された位置の情報が電子機器のアプリケーションの制御に従って認識され、サーバ150に送信されてよい。
段階1040において、映像補正部940は、移動によって変更された第1映像の顔特徴点を利用することで、入力された第1映像を補正することができる。本発明の実施形態は、どのような方式によって顔特徴点を移動させることができるかに関するものであり、既に移動された顔特徴点の位置に基づいて映像の顔を補正することについては、当業者であれば、周知の技術から容易に理解することができるであろう。例えば、予め製作されたフィルタを活用する技術も、予め設定された変化量だけマーカを移動させ、移動させたマーカに基づいて顔映像を補正する技術であって、このような補正は周知の技術である。
段階1050において、送信部950は、補正された第1映像を、ネットワークを介して電子機器に送信することができる。このような段階1010〜段階1050に係る第2映像の補正過程は、数回にわたって繰り返されてよい。
段階1060において、補正パターン情報管理部960は、第1映像の補正に対するパターンを分析して補正パターン情報を生成し、電子機器または電子機器のユーザと関連付けて記録することができる。このような補正パターン情報については上述したとおりであるため、繰り返される説明は省略する。
一方、このような段階1010〜段階1060は、第2映像(または、2つ以上の異なる映像それぞれ)に対して選択的に繰り返されてもよい。言い換えれば、第2映像(または、2つ以上の異なる映像それぞれ)に対しても、映像の受信、顔特徴点の認識、移動、補正、補正された映像の送信、補正パターン情報の生成のような過程が繰り返されてよい。
段階1070において、補正パターン情報管理部960は、第2映像の補正に対するパターンを分析することで、記録された補正パターン情報を更新してよい。例えば、第2映像に対して生成された補正パターン情報を利用することで、記録された第1映像に関する補正パターン情報が更新されてよい。また、2つ以上の異なる映像それぞれに対して段階1010〜段階1060が繰り返された場合、このような2つ以上の異なる映像それぞれに対して生成された補正パターン情報を利用することで、記録された補正パターン情報が更新されてよい。このような段階1070は、第2映像を含む他の映像に対して段階1010〜段階1060が繰り返し実行された場合に限って選択的に実行されてよい。
段階1080において、顔特徴点認識部920は、電子機器からネットワークを介して受信した第3映像に含まれる顔の顔特徴点を認識することができる。このような段階1080は段階1010および段階1020に対応し、第3映像に対する自動補正を処理しようとする場合に選択的に実行されてよい。例えば、ユーザから自動補正に関する明らかな命令が受信された場合や、自動補正が必要であるとした予め設定された条件が満たされた場合、このような自動補正のための顔特徴点の認識過程が実行されてよい。
段階1090において、映像補正部940は、第3映像で認識された顔特徴点のうちの少なくとも1つの顔特徴点を記録された補正パターン情報を利用して移動させ、移動によって変更された第3映像の顔特徴点を利用することで、入力された第3映像を自動補正することができる。補正された第3映像は、ネットワークを介して電子機器に送信されてよい。
また、本実施形態において、記録された補正パターン情報も、他のユーザに共有されてよい。例えば、サーバ150は、ユーザの要求に従って記録された補正パターン情報を、その要求に従って認識された他のユーザに伝達してよい。また、記録された補正パターン情報をユーザの電子機器で受信した後、ユーザが他のユーザと直接共有してもよい。
以上のように、本発明の実施形態によると、入力された映像で認識される顔特徴点を入力された映像とともに画面に表示した状態で、顔特徴点をユーザが直接移動させる方式によって入力された映像を補正することができる機能を提供することにより、ユーザは、映像に含まれる顔が変化していく過程をリアルタイムで観察しながら映像を補正することができる。また、顔の特定部位を一定の変化量だけ変更させるのではなく、移動された顔特徴点によって顔全体に対する顔部位別の比率を変化させた補正パターン情報を生成し、このような補正パターン情報に基づいて入力される映像を自動補正することにより、すべてのユーザに合った補正を可能にすることができる。さらに、ユーザの他の映像に対するユーザの補正パターンを分析して補正パターン情報を更新することにより、補正パターン情報を最適化することができる。
上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェアの当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスク、磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合された形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって代替されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (16)

  1. コンピュータで実現される電子機器と結合して映像補正方法をコンピュータに実行させるためのコンピュータプログラムであって、
    前記映像補正方法は、
    入力された第1映像に含まれる顔の顔特徴点を認識する段階、
    識された前記顔特徴点のうちの少なくとも一部を前記入力された第1映像とともに前記電子機器の画面に表示する段階、
    前記画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を認識する段階、
    識された前記ユーザ入力に従って前記第1映像の少なくとも1つの顔特徴点を移動させることによって変更された前記第1映像の顔特徴点を利用して前記入力された第1映像を補正する段階、および
    前記第1映像の補正に対するパターンを分析して補正パターン情報を生成および記録する段階
    を含み、
    記録された前記補正パターン情報は、他の映像に関する補正パターン情報を利用して更新される、
    コンピュータプログラム。
  2. 前記映像補正方法は、
    入力された第2映像に含まれる顔の顔特徴点を認識する段階、
    識された前記第2映像に含まれる顔の顔特徴点のうちの少なくとも一部を前記入力された第2映像とともに前記電子機器の画面に表示する段階、
    前記画面に表示された第2映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を認識する段階、
    識された前記第2映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力に従って前記第2映像の少なくとも1つの顔特徴点を移動させることによって変更された前記第2映像の顔特徴点を利用して前記入力された第2映像を補正する段階、および
    前記第2映像の補正に対するパターンを分析して前記記録された補正パターン情報を更新する段階
    をさらに含む、請求項1に記載のコンピュータプログラム。
  3. 前記映像補正方法は、
    入力された第3映像に含まれる顔の顔特徴点を認識する段階、および
    前記第3映像で認識された顔特徴点のうちの少なくとも1つの顔特徴点を、前記記録された補正パターン情報を利用して移動させることによって変更された前記第3映像の顔特徴点を利用して前記入力された第3映像を自動補正する段階
    をさらに含む、請求項1に記載のコンピュータプログラム。
  4. 前記補正パターン情報を生成および記録する段階は、
    記変更された前記第1映像の顔特徴点を利用して前記第1映像の顔の顔部位を認識し、前記顔全体に対する前記顔部位それぞれの比率情報を前記補正パターン情報として計算する、請求項1に記載のコンピュータプログラム。
  5. 前記補正パターン情報は、前記顔部位それぞれの部位識別子、前記顔全体の幅および長さと前記顔部位それぞれの幅および長さとの比率情報、および前記顔部位それぞれに対応する顔特徴点の特徴点識別子が互いに連係された情報を含む、請求項4に記載のコンピュータプログラム。
  6. 前記補正パターン情報は、前記変更された前記第1映像の顔特徴点をさらに含む、請求項4に記載のコンピュータプログラム。
  7. 前記映像補正方法は、
    前記記録された補正パターン情報の共有のために、前記記録された補正パターン情報を、ネットワークを介して他の電子機器およびサーバのうちの少なくとも1つに送信する段階
    をさらに含む、請求項1に記載のコンピュータプログラム。
  8. 映像補正方法であって、
    入力された第1映像に含まれる顔の顔特徴点を認識する段階、
    識された前記顔特徴点のうちの少なくとも一部を前記入力された第1映像とともに電子機器の画面に表示する段階、
    前記画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を認識する段階、
    識された前記ユーザ入力に従って前記第1映像の少なくとも1つの顔特徴点を移動させることによって変更された前記第1映像の顔特徴点を利用して前記入力された第1映像を補正する段階、および
    前記第1映像の補正に対するパターンを分析して補正パターン情報を生成および記録する段階
    含み、
    記録された前記補正パターン情報は、他の映像に関する補正パターン情報を利用して更新される、
    映像補正方法。
  9. 入力された第2映像に含まれる顔の顔特徴点を認識する段階、
    識された前記第2映像に含まれる顔の顔特徴点のうちの少なくとも一部を前記入力された第2映像とともに前記電子機器の画面に表示する段階、
    前記画面に表示された第2映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力を認識する段階、
    識された前記第2映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動のためのユーザ入力に従って前記第2映像の少なくとも1つの顔特徴点を移動させることによって変更された前記第2映像の顔特徴点を利用して前記入力された第2映像を補正する段階、および
    前記第2映像の補正に対するパターンを分析して前記記録された補正パターン情報を更新する段階
    をさらに含む、請求項8に記載の映像補正方法。
  10. 入力された第3映像に含まれる顔の顔特徴点を認識する段階、および
    前記第3映像で認識された顔特徴点のうちの少なくとも1つの顔特徴点を前記記録された補正パターン情報を利用して移動させることによって変更された前記第3映像の顔特徴点を利用して前記入力された第3映像を自動補正する段階
    をさらに含む、請求項8に記載の映像補正方法。
  11. 映像補正方法であって、
    電子機器からネットワークを介して受信された、入力された第1映像に含まれる顔の顔特徴点を認識する段階、
    識された前記顔特徴点のうちの少なくとも一部が前記入力された第1映像とともに前記電子機器の画面に表示されるように制御し、前記画面に表示された第1映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動に関する情報を受信するための機能を提供する段階、
    動によって変更された前記第1映像の顔特徴点を利用して前記入力された第1映像を補正する段階、
    正された前記第1映像を、ネットワークを介して前記電子機器に送信する段階、および
    前記第1映像の補正に対するパターンを分析して補正パターン情報を生成し、前記電子機器または前記電子機器のユーザと関連付けて記録する段階
    含み、
    記録された前記補正パターン情報は、他の映像に関する補正パターン情報を利用して更新される、
    映像補正方法。
  12. 前記電子機器からネットワークを介して受信された、入力された第2映像に含まれる顔の顔特徴点を認識する段階、
    識された前記第2映像に含まれる顔の顔特徴点のうちの少なくとも一部が前記入力された第2映像とともに前記電子機器の画面に表示されるように制御し、前記画面に表示された第2映像の顔特徴点のうちの少なくとも1つの顔特徴点の移動に関する情報を受信するための機能を提供する段階、
    動によって変更された前記第2映像の顔特徴点を利用して前記入力された第2映像を補正する段階、
    正された前記第2映像を、ネットワークを介して前記電子機器に送信する段階、および
    前記第2映像の補正に対するパターンを分析して前記記録された補正パターン情報を更新する段階
    をさらに含む、請求項11に記載の映像補正方法。
  13. 前記電子機器からネットワークを介して受信された、入力された第3映像に含まれる顔の顔特徴点を認識する段階、
    前記第3映像で認識された顔特徴点のうちの少なくとも1つの顔特徴点を前記記録された補正パターン情報を利用して移動させることによって変更された前記第3映像の顔特徴点を利用して前記入力された第3映像を自動補正する段階、および
    動補正された前記第3映像を、ネットワークを介して前記電子機器に送信する段階
    をさらに含む、請求項11に記載の映像補正方法。
  14. 前記補正パターン情報を生成および記録する段階は、
    前記移動によって変更された前記第1映像の顔特徴点を利用して前記第1映像の顔の顔部位を認識し、前記顔全体に対する前記顔部位それぞれの比率情報を前記補正パターン情報として計算する、請求項11に記載の映像補正方法。
  15. 前記補正パターン情報は、前記顔部位それぞれの部位識別子、前記顔全体の幅および長さと前記顔部位それぞれの幅および長さとの比率情報、および前記顔部位それぞれに対応する顔特徴点の特徴点識別子が互いに連係された情報を含む、請求項14に記載の映像補正方法。
  16. 前記補正パターン情報は、前記移動によって変更された前記第1映像の顔特徴点をさらに含む、請求項14に記載の映像補正方法。
JP2019550578A 2017-04-20 2017-04-20 補正パターン分析による映像補正方法およびシステム Active JP6839771B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004237 WO2018194197A1 (ko) 2017-04-20 2017-04-20 보정패턴 분석을 통한 영상 보정 방법 및 시스템

Publications (2)

Publication Number Publication Date
JP2020510936A JP2020510936A (ja) 2020-04-09
JP6839771B2 true JP6839771B2 (ja) 2021-03-10

Family

ID=63855918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019550578A Active JP6839771B2 (ja) 2017-04-20 2017-04-20 補正パターン分析による映像補正方法およびシステム

Country Status (5)

Country Link
US (1) US11281890B2 (ja)
JP (1) JP6839771B2 (ja)
KR (1) KR102239355B1 (ja)
CN (1) CN110168601B (ja)
WO (1) WO2018194197A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330408B (zh) * 2017-06-30 2021-04-20 北京乐蜜科技有限责任公司 视频处理方法、装置、电子设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110728A (ja) * 2002-09-20 2004-04-08 Mitsubishi Heavy Ind Ltd 似顔絵作成装置
JP2004147288A (ja) * 2002-10-25 2004-05-20 Reallusion Inc 顔画像の補正方法
JP4277534B2 (ja) * 2003-02-12 2009-06-10 オムロン株式会社 画像編集装置および画像編集方法
JP4496005B2 (ja) * 2004-04-28 2010-07-07 株式会社東芝 画像処理方法および画像処理装置
JP4424111B2 (ja) * 2004-07-30 2010-03-03 沖電気工業株式会社 モデル作成装置およびデータ配信システム
KR100764130B1 (ko) * 2005-03-29 2007-10-05 (주)제니텀 엔터테인먼트 컴퓨팅 자동 얼굴 추출 기반 가상 얼굴 성형 방법 및 시스템
CN101163189A (zh) * 2006-10-13 2008-04-16 上海银晨智能识别科技有限公司 人脸图像校正方法
JP4254873B2 (ja) * 2007-02-16 2009-04-15 ソニー株式会社 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP4289414B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP5239625B2 (ja) * 2008-08-22 2013-07-17 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR101646669B1 (ko) * 2009-06-24 2016-08-08 삼성전자주식회사 사용자 패턴을 이용한 구도 데이터베이스 업데이트 방법 및 장치, 및 디지털 촬영 장치
JP5240795B2 (ja) * 2010-04-30 2013-07-17 オムロン株式会社 画像変形装置、電子機器、画像変形方法、および画像変形プログラム
JP5766564B2 (ja) * 2011-09-15 2015-08-19 株式会社東芝 顔認証装置及び顔認証方法
KR101381439B1 (ko) * 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
JP5632100B2 (ja) * 2011-11-24 2014-11-26 株式会社Nttドコモ 表情出力装置及び表情出力方法
KR101270351B1 (ko) * 2012-04-03 2013-05-31 조선대학교산학협력단 얼굴 인식을 위한 얼굴 영상 획득 방법 및 장치
KR101934311B1 (ko) * 2012-09-18 2019-01-02 엘지이노텍 주식회사 스테레오 영상의 위치보정 장치 및 방법
JP6008323B2 (ja) * 2013-02-01 2016-10-19 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
KR20150033877A (ko) * 2013-09-25 2015-04-02 삼성전기주식회사 얼굴 비율 보정 장치 및 그 방법
CN104917532B (zh) * 2015-05-06 2016-10-12 清华大学 人脸模型压缩方法
JP6741270B2 (ja) * 2015-10-07 2020-08-19 国立大学法人大阪大学 画像処理装置、画像処理方法、及び画像処理プログラム
US9646195B1 (en) * 2015-11-11 2017-05-09 Adobe Systems Incorporated Facial feature liquifying using face mesh

Also Published As

Publication number Publication date
KR102239355B1 (ko) 2021-04-12
WO2018194197A1 (ko) 2018-10-25
KR20190043618A (ko) 2019-04-26
CN110168601B (zh) 2023-05-26
JP2020510936A (ja) 2020-04-09
US11281890B2 (en) 2022-03-22
CN110168601A (zh) 2019-08-23
US20190384966A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
US10691299B2 (en) Display of hierarchical datasets using high-water mark scrolling
JP6877149B2 (ja) 撮影位置推薦方法、コンピュータプログラムおよび撮影位置推薦システム
EP3129871B1 (en) Generating a screenshot
EP3042278B1 (en) Managing shared state information produced by applications
KR102649197B1 (ko) 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US10289390B2 (en) Interactive multimodal display platform
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的***和方法
US20230011686A1 (en) Crowd sourced mapping system
US9996904B2 (en) Intelligent image processing for enterprise applications
JP2021044804A (ja) 映像通話をしながら使用する360度パノラマ背景提供方法および装置
JP2019012526A (ja) 映像処理方法、コンピュータプログラムおよび記録媒体
EP3312702B1 (en) Method and device for identifying gesture
US11430211B1 (en) Method for creating and displaying social media content associated with real-world objects or phenomena using augmented reality
TW202009682A (zh) 基於擴增實境的互動方法及裝置
JP2023504994A (ja) 視線を決定するために深層学習を使用すること
CN113014863A (zh) 认证用户的方法及***以及计算机可读记录介质
US11579744B2 (en) Systems and methods for seat selection in virtual reality
US20140232748A1 (en) Device, method and computer readable recording medium for operating the same
KR20150012067A (ko) 메시지 처리 방법 및 그 전자 장치
CN112162843A (zh) 工作流执行方法、装置、设备及存储介质
JP2022169565A (ja) プロフィール写真を推薦する方法とシステム、および非一時的なコンピュータ読み取り可能な記録媒体
KR20180097912A (ko) 사용자 단말을 이용하여 사용자의 감정을 분석하는 감정 분석 방법 및 시스템
US10572231B1 (en) Component grouping for application development
JP6839771B2 (ja) 補正パターン分析による映像補正方法およびシステム
US10733676B2 (en) Automatic generation of expense data using facial recognition in digitally captured photographic images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R150 Certificate of patent or registration of utility model

Ref document number: 6839771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250