JP2022515303A - 画像処理方法及び装置、画像処理装置並びに記憶媒体 - Google Patents

画像処理方法及び装置、画像処理装置並びに記憶媒体 Download PDF

Info

Publication number
JP2022515303A
JP2022515303A JP2020572864A JP2020572864A JP2022515303A JP 2022515303 A JP2022515303 A JP 2022515303A JP 2020572864 A JP2020572864 A JP 2020572864A JP 2020572864 A JP2020572864 A JP 2020572864A JP 2022515303 A JP2022515303 A JP 2022515303A
Authority
JP
Japan
Prior art keywords
image
target
keypoints
key points
alternative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020572864A
Other languages
English (en)
Other versions
JP7162084B2 (ja
Inventor
トン・リ
ウェイリアン・ジャン
ウェンタオ・リウ
チェン・チェン
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2022515303A publication Critical patent/JP2022515303A/ja
Application granted granted Critical
Publication of JP7162084B2 publication Critical patent/JP7162084B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本開示の実施例は、画像処理方法及び装置、画像処理装置並びに記憶媒体を開示する。前記画像処理方法は、第一の姿態にあるターゲット部位の第一の代替画像を取得することと、第一の画像における第二の姿態にあるターゲット部位の姿態パラメータを確定することと、前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することと、前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得することと、を含む。

Description

(関連出願の相互参照)
本開示は出願番号201911205289.X、出願日2019年11月29日の中国特許出願に基づいて提案され、この中国特許出願の優先権を主張し、この中国特許出願の全ての内容がここで導入により本開示に組み込まれる。
本開示は、画像処理技術分野に関し、特に画像処理方法及び装置、画像処理装置並びに記憶媒体に関する。
画像処理技術分野では、ユーザーに対して1枚の写真を撮った後、当該写真の一部にステッカーを貼る必要があるという画像変形操作が存在している。しかし、ステッカーを貼ることで画像変形を行うようなスキームでは、ステッカーを貼ることで画像変形を行った後に生成された新しい画像では、画像の変形効果が低い。
本開示の実施例では画像処理方法及び装置、画像処理装置並びに記憶媒体を提供することが望まれる。
本開示の実施例の技術的解決策は以下のように実現される。
本開示の実施例の第一の態様による画像処理方法は、第一の姿態にあるターゲット部位の第一の代替画像を取得することと、第一の画像における第二の姿態にあるターゲット部位の姿態パラメータを確定することと、前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することと、前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得することと、を含む。
本開示のいくつかの選択可能な実施例では、前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することは、前記第一の代替画像における前記ターゲット部位の複数の第一のキーポイントの座標を取得することと、前記複数の第一のキーポイントの座標に基づき、前記第一の代替画像から、前記複数の第一のキーポイントのうちのいずれかのグループのキーポイントによって囲まれる少なくとも1つの元の多角形領域を確定することと、前記姿態パラメータに基づき、前記少なくとも1つの元の多角形領域を変形させ、変形後の前記第二の代替画像を取得することと、を含む。
本開示のいくつかの選択可能な実施例では、前記第一の画像における、第二の姿態にあるターゲット部位の姿態パラメータを確定することは、前記第一の画像の前記ターゲット部位に対してキーポイント検出を行い、前記ターゲット部位の複数のキーポイントの座標を取得することと、前記ターゲット部位の複数のキーポイントの座標に基づき、前記ターゲット部位の前記姿態パラメータを確定することと、を含む。
本開示のいくつかの選択可能な実施例では、前記ターゲット部位は、腹部を含み、前記第一の画像における、第二の姿態にあるターゲット部位の姿態パラメータを確定することは、前記第一の画像における腹部の少なくとも3種類のキーポイントの座標を取得することを含む。ここで、前記少なくとも3種類のキーポイントは、少なくとも2つの第一のエッジキーポイント、少なくとも2つの第二のエッジキーポイント及び少なくとも2つの中軸線キーポイントを含み、前記少なくとも2つの第一のエッジキーポイントと前記少なくとも2つの第二のエッジキーポイントは、それぞれいずれかの前記中軸線キーポイントの両側に分布し、前記少なくとも3種類のキーポイントの位置は、前記ターゲット部位の前記姿態パラメータを特徴付けることに用いられる。
本開示のいくつかの選択可能な実施例では、前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することは、前記少なくとも3種類のキーポイントの任意の3つの隣接するキーポイントによって形成される三角形領域に基づき、ターゲット三角形領域を取得することと、前記第一の代替画像から取得された複数の第一のキーポイントの座標に基づき、前記複数の第一のキーポイントの任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域を取得することであって、前記第一のキーポイントと前記少なくとも3種類のキーポイントは、いずれも前記ターゲット部位のキーポイントである、ことと、前記元の三角形領域と前記ターゲット三角形領域の間のマッピング関係に従って、前記第一の代替画像を前記第二の代替画像に変換することと、を含む。
本開示のいくつかの選択可能な実施例では、前記方法はさらに、前記姿態パラメータに基づき、前記第一の画像における前記ターゲット部位のターゲット領域を確定することを含み、前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得することは、前記第二の代替画像を前記第一の画像における前記ターゲット領域に融合して前記第二の画像を取得することを含む。
本開示の実施例の第二の態様による画像処理装置は、第一の姿態にあるターゲット部位の第一の代替画像を取得するように構成される取得モジュールと、第一の画像における第二の姿態にあるターゲットオブジェクトのターゲット部位の姿態パラメータを確定するように構成される第一の確定モジュールと、前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換するように構成される変換モジュールと、前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得するように構成される生成モジュールと、を備える。
本開示のいくつかの選択可能な実施例では、前記変換モジュールは、前記第一の代替画像における前記ターゲット部位の複数の第一のキーポイントの座標を取得し、前記複数の第一のキーポイントの座標に基づき、前記第一の代替画像から、前記複数の第一のキーポイントのうちのいずれかのグループのキーポイントによって囲まれる少なくとも1つの元の多角形領域を確定し、前記姿態パラメータに基づき、前記少なくとも1つの元の多角形領域を変形させ、変形後の前記第二の代替画像を取得するように構成される。
本開示のいくつかの選択可能な実施例では、前記第一の確定モジュールは、前記第一の画像の前記ターゲット部位に対してキーポイント検出を行い、前記ターゲット部位の複数のキーポイントの座標を取得し、前記ターゲット部位の複数のキーポイントの座標に基づき、前記ターゲット部位の前記姿態パラメータを確定するように構成される。
本開示のいくつかの選択可能な実施例では、前記ターゲット部位は、腹部を含み、前記第一の確定モジュールは、前記第一の画像における腹部の少なくとも3種類のキーポイントの座標を取得するように構成され、前記少なくとも3種類のキーポイントは、少なくとも2つの第一のエッジキーポイント、少なくとも2つの第二のエッジキーポイント及び少なくとも2つの中軸線キーポイントを含み、前記少なくとも2つの第一のエッジキーポイントと前記少なくとも2つの第二のエッジキーポイントは、それぞれいずれかの前記中軸線キーポイントの両側に分布し、前記少なくとも3種類のキーポイントの位置は、前記ターゲット部位の前記姿態パラメータを特徴付けることに用いられる。
本開示のいくつかの選択可能な実施例では、前記変換モジュールは、前記少なくとも3種類のキーポイントの任意の3つの隣接するキーポイントによって形成される三角形領域に基づき、ターゲット三角形領域を取得し、前記第一の代替画像から取得された複数の第一のキーポイントの座標に基づき、前記複数の第一のキーポイントの任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域を取得し、前記第一のキーポイントと前記少なくとも3種類のキーポイントは、いずれも前記ターゲット部位のキーポイントであり、前記元の三角形領域と前記ターゲット三角形領域の間のマッピング関係に従って、前記第一の代替画像を前記第二の代替画像に変換するように構成される。
本開示のいくつかの選択可能な実施例では、前記装置はさらに、前記姿態パラメータに基づき、前記第一の画像における前記ターゲット部位のターゲット領域を確定するように構成される確定モジュールを備え、前記生成モジュールは、前記第二の代替画像を前記第一の画像における前記ターゲット領域に融合して前記第二の画像を取得するように構成される。
本開示の実施例の第三の態様による画像処理装置は、メモリと、前記メモリに接続され、前記メモリに記憶されたコンピュータ実行可能命令を実行して上記のいずれかの技術的解決策による画像処理方法を実現するように構成されるプロセッサと、を備える。
本開示の実施例の第四の態様によるコンピュータ記憶媒体は、コンピュータ実行可能命令を記憶しており、前記コンピュータ実行可能命令がプロセッサによって実行された後、上記のいずれかの技術的解決策による画像処理方法を実現できる。
本開示の実施例によって提供される技術的解決策では、画像変形を行う時に、1つの代替画像を第一の画像における変形待ちターゲット部位に直接貼り付けることなく、第一の画像における変形待ちターゲット部位の現在の第二の姿態に基づき、姿態パラメータを取得し、当該姿態パラメータを利用し、第一の姿態にあるターゲット部位の第一の代替画像を第二の姿態にあるターゲット部位の第二の代替画像に変換した後、第二の代替画像を第一の画像に融合して第二の画像を取得することができる。これにより、変形された第二の画像では、第一の代替画像と第一の画像のターゲット部位の姿態の大きな違いによる変形効果の低下の現象が低減され、第一の画像におけるターゲット部位の変形効果を効果的に向上させることができる。
本開示の実施例による画像処理方法のフローチャートである。 本開示の実施例による人体輪郭のキーポイントの概略図である。 本開示の実施例による第二の代替画像を生成するプロセスの概略図である。 本開示の実施例による元の三角形領域をターゲット三角形領域に変換する概略図である。 本開示の実施例による腹部をターゲット部位として変形する比較概略図である。 本開示の実施例による画像処理装置の構造概略図である。 本開示の実施例による画像装置の構造概略図である。
以下に明細書の図面及び具体的な実施例を組み合わせながら本開示の実施例の技術的解決策をさらに詳しく説明する。
図1に示すように、本実施例による画像処理方法は、以下のステップS110~S140を含む。
S110において、第一の姿態にあるターゲット部位の第一の代替画像を取得する。
S120において、第一の画像における第二の姿態にあるターゲットオブジェクトのターゲット部位の姿態パラメータを確定する。
S130において、姿態パラメータに基づき、第一の代替画像を第二の姿態に対応する第二の代替画像に変換する。
S140において、第二の代替画像を第一の画像におけるターゲット部位に融合して第二の画像を取得する。
本実施例による画像処理方法は、画像処理機能を備えた電子装置に応用されてもよい。例示的に、当該画像装置は、携帯電話又はウェアラブルデバイスなどを含む様々な端末装置を備えることができる。当該端末装置はさらに車載端末装置、又は画像収集専用且つある位置に固定された固定端末装置を含むことができる。別のいくつかの実施例では、画像装置はさらにサーバー、例えば、ローカルサーバー、又はクラウドプラットフォームに位置して画像処理サービスを提供するためのクラウドサーバーなどを含むことができる。
いくつかの実施例では、ターゲット部位例えば人体のある部位、又は、動物又は他のオブジェクトのある部位などである。本開示の実施例はこれに限定されない。
いくつかの実施例では、第一の代替画像は例えば変形処理後のターゲット部位の変形効果画像である。例示的に、ターゲット部位が人体の腹部である場合、第一の代替画像は例えば腹筋効果を有する1枚の腹部画像であってもよい。
いくつかの実施例では、第一の姿態と第二の姿態は、ターゲット部位の現在の姿態状態を説明することに用いられる。例えば、ターゲット部位が人体の腹部であることを例として説明し、人体が立っている場合、腹部が直立姿態にあり、人体が前屈し、腹部が後ろへ屈曲する姿態にあり、人体が腹部を前に持ち上げる場合、腹部が前屈姿態にある。人体が右側へ屈曲する場合、腹部は右側に押圧し且つ左側に伸ばす姿態にあり、人体が左側に屈曲する場合、腹部は左側に押圧し且つ右側に伸ばす姿態にある。人体の腰部動作の屈曲幅が異なり、姿態に違いがあると考えられてもよい。例えば、第一の姿態は、腹部が直立している姿態である可能性があり、第二の姿態は、上記のいずれかの屈曲状況における腹部の屈曲姿態であってもよい。
ターゲット部位を変形させる前に、電子装置には様々な姿態における第一の代替画像が記憶されていない可能性がある。この場合、第二の姿態に対応する1つの第二の代替画像を生成することができる。ここで、第二の代替画像も変形処理後のターゲット部位の変形効果画像であってもよく、且つ当該第二の代替画像は第二の姿態にあるターゲット部位の変形効果画像を説明することに用いられる。
S140で第二の代替画像を第一の画像に融合して第二の画像を取得する方式は様々である。いくつかの実施形態では、第二の代替画像を第一の画像におけるターゲット部位が位置する領域内に貼り付けて第二の画像を取得することができ、即ち、画像層を貼り付けることで第二の画像を生成する。例えば、第一の画像を第一の画像層として設定し、第二の代替画像を第二の画像層に追加し、第二の画像層の第二の代替画像以外の領域が全て透明領域であり、第二の代替画像を第一の画像におけるターゲット部位に位置合わせして画像層の融合を行い、第二の画像を取得する。
別のいくつかの実施形態では、さらに第一の画像におけるターゲット部位が位置するターゲット領域内の画素値を除去し、第二の代替画像に基づき、画素値が除去されたターゲット領域内に画素値を再充填することができる。ここで、ターゲット領域内の画素値を除去することは、例えばターゲット領域内の画素値をあるデフォルト値に設定すること、又はターゲット領域が位置する画素領域の透明度をあるデフォルト値に設定することであってもよい。上述した、画素値が除去されたターゲット領域内に画素値を再充填することは、例えば、ターゲット領域の画素値に値を新たに付与し、ターゲット領域内のいずれかの位置にある画素のデフォルト値を第二の代替画像における対応する位置にある画素値に代替させることを含むことができる。上記は第二の画像を生成する例だけであり、具体的な実施形態は様々であり、本開示で一つずつ限定されない。
本実施例では、第一の姿態にあるターゲット部位の第一の代替画像を第一の画像におけるターゲット部位に直接貼り付けることなく、第一の画像に示されたターゲット部位の姿態パラメータに基づき、当該姿態パラメータを利用して第一の代替画像を調整し、ターゲット部位の現在の姿態(即ち第二の姿態)に一致する第二の代替画像を取得し、取得された第二の代替画像を第一の画像におけるターゲット部位の位置に貼り付けて第二の画像を生成する。これにより、第一の姿態における第一の代替画像を第一の画像における第二の姿態を有するターゲット部位に直接貼り付ける場合と比較して、第一の画像のターゲット部位の変形効果がより高くなることができる。
いくつかの選択可能な実施例では、S130は、第一の代替画像におけるターゲット部位の複数の第一のキーポイントの座標を取得することと、複数の第一のキーポイントの座標に基づき、第一の代替画像から、複数の第一のキーポイントのうちのいずれかのグループのキーポイントによって囲まれる少なくとも1つの元の多角形領域を確定することと、姿態パラメータに基づき、少なくとも1つの元の多角形領域を変形させ、変形後の第二の代替画像を取得することと、を含むことができる。
本実施例では第一の代替画像を第二の代替画像に変換することにより、第二の代替画像はターゲット部位の実際の姿態により一致することができる。
本実施例では、元の多角形領域は、いずれかの多角形で囲まれた領域であってもよく、当該多角形が三角形、四辺形、五角形などであってもよいが、本実施例はこれに限定されない。
本実施例では、単純なマトリックス変換を行うことなく、多角形アフィン変換などの方式を採用して元の多角形領域の変換を行い、上記の元の多角形領域を取得することができる。元の多角形領域が元の三角形領域であることを例とすると、三角形アフィン変換方式を採用して元の三角形領域の変換を行い、変換されたターゲット三角形領域を得ることができる。
本実施例では第一の代替画像のキーポイントの検出には、従来のいずれかのキーポイント検出方法が利用されてもよい。例えば、第一の代替画像を人体検出モデルに入力し、第一の代替画像におけるキーポイントの座標(第一のキーポイントの座標)を取得する。
いくつかの選択可能な実施例では、上記方法はさらに姿態パラメータに基づき、第一の画像におけるターゲット部位の位置を確定することを含む。それに応じて、S140は、第二の代替画像を第一の画像におけるターゲット領域に融合して第二の画像を取得することと、を含むことができる。本実施例では、姿態パラメータは、第一の画像におけるターゲット部位のキーポイントの座標によって具体化されてもよく、これにより、当該キーポイントの座標はさらに第一の画像におけるターゲット部位の位置を決めることに用いられてもよく、確定されたターゲット部位の第一の画像での位置により、S140で第二の代替画像を第一の画像に融合し、所望の変形効果を有する第二の画像を生成することが容易になる。
いくつかの実施例では、S120は、第一の画像のターゲット部位に対してキーポイント検出を行い、ターゲット部位の複数のキーポイントの座標を取得し、ターゲット部位の複数のキーポイントの座標に基づき、ターゲット部位の姿態パラメータを確定することを含むことができる。
例示的に、キーポイント検出モデルを利用して第一の画像のターゲット部位に対してキーポイント検出を行うことができる。ここで、キーポイント検出モデルはディープ学習モデル、例えば様々なニューラルネットワークであってもよい。本実施例では、キーポイント検出モデルはオープンポーズ(open pose)モデルであってもよい。
図2は人体のキーポイントの概略図である。本実施例では、ターゲット部位が腹部であることを例とすると、姿態パラメータを確定するためのターゲット部位のキーポイントは腹部の輪郭のキーポイントであってもよい。腹部の輪郭のキーポイントについては図2におけるキーポイント28、29及び30、キーポイント57、58及び56を参照することができる。
いくつかの選択可能な実施例では、S130は、姿態パラメータに基づき、第一の代替画像をアフィン変換して第二の姿態に対応する第二の代替画像を取得することを含むことができる。例えば、上記実施例における元の多角形領域に対する変形又は元の三角形領域に対する変形を組み合わせると、いずれも本実施例におけるアフィン変換方式を採用することができる。
第二の姿態に対応する上記第二の代替画像は、含まれているターゲット部位が第二の姿態にある第二の代替画像、又は、含まれているターゲット部位の姿態と第二の姿態の姿態相違度が予め設定された値よりも小さい第二の代替画像を含むことができる。アフィン変換における線形変更操作及び/又は平行移動操作により、第一の代替画像は、第二の姿態に適合する第二の代替画像に変換される。
例示的に、第一の姿態の姿態パラメータと第二の姿態の姿態パラメータを既知の量にし、アフィン変換の変換マトリックスのフィッティングを行い、フィッティングされた変換マトリックスを取得し、当該変換マトリックスを利用して第一の代替画像における各画素ポイントの位置に対して変換処理を行い、第二の姿態に適合する第二の代替画像を取得する。当然、これはアフィン変換の一例に過ぎず、具体的な実現はこれに限定されない。ここで、前記実施例のように、第一の姿態の姿態パラメータと第二の姿態の姿態パラメータは、ターゲット部位のキーポイントの座標によって具体化されてもよい。
本開示のいくつかの選択可能な実施例では、ターゲット部位は、腹部を含むが、本開示の実施例は腹部に限定されない。
本開示のいくつかの選択可能な実施例では、第一の画像における、第二の姿態にあるターゲット部位の姿態パラメータを確定することは、腹部の少なくとも3種類のキーポイントを取得し、少なくとも3種類のキーポイントが少なくとも2つの第一のエッジキーポイント、少なくとも2つの第二のエッジキーポイント及び少なくとも2つの中軸線キーポイントを含み、前記少なくとも2つの第一のエッジキーポイントと少なくとも2つの第二のエッジキーポイントがいずれかの前記中軸線キーポイントの両側に分布し、少なくとも3種類のキーポイントの位置がターゲット部位の姿態パラメータを特徴付けることに用いられることを含む。例示的に、第一のエッジキーポイントと第二のエッジキーポイントの両方は2つであってもよく、中軸線キーポイントは3つ又は4つであってもよく、当然、本実施例において第一のエッジキーポイント、第二のエッジキーポイントと中軸線キーポイントの数は上記の例に限定されない。
いくつかの選択可能な実施例では、中軸線キーポイントは第一のエッジキーポイントと第二のエッジキーポイントに基づいて確定されてもよい。別のいくつかの実施例では、中軸線キーポイントについては骨格キーポイント検出機能を備えたモデルを利用しての中軸線上のターゲット部位である骨格のキーポイントを取得することができる。例えば、ターゲット部位が腹部であることを例とすると、骨盤中心点のキーポイントを検出することにより、腹部の中軸線キーポイントを取得することができる。本開示の実施例では、第一のエッジキーポイントと第二のエッジキーポイントの両方はエッジポイントと略称されてもよい。
本開示のいくつかの選択可能な実施例では、上記S130で、姿態パラメータに基づき、第一の代替画像を第二の姿態に対応する第二の代替画像に変換する方式については、図3に示すように、S130はS121、S122とS133を含むことができる。
S121において、少なくとも3種類のキーポイントの任意の3つの隣接するキーポイントによって形成される三角形領域に基づき、ターゲット三角形領域を取得する。
S122において、第一の代替画像から取得された複数の第一のキーポイントの座標に基づき、複数の第一のキーポイントの任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域を取得し、第一のキーポイントと少なくとも3種類のキーポイントがいずれもターゲット部位のキーポイントである。
S123において、元の三角形領域とターゲット三角形領域の間のマッピング関係に従って、第一の代替画像を第二の代替画像に変換する。
本実施例では、元の三角形領域とターゲット三角形領域の間のマッピング関係を確定し、さらに画像における画素ポイントと三角形領域の変化の間の関連関係に従って、第一の代替画像を第二の代替画像に変換することで、第二の姿態に対応する第二の代替画像を取得することができる。
図4に示すように、任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域において、元の三角形領域の頂点には、中軸線キーポイントと少なくとも1つのエッジキーポイントが少なくとも含まれる。いくつかの例では、上記の3種類のキーポイントにおける隣接して分布するいずれかの3つのキーポイントを任意に接続すると、1つの元の三角形領域を取得できる。別のいくつかの例では、少なくとも2種類のキーポイントのうちの3つのキーポイントを接続して1つの元の三角形領域を取得し、この時に、1つの元の三角形領域の3つの頂点に対応するキーポイントは上記の3種類のキーポイントのうちの少なくとも2種類である。例えば、図4の元の三角形領域における左側のエッジキーポイントは第一のエッジキーポイントであり、右側のエッジキーポイントは第二のエッジキーポイントであり、中心のキーポイントは中軸線キーポイントである。
元の三角形領域をアフィン変換することにより、元の三角形領域の辺長及び形状を変更し、図4に示すターゲット三角形領域を取得することができる。
元の三角形領域に対するアフィン変換により、ターゲット部位のエッジ部位と中央部位の変形量の差が大き過ぎなく、そのため、エッジ部位と中央部位の変形が連続性を有し、これにより、変形効果が高くなる。
以下に上記のいずれかの実施例を組み合わせながら1つの具体的な例を提供する。
本例は人体画像における腹部を変形させるシーンで応用されてもよい。ユーザーは、端末装置で処理待ち人体画像を第一の画像としてアップロードし、人体画像の腹部をターゲット部位として選択することができる。さらに、端末装置では腹部変形効果を有している様々なステッカー画像、例えば8ブロック腹筋効果があるステッカー画像、4ブロック腹筋効果があるステッカー画像などが提供されてもよい。
ユーザーは、様々なステッカー画像からターゲットステッカー画像、例えば、8ブロック腹筋効果があるステッカー画像を第一の代替画像として選択することができる。
ターゲットステッカー画像を使用して人体画像における腹部を変形させるプロセスでは、ターゲットステッカー画像の姿態が第一の姿態にある可能性があり、人体画像における腹部が実際に第二の姿態にあることを考慮し、ターゲットステッカー画像を直接貼り付けると、最終的な腹部変形効果が実際の第二の姿態に一致せず、変形効果が低い。
これに基づき、本開示の実施例ではまず人体画像における腹部のキーポイントを識別し、腹部のキーポイントの座標を取得し、具体的に腹部輪郭のキーポイントの座標を取得することができ、これにより、腹部のキーポイントの座標に基づいて人体画像における腹部の姿態パラメータを確定することができる。
さらに、腹部の姿態パラメータに基づき、ターゲットステッカー画像を第二の姿態に対応する第二のステッカー画像(即ち第二の代替画像)に変換することができる。この変換プロセスは、多角形アフィン変換によって実現されてもよく、具体的なアフィン変換プロセスについては、上記実施例を参照することができる。図5に示すように、図5の右側は第一の姿態にあるターゲットステッカー画像であり、図5の左側は変換後の第二の姿態に対応するステッカー画像である。
最後、第二の姿態に対応するステッカー画像を、第一の画像のターゲット部位が位置する領域に融合させ、所望の変形効果を有している人体画像、即ち第二の画像を取得することができる。
これにより、融着処理後に得られた第二の画像では、第一の代替画像と第一の画像におけるターゲット部位の姿態の大きな違いによる変形効果の低下の現象が低減され、第一の画像のターゲット部位の変形効果が高くなる。
図6に示すように、本開示の実施例による画像処理装置は、
第一の姿態にあるターゲット部位の第一の代替画像を取得するように構成される取得モジュール110と、
第一の画像における、第二の姿態にあるターゲットオブジェクトのターゲット部位の姿態パラメータを確定するように構成される第一の確定モジュール120と、
前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換するように構成される変換モジュール130と、
前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得するように構成される生成モジュール140と、を備える。
いくつかの実施例では、前記取得モジュール110、第一の確定モジュール120、変換モジュール130及び生成モジュール140はいずれもプログラムモジュールであり、前記プログラムモジュールがプロセッサによって実行された後、上記のいずれかのモジュール機能が実現されてもよい。
別のいくつかの実施例では、上記取得モジュール110、第一の確定モジュール120、変換モジュール130及び生成モジュール140はいずれもソフトウェアとハードウェアを組み合わせたモジュールであり、上記のソフトウェアとハードウェアを組み合わせたモジュールは、プログラマブルアレイを含むがこれに限定されなく、前記プログラマブルアレイがフィールドプログラマブルアレイと複雑なプログラマブルアレイを含むがこれらに限定されない。
また、いくつかの実施例では、前記取得モジュール110、第一の確定モジュール120、変換モジュール130及び生成モジュール140はいずれも純粋なハードウェアモジュールであり、上記の純粋なハードウェアモジュールは、専用集積回路を含むがこれに限定されない。
いくつかの実施例では、前記変換モジュール130は、第一の代替画像におけるターゲット部位の複数の第一のキーポイントの座標を取得し、複数の第一のキーポイントの座標に基づき、第一の代替画像から、複数の第一のキーポイントのうちのいずれかのグループのキーポイントによって囲まれる少なくとも1つの元の多角形領域を確定し、前記姿態パラメータに基づき、少なくとも1つの元の多角形領域を変形させ、変形後の第二の代替画像を取得するように構成される。
いくつかの実施例では、前記第一の確定モジュール120は、第一の画像のターゲット部位に対してキーポイント検出を行い、ターゲット部位の複数のキーポイントの座標を取得し、ターゲット部位の複数のキーポイントの座標に基づき、ターゲット部位の姿態パラメータを確定するように構成される。
いくつかの実施例では、前記ターゲット部位は、腹部を含み、前記第一の確定モジュール120は、第一の画像における腹部の少なくとも3種類のキーポイントを取得するように構成され、少なくとも3種類のキーポイントが少なくとも2つの第一のエッジキーポイント、少なくとも2つの第二のエッジキーポイント及び少なくとも2つの中軸線キーポイントを含み、少なくとも2つの第一のエッジキーポイントと少なくとも2つの第二のエッジキーポイントがそれぞれいずれかの中軸線キーポイントの両側に分布し、上記の少なくとも3種類のキーポイントの位置がターゲット部位の姿態パラメータを特徴付けることに用いられる。
いくつかの実施例では、前記変換モジュール130は、前記少なくとも3種類のキーポイントの任意の3つの隣接するキーポイントによって形成される三角形領域に基づき、ターゲット三角形領域を取得し、第一の代替画像から取得された複数の第一のキーポイントの座標に基づき、複数の第一のキーポイントの任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域を取得し、第一のキーポイントと少なくとも3種類のキーポイントがいずれもターゲット部位のキーポイントであり、元の三角形領域とターゲット三角形領域の間のマッピング関係に従って、第一の代替画像を第二の代替画像に変換するように構成される。
いくつかの実施例では、前記装置はさらに姿態パラメータに基づき、第一の画像におけるターゲット部位のターゲット領域を確定するように構成される第二の確定モジュールを備え、
前記生成モジュール140は、第二の代替画像を第一の画像におけるターゲット領域に融合して第二の画像を取得するように構成される。
図7に示すように、本開示の実施例による画像装置は、
コンピュータ実行可能命令を記憶するように構成されるメモリと、
ディスプレイ及び前記メモリに接続され、メモリに記憶されたコンピュータ実行可能命令を実行することにより、上記の1つ又は複数の技術的解決策による画像処理方法、例えば、図1及び/又は図4に示す画像処理方法を実現することができるように構成されるプロセッサと、を備える。
当該メモリは様々なタイプのメモリであってもよく、ランダムメモリ、読み取り専用メモリ、フラッシュメモリなどであってもよい。前記メモリは、情報の記憶、例えばコンピュータ実行可能命令などの記憶に用いられてもよい。前記コンピュータ実行可能命令は様々なプログラム命令、例えば、ターゲットプログラム命令及び/又はソースプログラム命令などであってもよい。
前記プロセッサは様々なプロセッサ、例えば、中央処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブルアレイ、デジタル信号プロセッサ、専用集積回路又は画像プロセッサなどであってもよい。
前記プロセッサはバスを介して前記メモリに接続されてもよい。前記バスは集積回路バスなどであってもよい。
いくつかの実施例では、前記端末装置はさらに通信インタフェースを備えることができ、当該通信インタフェースがネットワークインタフェースを含むことができ、ネットワークインタフェースが例えばLANインタフェース、送受信アンテナなどを含むことができる。前記通信インタフェースは同様に前記プロセッサに接続され、情報の送受信に用いられてもよい。
いくつかの実施例では、前記端末装置はさらにヒューマンマシンインタフェースを備え、例えば、前記ヒューマンマシンインタフェースがキーボード、タッチスクリーンなどの様々な輸出入装置を含むことができる。
いくつかの実施例では、前記画像装置はさらに、様々なプロンプト情報、収集された顔画像、様々なインタフェースなどを表示できるディスプレイを備える。
本開示の実施例によるコンピュータ記憶媒体は、コンピュータ実行可能コードを記憶しており、前記コンピュータ実行可能コードが実行された後、上記の1つ又は複数の技術的解決策による画像処理方法、例えば図1及び/又は図4に示す画像処理方法を実現することができる。
本開示で提供されるいくつかの実施例では、開示された装置及び方法は他の方式によって実現されてもよいことが理解されるべきである。上述した装置の実施例は例示的なものだけであり、例えば、前記ユニットの区分は、論理的機能区分だけであり、実際に実現する時に他の区分方式があってもよく、例えば、複数のユニット又は構成要素が組み合わせられてもよく、又は別のシステムに統合されてもよく、又はいくつかの特徴が無視又は実行されなくてもよい。また、表示又は討論される各構成部分の間の相互結合、又は直接結合、又は通信接続は、いくつかのインタフェース、デバイス又はユニットを介した間接結合又は通信接続であってもよく、電気的、機械的又は他の形態であってもよい。
分離部材として説明される前記ユニットは、物理的に分離されてもよく、又は物理的に分離されなくてもよく、ユニットとして表示される部材は、物理ユニットであってもよく、又は物理ユニットでなくてもよく、即ち1つの位置に配置されてもよいし、複数のネットワークユニットに分布してもよく、実際のニーズに応じてその中の部分又は全てのユニットを選択して本実施例の解決策の目的を達成することができる。
また、本開示の各実施例における各機能ユニットは全て1つの処理モジュールに統合されてもよいし、各ユニットはそれぞれ個別に1つのユニットとして用いられてもよいし、2つ以上のユニットは1つのユニットに統合されてもよく、上記の統合されたユニットは、ハードウェアの形で実現されてもよいし、ハードウェアとソフトウェアを組み合わせた機能ユニットの形で実現されてもよい。
本開示のいずれかの実施例で開示される技術的特徴は、衝突しない場合で、任意に組み合わせて新しい方法の実施例又は装置の実施例を形成することができる。
本開示のいずれかの実施例で開示される方法の実施例は、衝突しない場合で、任意に組み合わせて新しい方法の実施例を形成することができる。
本開示のいずれかの実施例で開示される装置の実施例は、衝突しない場合で、任意に組み合わせて新しい装置の実施例を形成することができる。
当業者は、上記方法の実施例の全て又は一部のステップが関連するハードウェアに指示するプログラムによって実現されてもよいことを理解してもよい。前記プログラムがコンピュータ可読記憶媒体に記憶されてもよく、当該プログラムが実行されると、上記方法の実施例に含まれるステップが実行される。前記記憶媒体は、移動記憶装置、読み取り専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどのプログラムコードを記憶できる様々な媒体を含む。
上記は本出願の具体的な実施形態であるが、本出願の保護範囲がこれに限られなく、当業者であれば、本出願で開示された技術範囲内で、変更又は置き換えを容易に想到することができ、それらは全て本出願の保護範囲に含まれるべきである。したがって、本出願の保護範囲は前記特許請求の範囲に準じるべきである。
110 取得モジュール
120 第一の確定モジュール
130 変換モジュール
140 生成モジュール

Claims (14)

  1. 画像処理方法であって、
    第一の姿態にあるターゲット部位の第一の代替画像を取得することと、
    第一の画像における第二の姿態にあるターゲット部位の姿態パラメータを確定することと、
    前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することと、
    前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得することと、を含む、前記画像処理方法。
  2. 前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することは、
    前記第一の代替画像における前記ターゲット部位の複数の第一のキーポイントの座標を取得することと、
    前記複数の第一のキーポイントの座標に基づき、前記第一の代替画像から、前記複数の第一のキーポイントのうちのいずれかのグループのキーポイントによって囲まれる少なくとも1つの元の多角形領域を確定することと、
    前記姿態パラメータに基づき、前記少なくとも1つの元の多角形領域を変形させ、変形後の前記第二の代替画像を取得することと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第一の画像における第二の姿態にあるターゲット部位の姿態パラメータを確定することは、
    前記第一の画像の前記ターゲット部位に対してキーポイント検出を行い、前記ターゲット部位の複数のキーポイントの座標を取得することと、
    前記ターゲット部位の複数のキーポイントの座標に基づき、前記ターゲット部位の前記姿態パラメータを確定することと、を含むことを特徴とする
    請求項1又は2に記載の方法。
  4. 前記ターゲット部位は腹部を含み、
    前記第一の画像における第二の姿態にあるターゲット部位の姿態パラメータを確定することは、
    前記第一の画像における腹部の少なくとも3種類のキーポイントの座標を取得することを含み、ここで、前記少なくとも3種類のキーポイントは、少なくとも2つの第一のエッジキーポイント、少なくとも2つの第二のエッジキーポイント及び少なくとも2つの中軸線キーポイントを含み、前記少なくとも2つの第一のエッジキーポイントと前記少なくとも2つの第二のエッジキーポイントは、それぞれいずれかの前記中軸線キーポイントの両側に分布し、前記少なくとも3種類のキーポイントの位置は、前記ターゲット部位の前記姿態パラメータを特徴付けることに用いられることを特徴とする
    請求項1~3のいずれか一項に記載の方法。
  5. 前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換することは、
    前記少なくとも3種類のキーポイントの任意の3つの隣接するキーポイントによって形成される三角形領域に基づき、ターゲット三角形領域を取得することと、
    前記第一の代替画像から取得された複数の第一のキーポイントの座標に基づき、前記複数の第一のキーポイントの任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域を取得することであって、前記第一のキーポイントと前記少なくとも3種類のキーポイントは、いずれも前記ターゲット部位のキーポイントである、ことと、
    前記元の三角形領域と前記ターゲット三角形領域の間のマッピング関係に従って、前記第一の代替画像を前記第二の代替画像に変換することと、を含むことを特徴とする
    請求項4に記載の方法。
  6. 前記方法はさらに、
    前記姿態パラメータに基づき、前記第一の画像における前記ターゲット部位のターゲット領域を確定することを含み、
    前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得することは、
    前記第二の代替画像を前記第一の画像における前記ターゲット領域に融合して前記第二の画像を取得することを含むことを特徴とする
    請求項1~5のいずれか一項に記載の方法。
  7. 画像処理装置であって、
    第一の姿態にあるターゲット部位の第一の代替画像を取得するように構成される取得モジュールと、
    第一の画像における、第二の姿態にあるターゲットオブジェクトのターゲット部位の姿態パラメータを確定するように構成される第一の確定モジュールと、
    前記姿態パラメータに基づき、前記第一の代替画像を前記第二の姿態に対応する第二の代替画像に変換するように構成される変換モジュールと、
    前記第二の代替画像を第一の画像における前記ターゲット部位に融合して第二の画像を取得するように構成される生成モジュールと、を備える、前記画像処理装置。
  8. 前記変換モジュールは、前記第一の代替画像における前記ターゲット部位の複数の第一のキーポイントの座標を取得し、前記複数の第一のキーポイントの座標に基づき、前記第一の代替画像から、前記複数の第一のキーポイントのうちのいずれかのグループのキーポイントによって囲まれる少なくとも1つの元の多角形領域を確定し、前記姿態パラメータに基づき、前記少なくとも1つの元の多角形領域を変形させ、変形後の前記第二の代替画像を取得するように構成されることを特徴とする
    請求項7に記載の装置。
  9. 前記第一の確定モジュールは、前記第一の画像の前記ターゲット部位に対してキーポイント検出を行い、前記ターゲット部位の複数のキーポイントの座標を取得し、前記ターゲット部位の複数のキーポイントの座標に基づき、前記ターゲット部位の前記姿態パラメータを確定するように構成されることを特徴とする
    請求項7又は8に記載の装置。
  10. 前記ターゲット部位は腹部を含み、
    前記第一の確定モジュールは、前記第一の画像における腹部の少なくとも3種類のキーポイントの座標を取得するように構成され、前記少なくとも3種類のキーポイントは、少なくとも2つの第一のエッジキーポイント、少なくとも2つの第二のエッジキーポイント及び少なくとも2つの中軸線キーポイントを含み、前記少なくとも2つの第一のエッジキーポイントと前記少なくとも2つの第二のエッジキーポイントは、それぞれいずれかの前記中軸線キーポイントの両側に分布し、前記少なくとも3種類のキーポイントの位置は、前記ターゲット部位の前記姿態パラメータを特徴付けることに用いられることを含むことを特徴とする
    請求項7~9のいずれか一項に記載の装置。
  11. 前記変換モジュールは、前記少なくとも3種類のキーポイントの任意の3つの隣接するキーポイントによって形成される三角形領域に基づき、ターゲット三角形領域を取得し、前記第一の代替画像から取得された複数の第一のキーポイントの座標に基づき、前記複数の第一のキーポイントの任意の3つの隣接する第一のキーポイントによって囲まれる元の三角形領域を取得し、前記第一のキーポイントと前記少なくとも3種類のキーポイントは、いずれも前記ターゲット部位のキーポイントであり、前記元の三角形領域と前記ターゲット三角形領域の間のマッピング関係に従って、前記第一の代替画像を前記第二の代替画像に変換するように構成されることを特徴とする
    請求項10に記載の装置。
  12. 前記装置はさらに、
    前記姿態パラメータに基づき、前記第一の画像における前記ターゲット部位のターゲット領域を確定するように構成される第二の確定モジュールを備え、
    前記生成モジュールは、前記第二の代替画像を前記第一の画像における前記ターゲット領域に融合して前記第二の画像を取得するように構成されることを特徴とする
    請求項7~11のいずれか一項に記載の装置。
  13. 画像処理装置であって、
    メモリと、
    前記メモリに接続され、前記メモリに記憶されたコンピュータ実行可能命令を実行して請求項1~6のいずれか一項に記載の方法を実現するように構成されるプロセッサと、を備える、前記画像処理装置。
  14. コンピュータ実行可能命令を記憶しており、前記コンピュータ実行可能命令がプロセッサによって実行された後、請求項1~6のいずれか一項に記載の方法を実現できるコンピュータ記憶媒体。
JP2020572864A 2019-11-29 2020-05-29 画像処理方法及び装置、画像処理装置並びに記憶媒体 Active JP7162084B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911205289.X 2019-11-29
CN201911205289.XA CN110930298A (zh) 2019-11-29 2019-11-29 图像处理方法及装置、图像处理设备及存储介质
PCT/CN2020/093447 WO2021103470A1 (zh) 2019-11-29 2020-05-29 图像处理方法及装置、图像处理设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022515303A true JP2022515303A (ja) 2022-02-18
JP7162084B2 JP7162084B2 (ja) 2022-10-27

Family

ID=69847996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572864A Active JP7162084B2 (ja) 2019-11-29 2020-05-29 画像処理方法及び装置、画像処理装置並びに記憶媒体

Country Status (7)

Country Link
US (1) US20210241509A1 (ja)
JP (1) JP7162084B2 (ja)
KR (1) KR20210068328A (ja)
CN (1) CN110930298A (ja)
SG (1) SG11202104070YA (ja)
TW (1) TWI755768B (ja)
WO (1) WO2021103470A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930298A (zh) * 2019-11-29 2020-03-27 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
CN111709874B (zh) * 2020-06-16 2023-09-08 北京百度网讯科技有限公司 图像调整的方法、装置、电子设备及存储介质
CN112788244B (zh) * 2021-02-09 2022-08-09 维沃移动通信(杭州)有限公司 拍摄方法、拍摄装置和电子设备
CN113221840B (zh) * 2021-06-02 2022-07-26 广东工业大学 一种人像视频处理方法
CN113590250B (zh) * 2021-07-29 2024-02-27 网易(杭州)网络有限公司 图像处理方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850660A (ja) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH09305798A (ja) * 1996-05-10 1997-11-28 Oki Electric Ind Co Ltd 画像表示装置
JPH10240908A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 映像合成方法
JP2011107877A (ja) * 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2012043057A (ja) * 2010-08-16 2012-03-01 Copcom Co Ltd 顔画像編集用プログラム、その顔画像編集用プログラムを記録した記録媒体及び顔画像編集システム
JP6116784B1 (ja) * 2016-02-16 2017-04-19 楽天株式会社 3次元モデル生成システム、3次元モデル生成方法、及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8331697B2 (en) * 2007-11-06 2012-12-11 Jacob Samboursky System and a method for a post production object insertion in media files
JP6192483B2 (ja) * 2013-10-18 2017-09-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
CN105869153B (zh) * 2016-03-24 2018-08-07 西安交通大学 融合相关块信息的非刚性人脸图像配准方法
JP6960722B2 (ja) * 2016-05-27 2021-11-05 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
CN105898159B (zh) * 2016-05-31 2019-10-29 努比亚技术有限公司 一种图像处理方法及终端
US20180068473A1 (en) * 2016-09-06 2018-03-08 Apple Inc. Image fusion techniques
US10572720B2 (en) * 2017-03-01 2020-02-25 Sony Corporation Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data
CN107507217B (zh) * 2017-08-17 2020-10-16 北京觅己科技有限公司 证件照的制作方法、装置及存储介质
TWI639136B (zh) * 2017-11-29 2018-10-21 國立高雄科技大學 即時視訊畫面拼接方法
JP7073238B2 (ja) * 2018-05-07 2022-05-23 アップル インコーポレイテッド クリエイティブカメラ
CN109977847B (zh) * 2019-03-22 2021-07-16 北京市商汤科技开发有限公司 图像生成方法及装置、电子设备和存储介质
CN110189248B (zh) * 2019-05-16 2023-05-02 腾讯科技(深圳)有限公司 图像融合方法及装置、存储介质、电子设备
CN110349195B (zh) * 2019-06-25 2021-09-03 杭州汇萃智能科技有限公司 一种基于深度图像的目标物体3d测量参数获取方法、***和存储介质
CN110503703B (zh) * 2019-08-27 2023-10-13 北京百度网讯科技有限公司 用于生成图像的方法和装置
CN110503601A (zh) * 2019-08-28 2019-11-26 上海交通大学 基于对抗网络的人脸生成图片替换方法及***
CN110930298A (zh) * 2019-11-29 2020-03-27 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850660A (ja) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH09305798A (ja) * 1996-05-10 1997-11-28 Oki Electric Ind Co Ltd 画像表示装置
JPH10240908A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 映像合成方法
JP2011107877A (ja) * 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2012043057A (ja) * 2010-08-16 2012-03-01 Copcom Co Ltd 顔画像編集用プログラム、その顔画像編集用プログラムを記録した記録媒体及び顔画像編集システム
JP6116784B1 (ja) * 2016-02-16 2017-04-19 楽天株式会社 3次元モデル生成システム、3次元モデル生成方法、及びプログラム

Also Published As

Publication number Publication date
JP7162084B2 (ja) 2022-10-27
CN110930298A (zh) 2020-03-27
TW202121337A (zh) 2021-06-01
US20210241509A1 (en) 2021-08-05
SG11202104070YA (en) 2021-07-29
TWI755768B (zh) 2022-02-21
KR20210068328A (ko) 2021-06-09
WO2021103470A1 (zh) 2021-06-03

Similar Documents

Publication Publication Date Title
JP2022515303A (ja) 画像処理方法及び装置、画像処理装置並びに記憶媒体
US11991344B2 (en) Systems, methods and apparatuses for stereo vision and tracking
CN107223269B (zh) 三维场景定位方法和装置
CN110310333B (zh) 定位方法及电子设备、可读存储介质
KR20220092928A (ko) 포인트 클라우드 라벨링 방법, 장치, 전자 기기, 저장 매체 및 프로그램 제품
US20220222893A1 (en) Method and apparatus for generating three-dimensional face model, computer device, and storage medium
CN108062784A (zh) 三维模型纹理贴图转换方法与装置
CN111292427B (zh) 骨骼位移信息获取方法、装置、设备及存储介质
TWI750710B (zh) 圖像處理方法及裝置、圖像處理設備及儲存媒體
WO2020192706A1 (zh) 物体三维模型重建方法及装置
JP2021520577A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN108305321B (zh) 一种基于双目彩色成像***的立体人手3d骨架模型实时重建方法和装置
CN113902851A (zh) 一种人脸三维重建方法、装置、电子设备及存储介质
WO2022142908A1 (zh) 三维模型生成方法、xr设备及存储介质
CN108696745A (zh) 相机校准
CN110852934A (zh) 图像处理方法及装置、图像设备及存储介质
CN114897678B (zh) 婴幼儿眼底视网膜全景影像生成采集反馈方法及***
US20180359430A1 (en) Image processing device, image processing system, and non-transitory storage medium
CN110852943A (zh) 图像处理方法及装置、图像处理设备及存储介质
CN108573470A (zh) 图像拼接方法及装置
CN107580157A (zh) 图像处理装置、图像处理方法以及程序
CN113014901B (zh) 一种用于全息体视图打印的视差图像序列合成方法、***及存储介质
JP6700539B2 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
US20230334807A1 (en) Information processing device, information processing method, and program
WO2021131103A1 (ja) 距離画像処理装置及び距離画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7162084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150