JP2023504669A - 画像処理方法、スマート機器及びコンピュータプログラム - Google Patents

画像処理方法、スマート機器及びコンピュータプログラム Download PDF

Info

Publication number
JP2023504669A
JP2023504669A JP2022533195A JP2022533195A JP2023504669A JP 2023504669 A JP2023504669 A JP 2023504669A JP 2022533195 A JP2022533195 A JP 2022533195A JP 2022533195 A JP2022533195 A JP 2022533195A JP 2023504669 A JP2023504669 A JP 2023504669A
Authority
JP
Japan
Prior art keywords
image
feature map
training
model
moire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022533195A
Other languages
English (en)
Other versions
JP7357998B2 (ja
Inventor
戈▲揚▼ 柯
▲飛▼ 黄
唯 熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2023504669A publication Critical patent/JP2023504669A/ja
Application granted granted Critical
Publication of JP7357998B2 publication Critical patent/JP7357998B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)

Abstract

本出願は、画像処理方法、スマート機器及びコンピュータ可読記憶媒体を開示し、前記方法は、オリジナル画像を取得するステップと、画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行して、ターゲット画像を取得するステップと、を含み、前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理して、前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である。当該画像処理方法により、モアレ除去効果を高めることができる。

Description

本出願は、2020年04月15日に中国特許庁に提出された、出願番号が202010295743.1であって、出願の名称が「画像処理方法、スマート機器及びコンピュータ可読記憶媒体」である中国特許出願に基づく優先権を主張し、その全内容を本出願に援用する。
本出願は、画像処理の技術分野に関し、具体的に、画像処理技術に関する。
コンピュータ技術及び電子イメージングテクノロジーの発展に伴い、非常に優れた補助ツールとしての画像アプリケーションは、人々に生活、学習、仕事の様々なシーンに適用されている。携帯電話、カメラなどの装置を使用して、環境画像を撮影することができるだけでなく、様々なディスプレイに表示された画像を撮影することができる。携帯電話、デジタルカメラなどを使用して電子ディスプレイを撮影するときに、得られた画像はモアレを有する場合がよくある。これらのモアレは、見た目に影響を及ぼすだけでなく、以降の画像認識にも悪影響を及ぼす。また、モアレにより、元の画像コンテンツには、多くのテクスチャ及びノイズが増加し、圧縮画像のデータ量を増大させる。
モアレを除去するための現在の解決策では、一般的には、モアレの一般的な形態、及びモアレと画像における非モアレコンテンツの形状との違いに基づいて、エッジ抽出アルゴリズムによって画像におけるモアレ画像部分を決定して、モアレを除去する目的を達成する。しかしながら、このような方式のアルゴリズムの実現は、複雑であり、且つ、モアレ除去効果は、不十分である。
本出願は、画像におけるモアレを簡単且つ包括的に除去することができる画像処理方法、スマート機器及びコンピュータ可読記憶媒体を提供する。
一態様では、本出願は、スマート機器が実行する画像処理方法を提供し、前記方法は、
オリジナル画像を取得するステップと、
画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行し、ターゲット画像を取得するステップと、を含み、
前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、
前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理して、前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である。
別の態様では、本出願はさらに、画像処理装置を提供し、前記装置は、
オリジナル画像を取得するための取得モジュールと、
画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行し、ターゲット画像を取得するための処理モジュールと、を含み、
前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、
前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理して、前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である。
それに対応して、本出願はさらにスマート機器を提供し、前記スマート機器は、記憶装置及びプロセッサーを含み、前記記憶装置は、画像処理を実行するためのプログラム命令を記憶しており、前記プロセッサーは、前記プログラム命令を呼び出して、上記の画像処理方法を実現する。
それに対応して、本出願はさらにコンピュータ可読記憶媒体を提供し、前記コンピュータ記憶媒体は、画像処理を実行するためのプログラム命令を記憶し、前記プログラム命令は、プロセッサーによって実行されるときに、上記の画像処理方法を実現する。
それに対応して、本出願はさらにコンピュータプログラム製品を提供し、当該コンピュータプログラム製品は、コンピュータ上で実行されるときに、上記の画像処理方法をコンピュータに実行させるための命令を含む。
本出願は、異なるスケール及び異なる空間周波数帯域におけるモアレの相違性に対して、モアレを除去するための画像処理モデルで、ラプラシアンピラミッドに基づいて構築されたマルチスケールモデルを設計し、ラプラシアンピラミッドの複数の周波数帯域における特徴マップを利用し、異なるスケール、異なる周波数帯域においてモアレを包括的に除去できる画像処理モデルをトレーニングして取得することができ、これにより、より優れたモアレ除去効果を簡単に実現できる。
本出願の実施例又は従来技術における技術的解決策をより明確にするために、以下は、実施例又は従来技術の説明に必要な図面を簡単に紹介し、明らかに、以下の説明の図面は、本出願のいくつかの実施例に過ぎず、当業者にとって、他の図面もまた、創造的努力なしにこれらの図面から得ることができる。
本出願の実施例によるモアレ除去機能を利用する概略フローチャートである。 本出願の実施例による一つの画像処理アプリケーションの関連するアプリケーションインターフェースである。 本出願の実施例によるモアレ除去機能を利用する別の概略フローチャートである。 本出願の実施例による異なるスケールのモアレの概略図である。 本出願の実施例による異なる空間周波数帯域におけるモアレの概略図である。 本出願の実施例による画像処理方法の概略フローチャートである。 本出願の実施例による画像処理モデルの構成概略図である。 本出願の実施例による別の画像処理方法の概略フローチャートである。 本出願の実施例による別の画像処理モデルの構成概略図である。 本出願の実施例による画像処理モデルをトレーニングする概略フローチャートである。 本出願の実施例による画像処理モデルをトレーニングする構成概略図である。 本出願の実施例による画像処理装置の構成概略図である。 本出願の実施例によるスマート機器の構成概略図である。
以下、本出願の実施例における添付の図面を参照して、本出願の実施例における技術的解決策について明確且つ完全に説明する。明らかに、説明する実施例は、本出願の実施例の一部に過ぎず、全ての実施例ではない。本出願の実施例に基づいて、創造的な作業なしに当業者によって得られる他の全ての実施例は、本出願の保護範囲に含まれる。
モアレは、干渉現象に基づいて発生する柵状のテクスチャである。デジタルカメラ、携帯電話などの撮影機能を有するスマート機器の感光性素子(例えば電荷結合デバイス(charge coupled device、CCD)感光性素子や相補型金属酸化物半導体(complementary metal oxide semiconductor、CMOS)感光性素子)画素の空間周波数が電子ディスプレイに表示された映像における縞の空間周波数に近いと、撮影して得られた画像にモアレが発生する。
本出願は、モアレの特性を総合的に分析し、モアレが空間周波数帯域、マルチスケールにわたって異なるモアレ表現を表現するというモアレの特性に基づいて、対応する画像処理モデルを設計し、一連の深層学習技術を使用することにより、スマートフォン、デジタルカメラなどの撮影機能を有するスマート機器が電子ディスプレイを撮影するときに得られた画像上のモアレを除去し、その画質をできるだけ復元する。
具体的に、トレーニング最適化後の画像処理モデルに対して、モアレ付き画像を入力し、画像処理モデルによってモアレ除去処理を実行し、必要なターゲット画像を出力する。モデル設計は、空間周波数帯域別監視、マルチタスク学習などの技術を使用し、且つ、注意力メカニズムを利用して色及び輝度分布を復元し、比較的良好なモアレ除去効果を実現する。
さらに、本出願は、制造されたトレーニングデータに基づいてモデルトレーニングを行い、トレーニング過程において自己教師あり学習、マルチスケール学習及び生成的敵対的ネットワークなどのトレーニング最適化処理方式を運用するために、トレーニングデータを製造する実用的な方式を提供する。
上記の機能を実現するために、1つのターゲットアプリケーションを設計してスマート機器にインストールすることができ、当該ターゲットアプリケーションは、スマート機器のカメラを呼び出して画像を撮影することができ、また、当該ターゲットアプリケーションは、ローカルに記憶された画像を読み取ったり、ネットワークから画像をダウンロードしたりすることができ、同時に、撮影により得られたモアレ付き画像、読み取り又はダウンロードされたモアレ付き画像について、ユーザーに直接表示することができ、ユーザーに表示した後、ユーザーの操作に応じて、モアレ除去処理の実行を決定し、モアレ除去後の画像を表示することができる。勿論、ユーザーに表示する前に、バックグラウンドでモアレ除去処理を自動的に実行して、処理されたモアレのないターゲット画像をユーザーに表示することもできる。
モアレを除去するための適用シナリオは、様々であり、例えば、ユーザーコミュニケーションに関するシナリオでは、Aユーザーは、通信アプリケーションを介してBユーザーにそのパソコン上のPPTなどの情報を共有するときに、Aユーザーは、通信アプリケーションを実行するスマートフォンなどのスマート機器によりパソコンのスクリーンを撮影することができ、このときにモアレ付き画像が得られる。これらのモアレ付き画像に対して、Aユーザーは、モアレ除去機能を直接オンにすることができ、このようにして、AユーザーがBユーザーに共有するスマートフォンによってパソコンのディスプレイを撮影して得られたPPTなどの画像はいずれも、モアレが除去された画像である。これにより、モアレによるビデオ符号化データの量を低減することができ、画像データ伝送の品質を保証し、また、撮影して得られた画像情報をBユーザーにより明瞭に見せ、Bユーザーは、ビデオ通信によって伝送された明瞭な画像情報を直接記憶したり、編集可能なドキュメントなどのデータに変換したりすることができる。
図1に示すように、本出願の実施例によるモアレ除去機能を利用する概略フローチャートであり、具体的に以下のステップを含む。
S101:スマート機器は、オリジナル画像を取得する。
ユーザーは、スマート機器を制御して、スマート機器がモアレ付き画像を取得するようにすることができ、例えば、ユーザーは、電子ディスプレイを直接撮影してモアレ付き画像を取得することができ、モアレ付き画像をオリジナル画像と呼ぶことができる。
いくつかの実施例では、スマート機器は、ローカルからモアレ付き画像を読み取ったり、ネットワークからモアレ付き画像をダウンロードしたりすることによって、オリジナル画像を取得してもよい。
S102:スマート機器は、オリジナル画像に対するユーザー操作を検出する。
スマート機器は、モアレ付きオリジナル画像を取得した後、モアレの除去を有効にするためのボタンを、当該オリジナル画像を表示するための表示インターフェースに表示することで、オリジナル画像に対するユーザー操作を検出することができる。前記表示インターフェースにこれらのモアレ付き画像を表示するときに、前記モアレの除去を有効にするためのボタンを表示してもよい。このようにして、異なる方式で得られたオリジナル画像に対してワンクリックのモアレ除去機能を提供することができる。
S103:スマート機器は、モアレが除去された画像をプレビューする。
スマート機器のバックグラウンドが、モアレの除去に関する画像処理を完了した後、スマート機器は、モアレが除去された画像をプレビュー及表示することができ、モアレが除去された画像をターゲット画像と呼ぶ。ターゲット画像をプレビュー表示するインターフェースに、他の機能ボタン、例えば共有、記憶、再編集などのボタンを表示してもよい。
S104:スマート機器は、受信したユーザーによるこれらのボタンに対する操作に基づいて、例えば共有、記憶、再編集などの対応する処理を実行する。
一実施例では、図2に示すように、当該図は、本出願の実施例による一つの画像処理アプリケーションの関連するアプリケーションインターフェースであり、当該画像処理アプリケーションは、ユーザーがモアレ付き画像を取得してから、モアレが除去された画像をユーザーに表示するまでの一連のインターフェース概略図を含む。ユーザーがアプリケーションアイコンをクリックした後、画像処理アプリケーションを実行し、ユーザーは、アプリケーションインターフェース201においてオリジナル画像を取得する操作をトリガーすることができる。具体的に、ユーザーは、画像を撮影するように、撮影ボタン202をトリガーすることを選択してもよく、ローカル又はネットワークから画像を抽出して、オリジナル画像を取得するように、読み込みボタン203をトリガーすることを選択してもよい。
取得したオリジナル画像について、アプリケーションインターフェース201に表示することができ、モアレが存在する場合、除去ボタン204を表示することができ、ユーザーが除去ボタン204をクリックした後、ターゲットアプリケーションは、画像処理を実行して、モアレが除去されたターゲット画像を取得し、モアレが除去されたターゲット画像をアプリケーションインターフェース201に表示することができる。
一実施例では、前記画像処理アプリケーションに基づいて、スマート機器は、アプリケーションインターフェースに表示された取得した画像を分析し、分析によって画像にモアレがあると判定した場合にのみ、除去ボタン204を表示することができる。勿論、除去ボタン204は、オリジナル画像を取得した後に常に前記アプリケーションインターフェース201に表示されてもよい。図2には、画像の再取得をトリガーするためのボタン205及び画像を保存するためのボタン206などの他のボタンも示されている。
一実施例では、画像を編集可能なドキュメントに変換するシナリオで、本出願の画像処理方法を使用して、モアレを除去してもよい。図3に示すように、当該図は、本出願の実施例によるモアレ除去機能を利用する別の概略フローチャートであり、当該フローは、以下のステップを含むことができる。
S301:スマート機器は、オリジナル画像を取得する。
スマート機器には、モアレ除去機能を有する画像テキスト変換アプリケーションが配置される。当該画像テキスト変換アプリケーションとは、画像(例えば撮影されたスライドショー画像など)を、編集可能なドキュメントに変換するアプリケーションである。スマート機器は、ユーザーが画像テキスト変換アプリケーションのアイコンをクリックした操作に応答して、画像テキスト変換アプリケーションを起動することができる。次に、スマート機器は、ユーザー操作によってオリジナル画像を取得することができ、例えば、コンピュータディスプレイに表示されたPPTを撮影してオリジナル画像を取得したり、ローカルからモアレ付きオリジナル画像を抽出したりする。
S302:スマート機器は、ドキュメント認識再構成をトリガーするためのボタンによるユーザー操作を受信する。
S303:スマート機器は、本出願の画像処理方法を実行して、モアレを除去し、画質を復元する。
S304:スマート機器は、画像認識に基づいて、オリジナル画像の文字コンテンツ及び組み版形態を決定する。
一実施例では、スマート機器は、具体的に、光学文字認識(optical character recognition、OCR)に基づいて、オリジナル画像の文字コンテンツ及び組み版形態を決定することができる。
S305:スマート機器は、文字認識及び組み版後の画像コンテンツデータを表示し、ユーザー確認操作を受信したかどうかを検出する。
S306:そうである場合、スマート機器は、ユーザーの確認操作に基づいて、文字認識及び組み版後の画像コンテンツデータに対して、対応する操作を実行する。
一実施例では、スマート機器は、ユーザーの確認操作に基づいて、文字認識及び組み版後の画像コンテンツデータを共有ドキュメントにインポートしたり、ドキュメントの形態でローカルメモリに記憶したりすることができる。他の実施例では、スマート機器は、ユーザーの編集操作を受信して、例えば、正しく認識されていない文字の追加や変更、正しく認識されていない画像の追加などの、表示された文字認識及び組み版後の画像コンテンツデータへの編集を実現することができる。
以下に、本出願におけるモアレを除去する画像処理方法を説明する。
モアレ付き画像を研究した結果、モアレにはマルチスケール及びマルチ空間周波数帯域特性があることを発見した。同一の画像は、異なるスケールで、モアレの形状が異なり、例えば、同一のモアレ付き画像は、256×256、384×384、512×512などのスケールで、モアレの表現形状が異なる。図4は、同一の画像を異なるスケールサイズにスケーリングする局所表示であり、モアレ形状が異なり、各スケールのモアレのデータ分布は、その独特性を有し、モアレを除去する1つの画像処理モデルは、マルチスケールの様々な形態のモアレに対応して処理できる。図4において、右側の画像の解像度は、左側の画像の解像度よりも大きく、簡単に、左側の画像を拡大した後、モアレの表現形態が異なるとみなし、例えば、「メッセージ送信」の近傍の画像部分について、左側の画像は、「メッセージ送信」の下方の縞が分散し、上方の縞が密集し、右側の画像は、「メッセージ送信」の下方の縞が密集し、上方の縞が分散し、縞の太さも異なる。
一方、同一の画像について、異なる空間周波数帯域におけるモアレ形状も異なる。ラプラシアンピラミッドを使用してモアレを複数の空間周波数帯域に分解すると、各空間周波数帯域におけるモアレ形状が異なることを発見した。図5に示すように、ラプラシアンピラミッドに対応する5つの空間周波数帯域において、モアレの形状は異なり、具体的に、全ての空間周波数帯域にモアレの痕跡があるわけではなく、図5から分かるように、各空間周波数帯域のモアレのデータ分布も異なり、低周波数では太い色かぶりの縞を示す傾向があり、高周波数では灰色の細い縞を示す傾向がある。画像処理モデルを設計するときに、本出願は、このようなマルチ空間周波数帯域の相違性を利用して、各空間周波数帯域においてモアレを選択的に除去する。
上記の図4、図5は、モアレの2つの特性を説明するための図であり、図4及び図5において、モアレに関する形態を説明するだけであり、図4及び図5においてモアレ以外の他の画像コンテンツは意味がない。
一実施例では、図6を参照し、当該図は、本出願の実施例による画像処理方法の概略フローチャートであり、本出願の実施例は、スマートフォン、タブレットコンピューター、パソコン、及びサーバーなどのスマート機器によって実行することができ、上記の研究に基づいて決定されたモアレ特徴を使用して、最適化された画像処理モデルを構築及びトレーニングし、当該特別な的画像処理モデルによってモアレの除去処理を実現する。具体的に、本出願の実施例の上記の方法は以下のステップを含む。
S601:スマート機器は、オリジナル画像を取得する。
上記のように、当該オリジナル画像は、電子ディスプレイに表示されたコンテンツを撮影するときに得られたモアレ付き画像であってもよく、ローカル又はネットワークから取得したモアレ付き画像であってもよく、ユーザーは、関連するアプリケーションを実行することによって、処理する必要のあるオリジナル画像を取得し、これにより、明瞭なモアレなし画像を取得し、共有ドキュメントなどを編集できる。
S602:スマート機器は、画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行し、ターゲット画像を取得する。
前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理することによって前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である。
本出願の実施例による前記画像処理モデルの構成を図7に示す。ラプラシアンピラミッドを導入して、オリジナル画像に対応するマルチ空間周波数帯域の特徴マップを取得し、また、得られたマルチ空間周波数帯域の特徴マップにおいて、オリジナル画像の異なるスケールの特徴マップを表現し、画像処理モデルにおいて、異なる空間周波数帯域及び異なるスケールにおけるモアレ形態を十分に考慮する。つまり、従来の技術と比べると、本出願の実施例では、画像処理モデルは、ラプラシアンピラミッドを導入し、さらに教師あり又は自己教師ありモデルトレーニング方式に基づいて、モアレを除去するのに適した画像処理モデルを取得し、従来のエッジ抽出技術に基づいて構築されたモデルと比較して、画像内のモアレをより簡単且つ包括的に除去できる。
図7に示すように、本出願の実施例による画像処理モデルでは、オリジナル画像701に対して、まずM=6回の初期分析処理を実行し、オリジナル画像に対応するN=5個のスケールにおける初期特徴マップを取得する。本出願の実施例では、ラプラシアンピラミッドは5層であり、そのため、M=6回の初期分析処理は以下を含むことができる。
オリジナルスケールのオリジナル画像701に対して、ダウンスケールの畳み込み処理又はダウンサンプリング後の畳み込み処理を実行して、1/2スケールの初期特徴マップ702を取得する。
1/2スケールの初期特徴マップ702に対して、畳み込み処理を直接実行して、1/2スケールの初期特徴マップ703を取得する。いくつかの実施例では、1/2スケールの初期特徴マップ702に対して、畳み込み処理を直接実行して、1/2スケールの初期特徴マップ703を取得することは、選択可能なステップである。
1/2スケールの初期特徴マップ703に対して、さらにダウンスケールの畳み込み処理又はダウンサンプリング後の畳み込み処理を実行して、1/4スケールの初期特徴マップ704を取得し、前記初期特徴マップ703が存在しない場合に、1/2スケールの初期特徴マップ702に対して、直接に関連する処理を実行して、当該1/4スケールの初期特徴マップ704を取得することができる。
1/4スケールの初期特徴マップ704に対して、さらにダウンスケールの畳み込み処理又はダウンサンプリング後の畳み込み処理を実行して、1/8スケールの初期特徴マップ705を取得する。
1/8スケールの初期特徴マップ705に対して、さらにダウンスケールの畳み込み処理又はダウンサンプリング後の畳み込み処理を実行して、1/16スケールの初期特徴マップ706を取得する。
1/16スケールの初期特徴マップ706に対して、さらにダウンスケールの畳み込み処理又はダウンサンプリング後の畳み込み処理を実行して、1/32スケールの初期特徴マップ707を取得する。
M=6、N=5は、単なる例であり、他の実施例では、M=N又はM>Nであり、且つ、M、Nが他の整数値である。
上記の各スケールの初期特徴マップを取得した後、前述した初期特徴マップに対して、それぞれ中間特徴の畳み込み処理を実行して、対応するN個のスケールの中間特徴マップを取得し、次に、1/32スケールの初期特徴マップ707に対応する中間特徴マップから層ごとにアップサンプリング畳み込みを開始し、アップサンプリング畳み込み結果及び同じスケールの中間特徴マップに対してスティッチング処理(concatenate)を実行し、スティッチング処理結果に対して引き続きアップサンプリング畳み込みを実行し、5つの異なる空間周波数帯域、異なるスケールの特徴マップを含むラプラシアンピラミッドが生成されるまで、スティッチング処理プロセスを繰り返す。
図7において、ラプラシアンピラミッドに含まれるN個の空間周波数帯域に対応する特徴マップはそれぞれ、5番目の空間周波数帯域(図7におけるband4)に対応する特徴マップ710、4番目の空間周波数帯域(図7におけるband3)に対応する特徴マップ711、3番目の空間周波数帯域(図7におけるband2)に対応する特徴マップ712、2番目の空間周波数帯域(図7におけるband1)に対応する特徴マップ713、1番目の空間周波数帯域(図7におけるband0)に対応する特徴マップ714である。本出願の実施例では、5番目の空間周波数帯域が、ラプラシアンピラミッドの最上層である。
本出願で言及されているスティッチング処理は、前記画像処理モデルのネットワーク構造設計における1つの操作であり、特徴を組み合わせるために使用され、具体的に、複数の畳み込み特徴抽出フレームが抽出した特徴を融合すること、又は、出力層の情報を融合することである。他の実施例では、本出願に係るスティッチング処理は、重ね合わせ処理(add)に置き換えられてもよく、重ね合わせ処理は、要するに、情報の間の直接の重ね合わせである。
一実施例では、N個の空間周波数帯域に対応する特徴マップに対してサイズ調整及びスティッチング処理を実行した後、第1の処理結果特徴マップ716を取得する。N個の空間周波数帯域に対応する特徴マップ及び予測特徴マップ715に対してサイズ調整及びスティッチング処理を実行した後、第1の処理結果特徴マップ716を取得してもよい。
画像処理モデルトレーニング段階で、モアレ付きトレーニング画像及び当該トレーニングオブジェクトに対応する監視画像(監視画像にはモアレがない)について、トレーニング画像を図7に示す画像処理モデルに入力して、N(例えば5)層ラプラシアンピラミッドに対応するN(例えば5)個の空間周波数帯域のモデル予測特徴マップを取得する。他方で、監視画像に対してラプラシアンピラミッド処理を直接実行してN(例えば5)個の空間周波数帯域の監視特徴マップを取得し、N(例えば5)個の空間周波数帯域のモデル予測特徴マップとN(例えば5)個の空間周波数帯域の監視特徴マップとの間の損失関数値を計算し、計算されたN(例えば5)個の損失関数値が最小となるように、図7に示す各畳み込み処理における関連畳み込みパラメータを繰り返し調整する。大量のトレーニング画像及び監視画像に基づくトレーニングは、モアレのスケール及び空間周波数帯域特性を考慮した画像処理モデルを取得することができ、取得した画像処理モデルは、画像におけるモアレをより簡単且つ包括的に除去することができる。
他の実施例では、ラプラシアンピラミッドの各層特徴マップに基づいて復元することによって対応する画像を取得することができる。図7に示す画像処理モデルは、トレーニング画像に対応するラプラシアンピラミッドの各空間周波数帯域に対応する特徴マップ(ラプラシアンピラミッドの5層空間周波数帯域に対応する特徴マップ)、又は、トレーニング画像に対応するラプラシアンピラミッドの各空間周波数帯域に対応する特徴マップとトレーニング画像に対応する予測特徴マップに基づいて、サイズ調整及びスティッチング処理を実行して、モアレが除去された後のターゲット画像を取得する。本実施例では、当該ターゲット画像及びトレーニング画像に対応する監視画像の間の損失関数値を直接計算し、計算された損失関数値が最小となるように、図7に示す各畳み込み処理における関連畳み込みパラメータを繰り返し調整する。大量のトレーニング画像及び監視画像に基づくトレーニングは、モアレのスケール及び空間周波数帯域特性を考慮した画像処理モデルを取得することができ、取得した画像処理モデルは、モアレの除去をより簡単かつ包括的に実現することができる。
画像処理モデルを使用してオリジナル画像を認識する段階で、処理対象となるオリジナル画像を、直接、画像処理モデルの入力とし、パラメータが最適化された後の畳み込み、ダウンサンプリングなどの処理により、マルチ空間周波数帯域、マルチスケールにおいてモアレ除去処理を実行したターゲット画像を最終的に出力する。
本出願の実施例は、異なるスケール及び異なる空間周波数帯域におけるモアレの相違性に対して、モアレを除去するための画像処理モデルで、ラプラシアンピラミッドに基づいて構築されたマルチスケールモデルを設計し、ラプラシアンピラミッドの複数の周波数帯域における特徴マップを利用し、異なるスケール、異なる周波数帯域においてモアレを包括的に除去できる画像処理モデルをトレーニングして取得することができ、これにより、より優れたモアレ除去効果を簡単に実現できる。
別の実施例では、画像処理モデルを構築するために考慮される上記のモアレ特性に基づいて、画像におけるモアレをより良好に除去することができるようになっている。さらに、研究を経て、オリジナル画像をファジーする場合、一部の平坦な領域のモアレを除去することができるため、これらの平坦な領域は直接、最終結果を構築するために使用でき、ネットワークでこの能力を学習する必要がない。モアレ付き画像は、光照環境が理想的ではなく、画像の輝度が不均衡になることがよくあり、光照を明示的に表すことができれば、モデルがどのようにモアレを除去するかにより注目することに役立つ。これに基づいて、図8、図9を参照して、本出願の実施例による画像処理方法を以下でさらに説明する。
図8は、本出願の実施例による別の画像処理方法の概略フローチャートを示し、本出願の実施例で説明する方法は、スマートフォン、タブレットコンピューター、パソコンなどのスマート機器によって実現でき、前記方法は、以下のステップを含む。
S801:スマート機器は、オリジナル画像を取得する。
スマート機器は、オリジナル画像を取得した後、画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行し、ターゲット画像を取得することができ、具体的な手順は、以下のステップを含むことができる。
本出願の実施例では、図9に示すように、前記画像処理モデルは、マルチバンドモジュール901、予測モジュール902、超解像モジュール903を含む。前記画像処理モデルのトレーニング手順では、マルチバンドモジュール901、予測モジュール902、超解像モジュール903における関連モデルパラメータを最適化するために、マルチバンドモジュール901のトレーニング処理結果、予測モジュール902のトレーニング処理結果、及び超解像モジュール903のトレーニング処理結果を組み合わせて、損失関数値を総合的に計算して、総合的に計算された損失関数値が最小となるようにする必要がある。勿論、マルチバンドモジュール901、予測モジュール902、超解像モジュール903における関連モデルパラメータを最適化するために、超解像モジュール903によって最終的に出力されるトレーニング結果に対応する損失関数値のみを計算し、超解像モジュール903の出力結果に基づいて対応して計算された損失関数値が最小となるようにしてもよい。
S802:スマート機器は、画像処理モデルを実行して、前記マルチバンドモジュールにより、第1の処理結果特徴マップを取得する。
前記マルチバンドモジュール901は、ラプラシアンピラミッドに基づいて構築される。一実施例では、前記S802は、以下のステップを含むことができる。
S8021:スマート機器は、画像処理モデルを実行して、前記マルチバンドモジュール901により、前記オリジナル画像に対して初期分析処理をM回実行して、N個のスケールの初期特徴マップを取得し、Mは、2以上の正の整数である。前記初期分析処理は、オリジナル画像に対して、まずダウンサンプリングを実行し、次に、畳み込み処理を実行すること、又は、オリジナル画像に対して、ダウンスケールの畳み込み処理を実行することを含む。Mは、N以上であり、M及びNはすべて、正の整数である。N個のスケールの初期特徴マップは、図9に示す領域9001のコンテンツであり、本出願の実施例では、Mは、Nよりも大きく、具体的に、M=N+1であるため、M回の初期分析処理を実行した後、1つの1/2スケールにおける特徴マップ、即ち、図9に示す領域9002部分のコンテンツを取得する。
S8022:スマート機器は、前記N個のスケールの初期特徴マップに対して、畳み込み処理を実行して、N個のスケールの中間特徴マップを取得する。N個のスケールの中間特徴マップは、図9における初期特徴マップから下への畳み込みconv矢印が指す5つの特徴マップである。
S8023:スマート機器は、N個のスケールの中間特徴マップに基づいて、N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップを取得する。なお、前記N個の空間周波数帯域に対応する特徴マップのうち、N番目の空間周波数帯域の特徴マップは、前記中間特徴マップのうちスケールが最も小さいN番目の中間特徴マップに基づいて取得され、前記N個の空間周波数帯域に対応する特徴マップのうち、N-i番目の空間周波数帯域の特徴マップは、N番目の中間特徴マップ、N-i番目の中間特徴マップ及びN番目の中間特徴マップからN-i番目の中間特徴マップまでの間の全ての中間特徴マップに基づいて取得され、前記iは、1以上N未満の正整数である。
図9を例にとると、スケールが最も小さい中間特徴マップを5番目の空間周波数帯域に対応する特徴マップをとして使用する。5-1(即ち、i=1)=4番目の空間周波数帯域に対応する特徴マップは、5-1=4番目の中間特徴マップ、及び5番目の中間特徴マップに対してアップサンプリング畳み込みupを実行した後に得られた特徴マップに基づいてスティッチング処理を実行して得られる。5-2(即ち、i=2)=3番目の空間周波数帯域に対応する特徴マップは、3番目の中間特徴マップ、4番目の中間特徴マップ及び5番目の中間特徴マップから取得する必要がある。具体的に、5番目の中間特徴マップのアップサンプリング畳み込み後の特徴マップと4番目の中間特徴マップに対してスティッチング処理を実行し、スティッチング処理後の特徴マップに対して、さらにアップサンプリング畳み込みを実行した後、3番目の中間特徴マップとのスティッチング処理を実行し、3番目の空間周波数帯域に対応する特徴マップを取得することができ、これによって類推する。
S8024:スマート機器は、N個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得する。スマート機器は、N個の空間周波数帯域に対応する特徴マップを取得した後、これらの空間周波数帯域に対応する特徴マップに基づいてスケール調整を直接実行し、スティッチング処理によって1つの大きな特徴マップを取得し、当該大きな特徴マップを、第1の処理結果特徴マップとして記す。
一実施例では、前記S8024は、スマート機器が予測特徴マップを取得することを含んでもよく、前記予測特徴マップは、N番目の中間特徴マップ、1番目の中間特徴マップ及びN番目の中間特徴マップから1番目の中間特徴マップまでの間の全ての中間特徴マップに基づいて得られる。図9に示すように、予測特徴マップは、図9の領域9004における2つの特徴マップのスティッチング処理後に得られたものであり、当該2つの特徴マップのうち1つは、初期特徴マップ9002を畳み込みして得られた中間特徴マップであり、もう1つは、5番目の中間特徴マップからアップサンプリング畳み込み、スイッチングを実行して得られた特徴マップである。N個の空間周波数帯域に対応する特徴マップのうち前記予測特徴マップのスケールよりも小さいスケールを有する特徴マップに対してサイズ調整resizeを実行し、調整後の空間周波数帯域に対応する特徴マップのスケールが前記予測特徴マップのスケールと等しいようにする。予測特徴マップ及び調整後の空間周波数帯域に対応する特徴マップに基づいて、第1の処理結果特徴マップを取得する。N個の空間周波数帯域に対応する特徴マップに基づいてスケール調整を直接実行した後、予測特徴マップとのスティッチング処理を実行して、1つの大きな特徴マップを取得し、当該大きな特徴マップを第1の処理結果特徴マップと記し、当該大きな特徴マップは、図9に示す特徴マップ9003である。5つの周波数帯域の出力は、これらの出力が理論的に最終的な出力と線形関係であり、情報量が非常に豊富な上位特徴であるため、多重化される。
スマート機器は、N個の空間周波数帯域に対応する特徴マップを取得した後、N個の空間周波数帯域に対応する特徴マップに基づいてターゲット画像を取得することができ、つまり、第1の処理結果特徴マップに基づいてターゲット画像を取得する。スマート機器は、第1の処理結果特徴マップに基づいてターゲット画像を直接取得してもよく、具体的に、下記のステップを実行して第1の処理結果特徴マップに基づいてターゲット画像を取得することができる。
S803:スマート機器は、予測モジュールにより、第1の処理結果特徴マップに基づいて第2の処理結果特徴マップを取得する。
前記予測モジュールは、注意力メカニズムに基づいて構築されるものであり、前記S803は、具体的に、以下のステップを含むことができる。
S8031:スマート機器は、オリジナル画像に対してファジー処理を実行した後に得られたファジー特徴マップを取得する。
S8032:スマート機器は、第1の処理結果特徴マップ及び前記ファジー特徴マップに基づいて、前記予測モジュールにより、第2の処理結果特徴マップを取得する。
前記ファジー処理は、ガウスファジー処理を使用することができる。
図9に示すように、注意力メカニズムに基づいて構築された前記予測モジュールについて、第1の処理結果特徴マップから、ネットワークを介して複数のRGB3チャネルの特徴マップmapを予測する。いくつかの可能な実現方式では、複数のRGB3チャネルの特徴マップは、画素毎加重パラメータ特徴マップattention0(例えば図9における特徴マップ9005)及び画素毎加重パラメータ特徴マップattention1(例えば図9における特徴マップ9006)、RGB出力特徴マップ(例えば図9における特徴マップ9007)、照明乗算係数特徴マップalpha(例えば図9における特徴マップ9008)、照明加算係数特徴マップbeta(例えば図9における特徴マップ9009)を含む。
一実施例では、予備的結果特徴マップRGBweighted=attention0*blured+attention1*RGBである。bluredは、上記の、オリジナル画像に対してファジー処理を実行した後に得られたファジー特徴マップ9010である。図9に示す画像処理モデルでは、ファジー特徴マップ9010は、オリジナル画像に対してファジー処理を実行してサイズを調整した後の特徴マップであり、ファジー特徴マップのサイズは、第1の処理結果特徴マップのサイズと同じである。一実施例では、画素毎加重パラメータ特徴マップattention0、画素毎加重パラメータ特徴マップattention1、RGB出力特徴マップは、それぞれ、第1の処理結果特徴マップに基づいて、畳み込み計算により取得される。
特徴マップRGBweightedに基づいて、照明係数を使用して、不当な明暗変化を除去する。
特徴マップresult=RGBweighted*alpha+betaである。alpha及びbetaも、第1の処理結果特徴マップに基づいて畳み込み計算により取得されるものである。
attention0、attention1、RGB出力特徴マップ、alpha及びbetaについて、モデルのトレーニング中に、適切な畳み込みパラメータを取得するように、大量の損失関数値に基づいて、第1の処理結果特徴マップからこれらの特徴マップへの畳み込み計算の畳み込みパラメータを繰り返して調整及び最適化して、マルチバンドモジュールによって出力される結果から、モアレの除去とオリジナル画像の画質の復元を支援するために使用される適切なattention0、attention1、RGB出力特徴マップ、alpha及びbetaを取得することができる。
特徴マップresult 9011は、第2の処理結果特徴マップであり、これにより、1/2スケールのモアレ除去結果が得られ、同時に、照明の変化が復元される。
第2の処理結果特徴マップを取得した後、第2の処理結果特徴マップに基づいてターゲット画像を取得することができ、具体的に、さらに、後述の超解像処理を実行して最終的なターゲット画像を取得することができ、一実施例では、当該第2の処理結果特徴マップに基づいてターゲット画像を直接取得することができ、後述の超解像モジュールにより超解像処理を実行する必要はない。
S804:スマート機器は、超解像モジュールにより、第2の処理結果特徴マップに基づいてターゲット画像を取得する。
前記S804は、具体的に、スマート機器が前記第1の処理結果特徴マップに基づいて参照特徴マップを取得し、前記第2の処理結果特徴マップを処理して中間結果特徴マップを取得することを含む。前記参照特徴マップのスケールは、前記オリジナル画像のスケールと同じであり、前記中間結果特徴マップのスケールは、前記オリジナル画像のスケールと同じである。スマート機器は、前記参照特徴マップ及び前記中間結果特徴マップ、並びに前記超解像モジュール903に基づいて、ターゲット画像を取得する。
スマート機器は、第2の処理結果特徴マップを取得した後、次に、1/2スケールの第2の処理結果特徴マップに対して簡単的な超解像辨率アップサンプリングを実行して、最終的な結果を取得する。一実施例では、まず、1/2スケールの結果を2倍に拡大して、元の解像度でのRGB図になり、result 1.0、即ち、9012として記し、result 1.0は、第2の処理結果特徴マップを2倍に拡大した後の特徴マップを表す。さらに、第1の処理結果特徴マップから、アップ畳み込みで残差値final_residual、即ち9013を取得し、final_residualも、1つの特徴マップを表し、最終的な結果は、出力可能なターゲット画像的特徴マップ9014であり、ターゲット画像の特徴マップ9014は、final_result=result 1.0+final_residualと記すことができ、このようにして超解像を完了し、超解像後のターゲット画像の特徴マップに基づいて、ターゲット画像を復元することができる。
S805:スマート機器は、前記ターゲット画像を出力する。
スマート機器は、具体的に、ユーザー表示インターフェースにターゲット画像を表示することができ、これにより、ユーザーは、記憶、共有、編集、再処理などの機能を実現する。一実施例では、スマート機器は、ターゲット画像及びオリジナル画像をユーザー表示インターフェースに同時に表示することができ、これにより、オリジナル画像とターゲット画像との差をユーザーに知らせることができる。
本出願の実施例は、異なるスケール及び異なる空間周波数帯域におけるモアレの相違性に対して、モアレを除去するための画像処理モデルでは、ラプラシアンピラミッドに基づいて構築されたマルチスケールモデルを設計し、ラプラシアンピラミッドの複数の周波数帯域における特徴マップを利用し、異なるスケール、異なる周波数帯域においてモアレを包括的に除去できる画像処理モデルをトレーニングして取得することができ、また、マルチスケールモデルに加えて注意力メカニズムに基づく予測モジュールを導入し、ファジー画像で一部のモアレを直接除去できる特性及びピクチャ輝度特性を両立することができ、さらに、超解像モジュールを利用し、より優れたモアレ除去効果を簡単に実現できる。
再度図10を参照し、本出願の実施例による画像処理モデルをトレーニングするフローチャートであり、本出願の実施例では、画像処理モデルをトレーニングすることは、主に、サーバー、パソコンなどの性能が強いスマート機器によって実行することができ、本出願の実施例のトレーニングフローによって前述実施例で言及された画像処理モデルを取得することができる。画像処理モデルをトレーニングするフローは、以下のステップを含む。
S1001:スマート機器は、モアレトレーニングデータセットを取得する。
前記モアレトレーニングデータセットは、マッチング画像ペアを含み、当該マッチング画像ペアは、トレーニング画像及び監視画像を含み、前記トレーニング画像は、モアレを有し、前記監視画像は、前記モアレを有しない。
S1002:スマート機器は、モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングして、前記画像処理モデルを取得する。
本出願の実施例では、画像処理モデルに対するトレーニングは、教師ありトレーニングであり、既知の結果に基づいて、画像処理モデルによりトレーニング画像を処理した後の出力結果と比較し、条件(例えば、L2損失関数値が最小となる)を満たす場合、画像処理モデルが当該トレーニング画像に対して有効であると見なし、さもなければ、条件を満たすまで、画像処理モデルにおけるモデルパラメータを調整する。同時に、大量のトレーニング画像及び対応する監視画像を使用して画像処理モデルをトレーニングし、ほとんどの画像に対してモアレ除去処理を実行できる画像処理モデルを取得することができる。
本出願の実施例では、モアレトレーニングデータセットを取得するときに、オリジナル画像データを処理することによってマッチング画像ペアを取得する。本出願は、シミュレーション処理、及びオリジナル画像データを前処理するなどの方法によって、マッチング画像ペアを決定し、このように得られたマッチング画像ペアに基づいて、画像処理モデルをよりよくトレーニングすることができ、また、手順全体は、完全に自動化され、自動でスマートなトレーニングを実現し、画像処理モデルのトレーニング効率を向上させる。
一実施例では、前記モアレトレーニングデータセットを取得することは、オリジナル画像データに基づいて監視画像を取得するステップと、前記オリジナル画像データに基づいて、モアレが追加されたトレーニング画像を取得するステップとを含み、オリジナル画像データに基づいて監視画像を取得するステップと、前記オリジナル画像データに基づいてモアレが追加されたトレーニング画像を取得するステップとの二つのステップは、画像処理モデルのトレーニングを実行したり画像処理モデルを使用したりするスマート機器上で実行でき、オリジナル画像データに対してシミュレーション処理を実行することは、他の専用のシミュレーション装置で実行されてもよい。
一実施例では、前記オリジナル画像データに基づいてモアレが追加されたトレーニング画像を取得することは、オリジナル画像データに対するシミュレーション処理を含み、具体的に、以下のステップを含む。
S11:スマート機器は、オリジナル画像データにおける各画素点を、3つの並列するサブ画素点に分解して、サブ画素画像を取得し、各サブ画素点は、1つの色に対応し、前記オリジナル画像データの色は、赤緑青RGBを含む。スマート機器は、オリジナル画像データの各画素を、3つの並列するサブ画素点に分解し、各サブ画素点の色は、それぞれ、オリジナル画素のRGB値である。
S12:スマート機器は、サブ画素画像のサイズを調整して、前記オリジナル画像データの画像サイズと同じサイズを有する第1の中間画像を取得し、サブ画素新画像を元の解像度にサイズ変更resizeして、前記第1の中間画像を取得する。
S13:スマート機器は、第1の中間画像のうち第1の閾値よりも低い階調値を有する画素点の階調値を第2の閾値として設定して、第2の中間画像を取得する。スマート機器は、階調値が0に近い画素を、0よりも大きい特定の閾値に設定し、例えば、階調値が5や10などの数値未満の画素点をいずれも10に設定し、これは、純黒の画像がディスプレイで微かな輝きを持っているという特性をシミュレートするためである。第2の中間画像を取得した後、さらに、出力画像をディスプレイの視覚効果に近づけるようにガンマgammaを調整し、本出願の実施例では、調整されたガンマ値は、あるランダム値であってもよく、当該ランダム値は、例えば、0.8から1.5の間の任意値であってもよい。
S14:スマート機器は、前記第2の中間画像に径方向の歪みを追加して、第1の歪み画像を取得し、これにより、ディスプレイのスクリーンの曲がりによって引き起こされる画像歪みをシミュレートする。
S15:スマート機器は、前記第1の歪み画像に対してカメラ撮影シミュレーション最適化を実行して、モアレが追加されたトレーニング画像を取得する。
前記S15は、具体的に、取得したモアレが追加されたトレーニング画像を実際のカメラ撮影効果により近づけるように、以下のステップを含むことができる。
S151:スマート機器は、第1の投影変換パラメータに従って、第1の歪み画像に対して投影変換処理を実行して、傾斜シミュレーション画像を取得し、第1の歪み画像に対して投影変換(perspective transform)を実行して、カメラがスクリーンを撮影する際にセンサーがスクリーンに完全に正対できないことによる画像傾斜をシミュレートする。
S152:スマート機器は、カメラによって撮影された画像の輝度分布特徴に基づいて、前記傾斜シミュレーション画像を処理して、輝度シミュレーション画像を取得する。スマート機器は、ベイヤーアレイのカラーフィルターアレイ(color filter array、CFA)サンプリングアルゴリズムを使用して、前のステップで出力された傾斜シミュレーション画像に対して再サンプリング・補間を実行する。一実施例では、再補間後の画像に対してガンマgamma値を再調整し、カメラが撮影するときの画像の輝度分布特性をシミュレートしてもよい。
S153:スマート機器は、前記輝度シミュレーション画像に画像ノイズを追加して、ノイズ点があるノイズシミュレーション画像を取得し、具体的に、撮影結果画像にガウスノイズを追加して、実際のカメラがセンサーイメージングを撮影するときに発生するノイズ点をシミュレートする。
S154:スマート機器は、予め設定された照明係数に従って、ノイズシミュレーション画像を処理して、明暗シミュレーション画像を取得する。スマート機器は、画像の異なる領域に異なる照明係数を乗算して、スクリーンを撮影するときの画像の不均一な明暗の現象をシミュレートする。
最後に得られた明暗シミュレーション画像を、最終的なモアレが追加されたトレーニング画像として使用できる。
一実施例では、前記オリジナル画像データに基づいて監視画像を取得することは、以下のステップを含む。
S21:スマート機器は、オリジナル画像データに対して径方向歪みを追加して、第2の歪み画像を取得する。
当該ステップは、上記のS14で言及されている径方向歪み処理の方式と同じである。
S22:スマート機器は、前記第1の投影変換パラメータに従って、第2の歪み画像に対して投影変換処理を実行して、監視画像を取得する。
当該ステップは、上記のS151で言及されている投影変換処理と同じ投影変換パラメータに基づいており、スマート機器は、監視画像と前述した得られたトレーニング画像をマッチング画像ペアとして組み合わせてもよい。
上記のシミュレーション画像処理では、多くのパラメータを柔軟に調整できるため、より豊かなマッチング画像ペアを取得することができる。より多くのリアルショットモアレ画像をモアレトレーニングデータセットに追加して、画像処理モデルをより適切にトレーニングすることができる。リアルショットモアレ画像について、撮影されたモアレ付き画像とオリジナル画像の間で画素レベルのアライメントを如何に実行するかが難しい。本出願の実施例で採用される画像アライメント方案は、2段階のアライメントであり、まず、2つの画像(オリジナル画像及びディスプレイに表示されたオリジナル画像を撮影して得られた画像)に対して特徴点マッチングを実行して、投影変換を計算し、次に、変換された画像に対してオプティカルフローモーションフィールドを再計算してより細かいアライメントを行い、これにより、投影変換では表現できない画像歪みを補正する。具体的に、前記モアレトレーニングデータセットを取得することは、以下のステップを含むことができる。
S31:スマート機器は、オリジナル画像データを電子ディスプレイに表示し、電子ディスプレイに表示されたオリジナル画像データを撮影して、トレーニング画像を取得する。
S32:スマート機器は、前記トレーニング画像に基づいて、前記オリジナル画像データに対して特徴点マッチング及びオプティカルフローアライメント処理を実行して、監視画像を取得する。
S33:スマート機器は、前記トレーニング画像及び対応する監視画像に基づいてマッチング画像ペアを構築する。
具体的に、前記S32は、以下のステップを含むことができる。
S321:スマート機器は、トレーニング画像及びオリジナル画像データの間で特徴点マッチング処理を実行し、特徴点マッチング処理の結果に基づいて第2の投影変換パラメータを計算し、第2の投影変換パラメータに基づいて前記オリジナル画像データに対して投影変換処理を実行して、投影後のオリジナル画像データを取得する。
上記のS321は、特徴点マッチング(feature matching)処理プロセスである。トレーニング画像及びオリジナル画像データの特徴点を検出して計算する前に、まず、画像に対してノイズ除去を実行してもよい。一実施例では、非局所平均non local meansアルゴリズムを選択することができ、さらに、特徴点検出(features from accelerated segment test、FAST)アルゴリズムを使用して特徴点を検出し、次に、検出された特徴点について、スケール不変特徴変換(scale-invariant feature transform、SIFT)、高速ロバスト特徴(speeded up robust features、SURF)、AKAZE(2つの画像間でマッチングするキーポイントを見つけることができる画像検索方法)、ORB(特徴点抽出及び特徴点説明に関するアルゴリズム)、バイナリロバスト不変スケーラブルキーポイント(binary robust invariant scalable keypoints、BRISK)などの様々なアルゴリズムを使用して、それぞれ特徴値を計算し、それぞれブルートフォースマッチング(brute force matching)を実行する。各ペアの特徴点マッチング結果に対して投票を行い、複数のアルゴリズムの中で、ターゲット特徴点マッチングする結果をサポートできるアルゴリズムがY種類以上ある場合、当該ターゲット特徴点マッチング結果は正しいと見なされる。このようにして、信頼性の高い特徴点マッチング結果を取得することができる。次に、当該特徴点マッチング結果を使用して第2の投影変換パラメータを計算し、オリジナル画像データをトレーニング画像に投影して、予備的なアライメント結果を取得する。
S322:スマート機器は、オプティカルフロー法に基づいて前記トレーニング画像及び前記投影後のオリジナル画像データの間の画素座標対応表を計算する。
当該ステップは、オプティカルフローアライメント処理に対応し、具体的に、オプティカルフロー法(optical flow)に基づく画像歪み処理であってもよい。当該ステップにおいて、第2の投影変換パラメータに基づくアライメント結果は、完全に画素レベルのアライメントではなく、実験統計では平均10画素の差があり、これは主にスクリーンの曲がり及びレンズの歪みが原因である。本出願の実施例では、さらにオプティカルフロー法を使用して最終的な誤差を除去する。具体的に、高密度オプティカルフローモーションフィールドを計算して、トレーニング画像及び投影処理後のオリジナル画像データの間の画素座標の対応表を取得し、次に投影を実行することができる。実験的分析により、最終的に変分オプティカルフローvariational optical flowアルゴリズムを選択し、このアルゴリズムによって得られたオプティカルフローは、滑らかさ及び正確さのより良いバランスを実現できる。使用の詳細に関して、画像勾配をvariationalオプティカルフロー法のデータ項目として使用し、撮影図及びオリジナル画像の間の輝度の差を効果的に回避でき、また、トレーニング画像及び前記投影後のオリジナル画像データの両方でまず、ガウスファジーを実行する必要があり、モアレノイズの影響を除去するだけでなく、画像をより滑らかでより導きやすくする。
S323:スマート機器は、前記画素座標対応表に基づいて投影後のオリジナル画像データに対して投影最適化を実行して、トレーニング画像に対応する監視画像を取得する。
S321、S322、S323の後、トレーニング画像及び監視画像は、基本的に画素レベルでアライメントされ、このようにして、これらの画素点レベルでアライメントされたトレーニング画像及び監視画像を使用して、初期モデルをトレーニングして画像処理モデルを取得することが保証される。当該画像処理モデルは、モアレ付き画像に対してモアレ除去処理を実行した後、通常のスケール、通常のコンテンツのターゲット画像を取得し、ターゲット画像とオリジナルのモアレ付き画像のコンテンツが一致しないことはない。
大量のマッチング画像ペアを取得した後、初期モデルをトレーニングすることができる。前記初期モデルの構成は、同様に、図9に示す構成を参照することができる。初期モデルをトレーニングすることについて、以下の複数のモデルトレーニング方式のうち任意の1つ又は複数の組み合わせを考慮することができる。
第1の種類のモデルトレーニング方式は、次のとおりである。
一実施例では、初期モデルつまり画像処理モデルは、同時に、マルチバンドモジュール、注意力メカニズムに基づく予測モジュール、超解像モジュールを含むことができ、超解像モジュールによって出力される結果は、モデル出力結果であり、トレーニング手順では、マルチバンドモジュール、予測モジュール、超解像モジュールによって出力されるトレーニング結果に基づいて、それぞれL2損失関数によってそれぞれの損失関数値を決定し、損失関数値に基づいてモデルパラメータを調整して最適化することができる。具体的に、モデルの3つの出力結果に基づいて初期モデルに対して教師ありトレーニングを実行する概略図を図11に示す。
初期モデルが同時に、マルチバンドモジュール、予測モジュール、超解像モジュールを含む場合に、前記モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングすることは、以下のステップを含む。
モアレトレーニングデータセットのマッチング画像ペアのうちトレーニング画像を初期モデルの入力とし、初期モデルにより処理して、マルチバンドモジュールによって出力される第1の結果1101、予測モジュールによって出力される第2の結果1102、及び超解像モジュールによって出力される第3の結果1103を取得し、前記第1の結果1101は、トレーニング画像のN層ラプラシアンピラミッドに対応するN個の空間周波数帯域の特徴マップを含み、図11に示すように、5層のラプラシアンピラミッドは、5つの空間周波数帯域の特徴マップを取得することができ、第1の結果は、5つの空間周波数帯域に対応する5つの特徴マップであり、前記第2の結果は、前記トレーニング画像に対応する第2の結果特徴マップを含み、前記第3の結果は、前記トレーニング画像に対応するターゲット画像を含む。
モアレトレーニングデータセットのマッチング画像ペアのうち前記監視画像に対してN層ラプラシアンピラミッド処理を実行して、前記監視画像に対応するN個の空間周波数帯域の特徴マップを取得し、前記監視画像に対応するN個の空間周波数帯域の特徴マップと前記第1の結果1101のうち前記N個の空間周波数帯域の特徴マップとのN個の基礎損失関数値を取得し、監視画像に対してN層ラプラシアンピラミッド処理を実行して、監視画像のN個の空間周波数帯域の特徴マップを取得し、特徴マップセット1104における5つの特徴マップを図11に示す。特徴マップセット1104における特徴マップと第1の結果1101における同じスケールの特徴マップとの間は、L2損失関数に基づいて損失値を計算することができ、図11では、5つの基礎損失関数値が得られる。
前記監視画像に対して解像度処理を実行した後の画像と第2の結果1102との間の第1の損失関数値を取得し、監視画像に対して解像度処理を実行した後、画像1105が得られる。第2の結果1102 と画像1105の間は、L2損失関数に基づいて損失値を計算することができる。
前記監視画像1106と第3の結果1103との間の第2の損失関数値を取得し、前記監視画像1106と第3の結果1103の特徴マップの間は、L2損失関数に基づいて損失値を計算することができる。
N個の基礎損失関数値、前記第1の損失関数値及び前記第2の損失関数値に基づいて、前記初期モデルのモデルパラメータを最適化して、画像処理モデルを取得する。
上記の説明に基づいて、図11のモデルでは、それぞれ、5つ、1つ、1つのL2損失関数がある。最終的な損失関数は、7つのL2損失関数値を直接加算すればよく、各L2損失の画素数の差によるオーダの違いにより、直接加算することは合理的な重みである。
一実施例では、初期モデルつまり画像処理モデルは、マルチバンドモジュールを含むことができ、マルチバンドモジュールによって出力される結果は、モデル出力結果である。トレーニング手順では、マルチバンドモジュールによって出力されるトレーニング結果に基づいて、L2損失関数によって損失関数値を決定し、損失関数値に基づいて各モデルパラメータを調整して最適化することができる。
一実施例では、初期モデルつまり画像処理モデルは、マルチバンドモジュール及び注意力メカニズムに基づく予測モジュールを含むことができ、予測モジュールによって出力される結果は、モデル出力的結果である。トレーニング手順では、マルチバンドモジュール、注意力メカニズムに基づく予測モジュールのそれぞれによって出力される結果に基づいて、それぞれL2損失関数によって、それぞれの損失関数値を決定し、損失関数値に基づいて各モデルパラメータを調整して最適化することができる。
第2の種類のモデルトレーニング方式は次のとおりである。
一実施例では、画像処理モデルのモアレ除去能力を向上させるために、さらに、モアレ画像が、各スケールで異なるモアレパターンを有することを考慮して、画像処理モデルの初期モデルをトレーニングするときに、マルチスケール学習を行う。具体的に、前記モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングすることは、
モアレトレーニングデータセットのターゲットマッチング画像ペアのうち画像に対してサイズ調整処理を実行して、P個の異なるサイズの変形マッチング画像ペアを取得するステップと、
P個の変形マッチング画像ペアに基づいて、初期モデルをトレーニングして、P個の損失関数値を取得し、P個の損失関数値に基づいて前記初期モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得するステップと、を含む。
各マッチング画像ペアのトレーニングサンプルについて、256×256、384×384、512×512、768×768などの解像度にスケーリングした後、複数の異なるスケールの変形マッチング画像ペアを取得し、各変形マッチング画像ペアは、単独で1つのトレーニング用データとして、それぞれ初期モデルに入力され、例えば上記の第1の種類のモデルトレーニング方式に従ってトレーニングしてから、それぞれ損失関数値を計算し、最後に損失関数値を加算してトレーニングし、即ち、総損失関数値は、全ての損失関数を加算したものであり、最適化されたモデルは、対応する各損失関数値を加算した値が最小値となるようにする。このように、1つのサンプルをトレーニングするたびに、初期モデルに異なる解像度でのモアレパターンを同時に学習させることができ、モアレ除去能力を学習した初期モデルは、よりロバストを持っている。実践を通して、一般的、解像度が大きいほど、モアレの除去効果が高くなる現象を発見した。
第3の種類のモデルトレーニング方式は次のとおりである。
モアレ付き画像をより多く使用してモデルトレーニングを実行するために、本出願は、大量のモアレ付き画像に基づいてモデルを直接トレーニングしてもよい。一実施例では、画像処理方法における画像処理モデルに関するトレーニングは、以下のステップを含んでもよい。
モアレ画像セットにおける前記トレーニング画像に対してサイズ拡大調整を実行して、ターゲットサイズのモアレ拡大画像を取得する。モアレ画像セットに、マッチング画像ペアが存在しなく、モアレ画像セットに、モアレ付きモアレ画像のみが含まれ、モアレ画像に対応する監視画像はない。前述の実施例で説明したシミュレーション処理などの処理方式によってマッチング画像ペアを取得し、撮影によってモアレ付き画像を取得し、特徴点マッチング、オプティカルフロー法処理などを実行してマッチング画像ペアを取得することと比較して、モアレ付き画像を直接取得する方法はより簡単であり、例えば、カメラの位置を調整した後、コンピュータのディスプレイに表示された画像を狙い一定の時間間隔で撮影し、同時に、コンピュータディスプレイは、一定の時間間隔で異なる画像コンテンツを切り替え、カメラに撮影させ、大量のモアレ付きモアレ画像を簡単に取得することができる。
トレーニング手順では、第1の画像処理モデルを実行して前記モアレ拡大画像に対して除去モアレ処理を実行して、モアレ監視画像を取得する。上記で言及されているモアレトレーニングデータセットにおける各マッチング画像ペアに基づいてトレーニングして得られたモデルを第1の画像処理モデルとして使用することができる。例えば、上記の第1の種類のモデルトレーニング方式及び/又は第2の種類のモデルトレーニング方式によって初期モデルをトレーニングして得られた画像処理モデルを前記第1の画像処理モデルとする。第1の画像処理モデルは、他のトレーニング方式でトレーニングされたモアレを除去するためのモデルであってもよい。当該第1の画像処理モデルを基礎とし、さらに、大量のモアレ付き画像に基づいて自己監視トレーニングを実行して、より優れたパフォーマンスの画像処理モデルを取得する。
前記モアレ監視画像及び前記モアレ拡大画像に対してスケーリング処理を実行して、複数のモアレ画像ペアを取得する。複数のモアレ画像ペアに基づいて、前記第1の画像処理モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得する。
第2の種類のモデルトレーニング方式に対応するマルチスケール学習プロセスで、1つのモアレ付き画像をより大きな解像度にスケーリングすると、モアレは容易にモデルによって除去されることを発見した。当該発見に基づいて、第1の画像処理モデルに対する自己教師あり学習を実行する。第1の画像処理モデルトによってこのロットのラベルなしデータ(即ち、モアレ画像セットにおける大量のモアレ画像)をレーニングするときに、モアレ画像のオリジナル画像を1664×1664(又は他の大きなサイズ)に拡大し、第1の画像処理モデルを実行してモアレ除去処理を行い、前記第1の画像処理モデルによって出力される結果を対応するモアレ画像のモアレ監視画像ground truthとして使用し、モアレ画像及びそのモアレ監視画像で構成されるモアレマッチング画像ペアについて、同時にモアレマッチング画像ペアを256×256、384×384、512×512、768×768などのスケールにスケーリングし、第1の画像処理モデルに対してマルチスケールトレーニングを再度実行する。収束までトレーニングした後、最終的に必要なより優れたパフォーマンスの画像処理モデルを取得できる。
一実施例では、新たにトレーニングされたモデルを新しい第1の画像処理モデルとして使用することもでき、新しい第1の画像処理モデルによって1664×1664(又は他の大きなサイズ)のモアレ画像のモアレを除去し、自己監視トレーニングを再度実行する。このようにして繰り返して、最終的に、画像におけるモアレを除去できる1つ又は複数の画像処理モデル取得することができる。
一実施例では、上記の拡大処理、第1の画像処理モデル除去モアレ処理によって得られた複数のモアレ画像ペアに基づいて、前記第1の画像処理モデルにおけるモデルパラメータを最適化して得られたモデルを、第1のバージョンの画像処理モデルとして使用する。
前記第1のバージョンの画像処理モデルを新しい第1の画像処理モデルとして使用することで、前記モアレ画像セットに基づいて前記新しい第1の画像処理モデルをトレーニングして、第2のバージョンの画像処理モデルを取得する。さらに、第2のバージョンの画像処理モデルを新しい第1の画像処理モデルとすることができ、このように繰り返して、複数のバージョンの画像処理モデルを取得することができる。
2つ以上のバージョンの画像処理モデルを取得した後、画像処理モデルを実行して前記オリジナル画像に対してモアレ除去処理を実行して、ターゲット画像を取得するプロセスは、以下のステップを含むことができる。
前記第1のバージョンの画像処理モデル及び前記第2のバージョンの画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行して第1の画像及び第2の画像を取得する。勿論、複数のバージョンの画像処理モデルがある場合、他のバージョンの画像処理モデルを実行してオリジナル画像に対してモアレ除去処理を実行し、他の画像を取得してもよい。
前記第1の画像及び前記第2の画像に基づいて、ターゲット画像を取得する。第1の画像及び第2の画像、さらにより多くのバージョンの画像処理モデルによりモアレ除去処理を実行した後に得られた画像に基づいてターゲット画像を決定するときに、全てのバージョンの画像処理モデルによって出力される画像のうち、局所画像領域ごとに、ひいては画素点ごとに比較し、モアレ除去効果が最も優れた局所画像領域又は画素点によってターゲット画像を構築することができる。つまり、複数回トレーニングした後に、複数のバージョンの画像処理モデルを取得することができ、これらの画像処理モデルは、能力にそれぞれ重みがあるため、これらの画像処理モデルを使用してそれぞれオリジナル画像におけるモアレを除去してから、結果をマージすることができ、より優れたモアレ除去効果を取得することができる。
一実施例では、マージ方法は、各バージョンの画像処理モデルによって出力される画像のうち局所画像領域及び/又は画素点に対して、勾配が最も小さい局所画像領域及び/又は画素点を決定し、勾配が最も小さい局所画像領域及び/又は画素点を選択し、選択された各局所画像領域及び/又は画素点に基づいて、最後にターゲット画像を構築し、例えば、画像を、上下2つの局所画像領域に分割し、第1の画像の上半分の局所画像領域の勾配は、第2の画像の上半分の局所画像領域よりも小さく、第2の画像の下半分の局所画像領域の勾配は、第1の画像の下半分の局所画像領域より小さく、そのため、第1の画像の上半分の局所画像領域と第2の画像の下半分の局所画像領域をマージして、最終的なターゲット画像を取得することができる。
他の実施例では、第1の画像、第2の画像、さらにより多くのバージョン画像処理モデルによって出力される画像から、除去効果が最も優れた画像を最終的なターゲット画像として直接選択し、2つ以上のバージョン画像処理モデルによって出力される画像をインターフェースに同時に表示し、ユーザーによる選択操作を受信し、ユーザーによる選択操作によって選択された画像を最終的なターゲット画像とすることができる。
上記の方式で画像処理モデルを取得した後、画像処理モデルによって出力される結果をより真実にするために、画像処理モデルのモデルパラメータは、敵対的生成ネットワークによりさらに微調整することができる。敵対的生成ネットワークの弁別器の作用は、ネットワーク出力画像と真実のモアレなし画像を区別することであり、その損失関数は、分類のクロスエントロピーである。敵対的生成ネットワークの生成器の損失関数は、負の判別器損失関数と、生成図と旧モデル生成図との差のL2損失関数という2つの部分で加算される。敵対的生成ネットワークの損失関数の設計目的は、画像処理モデルがより真実のモアレなし画像を生成するだけでなく、モアレを除去する能力がオリジナル画像処理モデルと大きく異ならないようにすることである。
図12を参照し、当該図は、本出願の実施例による画像処理装置の構成概略図であり、本出願の実施例の上記の装置は、スマート機器に設置することができ、前記スマート機器は、スマートフォン、タブレットコンピューター、パソコンなどの装置であってもよい。前記装置は、以下のモジュールを含む。
取得モジュール1201は、オリジナル画像を取得する。
処理モジュール1202は、画像処理モデルを実行して前記オリジナル画像に対してモアレ除去処理を実行して、ターゲット画像を取得し、前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理して前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である。
一実施例では、前記処理モジュール1202は、具体的に、画像処理モデルを実行して、前記マルチバンドモジュールにより、前記オリジナル画像に対して初期分析処理をM回実行して、N個のスケールの初期特徴マップを取得し、前記Mは、2以上の正の整数であり、前記Mは、前記N以上であり、前記初期分析処理は、前記オリジナル画像に対して、最初にダウンサンプリングを実行し、次に畳み込み処理を実行すること、又は、前記オリジナル画像に対してダウンスケールの畳み込み処理を実行することを含み、前記N個のスケールの初期特徴マップに対して畳み込み処理を実行して、N個のスケールの中間特徴マップを取得し、N個のスケールの中間特徴マップに基づいて、N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップを取得し、N個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記第1の処理結果特徴マップに基づいてターゲット画像を取得する。
一実施例では、前記N個の空間周波数帯域に対応する特徴マップのうち、N番目の空間周波数帯域の特徴マップは、前記中間特徴マップのうちスケールが最も小さいN番目の中間特徴マップに基づいて取得され、
前記N個の空間周波数帯域に対応する特徴マップのうちN-i番目の空間周波数帯域の特徴マップは、N番目の中間特徴マップ、N-i番目の中間特徴マップ及びN番目の中間特徴マップからN-i番目の中間特徴マップまでの間の全ての中間特徴マップに基づいて取得され、前記iは、1以上N未満の正の整数である。
一実施例では、前記処理モジュール1202は、具体的に、予測特徴マップを取得し、前記予測特徴マップは、N番目の中間特徴マップ、1番目の中間特徴マップ及N番目の中間特徴マップから1番目の中間特徴マップまでの間の全ての中間特徴マップに基づいて得られ、N個の空間周波数帯域に対応する特徴マップにおけるスケールが前記予測特徴マップのスケールよりも小さい特徴マップに対してサイズ調整を実行し、調整後の空間周波数帯域に対応する特徴マップのスケールが前記予測特徴マップのスケールと等しいようにし、前記予測特徴マップ及び調整後の空間周波数帯域に対応する特徴マップに基づいて、第1の処理結果特徴マップを取得する。
一実施例では、前記画像処理モデルはさらに、注意力メカニズムに基づく予測モジュールを含み、前記処理モジュール1202は、具体的に、前記オリジナル画像に対してファジー処理を実行した後に得られたファジー特徴マップを取得し、前記第1の処理結果特徴マップ及び前記ファジー特徴マップに基づいて、前記予測モジュールにより、第2の処理結果特徴マップを取得し、前記第2の処理結果特徴マップに基づいてターゲット画像を取得する。
一実施例では、前記画像処理モデルはさらに、超解像モジュールを含み、前記処理モジュール1202は、具体的に、前記第1の処理結果特徴マップに基づいて参照特徴マップを取得し、前記第2の処理結果特徴マップを処理して中間結果特徴マップを取得し、前記参照特徴マップのスケールは、前記オリジナル画像のスケールと同じであり、前記中間結果特徴マップのスケールは、前記オリジナル画像のスケールと同じであり、前記参照特徴マップ及び前記中間結果特徴マップに基づいて、前記超解像モジュールにより、ターゲット画像を取得する。
一実施例では、前記装置は、トレーニングモジュール1203をさらに含み、
前記トレーニングモジュール1203は、モアレトレーニングデータセットを取得し、前記モアレトレーニングデータセットは、マッチング画像ペアを含み、当該マッチング画像ペアは、トレーニング画像及び監視画像を含み、前記トレーニング画像は、モアレを有し、前記監視画像は、前記モアレを有しなく、前記モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングして、前記画像処理モデルを取得する。
一実施例では、前記トレーニングモジュール1203は、具体的に、オリジナル画像データにおける各画素点を、3つの並列するサブ画素点に分解して、サブ画素画像を取得し、各サブ画素点は、1つの色に対応し、前記オリジナル画像データの色は、赤緑青RGBを含み、前記サブ画素画像のサイズを調整して、前記オリジナル画像データの画像サイズと同じサイズを有する第1の中間画像を取得し、第1の中間画像における第1の閾値よりも低い階調値を有する画素点の階調値を第2の閾値に設置して、第2の中間画像を取得し、前記第2の中間画像に対して径向歪みを追加して、第1の歪み画像を取得し、前記第1の歪み画像に対してカメラ撮影シミュレーション最適化を実行して、モアレが追加されたトレーニング画像を取得する。
一実施例では、前記トレーニングモジュール1203は、具体的に、第1の投影変換パラメータに従って、第1の歪み画像に対して投影変換処理を実行して、傾斜シミュレーション画像を取得し、カメラによって撮影された画像の輝度分布特徴に基づいて、前記傾斜シミュレーション画像を処理して、輝度シミュレーション画像を取得し、前記輝度シミュレーション画像に対して画像ノイズを追加して、ノイズ点のあるノイズシミュレーション画像を取得し、予め設定された照明係数に従ってノイズシミュレーション画像を処理して、明暗シミュレーション画像を取得する。
一実施例では、前記トレーニングモジュール1203は、具体的に、オリジナル画像データに対して径向歪みを追加して、第2の歪み画像を取得し、前記第1の投影変換パラメータに従って第2の歪み画像に対して投影変換処理を実行して、監視画像を取得する。
一実施例では、前記トレーニングモジュール1203は、具体的に、オリジナル画像データを電子ディスプレイに表示し、電子ディスプレイに表示されたオリジナル画像データを撮影して、トレーニング画像を取得し、前記トレーニング画像に基づいて、前記オリジナル画像データに対して特徴点マッチングする及びオプティカルフローアライメント処理を実行して、監視画像を取得し、前記トレーニング画像及び対応する監視画像に基づいてマッチング画像ペアを取得する。
一実施例では、前記初期モデルは、トレーニング対象となるマルチバンドモジュール、トレーニング対象となる注意力メカニズムに基づく予測モジュール、トレーニング対象となる超解像モジュールを含む。
一実施例では、前記トレーニングモジュール1203は、具体的に、モアレトレーニングデータセットのマッチング画像ペアにおけるトレーニング画像を初期モデルの入力として使用し、初期モデルによる処理の後、マルチバンドモジュールによって出力される第1の結果、予測モジュールによって出力される第2の結果、及び超解像モジュールによって出力される第3の結果を取得し、前記第1の結果は、トレーニング画像のN層ラプラシアンピラミッドに対応するN個の空間周波数帯域の特徴マップを含み、前記第2の結果は、前記トレーニング画像に対応する第2の結果特徴マップを含み、前記第3の結果は、前記トレーニング画像に対応するターゲット画像を含み、モアレトレーニングデータセットのマッチング画像ペアにおける前記監視画像に対してN層ラプラシアンピラミッド処理を実行して、前記監視画像に対応するN個の空間周波数帯域の特徴マップを取得し、前記監視画像に対応するN個の空間周波数帯域の特徴マップと前記第1の結果における前記N個の空間周波数帯域の特徴マップとのN個の基礎損失関数値を取得し、前記監視画像に対して解像度処理を実行した後の画像と第2の結果との間の第1の損失関数値を取得し、前記監視画像と第3の結果との間の第2の損失関数値を取得し、N個の基礎損失関数値、前記第1の損失関数値及び前記第2の損失関数値に基づいて、前記初期モデルのモデルパラメータを最適化して、画像処理モデルを取得する。
一実施例では、前記トレーニングモジュール1203は、具体的に、モアレトレーニングデータセットのターゲットマッチング画像ペアにおける画像に対してサイズ調整処理を実行して、P個の異なるサイズの変形マッチング画像ペアを取得し、P個の変形マッチング画像ペアに基づいて、初期モデルをトレーニングして、P個の損失関数値を取得し、P個の損失関数値に基づいて前記初期モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得する。
一実施例では、モアレトレーニングデータセットにおける各マッチング画像ペアによるトレーニングによって得られたモデルを第1の画像処理モデルとして使用し、前記トレーニングモジュール1203は、具体的に、前記モアレ画像セットにおける前記トレーニング画像に対してサイズ拡大調整を実行して、ターゲットサイズのモアレ拡大画像を取得し、前記第1の画像処理モデルを実行して、前記モアレ拡大画像に対して除去モアレ処理を実行して、モアレ監視画像を取得し、前記モアレ監視画像及び前記モアレ拡大画像に対してスケーリング処理を実行して、複数のモアレ画像ペアを取得し、前記複数のモアレ画像ペアに基づいて、前記第1の画像処理モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得する。
一実施例では、複数のモアレ画像ペアに基づいて前記第1の画像処理モデルにおけるモデルパラメータを最適化することによって得られたモデルを、第1のバージョンの画像処理モデルとして使用し、前記第1のバージョンの画像処理モデルを新しい第1の画像処理モデルとして、前記モアレ画像セットに基づいて前記新的第1の画像処理モデルをトレーニングして、第2のバージョン的画像処理モデルを取得し、
前記画像処理モデルは、前記第1のバージョンの画像処理モデルと、前記第2のバージョンの画像処理モデルを含み、
前記処理モジュール1202は、前記第1のバージョンの画像処理モデル及び前記第2のバージョンの画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行して、第1の画像及び第2の画像を取得し、前記第1の画像及び前記第2の画像に基づいて、ターゲット画像を取得する。
本出願の実施例の上記の装置に含まれる各モジュールの具体的な実現は、前述の各実施例における関連ステップの具体的な説明を参照することができ、詳細は、ここでは説明しない。
本出願の実施例は、異なるスケール及び異なる空間周波数帯域におけるモアレの相違性に対して、モアレを除去するための画像処理モデルで、ラプラシアンピラミッドに基づいて構築されたマルチスケールモデルを設計し、ラプラシアンピラミッドの複数の周波数帯域における特徴マップを利用し、異なるスケール、異なる周波数帯域においてモアレを包括的に除去できる画像処理モデルをトレーニングして取得することができ、これにより、より優れたモアレ除去効果を簡単に実現できる。
再度図13を参照し、本出願の実施例によるスマート機器の構成概略図であり、本出願の実施例の上記のスマート機器は、例えば、スマートフォン、タブレット、パソコン、サーバーなどの装置であってもよく、当該スマート機器は、データ伝送、記憶、データ分析、編集などの機能を実現することができる。前記スマート機器はさらに、様々な必要なハウジング構成を含み、また、電源、通信インターフェースなどを含む。前記スマート機器は、プロセッサー1301及び記憶装置1302、入力インターフェース1303、出力インターフェース1304を含んでもよい。
前記入力インターフェース1303は、データを取得することができる一部のユーザーインターフェース、又はデータインターフェース、又は通信インターフェースであってもよい。前記出力インターフェース1304は、データを外部に送信することができる一部のネットワークインターフェースであってもよく、出力インターフェース1304は、出力インターフェース1304によって出力されたモアレが除去された画像などのデータをディスプレイに表示するために、処理されたデータをディスプレイに出力することができる。
前記記憶装置1302は、ランダムアクセスメモリ(random-access memory、RAM)などの揮発性メモリ(volatile memory)を含むことができ、記憶装置1302は、例えばフラッシュメモリ(flash memory)、ストレージハードディスク(solid-state drive、SSD)などの不揮発性メモリ(non-volatile memory)を含むことができ、記憶装置1302は、上記のタイプのメモリの組み合わせを含むことができる。
前記プロセッサー1301は、中央処理装置(central processing unit、CPU)であってもよい。前記プロセッサー1301はさらに、ハードウェアチップを含む。上記のハードウェアチップは、特定用途向け集積回路(application-specific integrated circuit、ASIC)、プログラマブルロジックデバイス(programmable logic device、PLD)などであってもよい。上記のPLDは、フィールドプログラマブルゲートアレイ(field-programmable gate array、FPGA)、汎用アレイロジック(generic array logic、GAL)などであってもよい。
本出願の実施例では、前記記憶装置1302には、プログラム命令が記憶され、前記プロセッサー1301は、前記記憶装置1302に記憶されたプログラム命令を呼び出して、上記の各実施例で言及された関連する方法及びステップを実行する。
一実施例では、前記プロセッサー1301は、
オリジナル画像を取得するステップと、
画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行して、ターゲット画像を取得するステップと、を実行し、
前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、
前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理して、前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である。
一実施例では、前記プロセッサー1301は、具体的に、
画像処理モデルを実行して、前記マルチバンドモジュールにより、前記オリジナル画像に対して初期分析処理をM回実行して、N個のスケールの初期特徴マップを取得するステップであって、前記Mが、2以上の正の整数であり、前記Mが、前記N以上であり、前記初期分析処理は、前記オリジナル画像に対して、最初にダウンサンプリングを実行し、次に畳み込み処理を実行すること、又は、前記オリジナル画像に対してダウンスケールの畳み込み処理を実行することを含むステップと、
前記N個のスケールの初期特徴マップに対して畳み込み処理を実行して、N個のスケールの中間特徴マップを取得するステップと、
N個のスケールの中間特徴マップに基づいて、N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップを取得するステップと、
N個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得するステップと、
前記第1の処理結果特徴マップに基づいてターゲット画像を取得するステップと、を実行する。
一実施例では、前記N個の空間周波数帯域に対応する特徴マップのうち、N番目の空間周波数帯域の特徴マップは、前記中間特徴マップのうちスケールが最も小さいN番目の中間特徴マップに基づいて取得され、前記N個の空間周波数帯域に対応する特徴マップのうち、N-i番目の空間周波数帯域的特徴マップは、N番目の中間特徴マップ、N-i番目の中間特徴マップ及びN番目の中間特徴マップからN-i番目の中間特徴マップまでの間の全ての中間特徴マップに基づいて得られ、前記iは、1以上N未満の正の整数である。
一実施例では、前記プロセッサー1301は、具体的に、
予測特徴マップを取得するステップであって、前記予測特徴マップが、N番目の中間特徴マップ、1番目の中間特徴マップ及びN番目の中間特徴マップから1番目の中間特徴マップまでの間の全ての中間特徴マップに基づいて得られるステップと、
N個の空間周波数帯域に対応する特徴マップのうちスケールが前記予測特徴マップのスケールよりも小さい特徴マップに対してサイズ調整を実行して、調整後の空間周波数帯域に対応する特徴マップのスケールが前記予測特徴マップのスケールと等しいようにするステップと、
前記予測特徴マップ及び調整後の空間周波数帯域に対応する特徴マップに基づいて、第1の処理結果特徴マップを取得するステップと、を実行する。
一実施例では、前記画像処理モデルは、注意力メカニズムに基づく予測モジュールをさらに含み、前記プロセッサー1301は、
前記オリジナル画像に対してファジー処理を実行して得られたファジー特徴マップを取得するステップと、
前記第1の処理結果特徴マップ及び前記ファジー特徴マップに基づいて、前記予測モジュールにより、第2の処理結果特徴マップを取得するステップと、
前記第2の処理結果特徴マップに基づいてターゲット画像を取得するステップと、を実行する。
一実施例では、前記画像処理モデルは、超解像モジュールをさらに含み、前記プロセッサー1301は、
前記第1の処理結果特徴マップに基づいて参照特徴マップを取得し、前記第2の処理結果特徴マップを処理して中間結果特徴マップを取得するステップであって、前記参照特徴マップのスケールが、前記オリジナル画像のスケールと同じであり、前記中間結果特徴マップのスケールが前記オリジナル画像のスケールと同じであるステップと、
前記参照特徴マップ及び前記中間結果特徴マップに基づいて、前記超解像モジュールにより、ターゲット画像を取得するステップと、を実行する。
一実施例では、前記プロセッサー1301は、さらに、
前記モアレトレーニングデータセットを取得するステップであって、前記モアレトレーニングデータセットは、マッチング画像ペアを含み、当該マッチング画像ペアは、トレーニング画像及び監視画像を含み、前記トレーニング画像は、モアレを有し、前記監視画像は、前記モアレを有しないステップと、
前記モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングして、前記画像処理モデルを取得するステップと、を実行する。
一実施例では、前記プロセッサー1301は、具体的に、
オリジナル画像データにおける各画素点を、3つの並列するサブ画素点に分解して、サブ画素画像を取得するステップであって、各サブ画素点は、1つの色に対応し、前記オリジナル画像データの色は、赤緑青RGBを含むステップと、
前記サブ画素画像のサイズを調整して、前記オリジナル画像データの画像サイズと同じサイズを有する第1の中間画像を取得するステップと、
第1の中間画像における第1の閾値よりも低い階調値を有する画素点の階調値を第2の閾値に設置して、第2の中間画像を取得するステップと、
前記第2の中間画像に対して径向歪みを追加して、第1の歪み画像を取得するステップと、
前記第1の歪み画像に対してカメラ撮影シミュレーションを最適化して、モアレが追加されたトレーニング画像を取得するステップと、を実行する。
一実施例では、前記プロセッサー1301は、具体的に、
第1の投影変換パラメータに従って、第1の歪み画像に対して投影変換処理を実行して、傾斜シミュレーション画像を取得するステップと、
カメラによって撮影された画像の輝度分布特徴に基づいて、前記傾斜シミュレーション画像を処理して、輝度シミュレーション画像を取得するステップと、
前記輝度シミュレーション画像に対して画像ノイズを追加して、ノイズ点のあるノイズシミュレーション画像を取得するステップと、
予め設定された照明係数に従ってノイズシミュレーション画像を処理して、明暗シミュレーション画像を取得するステップと、を実行する。
一実施例では、前記プロセッサー1301は、具体的に、
オリジナル画像データに対して径向歪みを追加して、第2の歪み画像を取得するステップと、
前記第1の投影変換パラメータに従って第2の歪み画像に対して投影変換処理を実行して、監視画像を取得するステップと、実行する。
一実施例では、前記プロセッサー1301は、具体的に、
オリジナル画像データを電子ディスプレイに表示し、電子ディスプレイに表示されたオリジナル画像データを撮影して、トレーニング画像を取得するステップと、
前記トレーニング画像に基づいて、前記オリジナル画像データに対して特徴点マッチング及びオプティカルフローアライメント処理を実行して、監視画像を取得するステップと、
前記トレーニング画像及び対応する監視画像に基づいてマッチング画像ペアを構築するステップと、を実行する。
一実施例では、前記初期モデルは、トレーニング対象となるマルチバンドモジュール、トレーニング対象となる注意力メカニズムに基づく予測モジュール、トレーニング対象となる超解像モジュールを含み、
前記プロセッサー1301は、
モアレトレーニングデータセットのマッチング画像ペアにおけるトレーニング画像を初期モデルの入力として、初期モデルによる処理の後、マルチバンドモジュールによって出力される第1の結果、予測モジュールによって出力される第2の結果、及び超解像モジュールによって出力される第3の結果を取得するステップであって、前記第1の結果は、トレーニング画像のN層ラプラシアンピラミッドに対応するN個の空間周波数帯域の特徴マップを含み、前記第2の結果は、前記トレーニング画像に対応する第2の結果特徴マップを含み、前記第3の結果は、前記トレーニング画像に対応するターゲット画像を含むステップと、
モアレトレーニングデータセットのマッチング画像ペアにおける前記監視画像に対してN層ラプラシアンピラミッド処理を実行して、前記監視画像に対応するN個の空間周波数帯域の特徴マップを取得するステップと、
前記監視画像に対応するN個の空間周波数帯域の特徴マップと前記第1の結果における前記N個の空間周波数帯域の特徴マップとのN個の基礎損失関数値を取得し、前記監視画像に対して解像度処理を実行した後の画像と第2の結果との間の第1の損失関数値を取得し、前記監視画像と第3の結果との間の第2の損失関数値を取得するステップと、
N個の基礎損失関数値、前記第1の損失関数値及び前記第2の損失関数値に基づいて、前記初期モデルのモデルパラメータを最適化して、画像処理モデルを取得するステップと、を実行する。
一実施例では、前記プロセッサー1301は、具体的に、
モアレトレーニングデータセットのターゲットマッチング画像ペアにおける画像に対してサイズ調整処理を実行して、P個の異なるサイズの変形マッチング画像ペアを取得するステップと、
P個の変形マッチング画像ペアに基づいて、初期モデルをトレーニングして、P個の損失関数値を取得し、P個の損失関数値に基づいて前記初期モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得するステップと、を実行する。
一実施例では、モアレトレーニングデータセットにおける各マッチング画像ペアに基づいてトレーニングすることによって得られたモデルを第1の画像処理モデルとして使用し、前記プロセッサー1301はさらに、
前記モアレ画像セットにおける前記トレーニング画像に対してサイズ拡大調整を実行して、ターゲットサイズのモアレ拡大画像を取得するステップと、
前記第1の画像処理モデルを実行して、前記モアレ拡大画像に対して除去モアレ処理を実行して、モアレ監視画像を取得するステップと、
前記モアレ監視画像及び前記モアレ拡大画像に対してスケーリング処理を実行して、複数のモアレ画像ペアを取得するステップと、
前記複数のモアレ画像ペアに基づいて、前記第1の画像処理モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得するステップと、を実行する。
一実施例では、前記プロセッサー1301は、具体的に、
前記複数のモアレ画像ペアに基づいて前記第1の画像処理モデルにおけるモデルパラメータを最適化することによって得られたモデルを、第1のバージョンの画像処理モデルとして使用するステップと、
前記第1のバージョンの画像処理モデルを新しい第1の画像処理モデルとして、前記モアレ画像セットに基づいて前記新しい第1の画像処理モデルをトレーニングして、第2のバージョンの画像処理モデルを取得するステップと、
を実行し、
前記画像処理モデルは、前記第1のバージョンの画像処理モデルと、前記第2のバージョンの画像処理モデルを含み、
前記プロセッサー1301は、
前記第1のバージョンの画像処理モデル及び前記第2のバージョンの画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行して、第1の画像及び第2の画像を取得するステップと、
前記第1の画像及び前記第2の画像に基づいて、ターゲット画像を取得するステップと、を実行する。
本出願の実施例におけるプロセッサー1301の具体的な実現は、前述の各実施例における関連するステップの具体的な説明を参照することができ、詳細は、ここでは説明しない。
本出願の実施例は、異なるスケール及び異なる空間周波数帯域におけるモアレの相違性に対して、モアレを除去するための画像処理モデルでは、ラプラシアンピラミッドに基づいて構築されたマルチスケールモデルを設計し、ラプラシアンピラミッドの複数の周波数帯域における特徴マップを利用し、異なるスケール、異なる周波数帯域においてモアレを包括的に除去できる画像処理モデルをトレーニングして取得することができ、これにより、より優れたモアレ除去効果を簡単に実現できる。
上記の実施例の方法におけるプロセスの全て又は一部は、コンピュータプログラムを介して関連するハードウェアに指示することによって完成でき、前記プログラムは、コンピュータ可読取記憶媒体に記憶することができ、当該プログラムは、実行されるとき、上記の各方法の実施例のフローを含むことができる。前記記憶媒体は、磁気ディスク、光ディスク、読み取り専用メモリ(read-only memory、ROM)又はランダムアクセスメモリ(random access memory、RAM)などであってもよい。
他の実施例では、本出願は、さらに、コンピュータプログラム製品を提供し、当該コンピュータプログラム製品は、コンピュータで実行されるときに、上記の実施例のいずれかにおける画像処理方法をコンピュータに実行させる命令を含む。
上記の開示は、本出願の実施例の一部に過ぎず、勿論、本出願の権利の範囲は、これによって限定されず、上記の実施例を実施するためのプロセスの全て又は一部、本出願の特許請求の範囲に従って行われる同等の変更が、依然として本出願によってカバーされる範囲に属する。
1201 取得モジュール
1202 処理モジュール
1203 トレーニングモジュール
1301 プロセッサー
1302 記憶装置
1303 入力インターフェース
1304 出力インターフェース

Claims (17)

  1. スマート機器が実行する画像処理方法であって、
    オリジナル画像を取得するステップと、
    画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行し、ターゲット画像を取得するステップと、を含み、
    前記画像処理モデルは、モアレトレーニングデータセットによる事前トレーニングによって得られたネットワークモデルであり、
    前記画像処理モデルは、マルチバンドモジュールを含み、前記マルチバンドモジュールは、前記オリジナル画像を処理して、前記オリジナル画像に関するN層ラプラシアンピラミッドを取得し、前記N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップに基づいて、第1の処理結果特徴マップを取得し、前記ターゲット画像は、前記第1の処理結果特徴マップに基づいて得られ、前記Nは、2以上の正の整数である、方法。
  2. 前記画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行する前記ステップは、
    画像処理モデルを実行して、前記マルチバンドモジュールにより、前記オリジナル画像に対して、初期分析処理をM回実行し、Nスケールの初期特徴マップを取得するステップであって、前記Mは、2以上の正の整数であり、前記Mは、前記N以上であり、前記初期分析処理は、前記オリジナル画像に対して、まずダウンサンプリングを実行し、次に、畳み込み処理を実行すること、又は、前記オリジナル画像に対してダウンスケール畳み込み処理を実行することを含むステップと、
    前記Nスケールの初期特徴マップに対して、畳み込み処理を実行して、Nスケールの中間特徴マップを取得するステップと、
    Nスケールの中間特徴マップに基づいて、N層ラプラシアンピラミッドのN個の空間周波数帯域に対応する特徴マップを取得するステップと、
    N個の空間周波数帯域に対応する特徴マップに基づいて、第1の処理結果特徴マップを取得するステップと、
    前記第1の処理結果特徴マップに基づいて前記ターゲット画像を取得するステップと、を含む請求項1に記載の方法。
  3. 前記N個の空間周波数帯域に対応する特徴マップのうち、N番目の空間周波数帯域の特徴マップは、前記中間特徴マップにおけるスケールが最も小さいN番目の中間特徴マップに基づいて得られ、
    前記N個の空間周波数帯域に対応する特徴マップのうち、N-i番目の空間周波数帯域の特徴マップは、N番目の中間特徴マップ、N-i番目の中間特徴マップ及びN番目の中間特徴マップからN-i番目の中間特徴マップまでの全ての中間特徴マップに基づいて得られ、前記iは、1以上N未満の正の整数である、請求項2に記載の方法。
  4. N個の空間周波数帯域に対応する特徴マップに基づいて第1の処理結果特徴マップを取得する前記ステップは、
    予測特徴マップを取得するステップであって、前記予測特徴マップは、N番目の中間特徴マップ、1番目の中間特徴マップ及びN番目の中間特徴マップから1番目の中間特徴マップまでの全ての中間特徴マップに基づいて得られるステップと、
    N個の空間周波数帯域に対応する特徴マップにおいてスケールが前記予測特徴マップのスケールよりも小さい特徴マップに対してサイズ調整を実行して、調整後の空間周波数帯域に対応する特徴マップのスケールが前記予測特徴マップのスケールと等しいようにするステップと、
    前記予測特徴マップ及び調整後の空間周波数帯域に対応する特徴マップに基づいて、第1の処理結果特徴マップを取得するステップと、を含む請求項2に記載の方法。
  5. 前記画像処理モデルは、予測モジュールをさらに含み、
    前記第1の処理結果特徴マップに基づいてターゲット画像を取得する前記ステップは、
    前記オリジナル画像に対してファジー処理を実行することによって得られたファジー特徴マップを取得するステップと、
    前記第1の処理結果特徴マップ及び前記ファジー特徴マップに基づいて、前記予測モジュールにより、第2の処理結果特徴マップを取得するステップと、
    前記第2の処理結果特徴マップに基づいてターゲット画像を取得するステップと、を含む請求項2に記載の方法。
  6. 前記画像処理モデルは、超解像モジュールをさらに含み、
    前記第2の処理結果特徴マップに基づいてターゲット画像を取得する前記ステップは、
    前記第1の処理結果特徴マップに基づいて参照特徴マップを取得し、前記第2の処理結果特徴マップを処理して中間結果特徴マップを取得するステップであって、前記参照特徴マップのスケールが前記オリジナル画像のスケールと同じであり、前記中間結果特徴マップのスケールが前記オリジナル画像のスケールと同じであるステップと、
    前記参照特徴マップ及び前記中間結果特徴マップに基づいて、前記超解像モジュールにより、ターゲット画像を取得するステップと、を含む請求項5に記載の方法。
  7. 前記モアレトレーニングデータセットを取得するステップであって、前記モアレトレーニングデータセットは、マッチング画像ペアを含み、当該マッチング画像ペアは、トレーニング画像及び監視画像を含み、前記トレーニング画像は、モアレを有し、前記監視画像は、前記モアレを有しないステップと、
    前記モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングして、前記画像処理モデルを取得するステップと、をさらに含む請求項1から6のいずれか1項に記載の方法。
  8. 前記モアレトレーニングデータセットを取得する前記ステップは、
    オリジナル画像データにおける各画素点を、3つの並列するサブ画素点に分解して、サブ画素画像を取得するステップであって、各サブ画素点が1つの色に対応し、前記オリジナル画像データの色には、赤、緑、青のRGBが含まれるステップと、
    前記サブ画素画像のサイズを調整して、前記オリジナル画像データの画像サイズと同じサイズを有する第1の中間画像を取得するステップと、
    第1の中間画像における第1の閾値よりも低い階調値を有する画素点の階調値を第2の閾値に設置して、第2の中間画像を取得するステップと、
    前記第2の中間画像に対して径方向歪みを追加して、第1の歪み画像を取得するステップと、
    前記第1の歪み画像に対してカメラ撮影シミュレーション最適化を実行して、モアレが追加されたトレーニング画像を取得するステップと、を含む請求項7に記載の方法。
  9. 前記第1の歪み画像に対してカメラ撮影シミュレーション最適化を実行する前記ステップは、
    第1の投影変換パラメータに従って第1の歪み画像に対して投影変換処理を実行して、傾斜シミュレーション画像を取得するステップと、
    カメラによって撮影された画像の輝度分布特徴に基づいて、前記傾斜シミュレーション画像を処理して、輝度シミュレーション画像を取得するステップと、
    前記輝度シミュレーション画像に対して画像ノイズを追加して、ノイズ点のあるノイズシミュレーション画像を取得するステップと、
    予め設定された照明係数に従ってノイズシミュレーション画像を処理して、明暗シミュレーション画像を取得するステップと、を含む請求項8に記載の方法。
  10. 前記モアレトレーニングデータセットを取得する前記ステップは、
    オリジナル画像データを電子ディスプレイに表示し、電子ディスプレイに表示されたオリジナル画像データを撮影して、トレーニング画像を取得するステップと、
    前記トレーニング画像に基づいて、前記オリジナル画像データに対して特徴点マッチング及びオプティカルフローアライメント処理を実行して、監視画像を取得するステップと、
    前記トレーニング画像及び対応する監視画像に基づいてマッチング画像ペアを構築するステップと、を含む請求項7に記載の方法。
  11. 前記初期モデルは、トレーニング対象となるマルチバンドモジュールと、トレーニング対象となる予測モジュールと、トレーニング対象となる超解像モジュールと、を含み、
    モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングする前記ステップは、
    モアレトレーニングデータセットのマッチング画像ペアにおけるトレーニング画像を初期モデルの入力として使用し、初期モデルによる処理の後、マルチバンドモジュールによって出力される第1の結果、予測モジュールによって出力される第2の結果、及び超解像モジュールによって出力される第3の結果を取得するステップであって、前記第1の結果は、トレーニング画像のN層ラプラシアンピラミッドに対応するN個の空間周波数帯域の特徴マップを含み、前記第2の結果は、前記トレーニング画像に対応する第2の結果特徴マップを含み、前記第3の結果は、前記トレーニング画像に対応するターゲット画像を含むステップと、
    モアレトレーニングデータセットのマッチング画像ペアにおける前記監視画像に対してN層ラプラシアンピラミッド処理を実行して、前記監視画像に対応するN個の空間周波数帯域の特徴マップを取得するステップと、
    前記監視画像に対応するN個の空間周波数帯域の特徴マップと前記第1の結果における前記N個の空間周波数帯域の特徴マップとのN個の基礎損失関数値を取得し、前記監視画像に対して解像度処理を実行した後の画像と第2の結果との間の第1の損失関数値を取得し、前記監視画像と第3の結果との間の第2の損失関数値を取得するステップと、
    N個の基礎損失関数値、前記第1の損失関数値及び前記第2の損失関数値に基づいて、前記初期モデルのモデルパラメータを最適化して、前記画像処理モデルを取得するステップと、を含む請求項7に記載の方法。
  12. 前記モアレトレーニングデータセットにおける各マッチング画像ペアに基づいて、初期モデルをトレーニングする前記ステップは、
    モアレトレーニングデータセットのターゲットマッチング画像ペアにおける画像に対してサイズ調整処理を実行して、P個の異なるサイズの変形マッチング画像ペアを取得するステップと、
    P個の変形マッチング画像ペアに基づいて、初期モデルをトレーニングして、P個の損失関数値を取得し、P個の損失関数値に基づいて、前記初期モデルにおけるモデルパラメータを最適化して、前記画像処理モデルを取得するステップと、を含む請求項7に記載の方法。
  13. 前記モアレトレーニングデータセットにおける各マッチング画像ペアによるトレーニングによって得られたモデルを第1の画像処理モデルとして使用し、前記方法は、さらに、
    前記モアレ画像セットにおける前記トレーニング画像に対してサイズ拡大調整を実行して、ターゲットサイズのモアレ拡大画像を取得するステップと、
    前記第1の画像処理モデルを実行して前記モアレ拡大画像に対して除去モアレ処理を実行して、モアレ監視画像を取得するステップと、
    前記モアレ監視画像及び前記モアレ拡大画像に対してスケーリング処理を実行して、複数のモアレ画像ペアを取得するステップと、
    前記複数のモアレ画像ペアに基づいて、前記第1の画像処理モデルにおけるモデルパラメータを最適化して、画像処理モデルを取得するステップと、を含む請求項7に記載の方法。
  14. 前記複数のモアレ画像ペアに基づいて前記第1の画像処理モデルにおけるモデルパラメータを最適化することによって得られたモデルを、第1のバージョンの画像処理モデルとし、
    前記第1のバージョンの画像処理モデルを新しい第1の画像処理モデルとし、前記モアレ画像セットに基づいて前記新しい第1の画像処理モデルをトレーニングして、第2のバージョンの画像処理モデルを取得し、
    前記画像処理モデルは、前記第1のバージョンの画像処理モデルと前記第2のバージョンの画像処理モデルと、を含み、
    画像処理モデルを実行して前記オリジナル画像に対してモアレ除去処理を実行して、ターゲット画像を取得する前記ステップは、
    前記第1のバージョンの画像処理モデル及び前記第2のバージョンの画像処理モデルを実行して、前記オリジナル画像に対してモアレ除去処理を実行して、第1の画像及び第2の画像を取得するステップと、
    前記第1の画像及び前記第2の画像に基づいて、前記ターゲット画像を取得するステップと、を含む請求項13に記載の方法。
  15. 記憶装置及びプロセッサーを含むスマート機器であって、
    前記記憶装置には、画像処理を実行するためのプログラム命令が記憶され、
    前記プロセッサーは、前記プログラム命令を呼び出して、請求項1から14のいずれか1項に記載の画像処理方法を実現するスマート機器。
  16. コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、前記コンピュータプログラムは、プロセッサーによって実行されるときに、請求項1から14のいずれか1項に記載の画像処理方法のステップを実現するコンピュータ可読記憶媒体。
  17. 命令を含むコンピュータプログラムであって、前記命令がコンピュータで実行されるときに、請求項1から14のいずれか1項に記載の画像処理方法をコンピュータに実行させるコンピュータプログラム。
JP2022533195A 2020-04-15 2021-02-24 画像処理方法、スマート機器及びコンピュータプログラム Active JP7357998B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010295743.1A CN111476737B (zh) 2020-04-15 2020-04-15 一种图像处理方法、智能设备及计算机可读存储介质
CN202010295743.1 2020-04-15
PCT/CN2021/077544 WO2021208600A1 (zh) 2020-04-15 2021-02-24 一种图像处理方法、智能设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2023504669A true JP2023504669A (ja) 2023-02-06
JP7357998B2 JP7357998B2 (ja) 2023-10-10

Family

ID=71753473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022533195A Active JP7357998B2 (ja) 2020-04-15 2021-02-24 画像処理方法、スマート機器及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20220222786A1 (ja)
EP (1) EP4030379A4 (ja)
JP (1) JP7357998B2 (ja)
CN (1) CN111476737B (ja)
WO (1) WO2021208600A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476737B (zh) * 2020-04-15 2022-02-11 腾讯科技(深圳)有限公司 一种图像处理方法、智能设备及计算机可读存储介质
CN111709890B (zh) * 2020-06-12 2023-11-24 北京小米松果电子有限公司 一种图像增强模型的训练方法、装置及存储介质
CN113744140A (zh) * 2020-10-16 2021-12-03 北京沃东天骏信息技术有限公司 一种图像处理方法、设备和计算机可读存储介质
CN112508801A (zh) * 2020-10-21 2021-03-16 华为技术有限公司 图像处理方法及计算设备
CN112712467B (zh) * 2021-01-11 2022-11-11 郑州科技学院 基于计算机视觉与色彩滤波阵列的图像处理方法
CN112884666B (zh) * 2021-02-02 2024-03-19 杭州海康慧影科技有限公司 图像处理方法、装置及计算机存储介质
CN112906710A (zh) * 2021-03-26 2021-06-04 北京邮电大学 一种基于bakaze-magsac的视觉图像特征提取方法
CN113592735A (zh) * 2021-07-23 2021-11-02 作业帮教育科技(北京)有限公司 文本页面图像还原方法及***、电子设备和计算机可读介质
CN113486861A (zh) * 2021-08-03 2021-10-08 北京百度网讯科技有限公司 摩尔纹图片生成方法和装置
EP4152248A1 (en) * 2021-09-20 2023-03-22 Koninklijke Philips N.V. Medical image analysis system
CA3233549A1 (en) * 2021-09-30 2023-04-06 Peking University Systems and methods for image processing
US11983920B2 (en) * 2021-12-20 2024-05-14 International Business Machines Corporation Unified framework for multigrid neural network architecture
CN114972098A (zh) * 2022-05-31 2022-08-30 北京智通东方软件科技有限公司 图像校正方法、装置、存储介质及电子设备
CN115205738B (zh) * 2022-07-05 2023-08-01 广州和达水务科技股份有限公司 应用于城市内涝的应急排水方法和***
CN115311145B (zh) * 2022-08-12 2024-06-11 中国电信股份有限公司 图像处理方法及装置、电子设备、存储介质
CN115631115B (zh) * 2022-12-08 2023-03-28 中国科学院自动化研究所 基于递归Transformer的动态图像复原方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154487A (zh) * 2017-12-25 2018-06-12 天津大学 基于多通道分解的屏摄图像摩尔纹消除方法
CN110738609A (zh) * 2019-09-11 2020-01-31 北京大学 一种去除图像摩尔纹的方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171410A (ja) * 2000-12-01 2002-06-14 Minolta Co Ltd 画像処理装置
JP2006318103A (ja) * 2005-05-11 2006-11-24 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
CN106875346A (zh) * 2016-12-26 2017-06-20 奇酷互联网络科技(深圳)有限公司 图像处理方法、装置和终端设备
CN107424123B (zh) * 2017-03-29 2020-06-23 北京猿力教育科技有限公司 一种摩尔纹去除方法及装置
CN108389164B (zh) * 2018-01-31 2021-05-11 深圳市商巨视觉技术有限公司 基于频域分析的去除图像摩尔纹的方法
CN108846818B (zh) * 2018-06-25 2021-03-02 Oppo(重庆)智能科技有限公司 去除摩尔纹的方法、装置、终端及计算机可读存储介质
CN110287969B (zh) * 2019-06-14 2022-09-16 大连理工大学 基于图残差注意力网络的摩尔文本图像二值化***
CN111476737B (zh) * 2020-04-15 2022-02-11 腾讯科技(深圳)有限公司 一种图像处理方法、智能设备及计算机可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154487A (zh) * 2017-12-25 2018-06-12 天津大学 基于多通道分解的屏摄图像摩尔纹消除方法
CN110738609A (zh) * 2019-09-11 2020-01-31 北京大学 一种去除图像摩尔纹的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JINGYU YANG ET AL.: "Demoireing for screen-shot images with multi-channel layer decomposition", 2017 IEEE VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP), JPN6023034477, December 2017 (2017-12-01), ISSN: 0005136801 *

Also Published As

Publication number Publication date
US20220222786A1 (en) 2022-07-14
CN111476737B (zh) 2022-02-11
WO2021208600A1 (zh) 2021-10-21
JP7357998B2 (ja) 2023-10-10
CN111476737A (zh) 2020-07-31
EP4030379A4 (en) 2023-01-11
EP4030379A1 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
JP7357998B2 (ja) 画像処理方法、スマート機器及びコンピュータプログラム
Sun et al. Learned image downscaling for upscaling using content adaptive resampler
CN108898567B (zh) 图像降噪方法、装置及***
CN109919869B (zh) 一种图像增强方法、装置及存储介质
CN108520223B (zh) 视频图像的分割方法、分割装置、存储介质和终端设备
WO2022110638A1 (zh) 人像修复方法、装置、电子设备、存储介质和程序产品
US10708525B2 (en) Systems and methods for processing low light images
CN109993712B (zh) 图像处理模型的训练方法、图像处理方法及相关设备
Liu et al. Demoir\'eing of Camera-Captured Screen Images Using Deep Convolutional Neural Network
CN112602088B (zh) 提高弱光图像的质量的方法、***和计算机可读介质
CN111325271A (zh) 图像分类方法及装置
WO2023151511A1 (zh) 模型训练方法、图像去摩尔纹方法、装置及电子设备
WO2021179764A1 (zh) 图像处理模型生成方法、处理方法、存储介质及终端
CN111079864A (zh) 一种基于优化视频关键帧提取的短视频分类方法及***
WO2020231016A1 (en) Image optimization method, apparatus, device and storage medium
WO2023137956A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN113962859A (zh) 一种全景图生成方法、装置、设备及介质
Deng et al. Omnidirectional image super-resolution via latitude adaptive network
JP2010286959A (ja) 顔画像高解像度化方法、顔画像高解像度化装置、及びそのプログラム
CN115294055A (zh) 图像处理方法、装置、电子设备和可读存储介质
Zhang et al. Multi-scale-based joint super-resolution and inverse tone-mapping with data synthesis for UHD HDR video
Pan et al. Joint demosaicking and denoising for CFA and MSFA images using a mosaic-adaptive dense residual network
CN117768774A (zh) 图像处理器、图像处理方法、拍摄装置和电子设备
CN111080683B (zh) 图像处理方法、装置、存储介质及电子设备
CN113628259A (zh) 图像的配准处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7357998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150