RU2768551C1 - Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его - Google Patents

Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его Download PDF

Info

Publication number
RU2768551C1
RU2768551C1 RU2020133033A RU2020133033A RU2768551C1 RU 2768551 C1 RU2768551 C1 RU 2768551C1 RU 2020133033 A RU2020133033 A RU 2020133033A RU 2020133033 A RU2020133033 A RU 2020133033A RU 2768551 C1 RU2768551 C1 RU 2768551C1
Authority
RU
Russia
Prior art keywords
wallpaper
computing device
neural network
generative neural
user
Prior art date
Application number
RU2020133033A
Other languages
English (en)
Inventor
Роман Евгеньевич Суворов
Елизавета Михайловна ЛОГАЧЕВА
Виктор Сергеевич Лемпицкий
Антон Евгеньевич МАШИХИН
Олег Игоревич Хоменко
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Priority to RU2020133033A priority Critical patent/RU2768551C1/ru
Priority to PCT/KR2021/000224 priority patent/WO2022075533A1/en
Application granted granted Critical
Publication of RU2768551C1 publication Critical patent/RU2768551C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

Изобретение относится к способу и устройству для генерирования обоев локально на вычислительном устройстве. Технический результат заключается в генерировании обоев с учетом текущих отображаемых данных устройства. В способе генерируют на вычислительном устройстве по меньшей мере одни первые обои потока обоев, используя глубокую генеративную нейросеть, причем глубокая генеративная нейросеть обучена на коллекции высококачественных изображений/видео и заранее загружена в вычислительное устройство, и устанавливают на вычислительном устройстве по меньшей мере одни первые обои в качестве обоев данного вычислительного устройства, причем способ дополнительно содержит этап, на котором определяют текущие положения и цвета иконок и виджетов на экране устройства и используют определенные текущие положения и цвета иконок и виджетов в качестве дополнительных параметров глубокой генеративной нейросети при генерировании обоев. 2 н. и 11 з.п. ф-лы, 3 ил.

Description

Область техники, к которой относится изобретение
[0001] Настоящее изобретение относится, в общем, к области искусственного интеллекта и, в частности, к способу генерирования и предоставления потока обоев на вычислительном устройстве с использованием глубокой генеративной нейросети, а также к вычислительному устройству, реализующему данный способ.
Описание предшествующего уровня техники
[0002] Обои составляют большую часть того, что видит пользователь на различных устройствах, включая смартфоны, интеллектуальные телевизоры, ноутбуки и т.п. В настоящее время для регулярного получения новых эстетически приятных обоев пользователи могут подписаться на обновления в режиме онлайн, то есть на сервисы (например, Unsplash), регулярно отправляющие новые обои на пользовательское устройство через Интернет-соединение. К недостаткам этого метода относится, по меньшей мере, необходимость подключения к Интернету, а также потребление трафика и полосы пропускания.
[0003] Современные генеративные нейросети способны синтезировать высокореалистичные 2D-изображения, 3D-изображения и видео. Следовательно, такие сети можно обучить генерировать изображения реалистичных эстетически приятных обоев. После обучения многие из этих моделей (самым широко используемым классом которых являются генеративные состязательные сети) могут генерировать бесконечное количество самых разнообразных обоев, принимая в качестве ввода произвольный высокоразмерный вектор и генерируя оригинальное изображение для этого вектора. Включение нового вектора приведет к получению существенно отличающегося изображения.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
[0004] Предложено альтернативное технические решение, которое позволяет регулярно обновлять обои пользовательского устройства без использования Интернета. Согласно первому аспекту настоящего изобретения предложен способ локального генерирования и предоставления вычислительному устройству потока обоев, заключающийся в том, что: генерируют на вычислительном устройстве по меньшей мере одни первые обои потока обоев, используя глубокую генеративную нейросеть, причем глубокая генеративная нейросеть обучена на коллекции высококачественных изображений/видео и заранее загружена в вычислительное устройство, и устанавливают на вычислительном устройстве по меньшей мере одни первые обои в качестве обоев данного вычислительного устройства. Поскольку приемлемые обои синтезируются на самом вычислительном устройстве, т.е. не загружаются из сети Интернет, отсутствуют описанные выше недостатки, и изобретение позволяет уменьшить/исключить потребление трафика и полосы пропускания, которые требовались в известных аналогах для загрузки.
[0005] Согласно второму аспекту настоящего изобретения предложено вычислительное устройство, содержащее процессор и устройство хранения, на котором хранится обученная глубокая генеративная нейросеть для локального генерирования и предоставления потока обоев посредством выполнения способа согласно первому аспекту при выполнении процессором обученной глубокой генеративной нейросети.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0006] Описанные выше и другие аспекты, признаки и преимущества настоящего изобретения будут более понятны из следующего подробного описания в совокупности с прилагаемыми чертежами, на которых:
фиг. 1 - последовательность операций способа локального генерирования и предоставления вычислительному устройству потока обоев в соответствии с вариантом осуществления изобретения, раскрытым в данном документе;
фиг. 2 - последовательность операций способа локального генерирования и предоставления вычислительному устройству потока обоев в соответствии с другим вариантом осуществления изобретения, раскрытым в данном документе;
фиг. 3 - блок-схема вычислительного устройства согласно варианту осуществления изобретения, раскрытому в данном документе.
[0007] В дальнейшем описании, если не указано иное, одинаковые ссылочные обозначения используются для одних и тех же элементов, изображенных на разных чертежах, и их параллельное описание может быть опущено.
ПОДРОБНОЕ ОПИСАНИЕ
[0008] На фиг. 1 показана последовательность операций способа локального генерирования и предоставления вычислительному устройству потока обоев согласно варианту осуществления изобретения, раскрытому в данном документе. Способ заключается в следующем: генерируют S105 на вычислительном устройстве по меньшей мере одни первые обои потока обоев, используя глубокую генеративную нейросеть, причем глубокая генеративная нейросеть обучена на коллекции высококачественных изображений/видео и заранее загружена в вычислительное устройство. Под генерированием подразумевается искусственный синтез обоев глубокой генеративной нейросетью. В зависимости от типа контента в коллекции высококачественных изображений/видео, который использовался на этапе обучения глубокой генеративной нейросети, глубокая генеративная нейросеть при обучении на такой коллекции конфигурируется для генерирования типа обоев подобного данному контенту. Например, если коллекция высококачественных изображений содержит изображения пейзажей, то глубокая генеративная нейросеть при обучении на этой коллекции будет сконфигурирована для генерирования пейзажных обоев и т.д. Однако настоящее изобретение не ограничено пейзажными обоями, поскольку на этапе обучения глубокой генеративной нейросети можно использовать коллекцию высококачественных изображений/видео с любым другим типом контента. Кроме того, если на этапе обучения глубокой генеративной нейросети использовалась коллекция высококачественных видео, то глубокая генеративная нейросеть при обучении на такой коллекции будет настроена на генерирование видеообоев с типом контента, соответствующим типу контента обучающей коллекции высококачественных видео. Под потоком обоев подразумевается одно или несколько изображений, которые могут быть статическими, динамическими или интерактивными, и/или одним или несколькими видео. При обучении глубокой генеративной нейросети, ее можно загрузить в вычислительное устройство вместе с весовыми коэффициентами и другими параметрами заранее, то есть до фазы использования (inference). Глубокая генеративная нейросеть может храниться в устройстве хранения, таком как память вычислительного устройства. При генерировании по меньшей мере одних первых обоев глубокой генеративной нейросетью способ включает в себя этап установки S110 в вычислительном устройстве этих по меньшей мере одних первых обоев в качестве обоев вычислительного устройства. Генерируемые обои могут быть предназначены для любого типа пользовательского интерфейса, например, генерируемые обои могут быть обоями для основного рабочего стола, для экрана блокировки, для пустой страницы браузера, и так далее без ограничений. Генерируемые обои можно использовать в качестве экранной заставки вычислительного устройства.
[0009] Как показано на фиг. 1, способ дополнительно содержит этап определения S115, выполняется ли условие или нет. Эта проверка на выполнение условия используется для определения, следует ли обновить первые обои вторыми обоями. Условие включает в себя, без ограничения, одно или несколько из следующих условий: (i) на вычислительном устройстве получен пользовательский ввод, при этом пользовательский ввод представляет то, выражает ли пользователь вычислительного устройства неодобрение обоям, установленным в данный момент в качестве обоев вычислительного устройства, или нет; (ii) истек преднастроенный период времени; (iii) изменилось местоположение GPS вычислительного устройства, причем местоположение GPS вычислительного устройства может быть зарегистрировано блоком GPS, имеющемся в данном вычислительном устройстве. Если пользователь выразил неодобрение текущим установленным обоям, то можно адаптировать способ для генерирования других обоев. На основании информации таких одобрений/неодобрений (likes/dislikes) система может научиться генерировать обои, которые будут нравиться пользователю. Если определено, что данное условие удовлетворено (т.е. получено неодобрение на этапе S115), способ обновляет обои, установленные в данный момент в качестве обоев вычислительного устройства, выполняя следующие действия: генерируют S120 на вычислительном устройстве по меньшей мере одни вторые обои потока обоев, используя глубокую генеративную нейросеть; устанавливают S125 на вычислительном устройстве эти по меньшей мере одни вторые обои в качестве обоев вычислительного устройства. Описанное обновление обоев может выполняться автоматически в фоновом режиме. Например, пользователь может включить функцию генерирования новых обоев каждое утро. Термины "первый" и "второй" применительно к термину "обои" используются в целях их различия и не должны истолковываться как термины, представляющие какие-либо порядковые отношения между указанными обоями или этапами способа. По меньшей мере одни вторые обои отличаются от по меньшей мере одних первых обоев. В альтернативном варианте осуществления способа (не проиллюстрирован) этап определения S115, выполняется ли условие или нет, может выполняться перед генерированием и установкой каждых последующих обоев, включая случай, когда этап определения S115 выполняется перед описанными выше этапами S105 и S110. Поэтому должно быть понятно, что ссылочные номера используются только в целях иллюстрации и не должны истолковываться как представляющие какие-либо порядковые отношения между этапами способа.
[0010] На фиг. 2 показана блок-схема способа локального генерирования и предоставления вычислительному устройству потока обоев согласно другому варианту осуществления изобретения, раскрытому в данном документе. Вариант осуществления способа, показанный на фиг. 2, отличается от варианта осуществления способа, показанного на фиг. 1, тем, что он дополнительно содержит этапы индивидуализации S95 глубокой генеративной нейросети для пользователя вычислительного устройства путем использования произвольного ввода в качестве параметра глубокой генеративной нейросети, обеспечивающего, что данная глубокая генеративная нейросеть сконфигурирована для генерирования уникальных обоев для данного пользователя вычислительного устройства, и персонализации S100 глубокой генеративной нейросети для пользователя вычислительного устройства, обеспечивающей, что обои, генерируемые данной глубокой генеративной нейросетью, персонализированы для данного пользователя. Этапы S105-S125, показанные на фиг. 2, могут быть аналогичны этапам S105-S125, показанным на фиг. 1, за исключением того, что по меньшей мере одни первые обои и по меньшей мере одни вторые обои, генерируемые и установленные в варианте по фиг. 2, индивидуализированы и персонализированы. Таким образом, каждый пользователь получает каждый раз свои собственные уникальные обои.
[0011] Персонализация S100 может быть основана, но без ограничения, на одном или нескольких из следующих параметров персонализации: одно или несколько пользовательских предпочтений, один или несколько пользовательских входов, одна или несколько настроек вычислительного устройства, текущее время суток, текущее время года, текущее местоположение GPS вычислительного устройства, контент пользовательской галереи, хранящейся в данный момент на вычислительном устройстве, содержимое истории браузера, хранящейся в данный момент на вычислительном устройстве, текущая погода и прогноз погоды, положение и цвета иконок и виджетов на экране устройства. Текущее положение и цвета иконок и виджетов на экране устройства могут определяться и использоваться в данном способе для синтеза обоев, которые не сливаются с иконками и виджетами. В этом случае текущее положение и цвета иконок и виджетов на экране устройства можно ввести в глубокую генеративную нейросеть перед генерированием/синтезом обоев в качестве соответствующих параметров, чтобы оказать соответствующее воздействие на вывод глубокой генеративной нейросети. Способ может дополнительно включать в себя (не показано) этапы анализа содержимого пользовательской галереи, логического вывода, что пользователь увлекается фотографией гор, и адаптации глубокой генеративной нейросети для генерирования большего количества изображений/видео/интерактивных обоев гор. Несмотря на то, что на фиг. 2 показано, что этапы S95 и S100 выполняются перед этапами S105 и S110, это не следует рассматривать как ограничение, поскольку при необходимости эти этапы можно выполнить в другом порядке, например, один или оба этапа S95 и S100 можно выполнять перед генерированием и установкой каждых последующих обоев, включая случай, когда один или оба этапа S95 и S100 выполняются перед описанными выше этапами S120 и S125. Таким образом, должно быть понятно, что ссылочные номера используются только в целях иллюстрации и не должны истолковываться как представляющие какие-либо порядковые отношения между этапами способа.
[0012] Глубокая генеративная нейросеть обучается с использованием состязательного процесса обучения вместе с одной или несколькими дискриминантными сетями. Обучение выполняется на высокопроизводительном компьютере или вычислительном кластере на большом наборе данных изображений и/или видео, имеющих качество обоев. Глубокая генеративная нейросеть может иметь одну или несколько из следующих переменных: векторные переменные, латентные переменные в форме двумерной матрицы или набора двумерных матриц. В одном варианте осуществления латентные переменные могут быть получены из единичных нормальных распределений (unit normal distributions). Персонализацию можно выполнять отдельной сетью кодировщика, обученной отображать параметры персонализации в параметры пространственных распределений латентных переменных, такие как среднее значение и ковариация нормального распределения Гаусса, из которых извлекаются латентные переменные для глубокой генеративной нейросети. Когда конфиденциальная информация пользователя, например, одно или несколько пользовательских предпочтений, один или несколько пользовательских вводов, одна или несколько настроек вычислительного устройства, текущее местоположение GPS вычислительного устройства, контент пользовательской галереи, хранящейся в данный момент на вычислительном устройстве, содержимое истории браузера, хранящееся в данный момент на вычислительном устройстве, обрабатывается в качестве параметра (параметров) персонализации, должно быть понятно, что такая конфиденциальная информация пользователя не компрометируется, так как вся обработка указанной конфиденциальной информации пользователя выполняется процессором вычислительного устройства пользователя, а также отдельной сетью кодировщика и глубокой генеративной нейросетью, хранящимися в устройстве хранения вычислительного устройства пользователя. Другими словами, предпочтительно, чтобы конфиденциальная информация пользователя не покидала вычислительное устройство для обработки.
[0013] В альтернативном варианте осуществления способа (не проиллюстрирован) этап генерирования S105, S120 по меньшей мере одних обоев дополнительно содержит этапы синтеза изображения и модификации изображения и этап установки S110, S125 по меньшей мере одних обоев в качестве обоев вычислительного устройства дополнительно содержит этап установки модифицированного изображения в качестве по меньшей мере одних первых обоев. В еще одном варианте осуществления (не проиллюстрирован) способа этап генерирования S105, S120 по меньшей мере одних обоев дополнительно содержит этапы синтеза изображения и анимации изображения и этап установки S110, S125 по меньшей мере одних обоев в качестве обоев вычислительного устройства дополнительно содержит этап установки анимированного изображения в качестве по меньшей мере одних первых обоев. Благодаря отсутствию ограничений на пропускную способность и по существу бесплатному получению контента можно генерировать с помощью соответствующей модели бесплатные динамические обои (видео с высоким разрешением). Кроме динамических обоев можно генерировать интерактивные обои. Обои на смартфоне могут менять внешний вид в ответ на проведение пальцем пользователя по экрану, наклон телефона или некоторые события интерфейса. Например, смахивание к другой вкладке на экране Android может внести некоторое изменение в изображение (например, переместить облака на изображении в направлении смахивания). Согласно другому альтернативному варианту осуществления предложенного способа глубокая генеративная нейросеть может быть адаптирована для генерирования не только реалистичных и правдоподобных изображений, но также гиперреалистичных изображений, которые могут иметь, например, преувеличенные признаки, такие как чрезвычайно насыщенные краски заката, преувеличенные геометрические пропорции объектов (деревьев, зданий) и т.п. Некоторые пользователи могут пожелать и предпочесть такие гиперреалистичные обои. Большинство генеративных моделей (например, обученные состязательно генеративные нейросети) могут позволить каждому пользователю установить собственный предпочтительный компромисс между реализмом и гиперреализмом. В еще одном варианте осуществления способа этап генерирования S105, S120 по меньшей мере одних обоев дополнительно содержит этап применения сверхвысокого разрешения к синтезированному изображению, а этап установки S110, S125 по меньшей мере одних обоев в качестве обоев вычислительного устройства дополнительно содержит этап установки изображения, имеющего сверхвысокое разрешение, в качестве по меньшей мере одних первых обоев. Конкретные методы модификации изображения, применения к изображению сверхвысокого или гиперразрешения известны в данной области техники.
[0014] На фиг. 3 показана блок-схема вычислительного устройства 200 согласно одному варианту осуществления изобретения, раскрытого в данном документе. Вычислительное устройство 200 содержит процессор 205 и устройство хранения 210. Процессор 205 выполнен с возможностью выполнения задач обработки и вычислений, связанных с работой вычислительного устройства и операциями согласно предложенному способу. В устройстве хранения хранится обученная глубокая генеративная нейросеть 210.1 для локального генерирования и предоставления потока обоев посредством выполнения предложенного способа при выполнении обученной глубокой генеративной нейросети 210.1 процессором 205. В устройстве хранения 210 могут также храниться исполняемые процессором инструкции, побуждающие процессор выполнять один или несколько из описанных выше этапов способа. Процессор 205 и устройство хранения 210 могут быть взаимосвязаны функционально. Процессор 205 и устройство хранения 210 могут быть также связаны с другими компонентами (не показаны) вычислительного устройства. Другой компонент может включать в себя, без ограничения, один или несколько дисплеев, сенсорный экран, клавиатуру, малую клавиатуру, блок связи, динамик, микрофон, камеру, блок Bluetooth, блок NFC (связи ближнего действия), блок RF (радиочастотный), блок GPS, средства ввода/вывода, а также необходимые электрические провода и соединения и т.д. Процессор 205 может быть реализован, но без ограничения, в виде универсального процессора, специализированной интегральной схемы (ASIC), программируемой пользователем вентильной матрицы (FPGA) или системы на кристалле (SoC). Устройство хранения 210 может включать в себя, без ограничения, RAM, ROM и так далее. Таким образом, вычислительное устройство может быть, без ограничения, вычислительным устройством пользователя, таким как смартфон, планшет, ноутбук, лэптоп, интеллектуальный телевизор, информационно-развлекательная система в автомобиле и т.д.
Другие детали реализации
[0015] Любая часть следующей информации не должна рассматриваться в качестве ограничения настоящего изобретения. Напротив, последующая информация представлена для того, чтобы специалист смог применить на практике описанные варианты и чтобы доказать достаточность данного раскрытия. Любые конкретные значения любых параметров, указанных ниже, не следует рассматривать как ограничивающие.
[0016] Архитектура модели. Архитектура модели может быть основана на StyleGAN. Модель выдает изображения с разрешением 256×256 (или 512×512) и имеет четыре набора латентных переменных:
- вектор
Figure 00000001
, который кодирует цвета и общий план сцены;
- вектор
Figure 00000002
, который кодирует глобальное освещение (например, время суток);
- набор
Figure 00000003
квадратных матриц
Figure 00000004
,
Figure 00000005
, которые кодируют формы и детали статических объектов при N=7 различных разрешений между 4×4 and 256×256 (N=8 для 512×512);
- набор
Figure 00000006
квадратных матриц
Figure 00000007
,
Figure 00000008
, которые кодируют формы и детали динамических объектов при соответствующих разрешениях.
[0017] Генератор имеет два компонента: многослойный персептрон M и сверточный генератор G. Персептрон M берет конкатенированный вектор
Figure 00000009
и преобразует его в вектор стиля
Figure 00000010
. Сверточный генератор G имеет N=7 (или 8) блоков. Внутри каждого блока за сверткой следуют два поэлементных сложения двух тензоров, полученных из
Figure 00000011
and
Figure 00000012
с помощью обучаемого поканального масштабирования. И наконец, применяется преобразование AdaIN с использованием поканальных масштабов и смещений, полученных из W с помощью обучаемого линейного преобразования. В каждом блоке эта последовательность шагов повторяется дважды, а затем следует повышающая дискретизация и сверточные слои.
[0018] Далее будет упоминаться следующий набор входных латентных переменных:
Figure 00000013
}
в качестве исходных вводов (или исходных латентных переменных). Как и в StyleGAN, сверточный генератор может использовать отдельные векторы W при каждом разрешении (смешивание стилей). Набор всех векторов стилей будет обозначаться
Figure 00000014
И наконец, набор всех пространственных случайных вводов генератора будет обозначаться как
Figure 00000015
.
[0019] Обучение модели. Модель обучается на двух источниках данных: наборе данных статических изображений пейзажей
Figure 00000016
и наборе данных таймлапсовых видео пейзажей
Figure 00000017
. Большой набор данных статических изображений собрать относительно легко, кроме того, авторы приложили максимальные усилия для сбора нескольких сотен видео, которые не охватывают все разнообразие пейзажей. Таким образом, оба источника данных можно использовать для построения модели с улучшенными характеристиками. Для этого предлагаемую генеративную модель (глубокую генеративную нейросеть) обучают состязательным методом с двумя разными дискриминаторами.
[0020] Статический дискриминатор
Figure 00000018
имеет такие же выборы архитектуры и дизайна как и в StyleGAN. Он рассматривает изображения из
Figure 00000016
как реальные, а фиктивные экземпляры генерируются моделью. Парный дискриминатор
Figure 00000019
рассматривает пары изображений. Он дублирует архитектуру
Figure 00000018
, за исключением первого сверточного блока, который применяется отдельно к каждому кадру. Реальная пара изображений получается путем выборки видео из
Figure 00000017
, и последующей выборки двух произвольных кадров (произвольно удаленных друг от друга) из него. Фиктивная пара получается путем выборки общих статичных латентных переменных
Figure 00000020
и
Figure 00000003
, а затем индивидуальных динамичных латентных переменных
Figure 00000021
,
Figure 00000022
, и
Figure 00000023
,
Figure 00000024
. Затем два изображения получаются как
Figure 00000025
и
Figure 00000026
. Все экземпляры берутся из единичных нормальных распределений.
[0021] Модель обучается в рамках метода GAN с ненасыщающими потерями с регуляризацией R1. Во время каждого обновления генератора производится выборка пакета фиктивных изображений, к которым применяется статический дискриминатор, или выборка пакета пар изображений, к которому применяется парный дискриминатор. Пропорции статического дискриминатора и парного дискриминатора выбираются от 0,5/0,5 до 0,9/0,1 соответственно на каждой фазе перехода разрешения, а затем сохраняются фиксированными на уровне 0,1. Это помогает генератору научиться заблаговременно разделять статические и динамические латентные переменные для каждого разрешения и предотвращает переобучение парного генератора на относительно небольшом наборе данных видео, используемом для обучения.
[0022] Во время обучения целью парного дискриминатора является фокусировка на несоответствиях в каждой паре, а целью статического дискриминатора – фокусировка на визуальном качестве. Кроме того, поскольку парный дискриминатор видит только реальные кадры, выбранные из ограниченного количества видео, он может быть склонен к переобучению на этом ограниченном наборе и фактически перестать вносить вклад в процесс обучения (в то время как статический дискриминатор, наблюдающий более разнообразный набор сцен, продолжает улучшать разнообразие модели). Оказалось, что обе проблемы (сосредоточение на качестве изображения, а не на парной согласованности, переобучение на ограниченном разнообразии видео) можно решить простым методом. Он заключается в том, что фиктивный набор кадров дополняется парами фрагментов изображений, взятых из одного видеокадра, но из разных мест. Поскольку эти фрагменты имеют такое же визуальное качество, как изображения в реальных кадрах, и поскольку они получены из тех же видео, что и изображения в реальных парах, парный дискриминатор фактически перестает обращать внимание на качество изображения, не может просто переобучиться на статистике сцен в наборе данных видео, и должен сфокусироваться на поиске парных несоответствий в фиктивных парах. Этот метод выборки можно использовать для значительного улучшения качества модели.
[0023] Выборка видео из модели. Модель не пытается обучиться полной временной динамике видео, а фокусируется на парной согласованности кадров, которые генерируются при повторной выборке динамических латентных переменных. В частности, парный дискриминатор в модели не производит выборку реальных кадров последовательно. Процедура выборки для фиктивных пар также не пытается генерировать смежные кадры. Одной из причин, почему описанная фаза обучения не пытается обучиться непрерывности, заключается в том, что обучающий набор данных содержит видео с широко варьирующимися временными коэффициентами, что делает фактически бессмысленным понятие временной близости для пары кадров.
[0024] По этой причине предложенный процесс генерации не зависит от модели движения. Генератор вынужден генерировать правдоподобные кадры независимо от изменений
Figure 00000006
и
Figure 00000027
. В ходе экспериментов было обнаружено, что для генерирования привлекательных видео достаточно описанной ниже простой модели движения. В частности, для выборки видео можно выбрать один статический вектор
Figure 00000020
из единичного нормального распределения, а затем интерполировать динамический латентный вектор между двумя единичными нормально распределенными выборками
Figure 00000021
и
Figure 00000022
. Для пространственных отображений также можно выбрать
Figure 00000003
и
Figure 00000023
из единичного нормального распределения, а затем непрерывно деформировать
Figure 00000006
тензор, используя преобразование гомографии, параметризованное смещениями двух верхних углов и двух точек на горизонте. Направление гомографии выбирается произвольно, скорость выбирается в соответствии со средней скоростью облаков в наборе обучающих данных. Гомография транспонируется по вертикали для положений ниже горизонта, чтобы имитировать процесс отражения. Для получения
Figure 00000023
можно сделать композицию из
Figure 00000028
идентичных преобразований, а затем применить ее к
Figure 00000023
. По мере интерполяции/деформации латентных переменных они проходят через обученную модель для получения плавных видео. Следует отметить, что описываемая модель не требует пользовательского ввода для конкретного изображения.
[0025] Анимация реальных изображений пейзажа с помощью модели. Стадия использования. Чтобы анимировать определенное изображение пейзажа
Figure 00000029
, выводится набор латентных переменных, которые генерируют такое изображение в генераторе. Отыскиваются расширенные латентные параметры
Figure 00000030
и
Figure 00000031
, так чтобы
Figure 00000032
После этого можно применить ту же процедуру, что и выше, для анимации данного изображения.
[0026] Латентное пространство генератора является высокоизбыточным, и для получения хорошей анимации необходимо гарантировать, что латентные переменные происходят примерно из того же распределения, что и во время обучения модели (что наиболее важно,
Figure 00000030
должна принадлежать выходному многообразию
Figure 00000033
). Без такого предварительного распределения латентные переменные, которые генерируют хорошую реконструкцию, могли бы все же привести к неправдоподобной анимации (или ее отсутствию). Следовательно, вывод можно реализовать, используя следующую трехэтапную процедуру:
1. Этап 1: прогнозируется набор векторов стиля
Figure 00000034
используя сеть кодировщика
Figure 00000035
прямого распространения. Кодировщик имеет архитектуру ResNet-152 и обучен на 200000 синтетических изображениях со средней абсолютной потерей на ошибки.
Figure 00000030
предсказывается двухслойным персептроном с ReLU на основе конкатенации признаков с нескольких слоев ResNet, агрегированных глобальным усредняющим пулингом.
2. Этап 2: начиная с
Figure 00000030
' и нулевого
Figure 00000036
, все латентные параметры оптимизируются для уменьшения ошибки реконструкции. Кроме того, назначаются штрафы на отклонение
Figure 00000030
от прогнозируемого
Figure 00000037
(с коэффициентом 0,01) и отклонение S от нуля (путем снижения скорости обучения). Оптимизация выполняется в процессе вплоть до 500 шагов с ADAM и большой начальной скоростью обучения (0,1), которая уменьшается вдвое каждый раз, когда потери не улучшаются в течение 20 итераций. В одном варианте метода, который оценивался отдельно, используется двоичная маска сегментации, полученная с помощью предварительно обученной сети сегментации ADE20k. Эта маска определяет динамические (небо + вода) и остальные (статические) части сцены. В данном варианте
Figure 00000003
(соответственно,
Figure 00000006
) сохраняются нулевыми для динамических (соответственно, статических) частей изображения.
3. Этап 3: замораживаются латентные параметры, и производится тонкая настройка весов
Figure 00000038
для дальнейшего уменьшения ошибки на реконструкцию. Этот этап необходим, так как даже после оптимизации остается расхождение между реконструкцией и введенным изображением. Во время тонкой настройки минимизируется комбинация попиксельной средней абсолютной ошибки и потери восприятия, причем последняя имеет гораздо больший вес (10х). Выполняется 500 шагов с ADAM и
Figure 00000039
=0,001.
[0027] Манипулирование освещением. Во время обучения модели
Figure 00000033
используется для отображения
Figure 00000040
в
Figure 00000041
Осуществляется повторная выборка
Figure 00000027
, чтобы учесть изменения освещения, погоды и т.п. и чтобы
Figure 00000020
описывала только статические атрибуты (землю, строения, форму горизонта и т.д.). Для изменения освещения в реальном изображении необходимо изменить
Figure 00000027
, а затем использовать MLP для получения новых стилей
Figure 00000030
. Однако описанная процедура вывода выдает только
Figure 00000030
и было обнаружено, что очень сложно инвертировать
Figure 00000033
и получить
Figure 00000042
Для решения этой проблемы отдельную нейросеть
Figure 00000043
обучают аппроксимировать локальные динамические параметры
Figure 00000033
. Пусть
Figure 00000044
и
Figure 00000045
тогда
Figure 00000043
оптимизируется следующим образом:
Figure 00000046
, где
Figure 00000047
- коэффициент интерполяции между
Figure 00000048
и
Figure 00000049
. Таким образом, с=0 соответствует
Figure 00000050
, так что
Figure 00000051
; c=1 соответствует
Figure 00000052
, так что
Figure 00000053
.
[0028] Это реализуется комбинацией L1 потери
Figure 00000054
и относительной потери направления
Figure 00000055
. Общий критерий оптимизации:
Figure 00000056
.
Figure 00000043
обучается с ADAM до схождения. Во время тестирования сеть
Figure 00000043
позволяет сделать выборку случайной цели
Figure 00000052
и обновить
Figure 00000030
в соответствии с ней путем увеличения коэффициента интерполяции
Figure 00000057
по мере продвижения анимации.
[0029] Суперразрешение (SR). Поскольку модели обучаются при среднем разрешении (например, 256×256), можно получить мелкие детали из данного изображения, подлежащего анимации, с помощью отдельной процедуры суперразрешения. Основная идея метода суперразрешения состоит в том, чтобы как можно больше позаимствовать из исходного изображения с высоким разрешением (которое подвергается субдискретизации для анимации с помощью
Figure 00000038
). Для этого анимации придается суперразрешение, и она смешивается с исходным изображением с помощью стандартного метода получения суперразрешения изображения. Можно использовать ESRGANx4, обученный на специальном наборе данных, который генерируется следующим образом. Чтобы получить пару (высокое разрешение, низкое разрешение), берется кадр
Figure 00000029
из набора данных видео в качестве изображения с высоким разрешением, затем кадр подвергается субдискретизации, выполняются первые два этапа логического вывода и получается изображение с низким разрешением (неидеальное). Таким образом, сеть обучается на более сложной задаче, чем суперразрешение.
[0030] После получения видео с суперразрешением динамические части (небо и вода) переносятся из него в окончательный результат. Статические части получаются путем запуска направляемого фильтра на кадрах с суперразрешением при использовании введенного изображения высокого разрешения в качестве ориентира. Такая процедура эффективно передает детали с высоким разрешением из ввода, сохраняя при этом изменение освещения, вызванное манипуляцией освещением.
[0031] По меньшей мере один из множества модулей, узлов, компонентов, этапов, подэтапов можно реализовать в модели искусственного интеллекта (ИИ)). Функцию, связанную с ИИ, можно выполнять с использованием энергонезависимой памяти, энергозависимой памяти и процессора. Процессор может включать в себя один или несколько процессоров. При этом один или несколько процессоров могут быть процессором общего назначения, например, центральным процессором (ЦП), процессором приложений (ПП) или т.п., блоком обработки только графики, таким как графический процессор (ГП), процессор визуальной информации (ПВИ) и/или специализированный процессор ИИ, такой как нейронный процессор (НП). Один или несколько процессоров управляют обработкой входных данных в соответствии с заранее определенным рабочим правилом или моделью искусственного интеллекта (ИИ), хранящейся в энергонезависимой памяти и энергозависимой памяти. Заранее определенное рабочее правило или модель искусственного интеллекта предоставляется посредством обучения. В данном контексте предоставление посредством обучения означает, что предварительно определенное рабочее правило или модель ИИ с желаемой характеристикой генерируется посредством применения алгоритма обучения к множеству обучающих данных. Обучение может выполняться на самом устройстве, в котором реализуется ИИ согласно варианту осуществления, и/или может быть реализовано через отдельный сервер/систему.
[0032] Модель ИИ может состоять из множества слоев нейронной сети. Каждый слой имеет множество значений весов и выполняет работу слоя путем вычисления предыдущего слоя и работы с множеством весов. Примеры нейронных сетей включают в себя, без ограничения перечисленным, сверточную нейросеть (CNN), глубокую нейросеть (DNN), рекуррентную нейросеть (RNN), ограниченную машину Больцмана (RBM), глубокую сеть доверия (DBN), двунаправленную рекуррентную глубокую нейросеть (BRDNN), генеративные состязательные сети (GAN) и глубокие Q-сети. Алгоритмом обучения является метод обучения заранее определенного целевого устройства (например, робота) с использованием множества обучающих данных для того, чтобы побудить, разрешать или контролировать целевое устройство для выполнения определения или прогнозирования. Примеры алгоритмов обучения включают в себя, без ограничения, обучение с учителем, обучение без учителя, обучение c частичным привлечением учителя или обучение с подкреплением.
[0033] Следует четко понимать, что нет необходимости использовать все технические эффекты, упомянутые в данном документе, во всех и каждом варианте осуществления настоящего способа. Например, варианты осуществления могут быть реализованы без использования пользователем некоторых из этих технических эффектов, а другие варианты могут быть реализованы с использованием других технических эффектов или вообще без них.
[0034] Модификации и усовершенствования описанных выше реализаций предложенного способа могут быть очевидными для специалистов в данной области техники. Приведенное выше описание предназначено скорее для примера, чем для ограничения. Таким образом, объем настоящего изобретения ограничивается только объемом прилагаемой формулы изобретения.
[0035] Хотя представленные выше варианты осуществления были описаны и показаны со ссылкой на конкретные этапы, выполняемые в определенном порядке, следует понимать, что эти этапы можно объединить, разделить на части или изменить порядок их выполнения, не выходя за рамки объема настоящего изобретения. Соответственно, порядок и группировка этапов не являются ограничением предложенного способа.

Claims (25)

1. Способ генерирования обоев локально на вычислительном устройстве и отображения этих обоев на этом вычислительном устройстве, заключающийся в том, что:
генерируют (S105) на вычислительном устройстве по меньшей мере одни первые обои потока обоев, используя глубокую генеративную нейросеть, причем глубокая генеративная нейросеть обучена на коллекции высококачественных изображений/видео и заранее загружена в вычислительное устройство, и
устанавливают (S110) на вычислительном устройстве по меньшей мере одни первые обои в качестве обоев данного вычислительного устройства,
причем способ дополнительно содержит этап, на котором определяют текущие положения и цвета иконок и виджетов на экране устройства и используют определенные текущие положения и цвета иконок и виджетов в качестве дополнительных параметров глубокой генеративной нейросети при генерировании обоев.
2. Способ по п. 1, дополнительно содержащий следующие этапы, выполняемые при удовлетворении условия (S115):
генерируют (S120) на вычислительном устройстве по меньшей мере одни вторые обои потока обоев, используя глубокую генеративную нейросеть, причем по меньшей мере одни вторые обои отличаются от по меньшей мере одних первых обоев;
устанавливают (S125) на вычислительном устройстве по меньшей мере одни вторые обои в качестве обоев данного вычислительного устройства.
3. Способ по п. 2, в котором упомянутое условие включает в себя одно или несколько из следующих условий:
на вычислительном устройстве получен пользовательский ввод, при этом пользовательский ввод представляет то, выражает ли пользователь вычислительного устройства неодобрение обоям, установленным в данный момент в качестве обоев вычислительного устройства, или нет;
истек преднастроенный период времени;
изменилось местоположение GPS вычислительного устройства, причем местоположение GPS вычислительного устройства регистрируется блоком GPS, содержащимся в данном вычислительном устройстве.
4. Способ по п. 1, дополнительно содержащий один или оба из следующих этапов:
индивидуализируют (S95) глубокую генеративную нейросеть для пользователя вычислительного устройства, используя произвольный ввод в качестве параметра глубокой генеративной нейросети, обеспечивая тем самым, что данная глубокая генеративная нейросеть настроена на генерирование уникальных обоев для данного пользователя вычислительного устройства;
персонализируют (S100) глубокую генеративную нейросеть для пользователя вычислительного устройства, обеспечивая тем самым, что обои, генерируемые глубокой генеративной нейросетью, персонализированы для данного пользователя, причем персонализация основана на одном или нескольких из следующих параметров персонализации: одном или нескольких предпочтениях пользователя, одном или нескольких вводах пользователя, одной или нескольких настройках вычислительного устройства, текущем времени дня, текущем времени года, текущем местоположении GPS вычислительного устройства, контенте пользовательской галереи, хранящейся в данный момент на вычислительном устройстве, содержимом истории браузера, хранящемся в данный момент на вычислительном устройстве, текущей погоде и прогнозе погоды, расположении и цветах иконок и виджетов на экране устройства.
5. Способ по п. 1 или 2, в котором обои, генерируемые глубокой генеративной нейросетью, являются статическими, динамическими или интерактивными.
6. Способ по п. 1, в котором глубокая генеративная нейросеть имеет одну или несколько из следующих переменных: векторные переменные, латентные переменные, имеющие форму двумерной матрицы или набора двумерных матриц.
7. Способ по п. 6, в котором латентные переменные извлекаются из единичных нормальных распределений.
8. Способ по любому из пп. 4 или 6, в котором персонализацию выполняет отдельная сеть кодировщик, обученная отображать параметры персонализации в параметрах пространственных распределений латентных переменных, таких как среднее значение и ковариация нормального распределения Гаусса, из которых извлечены латентные переменные.
9. Способ по п. 1 или 2, в котором этап генерирования по меньшей мере одних обоев дополнительно включает в себя этапы синтеза изображения и модификации изображения, и
этап установки по меньшей мере одних обоев в качестве обоев вычислительного устройства дополнительно содержит этап установки модифицированного изображения в качестве по меньшей мере одних первых обоев.
10. Способ по п. 1 или 2, в котором этап генерирования по меньшей мере одних обоев дополнительно содержит этапы синтеза изображения и анимации изображения, и
этап установки по меньшей мере одних обоев в качестве обоев вычислительного устройства дополнительно содержит этап установки анимированного изображения в качестве по меньшей мере одних первых обоев.
11. Способ по п. 6, в котором глубокую генеративную нейросеть обучают, используя процесс состязательного обучения вместе с одной или несколькими дискриминантными сетями.
12. Вычислительное устройство (200), содержащее процессор (205) и устройство хранения (210), хранящее обученную глубокую генеративную нейросеть (210.1) для генерирования обоев локально на вычислительном устройстве, причем процессор выполнен с возможностью осуществления способа по любому из пп. 1-11.
13. Вычислительное устройство (200) по п. 12, отличающееся тем, что вычислительное устройство (200) представляет собой пользовательское вычислительное устройство, являющееся одним из следующих устройств: смартфон, планшет, лэптоп, ноутбук, интеллектуальный телевизор.
RU2020133033A 2020-10-07 2020-10-07 Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его RU2768551C1 (ru)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2020133033A RU2768551C1 (ru) 2020-10-07 2020-10-07 Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его
PCT/KR2021/000224 WO2022075533A1 (en) 2020-10-07 2021-01-08 Method of on-device generation and supplying wallpaper stream and computing device implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2020133033A RU2768551C1 (ru) 2020-10-07 2020-10-07 Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его

Publications (1)

Publication Number Publication Date
RU2768551C1 true RU2768551C1 (ru) 2022-03-24

Family

ID=80819470

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2020133033A RU2768551C1 (ru) 2020-10-07 2020-10-07 Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его

Country Status (2)

Country Link
RU (1) RU2768551C1 (ru)
WO (1) WO2022075533A1 (ru)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6202083B1 (en) * 1998-05-18 2001-03-13 Micron Electronics, Inc. Method for updating wallpaper for computer display
JP2004357176A (ja) * 2003-05-30 2004-12-16 V-Cube Inc 壁紙画像作成システム
US20120023425A1 (en) * 2009-11-13 2012-01-26 Google Inc. Live Wallpaper
US20150205498A1 (en) * 2014-01-17 2015-07-23 Southern Telecom Inc. Automatic wallpaper image changer for a computing device
EP2696338B1 (en) * 2012-08-08 2017-11-29 Samsung Electronics Co., Ltd Terminal and method for generating live image
CN107817999A (zh) * 2016-08-31 2018-03-20 上海卓易科技股份有限公司 一种动态壁纸的生成方法及终端
DE102019102279A1 (de) * 2018-02-14 2019-08-14 Nvidia Corporation Erzeugung von synthetischen Bildern zum Trainieren eines Neuronal-Netzwerkmodells
CN106354385B (zh) * 2016-08-26 2020-03-13 Oppo广东移动通信有限公司 图像处理方法、装置及终端设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8843853B1 (en) * 2006-12-05 2014-09-23 At&T Mobility Ii Llc Home screen user interface for electronic device display
US10726593B2 (en) * 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11049147B2 (en) * 2016-09-09 2021-06-29 Sony Corporation System and method for providing recommendation on an electronic device based on emotional state detection
US11291796B2 (en) * 2016-12-29 2022-04-05 Huawei Technologies Co., Ltd Method and apparatus for adjusting user emotion
US10748314B2 (en) * 2018-02-15 2020-08-18 Microsoft Technology Licensing, Llc Controllable conditional image generation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6202083B1 (en) * 1998-05-18 2001-03-13 Micron Electronics, Inc. Method for updating wallpaper for computer display
JP2004357176A (ja) * 2003-05-30 2004-12-16 V-Cube Inc 壁紙画像作成システム
US20120023425A1 (en) * 2009-11-13 2012-01-26 Google Inc. Live Wallpaper
EP2696338B1 (en) * 2012-08-08 2017-11-29 Samsung Electronics Co., Ltd Terminal and method for generating live image
US20150205498A1 (en) * 2014-01-17 2015-07-23 Southern Telecom Inc. Automatic wallpaper image changer for a computing device
CN106354385B (zh) * 2016-08-26 2020-03-13 Oppo广东移动通信有限公司 图像处理方法、装置及终端设备
CN107817999A (zh) * 2016-08-31 2018-03-20 上海卓易科技股份有限公司 一种动态壁纸的生成方法及终端
DE102019102279A1 (de) * 2018-02-14 2019-08-14 Nvidia Corporation Erzeugung von synthetischen Bildern zum Trainieren eines Neuronal-Netzwerkmodells

Also Published As

Publication number Publication date
WO2022075533A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
Fan et al. Unified implicit neural stylization
US11544905B2 (en) Method and apparatus for providing virtual clothing wearing service based on deep-learning
US11544880B2 (en) Generating modified digital images utilizing a global and spatial autoencoder
KR20210119438A (ko) 얼굴 재연을 위한 시스템 및 방법
WO2022089166A1 (zh) 人脸图像的处理方法、显示方法、装置及设备
US20230401672A1 (en) Video processing method and apparatus, computer device, and storage medium
US11989846B2 (en) Mixture of volumetric primitives for efficient neural rendering
Logacheva et al. Deeplandscape: Adversarial modeling of landscape videos
TW202336694A (zh) 用於影像濾波器的整合式機器學習演算法
US11935217B2 (en) Generating deep harmonized digital images
CN113240687A (zh) 图像处理方法、装置、电子设备和可读存储介质
CN114972574A (zh) 利用潜在向量流绘制器和图像修改神经网络的基于web的数字图像实时编辑
CN112381707A (zh) 图像生成方法、装置、设备以及存储介质
CN115984447A (zh) 图像渲染方法、装置、设备和介质
Ouyang et al. Real-time neural character rendering with pose-guided multiplane images
US20210407153A1 (en) High-resolution controllable face aging with spatially-aware conditional gans
US11677897B2 (en) Generating stylized images in real time on mobile devices
RU2768551C1 (ru) Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его
CN114418835A (zh) 图像处理方法、装置、设备及介质
Šoberl Mixed reality and deep learning: Augmenting visual information using generative adversarial networks
CN116071478B (zh) 图像重建模型的训练方法和虚拟场景渲染方法
US20240193724A1 (en) Parametric composite image harmonization
US20240155071A1 (en) Text to video generation
US20240161362A1 (en) Target-augmented material maps
WO2022164660A1 (en) Mixture of volumetric primitives for efficient neural rendering