JP7502312B2 - スタイル変換 - Google Patents

スタイル変換 Download PDF

Info

Publication number
JP7502312B2
JP7502312B2 JP2021546228A JP2021546228A JP7502312B2 JP 7502312 B2 JP7502312 B2 JP 7502312B2 JP 2021546228 A JP2021546228 A JP 2021546228A JP 2021546228 A JP2021546228 A JP 2021546228A JP 7502312 B2 JP7502312 B2 JP 7502312B2
Authority
JP
Japan
Prior art keywords
style
reference image
target object
representation
editable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021546228A
Other languages
English (en)
Other versions
JPWO2020180437A5 (ja
JP2022523754A (ja
Inventor
ウォン,ジンペン
リン,チン-イュー
Original Assignee
マイクロソフト テクノロジー ライセンシング,エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイクロソフト テクノロジー ライセンシング,エルエルシー filed Critical マイクロソフト テクノロジー ライセンシング,エルエルシー
Publication of JP2022523754A publication Critical patent/JP2022523754A/ja
Publication of JPWO2020180437A5 publication Critical patent/JPWO2020180437A5/ja
Application granted granted Critical
Publication of JP7502312B2 publication Critical patent/JP7502312B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/177Editing, e.g. inserting or deleting of tables; using ruled lines
    • G06F40/18Editing, e.g. inserting or deleting of tables; using ruled lines of spreadsheets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/177Editing, e.g. inserting or deleting of tables; using ruled lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

背景
[0001] グラフ及び表のような編集可能オブジェクトは、日常生活において重要な役割を有する。しかし、これらの編集可能オブジェクトを使用する間、ユーザはしばしば、どのような種類の設計又はスタイル(例えば色及びレイアウトなど)が使用されるべきかを判断することに、戸惑い又は困難を感じる。また、使用される設計又はスタイルを知っていても、ユーザはこのようなスタイルを迅速に適用することができない。その代りに、ユーザは、各スタイル要素に従って編集可能オブジェクト内の各々の要素を調整する必要があり、そのような操作の時間費用は極めて高い。
概要
[0002] 本開示の様々な実装形態は、編集可能オブジェクト(例えばグラフ、表など)のスタイル変換解決策を提供する。いくつかの実装形態では、編集可能な第1のスタイルを有する、標的オブジェクトが取得され得る。基準オブジェクトを含む基準画像が取得され得る。基準オブジェクトの第2のスタイルが取得され得、基準オブジェクトの第2のスタイルは基準画像から抽出される。第2のスタイルは標的オブジェクトへ適用され得る。
[0003] 本概要は、以下の「発明を実施するための形態」においてさらに説明される概念のうちの選択されたものを単純化された形式で導入するために提供される。本概要は、主題の重要な又は必須の特徴を特定することを目的としておらず、また、主題の範囲を制限するために使用されることも目的としていない。
図面の簡単な説明
[0004]本開示の様々な実装形態を実装するための計算デバイスを示すブロック図である。 [0005]本開示のいくつかの実装形態によるスタイル変換のためのアーキテクチャの概略図を示す。 [0006]本開示のいくつかの実装形態によるスタイル変換のためのモデルの概略図を示す。 [0007]本開示のいくつかの実装形態による復号器の概略図を示す。 [0008]本開示のいくつかの実装形態によるスタイル変換の方法の流れ図を示す。 [0009]本開示のいくつかの実装形態によるスタイル変換の別の方法の流れ図を示す。
[0010] これらの図において、同じ又は同様な参照符号は、同じ又は同様な要素を指示する。
発明の詳細な説明
[0011] 本開示は次に、いくつかの例示的実装形態を参照して論述される。これらの実装形態は、本主題の範囲に関するいかなる制限も示唆するものではなく、当業者が本開示をより良く理解し、したがって実装することを可能にする目的のためだけに論述される、ということを理解すべきである。
[0012] 本明細書で使用されるように、用語「含む」及びその変形は、「含むがそれに限定されない」を意味するオープン用語として読まれるべきである。用語「に基づく」は「に少なくとも部分的に基づく」として読まれるべきである。用語「1つの実装形態(one implementation)」及び「実装形態(an implementation)」は「少なくとも1つの実装形態」として読まれるべきである。用語「別の実装形態」は「少なくとも1つの他の実装形態」として読まれるべきである。用語「第1」、「第2」などは、異なるか又は同じオブジェクトを指し得る。明示的及び暗黙的な他の定義が以下に含まれ得る。
[0013] 本開示の基本原理及びいくつかの例示的実装形態が、添付図面を参照して以下に説明される。図1は、本開示の複数の実装形態を行い得る計算デバイス100のブロック図を示す。図1に示す計算デバイス100は例示に過ぎず、本開示により説明される実装形態の機能及び範囲に関する制約を構成しないものとするということを理解すべきである。図1によると、計算デバイス100は、汎用計算デバイスの形式の計算デバイス100を含む。計算デバイス100の部品は限定しないが、1つ又は複数のプロセッサ又は処理ユニット110、メモリ120、ストレージデバイス130、1つ又は複数の通信ユニット140、1つ又は複数の入力デバイス150、及び1つ又は複数の出力デバイス160を含み得る。
[0014] いくつかの実装形態では、計算デバイス100は、計算能力を有する様々なユーザ端末又はサービス端末として実装され得る。サービス端末は、様々なサービス提供者により提供されるサーバ、大規模計算デバイスなどであり得る。ユーザ端末は、例えば任意のタイプの可動端末、固定端末又は携帯端末であり、モバイルフォン、サイト、ユニット、デバイス、マルチメディアコンピュータ、マルチメディアタブレット、インターネットノード、コミュニケータ、デスクトップコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、パーソナル通信システム(PCS:Personal Communication System)デバイス、パーソナルナビゲーションデバイス、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)、音声/ビデオプレーヤ、ディジタルカメラ/ビデオ、定位デバイス、テレビジョン受信機、無線放送受信機、電子ブックデバイス、ゲームデバイス又はこれらのデバイスのアクセサリ及び周辺デバイスからなるこれらの任意の他の組み合わせ、又はこれらの任意の他の組み合わせを含む。計算デバイス100が任意のタイプのユーザ固有インターフェース(例えば、「ウェアラブル」回路など)を支援し得るということも理解され得る。
[0015] 処理ユニット110は、物理的又は仮想的プロセッサであり得、メモリ120内に格納されたプログラムに基づき、様々な処理を実行し得る。マルチプロセッサシステムでは、複数の処理ユニットが、計算デバイス100の並列処理能力を強化することと並行してコンピュータ実装可能命令を実行する。処理ユニット110は、中央処理ユニット(CPU)、マイクロプロセッサ、コントローラ及びマイクロコントローラとしても知られ得る。
[0016] 計算デバイス100は通常、複数のコンピュータストレージ媒体を含む。このような媒体は、計算デバイス100によりアクセス可能な任意の実現可能媒体であり得、限定しないが、揮発性及び不揮発性媒体、着脱可能及び着脱不能媒体を含む。メモリ120は、揮発性メモリ(例えばレジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(読み出し専用メモリ(ROM)、電気的消去可能PROM(EEPROM)、フラッシュなど)又はそれらの任意の組み合わせであり得る。メモリ120は、本明細書において説明される様々な実装形態の機能を実行するように構成されたフォーマットペインタ122を含み得る。フォーマットペインタ122は、対応機能を行うために処理ユニット110によりアクセスされ及び操作され得る。
[0017] ストレージデバイス130は、着脱可能又は着脱不能媒体であり得、情報及び/又はデータを格納するために使用され得るとともに計算デバイス100内でアクセスされ得る、機械可読媒体を含み得る。計算デバイス100はさらに、別の着脱可能/着脱不能、揮発性/不揮発性ストレージ媒体を含み得る。図1には示さないが、着脱可能及び不揮発性ディスクから読み出すか又はそれへ書き込むためのディスクドライブ、並びに着脱可能及び不揮発性光ディスクから読み出すか又は書き込むための光ディスクドライブが設けられ得る。このような場合、各ドライブは、1つ又は複数のデータ媒体インターフェースを介し、バス(図示せず)へ接続され得る。
[0018] 通信ユニット140は、通信媒体を介し、別の計算デバイスとの通信を実装する。加えて、計算デバイス100の部品の機能は、単一コンピュータクラスタ又は複数の計算機により実現され得、これらの計算機は通信接続を介し通信し得る。したがって、計算デバイス100は、1つ若しくは複数の他のサーバへの論理接続、パーソナルコンピュータ(PC)、又は別の一般ネットワークノードを使用することにより、ネットワーク環境において操作され得る。
[0019] 入力デバイス150は、マウス、キーボード、トラックボール、音声入力デバイスなどの、1つ又は複数の様々な入力デバイスであり得る。出力デバイス160は、1つ又は複数の出力デバイス(例えばディスプレイ、ラウドスピーカ、プリンタなど)であり得る。計算デバイス100はまた、必要に応じ、通信ユニット140を介し1つ又は複数の外部デバイス(図示せず)と通信し得、外部デバイス(例えばストレージデバイス、ディスプレイデバイスなど)は、ユーザが計算デバイス100と、又は計算デバイス100が1つ若しくは複数の他の計算デバイスと通信することを可能にする任意のデバイス(ネットワークカード、モデムなど)と相互作用することを可能にする1つ若しくは複数のデバイスと通信する。このような通信は、入出力(I/O)インターフェース(図示せず)を介し実行され得る。
[0020] いくつかの実装形態では、個々のデバイス上に一体化されることとは別に、計算デバイス100のそれぞれの部品の一部又はすべてはまた、クラウドコンピューティングアーキテクチャの形式でも設定され得る。クラウドコンピューティングアーキテクチャでは、これらの部品はリモートで配置され得、及び本開示により説明される機能を実装するように共働し得る。いくつかの実装形態では、クラウドコンピューティングは、計算サービス、ソフトウェアサービス、データアクセスサービス及び格納サービスを、このようなサービスを提供するシステム若しくはハードウェアの物理位置又は構成を端末ユーザに通知することなく提供する。様々な実装形態では、クラウドコンピューティングは、好適なプロトコルを使用することにより、広域ネットワーク(インターネットなど)を介しサービスを提供する。例えば、クラウドコンピューティング提供者は、ウェブブラウザ又は任意の他の計算部品を介しアクセスされ得るアプリケーションを、広域ネットワークを介し提供する。クラウドコンピューティングアーキテクチャのソフトウェア又は部品及び対応データは、遠隔位置におけるサーバ上に格納され得る。クラウドコンピューティングアーキテクチャ環境内の計算資源は、リモートデータセンタにおいてマージ又は分散され得る。クラウドコンピューティングインフラストラクチャは、ユーザの単独アクセス点として示されたとしても、共有データセンタを介しサービスを提供し得る。したがって、本明細書において説明される部品及び機能は、遠隔位置におけるサービス提供者からのクラウドコンピューティングアーキテクチャを使用することにより提供され得る。代替的に、部品及び機能はまた、従来のサーバから提供され得るか、又はクライアントデバイス上に直接若しくは他のやり方で取り付けられ得る。
[0021] 計算デバイス100は、本開示の実装形態に従ってスタイル変換解決策を実装するために使用され得る。ここで、編集可能オブジェクトは、編集可能スタイルを有する標的オブジェクト(例えば、プレゼンテーションアプリケーション、テキスト処理アプリケーション、及び/又はスプレッドシートアプリケーション内で生成されるグラフ若しくは表)を指す。例えば、グラフのスタイルは、色、パターン、境界、陰影、座標などを含み得る。外観の単一又は特定の要素を反映する一般的な形式とは異なり、編集可能オブジェクトの「スタイル」はオブジェクトの外観全体を表し、及び、しばしば様々な外観要素により具現化される。例えば、編集可能オブジェクトの「スタイル」は、オブジェクトの色、パターン、境界、陰影、及び外観全体及び/又はレイアウトを明示する座標などの要素を含む。
[0022] いくつかの実装形態では、編集可能オブジェクトはまた、プレゼンテーションアプリケーション、テキスト処理アプリケーション及び/又はスプレッドシートアプリケーションにより生成される文書であり得る。例えば、編集可能オブジェクトとして、これらの文書のスタイルは、フォント、サイズ、行間隔、インデント、背景、レイアウトなどを具現化し得る。
[0023] 編集可能オブジェクト(例えばグラフ又は表)のスタイル変換中、計算デバイス100は、グラフなどの基準オブジェクトを含み得る基準画像170を、入力デバイス150を介し受信し得る。フォーマットペインタ122は、基準画像170を処理し、及び基準画像170内の基準オブジェクトのスタイルを抽出し得る。加えて、計算デバイス100は、グラフ又は表であり得る編集可能オブジェクトを、入力デバイス150を介し受信し得る。例えば、基準オブジェクトの抽出されたスタイルは、そのスタイルを修正するために編集可能オブジェクトへ適用され得る。修正された編集可能オブジェクトは、出力180として出力デバイス160へ、次にさらにユーザへ提供され得る。例えば、修正された編集可能オブジェクトはディスプレイ上に示され、及びユーザに提示され得る。
[0024] 本開示の例示的実装形態は、図2~5を参照して以下に詳細に説明される。図2は本開示のいくつかの実装形態によるスタイル変換のアーキテクチャ200の概略図を示す。フォルマントペインタ122は、アーキテクチャ200により少なくとも部分的に実装され得る。図2は図解だけの目的のために提供されており、したがって本開示の範囲を制限するように意図されていないということを理解すべきである。本開示の精神及び範囲から逸脱することなく、例えば、スタイル変換のためのアーキテクチャ200内の1つ若しくは複数のモジュールは、1つのモジュールへ結合され得、1つ若しくは複数のモジュールはスタイル変換のためにアーキテクチャ200内へ追加され得、スタイル変換のためのアーキテクチャ200の1つ若しくは複数のモジュールは置換され得る、及び/又は、同様である。
[0025] ユーザは、基準画像202をローカル計算デバイスからインポートし得るか、又は基準画像202をネットワーク(例えば基準画像202のリンクを提供する)から取得し得る。基準画像202は、編集可能でないことがあり、グラフなどの基準オブジェクトを含む。便宜のために、オブジェクトは、グラフを参照して以下に説明される。しかし、本開示の原理は、表のような他のオブジェクトへもまた適用され得る、ということを理解すべきである。
[0026] 基準画像202は、その中の基準オブジェクトのスタイルを取得するために、スタイル解析される。例えば、基準画像202のスタイルは、ローカル計算デバイスにおいて解析され得る。代替的に、基準画像202はサーバ(例えばクラウド)へアップロードされ得、サーバは基準画像202のスタイルを解析し、次に解析結果をローカルデバイスへ提供する。基準オブジェクトのスタイル206が取得された後、スタイル206は、所定のスタイルを有するグラフ204へ適用される。グラフ204は、プレゼンテーションアプリケーション、テキスト処理アプリケーション、及び/又はスプレッドシートアプリケーションにより生成され得る。グラフ204のスタイルは、スタイル206を有する出力グラフ208を取得するように、スタイル206により修正又は置換される。
[0027] いくつかの実装形態では、スタイル解析は所定の規則により行われ得る。棒グラフを一例として挙げると、基準画像202内の最大面積を有する色は背景色と考えられ得、2番目の最大面積を有する色は棒グラフ内の棒の色と考えられ得る。規則ベースモデルに基づき、スタイルは少ない計算資源で抽出され得、スタイル変換の応答時間はそれに応じて低減され、このことは制限された計算資源上のオフラインスタイル変換の実装に好ましい。
[0028] いくつかの実装形態では、スタイル解析はニューラルネットワークにより実装され得る。例えば、図3は本開示のいくつかの実装形態によるスタイル変換のためのニューラルネットワークモデル300の概略図を示す。図3に示すように、ニューラルネットワークモデル300は、基準画像内の基準グラフのスタイルを解析又は抽出するためのスタイル解析部320と、解析又は抽出されたスタイルを標的グラフ内へ適用するためのスタイル適応部340とを含む。スタイル解析部320は、画像又はオブジェクトのスタイルを抽出するための大規模データセットに基づき訓練され得る。
[0029] スタイル解析部320では、基準画像302は、基準画像302を基準画像302の表現(例えばベクトル表現)へ変換するために、符号器304へ提供される。例えば、符号器304は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)により実装され得る。
[0030] スタイルは、色、パターン、背景、境界、陰影、及び数値等の表示/非表示のような複数のスタイル要素を含み得る。したがって、復号器は対応するスタイル要素を復号化するために使用され得る。図3に示すように、様々なスタイル要素を取得するために、N個の異なるスタイル要素をそれぞれ復号化するための復号器306-1~306-Nが使用される。例えば、復号器306-1は色系列を出力する色関連スタイル要素を取得し得る。復号器306-1~306-Nにより出力されたスタイル要素は、解析されたスタイルとして併せて結合され得、次にスタイル適応部340へ出力される。
[0031] いくつかの実装形態では、基準グラフ(例えば棒グラフ)内の様々な部分(背景、バーなど)を検出するために、オブジェクト検出モジュール(図示せず)がスタイル解析部320内に追加され得る。オブジェクト検出モジュールの出力は、基準グラフの特徴をより良く抽出するために復号器へ提供され得る。例えば、符号器304の特徴ベクトル内の背景に対応する部分は、背景関連情報を抽出する復号器へ提供され得る。このようにして、基準グラフの関連スタイル要素が、より効率的に抽出され得る。
[0032] いくつかの実装形態では、復号器のうちのいくつかに対応する機能は、計算効率を増強するために、規則ベースモデルにより置換され得る。例えば、色は、グラフの最も高い計算複雑性を有するスタイル要素の1つであり得る。したがって、色のスタイル要素は、計算効率を増強するために、規則ベースモデルにより実装され得る。
[0033] 図3に示すように、スタイル適応部340は、スタイル解析部320から取得されたスタイルを、所定のスタイルを有するグラフ310へ適用する、スタイルアダプタ308を含む。グラフ310の所定のスタイルは、出力グラフ312を取得するために、基準画像302から抽出されたスタイルへ修正される。出力グラフ312は、ユーザが出力グラフ312のスタイルをさらに修正又は編集するために出力グラフ312のスタイルを操作し得るように、ディスプレイ上に示され得る。ユーザは、出力グラフ312の表示効果を改善するために、出力グラフ312をトリミング又はチューニングし得る。
[0034] 図4は本開示のいくつかの実装形態による復号器400の概略図を示す。復号器400は、図3に示す復号器306-1~306-Nの任意のものへ適用され得る。しかし、図3に示す復号器306-1~306-Nはまた、任意の他の好適なモデルにより実装され得るということを理解すべきである。
[0035] 復号器400は基準画像の表現406を符号器から受信し、表現406は開始タグ404のベクトル表現406と共に再帰型ニューラルネットワーク408へ提供される。再帰型ニューラルネットワーク408は、この例では長短期記憶(LSTM:Long Short-Term Memory)である。しかし、任意の他の好適なネットワーク(例えばゲート式回帰ユニット(GRU:Gated Recurrent Unit)など)もまた置き換えとして採用され得るということも理解すべきである。再帰型ニューラルネットワーク408は、第1の色410を出力し、及び次の反復のために第2の色414を取得するように、第1の色410の表現412及び基準画像の表現406を併せて再帰型ニューラルネットワーク408へ提供する。第2の色414の表現及び基準画像の表現406は、次の反復のために終了タグ418を取得するように、再帰型ニューラルネットワーク408へ提供される。これらの色を含む系列の出力420は、さらなる処理のために後続処理モジュールへ提供される。
[0036] 図5は、本開示のいくつかの実装形態によるスタイル変換の方法500の流れ図を示す。例えば、方法500は、計算デバイス100により実装され得、及び、図2~4において実証された例示的アーキテクチャ及び例示的モデルにおいてもまた実装され得る。
[0037] 502において、第1のスタイルを有する標的オブジェクトが取得される。標的オブジェクトのスタイルは編集可能である。例えば、標的オブジェクトはグラフ及び表のうちの少なくとも1つを含み得る。
[0038] 504において、基準オブジェクトを含む基準画像が取得される。例えば、基準オブジェクトはグラフ及び/又は表を含み得る。基準オブジェクト及び標的オブジェクトは、同じか又は異なるタイプを有し得る。例えば、基準オブジェクトは棒グラフであり得、一方、標的オブジェクトは棒グラフ又は円グラフであり得る。
[0039] 506において、基準オブジェクトの第2のスタイルが取得され、基準オブジェクトの第2のスタイルは基準画像から抽出される。いくつかの実装形態では、基準オブジェクトの第2のスタイルは、所定の規則を介し抽出され得る。
[0040] いくつかの実装形態では、基準オブジェクトの第2のスタイルはニューラルネットワークを介し基準画像から抽出され得る。例えば、基準画像は符号器を介し基準画像の表現へ変換され、基準画像の表現は復号器を介し基準画像のスタイルへ変換される。例えば、基準画像の表現は複数の復号器を介しスタイルの複数の要素へそれぞれ変換される。
[0041] 508において、第2のスタイルが標的オブジェクトへ適用される。例えば、第2のスタイルは第1のスタイルとは異なり得る。スタイルは複数の異なる要素の組み合わせを表す。第2のスタイル内の1つの要素が第1のスタイルと異なるならば、2つのスタイルは異なる。このようにして、第1のスタイルは第2のスタイルへ修正される。いくつかの実装形態では、第2のスタイルを有する標的オブジェクトが表示される。第2のスタイルを有する標的オブジェクトに対する編集操作を受信したことに応答して、標的オブジェクトの第2のスタイルは修正され得る。この場合、ユーザは標的オブジェクトのスタイルをさらに修正し得る。代替的に、いくつかの場合、第2のスタイルは第1のスタイルと同じであり得る。したがって、第2のスタイルが標的オブジェクトへ適用されると、標的オブジェクトのスタイルは変化しない。
[0042] 基準画像内のスタイルを編集可能オブジェクトへ変換する解決策は、図2~5を参照して上に説明された。いくつかの実装形態では、1つの編集可能オブジェクトのスタイルは、別の編集可能オブジェクトへ変換され得る。図6は、本開示のいくつかの実装形態による編集可能オブジェクトのスタイルを別の編集可能オブジェクトへ変換する方法600の流れ図を示す。方法600は、計算デバイス100により実装され得る。
[0043] 602において、編集可能オブジェクトが取得される。編集可能オブジェクトはデータセットへ関連付けられ得る。例えば、編集可能オブジェクトは、関連データに基づき生成され得るか、又は別のツールにより生成された編集可能オブジェクトから複製され得る。編集可能オブジェクトは、データセット又はデータセットを含む表を視覚化するためのグラフであり得る。編集可能オブジェクトはまた、データセットに基づいて描かれたグラフ(例えば棒グラフ)であり得る。便宜のために、以下では編集可能オブジェクトは標的編集可能オブジェクトと呼ばれ、対応データセットは標的データセットと呼ばれる。
[0044] 604において、標的編集可能オブジェクトとの類似性が所定の閾値未満である1つ又は複数の事前定義された編集可能オブジェクトが、複数の事前定義された編集可能オブジェクトから判断される。事前定義された編集可能オブジェクトは、より高い美観度でデータに整合するスタイルであり得る、それぞれのスタイルを有する。類似性は様々な好適なやり方で測定され得る。例えば、2つのデータ間の類似性は、データ量のサイズ、行の数、列の数及びデータ値のサイズなどにより測定され得る。
[0045] さらに、標的編集可能オブジェクト(例えばグラフ)に関連する意味論的情報もまた考慮され得る。例えば、標的編集可能オブジェクトと事前定義された編集可能オブジェクトとの類似性はグラフ内のテキストコンテンツに基づき判断され得る。例えば、グラフのタイトルが「パーセント」を含むならば、グラフは円グラフの形式で表示されるのがより好ましく、グラフはより円グラフに似ている。このようにして、推奨スタイルは標的編集可能オブジェクトのオリジナルタイプとは異なり得る。別の例では、グラフの主題における類似性もまた考慮され得る。例えば、入力グラフの主題は、入力グラフのタイトル及びデータの行又は列のタグに基づき取得又は導出され得、入力グラフの主題は事前定義されたグラフの同様な主題と比較される。
[0046] いくつかの実装形態では、複数の事前定義された編集可能オブジェクトは複数の様々なカテゴリ(科学カテゴリ、金融カテゴリなど)に関連付けられ得る。このような場合、標的データセットとの類似性が所定の閾値未満である1つ又は複数のデータセットが、複数のカテゴリからそれぞれ判断され得る。したがって、様々なカテゴリ内のスタイルがユーザへ推奨され得る。
[0047] 606において、1つ又は複数の事前定義された編集可能オブジェクトがユーザ選択のために表示される。その代りに又は追加的に、最も高い類似性を有するデータセットに対応するスタイルが、標的編集可能オブジェクト内へ直接適用され得る。このようなスタイルは、編集可能オブジェクトを取得した後に自動的に表示され得る。代替的に、スタイルはまた、ユーザがあるボタン又はインターフェース要素をクリックした後に表示され得る。
[0048] 608において、1つ又は複数の事前定義された編集可能オブジェクトのうち1つの選択を受信したことに応答して、編集可能オブジェクトのスタイルは標的編集可能オブジェクトへ適用される。
[0049] このようにして、いくつかのより良好なスタイルが、選択するためにユーザへ好都合に推薦され得、これによりスタイル変換の便利度を強化する。
[0050] 本開示のいくつかの例示的実装形態が以下に列挙される。
[0051] 第1の態様では、コンピュータ実装方法が提供される。本方法は、編集可能である第1のスタイルを有する、標的オブジェクトを取得すること;基準オブジェクトを含む基準画像を取得すること;基準オブジェクトの第2のスタイルを取得することであって、基準オブジェクトの第2のスタイルは基準画像から抽出される、取得すること;及び第2のスタイルを標的オブジェクトへ適用することを含む。
[0052] いくつかの実装形態では、基準オブジェクトの第2のスタイルは、ニューラルネットワークにより基準画像から抽出される。
[0053] いくつかの実装形態では、基準画像は符号器により基準画像の表現へ変換され、基準画像の表現は復号器により基準オブジェクトの第2のスタイルへ変換される。
[0054] いくつかの実装形態では、基準画像の表現は複数の復号器により第2のスタイルの複数の要素へそれぞれ変換される。
[0055] いくつかの実装形態では、基準オブジェクトの第2のスタイルは所定の規則により抽出される。
[0056] いくつかの実装形態では、基準オブジェクト及び標的オブジェクトは、各々がグラフ及び表の少なくとも1つを含む。
[0057] いくつかの実装形態では、本方法はさらに、第2のスタイルを有する標的オブジェクトを表示すること;及び第2のスタイルを有する表示された標的オブジェクトに対する編集操作を受信したことに応答して、標的オブジェクトの第2のスタイルを修正することを含む。
[0058] 第2の態様では、処理ユニット;及び処理ユニットへ結合されたメモリであって、その上に格納された命令を含むメモリを含むデバイスが提供され、命令は、処理ユニットにより実行されると、デバイスに:編集可能である第1のスタイルを有する、標的オブジェクトを取得すること;基準オブジェクトを含む基準画像を取得すること;基準オブジェクトの第2のスタイルを取得することであって、基準オブジェクトの第2のスタイルは基準画像から抽出される、取得すること;及び第2のスタイルを標的オブジェクトへ適用することを含む動作を行わせる。
[0059] いくつかの実装形態では、基準オブジェクトの第2のスタイルは、ニューラルネットワークにより基準画像から抽出される。
[0060] いくつかの実装形態では、基準画像は符号器により基準画像の表現へ変換され、基準画像の表現は復号器により基準オブジェクトの第2のスタイルへ変換される。
[0061] いくつかの実装形態では、基準画像の表現は複数の復号器により第2のスタイルの複数の要素へそれぞれ変換される。
[0062] いくつかの実装形態では、基準オブジェクトの第2のスタイルは所定の規則により抽出される。
[0063] いくつかの実装形態では、基準オブジェクト及び標的オブジェクトは、各々がグラフ及び表の少なくとも1つを含む。
[0064] いくつかの実装形態では、動作は、第2のスタイルを有する標的オブジェクトを表示すること;及び第2のスタイルを有する表示された標的オブジェクトに対する編集操作を受信したことに応答して、標的オブジェクトの第2のスタイルを修正することをさらに含む。
[0065] 第3の態様では、本開示は、非一時的コンピュータ記憶媒体内に有形に格納されるとともにコンピュータ実行可能命令を含む、コンピュータプログラム製品を提供する。コンピュータ実行可能命令は、デバイスにより実行されると、デバイスに本開示の第1の態様における方法を行わせる。
[0066] 第4の態様では、本開示は、その上にコンピュータ実行可能命令が格納されたコンピュータ可読ストレージ媒体を提供する。コンピュータ実行可能命令は、デバイスにより実行されるとデバイスに本開示の第1の態様における方法を行わせる。
[0067] 本明細書において説明された機能は、1つ又は複数のハードウェア論理部品により少なくとも部分的に行われ得る。例えば、限定しないが、使用され得る例示的タイプのハードウェア論理部品は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC:Application-specific Integrated Circuit)、特定用途向け標準製品(ASSP:Application-specific Standard Product)、システム・オン・チップシステム(SOC)、コンプレックスプログラマブル論理デバイス(CPLD:Complex Programmable Logic Device)などを含む。
[0068] 本開示の方法を行うためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書かれ得る。これらのプログラムコードは、プロセッサ又はコントローラにより実行されると、流れ図及び/又はブロック図において規定された機能及び/又は操作が実装されるように、汎用コンピュータ、特殊用途コンピュータ、又は他のプログラム可能データ処理装置のプロセッサ若しくはコントローラへ提供され得る。プログラムコードは、スタンドアロンソフトウェアパッケージとして、完全に機械上で、部分的に機械上で、部分的に機械上で、及び部分的にリモートマシン上で又は完全にリモートマシン若しくはサーバ上で実行し得る。
[0069] 本開示の文脈では、機械可読媒体は、命令実行システム、装置若しくはデバイスによるか又はそれに関連する使用のためにプログラムを含み得るか若しくは格納し得る、任意の有形媒体であり得る。機械可読媒体は、機械可読信号媒体又は機械可読ストレージ媒体であり得る。機械可読媒体は、限定しないが、電子、磁気、光、電磁気、赤外線、又は半導体システム、装置、デバイス又はこれらの任意の組み合わせであり得る。機械可読ストレージ媒体のより具体的な例は、1つ又は複数のワイヤを有する電子的接続、携帯型コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、光学的ストレージデバイス、磁気的ストレージデバイス、又はこれらの任意の好適な組み合わせを含む。
[0070] さらに、操作は特定順序で描写されたが、操作は示された特定順序で又は順次実行されることを要求される又はすべての示された操作は期待される結果を達成するように実行されることを要求されるということを理解すべきである。いくつかの環境では、マルチタスキング及び並列処理が有利かもしれない。同様に、いくつかの特定実装形態の詳細が上記論述内に含まれるが、これらは、本明細書において説明された主題の範囲に対する制限として解釈されるべきでない。別個の実装形態の文脈の中で説明されたいくつかの特徴はまた、単一実装形態において組み合わせで実装され得る。逆に、単一実装形態の文脈の中で説明された様々な特徴もまた、複数の実装形態において個別に、又は任意の好適な副組み合わせ(sub-combination)で提供され得る。
[0071] 本主題は構造的特徴及び/又は方法論的行為に固有の言語で説明されたが、添付の特許請求の範囲において規定される主題は必ずしも上述の特定の特徴又は行為に限定されないということを理解すべきである。むしろ、上述の特定の特徴及び行為は、特許請求の範囲を実装する例示的形式として開示されている。

Claims (15)

  1. 編集可能である第1のスタイルを有する、標的オブジェクトを取得することであって、前記標的オブジェクトはデータ要素の視覚表現を含む、取得することと、
    基準オブジェクトを含む基準画像を取得することと、
    前記基準オブジェクトの第2のスタイルを取得することであって、前記基準オブジェクトの前記第2のスタイルは、ニューラルネットワークにより前記基準画像から抽出される、取得することと、
    前記視覚表現に関連付けられたカテゴリに基づいて、前記第2のスタイルが前記データ要素の前記視覚表現に適用できるかどうか決定することと、
    前記第2のスタイルを使用して前記第1のスタイルを修正することと、
    前記第1のスタイルを前記標的オブジェクトに再適用することと、
    を含
    前記基準画像は符号器により前記基準画像の表現へ変換され、前記基準画像の前記表現は復号器により前記基準オブジェクトの前記第2のスタイルへ変換される、コンピュータ実装方法。
  2. 前記基準画像の前記表現は複数の復号器により前記第2のスタイルの複数の要素へそれぞれ変換される、請求項に記載の方法。
  3. 前記基準オブジェクトの前記第2のスタイルは所定の規則により抽出される、請求項1に記載の方法。
  4. 前記基準オブジェクト及び前記標的オブジェクトは、各々がグラフ及び表の少なくとも1つを含む、請求項1に記載の方法。
  5. 前記第2のスタイルを有する前記標的オブジェクトを表示することと、
    前記第2のスタイルを有する前記表示された標的オブジェクトに対する編集操作を受信したことに応答して、前記標的オブジェクトの前記第2のスタイルを修正することと
    をさらに含む、請求項1に記載の方法。
  6. 処理ユニット及び
    前記処理ユニットへ結合されたメモリであって、その上に格納された命令を含むメモリ
    を含むデバイスであって、前記命令は、前記処理ユニットにより実行されると、前記デバイスに
    編集可能である第1のスタイルを有する、標的オブジェクトを取得することであって、前記標的オブジェクトはデータ要素の視覚表現を含む、取得することと、
    基準オブジェクトを含む基準画像を取得することと、
    前記基準オブジェクトの第2のスタイルを取得することであって、前記基準オブジェクトの前記第2のスタイルは、ニューラルネットワークにより前記基準画像から抽出される、取得することと、
    前記視覚表現に関連付けられたカテゴリに基づいて、前記第2のスタイルが前記データ要素の前記視覚表現に適用できるかどうか決定することと、
    前記第2のスタイルを使用して前記第1のスタイルを修正することと、
    前記第1のスタイルを前記標的オブジェクトに再適用することと、
    を含む動作を行わせ、
    前記基準画像は符号器により前記基準画像の表現へ変換され、前記基準画像の前記表現は復号器により前記基準オブジェクトの前記第2のスタイルへ変換される、デバイス。
  7. 前記基準画像の前記表現は複数の復号器により前記第2のスタイルの複数の要素へそれぞれ変換される、請求項に記載のデバイス。
  8. 前記基準オブジェクトの前記第2のスタイルは所定の規則により抽出される、請求項に記載のデバイス。
  9. 前記基準オブジェクト及び前記標的オブジェクトは、各々がグラフ及び表の少なくとも1つを含む、請求項に記載のデバイス。
  10. 前記動作は、
    前記第2のスタイルを有する前記標的オブジェクトを表示することと、
    前記第2のスタイルを有する前記表示された標的オブジェクトに対する編集操作を受信したことに応答して、前記標的オブジェクトの前記第2のスタイルを修正することと
    をさらに含む、請求項に記載のデバイス。
  11. 非一時的なコンピュータ記憶媒体上に格納されるとともに機械実行可能命令を含むコンピュータプログラムであって、前記機械実行可能命令は、デバイスにより実行されると、デバイスに
    編集可能である第1のスタイルを有する、標的オブジェクトを取得することであって、前記標的オブジェクトはデータ要素の視覚表現を含む、取得することと、
    基準オブジェクトを含む基準画像を取得することと、
    前記基準オブジェクトの第2のスタイルを取得することであって、前記基準オブジェクトの前記第2のスタイルは、ニューラルネットワークにより前記基準画像から抽出される、取得することと、
    前記視覚表現に関連付けられたカテゴリに基づいて、前記第2のスタイルが前記データ要素の前記視覚表現に適用できるかどうか決定することと、
    前記第2のスタイルを使用して前記第1のスタイルを修正することと、
    前記第1のスタイルを前記標的オブジェクトに再適用することと、
    を含む動作を行わせ、
    前記基準画像は符号器により前記基準画像の表現へ変換され、前記基準画像の前記表現は復号器により前記基準オブジェクトの前記第2のスタイルへ変換される、コンピュータプログラム。
  12. 前記基準画像の前記表現は複数の復号器により前記第2のスタイルの複数の要素へそれぞれ変換される、請求項11に記載のコンピュータプログラム。
  13. 前記基準オブジェクトの前記第2のスタイルは所定の規則により抽出される、請求項11に記載のコンピュータプログラム。
  14. 前記基準オブジェクト及び前記標的オブジェクトは、各々がグラフ及び表の少なくとも1つを含む、請求項11に記載のコンピュータプログラム。
  15. 前記第2のスタイルを有する前記標的オブジェクトを表示することと、
    前記第2のスタイルを有する前記表示された標的オブジェクトに対する編集操作を受信したことに応答して、前記標的オブジェクトの前記第2のスタイルを修正することと
    をさらに含む、請求項11に記載のコンピュータプログラム。
JP2021546228A 2019-03-04 2020-02-03 スタイル変換 Active JP7502312B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910161417.9A CN111651969B (zh) 2019-03-04 2019-03-04 样式迁移
CN201910161417.9 2019-03-04
PCT/US2020/016309 WO2020180437A1 (en) 2019-03-04 2020-02-03 Style transfer

Publications (3)

Publication Number Publication Date
JP2022523754A JP2022523754A (ja) 2022-04-26
JPWO2020180437A5 JPWO2020180437A5 (ja) 2023-01-20
JP7502312B2 true JP7502312B2 (ja) 2024-06-18

Family

ID=69726841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021546228A Active JP7502312B2 (ja) 2019-03-04 2020-02-03 スタイル変換

Country Status (7)

Country Link
US (2) US11580292B2 (ja)
EP (1) EP3935556A1 (ja)
JP (1) JP7502312B2 (ja)
KR (1) KR20210132060A (ja)
CN (2) CN111651969B (ja)
CA (1) CA3132064A1 (ja)
WO (1) WO2020180437A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156987A1 (en) * 2020-11-16 2022-05-19 Disney Enterprises, Inc. Adaptive convolutions in neural networks
KR20240082905A (ko) * 2022-12-02 2024-06-11 삼성전자주식회사 문서 스타일을 조정하는 방법, 전자 디바이스, 및 기록 매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020462A1 (en) 2016-07-27 2018-02-01 Wix.Com Ltd. System and method for implementing containers which extract and apply semantic page knowledge

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2285877A1 (en) 1999-10-15 2001-04-15 Ibm Canada Limited-Ibm Canada Limitee System and method for capturing document style by example
US7747944B2 (en) * 2005-06-30 2010-06-29 Microsoft Corporation Semantically applying style transformation to objects in a graphic
US20070061714A1 (en) 2005-09-09 2007-03-15 Microsoft Corporation Quick styles for formatting of documents
US20070162848A1 (en) * 2006-01-09 2007-07-12 Apple Computer, Inc. Predictive styling
US7522176B2 (en) * 2006-11-14 2009-04-21 Microsoft Corporation Dynamically generating mini-graphs to represent style and template icons
US20090006967A1 (en) 2007-06-26 2009-01-01 Microsoft Corporation Live copy-paste
US20130093782A1 (en) * 2011-10-13 2013-04-18 Microsoft Corporation Color Selection and Chart Styles
US9665930B1 (en) 2015-11-10 2017-05-30 Adobe Systems Incorporated Selective editing of images using editing tools with persistent tool settings
US9857953B2 (en) * 2015-11-17 2018-01-02 Adobe Systems Incorporated Image color and tone style transfer
US10198839B2 (en) 2016-09-22 2019-02-05 Apple Inc. Style transfer-based image content correction
JP2018132855A (ja) * 2017-02-14 2018-08-23 国立大学法人電気通信大学 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム
US10311326B2 (en) * 2017-03-31 2019-06-04 Qualcomm Incorporated Systems and methods for improved image textures
US10565757B2 (en) * 2017-06-09 2020-02-18 Adobe Inc. Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images
JP7242165B2 (ja) * 2017-09-20 2023-03-20 株式会社Preferred Networks プログラム、情報処理装置、および方法
US10872399B2 (en) * 2018-02-02 2020-12-22 Nvidia Corporation Photorealistic image stylization using a neural network model
US10950021B2 (en) * 2018-04-23 2021-03-16 Accenture Global Solutions Limited AI-driven design platform
CN108921894B (zh) * 2018-06-08 2021-06-29 百度在线网络技术(北京)有限公司 对象定位方法、装置、设备和计算机可读存储介质
KR102640234B1 (ko) * 2018-09-28 2024-02-23 삼성전자주식회사 디스플레이 장치의 제어 방법 및 그에 따른 디스플레이 장치
US10839493B2 (en) * 2019-01-11 2020-11-17 Adobe Inc. Transferring image style to content of a digital image
US11295494B2 (en) * 2019-06-26 2022-04-05 Adobe Inc. Image modification styles learned from a limited set of modified images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020462A1 (en) 2016-07-27 2018-02-01 Wix.Com Ltd. System and method for implementing containers which extract and apply semantic page knowledge

Also Published As

Publication number Publication date
WO2020180437A1 (en) 2020-09-10
JP2022523754A (ja) 2022-04-26
CN111651969B (zh) 2023-10-27
US20220138398A1 (en) 2022-05-05
CN111651969A (zh) 2020-09-11
US20230252220A1 (en) 2023-08-10
US11580292B2 (en) 2023-02-14
EP3935556A1 (en) 2022-01-12
CN117291162A (zh) 2023-12-26
CA3132064A1 (en) 2020-09-10
KR20210132060A (ko) 2021-11-03

Similar Documents

Publication Publication Date Title
Villán Mastering OpenCV 4 with Python: a practical guide covering topics from image processing, augmented reality to deep learning with OpenCV 4 and Python 3.7
CN110020411B (zh) 图文内容生成方法及设备
US11538244B2 (en) Extraction of spatial-temporal feature representation
US20230252220A1 (en) Style transfer
JP7059508B2 (ja) ビデオ時系列動作の検出方法、装置、電子デバイス、プログラム及び記憶媒体
CN105580384A (zh) 触摸屏上显示的可操作内容
US20160026858A1 (en) Image based search to identify objects in documents
US20210374397A1 (en) Method, device, and storage medium for obtaining document layout
US9811505B2 (en) Techniques to provide processing enhancements for a text editor in a computing environment
US20210350090A1 (en) Text to visualization
CN110727668A (zh) 数据清洗方法及装置
CN111950279A (zh) 实体关系的处理方法、装置、设备及计算机可读存储介质
CN109408834A (zh) 辅助机器翻译方法、装置、设备及存储介质
CN110597965A (zh) 文章的情感极性分析方法、装置、电子设备及存储介质
Zanibbi et al. Math search for the masses: Multimodal search interfaces and appearance-based retrieval
JP2021182441A (ja) 画像を処理するための方法、装置、機器、媒体およびプログラム
US20150331886A1 (en) Determining images of article for extraction
US20240127510A1 (en) Stylized glyphs using generative ai
CN116225956A (zh) 自动化测试方法、装置、计算机设备和存储介质
Malik et al. Reimagining application user interface (UI) design using deep learning methods: Challenges and opportunities
CN115017922A (zh) 图片翻译的方法、装置、电子设备及可读存储介质
Escrivá et al. Learn OpenCV 4 by Building Projects: Build real-world computer vision and image processing applications with OpenCV and C++
CN112783410A (zh) 信息处理方法、介质、装置和计算设备
CN111767710A (zh) 印尼语的情感分类方法、装置、设备及介质
US9117280B2 (en) Determining images of article for extraction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240606

R150 Certificate of patent or registration of utility model

Ref document number: 7502312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150