JP6949795B2 - 画像処理装置、画像処理システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6949795B2
JP6949795B2 JP2018178970A JP2018178970A JP6949795B2 JP 6949795 B2 JP6949795 B2 JP 6949795B2 JP 2018178970 A JP2018178970 A JP 2018178970A JP 2018178970 A JP2018178970 A JP 2018178970A JP 6949795 B2 JP6949795 B2 JP 6949795B2
Authority
JP
Japan
Prior art keywords
image
color
object area
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018178970A
Other languages
English (en)
Other versions
JP2020052530A5 (ja
JP2020052530A (ja
Inventor
野中 俊一郎
俊一郎 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018178970A priority Critical patent/JP6949795B2/ja
Priority to US16/520,382 priority patent/US10963988B2/en
Priority to CN201910747409.2A priority patent/CN110942488A/zh
Publication of JP2020052530A publication Critical patent/JP2020052530A/ja
Publication of JP2020052530A5 publication Critical patent/JP2020052530A5/ja
Application granted granted Critical
Publication of JP6949795B2 publication Critical patent/JP6949795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は画像処理装置、画像処理システム、画像処理方法、及びプログラムに係り、特にカラー画像の領域抽出に関する。
写真等のカラー画像からオブジェクトを抽出する手法が知られている。カラー画像から抽出したオブジェクトは、スタンプの作成等に利用することが可能である。
非特許文献1は、スマートフォンを用いて撮影した画像をアルバムから取り込み、トリミング範囲を指定してオブジェクトを抽出し、スタンプを作成する手法が記載されている。しかし、この手法はオブジェクトの輪郭を直接指定する必要があり手間がかかる。これに対して、グラフカット及びディープラーニング等を用いて、オブジェクトの輪郭を直接指定せずに、画像からオブジェクトの輪郭を抽出する手法が知られている。
特許文献1は、画素が前景画像に属する確率に基づいて、透明度を表すα値を算出し、α値と画素値とを乗じて前景画像を抽出する画像処理装置が記載されている。また、特許文献2は、前景領域の輪郭線上で隣り合う画素同士に無限小のコストを付与した輪郭候補確率場を生成し、初期確率場に対して輪郭候補確率場で重み付けをして処理確率場を生成することが記載されている。
同文献に記載の画像処理装置は、処理確率場をコスト関数として、元画像の全画素に前景又は背景のラベルを付けた際にコストが最小となる組み合わせを、グラフカットを用いて求めて前景と背景とを分離し、前景領域を抽出している。
特開2014−71666号公報 特開2017−220098号公報
「Line Creators Studio」、インターネット<URL:https://creator.line.me/ja/studio/>
しかしながら、画像から抽出したオブジェクトと背景との境界は、オブジェクトに属する画素と背景に属する画素とが混在する。そうすると、オブジェクトと背景との境界では、オブジェクトに背景等の色が混入してしまい、オブジェクトの色が不自然になってしまう。また、高精細なカラー画像から抽出されるオブジェクトは、オブジェクトの色の不自然さが顕著となる。
上記した先行技術文献は、オブジェクトの色が不自然になるという課題の開示はなく、かかる課題を解決するための技術を開示していない。すなわち、上記した先行技術文献に記載の技術を適用して抽出されたオブジェクト等は、色の不自然さが発生し得る。
本発明はこのような問題点に鑑みてなされたもので、カラー画像から抽出したオブジェクトの色の不自然さを抑制し得る画像処理装置、画像処理システム、画像処理方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、次の発明態様を提供する。
第1態様に係る画像処理装置は、カラー画像のオブジェクト領域を判定するオブジェクト領域判定部と、オブジェクト領域のマスク画像を生成するマスク画像生成部と、オブジェクト領域を抽出し、オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成部と、オブジェクト領域に適用される色から減色する色を判定し、オブジェクト領域よりも少ない数の色をオブジェクト画像の色に設定する色判定部と、マスク画像の画素が、オブジェクト領域の画素である確率を算出する確率算出部と、を備え、オブジェクト画像生成部は、確率に基づいて、色判定部を用いて設定された色をオブジェクト画像の縁領域の色として設定する画像処理装置である。
第1態様によれば、マスク画像の境界領域に設定されたオブジェクト領域である確率に基づいて、マスク画像の境界領域に対応するオブジェクト画像の縁領域の色が設定される。これにより、オブジェクト画像への背景等の色の混色を抑制し得る。
オブジェクト画像の縁領域は、オブジェクト画像の縁の画素が含まれる。オブジェクト画像の縁領域は、二画素以上の幅を有していてもよい。
第2態様は、第1態様の画像処理装置において、確率算出部は、マスク画像における境界領域の画素について、オブジェクト領域である確率を算出する構成としてもよい。
第2態様によれば、マスク画像の全画素にオブジェクト領域である確率を適用する場合と比較して、演算の処理負荷を低減させることが可能となる。
第3態様は、第1態様又は第2態様の画像処理装置において、確率に基づいて、オブジェクト領域の縁領域の透明度を設定する透明度設定部と、透明度を適用した画素を、オブジェクト画像に統合する画素統合部と、を備えた構成としてもよい。
第3態様によれば、オブジェクト画像の縁に適切な透明度が設定される。これにより、オブジェクト画像の縁におけるジャギー等の発生が抑制される。
第4態様は、第1態様から第3態様のいずれか一態様の画像処理装置において、色判定部は、オブジェクト領域に適用される色から、オブジェクト画像に適用される色を設定する構成としてもよい。
第5態様は、第1態様から第4態様のいずれか一態様の画像処理装置において、色判定部は、予め決められた規定色から、オブジェクト画像に適用される色を設定する構成としてもよい。
第6態様は、第5態様の画像処理装置において、色判定部は、規定色からユーザが指定した色をオブジェクト画像に適用される色として設定する構成としてもよい。
第6態様において、ユーザ端末の表示装置に規定色を設定する設定画面を表示させ、ユーザが設定画面を用いて、オブジェクト画像に適用される色を指定してもよい。
第7態様は、第1態様から第6態様のいずれか一態様の画像処理装置において、色判定部は、機械学習を用いて、オブジェクト領域に適用される色から減色する色を判定する構成としてもよい。
第8態様は、第1態様から第7態様のいずれか一態様の画像処理装置において、オブジェクト画像生成部は、オブジェクト領域において異なる色の画素が隣接する場合に、隣接する異なる色の画素に、異なる色同士の中間色を設定する構成としてもよい。
第8態様によれば、オブジェクト画像における色間の不自然さを抑制し得る。
第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、オブジェクト領域判定部は、ユーザが指定した領域に基づいてオブジェクト領域を判定する構成としてもよい。
第10態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、オブジェクト領域判定部は、機械学習を用いてオブジェクト領域を判定する構成としてもよい。
第11態様は、第1態様から第10態様のいずれか一態様の画像処理装置において、オブジェクト領域は、顔領域を含む構成としてもよい。
第12態様は、第1態様から第11態様のいずれか一態様の画像処理装置において、オブジェクト画像に基づいてスタンプを生成するスタンプ生成部を備えた構成としてもよい。
第13の態様に係る画像処理システムは、ネットワークと接続されるサーバ装置を備える画像処理システムであって、サーバ装置は、カラー画像のオブジェクト領域を判定するオブジェクト領域判定部と、オブジェクト領域のマスク画像を生成するマスク画像生成部と、オブジェクト領域を抽出し、オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成部と、オブジェクト領域に適用される色から減色する色を判定し、オブジェクト領域よりも少ない数の色をオブジェクト画像の色に設定する色判定部と、マスク画像の画素が、オブジェクト領域の画素である確率を算出する確率算出部と、を備え、オブジェクト画像生成部は、色判定部を用いて設定された色をオブジェクト画像の縁領域の色として確率に基づいて設定する画像処理システムである。
第13態様によれば、第1態様と同様の効果を得ることが可能である。
第13態様において、第2態様から第12態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理システムの構成要素として把握することができる。
第14の態様に係る画像処理方法は、カラー画像のオブジェクト領域を判定するオブジェクト領域判定工程と、オブジェクト領域のマスク画像を生成するマスク画像生成工程と、オブジェクト領域を抽出し、オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成工程と、オブジェクト領域に適用される色から減色する色を判定し、オブジェクト領域よりも少ない数の色をオブジェクト画像の色に設定する色判定工程と、マスク画像の画素が、オブジェクト領域の画素である確率を算出する確率算出工程と、を含み、オブジェクト画像生成工程は、確率に基づいて、色判定工程において設定された色をオブジェクト画像の縁領域の色として設定する画像処理方法である。
第14態様によれば、第1態様と同様の効果を得ることが可能である。
第14態様において、第2態様から第12態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。
第15態様に係るプログラムは、コンピュータに、カラー画像のオブジェクト領域を判定するオブジェクト領域判定機能、オブジェクト領域のマスク画像を生成するマスク画像生成機能、オブジェクト領域を抽出し、オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成機能、オブジェクト領域に適用される色から減色する色を判定し、オブジェクト領域よりも少ない数の色をオブジェクト画像の色に設定する色判定機能、及びマスク画像の画素が、オブジェクト領域の画素である確率を算出する確率算出機能を実現させるプログラムであって、オブジェクト画像生成機能は、確率に基づいて、色判定機能を用いて設定された色をオブジェクト画像の縁領域の色として設定するプログラムである。
第15態様によれば、第1態様と同様の効果を得ることが可能である。
第15態様において、第2態様から第12態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
本発明によれば、マスク画像の境界領域に設定されたオブジェクト領域である確率に基づいて、マスク画像の境界領域に対応するオブジェクト画像の縁領域の色が設定される。これにより、オブジェクト画像への背景等の色の混色を抑制し得る。
図1は画像処理装置の機能ブロック図である。 図2は入力画像の一例を示す図である。 図3はマスク画像の一例を示す図である。 図4はマスク画像におけるマスク領域と非マスク領域との境界の一部拡大図である。 図5はオブジェクト領域である確率が設定された境界領域の画素の一例を示す図である。 図6はオブジェクト画像の一例を示す図である。 図7は画像処理装置のハードウェア構成を示すブロック図である。 図8は画像処理方法の手順を示すフローチャートである。 図9はネットワークシステムへの適用例に係る画像処理システムのブロック図である。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。
[画像処理装置]
〔画像処理装置の機能の説明〕
図1は画像処理装置の機能ブロック図である。画像処理装置10は、画像取得部12、オブジェクト領域判定部14、マスク画像生成部16、確率算出部18、色判定部20、オブジェクト画像生成部24、及び記憶部26を備える。また、画像処理装置10は、透明度設定部28、画素統合部30、及びスタンプ生成部32を備える。
画像処理装置10は、カラー画像からオブジェクト領域を自動的に判定し、オブジェクト領域を抽出し、オブジェクトよりも色数を減色したオブジェクト画像を生成する。画像処理装置10は、カラー画像のオブジェクトよりも減色したオブジェクト画像を用いて、イラスト的なスタンプを生成する。
画像取得部12は、カラー画像を取得する。画像取得部12は、取得した画像を記憶部26へ記憶する。なお、図1に示す記憶部26は各種データ等を記憶する記憶部の総称である。例えば、記憶部26は、データの種類ごとの複数の記憶装置を用いて構成される。
カラー画像の一例として、赤、緑、及び青の各色を8ビットで表し、24ビットの値で色情報を表現したフルカラー画像が挙げられる。人物のカラー画像から人物の顔を抽出し、人物の顔のスタンプを生成する場合、画像取得部12は人物の顔が画像のおおよそ中心付近に写っているカラー画像を取得する。
人物の顔が画像のおおよそ中心付近に写っていないカラー画像を取得した場合は、カラー画像から人物の顔を含むオブジェクト領域の位置及びオブジェクト領域のサイズを判定する。実施形態に示す人物の顔は、顔領域の一例である。
本明細書では、画像という用語を画像データの意味で使用することがあり得る。すなわち、画像取得部12は、撮像装置を用いて撮像して得られた画像データを取得する。
図2は入力画像の一例を示す図である。図2に示す入力画像100は、主要被写体として看板102が写っている。また、入力画像100は、背景としてパーテーション104が写っている。看板102は、文字106に下地108と異なる二色が用いられる。例えば、下地108は緑色が用いられる。文字106Aは白が用いられる。文字106Bは赤が用いられる。
オブジェクト領域判定部14は、図2に示す看板102を、入力画像100のオブジェクト領域として自動的に判定する。オブジェクト領域判定部14は、オブジェクト領域の情報を記憶部26へ記憶する。
オブジェクト領域の自動判定は、ディープラーニングなどの機械学習、及びグラフカット等の手法を適用し得る。ディープラーニングの一例として、畳み込みニューラルネットワークが挙げられる。畳み込みニューラルネットワークは、英語表記のConvolutional neural networkの省略語を用いてCNNと呼ばれる場合がある。
畳み込みニューラルネットワークが適用されるオブジェクト領域判定部14は、入力層、中間層、及び出力層を備える。中間層は、畳み込み層とプーリング層から構成された複数セット、及び全結合層を備える。各層は複数のノードがエッジを用いて結ばれる構造となっている。
入力層は、入力画像100が入力される。中間層は、入力層から入力した入力画像100から特徴を抽出する。畳み込み層は、前の層で近くにあるノードにフィルタ処理を施して特徴マップを取得する。畳み込み層は、フィルタ処理として、フィルタを使用した畳み込み演算を実施する。
プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。畳み込み層は、画像データからのエッジ抽出等の特徴抽出の役割を担う。プーリング層は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。
中間層は、畳み込み層が連続する態様、及び正規化層を備える態様を採用し得る。また、各畳み込み層にて使用されるフィルタの重み及びバイアスは、予め多数の学習データを用いて自動的に学習されている。
オブジェクト領域判定部14は、ユーザがカラー画像上のオブジェクトを指定した場合に、カラー画像におけるユーザが指定したオブジェクトを含むオブジェクト領域を判定してもよい。
例えば、人物の顔がカラー画像の中心に位置していない場合に、スマートフォンのディスプレイに表示されたカラー画像の顔の位置をユーザがタップして、カラー画像上のオブジェクトを指定してもよい。
図1に示すマスク画像生成部16は、マスク画像を生成する。マスク画像生成部16はマスク画像を記憶部26へ記憶する。図3はマスク画像の一例を示す図である。図3に示すマスク画像110は、マスク領域112、非マスク領域114、及び境界領域116が含まれる。
マスク領域112は、カラー画像のオブジェクト領域以外の領域に対応する領域である。非マスク領域114は、カラー画像のオブジェクト領域に対応する領域である。境界領域116は、マスク領域112と非マスク領域114との境界を含む領域である。境界領域116一画素の幅を有していてもよいし、二画素以上の幅を有していてもよい。
図4はマスク画像におけるマスク領域と非マスク領域との境界の一部拡大図である。図4は図3の符号116Aを付した部分を拡大した拡大図である。図4に示す黒色の正方形は、マスク領域112の画素である。また、白色の正方形は非マスク領域114の画素である。
符号117はマスク領域112と非マスク領域114との境界を表す。図5に示す境界領域116は、境界117からマスク領域112の側へ一画素の幅を有し、境界117から非マスク領域114の側へ一画素の幅を有している。
確率算出部18は、マスク画像110の境界領域116の各画素について、オブジェクト領域である確率を算出する。確率算出部18は、マスク画像110の境界領域116の画素に設定された、オブジェクト領域である確率を記憶部26へ記憶する。
すなわち、マスク画像110の境界領域116の画素は、0パーセントを超え、100パーセント未満の数値を用いて表される、オブジェクト領域である確率が設定される。
確率算出部18は、オブジェクト領域である確率として、オブジェクト領域の境界を表す閉曲線上の画素について、オブジェクト領域に含まれる信頼度を算出してもよい。オブジェクト領域の境界を表す閉曲線は一画素の幅を有していてもよいし、二画素以上の幅を有していてもよい。
オブジェクト領域の画素の画素値の平均に対する、オブジェクト領域の縁を表す閉曲線上の特定の画素における画素値の二乗誤差の逆数を算出する。この値は、オブジェクト領域の縁を表す閉曲線上の特定の画素が、オブジェクト領域に含まれる信頼度を表す。
閉曲線の画素数を相対的に多くした場合、オブジェクト領域である確率の精度が向上する。一方、閉曲線の画素数を相対的に少なくした場合、オブジェクト領域である確率の計算量が相対的に少なくなる。
閉曲線は、二画素から十画素までの任意の画素数とした場合、オブジェクト領域である確率の精度と、オブジェクト領域である確率の計算量とのバランスが良好となる。なお、オブジェクト領域である確率の算出は、上記の手法に限定されず、他の手法を適用してもよい。
図5はオブジェクト領域である確率が設定された境界領域の画素の一例を示す図である。画素116Bは、オブジェクト領域である確率が90パーセントである。画素116C、画素116D、及び画素116Fのそれぞれに付した数値は、各画素のオブジェクト領域である確率を表している。
なお、画素112Aは、マスク領域112の画素である。マスク領域112の画素はオブジェクト領域である確率が0パーセントである。また、画素114Aは、非マスク領域114の画素である。画素114Aはオブジェクト領域である確率が100パーセントである。
確率算出部18は、マスク画像の全画素についてオブジェクト領域である確率を算出してもよい。マスク画像生成部16は、確率が0パーセントの画素をマスク領域112の画素とし、確率が100パーセントの画素を非マスク領域の画素とし、確率が0パーセントを超え100パーセント未満の画素を境界領域の画素としてもよい。
色判定部20は、オブジェクト領域に適用される色の中から、減色すべき色を判定する。減色の一例として、24ビットフルカラーである1677万色を、三色から数十色までの任意の色数に減色する例が挙げられる。
なお、減色数は、妥当性を表す数値を算出し、減色した画像において色の違和感がない色数から規定し得る。例えば、妥当性を表す数値としてエネルギーを算出し、エネルギーが安定する色数から減色数を規定してもよい。
オブジェクト画像を用いてスタンプを生成する場合、スタンプはイラスト的な要素を有する。イラスト的なスタンプは、フルカラーを適用して色表現を行う必要はなく、スタンプの一定の品質が維持される程度の色数を適用し得る。
例えば、スタンプの元画像となるカラー画像は、同系色が多階調で表現されている。一方、スタンプは、同系色が一色又は数色で表現されていると、スタンプとして使い勝手がよい。
色判定部20は、オブジェクト領域に適用される色の中から、オブジェクト画像に適用される色を設定してもよい。オブジェクト画像は、カラー画像からオブジェクト領域を抽出して生成される。
色判定部20は、オブジェクト領域から自動的に減色すべき色を判定してもよい。例えば、中間色を減色すべき色として判定してもよい。色判定部20は、オブジェクト領域に使用される色を表すカラーパレットにおいて指定された色を、オブジェクト画像に適用する色として判定してもよい。実施形態に示すカラーパレットにおいて指定された色は規定色の一例である。
オブジェクト画像生成部24は、カラー画像及びマスク画像を用いてオブジェクト画像を生成する。オブジェクト画像生成部24は、オブジェクト画像の各画素について、色判定部20を用いて指定された色を適用する。すなわち、オブジェクト画像生成部24は、オブジェクト領域を減色して、オブジェクト画像を生成する。
図6はオブジェクト画像の一例を示す図である。図6に示すオブジェクト画像120は、図2に示した看板102よりも減色されている。例えば、入力画像100の文字106Aに対応するオブジェクト画像120の文字122Aは、多階調のグレーが適用された文字106Aに対して黒が適用される。
同様に、入力画像100の文字106Bに対応するオブジェクト画像120の文字122Bは、多階調の赤が適用された文字106Bに対して一種類の赤が適用される。更に、入力画像100の下地108に対応するオブジェクト画像120の下地128は、多階調の緑が適用された下地108に対して一種類の緑が適用される。
また、オブジェクト画像120の縁120Aの画素は、マスク画像110の境界領域116に設定された、オブジェクト領域である確率に基づいて色が決められる。例えば、判定閾値を50パーセントとした場合、オブジェクト領域である確率が50パーセント以上の画素はオブジェクト画像の色が適用される。
これにより、オブジェクト領域以外の色が、オブジェクト画像の色として設定されることが抑制され、オブジェクト画像の色の不自然さを抑制し得る。なお、判定閾値の50パーセントは例示であり、オブジェクト画像の画質、及び減色される色等のオブジェクト画像の生成条件に応じて、任意の判定閾値を規定し得る。
透明度設定部28は、マスク画像110の境界領域116に適用されるオブジェクト領域である確率に応じて、オブジェクト画像120の縁領域の画素に透明度を設定する。縁領域とは、オブジェクト画像120の縁120Aを含む、少なくとも一画素の幅を有する領域である。
例えば、オブジェクト領域である確率が相対的に高い画素は、透明度を相対的に低くして、オブジェクト領域に背景を透過させる程度を下げる。一方、オブジェクト領域である確率が相対的に低い画素は、透明度を相対的に高くして、オブジェクト領域に背景を透過させる程度を上げる。すなわち、透明度はオブジェクト領域に背景を透過させる程度と表す。例えば、透明度が0パーセントの場合は、オブジェクト領域に背景を全く透過させない。一方、透明度が100パーセントの場合は、オブジェクト領域に背景を全て透過させる。
画素統合部30は、透明度設定部28を用いて透明度が設定された画素を、オブジェクト画像120に統合する。画素統合部30は、透明度が設定された画素を統合したオブジェクト画像を記憶部26へ記憶する。
オブジェクト画像120の縁120A及び縁120Aの近傍に透明度が設定された画素を統合する。これにより、オブジェクト画像120の縁120A及び縁120Aの近傍をぼかすことで、オブジェクト画像120の縁120Aにおけるジャギーの発生を抑制し得る。
スタンプ生成部32は、オブジェクト画像生成部24を用いて生成されたオブジェクト画像からスタンプを生成する。スタンプ生成部32は、生成したスタンプを記憶部26へ記憶する。
スタンプは、カラー画像のオブジェクト領域よりも減色されているので、イラスト的なスタンプを生成し得る。また、スタンプの基となるオブジェクト画像120は、縁120Aにおける色の不自然さが抑制され、かつ、ジャギーの発生が抑制される。これにより、色の不自然さが抑制され、かつ、ジャギーの発生が抑制されたスタンプを生成し得る。
〔画像処理装置のハードウェア構成の説明〕
図7は画像処理装置のハードウェア構成を示すブロック図である。
〈全体構成〉
図1に示す画像処理装置10は、制御部40、メモリ42、ストレージ装置44、ネットワークコントローラ46、及び電源装置48を備える。制御部40、メモリ42、ストレージ装置44、及びネットワークコントローラ46は、バス41を介して通信可能に接続される。
画像処理装置10は、ディスプレイコントローラ52、入出力インターフェース54、及び入力コントローラ56を備えてもよい。画像処理装置10は、制御部40を用いて規定のプログラムを実行し、画像処理装置10の各種機能を実現し得る。
〈制御部〉
制御部40は、画像処理装置10の全体制御部、各種演算部、及び記憶制御部として機能する。制御部40は、メモリ42に具備されるROM(read only memory)に記憶されるプログラムを実行する。
制御部40は、ネットワークコントローラ46を介して、外部の記憶装置からプログラムをダウンロードし、ダウンロードしたプログラムを実行してもよい。外部の記憶装置は、ネットワーク50を介して画像処理装置10と通信可能に接続されていてもよい。
制御部40は、メモリ42に具備されるRAM(random access memory)を演算領域とし、各種プログラムと協働して、各種処理を実行する。これにより、画像処理装置10の各種機能が実現される。
制御部40は、ストレージ装置44からのデータの読み出し及びストレージ装置44へのデータの書き込みを制御する。制御部40は、ネットワークコントローラ46を介して、外部の記憶装置から各種データを取得してもよい。制御部40は、取得した各種データを用いて、演算等の各種処理を実行可能である。
制御部40は、一つ又は二つ以上のプロセッサ(processor)が含まれてもよい。プロセッサの一例として、FPGA(Field Programmable Gate Array)及びPLD(Programmable Logic Device)等が挙げられる。FPGA及びPLDは、製造後に回路構成を変更し得るデバイスである。
プロセッサの他の例として、ASIC(Application Specific Integrated Circuit)が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。
制御部40は、同じ種類の二つ以上のプロセッサを適用可能である。例えば、制御部40は二つ以上のFPGAを用いてもよいし、二つのPLDを用いてもよい。制御部40は、異なる種類の二つ以上プロセッサを適用してもよい。例えば、制御部40は一つ以上のFPGAと一つ以上のASICとを適用してもよい。
複数の制御部40を備える場合、複数の制御部40は一つのプロセッサを用いて構成してもよい。複数の制御部40を一つのプロセッサで構成する一例として、一つ以上のCPU(Central Processing Unit)とソフトウェアとの組合せを用いて一つのプロセッサを構成し、このプロセッサが複数の制御部40として機能する形態がある。なお、本明細書におけるソフトウェアはプログラムと同義である。
CPUに代わり、又はCPUと併用して、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)を適用してもよい。複数の制御部40が一つのプロセッサを用いて構成される代表例として、コンピュータが挙げられる。
複数の制御部40を一つのプロセッサで構成する他の例として、複数の制御部40を含むシステム全体の機能を一つのICチップで実現するプロセッサを使用する形態が挙げられる。複数の制御部40を含むシステム全体の機能を一つのICチップで実現するプロセッサの代表例として、SoC(System On Chip)が挙げられる。なお、ICは、Integrated Circuitの省略語である。
このように、制御部40は、ハードウェア的な構造として、各種のプロセッサを一つ以上用いて構成される。
〈メモリ〉
メモリ42は、図示しないROM及び図示しないRAMを備える。ROMは、画像処理装置10において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ及びファイル等を記憶する。RAMは、データの一時記憶領域及び制御部40のワーク領域等として機能する。
〈ストレージ装置〉
ストレージ装置44は、各種データを非一時的に記憶する。ストレージ装置44は、画像処理装置10に外付けされてもよい。ストレージ装置44に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
〈ネットワークコントローラ〉
ネットワークコントローラ46は、外部装置との間のデータ通信を制御する。データ通信の制御は、データ通信のトラフィックの管理が含まれてもよい。ネットワークコントローラ46を介して接続されるネットワーク50は、LAN(Local Area Network)などの公知のネットワークを適用し得る。
〈電源装置〉
電源装置48は、UPS(Uninterruptible Power Supply)などの大容量型の電源装置が適用される。電源装置48は停電等に起因して商用電源が遮断された際に、画像処理装置10へ電源を供給する。
〈ディスプレイコントローラ〉
ディスプレイコントローラ52は、制御部40から送信される指令信号に基づいて表示部60を制御するディスプレイドライバーとして機能する。
〈入出力インターフェース〉
入出力インターフェース54は、画像処理装置10と外部機器とを通信可能に接続する。入出力インターフェース54は、USB(Universal Serial Bus)などの通信規格を適用し得る。
〈入力コントローラ〉
入力コントローラ56は、操作部62を用いて入力された信号の形式を画像処理装置10の処理に適した形式に変換する。入力コントローラ56を介して操作部62から入力された情報は、制御部40を介して各部へ送信される。
なお、図7に示す画像処理装置10のハードウェア構成は一例であり、適宜、追加、削除、及び変更が可能である。
〔画像処理方法のフローチャート〕
図8は画像処理方法の手順を示すフローチャートである。図8に手順を示す画像処理方法は、入力画像取得工程S10、オブジェクト領域判定工程S12、マスク画像生成工程S14、色判定工程S16、確率算出工程S18、オブジェクト画像生成工程S20、及びスタンプ生成工程S22が含まれる。
入力画像取得工程S10では、図1に示す画像取得部12は、カラー画像として図2に示す入力画像100を取得する。入力画像取得工程S10の後に、入力画像100を記憶する入力画像記憶工程を実施してもよい。入力画像取得工程S10の後にオブジェクト領域判定工程S12へ進む。
オブジェクト領域判定工程S12では、オブジェクト領域判定部14は、入力画像100からオブジェクト領域を自動判定する。オブジェクト領域判定工程S12の後に、オブジェクト領域の情報を記憶するオブジェクト情報記憶工程を実施してもよい。オブジェクト領域判定工程S12の後にマスク画像生成工程S14へ進む。
マスク画像生成工程S14では、マスク画像生成部16は、図3に示すマスク画像110を生成する。マスク画像生成工程S14の後に、マスク画像110を記憶するマスク画像記憶工程を実施してもよい。マスク画像生成工程S14の後に、色判定工程S16へ進む。
色判定工程S16では、色判定部20は、オブジェクトである図2に示す看板102に適用される色の中から、減色すべき色を判定する。例えば、看板102の下地に適用される中間色、文字に適用される中間色を減色すべき色と判定し得る。色判定工程S16の後に、確率算出工程S18へ進む。
確率算出工程S18では、確率算出部18は、図5に示すように、マスク画像110の境界領域116の画素についてオブジェクト領域である確率を算出する。確率算出工程S18の後に、オブジェクト画像生成工程S20へ進む。
オブジェクト画像生成工程S20では、オブジェクト画像生成部24は、図6に示すオブジェクト画像120を生成する。オブジェクト画像生成工程S20は、色判定工程S16において判定された減色すべき色に基づき、オブジェクト領域に適用される色を減色する減色処理工程が含まれる。
オブジェクト画像生成工程S20は、マスク画像110の境界領域116の画素に設定された、オブジェクト領域である確率に応じて、オブジェクト画像の縁領域の画素に透明度を設定する透明度設定工程が含まれ得る。
また、オブジェクト画像生成工程S20は、透明度設定工程において透明度が設定された画素をオブジェクト画像に統合する画素統合工程が含まれ得る。オブジェクト画像生成工程S20の後に、スタンプ生成工程S22へ進む。
スタンプ生成工程S22では、スタンプ生成部32は、オブジェクト画像に基づいてスタンプを生成する。スタンプ生成工程S22の後に、スタンプを記憶するスタンプ記憶工程を実施してもよい。また、スタンプ生成工程S22の後に、スタンプを出力するスタンプ出力工程を実施してもよい。スタンプの出力の一例として、ユーザが使用するスマートフォンのディスプレイを用いたスタンプの表示が挙げられる。
本実施形態では、スタンプ生成工程S22を含む画像処理方法を例示したが、スタンプ生成工程S22は、オブジェクト画像を用いたスタンプ生成以外の生成工程に変更し得る。例えば、スタンプ生成工程S22に代わり、オブジェクト画像を用いた装飾品を生成する装飾品生成工程を適用し得る。
[作用効果]
上記の如く構成された画像処理装置及び画像処理方法によれば、以下の作用効果を得ることが可能である。
〔1〕
カラー画像から抽出されたオブジェクト領域を用いて生成されたオブジェクト画像の色は、オブジェクト領域に適用される色よりも減色される。オブジェクト画像の縁の画素は、カラー画像におけるオブジェクト領域である確率に基づいて、オブジェクト画像に適用される色とされる。これにより、オブジェクト画像に適用される色以外の色のオブジェクト画像への混入が抑制され、オブジェクト画像における色の不自然さを抑制し得る。
〔2〕
オブジェクト画像の縁領域は、カラー画像におけるオブジェクト領域である確率に基づいて設定された透明度が統合される。これにより、オブジェクト画像の縁領域が適切な透明度となり、ジャギー等が抑制されたオブジェクト画像の生成が可能となる。
〔3〕
カラー画像からオブジェクト領域が自動的に抽出される。オブジェクト領域の自動抽出は、ディープラーニングが適用される。これにより、オブジェクト領域抽出の高精度化が可能となる。
[応用例]
図6に示すオブジェクト画像120における色の境界の画素について、各色である確率を用いて各色同士の中間色を適用してもよい。例えば、オブジェクト画像120において、文字の色と下地の色との境界領域である文字の縁領域の画素について、文字である確率を算出する。文字である確率の算出は、カラー画像におけるオブジェクト領域である確率を算出する手法を適用し得る。オブジェクト領域に適用される色を減色する際に、誤差拡散法を適用してもよい。
中間色は、一階調でもよいし、多階調でもよい。色の境界領域の幅は一画素でもよいし、二画素以上でもよい。実施形態に示す文字の縁領域の画素は、隣接する異なる色の画素の一例である。
[応用例の作用効果]
応用例に係る画像処理装置及び画像処理方法によれば、オブジェクト画像における色の境界領域の画素について、一方の色である確率に基づく中間色を適用する。これにより、オブジェクト画像120の色間の不自然さの発生を抑制し得る。
[ネットワークシステムへの適用]
図1に示す画像処理装置10は、デスクトップ型コンピュータを適用可能である。画像処理装置10は、スマートフォン、タブレット型コンピュータ、及びノート型パソコンなどの携帯型情報処理端末を適用してもよい。
図9はネットワークシステムへの適用例に係る画像処理システムのブロック図である。図9に示す画像処理システム400は、サーバ装置410を備える。サーバ装置410、第一ユーザ端末420、第二ユーザ端末422、及び第三ユーザ端末424は、ネットワーク402を介して通信可能に接続される。画像処理システム400は、ネットワーク402を介して通信可能に接続されるストレージ装置等の大容量記憶装置を備えてもよい。
ネットワーク402は、WAN(Wide Area Network)などの広域通信網を適用してもよいし、LAN(Local Area Network)などの構内通信網を適用してもよい。ネットワーク402は、通信方式及び通信プロトコル等も限定されない。なお、図7に示すネットワーク50は、図9に示すネットワーク402を適用し得る。
サーバ装置410は、図1から図8を用いて説明した画像処理装置10が適用される。図9に示す態様では、図2に示すディスプレイコントローラ52、入出力インターフェース54、入力コントローラ56、表示部60、及び操作部62を省略し得る。
図9に示すサーバ装置410において、図2に示すストレージ装置44は、ネットワーク402を介してサーバ装置410と通信可能に接続されてもよい。図9には、第一ユーザ端末420及び第二ユーザ端末422として携帯端末が適用され、第三ユーザ端末424としてノート型パソコンが適用される例を示す。第一ユーザ端末420等のユーザ端末は、ネットワーク402を介してサーバ装置410と通信可能に接続される機器であればよい。
[プログラムへの適用例]
上述した画像処理装置10及び画像処理方法は、コンピュータを用いて、画像処理装置10における各部に対応する機能、又は画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。
各工程等に対応する機能の例として、入力画像取得機能、オブジェクト領域判定機能、マスク画像生成機能、色判定機能、確率算出機能、オブジェクト画像生成機能、透明度設定機能、及び画素統合機能が挙げられる。
入力画像取得機能は、図1に示す画像取得部12に対応する。オブジェクト領域判定機能は、オブジェクト領域判定部14に対応する。マスク画像生成機能は、マスク画像生成部16に対応する。
確率算出機能は、確率算出部18に対応する。色判定工程は、色判定部20に対応する。オブジェクト画像生成機能は、オブジェクト画像生成部24に対応する。記憶工程は記憶部26に対応する。透明度設定機能は、透明度設定部28に対応する。画素統合機能は、画素統合部30に対応する。スタンプ生成機能は、スタンプ生成部32に対応する。
上述した情報処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び適用例等で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
10 画像処理装置
12 画像取得部
14 オブジェクト領域判定部
16 マスク画像生成部
18 確率算出部
20 色判定部
24 オブジェクト画像生成部
26 記憶部
28 透明度設定部
30 画素統合部
32 スタンプ生成部
40 制御部
41 バス
42 メモリ
44 ストレージ装置
46 ネットワークコントローラ
48 電源装置
50 ネットワーク
52 ディスプレイコントローラ
54 入出力インターフェース
56 入力コントローラ
60 表示部
62 操作部
100 入力画像
102 看板
104 パーテーション
106 文字
106A 文字
106B 文字
108 下地
110 マスク画像
112 マスク領域
114 非マスク領域
114A 画素
116 境界領域
116A 画素
116B 画素
116C 画素
116D 画素
116E 画素
116F 画素
117 境界
120 オブジェクト画像
120A 縁
122A 文字
122B 文字
128 下地
400 画像処理システム
402 ネットワーク
410 サーバ装置
420 第一ユーザ端末
422 第二ユーザ端末
424 第三ユーザ端末
S10からS22 画像処理方法の各工程

Claims (15)

  1. カラー画像のオブジェクト領域を判定するオブジェクト領域判定部と、
    前記オブジェクト領域のマスク画像を生成するマスク画像生成部と、
    前記オブジェクト領域を抽出し、前記オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成部と、
    前記オブジェクト領域に適用される色から減色する色を判定し、前記オブジェクト領域よりも少ない数の色を前記オブジェクト画像の色に設定する色判定部と、
    前記マスク画像の画素が、前記オブジェクト領域の画素である確率を算出する確率算出部と、
    を備え、
    前記オブジェクト画像生成部は、前記確率に基づいて、前記色判定部を用いて設定された色を前記オブジェクト画像の縁領域の色として設定する画像処理装置。
  2. 前記確率算出部は、前記マスク画像における境界領域の画素について、前記オブジェクト領域である確率を算出する請求項1に記載の画像処理装置。
  3. 前記確率に基づいて、前記オブジェクト領域の縁領域の透明度を設定する透明度設定部と、
    前記透明度を適用した画素を、前記オブジェクト画像に統合する画素統合部と、
    を備えた請求項1又は2に記載の画像処理装置。
  4. 前記色判定部は、前記オブジェクト領域に適用される色から、前記オブジェクト画像に適用される色を設定する請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記色判定部は、予め決められた規定色から、前記オブジェクト画像に適用される色を設定する請求項1から4のいずれか一項に記載の画像処理装置。
  6. 前記色判定部は、前記規定色からユーザが指定した色を前記オブジェクト画像に適用される色として設定する請求項5に記載の画像処理装置。
  7. 前記色判定部は、機械学習を用いて、前記オブジェクト領域に適用される色から減色する色を判定する請求項1から6のいずれか一項に記載の画像処理装置。
  8. 前記オブジェクト画像生成部は、前記オブジェクト領域において異なる色の画素が隣接する場合に、隣接する異なる色の画素に、前記異なる色同士の中間色を設定する請求項1から7のいずれか一項に記載の画像処理装置。
  9. 前記オブジェクト領域判定部は、ユーザが指定した領域に基づいて前記オブジェクト領域を判定する請求項1から8のいずれか一項に記載の画像処理装置。
  10. 前記オブジェクト領域判定部は、機械学習を用いて前記オブジェクト領域を判定する請求項1から8のいずれか一項に記載の画像処理装置。
  11. 前記オブジェクト領域は、顔領域を含む請求項1から10のいずれか一項に記載の画像処理装置。
  12. 前記オブジェクト画像に基づいてスタンプを生成するスタンプ生成部を備えた請求項1から11のいずれか一項に記載の画像処理装置。
  13. ネットワークと接続されるサーバ装置を備える画像処理システムであって、
    前記サーバ装置は、
    カラー画像のオブジェクト領域を判定するオブジェクト領域判定部と、
    前記オブジェクト領域のマスク画像を生成するマスク画像生成部と、
    前記オブジェクト領域を抽出し、前記オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成部と、
    前記オブジェクト領域に適用される色から減色する色を判定し、前記オブジェクト領域よりも少ない数の色を前記オブジェクト画像の色に設定する色判定部と、
    前記マスク画像の画素が、前記オブジェクト領域の画素である確率を算出する確率算出部と、
    を備え、
    前記オブジェクト画像生成部は、前記色判定部を用いて設定された色を前記オブジェクト画像の縁領域の色として前記確率に基づいて設定する画像処理システム。
  14. カラー画像のオブジェクト領域を判定するオブジェクト領域判定工程と、
    前記オブジェクト領域のマスク画像を生成するマスク画像生成工程と、
    前記オブジェクト領域を抽出し、前記オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成工程と、
    前記オブジェクト領域に適用される色から減色する色を判定し、前記オブジェクト領域よりも少ない数の色を前記オブジェクト画像の色に設定する色判定工程と、
    前記マスク画像の画素が、前記オブジェクト領域の画素である確率を算出する確率算出工程と、
    を含み、
    前記オブジェクト画像生成工程は、前記確率に基づいて、前記色判定工程において設定された色を前記オブジェクト画像の縁領域の色として設定する画像処理方法。
  15. コンピュータに、
    カラー画像のオブジェクト領域を判定するオブジェクト領域判定機能、
    前記オブジェクト領域のマスク画像を生成するマスク画像生成機能、
    前記オブジェクト領域を抽出し、前記オブジェクト領域に基づいてオブジェクト画像を生成するオブジェクト画像生成機能、
    前記オブジェクト領域に適用される色から減色する色を判定し、前記オブジェクト領域よりも少ない数の色を前記オブジェクト画像の色に設定する色判定機能、及び
    前記マスク画像の画素が、前記オブジェクト領域の画素である確率を算出する確率算出機能を実現させるプログラムであって、
    前記オブジェクト画像生成機能は、前記確率に基づいて、前記色判定機能を用いて設定された色を前記オブジェクト画像の縁領域の色として設定するプログラム。
JP2018178970A 2018-09-25 2018-09-25 画像処理装置、画像処理システム、画像処理方法、及びプログラム Active JP6949795B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018178970A JP6949795B2 (ja) 2018-09-25 2018-09-25 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US16/520,382 US10963988B2 (en) 2018-09-25 2019-07-24 Image processing device, image processing system, image processing method, and program
CN201910747409.2A CN110942488A (zh) 2018-09-25 2019-08-13 图像处理装置、图像处理***、图像处理方法及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018178970A JP6949795B2 (ja) 2018-09-25 2018-09-25 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020052530A JP2020052530A (ja) 2020-04-02
JP2020052530A5 JP2020052530A5 (ja) 2020-11-26
JP6949795B2 true JP6949795B2 (ja) 2021-10-13

Family

ID=69884502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018178970A Active JP6949795B2 (ja) 2018-09-25 2018-09-25 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US10963988B2 (ja)
JP (1) JP6949795B2 (ja)
CN (1) CN110942488A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6949795B2 (ja) * 2018-09-25 2021-10-13 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2022132789A (ja) * 2021-03-01 2022-09-13 セイコーエプソン株式会社 表示方法およびプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL88286A (en) * 1988-11-04 1992-07-15 Scitex Corp Ltd Method and apparatus for preparing picture masks and for digitizing line edges
US6785329B1 (en) * 1999-12-21 2004-08-31 Microsoft Corporation Automatic video object extraction
JP2004120382A (ja) * 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd 減色処理装置、減色処理方法及び減色処理プログラム
US20050025383A1 (en) * 2003-07-02 2005-02-03 Celartem Technology, Inc. Image sharpening with region edge sharpness correction
US7430339B2 (en) * 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
JP2010198538A (ja) * 2009-02-27 2010-09-09 Seiko Epson Corp 画像解析プログラム、画像解析装置および画像解析方法
JP2011176748A (ja) * 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP5766986B2 (ja) * 2011-03-16 2015-08-19 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN102254327B (zh) * 2011-07-29 2013-04-10 西南交通大学 数码照片中的人脸自动分割方法
JP2013179402A (ja) * 2012-02-28 2013-09-09 Sony Corp 端末装置、情報処理装置、表示方法、及び表示制御方法
CN102750718B (zh) * 2012-05-31 2015-03-25 山东神思电子技术股份有限公司 一种背景蒙版生成方法
SG10201510667SA (en) * 2012-06-27 2016-01-28 Agency Science Tech & Res Text detection devices and text detection methods
JP2014071666A (ja) 2012-09-28 2014-04-21 Dainippon Printing Co Ltd 画像処理装置、画像処理方法、及びプログラム
US10121254B2 (en) * 2013-08-29 2018-11-06 Disney Enterprises, Inc. Methods and systems of detecting object boundaries
JP6528104B2 (ja) * 2014-02-25 2019-06-12 株式会社アプライド・ビジョン・システムズ 画像復元装置、画像復元方法及びプログラム
US9864901B2 (en) * 2015-09-15 2018-01-09 Google Llc Feature detection and masking in images based on color distributions
US10540768B2 (en) * 2015-09-30 2020-01-21 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image
JP6611255B2 (ja) 2016-06-09 2019-11-27 日本電信電話株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
KR102529957B1 (ko) * 2016-09-26 2023-05-08 삼성전자주식회사 디스플레이장치 및 기록매체
CN106846323B (zh) * 2017-01-04 2020-07-10 珠海大横琴科技发展有限公司 一种实现交互式图像分割的方法、装置及终端
US10354433B2 (en) * 2017-07-11 2019-07-16 Here Global B.V. Method and apparatus for generating an abstract texture for a building facade or model
WO2019014646A1 (en) * 2017-07-13 2019-01-17 Shiseido Americas Corporation REMOVAL OF VIRTUAL FACIAL MAKE-UP, FAST FACIAL DETECTION AND TRACK POINT TRACKING
AU2018324122B2 (en) * 2017-09-01 2021-09-09 Percipient.ai Inc. Identification of individuals in a digital file using media analysis techniques
US10692221B2 (en) * 2018-07-13 2020-06-23 Adobe Inc. Automatic trimap generation and image segmentation
JP6949795B2 (ja) * 2018-09-25 2021-10-13 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN110363720A (zh) * 2019-07-04 2019-10-22 北京奇艺世纪科技有限公司 一种图像的色彩增强方法、装置、设备和存储介质
CN110717919A (zh) * 2019-10-15 2020-01-21 阿里巴巴(中国)有限公司 图像处理方法、装置、介质和计算设备

Also Published As

Publication number Publication date
US20200098090A1 (en) 2020-03-26
CN110942488A (zh) 2020-03-31
US10963988B2 (en) 2021-03-30
JP2020052530A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
Wang et al. A fusion-based method for single backlit image enhancement
WO2021109876A1 (zh) 图像处理方法、装置、设备及存储介质
CN107204034B (zh) 一种图像处理方法及终端
CN111445564B (zh) 人脸纹理图像生成方法、装置、计算机设备和存储介质
Lai et al. Improved local histogram equalization with gradient-based weighting process for edge preservation
US20170213330A1 (en) Unified multi-image fusion approach
CA3154893C (en) Image color transferring method, device, computer equipment and storage medium
CN111383232B (zh) 抠图方法、装置、终端设备及计算机可读存储介质
JP2007082145A (ja) 画像処理装置、画像処理方法、およびプログラム
CN112602088B (zh) 提高弱光图像的质量的方法、***和计算机可读介质
JP2004127064A (ja) 画像処理方法、画像処理装置、画像処理プログラム及び画像記録装置
JP6949795B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN108230256A (zh) 图像处理方法、装置、计算机装置及计算机可读存储介质
US20210248729A1 (en) Superpixel merging
Ancuti et al. Image and video decolorization by fusion
US11670031B2 (en) System and method for automatically generating an avatar with pronounced features
JP7307371B2 (ja) 画像調整装置、画像調整方法及びプログラム
Mandal et al. FuzzyCIE: fuzzy colour image enhancement for low-exposure images
JP2004240622A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
CN114862729A (zh) 图像处理方法、装置、计算机设备和存储介质
WO2023207454A9 (zh) 图像处理方法、图像处理装置以及可读存储介质
CN111274145A (zh) 关系结构图生成方法、装置、计算机设备及存储介质
WO2022247702A1 (zh) 图像处理方法及装置、电子设备和存储介质
CN116778212A (zh) 一种图像处理方法及装置
CN112561822B (zh) 美颜方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210922

R150 Certificate of patent or registration of utility model

Ref document number: 6949795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150