JP2004282664A - Image processing method, and image output service method using image processing method - Google Patents

Image processing method, and image output service method using image processing method Download PDF

Info

Publication number
JP2004282664A
JP2004282664A JP2003074840A JP2003074840A JP2004282664A JP 2004282664 A JP2004282664 A JP 2004282664A JP 2003074840 A JP2003074840 A JP 2003074840A JP 2003074840 A JP2003074840 A JP 2003074840A JP 2004282664 A JP2004282664 A JP 2004282664A
Authority
JP
Japan
Prior art keywords
image data
image
processing
predetermined range
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003074840A
Other languages
Japanese (ja)
Inventor
Hideaki Haraga
秀昭 原賀
Shinji Murata
真二 村田
Yuichi Marikawa
祐一 万里川
Reiko Yamauchi
玲子 山内
Takeshi Narumiya
毅 成宮
Tomoaki Tamura
知章 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003074840A priority Critical patent/JP2004282664A/en
Publication of JP2004282664A publication Critical patent/JP2004282664A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image edited wherein characteristic portions such as a portion of a human face are not worked or are worked just a little and the periphery thereof and the other portions are edited in a desired plotting pattern without a sense of incompatibility when there are the characteristic portions in image data. <P>SOLUTION: A range including a characteristic portion is detected from image data, the image data are divided into the range including the characteristic portion and the other predetermined range, image data in the divided predetermined range are worked in the desired plotting pattern and in image data corresponding to the range including the characteristic portions and image data within the predetermined range worked on the plotting work stage, boundary peripheral regions are worked to be harmonized. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、顧客から例えば、写真等の映像に係る画像データを受けて、その画像データを顧客の要求に応じてデザインして編集加工するための画像処理方法及び画像処理方法を用いた画像出力サービス方法に関し、特に、画像データを油彩描画、色鉛筆描画、点描画等の各描画手法に似せた表現(以下、「描画パターン」という。)で編集する場合に顧客からの画像データの中に、人、動物等の生物の一部或いはそれらを模した物、いわば特徴部分が含まれている場合に、それらの加工と特徴部分以外の加工を分けて行う技術に関する。また、この画像サービスを、編集加工を希望する顧客の顧客端末、前記画像を編集加工する編集者のデザイン端末、及び前記顧客と前記編集者の間にあって画像編集サービスを行う管理者のサービス端末とをネットワークとサーバで結んで提供するものに係る。
【0002】
【従来の技術】
近年、デジタルカメラ、デジタルカメラ付き携帯電話、或いは、通信可能なデジタルカメラ付きPDAが普及し、映像情報への要求が高まりつつある。一方、映像情報(以下、「画像データ」という。)への要求の一つに、これら取得した画像データを、カード、ハガキ、カレンダー或いは結婚式等の個人の私的行事・記念のプロマイドとして、カスタマサイズ化し、かつ付加価値を付けて編集することを希望することが多くなってきた。なお、アナログの画像データにおいても、アナログで取得した画像データをスキャナーと呼ばれるデジタル処理機でデジタル化することと併せて、上記の付加価値の付加を希望してくる場合もあった。
【0003】
一般には、各コンピュータ等にデジタル画像データを編集するための描画ソフトがインストールされており、それを使用して、編集することもできるが、中々、ソフトを使いこなせないことと、やはりデザイン的発想がなされないので、カスタマサイズ化、付加価値アップは困難であった。
【0004】
そこで、特許文献1及び特許文献2に記載のような、画像サービスシステム(方法)が提供されている。これらのシステムを用いれば、例えば、顧客が、インターネット上で画像サービスサイトを開いて、所有する画像データの編集加工をデザインの専門家である複数の作業者(編集者)に(下記、管理者を通して)依頼して、作業者がデザインしたものを、印刷材料及び印刷機器(画像出力装置)を有し印刷の専門家であり、かつサービスの提供者でもある管理者に印刷してもらうことも可能である。
【0005】
【特許文献1】
特開2001−346028号公報([0044]〜[0049])
【特許文献2】
特開2002−149793号公報([0025])
【特許文献3】
特開2001−309225号公報([0007]、図3)
【特許文献4】
特開平8−122944号公報([0013]〜[0020]、図1)
【0006】
【発明が解決しようとする課題】
上記のような画像サービスにおける編集加工には、例えば、一般の描画ソフト(ペイント・ソフト)にもあるが、油彩描画、鉛筆描画、或いは点描画等を模した加工手法(つまり、描画パターン)が良く用いられる。一方、顧客が所有する、例えばデジタルカメラの画像データには、人の顔、指、ペットの顔、或いはそれらを模した縫いぐるみや飾り物等は、感覚的に繊細で画像としても中心的な部分(以下、「特徴部分」という。)をその周辺と同じ上記描画パターンで加工すると、画像としてのイメージが一変してしまい、デジタルカメラで写した意義さえ失いかけてしまうことがある。
【0007】
したがって、このような特徴部分を加工しないで、その周辺だけを編集加工することが望まれるようになった。このような要望を実現するには、上記、特許文献1又は2では対応が困難であった。
【0008】
一方、デジタルカメラ等において、画像データ中の顔の部分を検出して、デジタルカメラの露出パラメータを決定しようとするもの(特許文献3を参照)や、焼付けの露光量の決定に用いる例が示されている(特許文献4を参照)が、いずれも、顧客の画像編集については、開示されていない。
【0009】
本発明の目的は、顧客が所有する画像データには、人の顔、指、ペットの顔、或いはそれらを模した縫いぐるみや飾り物等の特徴部分があった場合は、それらを加工せず、或いはそれらは微少加工にとどめ、その周辺、その他の部分を違和感なく所望の描画パターンで編集した画像を提供する画像処理方法及び画像処理方法を用いた画像出力サービス方法を提供するものである。
【0010】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の発明は、少なくとも映像1枚分の画像データから特徴部分を含む範囲を検出して、前記特徴部分を含む範囲の画像データとそれを除く所定範囲の画像データとに区分けする選択段階と、前記画像データのうち前記選択段階で区分けされた所定範囲の画像データを所定の描画手法を模した描画パターンにより加工処理する描画加工段階と、前記検出された特徴部分を含む範囲と前記所定範囲との境界周辺領域が視覚的に連続するように表現するため、前記特徴部分を含む範囲に相当する前記画像データ及び前記描画加工段階で加工処理された所定範囲の画像データのうち、前記境界周辺領域に相当する画像データをなじませ加工する周辺領域加工段階とを備えた。
【0011】
また、請求項2に記載の発明は、前記特徴部分は、人、動物もしくはそれらを模した物の一部を表す画像部分、又は文字を表す画像部分であることとした。
【0012】
また、請求項3に記載の発明は、顧客から少なくとも映像1枚分の画像データと出力すべき画像の描画パターンの指定を受けて、画像出力の注文を受ける受付段階と、前記画像データから特徴部分を含む範囲を検出して、前記特徴部分を含む範囲を除く所定範囲を選択する選択段階と、前記選択段階で選択された所定範囲の画像データを前記指定された描画パターンで加工処理する描画加工段階と、前記特徴部分を含む範囲を前記描画加工段階で行う加工処理の加工の程度より変化の少ない加工処理を行う特徴部分加工段階と、前記特徴部分を含む範囲と前記所定範囲との境界を含む境界周辺領域が視覚的に連続するように表現するため、前記特徴部分加工段階で加工処理された特徴部分を含む範囲の画像データ及び前記描画加工段階で加工処理された所定範囲の画像データのうち、前記境界周辺領域に相当する画像データをなじませ加工する周辺領域加工段階とを備えた。
【0013】
また、請求項4に記載の発明は、前記受付段階は、顧客から前記所定範囲又は特徴部分の指定を受ける段階を含み、前記特徴部分は、人、動物もしくはそれらを模した物の一部を表す画像部分、又は文字を表す画像部分であることとした。
【0014】
また、請求項5に記載の発明は、顧客から映像1枚分の画像データと出力すべき画像の描画パターンの指定を受けて、画像出力の注文を受ける受付段階と、前記画像データから特徴部分含む範囲を検出して、前記特徴部分を含む範囲の画像データとそれ以外の所定範囲の画像データとに区分けする選択段階と、前記画像データのうち前記特徴部分を含む範囲だけを含む1枚分の第1版の画像データと、前記所定範囲だけを含む1枚分の第2版の画像データとを生成する加工版データ生成段階と、前記第2版の画像データを前記描画パターンで表現できるように描画加工する描画加工段階と、前記第1版の画像データと前記描画段階で前記描画パターンで描画された第2版の画像データを合成し1枚の画像データとする合成段階と、前記画像データのうち前記区分けの境界周辺領域の画像データを、視覚的に連続するように表現するためになじませ加工する周辺領域加工段階とを備えた。
【0015】
また、請求項6に記載の発明は、前記受付段階は、顧客から前記所定範囲又は特徴部分の指定を受ける段階を含み、前記特徴部分は、人、動物もしくはそれらを模した物の一部を表す画像部分、又は文字を表す画像部分であることとした。
【0016】
また、請求項7に記載の発明は、前記周辺領域加工段階は、前記合成段階の前又は後に、前記描画段階で前記描画パターンで描画された第2版の画像データに対してなじませ加工する構成とした。
【0017】
また、請求項8に記載の発明は、前記合成段階の前で、前記第1版の画像データを前記描画加工段階の描画加工より変化の少ない加工処理をする特徴部分加工段階とを備えた。
【0018】
また、請求項9に記載の発明は、顧客端末から、少なくとも映像1枚分の画像データと出力すべき画像の描画パターンの指定をネットワークを通して受信したサーバが、受信内容を記憶するとともに、受信したことを画像出力サービス管理者端末へ通知する段階と、前記画像サービス管理者端末が受注処理して、前記画像データを編集する編集段階とを備えた画像出力サービス方法であって、前記編集段階は、サーバに記憶された画像データから特徴部分を含む範囲とそれ以外の所定範囲とを区分けする選択段階と、前記画像データのうち前記所定範囲の画像データを前記描画パターンで表現できるように加工処理する描画加工段階と、前記特徴部分を含む範囲と前記所定範囲との境界周辺領域が視覚的に連続するように表現するため、前記所定範囲の画像データ及び前記描画加工段階で加工処理された所定範囲の画像データのうち、前記境界周辺領域のデータをなじませ加工する周辺領域加工段階と、前記周辺領域加工段階で加工された画像データを、少なくとも前記1枚分のデザイン画像データとして前記サーバへアップロードする段階とを備え、さらに、前記サーバにアップロードされたデザイン画像データについて、顧客端末より承認を受ける段階とを備えた。
【0019】
また、請求項10に記載の発明は、前記選択段階は、画像出力サービス端末側で行われ、前記選択段階で区分けされた画像データを受けけたデザイン端末側で、前記描画段階及び周辺領域加工段階が行われる構成とした。
【0020】
【発明の実施の形態】
図1は、本発明に係る画像処理方法の機能ブロックを説明するための図、図2は画像出力サービスの流れを説明するための図、図3は、版の説明をするための図、図4は、図1のハードを含む構成を説明するための図であるとともに、ネットワークを用いた画像出力サービスを説明するための図である。
【0021】
図1を基に、本発明に係る画像編集の構成を説明する。図1において、画像データ10は、顧客がカメラ2で取得したデジタルのデータであって、例えば、建物を含む風景に人の顔が含まれている、少なくとも写真1枚分のデジタルデータとする。
【0022】
特徴部分検出手段11(図4の特徴部分検出手段6aも同じ)は、人の顔、指、動物の顔、或いは動物のマスコット、縫いぐるみ等の顔等、或いは文字情報の特徴部分を含む範囲をそれ以外と区別して抽出する選択手段である。つまり、特徴部分を含む範囲と特徴部分の範囲以外の他の範囲を区分けする。
【0023】
特徴部分検出手段11は、図示しないが、コンピュータとコンピュータ上で実行可能な特徴部分検出アルゴリズムを有するソフトで構成される。例えば、顔検出アルゴリズムとしては、特開2001−309225(特許文献3)、特開平8−122944(特許文献4)及びこれに限られない技術が既に存在しており、これらを用いることができる。なお、本発明の出願人が製造販売している顔監視システム「WizFace」(登録商標)にも、顔検出手段が備えられている。
【0024】
版生成手段12は、特徴部分検出手段11で検出した顔部分(特徴部分)の画像データだけを元々の顧客からの画像データから区分けして抜き取って、抜き取った顔部分の画像データを含み顔部分以外は白地のデータとした1枚分の画像データを第1版として生成する。また、元々の顧客からの画像データから顔部分の画像データを抜きとられた画像データを含み顔部分は白地のデータとした1枚分の画像データを第2版として生成する(図3の第1版及び第2版を参照)。ここでは、第2版まで生成することで説明するが、特徴部分が多数箇所ある場合は、それぞれの箇所に応じて版を設ける。
【0025】
第1版描画加工手段13、第2版描画加工手段14、合成手段15及び周辺領域加工手段16は、図4の編集手段5aを構成している。
【0026】
第2版描画加工手段14は、顔部分(特徴部分)以外の範囲を加工編集するもので、ここでは顧客要求が色鉛筆描画手法での編集であるから、ここでは、写真における画像データを色鉛筆調の画像データに変換して加工する。また、修正、補修等もできる(図3の描画加工された第2版を参照)。
【0027】
第1版描画加工手段13は、顔部分(特徴部分)の範囲を編集するためのものであるが、加工することにより画像データ全体のイメージが大幅に変わってしまう恐れがあるため、顧客の要望に無しには加工しない。加工したとしても微少な変化にとどめる。また、赤目の修正やその他の補修をすることはある。
【0028】
合成手段15は、第1版描画加工手段13で加工(又は未加工)された第1版と第2版描画加工手段14でされた第2版を合成して1枚分のデザインされた画像データ(以下、「デザイン画像データ」という。)として出力する。
【0029】
周辺領域加工手段16は、デザイン画像データにおける例えば未加工の特徴部分の範囲と、色鉛筆描画手法で描画加工された特徴部分以外の範囲との境界は互いの色調の違いが歴然として非常に違和感のあるものとなってしまうため、プリントしてみたときに視覚的に連続するように、その境界周辺領域をなじませる(或いは、ぼかす)ためになじませ加工をしてデザイン画像として出力するものである(図3の合成されたなじませ加工されたデザイン画像を参照)。画像出力手段17は、上記の画像出力手段7と同じである。
【0030】
ここで、なじませ加工とは、異なった画像加工処理を行った複数の画像を組合せたときに、それらの組合せの境界部分を視覚的に連続させる画像処理である。具体的には、ぼかし加工、グラデーション調整、色及び濃度の調整、透かし合成などの手段を単独又は組合せで使用して、処理する。
【0031】
次に、ここまで説明してきた画像編集方法(手段)を用いてネットワーク4で画像サービスを提供する事について、図2及び図4を中心に説明する。先ず、図4を基に画像サービスをネットワーク4で提供するの構成及びネットワーク4により情報がどの流れるかその概要を説明する。顧客端末1、サーバ3、画像サービスを提供し全体を管理する管理者の端末であるサービス端末6、デザインを編集する編集者の端末であるデザイン端末5がインターネット等によるネットワーク4で接続されている。各端末は、コンピュータで構成され、通信手段、及び表示・操作手段を有し、サーバ3の画面情報管理手段3bがネットワーク4を通して提供する画面情報を視認しながら情報を交わしてサービスを行う。
【0032】
ここで、デザイン端末5には、編集手段5aがある。編集手段5aは、デジタルカメラで取得した画像データを油絵調で編集する油彩描画ソフト、或いは色鉛筆描画ソフトや点描画ソフト等の、コンピュータ上で動作するペイントソフトを有している。これらのコンピュータ及びペイントソフトが、図1の第1版及び第2版描画加工手段13及び14を構成している。その他、合成手段15、周辺領域加工手段16もコンピュータとソフトで達成されている。サービス端末6には、デザイン端末5で上記ペイントソフトで編集加工されたデザイン画像をプリントして出力する画像出力手段7をもっている。
【0033】
次に、サーバ3を中心にして構成及び画像サービスの流れを説明する。サーバ3には、画面情報管理手段3bが各端末からのアクセスにより、各端末で閲覧可能にされた、画面情報を備えている。画面情報には、各端末で共通に閲覧できる共通画面情報及びそれと連動する各端末固有の個別画面情報がある。これら各画面には、各端末が分担する作業や、受発注に必要な情報が記載可能にされているととともに、各端末からの書きこみも可能にされ、さらには各端末の作業等において受発注、編集依頼、校正承認、修正、顧客承認、その他の決定等を意思表示するために用いられる設定キーが画面に表示されるようにソフトウェアで設けられている(このような設定キーはソフトキーとも言われる)。なお、各端末で上記の確定、決定、受発注、依頼等がソフトキーで設定されると、次の業務は他の端末へ移行することになる。
【0034】
サーバ3の通信手段3aは、各端末からネットワーク4を通してアクセスされたとき、これらの画面情報を各端末に提供して、必要な情報を各端末から入力できるようにしている(いわゆるGUI手段でもある)。また、例えば、顧客端末1から受注を受けて自動的に所定フォーマットでサービス端末6に受注した旨をメールする等の通信を行っている。また、画面情報管理手段3bは、共通画面情報と個別画面情報とを連動するように管理しているので、例えば、各端末で画面に表示される画面情報を見たとき、共通画面には、ある作業項目の概要だけ表記し、その作業項目をクリックすると詳細な個別画面が表示されるようにし、いずれの記載内容を変えても双方の表示画面に一部又は全部が反映されるようにされている。
【0035】
通信手段3a内の交信管理手段は、それら交信の記録を時系列に又は端末別にソートできるようにデータベースとして記録し、画面情報として提供して、端末間のコミニュケーションのトラブル解決に役立てるためのものである。
【0036】
サービス管理手段3cは、全体の管理に必要な各種情報を記憶手段に記憶しておいて、それらの情報を管理するとともに、サーバ内、各端末間を円滑に運用するためのものである。例えば、受注見積に必要な情報、完成した後に配送するに必要な情報、各端末間にメール通知するに必要なフォーマット、アドレス等の管理を行う。なお、上記各種情報は、共通画面情報からクリックして引きだされる個別画面情報として管理してもよい。この場合は、共通画面から各端末で引き出し可能な情報を制限することもできる。例えば、管理者が編集者に依頼するための編集者に係る情報を記載したリストは、管理者には必要であるが、顧客には不要であるため、管理者だけがアクセス可能にできる。このように、共通画面において、ある設定キーが特定の端末だけからアクセスして他の端末がアクセスできないようにしているのは、業務の必要性、営業秘密漏洩防止の観点からである。技術的には、設定キーが押されたとき、押された旨の情報とその端末のIDをサーバの通信手段3a受けて、IDにより受け付けるか否かを決定することによりできる。
【0037】
図2及び図4を基に動作を説明する。
ステップS1;顧客は、顧客端末1からサーバ3のURL(インターネットアドレス)を指定してアクセスすると画像情報として、サービスの案内が出て、注文を希望するかどうか聞いてくるので注文希望をソフトキーで設定する。
【0038】
顧客端末1には、画面情報として、さらに注文内容、顧客情報を記載する欄が表示されるので、その欄へ必要な情報を記載して、サーバ3へ送る。例えば、注文内容としては、次のようなものがあり、一定書式で、画面で記入、選択できるようにされている。
・希望画像のカテゴリ:例えば、Baby、結婚、カレンダー、誕生日等
・画像の全体構図を決定付けるテンプレート:例えば、カレンダーのカテゴリあれば、風景、建物、花などで構成された構図
・描画パターン:油彩描画、色鉛筆描画、点描画等
・画像に入れる文字情報:メッセージ、タイトル等、
・色の種類、フォント等
・顧客情報:住所、氏名、e−メールアドレス、電話番号、希望納期納期、受取指定先等
【0039】
顧客は、上記注文内容をクリックして仮決定すると、サーバ3のサービス管理手段3cは、所定の条件、或いは、画像の構成部品(例えば、文字数、テンプレートの種類等)に応じて予め見積・納期内訳を用意し、それを基に見積額・納期を算出して顧客端末1へ提示してくるので、この額に満足でなければ、再度、顧客が検討し、最初の条件を修正・変更して満足するか、或いは注文断念するまで行う。
【0040】
顧客が、見積額・納期等の条件に満足した場合は、自己が所有するカメラ2で取得した、例えば、建物を含む風景に人の顔が含まれている写真のデジタルデータをネットワーク4を通じてサーバ3にアップロードして編集加工を注文するとともに、条件として、顔を変更することなく、その他の背景を色鉛筆描画手法で編集するよう依頼する。
【0041】
顧客からアップロードされた画像データは、画像データ管理手段3dに記憶される。さらに、画面情報管理手段3bによって閲覧可能にされる。そしてサーバ3は、顧客の発注を受けて、その旨をサービス端末6に自動的にメールを通知する。
【0042】
ステップS2;サービス端末6は、サーバ3からの通知で顧客発注を知り、必要な情報等を登録し、受注したことを顧客端末1にメールするなどの受付処理をする。
【0043】
ステップS3及びS4;管理者は、アップロードされた顧客の画像データに特徴部分としての一人の顔が含まれているので、特徴部分検出手段6a(上記の特徴部分検出手段11と同じ)を実施して、自動的に、或いは半自動的に、特徴部分の範囲と特徴部分の範囲以外の他の範囲を区分けする。
【0044】
さらに、版生成手段12により、特徴部分検出手段5aで検出した顔部分(特徴部分)の画像データだけを元々の顧客からの画像データから抜き取って、抜き取った顔部分の画像データを含み1枚分の画像データを第1版として、元々の顧客からの画像データから顔部分の画像データを抜きとられた画像データを含む1枚分の画像データを第2版として生成する。
【0045】
管理者は、第1版の加工、第2版の加工、それらの合成加工、なじませ加工の編集者を決定して各デザイン端末5に、編集依頼(編集業務の振分依頼)をする。サービス管理手段3cには、編集者の履歴、現状の日程、スキル等のリストが用意されており、編集依頼にあたっては、これらのリストが参考にされる。
【0046】
ステップS5、S6及びS7;依頼を受けた編集者は、デザイン端末5でサーバ3の画像データ管理手段3dから顧客の画像データをダウンロードして、描画加工手段13、14で第1版及び第2版をデザインし、加工処理する。第1版は、特徴範囲である顔の部分に画像データの欠陥がなければ、そのままとし(S5−NO)、欠陥があれば(S5−YES)、微少修正加工する(S7)。第2版は、上記顧客の注文内容の描画手法でデザイン編集する(S6)。例えば、顧客要求が色鉛筆描画手法での編集であれば、ここでは、写真における画像データを色鉛筆調の画像データに変換して加工する。
【0047】
ステップS8;編集者は、合成手段15により、微少編集加工(或いは未加工)処理された第1版、及び色鉛筆描画手法で囲う処理された第2版を合成して1枚分のデザインされたデザイン画像データとする。
【0048】
ステップS9;編集者は、周辺領域加工手段16により、デザイン画像データにおける特徴部分の範囲と、色鉛筆描画手法で描画加工された特徴部分以外の範囲との境界を視覚的に違和感なく連続するように、その境界周辺領域をなじませ加工をする。なお、ステップS9のなじませ加工は、ステップS6とステップS8の間で行ってもよい。つまり、第2版の特徴部分である顔の範囲に近いところをなじませ加工したうえで、合成してもよい。
【0049】
そして、編集者は、サーバ3の画像データ管理手段2dにアップロードするとともに、校正者(例えば、ここでは管理者が兼任する)へその旨を通知する。
【0050】
ステップS11;校正者である管理者は、アップロードされたデザイン画像を見て、校正し、よければ承認し、問題があれば、修正を編集者へ通知する。修正は、ステップS5、S6に戻って行われ、その後再校正される。このようにして管理者は校正承認して、その旨を顧客端末1へ通知する。顧客は、顧客端末1で画像情報管理手段3bからの画像情報の一つとして、画面でデザイン画像を見ることができるようにされており、この画面を見てよければ承認し、修正があれば修正依頼し、その後承認通知を管理者端末6へ送る。このときプリント枚数等も併せて通知する。
【0051】
ステップ12;顧客承認承認通知を受けた管理者は、画像出力手段7(画像出力手段17とお同じ)で、デザイン画像を顧客要求の枚数だけプリントして受取指定先へ納付する。
【0052】
【発明の効果】
以上説明したように本発明によれば、顧客が所有する画像データに、人の顔、指、ペットの顔、或いはそれらを模した縫いぐるみや飾り物等の特徴部分があった場合は、それら特徴部分の微妙な特性をそのまま生かして、その周辺、その他の部分を違和感なくな所望の描画手法でデザイン編集することができる。また、このような高度化したの画像編集サービスをネットワークで提供できる効果がある。
【図面の簡単な説明】
【図1】本発明に係る画像処理方法の機能ブロックを説明するための図である。
【図2】画像処理の流れを説明するためのステップ図である。
【図3】版の説明をするための図
【図4】図1のハードを含む構成を説明するとともに、ネットワークを用いた画像出力サービスを説明するための図である。
【符号の説明】
1 顧客端末
2 カメラ
3 サーバ
3a 通信手段
3b 画面情報管理手段
3c サービス管理手段
3d 画像データ管理手段
4 ネットワーク
5 デザイン端末
5a 編集手段
6 サービス端末
6a 特徴部分検出手段
7 画像出力手段(プリント手段)
10 画像データ
11 特徴部分検出手段
12 版生成手段
13 第1版描画加工手段(特徴範囲の加工)
14 第2版描画加工手段(特徴範囲以外の加工)
15 合成手段
16 周辺領域加工手段
17 画像出力手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is directed to an image processing method for receiving image data from a customer, for example, a video such as a photograph, and designing and editing the image data according to a request of the customer, and an image output using the image processing method. Regarding the service method, in particular, when the image data is edited in an expression (hereinafter, referred to as “drawing pattern”) similar to each drawing method such as oil painting, color pencil drawing, and dot drawing, the image data from the customer includes The present invention relates to a technique for separately processing a part of an organism such as a human or an animal, or an object imitating them, that is, a characteristic part, so as to separate the processing from the processing other than the characteristic part. Further, this image service, a customer terminal of a customer who wants to edit and process, a design terminal of an editor who edits and processes the image, and a service terminal of an administrator who performs an image editing service between the customer and the editor Is provided by connecting to a network and a server.
[0002]
[Prior art]
2. Description of the Related Art In recent years, digital cameras, mobile phones with digital cameras, or PDAs with digital cameras capable of communication have become widespread, and demands for video information have been increasing. On the other hand, one of the demands for video information (hereinafter referred to as “image data”) is to use these acquired image data as personalized events and commemorative promides such as cards, postcards, calendars, and weddings. There has been an increasing demand for customizing and editing with added value. In addition, in the case of analog image data, the digital camera may digitize the image data obtained in the analog manner with a digital processor called a scanner, and may also desire to add the above-mentioned added value.
[0003]
In general, drawing software for editing digital image data is installed in each computer, etc., and it can be edited using it, but it is difficult to use the software, and the idea of design Since it was not done, it was difficult to increase customer size and increase added value.
[0004]
Therefore, an image service system (method) as described in Patent Literature 1 and Patent Literature 2 is provided. If these systems are used, for example, a customer opens an image service site on the Internet and edits and edits the image data possessed by a plurality of operators (editors) who are design specialists (hereinafter referred to as an administrator). Request), and have the operator print the design designed by the operator, who has printing materials and printing equipment (image output device), is a printing expert, and is also a service provider. It is possible.
[0005]
[Patent Document 1]
JP 2001-346028 A ([0044] to [0049])
[Patent Document 2]
JP-A-2002-149793 ([0025])
[Patent Document 3]
JP 2001-309225 A ([0007], FIG. 3)
[Patent Document 4]
JP-A-8-122944 ([0013] to [0020], FIG. 1)
[0006]
[Problems to be solved by the invention]
The editing processing in the image service as described above includes, for example, general drawing software (paint software), but a processing method (that is, a drawing pattern) that simulates oil painting, pencil drawing, or point drawing is used. Often used. On the other hand, for example, image data of a digital camera owned by a customer includes human faces, fingers, pet faces, or stuffed animals or ornaments imitating them, which are sensuously delicate and the central part of the image ( When the “characteristic portion” is processed with the same drawing pattern as the surrounding area, the image as an image is completely changed, and even the significance of the image captured by the digital camera may be lost.
[0007]
Therefore, it has been desired to edit and process only the periphery without processing such a characteristic portion. In order to realize such a demand, it is difficult to cope with Patent Documents 1 and 2 described above.
[0008]
On the other hand, in a digital camera or the like, there is an example in which a face portion in image data is detected to determine an exposure parameter of the digital camera (see Patent Document 3), and an example is used for determining an exposure amount for printing. (See Patent Document 4), but none of them discloses image editing of a customer.
[0009]
An object of the present invention is to process a person's face, a finger, a pet's face, or a stuffed animal or a decoration that imitates them in the image data owned by the customer without processing them, or These provide an image processing method for providing an image edited with a desired drawing pattern without any uncomfortable feeling, and an image output service method using the image processing method.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 detects a range including a characteristic part from image data of at least one video, and determines a range of image data including the characteristic part and a predetermined range excluding the image data. A selection step of classifying the image data into a range of image data, a drawing processing step of processing image data of a predetermined range of the image data, which is divided in the selection step, by a drawing pattern simulating a predetermined drawing method; The image data corresponding to the range including the characteristic portion and the image data processed in the drawing processing step are used to express the boundary peripheral region between the range including the specified characteristic portion and the predetermined range as visually continuous. A peripheral area processing step of blending and processing image data corresponding to the boundary peripheral area out of image data in a predetermined range.
[0011]
In the invention described in claim 2, the characteristic portion is an image portion representing a part of a person, an animal or a product imitating them, or an image portion representing a character.
[0012]
According to a third aspect of the present invention, there is provided a receiving step of receiving an image data order for at least one image and a drawing pattern of an image to be output from a customer, and receiving an order for image output. A selection step of detecting a range including a portion and selecting a predetermined range excluding the range including the characteristic portion; and a drawing step of processing image data of the predetermined range selected in the selection step with the specified drawing pattern. A processing step, a characteristic part processing step of performing processing with less change than the processing degree of the processing performed in the drawing processing step on the range including the characteristic part, and a boundary between the range including the characteristic part and the predetermined range. In order to express the boundary peripheral region including the image as visually continuous, the image data of the range including the characteristic part processed in the characteristic part processing step and the processing in the drawing processing step Among the image data of the physical, predetermined range, and a peripheral area processing step of processing and rub the image data corresponding to the boundary peripheral area.
[0013]
Further, the invention according to claim 4, wherein the receiving step includes a step of receiving designation of the predetermined range or the characteristic portion from a customer, wherein the characteristic portion is a part of a person, an animal, or a part imitating them. It is determined that the image portion is an image portion to be represented or an image portion to represent a character.
[0014]
According to a fifth aspect of the present invention, there is provided a receiving step of receiving an image data for one video and a drawing pattern of an image to be output from a customer and receiving an order for image output, and A selection step of detecting a range including the characteristic portion and dividing the image data into a range including the characteristic portion and image data within a predetermined range other than the range, and a portion of the image data including only the range including the characteristic portion. Generating processed image data for generating the first version of image data and one second version of image data including only the predetermined range, and expressing the second version of image data with the drawing pattern. A drawing processing step of drawing processing as described above, a combining step of combining the image data of the first version and the image data of the second version drawn by the drawing pattern in the drawing step into one piece of image data, Image The image data of the boundary peripheral region of the division of the data, and a peripheral region processing step of familiarizing processed to represent as visually continuous.
[0015]
Further, the invention according to claim 6, wherein the receiving step includes a step of receiving the designation of the predetermined range or the characteristic portion from a customer, and the characteristic portion includes a person, an animal, or a part of a product imitating them. It is determined that the image portion is an image portion to be represented or an image portion to represent a character.
[0016]
In the invention according to claim 7, in the peripheral area processing step, before or after the synthesizing step, the second area image data drawn by the drawing pattern in the drawing step is subjected to a break-in processing. Configuration.
[0017]
The invention according to claim 8 is provided with a characteristic part processing step of performing, before the synthesizing step, processing processing of the image data of the first version with less change than the drawing processing in the drawing processing step.
[0018]
According to the ninth aspect of the present invention, a server that receives, from a customer terminal, at least image data of at least one image and a designation of a drawing pattern of an image to be output through a network stores and receives the received content. Notifying the image output service manager terminal that the image output service manager terminal receives the order, and the image service manager terminal processes the order, and edits the image data. Selecting a range including a characteristic portion from the image data stored in the server and a predetermined range other than the range, and processing the image data in the predetermined range of the image data so that the image data can be represented by the drawing pattern. Drawing processing step, and in order to express the peripheral area of the boundary between the range including the characteristic portion and the predetermined range as visually continuous, A peripheral area processing step of blending and processing the data of the boundary peripheral area, out of the fixed range image data and the predetermined range image data processed in the drawing processing step, and an image processed in the peripheral area processing step Uploading the data as the at least one piece of design image data to the server; and receiving approval from the customer terminal for the design image data uploaded to the server.
[0019]
Further, in the invention according to claim 10, the selecting step is performed on an image output service terminal side, and the drawing step and the peripheral area processing step are performed on the design terminal side that has received the image data divided in the selecting step. Is performed.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram for explaining functional blocks of an image processing method according to the present invention, FIG. 2 is a diagram for explaining a flow of an image output service, and FIG. 3 is a diagram for explaining a plate. FIG. 4 is a diagram for explaining the configuration including the hardware of FIG. 1 and also for explaining an image output service using a network.
[0021]
The configuration of image editing according to the present invention will be described with reference to FIG. In FIG. 1, image data 10 is digital data acquired by a camera 2 by a customer, and is, for example, digital data of at least one photograph in which a scene including a building includes a human face.
[0022]
The characteristic portion detecting means 11 (the same applies to the characteristic portion detecting means 6a in FIG. 4) is used to detect a human face, a finger, an animal face, an animal mascot, a face such as a stuffed animal, etc., or a range including a character portion of character information. This is a selection means that is distinguished and extracted. That is, a range including the characteristic portion and a range other than the range of the characteristic portion are separated.
[0023]
Although not shown, the characteristic part detecting means 11 is constituted by a computer and software having a characteristic part detecting algorithm executable on the computer. For example, as a face detection algorithm, Japanese Patent Application Laid-Open No. 2001-309225 (Patent Document 3), Japanese Patent Application Laid-Open No. 8-122944 (Patent Document 4), and techniques not limited to these already exist, and these can be used. The face monitoring system “WizFace” (registered trademark) manufactured and sold by the applicant of the present invention also includes a face detection unit.
[0024]
The plate generating means 12 extracts only the image data of the face part (characteristic part) detected by the characteristic part detecting means 11 from the image data from the original customer, and includes the image data of the extracted face part. Otherwise, one sheet of image data, which is data on a white background, is generated as the first edition. In addition, the image data of one face including the image data obtained by extracting the image data of the face portion from the image data from the original customer is generated as a second version of the image data of one sheet in which the face portion is a white background data (FIG. See 1st and 2nd edition). Here, description will be made by generating up to the second version. However, when there are many characteristic portions, a version is provided according to each location.
[0025]
The first version drawing processing means 13, the second version drawing processing means 14, the synthesizing means 15, and the peripheral area processing means 16 constitute the editing means 5a in FIG.
[0026]
The second edition drawing processing means 14 processes and edits the area other than the face part (characteristic part). Here, since the customer's request is editing by the color pencil drawing method, here, the image data in the photograph is converted to the color pencil tone. And convert it to image data. In addition, correction, repair, and the like can also be performed (see the second version after drawing in FIG. 3).
[0027]
The first version drawing processing means 13 is for editing the range of the face portion (characteristic portion). However, since the processing may cause the image of the entire image data to be significantly changed, the customer's request Do not process without it. Even if processed, only minor changes. We may also fix red eye and other repairs.
[0028]
The synthesizing unit 15 synthesizes the first version processed (or unprocessed) by the first version drawing processing unit 13 and the second version processed by the second version drawing processing unit 14 and designs one image. The data is output as data (hereinafter, referred to as “design image data”).
[0029]
The peripheral region processing means 16 determines that the boundary between the range of the unprocessed characteristic portion in the design image data and the range other than the characteristic portion drawn by the color pencil drawing method has a very different sense of color tone. Because it becomes a certain thing, in order to make it continuous visually when printed, the border peripheral area is blended in (or blurred) and output as a design image. (Refer to the synthesized conformed design image in FIG. 3). The image output means 17 is the same as the image output means 7 described above.
[0030]
Here, the break-in process is an image process in which, when a plurality of images subjected to different image processing processes are combined, a boundary portion between the combinations is visually continued. Specifically, processing is performed using means such as blurring processing, gradation adjustment, color and density adjustment, watermark synthesis, etc., alone or in combination.
[0031]
Next, the provision of an image service on the network 4 using the image editing method (means) described so far will be described mainly with reference to FIGS. First, a configuration of providing an image service on the network 4 and an outline of how information flows through the network 4 will be described with reference to FIG. A customer terminal 1, a server 3, a service terminal 6, which is a terminal of an administrator who provides and manages the entire image service, and a design terminal 5, which is a terminal of an editor who edits a design, are connected via a network 4 such as the Internet. . Each terminal is configured by a computer, has a communication unit, and a display / operation unit. The terminal exchanges information while visually recognizing screen information provided by the screen information management unit 3b of the server 3 through the network 4, and provides a service.
[0032]
Here, the design terminal 5 includes an editing unit 5a. The editing unit 5a has paint software that operates on a computer, such as oil painting software that edits image data obtained by a digital camera in oil painting style, or color pencil drawing software or point drawing software. These computers and paint software constitute the first and second edition drawing processing means 13 and 14 in FIG. In addition, the synthesizing means 15 and the peripheral area processing means 16 are achieved by a computer and software. The service terminal 6 has an image output means 7 for printing and outputting the design image edited and processed by the paint software in the design terminal 5.
[0033]
Next, the configuration and the flow of the image service will be described centering on the server 3. The server 3 has screen information managed by the screen information management means 3b, which can be browsed at each terminal by accessing from each terminal. The screen information includes common screen information that can be browsed in common by each terminal, and individual screen information unique to each terminal that is linked thereto. In each of these screens, the work shared by each terminal and information necessary for ordering can be described, and writing from each terminal is also possible. Software is provided so that setting keys used to indicate an order, editing request, proofreading approval, correction, customer approval, and other decisions are displayed on the screen (such setting keys are soft keys Also called). When the above-mentioned confirmation, determination, ordering, ordering, request, and the like are set by the soft keys at each terminal, the next task shifts to another terminal.
[0034]
The communication means 3a of the server 3 provides these screen information to each terminal when each terminal is accessed through the network 4, so that necessary information can be input from each terminal (so-called GUI means). ). Further, for example, upon receiving an order from the customer terminal 1, communication is performed such as automatically e-mailing that the order has been received to the service terminal 6 in a predetermined format. Further, since the screen information management unit 3b manages the common screen information and the individual screen information in an interlocked manner, for example, when viewing the screen information displayed on the screen at each terminal, the common screen includes: Only the outline of a certain work item is described, and when the work item is clicked, a detailed individual screen is displayed, and if any of the descriptions is changed, some or all of them are reflected on both display screens. ing.
[0035]
The communication management means in the communication means 3a records these communication records as a database so that they can be sorted in chronological order or by terminal, and provides them as screen information to help solve problems in communication between terminals. is there.
[0036]
The service management unit 3c stores various information necessary for the overall management in a storage unit, manages the information, and operates the server and between the terminals smoothly. For example, it manages information necessary for an order estimate, information necessary for delivery after completion, a format, an address, etc. necessary for notifying a mail between terminals. Note that the above various information may be managed as individual screen information extracted by clicking from the common screen information. In this case, information that can be extracted by each terminal from the common screen can be limited. For example, a list in which information relating to an editor is described by an administrator for requesting the editor is necessary for the administrator, but is unnecessary for the customer, so that only the administrator can access the list. The reason why a certain setting key is accessed only from a specific terminal and cannot be accessed by another terminal on the common screen is from the viewpoint of necessity of business and prevention of trade secret leakage. Technically, when the setting key is pressed, the information indicating that the setting key is pressed and the ID of the terminal are received by the communication means 3a of the server, and it is determined whether or not to accept the ID by the ID.
[0037]
The operation will be described with reference to FIGS.
Step S1: When the customer accesses from the customer terminal 1 by specifying the URL (Internet address) of the server 3, a service guide is displayed as image information and the user is asked whether an order is desired. Set with.
[0038]
The customer terminal 1 further displays, as screen information, columns for describing the details of the order and the customer information. The necessary information is described in the columns and sent to the server 3. For example, there are the following order contents, which can be entered and selected on a screen in a fixed format.
-Desired image category: Baby, marriage, calendar, birthday, etc.
Templates that determine the overall composition of the image: For example, if the category is a calendar category, a composition composed of landscapes, buildings, flowers, etc.
・ Drawing pattern: oil painting, colored pencil drawing, dot drawing, etc.
・ Character information to be included in the image: message, title, etc.
・ Color type, font, etc.
・ Customer information: address, name, e-mail address, telephone number, desired delivery date, delivery date, designated recipient, etc.
[0039]
When the customer tentatively determines the order by clicking on the content of the order, the service management means 3c of the server 3 preliminarily estimates / delivery according to predetermined conditions or components of the image (for example, the number of characters, the type of template, etc.) The customer prepares the breakdown, calculates the estimated amount / delivery date based on the breakdown, and presents it to the customer terminal 1. If the customer is not satisfied with this amount, the customer again examines it and corrects / changes the first condition. Until you are satisfied or give up your order.
[0040]
When the customer satisfies the conditions such as the estimated amount and the delivery date, the digital data of the photograph obtained by the camera 2 owned by the customer, for example, in which the face including the person is included in the landscape including the building, is transmitted to the server via the network 4. 3 and order edit processing, and as a condition, request that the other background be edited by the color pencil drawing method without changing the face.
[0041]
The image data uploaded from the customer is stored in the image data management unit 3d. Further, it is made browsable by the screen information management means 3b. The server 3 receives the order from the customer and automatically notifies the service terminal 6 of the e-mail to that effect.
[0042]
Step S2: The service terminal 6 knows the customer order based on the notification from the server 3, registers necessary information and the like, and performs a reception process such as e-mailing the order to the customer terminal 1.
[0043]
Steps S3 and S4: Since the uploaded customer image data contains one face as a characteristic part, the administrator executes the characteristic part detecting means 6a (the same as the characteristic part detecting means 11 described above). Then, the range of the characteristic portion and the range other than the range of the characteristic portion are automatically or semi-automatically divided.
[0044]
Further, only the image data of the face portion (feature portion) detected by the feature portion detection means 5a is extracted from the image data from the original customer by the plate generation means 12, and the image data of the extracted face portion is included in one sheet. Is generated as a first version, and one image data including image data obtained by extracting the image data of the face portion from the image data from the original customer is generated as a second version.
[0045]
The administrator determines the editor of the first edition processing, the second edition processing, their combination processing, and the conforming processing, and requests each design terminal 5 for editing (a request for distribution of editing work). The service management unit 3c has a list of editor histories, current schedules, skills, and the like. These lists are referred to when requesting editing.
[0046]
Steps S5, S6 and S7: The requested editor downloads the customer's image data from the image data management means 3d of the server 3 at the design terminal 5, and the first and second editions at the drawing processing means 13 and 14. Design and process the plate. In the first version, if there is no defect in the image data in the face portion, which is the characteristic range, the image data is left as it is (S5-NO), and if there is a defect (S5-YES), a minute correction process is performed (S7). The second edition is designed and edited by the drawing method of the customer's order contents (S6). For example, if the customer's request is editing by a color pencil drawing method, the image data in the photograph is converted into color pencil-like image data and processed here.
[0047]
Step S8: The editor combines the first edition that has been subjected to the micro-editing processing (or unprocessed) and the second edition that has been processed using the color pencil drawing method by the synthesizing means 15 and designed one sheet. Design image data.
[0048]
Step S9: The editor uses the peripheral area processing means 16 so that the boundary between the range of the characteristic portion in the design image data and the range other than the characteristic portion drawn by the color pencil drawing method is continuously connected without any visual discomfort. The area around the boundary is processed. In addition, the break-in processing of step S9 may be performed between step S6 and step S8. That is, a portion close to the face range, which is a characteristic portion of the second edition, may be processed and then combined.
[0049]
Then, the editor uploads the image data to the image data management unit 2d of the server 3 and notifies the proofreader (for example, the administrator also serves here) to that effect.
[0050]
Step S11: The administrator who is the proofreader looks at the uploaded design image, corrects it, approves it if it is OK, and notifies the editor of correction if there is a problem. The correction is made by returning to steps S5 and S6, and then re-calibrated. In this way, the administrator approves the proofreading and notifies the customer terminal 1 of the approval. The customer can view the design image on the screen as one of the image information from the image information management means 3b at the customer terminal 1. If the user can see this screen, he or she approves. A correction request is made, and then an approval notice is sent to the administrator terminal 6. At this time, the number of prints and the like are also notified.
[0051]
Step 12: The administrator who has received the customer approval / approval notice prints the number of design images required by the customer on the image output means 7 (same as the image output means 17) and pays it to the designated recipient.
[0052]
【The invention's effect】
As described above, according to the present invention, when the image data owned by the customer includes characteristic parts such as a human face, a finger, a pet's face, or a stuffed animal or a decoration imitating them, these characteristic parts are used. By utilizing the delicate characteristics of そ の ま ま as it is, it is possible to design and edit its surroundings and other parts by a desired drawing method without a sense of incongruity. Further, there is an effect that such an advanced image editing service can be provided on a network.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining functional blocks of an image processing method according to the present invention.
FIG. 2 is a step diagram for explaining the flow of image processing.
FIG. 3 is a diagram for explaining a plate.
4 is a diagram for explaining a configuration including the hardware of FIG. 1 and explaining an image output service using a network.
[Explanation of symbols]
1 customer terminal
2 Camera
3 server
3a Communication means
3b Screen information management means
3c Service management means
3d image data management means
4 Network
5 Design terminal
5a Editing means
6 service terminals
6a Characteristic part detecting means
7 Image output means (print means)
10 Image data
11 Characteristic part detecting means
12 Version generation means
13 1st edition drawing processing means (processing of characteristic range)
14 Second edition drawing processing means (processing other than feature range)
15 Synthesis means
16 Peripheral area processing means
17 Image output means

Claims (10)

少なくとも映像1枚分の画像データから特徴部分を含む範囲を検出して、前記特徴部分を含む範囲の画像データとそれを除く所定範囲の画像データとに区分けする選択段階と、
前記画像データのうち前記選択段階で区分けされた所定範囲の画像データを所定の描画手法を模した描画パターンにより加工処理する描画加工段階と、
前記検出された特徴部分を含む範囲と前記所定範囲との境界周辺領域が視覚的に連続するように表現するため、前記特徴部分を含む範囲に相当する前記画像データ及び前記描画加工段階で加工処理された所定範囲の画像データのうち、前記境界周辺領域に相当する画像データをなじませ加工する周辺領域加工段階と
を備えたことを特徴とする画像処理方法。
A selecting step of detecting a range including a characteristic portion from image data of at least one video and dividing the image data into a range including the characteristic portion and a predetermined range of image data excluding the range;
A drawing processing step of processing image data of a predetermined range divided in the selection step of the image data by a drawing pattern simulating a predetermined drawing method;
In order to express the boundary surrounding area between the range including the detected feature portion and the predetermined range so as to be visually continuous, the image data corresponding to the range including the feature portion and the processing in the drawing processing step And a peripheral area processing step of blending and processing image data corresponding to the boundary peripheral area in the predetermined range of image data.
前記特徴部分は、人、動物もしくはそれらを模した物の一部を表す画像部分、又は文字を表す画像部分であることを特徴とする請求項1記載の画像出力サービス方法。2. The image output service method according to claim 1, wherein the characteristic portion is an image portion representing a part of a person, an animal, or an object imitating them, or an image portion representing a character. 顧客から少なくとも映像1枚分の画像データと出力すべき画像の描画パターンの指定を受けて、画像出力の注文を受ける受付段階と、
前記画像データから特徴部分を含む範囲を検出して、前記特徴部分を含む範囲を除く所定範囲を選択する選択段階と、
前記選択段階で選択された所定範囲の画像データを前記指定された描画パターンで加工処理する描画加工段階と、
前記特徴部分を含む範囲を前記描画加工段階で行う加工処理の加工の程度より変化の少ない加工処理を行う特徴部分加工段階と
前記特徴部分を含む範囲と前記所定範囲との境界を含む境界周辺領域が視覚的に連続するように表現するため、前記特徴部分加工段階で加工処理された特徴部分を含む範囲の画像データ及び前記描画加工段階で加工処理された所定範囲の画像データのうち、前記境界周辺領域に相当する画像データをなじませ加工する周辺領域加工段階と
を備えたことを特徴とする画像出力サービス方法。
Receiving, from a customer, at least an image data for one video and a drawing pattern of an image to be output, and receiving an order for image output;
Selecting a range including a characteristic portion from the image data, and selecting a predetermined range excluding the range including the characteristic portion;
A drawing processing step of processing the image data in a predetermined range selected in the selection step with the specified drawing pattern;
A characteristic portion processing step of performing a processing with less change than the degree of processing of the processing performed in the drawing processing step on the range including the characteristic portion; Of the image data in the range including the characteristic part processed in the characteristic part processing step and the image data in the predetermined range processed in the drawing processing step, so that the boundary is visually continuous. A peripheral region processing step of blending and processing image data corresponding to the peripheral region.
前記受付段階は、顧客から前記所定範囲又は特徴部分の指定を受ける段階を含み、前記特徴部分は、人、動物もしくはそれらを模した物の一部を表す画像部分、又は文字を表す画像部分であることを特徴とする請求項3記載の画像出力サービス方法。The receiving step includes a step of receiving the designation of the predetermined range or the characteristic portion from a customer, and the characteristic portion is an image portion representing a part of a person, an animal or an object imitating them, or an image portion representing a character. 4. The image output service method according to claim 3, wherein: 顧客から映像1枚分の画像データと出力すべき画像の描画パターンの指定を受けて、画像出力の注文を受ける受付段階と、
前記画像データから特徴部分含む範囲を検出して、前記特徴部分を含む範囲の画像データとそれ以外の所定範囲の画像データとに区分けする選択段階と、
前記画像データのうち前記特徴部分を含む範囲だけを含む1枚分の第1版の画像データと、前記所定範囲だけを含む1枚分の第2版の画像データとを生成する加工版データ生成段階と、
前記第2版の画像データを前記描画パターンで表現できるように描画加工する描画加工段階と、
前記第1版の画像データと前記描画段階で前記描画パターンで描画された第2版の画像データを合成し1枚の画像データとする合成段階と、
前記画像データのうち前記区分けの境界周辺領域の画像データを、視覚的に連続するように表現するためになじませ加工する周辺領域加工段階と
を備えたことを特徴とする画像出力サービス方法。
A receiving step of receiving an image output order after receiving specification of image data for one video and a drawing pattern of an image to be output from a customer;
A selecting step of detecting a range including a characteristic portion from the image data and classifying the image data into a range including the characteristic portion and image data within a predetermined range other than the range;
Modified plate data generation for generating one image of the first version including only the range including the characteristic portion of the image data and one image of the second version including only the predetermined range Stages,
A drawing processing step of performing drawing processing so that the image data of the second version can be represented by the drawing pattern;
A combining step of combining the first version of image data and the second version of image data drawn with the drawing pattern in the drawing step into one piece of image data;
A peripheral area processing step of processing the image data of the boundary peripheral area of the division of the image data so as to be visually continuous.
前記受付段階は、顧客から前記所定範囲又は特徴部分の指定を受ける段階を含み、前記特徴部分は、人、動物もしくはそれらを模した物の一部を表す画像部分、又は文字を表す画像部分であることを特徴とする請求項5記載の画像出力サービス方法。The receiving step includes a step of receiving the designation of the predetermined range or the characteristic portion from a customer, and the characteristic portion is an image portion representing a part of a person, an animal or an object imitating them, or an image portion representing a character. 6. The image output service method according to claim 5, wherein: 前記周辺領域加工段階は、前記合成段階の前又は後で、前記描画段階で前記描画パターンで描画された第2版の画像データに対してなじませ加工することを特徴とする請求項5又は6記載の画像出力サービス。7. The method according to claim 5, wherein in the peripheral area processing step, before or after the synthesizing step, the second-version image data drawn by the drawing pattern in the drawing step is processed. The described image output service. 前記合成段階の前に、前記第1版の画像データを前記描画加工段階の描画加工より変化の少ない加工処理をする特徴部分加工段階とを備えたことを特徴とする請求項5又は6記載の画像出力サービス方法。7. The feature processing step according to claim 5, further comprising, prior to the synthesizing step, a characteristic partial processing step of performing a processing process on the first plane image data with less change than the drawing processing in the drawing processing step. Image output service method. 顧客端末から、少なくとも映像1枚分の画像データと出力すべき画像の描画パターンの指定をネットワークを通して受信したサーバが、受信内容を記憶するとともに、受信したことを画像出力サービス管理者端末へ通知する段階と、
前記画像サービス管理者端末が受注処理して、前記画像データを編集する編集段階とを備えた画像出力サービス方法であって、
前記編集段階は、
サーバに記憶された画像データから特徴部分を含む範囲とそれ以外の所定範囲とを区分けする選択段階と、
前記画像データのうち前記所定範囲の画像データを前記描画パターンで表現できるように加工処理する描画加工段階と、
前記特徴部分を含む範囲と前記所定範囲との境界周辺領域が視覚的に連続するように表現するため、前記所定範囲の画像データ及び前記描画加工段階で加工処理された所定範囲の画像データのうち、前記境界周辺領域のデータをなじませ加工する周辺領域加工段階と、
前記周辺領域加工段階で加工された画像データを、少なくとも前記1枚分のデザイン画像データとして前記サーバへアップロードする段階とを備え、
さらに、前記サーバにアップロードされたデザイン画像データについて、顧客端末より承認を受ける段階と
を備えたことを特徴とする画像出力サービス方法。
A server, which has received from the customer terminal via the network at least the designation of the image data for one video and the drawing pattern of the image to be output, stores the received content and notifies the image output service manager terminal of the reception. Stages,
An image output service method, comprising: an image service manager terminal receiving an order, and editing the image data.
The editing step includes:
A selection step of dividing a range including the characteristic portion from the image data stored in the server and a predetermined range other than the range,
A drawing processing step of processing the image data of the predetermined range in the image data so that the image data can be expressed by the drawing pattern;
In order to express the boundary peripheral region between the range including the characteristic portion and the predetermined range as visually continuous, the image data in the predetermined range and the image data in the predetermined range processed in the drawing processing step A peripheral region processing step of processing the boundary peripheral region data
Uploading the image data processed in the peripheral region processing step to the server as at least one piece of design image data,
Receiving an approval from a customer terminal for the design image data uploaded to the server.
前記選択段階は、画像出力サービス端末側で行われ、前記選択段階で区分けされた画像データを受けけたデザイン端末側で、前記描画段階及び周辺領域加工段階が行われることを特徴とする請求項9記載の画像出力サービス方法。The method according to claim 9, wherein the selecting step is performed on an image output service terminal side, and the drawing step and the peripheral area processing step are performed on a design terminal receiving the image data divided in the selecting step. The described image output service method.
JP2003074840A 2003-03-19 2003-03-19 Image processing method, and image output service method using image processing method Pending JP2004282664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003074840A JP2004282664A (en) 2003-03-19 2003-03-19 Image processing method, and image output service method using image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003074840A JP2004282664A (en) 2003-03-19 2003-03-19 Image processing method, and image output service method using image processing method

Publications (1)

Publication Number Publication Date
JP2004282664A true JP2004282664A (en) 2004-10-07

Family

ID=33290309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003074840A Pending JP2004282664A (en) 2003-03-19 2003-03-19 Image processing method, and image output service method using image processing method

Country Status (1)

Country Link
JP (1) JP2004282664A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277046A (en) * 2005-03-28 2006-10-12 Nec Corp Electronic commerce system, electronic commerce processing method, and program
JP2006293783A (en) * 2005-04-12 2006-10-26 Fuji Photo Film Co Ltd Image processing device and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277046A (en) * 2005-03-28 2006-10-12 Nec Corp Electronic commerce system, electronic commerce processing method, and program
JP2006293783A (en) * 2005-04-12 2006-10-26 Fuji Photo Film Co Ltd Image processing device and image processing program

Similar Documents

Publication Publication Date Title
US7444354B2 (en) Method and apparatus for storing images, method and apparatus for instructing image filing, image storing system, method and apparatus for image evaluation, and programs therefor
US20120102398A1 (en) Automated image template layout method
WO2009023735A1 (en) Web-based social network badges
US8954498B2 (en) Digital image communication
US20040165000A1 (en) Picture layout processing apparatus, picture layout processing method, and program therefor
CN104184791B (en) Image effect extracts
US20150193383A1 (en) Automated creation of theme-based image compilations
US11721051B2 (en) Imaging product selection system
JP2006135819A (en) Image management system
US20040201622A1 (en) Free-form routing of physical and electronic documents
JP4127140B2 (en) Document processing apparatus, document processing program, and document processing apparatus control method
JP2018107512A (en) Image data providing device and printed matter production system
JP2004282664A (en) Image processing method, and image output service method using image processing method
JP3847480B2 (en) Image processing method and system, and recording medium
JP2007028137A (en) Image editing device and method, and program
JP4211460B2 (en) Image editing service system and screen information generation method
JP2013131077A (en) Image processor, image processing method and program and image processing system
JP2007026088A (en) Model creation apparatus
US8949318B2 (en) Digital image communication
JP2018056667A (en) Image processing method and image processing program
KR100558268B1 (en) Album publishing system and the method using internet
US10069983B2 (en) User image and survey data capture systems and methods
CN105825534B (en) Picture processing method and device
Brooks Your Professional Headshot Photo: Is That You or AI?
JP2001167287A (en) Character generating method and picture document generating method utilizing the same