JP2005242566A - 画像合成装置及び方法 - Google Patents
画像合成装置及び方法 Download PDFInfo
- Publication number
- JP2005242566A JP2005242566A JP2004049933A JP2004049933A JP2005242566A JP 2005242566 A JP2005242566 A JP 2005242566A JP 2004049933 A JP2004049933 A JP 2004049933A JP 2004049933 A JP2004049933 A JP 2004049933A JP 2005242566 A JP2005242566 A JP 2005242566A
- Authority
- JP
- Japan
- Prior art keywords
- image
- category
- composition
- digital image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Abstract
【課題】ユーザに満足のいく合成画像を容易に作成可能とする。
【解決手段】画像入力部200によって取得されたディジタル画像を認識処理部201により解析して、該ディジタル画像中の被写体の状態を認識し認識結果に基づいて画像のカテゴリを決定する。合成用画像決定処理部202は、この決定された画像カテゴリに基づいて、複数の合成用画像107aの中から画像合成に用いるべき合成用画像を決定する。画像合成処理部203は、合成用画像決定処理部202で決定された合成用画像を、上記取得されたディジタル画像に合成する。
【選択図】 図2
【解決手段】画像入力部200によって取得されたディジタル画像を認識処理部201により解析して、該ディジタル画像中の被写体の状態を認識し認識結果に基づいて画像のカテゴリを決定する。合成用画像決定処理部202は、この決定された画像カテゴリに基づいて、複数の合成用画像107aの中から画像合成に用いるべき合成用画像を決定する。画像合成処理部203は、合成用画像決定処理部202で決定された合成用画像を、上記取得されたディジタル画像に合成する。
【選択図】 図2
Description
本発明は、画像合成装置及び方法の技術に関するものである。
従来より、装身具等の画像をユーザの顔画像に合成して表示することにより、装身具等の装着状態をユーザに確認させることを可能とした装置が知られている。この種の装置を開示する従来文献として、以下の特許文献1〜4があげられる。
特許文献1の「眼鏡装用シミュレーションシステム」においては、入力された画像に対して手動で目の位置を設定し、設定された目の位置に基づいて眼鏡画像の位置を合わせて合成し、眼鏡を装着した状態をユーザに提示する。また、特許文献2の「眼鏡装用シミュレーション装置」においては、1枚の眼鏡画像を入力するだけで、様々に角度を変えた眼鏡画像を生成し、これを用いて様々に角度を変えた、眼鏡を装用した顔の画像を表示する装置が開示されている。また、特許文献3の「眼鏡装用シミュレーション装置」のようにカメラなどから入力された顔画像を変形することによって様々な方向或いは表情の顔画像を生成し、その生成された顔画像に眼鏡画像を合成する。更に、特許文献4の試着シミュレーションシステムでは、人物の顔領域を切り抜き、この切り抜かれた顔画像と服画像を合成する。
特許第3250184号公報
特開平06−290239号公報
特開平06−118349号公報
特開平11−213139号公報
しかしながら、上記従来の技術では、合成元である撮影された画像中の被写体の表情や動作に対して、それに適した装身具などの画像を合成したいという要求にはこたえられていなかった。
また、合成元画像はユーザが十分に満足するような表情で撮影された画像であることが好ましい。しかしながら、上記従来の装置のいずれにおいても、被写体を撮影するタイミングは、装置操作者あるいは装置の撮影タイミングに依存している。このため、被写体であるユーザは、そのタイミングに応じて笑顔等を作り出さなければならず、少なからぬ負担が強いられることになる。即ち、好ましい合成元の画像としては、笑顔表情の瞬間や笑顔表情でピースポーズなどの動作を行った瞬間等において撮影を実行することによって得られる好ましい顔画像が含まれたものである。しかしながら、上記従来技術のような、装置操作者もしくは装置の任意撮影タイミングによる撮影では、そのような瞬間を捕らえて撮影することは困難、或いは相当の労力が必要である。
また、特許文献3に示されているように、カメラ等から得られた顔画像自体を変形することによって表情顔画像を作成しても、表情は個人により様々であるためユーザが満足するような表情画像を得ることは難しい。更に、撮影する画像はビジネススーツを着用しているようなビジネスシーンであれば無表情のシンプルな顔画像、私服を着ているなどの私生活シーンであれば笑顔の顔画像といたように、各シーンにおいて好まれる撮影画像は変化する。このため、顔画像の変形処理をシーンに応じて変更する必要があり、わずらわしい。
本発明は上記の課題に鑑みてなされたものであり、ユーザに満足のいく合成元画像を容易に取得可能とすることを目的とする。
上記の目的を達成するための本発明の一態様による画像合成装置は以下の構成を備える。即ち、
ディジタル画像を取得する取得手段と、
前記取得手段により取得されたディジタル画像を解析して該ディジタル画像中の被写体の状態を認識し、認識結果に基づいて画像のカテゴリを決定する認識手段と、
前記決定手段で決定された画像カテゴリに基づいて合成用画像を選択する選択手段と、
前記選択手段で選択された合成用画像を前記ディジタル画像に合成する合成手段とを備える。
ディジタル画像を取得する取得手段と、
前記取得手段により取得されたディジタル画像を解析して該ディジタル画像中の被写体の状態を認識し、認識結果に基づいて画像のカテゴリを決定する認識手段と、
前記決定手段で決定された画像カテゴリに基づいて合成用画像を選択する選択手段と、
前記選択手段で選択された合成用画像を前記ディジタル画像に合成する合成手段とを備える。
また、上記の目的を達成するための本発明の他の態様による画像合成装置は以下の構成を備える。即ち、
ディジタル画像を取得する取得手段と、
取得されたディジタル画像を解析し、該ディジタル画像中の被写体の状態に基づいて当該ディジタル画像のカテゴリが所定のシーンカテゴリに分類されるか否かを判定する認識手段と、
前記所定のシーンカテゴリに対応付けて登録されている合成用画像を選択する選択手段と、
前記判定手段により前記ディジタル画像が所定のシーンカテゴリに分類されると判定された場合、前記選択手段で選択された合成用画像を該ディジタル画像に合成する合成手段とを備える。
ディジタル画像を取得する取得手段と、
取得されたディジタル画像を解析し、該ディジタル画像中の被写体の状態に基づいて当該ディジタル画像のカテゴリが所定のシーンカテゴリに分類されるか否かを判定する認識手段と、
前記所定のシーンカテゴリに対応付けて登録されている合成用画像を選択する選択手段と、
前記判定手段により前記ディジタル画像が所定のシーンカテゴリに分類されると判定された場合、前記選択手段で選択された合成用画像を該ディジタル画像に合成する合成手段とを備える。
本発明によれば、合成元の画像としてユーザに満足のいく画像を容易に取得することが可能となる。例えば、入力された画像のカテゴリを自動的に認識して合成すべき合成用画像を決定するので、合成元画像と合成用画像の適切な組み合わせによる合成画像が容易に得られる。また、複数の画像(例えば、ビデオ画像より抽出したフレーム、連続静止画像等)から合成元の画像として適した画像を自動的に選択し、合成画像を提示するので、好ましい合成元の画像を用いた合成画像を、ユーザに負担を強いることなく容易に得ることができる。
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
<第1実施形態>
図1は、本実施形態による画像合成装置のハードウェア構成を示すブロック図である。CPU(Central Processing Unit)100は、所定のソフトウエアを実行することにより、以下に説明する各処理を実現する。ブリッジ101は、高速なCPUバス102と低速なシステムバス103をブリッジする機能を有する。またブリッジ101はメモリコントローラ機能を内蔵し、ブリッジに接続されたRAM(Random Access Memory)104へのアクセスを制御する機能を有する。RAM104はCPU100の動作に必要なメモリでありSDRAM(Synchronous DRAM)/DDR/RDRAM等の大容量高速メモリにより構成される。また、RAM104は画像データバッファ等としても利用される。更にブリッジ101はシステムバス103につながる各デバイスとRAM104間のデータ転送を司るDMAC(Direct Memory Access Controller)機能を内蔵する。
図1は、本実施形態による画像合成装置のハードウェア構成を示すブロック図である。CPU(Central Processing Unit)100は、所定のソフトウエアを実行することにより、以下に説明する各処理を実現する。ブリッジ101は、高速なCPUバス102と低速なシステムバス103をブリッジする機能を有する。またブリッジ101はメモリコントローラ機能を内蔵し、ブリッジに接続されたRAM(Random Access Memory)104へのアクセスを制御する機能を有する。RAM104はCPU100の動作に必要なメモリでありSDRAM(Synchronous DRAM)/DDR/RDRAM等の大容量高速メモリにより構成される。また、RAM104は画像データバッファ等としても利用される。更にブリッジ101はシステムバス103につながる各デバイスとRAM104間のデータ転送を司るDMAC(Direct Memory Access Controller)機能を内蔵する。
EEPROM106はCPU100の動作に必要なインストラクションデータ及び撮影データ、合成データを格納するためのメモリである。表示部105は、合成された画像を表示するためのものであり、合成画像記憶部107は、あらかじめ合成用画像を格納しておき、画像合成処理の際にRAM104に画像データが転送される。映像入力部108は画像データを入力する。映像入力部108は、CCD(Charge-Coupled Devices)/CMOS(Complimentary Metal Oxide Semiconductor)センサー等の光電変換デバイス及び当該デバイスを制御するドライバー回路、各種画像補正を司る信号処理回路を具備し、光電変換デバイスからの信号をラスター画像信号として出力する。映像入力インターフェース部109は、映像入力部108から同期信号と共に出力されるラスタ画像データをディジタルデータに変換しバッファリング処理する。映像入力インターフェース部109でバッファリングされたディジタル画像データは、例えばブリッジ101に内蔵するDMAを利用してRAM104上の所定のアドレスに転送される。なお、本実施形態では、映像入力部108を有するカメラ装置に画像合成装置を組み込んだ例を説明するが、映像入力部108を接続可能な情報処理装置(パーソナルコンピュータ等)によって画像合成装置を実現してもよい。
なお、CPU100において画像データを用いた認識処理を行う際には、RAM104に記憶されている画像データを、例えば数画素飛ばしでロードして得られた画像データが用いられる。つまり、映像入力部108で得られた画像データに対して間引き処理に相当する処理を施して得られた画像データが用いられる。ただし、RAM104上の画像データをEEPROM106に転送し、格納する際にはこの処理を行わない画像が用いられる。
次に、第1実施形態による画像合成処理について説明する。図2は、第1実施形態による画像合成処理を実現するための機能構成を示したブロック図であり、各処理部は、所定の制御プログラムを実行するCPU100と図1で説明した各部との協働により実現される。
画像入力部200は、映像入力部108と映像入力インターフェイス109を介してディジタル画像を得る。ディジタル画像は連続的に撮影して得られた複数のディジタル静止画像でもよいし、ディジタルビデオ画像(ディジタル動画像)であってもよい。ディジタル静止画像の場合はJPEGにより、ディジタル動画像の場合はMPEGにより圧縮してもよい。そして、画像入力部200は、ディジタル静止画像であれば1画像ずつ、ディジタル動画像であれば1フレーム画像ずつ抽出し、ディジタル画像として認識処理部201に提供する。
認識処理部201では、画像入力部200より提供されたディジタル画像から得られる間引き画像について解析を行い、喜怒哀楽、目瞑りなどの表情認識や、ポーズ、手振り、身振りなどの動作認識を行う。合成用画像決定処理部202は、認識処理101の認識結果に応じて合成用画像記憶部107に格納してある合成用画像107aを選択する。そして、画像合成処理部203は、合成用画像決定処理部202で選択された合成用画像と認識処理201で認識処理に用いられた間引き画像の派生元である入力画像とを合成して合成画像を生成する。記憶処理部204は、画像合成処理部103で得られた合成画像をEEPROM706に記憶する。表示処理部205は、合成された画像を表示する。
なお、上記解析における動作認識では、ポーズなどある瞬間の特定身体部位の形状に基づいて認識を行ってもよいし、身振りや手振りなど連続した一連の動作に基づいて認識を行ってもよい。また、表情認識に関しては喜怒哀楽の他の表情を認識するようにしても良い。表情認識、動作認識について以下、より詳細に説明する。
表情認識としては、例えば、テンプレートマッチングなどを用いることにより目・口・顔の中心位置を認識した後、これらの目・口位置から夫々の目・口位置の周辺範囲内で目尻・目頭・口端点など複数の特徴点を抽出し、“人間とコンピュ−タによる顔表情の認識−コンピュータによる顔表情認識技術(2):顔面の表情動作の認識−”(電子情報通信学会誌 Vol.85 No.12 pp.936-941 Dec.2002)で記述されているように、顔の造作の形状や配置の変化を記述する特徴パラメータを算出し、この特徴パラメータを入力とする入力層と、P.Ekman and W.V.Friesenの“Facial Action Coding System(FACS)”(Consulting Psychologists Press,1978)で提唱されているAction Unitの検出の有無を出力とするニューラルネットワークを用意して表情を認識する方法があげられる。
動作認識として、瞬間の特定身体部位の形状に基づいて認識を行う方法は例えば次のようにして実現できる。例えば、図3の被写体301が手のポーズ302を行った状態を検出する場合を考える。この場合、人間の顔が検出された位置を基準としてその周辺範囲を、手のポーズを検出するテンプレートを用いて被写体の手のポーズ302を認識する方法があげられる。また、身振りや手振りなどの一連動作に基づく動作認識としては、“動き変化に基づくView-based Aspect Modelによる動作認識”(電子情報通信学会誌 Vol.J84-D2 No.10 pp.2212-2223 Oct.2001)などがある。なお、認識対象とする表情や動作はここで述べられている以外のものでもよいし、また、認識方法はここで述べられている以外の方法を用いても良い。
認識処理部201は、以上のような認識処理を実行することにより、画像入力部200から入力された画像のカテゴリを決定する。例えば、表情認識により笑顔が検出されれば「笑顔表情」の画像というように、図8の左側示されるカテゴリが決定される。なお、いずれのカテゴリにも分類されない場合もありうる。
次に、合成用画像決定処理部202について詳述する。合成用画像記憶部107には、合成用画像107aとして、背景画像、物体画像、表情表示画像、装身画像、毛髪画像など、様々な合成用画像が格納されている。なお、物体画像とは赤フレーム眼鏡や黄色帽子、服装などの画像である。表情表示画像とは、例えば図4に示すような怒り表情を表すシワ401、悲しみを表す涙の形の画像405、忙しそう、苦しそうにしている時の汗などの形をした画像(不図示)など、特定の表情を表す画像の生成に用いられる画像のことである。装身画像とは、図4のピアス404のように身体に身に付けるアクセサリー等の装着物画像のことである。毛髪画像とは、図4のカツラ402やヒゲ403のように毛髪を表す画像のことである。またここで格納を行う合成用画像データはこれらに限定されるわけではない。
以上のような各合成画像は、テーブル107bによって各カテゴリに対応付けて格納される。例えば図8に示すように、赤フレーム眼鏡画像及び黄色帽子画像は「笑顔表情」のカテゴリに対応付けられて格納される。合成用画像決定処理部202は、認識処理部201で得られた表情認識結果及び動作認識結果と、画像合成処理部203で得られた顔の向きやサイズの情報に基づいて、テーブル107bを検索して合成に用いる合成用画像を決定する。なお、本説明及び図において、「赤フレーム眼鏡画像」、「黄色帽子画像」とあるのは、ある特定の画像データであり、テーブル107bにはそれらが画像データを特定するID(例えばファイル名)が保持されることになる。後述のように、顔の方向やサイズに応じて画像を選択できる場合は、例えば「赤フレーム眼鏡画像」に対して複数の画像データが対応することになる。
画像合成処理部203は、合成用画像決定処理部202で決定された合成用画像と、認識処理部201へ提供され、そのカテゴリが判定された画像(例えば、特定の表情やポーズをした人物画像)を用いて合成画像を作成する。画像合成処理部203による画像の合成方法について図5のフローチャートを参照して説明する。
図5の処理は所定の認識結果、即ちテーブル107bに登録されたカテゴリのうちのいずれに属しているかの認識結果が得られた場合に起動される。まず、ステップS500において、認識処理で用いた目、口、肌色情報などを用いて顔領域を抽出する。そして、ステップS501において、抽出された顔領域と認識処理で得られた眼、口、顔の位置及び特徴点を用いて顔の向き及びサイズを判定する。上述したように、顔の向きやサイズを合成用画像決定処理部202に提供することにより、認識結果と、顔の向きやサイズとに応じて合成用画像が決定される(ステップS502)。その後、ステップS503において、合成用画像決定処理部202で選択された合成用画像と認識処理部201からの合成元画像を位置合わせし、ステップS504で両画像を合成する。
ステップS500における顔領域抽出では、例えば、図6の入力画像600から顔の輪郭601の抽出を行うことにより顔領域のみを切り出す。なお、目や口の位置などは認識処理部201において、肌色領域内で目、口等のテンプレートとそれら候補の空間的配置関係より検出されている。よって、ステップS500では、これらの位置を用いて顔輪郭抽出を行う。顔輪郭抽出法は“ラプラス−ガウスフィルタを用いた多値画像輪郭抽出法”(電子情報通信学会誌 Vol.J85-D2 No.10 pp.1503-1512 Oct,2002)や“顔の軸対称性を考慮した顔輪郭の自動抽出”(電子情報通信学会誌Vol.J80-D2 No.8 pp.2178-2185 Aug.1997)などを用いることにより抽出することができる。
また、ステップS501における、顔の向き・サイズ判定では、認識処理部201において決定されている眼・口・顔の中心位置、肌色領域、目尻・目頭・口端点など複数の特徴点の位置を用いて、それら眼・口・顔の中心位置や特徴点などの位置関係、眼・口・顔の中心間距離、特徴点間距離から顔の向きや顔のサイズを決定することができる。ただし、顔の向き・サイズ判定は、これらの方法以外の方法を用いても良いことはいうまでもない。
ステップS502における合成用画像の決定処理は、認識処理部201での認識処理結果から図8のように合成用画像を選択する際にテーブルを用いて所定の合成画像を選択し、その後、更にステップS501による顔の向き・サイズ判定処理の結果を用いて、判定されたサイズ・顔の向きに応じた合成用画像を合成用画像107aから決定する。つまり、合成画像記憶部107には1種類の画像(例えば、黄色帽子など)に対してサイズ・向きに応じた複数枚の合成用画像を格納してあり、認識処理部201による認識処理結果と(画像のカテゴリ)と、画像合成処理部203による顔の向き・サイズに応じて使用すべき合成用画像を特定する。
なお、同一の様々な合成用画像を格納しておくのではなくて、合成用画像をワイヤーフレームモデルで構成しておき、検出された顔の向きを用いて回転させ、回転させたモデルから合成用画像を作成し、この合成用画像を検出された顔サイズに応じて拡大・縮小するといったような、画像の変形処理を行うことによって顔の向きやサイズに適応した合成用画像を作成するようにしてもよい。また、合成用画像選択にはテーブル以外の方法を用いても良い。
ステップS503における位置合わせ処理では、以上のようにして決定された合成用画像と合成元画像とを合成するための位置合わせを行う。例えば、図7に示すように、決定された合成用画像706と顔領域を含む合成元画像701との位置合わせの一例について説明する。例えば、図9に示すように眼900の右端点特徴点906、下まぶた特徴点907、左端点特徴点908、上まぶた特徴点909と、眼鏡フレームの右フレーム特徴点902、下フレーム特徴点903、左フレーム特徴点904、上フレーム特徴点905を抽出する。そして、眼鏡の上フレーム特徴点905と眼の上まぶた特徴点909と眼の下まぶた特徴点907と眼鏡の下フレーム特徴点903が同一直線上に、かつ、眼鏡の左フレーム特徴点904と眼の左端点特徴点908と右端点特徴点906と眼鏡フレームの右フレーム特徴点902が同一直線上になるように位置設定を行う。なお、位置合わせは、この方法以外の方法を用いても良いことは明らかであろう。
ステップS504では、以上のような位置合わせ結果に基づいて、合成元画像と合成用画像の合成を行う。例えば、図7の合成元である人物画像701と眼鏡の合成用画像702を用いて画像703のような合成画像を作成できる。
また、「悲しみ表情」が検出された場合は、図8のテーブル107bにより涙画像が合成用画像として選択され図4の(d)に示すように合成される。このように表情表示画像の涙画像を合成する際には、検出された目の位置を基準として所定範囲内で目尻検出用テンプレートを用いて目尻を検出し、検出された目尻付近に表情表示画像である涙画像を合成する方法などがあげられる。なお、顔領域抽出方法や画像合成方法は上記の手法に限られるわけではなく他の方法を用いても良い。更に、顔画像と服装画像の合成を、例えば、特許文献4の「試着シミュレーションシステム」に記載されているように、図9の服飾画像302に顔抽出画像301を合成することにより合成画像303を得ることも可能である。
図2に戻り、記憶処理部204では、画像合成処理部203で作成された合成画像をメモリに記憶する。本実施形態ではEEPROM106に記憶するものとするが、EEPROM106に限定されるものではなく、ハードディスク等に記憶してもよいことはいうまでもない。表示処理部205は、記憶処理部204でEEPROM106に記憶された合成画像を表示する。表示方法は、例えば、サムネイルで複数の合成画像を表示する方法やサムネイル画像の1枚を選択することによって拡大表示する方法などがあるが、この表示方法に関してもこれらに限定するわけではない。
以上説明した第1実施形態の画像合成処理について、図10のフローチャートを参照して更に説明する。
ステップS1000では、画像入力部200により、映像入力部108(カメラ)からディジタル画像を得る。ステップS1001では、認識処理部201が、ステップS1000で得られたディジタル画像を用いて表情及び動作の認識処理を行う。この認識処理の結果、テーブル107bに用意されたカテゴリのいずれかに属する表情或いは動作が認識されたならば、ステップS1003へ進み、合成用画像決定処理部202により認識結果に対応した合成用画像が決定される。用意されたカテゴリに属する認識結果が得られなかった場合は、ステップS1002からステップS1000に戻り、次の画像(次フレーム画像)について処理を行う。ここでの認識処理としては、(1)所定の全ての認識処理を行なって、その結果から用意されたカテゴリのいずれに属するかを判断してもよいし、(2)用意されたカテゴリ毎に、そのカテゴリに属するか否かの認識を行なうようにしてもよい。(1)の場合、例えば、所定の全ての認識処理をお子案った結果、笑顔とピースポーズが認識された場合には、笑顔とピースポーズに対応したカテゴリを決定することになる。また(2)の場合は、例えば全てのシーンカテゴリにに対して各シーンカテゴリ用に用意された認識処理を行うことになる。
ステップS1004では、画像合成処理部203により、表情または動作を認識した画像と認識結果に対応した合成用画像を合成する画像合成処理が行われる。なお、上述したように、画像合成処理部203において顔の向きやサイズが決定され、これに対応した合成用画像が選択されるか、画像変形により適応した合成用画像が生成される。ステップS1005では、機構処理部204により、ステップS1004で得られた合成画像をフラッシュメモリ等のメモリに一時的に記憶させる。そして、ステップS1006において、ステップS1004で得られた合成画像をディスプレイ等の表示部105に表示する(表示処理部205)。
以上説明したように、第1実施形態によれば、ユーザの表情や動作を認識することによって、適切な合成元の撮影画像を容易に取得することができる。また、認識処理部201による認識結果に応じて服や眼鏡などの合成用画像を選択するので、ユーザに様々な状況に応じた合成画像を提供できる。
<第2実施形態>
上記第1実施形態では、入力された合成元画像のカテゴリを認識し、認識されたカテゴリに対応する合成用画像を特定して合成を行い、合成画像を得た。第2実施形態では、ユーザが合成元画像のカテゴリと合成用画像との組み合わせをシーンカテゴリとして予め設定(例えば、私生活シーンは合成元画像は笑顔画像、合成用画像は赤い服と赤い眼鏡の組み合わせするというように設定しておく)し、所望のシーンを選択することであらかじめ設定された夫々のシーンカテゴリに応じた合成画像を提供可能とする。
上記第1実施形態では、入力された合成元画像のカテゴリを認識し、認識されたカテゴリに対応する合成用画像を特定して合成を行い、合成画像を得た。第2実施形態では、ユーザが合成元画像のカテゴリと合成用画像との組み合わせをシーンカテゴリとして予め設定(例えば、私生活シーンは合成元画像は笑顔画像、合成用画像は赤い服と赤い眼鏡の組み合わせするというように設定しておく)し、所望のシーンを選択することであらかじめ設定された夫々のシーンカテゴリに応じた合成画像を提供可能とする。
図11は、第2実施形態による画像合成処理を示す機能ブロック図である。また、第2実施形態による画像合成装置のハードウェア構成は図1と同じである。図11において画像入力部1100は、第1実施形態の画像入力部201と同様に、映像入力部108と映像入力インターフェイス109を介してディジタル画像を得る。シーン選択部1011は、あらかじめユーザによってどのようなシーンカテゴリの合成画像を生成するか選択する。上述したように、各シーンには合成元画像のカテゴリ(笑顔表情、ピースポーズ等)と、これに対応する合成用画像との組み合わせが規定されている。
認識処理部1102は、画像入力部1100から提供された画像を解析(喜怒哀楽、目瞑りなどの表情認識や、ポーズ、手振り、身振りなどの動作認識を実行)し、シーン選択部1101においてユーザが選択したシーンに対応する合成元画像のカテゴリに属するかどうかを判定する。なお、この画像の解析、カテゴリの判定については第1実施形態(認識処理部201)と同様である。入力された画像がユーザーが選択したシーンに対応するカテゴリに属すると判定された場合は、その画像を合成元画像として画像合成処理部1104へ提供する。
一方、合成用画像決定処理部1103は、テーブル107cを参照して、シーン選択部1101で選択されたシーンに対応する合成用画像を選択、決定する。テーブル107cは、各シーンに対応する合成元画像のカテゴリ及び合成用画像が登録されており、シーン選択部1101で選択されたシーンカテゴリに対応した合成用画像を容易に検索することができる。
画像合成処理部1104は、選択されたシーンカテゴリに対応する画像として提供された画像を合成元画像とし、この合成元画像に合成用画像決定処理部1103で決定された合成用画像を合成する。なお、画像合成処理部1104において検出された顔の方向やサイズに応じた合成用画像の変形(或いは絞込み)は第1実施形態(画像合成処理部203)と同様である。なお、例えば眼鏡店のように、眼鏡画像を合成用画像に用いることが予め決まっているような場合は、上記シーン選択の構成はなくてもよいであろう。また、シーン選択がある場合でもない場合でも、所望の画像を選択(例えば複数種類の眼鏡の画像から所望の眼鏡画像を選択)できるようにしてもよいことは明らかである。
記憶処理部1105及び表示処理部1106は第1実施形態の記憶処理部204及び表示処理部205と同様である。すなわち、記憶処理部1105は画像合成処理部1104で合成された画像をEEPROM106に記憶し、表示処理部1106は合成された画像を表示部105に表示する。
上述したように、シーン選択部1101は、ユーザにシーンカテゴリを選択させるユーザインターフェースを提供する。そして、ユーザがあるシーンカテゴリを選択すると、合成用画像決定処理部1103はその選択されたシーンカテゴリに対応した合成用画像を決定するとともに、認識処理部1102では採用すべき認識処理(選択されたシーンカテゴリに属するカテゴリの画像かどうかを判断するための処理)が決定される。なお、シーンカテゴリの種類や、夫々のシーンカテゴリに対応した認識処理、選択する合成用画像は夫々ルックアップテーブル形式でシーンカテゴリごとに設定されて、テーブル107cとしてメモリ等に保持されている。例えば、ビジネスシーンのシーンカテゴリには、画像のカテゴリとして「無表情」が、合成用画像としてスーツの服装画像が設定されており、私生活シーンのシーンカテゴリには、画像のカテゴリとして笑顔表情が、合成用画像として赤い服の服装画像と赤いフレームの眼鏡画像が設定されている。認識処理部1102は、選択されたシーンカテゴリに属する画像のカテゴリに応じて認識処理を設定する。この認識処理としてはカテゴリ毎にそのカテゴリに属するか否かの認識処理が行なわれるものとする。
また、各シーンカテゴリの内容設定、つまりテーブル107cの内容等はユーザによって設定可能であり、夫々のシーンカテゴリ毎に、画像のカテゴリ(表情、動作)と合成用画像(服装、眼鏡、帽子、背景画像)の組み合わせを設定できる。1つのシーンカテゴリに複数の画像のカテゴリと複数の合成用画像の組み合わせを登録することも可能である。また、上述したビジネスシーンや私生活シーンの内容変更以外に新たなシーンカテゴリを追加することもできる。例えば、新たに、「悲しみシーンカテゴリ」を追加し、画像のカテゴリとして「悲しみ表情」を、合成用画像として「涙画像」を合成する用に設定することもできる。更に、カテゴリ毎に行なうべき認識処理をユーザが設定することもできる。なお、合成用画像の選択はテーブルを参照する以外の方法を用いても良いことは言うまでもない。
テーブルを参照する以外の方法としては、例えば、図17のように、入力層、中間層、出力層から構成されるニューラルネットワークを用いる方法があり、このネットワークは、入力層は認識処理結果を示すニューロン、出力層は選択される合成用画像ニューロンを示すような構成としており、入力層及び出力層は0もしくは1を入出力する。入力層の各ニューロンの入力値(0or1)に対する出力層での各ニューロン出力は、あらかじめ教師データを与えることによって学習しておく。つまり、笑顔表情ニューロンに1を入力した場合に、出力層での青色シャツニューロン及び赤フレーム眼鏡ニューロン出力で1を得るためには、教師データとして入力層の笑顔表情ニューロンに教師データ1、その他の入力層ニューロンに教師データ0、出力層の青色シャツニューロン及び赤フレーム眼鏡に教師データ1を与えることによって入力層、中間層、出力層間の結合を学習させる。他の認識処理結果、例えば、悲しみ表情に関しても同様に悲しみ表情ニューロンに1を入力した場合には、出力層の涙ニューロンが1、その他のニューロン出力は0となるように学習をする。入力層及び出力層で1と入出力する数は、学習させるだけで複数でも構わない。このように、認識処理結果で例えば笑顔表情が認識された場合には、ニューラルネットワークの入力層の笑顔表情ニューロンに1を入力することで、テーブルを参照するのと同じように合成用画像として青色シャツ及び赤フレーム眼鏡を選択することができる。
また、統計データや事前情報等から生成した確率モデルなどを用いて、例えば、笑顔表情である場合に夫々の合成用画像(青色シャツ、赤フレーム眼鏡…)である確率を算出し、算出された確率値を用いることにより合成用画像を決定する方法などもあり、この確率モデルの代表としてベイジアンネットワークがある。
図12は第2実施形態による画像合成処理を説明するフローチャートである。
まず、ステップS1200において、シーン選択部1101により、合成すべき画像のシーンカテゴリを選択する。上述したように、シーンカテゴリには、特定の表情或いは特定の動作、特定の服装などの身なり、特定の背景等の夫々の組み合わせが1つの場面として定義され、ある特定のシーンカテゴリを構成している。ステップS1201では、画像入力部1100により、カメラ等からディジタル画像を得る(ステップS1000と同様)。ステップS1202では、ステップS1200で選択されたシーンカテゴリに応じた認識処理が行われる。例えば、ユーザがビジネスシーンを選択した場合、あらかじめビジネスシーンには画像のカテゴリとして「無表情」が設定されているので、認識処理部1102は表情認識により「無表情」か否かを認識する処理を行う。
ステップS1203では、ステップS1201で入力された画像が、ステップS1200で選択したシーンカテゴリに対応した画像のカテゴリに属するかどうかを、ステップS1202による認識処理の結果に基づいて判断する。対応するカテゴリに属すると判断された場合(例えば、ビジネスシーンが設定され、入力された画像が「無表情」と判断された場合)はステップS1204に進む。入力された画像のカテゴリが選択されたシーンカテゴリに対応していない場合は、ステップS1201へ戻り、次の入力画像を処理する。
ステップS1204では、合成用画像決定処理部1103により、ステップS1200で選択されたシーンカテゴリに対応した合成用画像が決定される。つまり、ユーザがビジネスシーンを選択した場合には、合成用画像としてビジネススーツの服装画像が選択されることになる。ステップS1205では、画像合成処理部1104により、認識処理によって対応する画像カテゴリに属すると判定された入力画像と、ステップS1204で決定された合成用画像を用いて合成処理を行う。なお、画像合成処理部1104による、顔の方向、サイズ判定に基づく合成用画像の変形、或いは最終選択は第1実施形態(画像合成処理部203)と同様である。
その後、ステップS1206では、合成された画像をフラッシュメモリ等に記憶し、ステップS1207では合成画像をディスプレイ(表示部105)などに表示する。
以上のように、第2実施形態によれば、ユーザが合成元画像のカテゴリと合成用画像との組み合わせをシーンカテゴリとして予め設定(例えば、私生活シーンは合成元画像は笑顔画像、合成用画像は赤い服と赤い眼鏡の組み合わせするというように設定しておく)し、所望のシーンカテゴリを選択することで、選択されたシーンカテゴリに応じた合成画像を提供することができる。従って、例えば、ユーザをビデオカメラ等で撮影しつづけるという操作により、選択されたシーンカテゴリに適した合成元画像が自動的に抽出(生成)され、合成用画像と合成されることになり、適切な合成元画像を容易に得ることができる。
更に、ユーザ自身が各シーンカテゴリの設定内容を変更、追加できるので、ユーザの想定した所望の合成画像を容易に得ることができる。
<第3実施形態>
第3実施形態では、カメラ機能を持つ携帯電話機等への適用例を説明する。第3実施形態では第2実施形態の構成を携帯電話機へ適用する場合を説明するが、第1実施形態の構成を携帯電話機へ適用することも可能である。
第3実施形態では、カメラ機能を持つ携帯電話機等への適用例を説明する。第3実施形態では第2実施形態の構成を携帯電話機へ適用する場合を説明するが、第1実施形態の構成を携帯電話機へ適用することも可能である。
図13は第3実施形態による画像合成処理装置のハードウェア構成を示すブロック図であり、例えば、カメラ機能を持つ携帯電話等のハードウェアに搭載されている。図1で示した構成に加えて操作部1301と送受信部1302が具備されている。操作部1301は、ユーザがシーンカテゴリを選択したり、各シーンカテゴリの内容設定(例えば、「笑顔」シーンカテゴリに、画像のカテゴリとして「笑顔表情」を、合成用画像として「赤いTシャツ」に設定するなどの設定)を行うためのユーザインターフェースを提供する。送受信部1302は、合成画像の送信や、合成画像記憶部107に格納すべき画像を受信する。また、送受信部1302は、外部機器(例えば、他の携帯電話など)で得られたディジタル画像(外部機器に搭載されているカメラや外部機器でインターネット(図15の1503)を用いてダウンロードすることによって得られたディジタル画像)を映像入力部108及び映像インターフェイス部109から得られる画像データと同様に入力画像として用いるために、画像受信することも可能である。例えば、図15の他のカメラ付き携帯電話1500で撮影されたディジタル画像を図15の画像合成処理機能を含むカメラ付き携帯電話1501(図14で後述する処理機能を有する携帯電話)の送受信部1302で受信し、この受信されたディジタル画像を認識処理を行うための入力画像として用いることができる。なお、図15の画像合成処理機能を含むカメラ付き携帯電話1501もインターネット(図15の1502)等を用いてディジタル画像をダウンロードすることによってディジタル画像を取得しても良い。
なお、本実施例3において記載されている外部機器は携帯電話に限定しているわけではなく、通信機能を有する他の機器(無線或いは有線)を用いても良い。また、本発明に関わる処理の全てをソフトウェアにより実現する。
図14は、第3実施形態による画像合成処理の機能構成を示すブロック図である。図14に示される1400〜1406の各部の機能は、第2実施形態(図11)の1100〜1106で示される各部の機能とほぼ同じである。ただし、画像入力部1400は、携帯電話機等に搭載されているカメラ等の映像入力部108と映像入力インターフェイス109を介してディジタル画像を得る。また、シーン選択部1401では、携帯電話等に搭載されている操作ボタンからなる操作部1301を用いてユーザが撮影シーンを選択するためのユーザインターフェースが提供される。
シーン選択部1401で選択されたシーンに応じて認識する動作や表情が決定され、認識処理部1402では、CPU100によって表情認識や動作認識が行われる。更に、合成用画像記憶部107には、送受信部1302介して、或いは携帯電話に搭載されているカメラを用いて、予め合成用画像107aとして取得しておいた画像が格納されている。合成用画像決定処理部1403はシーン選択部1401で選択されたシーンカテゴリに対応した合成用画像を合成用画像107aより取得する。認識処理部1402は、入力された画像が選択されたシーンカテゴリに対応する画像カテゴリに属するか否かを認識する。シーンカテゴリに対応する画像カテゴリに属すると判定された画像は、画像合成処理部1404に提供され、合成用画像決定処理部1403で取得された合成用画像と合成される。記憶処理部1405は、画像合成処理部1404で合成された画像をEEPROM106に記憶し、表示処理部1406は合成された画像を表示器105により表示する。さらに送受信処理部1407は、合成画像を外部機器へ送信する。なお、上述の送受信部1302を介した合成用画像の受信処理も送受信処理部1407が行うものとする。
送受信処理部は、外部機器、例えば、携帯電話、PDA、パーソナルコンピュータ等通信機能を持つ外部機器に作成した合成データを送信したり、それら外部機器から合成用画像記憶部107に格納するべき合成用画像を受信するために用いる。更に、送受信処理部1407は外部機器及びインターネットを用いることによってディジタル画像を受信し、入力画像処理部1400の入力画像とするために用いることもできる。
図20は、第3実施形態の画像合成処理を説明するフローチャートである。なお、ステップS1600〜S1607までの処理は第2実施形態(図12)のステップS1200からS1207の処理と同様である。
ユーザは、予めいくつかのシーンカテゴリ毎に夫々の内容を設定しておく。ステップS1600ではその設定したシーンカテゴリの中から1つ、もしくは複数のシーンカテゴリの選択を行う。シーンカテゴリについては上述したとおりである。ステップS1601では、カメラ等からディジタル画像を得る。ステップS1602では、ステップS1600で選択されたシーンカテゴリに応じた認識処理が行われる。例えば、ユーザがあらかじめ私生活シーンを「笑顔表情(画像カテゴリ)」で「私服の服装画像(合成用画像)」と設定した場合には、認識処理においては笑顔表情を認識する処理が行われる。ステップS1603では、選択したシーンカテゴリに対応した表情または動作が認識された場合、つまりここでは笑顔表情が認識された場合にはステップS1604に進む。一方、選択したシーンカテゴリに対応した表情または動作が認識されない場合には選択したシーンカテゴリに対応した表情または動作が認識されるまで認識処理を繰り返す。
ステップS1604では、ステップS1600で選択されたシーンカテゴリに対応した合成用画像が決定される。つまり、上記私生活シーンのシーンカテゴリでは、私服の服装画像が合成用画像として選択される。ステップS1605では、認識処理によって認識された画像と合成用画像を用いて合成処理を行い、ステップS1606では、合成された画像をフラッシュメモリ等に記憶し、ステップS1607では合成画像を表示器105などに表示する。ステップS1608で、ステップS1605で得られた合成画像を外部機器へ送信するならばステップS1609で合成画像を外部機器に送信を行うが、外部機器へ送信しないならば送信せずに終了する。
以上の各実施例で示した認識処理や合成処理の一部または全てを専用のプロセッサ、ASIC、FPGA等を用いて実現しても良い。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
Claims (13)
- ディジタル画像を取得する取得手段と、
前記取得手段により取得されたディジタル画像を解析して該ディジタル画像中の被写体の状態を認識し、認識結果に基づいて画像のカテゴリを決定する認識手段と、
前記決定手段で決定された画像カテゴリに基づいて合成用画像を選択する選択手段と、
前記選択手段で選択された合成用画像を前記ディジタル画像に合成する合成手段とを備えることを特徴とする画像合成装置。 - ディジタル画像を取得する取得手段と、
取得されたディジタル画像を解析し、該ディジタル画像中の被写体の状態に基づいて当該ディジタル画像のカテゴリが所定のシーンカテゴリに分類されるか否かを判定する認識手段と、
前記所定のシーンカテゴリに対応付けて登録されている合成用画像を選択する選択手段と、
前記判定手段により前記ディジタル画像が所定のシーンカテゴリに分類されると判定された場合、前記選択手段で選択された合成用画像を該ディジタル画像に合成する合成手段とを備えることを特徴とする画像合成装置。 - 前記認識処理手段は、前記被写体としての人物の所定の表情及び/又は動作を認識することを特徴とする請求項1又は2に記載の画像合成装置。
- 前記ディジタル画像より、前記被写体としての人物の顔の向き及びサイズを検出する検出手段をさらに備え、
前記選択手段は、前記所定のシーンカテゴリと、前記検出手段で検出された顔の向きに対応した合成用画像を選択することを特徴とする請求項1又は2に記載の画像合成装置。 - 前記ディジタル画像より、前記被写体としての人物の顔の向き及びサイズを検出する検出手段をさらに備え、
前記画像合成手段は、前記選択手段で選択された合成用画像を前記検出手段で検出された顔の向き及びサイズに基づいて変形し、前記ディジタル画像と合成することを特徴とする請求項1又は2に記載の画像合成装置。 - 前記選択手段によって選択される合成用画像として、背景画像、服装、眼鏡などの物体画像、涙の形状など表情を表す表情表示画像、アクセサリーなどの装身画像、髪やヒゲなどの毛髪画像の少なくともいずれかが含まれることを特徴とする請求項1又は2に記載の画像合成装置。
- 前記所定のシーンカテゴリを指定する指定手段をさらに備えることを特徴とする請求項2に記載の画像合成装置。
- 画像のカテゴリと合成用画像を任意に対応付けてシーンカテゴリとして登録する登録手段をさらに備え、
前記指定手段は、前記登録手段で登録されたシーンカテゴリから所望のシーンカテゴリを指定することを特徴とする請求項7に記載の画像合成装置。 - 前記合成手段で得られた画像を外部装置へ送信する通信手段をさらに備えることを特徴とする請求項1又は2に記載の画像合成装置。
- 前記通信手段は、さらに前記合成用画像を受信可能であることを特徴とする請求項9に記載の画像合成装置。
- 前記通信手段は、さらに前記取得手段として機能可能であることを特徴とする請求項9に記載の画像合成装置。
- ディジタル画像を取得する取得工程と、
前記取得工程により取得されたディジタル画像を解析して該ディジタル画像中の被写体の状態を認識し、認識結果に基づいて画像のカテゴリを決定する認識工程と、
前記決定工程で決定された画像カテゴリに基づいて合成用画像を選択する選択工程と、
前記選択工程で選択された合成用画像を前記ディジタル画像に合成する合成工程とを備えることを特徴とする画像合成方法。 - ディジタル画像を取得する取得工程と、
取得されたディジタル画像を解析し、該ディジタル画像中の被写体の状態に基づいて当該ディジタル画像のカテゴリが所定のシーンカテゴリに分類されるか否かを判定する認識工程と、
前記所定のシーンカテゴリに対応付けて登録されている合成用画像を選択する選択工程と、
前記判定工程により前記ディジタル画像が所定のシーンカテゴリに分類されると判定された場合、前記選択工程で選択された合成用画像を該ディジタル画像に合成する合成工程とを備えることを特徴とする画像合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004049933A JP2005242566A (ja) | 2004-02-25 | 2004-02-25 | 画像合成装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004049933A JP2005242566A (ja) | 2004-02-25 | 2004-02-25 | 画像合成装置及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005242566A true JP2005242566A (ja) | 2005-09-08 |
Family
ID=35024264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004049933A Withdrawn JP2005242566A (ja) | 2004-02-25 | 2004-02-25 | 画像合成装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005242566A (ja) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007123953A (ja) * | 2005-10-24 | 2007-05-17 | Sony Corp | 撮像装置及び撮像方法 |
JP2007215189A (ja) * | 2006-02-07 | 2007-08-23 | Lg Electronics Inc | 移動通信端末機、移動通信端末機の制御方法及び移動通信端末機を用いたテレビ電話方法 |
JP2007272435A (ja) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | 顔特徴抽出装置及び顔特徴抽出方法 |
JP2008027086A (ja) * | 2006-07-19 | 2008-02-07 | Sony Computer Entertainment Inc | 表情誘導装置および表情誘導方法、表情誘導システム |
JP2008084213A (ja) * | 2006-09-28 | 2008-04-10 | Sony Corp | 画像処理装置、撮像装置、画像処理方法およびプログラム |
JP2008203960A (ja) * | 2007-02-16 | 2008-09-04 | Seiko Epson Corp | 画像処理装置、その制御方法、プログラム及び印刷装置 |
JP2009117975A (ja) * | 2007-11-02 | 2009-05-28 | Oki Electric Ind Co Ltd | 撮影装置および撮影方法 |
JP2009253477A (ja) * | 2008-04-02 | 2009-10-29 | Sony Ericsson Mobilecommunications Japan Inc | 携帯情報端末、画像処理プログラム及び画像処理方法 |
WO2010073432A1 (ja) * | 2008-12-24 | 2010-07-01 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
JP2010152556A (ja) * | 2008-12-24 | 2010-07-08 | Sony Computer Entertainment Inc | 画像処理装置および画像処理方法 |
JP2010171676A (ja) * | 2009-01-22 | 2010-08-05 | Olympus Imaging Corp | カメラ、画像表示装置、画像表示方法、およびプログラム |
JP5254506B1 (ja) * | 2012-12-28 | 2013-08-07 | 楽天株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 |
JP5254507B1 (ja) * | 2012-12-28 | 2013-08-07 | 楽天株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 |
JP2016028463A (ja) * | 2014-07-10 | 2016-02-25 | フリュー株式会社 | 写真シール作成装置および表示方法 |
KR20160068516A (ko) * | 2014-12-05 | 2016-06-15 | 연세대학교 산학협력단 | 감성 효과 생성을 위한 인물 영상 처리 장치 및 그 방법 |
JPWO2014133041A1 (ja) * | 2013-02-26 | 2017-02-02 | 富士フイルム株式会社 | セルロースアシレートフィルム、新規化合物、偏光板および液晶表示装置 |
US10113040B2 (en) | 2014-09-03 | 2018-10-30 | Fujifilm Corporation | Polymer film, polarizing plate and liquid crystal display device |
JP2019096252A (ja) * | 2017-11-28 | 2019-06-20 | Kddi株式会社 | 撮影映像から人の行動を表すコンテキストを推定するプログラム、装置及び方法 |
CN110024000A (zh) * | 2016-11-24 | 2019-07-16 | Groove X 株式会社 | 使瞳部变化的行为自主型机器人 |
JP2020507159A (ja) * | 2017-05-31 | 2020-03-05 | オッポ広東移動通信有限公司 | ピクチャプッシュの方法、移動端末および記憶媒体 |
JP2021026744A (ja) * | 2019-08-09 | 2021-02-22 | 日本テレビ放送網株式会社 | 情報処理装置、画像認識方法及び学習モデル生成方法 |
JP2021508883A (ja) * | 2018-02-08 | 2021-03-11 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 特殊効果プログラムファイルパッケージの生成及び特殊効果生成方法、装置並びに電子機器 |
KR102236904B1 (ko) * | 2019-12-13 | 2021-04-06 | 조선대학교산학협력단 | 이미지 합성 방법 및 장치 |
JP2021530031A (ja) * | 2018-07-27 | 2021-11-04 | 北京微播視界科技有限公司Beijing Microlive Vision Technology Co., Ltd | 顔に基づく特殊効果発生方法、装置および電子機器 |
US11521389B2 (en) | 2018-01-19 | 2022-12-06 | Beijing Sensetime Technology Development Co., Ltd. | Method for generating special effect program file package, method for generating special effect, electronic device, and storage medium |
JP7426922B2 (ja) | 2020-11-30 | 2024-02-02 | Kddi株式会社 | 人の顔に装着物が着用された新たな教師画像を人工的に生成するプログラム、装置及び方法 |
-
2004
- 2004-02-25 JP JP2004049933A patent/JP2005242566A/ja not_active Withdrawn
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007123953A (ja) * | 2005-10-24 | 2007-05-17 | Sony Corp | 撮像装置及び撮像方法 |
JP4499117B2 (ja) * | 2006-02-07 | 2010-07-07 | エルジー エレクトロニクス インコーポレイティド | 移動通信端末機、移動通信端末機の制御方法及び移動通信端末機を用いたテレビ電話方法 |
JP2007215189A (ja) * | 2006-02-07 | 2007-08-23 | Lg Electronics Inc | 移動通信端末機、移動通信端末機の制御方法及び移動通信端末機を用いたテレビ電話方法 |
US8111280B2 (en) | 2006-02-07 | 2012-02-07 | Lg Electronics Inc. | Video conference system and method in a communication network |
JP2007272435A (ja) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | 顔特徴抽出装置及び顔特徴抽出方法 |
JP2008027086A (ja) * | 2006-07-19 | 2008-02-07 | Sony Computer Entertainment Inc | 表情誘導装置および表情誘導方法、表情誘導システム |
JP2008084213A (ja) * | 2006-09-28 | 2008-04-10 | Sony Corp | 画像処理装置、撮像装置、画像処理方法およびプログラム |
JP2008203960A (ja) * | 2007-02-16 | 2008-09-04 | Seiko Epson Corp | 画像処理装置、その制御方法、プログラム及び印刷装置 |
JP2009117975A (ja) * | 2007-11-02 | 2009-05-28 | Oki Electric Ind Co Ltd | 撮影装置および撮影方法 |
JP2009253477A (ja) * | 2008-04-02 | 2009-10-29 | Sony Ericsson Mobilecommunications Japan Inc | 携帯情報端末、画像処理プログラム及び画像処理方法 |
WO2010073432A1 (ja) * | 2008-12-24 | 2010-07-01 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
JP2010152556A (ja) * | 2008-12-24 | 2010-07-08 | Sony Computer Entertainment Inc | 画像処理装置および画像処理方法 |
US10216987B2 (en) | 2008-12-24 | 2019-02-26 | Sony Interactive Entertainment Inc. | Image processing device and image processing method |
JP2010171676A (ja) * | 2009-01-22 | 2010-08-05 | Olympus Imaging Corp | カメラ、画像表示装置、画像表示方法、およびプログラム |
US20140253593A1 (en) * | 2012-12-28 | 2014-09-11 | Rakuten, Inc. | Image processing device, image processing method, image processing program and computer-readable recording medium storing the program |
WO2014103048A1 (ja) * | 2012-12-28 | 2014-07-03 | 楽天株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 |
WO2014103045A1 (ja) * | 2012-12-28 | 2014-07-03 | 楽天株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 |
JP5254507B1 (ja) * | 2012-12-28 | 2013-08-07 | 楽天株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 |
US8860761B2 (en) * | 2012-12-28 | 2014-10-14 | Rakuten, Inc. | Image processing device, image processing method, image processing program and computer-readable recording medium storing the program |
JP5254506B1 (ja) * | 2012-12-28 | 2013-08-07 | 楽天株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 |
US9396570B2 (en) | 2012-12-28 | 2016-07-19 | Rakuten, Inc. | Image processing method to superimpose item image onto model image and image processing device thereof |
JPWO2014133041A1 (ja) * | 2013-02-26 | 2017-02-02 | 富士フイルム株式会社 | セルロースアシレートフィルム、新規化合物、偏光板および液晶表示装置 |
US10040754B2 (en) | 2013-02-26 | 2018-08-07 | Fujifilm Corporation | Cellulose acylate film, novel compound, polarizing plate and liquid crystal display device |
JP2016028463A (ja) * | 2014-07-10 | 2016-02-25 | フリュー株式会社 | 写真シール作成装置および表示方法 |
JP2018159932A (ja) * | 2014-07-10 | 2018-10-11 | フリュー株式会社 | 写真シール作成装置、表示方法、およびプログラム |
US10113040B2 (en) | 2014-09-03 | 2018-10-30 | Fujifilm Corporation | Polymer film, polarizing plate and liquid crystal display device |
KR101653812B1 (ko) * | 2014-12-05 | 2016-09-05 | 연세대학교 산학협력단 | 감성 효과 생성을 위한 인물 영상 처리 장치 및 그 방법 |
KR20160068516A (ko) * | 2014-12-05 | 2016-06-15 | 연세대학교 산학협력단 | 감성 효과 생성을 위한 인물 영상 처리 장치 및 그 방법 |
JP7068709B2 (ja) | 2016-11-24 | 2022-05-17 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
CN110024000A (zh) * | 2016-11-24 | 2019-07-16 | Groove X 株式会社 | 使瞳部变化的行为自主型机器人 |
JP2019149181A (ja) * | 2016-11-24 | 2019-09-05 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
CN110024000B (zh) * | 2016-11-24 | 2023-12-26 | Groove X 株式会社 | 使瞳部变化的行为自主型机器人 |
US11623347B2 (en) | 2016-11-24 | 2023-04-11 | Groove X, Inc. | Autonomously acting robot that changes pupil image of the autonomously acting robot |
JP2020507159A (ja) * | 2017-05-31 | 2020-03-05 | オッポ広東移動通信有限公司 | ピクチャプッシュの方法、移動端末および記憶媒体 |
JP2019096252A (ja) * | 2017-11-28 | 2019-06-20 | Kddi株式会社 | 撮影映像から人の行動を表すコンテキストを推定するプログラム、装置及び方法 |
US11521389B2 (en) | 2018-01-19 | 2022-12-06 | Beijing Sensetime Technology Development Co., Ltd. | Method for generating special effect program file package, method for generating special effect, electronic device, and storage medium |
JP7167165B2 (ja) | 2018-02-08 | 2022-11-08 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | 特殊効果プログラムファイルパッケージの生成及び特殊効果生成方法、装置並びに電子機器 |
US11368746B2 (en) | 2018-02-08 | 2022-06-21 | Beijing Sensetime Technology Development Co., Ltd. | Method and device for generating special effect program file package, method and device for generating special effect, and electronic device |
JP2021508883A (ja) * | 2018-02-08 | 2021-03-11 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 特殊効果プログラムファイルパッケージの生成及び特殊効果生成方法、装置並びに電子機器 |
US11354825B2 (en) | 2018-07-27 | 2022-06-07 | Beijing Microlive Vision Technology Co., Ltd | Method, apparatus for generating special effect based on face, and electronic device |
JP2021530031A (ja) * | 2018-07-27 | 2021-11-04 | 北京微播視界科技有限公司Beijing Microlive Vision Technology Co., Ltd | 顔に基づく特殊効果発生方法、装置および電子機器 |
JP7286684B2 (ja) | 2018-07-27 | 2023-06-05 | 北京微播視界科技有限公司 | 顔に基づく特殊効果発生方法、装置および電子機器 |
JP2021026744A (ja) * | 2019-08-09 | 2021-02-22 | 日本テレビ放送網株式会社 | 情報処理装置、画像認識方法及び学習モデル生成方法 |
JP7438690B2 (ja) | 2019-08-09 | 2024-02-27 | 日本テレビ放送網株式会社 | 情報処理装置、画像認識方法及び学習モデル生成方法 |
KR102236904B1 (ko) * | 2019-12-13 | 2021-04-06 | 조선대학교산학협력단 | 이미지 합성 방법 및 장치 |
JP7426922B2 (ja) | 2020-11-30 | 2024-02-02 | Kddi株式会社 | 人の顔に装着物が着用された新たな教師画像を人工的に生成するプログラム、装置及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005242566A (ja) | 画像合成装置及び方法 | |
KR102661019B1 (ko) | 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법 | |
JP4574249B2 (ja) | 画像処理装置及びその方法、プログラム、撮像装置 | |
JP4218348B2 (ja) | 撮影装置 | |
JP5302793B2 (ja) | 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置 | |
US20200402304A1 (en) | Electronic device and method for managing custom object on basis of avatar | |
US7796785B2 (en) | Image extracting apparatus, image extracting method, and image extracting program | |
EP1424652A2 (en) | Method and apparatus for adding ornaments to an image of a person | |
JP5949331B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP7278724B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
JP2005086516A (ja) | 撮像装置、印刷装置、画像処理装置およびプログラム | |
JP6111723B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
KR20160030037A (ko) | 닮은얼굴그림 생성 장치, 닮은얼굴그림 생성 방법 | |
JP2000322588A (ja) | 画像処理装置及びその方法 | |
JP2013200735A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP5578186B2 (ja) | キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム | |
JP2011211349A (ja) | 情報処理装置およびその動作方法 | |
KR102389457B1 (ko) | 이미지 변환 장치, 방법 및 컴퓨터 판독 가능한 기록매체 | |
CN108933891A (zh) | 拍照方法、终端及*** | |
JP2002199202A (ja) | 画像処理装置 | |
JP2010066853A (ja) | 画像処理装置、方法およびプログラム | |
KR101738896B1 (ko) | 패턴 복사를 이용한 가상 피팅 시스템 및 그 방법 | |
JP2020107038A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2012003324A (ja) | 画像処理装置、撮像装置、画像処理プログラム及び記憶媒体 | |
JP5092093B2 (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070501 |