JP6282121B2 - Image recognition apparatus, image recognition method, and program - Google Patents
Image recognition apparatus, image recognition method, and program Download PDFInfo
- Publication number
- JP6282121B2 JP6282121B2 JP2014005274A JP2014005274A JP6282121B2 JP 6282121 B2 JP6282121 B2 JP 6282121B2 JP 2014005274 A JP2014005274 A JP 2014005274A JP 2014005274 A JP2014005274 A JP 2014005274A JP 6282121 B2 JP6282121 B2 JP 6282121B2
- Authority
- JP
- Japan
- Prior art keywords
- event
- time
- information
- base component
- image recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本発明は、特に微細な表情変化や個体差を反映したCG画像を生成するために用いて好適な画像認識装置、画像認識方法およびプログラムに関する。 The present invention relates to an image recognition apparatus, an image recognition method, and a program suitable for use in generating a CG image reflecting particularly minute facial expression changes and individual differences.
従来、例えば特許文献1に記載の技術のように、CGによる顔の表情を生成する技術について、これまで多くの研究がなされている。特に非特許文献1に記載のBlend Shape法は、MAYAや3D Studio Maxなど多くの市販のCGモデリングソフトウェアにおいても重要な表情生成手段として使用されている。この方法は、無表情の標準基底表情に、あらかじめ設定した基底表情(喜び、怒り、悲しみなど)の重み付き線形和として記述することにより、生成したい表情を適用する方法である。 Conventionally, many studies have been made on a technique for generating a facial expression using CG, such as the technique described in Patent Document 1. In particular, the Blend Shape method described in Non-Patent Document 1 is used as an important expression generation means in many commercially available CG modeling software such as MAYA and 3D Studio Max. This method is a method of applying a facial expression to be generated by describing a weighted linear sum of preset basic facial expressions (joy, anger, sadness, etc.) to a standard facial expression of no expression.
しかしながらこのBlend Shape法は、すべての表情空間を表現できているわけではなく、あらかじめ設定された基底表情の重み付き線形和では表現できない表情が存在する。特に微細な表情変化や個体差による影響については、Blend Shape法で表現することは難しい。 However, this Blend Shape method does not represent all facial expression spaces, and there are facial expressions that cannot be expressed by a weighted linear sum of preset base facial expressions. In particular, it is difficult to express the effects of fine facial expression changes and individual differences using the Blend Shape method.
そこで、表現したい微細な表情の違いとしてMicro Expressionという概念を提唱する方法や、疎な表情変形と微細な顔形状とを分けて法線マップで表現する手法が提案されている。このように微細表情やリアルな表情再現についての要求は高まっている。また、例えば非特許文献2には、上述するような仮想モデルを用いて生成された画像を、データベースを用いて学習を施す画像認識技術も提案されている。 Therefore, there have been proposed a method of proposing the concept of Micro Expression as a difference in fine facial expressions to be expressed, and a method of expressing sparse facial expression deformation and fine face shape by dividing them with a normal map. Thus, the demand for fine facial expressions and realistic facial expression reproduction is increasing. For example, Non-Patent Document 2 proposes an image recognition technique in which an image generated using a virtual model as described above is learned using a database.
上述したBlend shape法に関係する多くの手法では、多数の特徴点の位置と動きとから変動ベクトルを再現する場合に、特に微細表情と呼ばれる微妙な変動成分パラメータを最終的に作業者が手作業によって調整する必要がある。映画などのオフライン作業であればこのような手法もあり得るが、特に微細な顔の表情に関するデータベースの作成を目的とした場合には、以下のような課題がある。 In many methods related to the blend shape method described above, when a variation vector is reproduced from the positions and movements of a large number of feature points, an operator must manually perform a subtle variation component parameter called a fine expression. Need to be adjusted by. Such an approach can be used for off-line work such as a movie, but there are the following problems especially for the purpose of creating a database relating to fine facial expressions.
まず、日常生活のログ画像を撮りためておき、その中から微細な表情変化を手作業により抽出することは困難である。これは、微細表情がいつどのような状況で発生するか不明なため、長時間監視するログ画面の中から所望の微細表情を抽出することは労力を必要とし、さらには効率が悪いからである。したがって、同じ感情に由来する表情成分を大量に集めることが非常に困難である。 First, it is difficult to take a log image of daily life and extract minute facial expression changes manually from the log image. This is because it is unclear when and in what circumstances a fine facial expression will occur, so extracting a desired fine facial expression from a log screen that is monitored for a long time requires labor and is inefficient. . Therefore, it is very difficult to collect a large amount of facial expression components derived from the same emotion.
また、画像認識を目的としたデータベースの場合、大量のタグ付き画像が必要となるが、手作業によりタグ付けを行うことが困難なため、学習に使用できない。さらには、微細な表情を仮想モデルに反映したい場合に、複数の要因が関係するため、どのような変動成分を適用したらよいかが不明である。 In addition, in the case of a database intended for image recognition, a large amount of tagged images are required, but since it is difficult to perform tagging by hand, it cannot be used for learning. Furthermore, when a fine facial expression is to be reflected in the virtual model, it is unclear what variation component should be applied because a plurality of factors are involved.
本発明は前述の問題点に鑑み、微細な表情の変動または個体差を適用した変動成分を高精度にかつ簡単に生成できるようにすることを目的としている。 The present invention has been made in view of the above-described problems, and an object of the present invention is to be able to easily and accurately generate a fluctuation component to which fine facial expression fluctuations or individual differences are applied.
本発明に係る画像認識装置は、被写体の時系列情報を入力する入力手段と、前記入力手段によって入力された時系列情報からイベントに関する変化点を検出するとともに、前記変化点の周囲の時系列情報からイベント情報を検出する検出手段と、前記検出手段によって検出されたイベント情報に基づいて、前記イベントに関連する1つまたは複数のフレームの区間を前記時系列情報から取得するとともに、前記取得したフレームの区間に係る特徴量を取得する取得手段と、前記取得手段によって取得された特徴量を1つまたは複数の基底成分に分解する分解手段と、前記変化点の周囲における基底成分の変化に基づいて、前記分解手段によって分解された基底成分から前記イベントに関連する基底成分を抽出する抽出手段と、前記抽出手段によって抽出された基底成分から仮想モデルの変動成分を生成する生成手段と、を備えることを特徴とする。 An image recognition apparatus according to the present invention detects time change information related to an event from input means for inputting time series information of a subject, time series information input by the input means, and time series information around the change point And detecting the event information from the time series information based on the event information detected by the detecting means, and acquiring one or a plurality of frame sections related to the event from the time series information Based on the change of the base component around the change point, the acquisition means for acquiring the feature quantity related to the section, the decomposition means for decomposing the feature quantity acquired by the acquisition means into one or a plurality of base components Extraction means for extracting a base component related to the event from the base components decomposed by the decomposition means; and A generating means for generating a fluctuation component of a virtual model from basal components extracted I, characterized in that it comprises a.
本発明によれば、微細な表情の変動または個体差を適用した変動成分を高精度にかつ簡単に生成できる。 According to the present invention, it is possible to easily and accurately generate a fluctuation component to which minute facial expression fluctuations or individual differences are applied.
(第1の実施形態)
以下、本実施形態では、被写体として対象人物の顔を常時撮影し、その顔画像の中から微細な表情変化を抽出して仮想モデルに反映させる方法について説明する。
図1は、本実施形態に係る画像認識装置として仮想モデル生成装置100の機能構成例を示すブロック図である。
図1において仮想モデル生成装置100は、入力部110、イベント検出部120、イベント解析部140、フレーム区間抽出部130、基底分解部150、イベント関連基底成分抽出部160、変形ベクトル生成部170、及びCG変形部180を備えている。
(First embodiment)
Hereinafter, in the present embodiment, a method will be described in which a face of a target person is always photographed as a subject, and a fine facial expression change is extracted from the face image and reflected in a virtual model.
FIG. 1 is a block diagram illustrating a functional configuration example of a virtual
1, the virtual
イベント検出部120は、入力部110より入力された動画像から時系列的な変化点を検出する。変化点を検出する際には、例えば、非特許文献3に記載されているSIFT特徴や非特許文献4に記載されているKLT trackerなどの特徴点の追跡手法を利用する。そして、これらの方法によって取得した時系列的な軌跡情報から変化点を求める。また、他の方法として、ある特定の軌跡パターンとのパターンマッチングによって特定のパターンを検出して変化点を求めるようにしてもよい。また、フレーム間差分法により抽出した差分成分がある程度以上の面積を有する場合をイベントとして検出するなどの単純な方法であってもよい。本実施形態では、検出する変化点の詳細な意味を把握する必要はなく、時系列上でイベントとして検出された時刻を抽出する。
The
図2は、イベント検出に関連する時系列軌跡データの一例を示す模式図であり、図2において、横軸は動画像の時間(フレーム番号)を示し、縦軸は標準時からの変動分を示す。また、図2に示す軌跡は顔画像中の特徴量(例えばKLT tracker)の軌跡を表し、その軌跡の波形を評価することによりイベントの時刻を検出する。図2に示す例では、時刻200にイベントが検出されたものとしている。
FIG. 2 is a schematic diagram illustrating an example of time-series trajectory data related to event detection. In FIG. 2, the horizontal axis indicates the time (frame number) of the moving image, and the vertical axis indicates the variation from the standard time. . Also, the trajectory shown in FIG. 2 represents the trajectory of the feature quantity (for example, KLT tracker) in the face image, and the event time is detected by evaluating the waveform of the trajectory. In the example illustrated in FIG. 2, it is assumed that an event is detected at
本実施形態では、入力部110として、動画像を生成するビデオカメラを想定した例について説明するが、これに限定するものではない。例えば、イベントの時刻を検出するために必要であれば、音声を入力するマイクや、kinectに代表されるような奥行きを測定できる装置を併せて適用することができる。
In the present embodiment, an example in which a video camera that generates a moving image is assumed as the
また、入力部110に入力された情報から、そのままイベント検出部120にてイベントの時刻を直接検出してもよいいが、それ以外の方法によりイベントの時刻を検出してもよい。例えば、微細な表情変化を取得するために、非特許文献1に記載されているBlend Shape法によって大まかな表情を取得してその結果をもとに微細表情を含んだデータとの差分を取得する。イベント検出部120は、その差分情報を入力する。
The event time may be directly detected by the
イベント解析部140は、イベント検出部120で検出されたイベントの時刻を周辺の時系列情報から解析する。本実施形態では、イベントを解析するために時系列的な特徴量を用い、イベント情報としてイベント周辺の軌跡を取得する。詳細は後述するが、フレーム区間抽出部130は、このイベント周辺の軌跡から、図2に示すようなイベントに関連するイベント有区間210と、関連しないイベント無区間220とを抽出することとなる。
The
フレーム区間抽出部130は、キーフレーム領域抽出処理131において、イベント解析部140によって解析された情報を用いてキーフレーム領域を抽出する。また、フレーム区間抽出部130は、イベント有区間抽出処理132において、以下のようにしてイベントの時刻200に関連するイベント有区間210を求める。例えば、波形の平均値からピークに向かって離れる位置、及びピークに達した部分の時刻200の後で平均値に再び戻る位置をその境界としてイベント有区間210を設定する。また、フレーム間の相関を取り、イベントの時刻200と相関の高い領域をイベント有区間210とするなど、検出したイベントに関連する領域を抽出できる方法であればどのような方法を用いてもよい。
The frame
一方、イベント無区間抽出処理133では、イベント無区間220は、イベント周囲の画像列からイベント有区間210との差分を取った領域とする。本実施形態においては、イベント無区間220にイベント有区間210の前区間221と後区間222との両方を合わせてイベント無区間220としている。ところが、これに限定するものではなく、ユースケースに応じて前区間221のみ、もしくは後区間222のみをイベント無区間220としてもよい。
On the other hand, in the eventless
さらにフレーム区間抽出部130は、イベント有区間210およびイベント無区間220に対し、顔画像処理を行う。本実施形態では、顔画像処理として非特許文献5に記載されているAAM(Active Appearance Model)および非特許文献6に記載されているCANDIDEを用いて顔形状の記述を行う。また、本実施形態では上記AAMを用いるがこれに限定するものではなく、前記KLT trackerの情報も用いるなど他の情報を組み合わせて使用してもよい。AAMなどコーナー点や特徴点を用いたマーカーレスの方法だけでなく、マーカーを顔上に設置してマーカー点を追跡する方法なども適用することができる。本実施形態では、後述する基底分解を行う前の段階で、フレーム区間抽出部130により、イベント有区間210およびイベント無区間220の複数のフレームに関して、それぞれ特徴量として特徴ベクトルFe、Fnが得られるものとする。
Further, the frame
基底分解部150は、イベント有区間210(Fe)およびイベント無区間220(Fn)においてそれぞれを基底分解する。基底分解の方法にはPCA(Principal Component Analysis)や、ICA(Independent Component Analysis)を適用できる。さらにNMF(Non-Negative Matrix Factorization)などを適用することも可能である。本実施形態では、PCAではデータの欠損などによって固有値ベクトルが変化してしまうのに対して、非特許文献7に記載の統計的な独立性を扱うことができるICAを例に説明する。
The
まず、分解処理152では、フレーム区間抽出部130より出力されたイベント有区間210のフレームに対してICAを適用し、以下の式(1)に示すようなn個の基底信号Fkの重みwkによる重み付き線形和に分解する。
First, in the
同様に、分解処理153では、イベント無区間220のフレームに対して、以下の式(2)に示すm個の基底信号Flの重みwlによる重み付き線形和に分解する。
Similarly, in the
イベント有区間210およびイベント無区間220は、連続した時系列のデータであるため、多くの基底は共通していることが予想される。しかし、イベント有区間210にはイベントに由来する信号成分があるため、イベント無区間220には含まれない基底成分があると仮定できる。
Since the event
イベント関連基底成分抽出部160は、領域間基底比較処理161によりイベント有区間210の基底信号Fkのセットとイベント無区間220の基底信号Flのセットとを比較する。そして、集合{Fk}に存在して集合{Fl}に存在しない基底成分を抽出する。具体的には例えば、すべての基底信号FkおよびFlの基底成分間で相互相関を取り、相関値が閾値を超えるものを両方の領域に存在する基底成分として除去する。残った基底成分のうち、集合{Fk}にのみ存在し、重みwkの値が大きいものをイベント関連基底成分として抽出する。なお、重みwkの閾値は、あらかじめ決められたものでもよいし、事前の学習などによって求められる値を適用してもよい。
The event-related base
このように抽出されるイベント関連基底成分は、AAMのようなランドマーク点の変形後の構造として表されているので、変形ベクトル生成部170は、このランドマーク点のフレーム間変形ベクトルから、変動成分であるCGの変形ベクトルに適用する。具体的には、例えば非特許文献8に記載されているような方法でランドマーク点の変形ベクトルからCGの変形ベクトルを算出することが可能である。
Since the event-related base component extracted in this way is represented as a structure after deformation of a landmark point such as AAM, the deformation
上記のような実施形態によって、イベント検出では検出可能だがBlend Shape法では表現しきれない微細な表情の変化の変形ベクトルを算出することが可能となる。CG変形部180は、このCGの変形ベクトルを適用することにより微細な表情のCG画像を生成することが可能となる。
According to the embodiment as described above, it is possible to calculate a deformation vector of a fine expression change that can be detected by event detection but cannot be expressed by the Blend Shape method. The
なお、上述した実施形態は顔のCG画像について述べたが、これに限定されず、他のCG物体の変形に対しても適用可能である。また、あらかじめBlend Shape法を適用して入力映像との差分を入力情報としたが、本実施形態はこれに限定するものではなく、直接入力映像を入力情報とすることも可能である。 In the above-described embodiment, the CG image of the face has been described. However, the present invention is not limited to this, and can be applied to deformation of other CG objects. In addition, although the blend shape method is applied in advance and the difference from the input video is used as the input information, the present embodiment is not limited to this, and the direct input video can be used as the input information.
(第2の実施形態)
第1の実施形態では、イベントの時系列的な特徴を用いてイベントに関連する基底成分を求める方法としてイベント有区間とイベント無区間とを設定し、それぞれの基底成分の論理演算からイベントに含まれるイベント関連基底成分を抽出した。これに対して本実施形態では、異なる時系列特徴を用いてイベント関連基底成分を抽出する方法について詳述する。
(Second Embodiment)
In the first embodiment, an event-within interval and an event-free interval are set as a method for obtaining a base component related to an event using time-series characteristics of the event, and are included in the event from a logical operation of each base component. Event-related base components extracted. In contrast, in the present embodiment, a method for extracting event-related base components using different time series features will be described in detail.
図3は、本実施形態における仮想モデル生成装置300の機能構成例を示すブロック図である。また、図4は、本実施形態におけるイベントの検出に関連する時系列軌跡データの一例を示す模式図である。なお、基本的な構成は第1の実施形態と同様であるため、差異のある部分のみを詳述する。
FIG. 3 is a block diagram illustrating a functional configuration example of the virtual
イベント解析部340は、イベント検出部120にて検出されたイベントの時刻400から、イベント有区間となるフレームの範囲である区間情報341と、そのイベント領域内の軌跡の変極点やゼロクロス点、カーブ曲率などの波形情報342とを取得する。フレーム区間抽出部330では、イベント有区間抽出処理132により区間情報341を用いて図4に示すようなイベント有区間410を抽出する。なお、本実施形態では、イベント無区間の抽出を不要としている。
The
基底分解部350は、イベント有区間(Fe)に対してICAを適用し、式(1)に示したような基底信号Fkの重み付き線形和に分解する。さらにフレーム有区間内における重みwkの変化軌跡を求める。この手順は第1の実施形態の分解処理152と同様である。イベント関連基底成分抽出部360は、フレーム有区間内の重みwkの変化軌跡と、イベント解析部340で取得した波形情報342とを取得する。そして、比較処理361において、これらの変化軌跡と波形情報342との相互相関を取り、波形の類似性を比較する。
The
比較方法としては、イベント有区間内の波形のピーク位置と、波形情報342のピーク位置やゼロクロス点とを比較する。さらに、互いの波形をピーク時間で正規化して波形間の相互相関を求めることにより、イベント有区間の波形情報342の信号と類似したwkのプロファイルをもつ基底成分Fkをイベント関連基底成分とする方法を採用してもよい。 As a comparison method, the peak position of the waveform in the event existence section is compared with the peak position and zero cross point of the waveform information 342. Further, by normalizing each waveform with the peak time and obtaining the cross-correlation between the waveforms, the basis component F k having a profile of w k similar to the signal of the waveform information 342 in the event interval is determined as the event-related basis component. You may adopt the method of doing.
以上のように本実施形態によれば、微細な表情を適用した変形ベクトルを高精度にかつ簡単に生成することができる。 As described above, according to the present embodiment, a deformation vector to which a fine expression is applied can be easily generated with high accuracy.
(第3の実施形態)
第1および第2の実施形態では、イベントの時系列的な特徴を用いてイベント関連基底成分を抽出した。これに対して本実施形態では、イベントが顔のどのあたりで発生しているかを示す空間局在性を用いてイベント関連基底成分を抽出する方法について詳述する。
(Third embodiment)
In the first and second embodiments, event-related base components are extracted using time-series characteristics of events. In contrast, in the present embodiment, a method for extracting event-related base components using spatial localization indicating where an event has occurred is described in detail.
図5は、本実施形態における仮想モデル生成装置500の機能構成例を示すブロック図である。また、図6は、本実施形態におけるイベント検出に関連する時系列軌跡データの一例を示す模式図である。なお、基本的な構成は第1又は第2の実施形態と同様であるため、差異のある部分のみを詳述する。
FIG. 5 is a block diagram illustrating a functional configuration example of the virtual
イベント解析部540は、イベント検出部120にて検出されたイベントの時刻600から、イベント有区間となる領域情報541と、そのイベントが顔のどの付近で起きたものかを表す局所情報542とを取得する。本実施形態では、顔の中で最も変化しやすい口および眼に着目して説明する。図6に示す例では、イベント有区間610においては、眼領域軌跡620では変動が少なく、口領域軌跡630にて変化が起きていることを表している。
The
基底分解部550は、分解処理552において、式(1)に従ってイベント有区間610の基底分解を行う。ただし本実施形態においては、空間局在性を評価するために、非特許文献9に記載されているNMF(Non-Negative Matrix Factorization)を使用する。このようにNMFを用いることにより、基底成分を局所的な成分に分解することが可能となる。なお、本実施形態では、空間局在を示す基底分解法としてNMFを用いたが、これに限定するものではなく、ICAなど他の局所性を特徴とする手法であれば適用可能である。
In the
イベント関連基底成分抽出部560は、局所性評価処理561において、基底分解部550で抽出された基底成分の局所的な分布と、イベント解析部540により得られた局所情報542とを比較する。そして、局所情報542と同一の領域にある基底成分Fkをイベント関連基底成分として抽出する。こうすることにより、イベントが発生している局所領域に関連性の深い基底成分を抽出することが可能となる。本実施形態では、空間的局在性のみを用いてイベント関連基底成分を抽出したが、これに限定するものではなく、第1又は第2の実施形態で説明した時系列情報を用いたイベント関連基底成分の抽出方法を併用してもよい。
In the
以上のように本実施形態によれば、微細な表情を適用した変形ベクトルを高精度にかつ簡単に生成することができる。 As described above, according to the present embodiment, a deformation vector to which a fine expression is applied can be easily generated with high accuracy.
(第4の実施形態)
第1〜第3の実施形態では、イベントの特徴を用いてイベント関連基底成分を抽出し、CGの形状が変形した場合について説明した。これに対して本実施形態では、イベントに応じてCGの色(テクスチャ)が変動する場合について説明する。
(Fourth embodiment)
In the first to third embodiments, the case has been described where the event-related base component is extracted using the feature of the event and the shape of the CG is deformed. In contrast, in the present embodiment, a case where the color (texture) of CG varies according to an event will be described.
図7は、本実施形態における変動テクスチャ生成装置700の機能構成例を示すブロック図である。なお、基本的な構成は第3の実施形態で説明した図5の仮想モデル生成装置500と類似しているため、差異のある部分のみを詳述する。
FIG. 7 is a block diagram illustrating a functional configuration example of the variable
フレーム区間抽出部730は、イベント有区間抽出処理732において、イベント有区間を抽出する。このとき、第1〜第3の実施形態では、AAMなど形状のランドマークをベースにした特徴量を用いたのに対し、本実施形態では非特許文献10に記載された方法によりCG画像からUV展開したイベント有区間でのテクスチャマップを抽出する。同様に、イベント無区間抽出処理733において、CG画像からUV展開したイベント無区間でのテクスチャマップを抽出する。
The frame
基底分解部750は、分解処理752において、イベント無区間でのテクスチャマップと、イベント有区間でのテクスチャマップの差分とを用いて、式(1)に従ってNMFによる基底分解を行う。イベント関連基底成分抽出部760は、NMFの空間局在領域と、局所情報542とを比較して、イベント有区間で変化している情報を抽出することによって変動テクスチャマップを生成する。テクスチャマップ合成部770では、生成した変動テクスチャマップを元のテクスチャマップと合成し、イベントに応じて発生した変動を適用したテクスチャマップを生成する。CG生成部780はCGを合成して出力する。
In the
以上のように本実施形態によれば、微細な変動を適用したテクスチャマップを高精度にかつ簡単に生成することができる。 As described above, according to the present embodiment, a texture map to which minute fluctuations are applied can be easily generated with high accuracy.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
110 入力部
120 イベント検出部
130 フレーム区間抽出部
140 イベント解析部
150 基底分解部
160 イベント関連基底成分抽出部
170 変形ベクトル生成部
180 CG変形部
DESCRIPTION OF
Claims (9)
前記入力手段によって入力された時系列情報からイベントに関する変化点を検出するとともに、前記変化点の周囲の時系列情報からイベント情報を検出する検出手段と、
前記検出手段によって検出されたイベント情報に基づいて、前記イベントに関連する1つまたは複数のフレームの区間を前記時系列情報から取得するとともに、前記取得したフレームの区間に係る特徴量を取得する取得手段と、
前記取得手段によって取得された特徴量を1つまたは複数の基底成分に分解する分解手段と、
前記変化点の周囲における基底成分の変化に基づいて、前記分解手段によって分解された基底成分から前記イベントに関連する基底成分を抽出する抽出手段と、
前記抽出手段によって抽出された基底成分から仮想モデルの変動成分を生成する生成手段と、
を備えることを特徴とする画像認識装置。 An input means for inputting time-series information of the subject;
Detecting a change point related to the event from the time series information input by the input means, and detecting means for detecting event information from the time series information around the change point;
Based on the event information detected by the detection means, acquisition of one or a plurality of frame sections related to the event from the time-series information and acquisition of feature quantities related to the acquired frame sections Means,
Decomposition means for decomposing the feature quantity acquired by the acquisition means into one or more base components;
Extraction means for extracting a base component related to the event from the base component decomposed by the decomposition means based on a change in the base component around the change point;
Generating means for generating a fluctuation component of the virtual model from the base component extracted by the extracting means;
An image recognition apparatus comprising:
前記抽出手段は、前記検出手段によって検出された時系列な変動の情報に基づいて前記イベントに関連する基底成分を抽出することを特徴とする請求項1に記載の画像認識装置。 The detection means acquires, as the event information, time-series fluctuation information in a frame section around a change point related to the event,
The image recognition apparatus according to claim 1, wherein the extraction unit extracts a base component related to the event based on time-series fluctuation information detected by the detection unit.
前記抽出手段は、前記検出手段によって検出された局所情報に基づいて前記イベントに関連する基底成分を抽出することを特徴とする請求項1又は2に記載の画像認識装置。 The detection means detects, as the event information, local information regarding a position where the event occurs,
The image recognition apparatus according to claim 1, wherein the extraction unit extracts a base component related to the event based on local information detected by the detection unit.
前記入力工程において入力された時系列情報からイベントに関する変化点を検出するとともに、前記変化点の周囲の時系列情報からイベント情報を検出する検出工程と、
前記検出工程において検出されたイベント情報に基づいて、前記イベントに関連する1つまたは複数のフレームの区間を前記時系列情報から取得するとともに、前記取得したフレームの区間に係る特徴量を取得する取得工程と、
前記取得工程において取得された特徴量を1つまたは複数の基底成分に分解する分解工程と、
前記変化点の周囲における基底成分の変化に基づいて、前記分解工程において分解された基底成分から前記イベントに関連する基底成分を抽出する抽出工程と、
前記抽出工程において抽出された基底成分から仮想モデルの変動成分を生成する生成工程と、
を備えることを特徴とする画像認識方法。 An input process for inputting time-series information of the subject;
Detecting a change point related to an event from the time-series information input in the input step, and detecting event information from time-series information around the change point;
Acquiring one or a plurality of frame sections related to the event from the time-series information based on the event information detected in the detection step, and acquiring a feature amount related to the acquired frame section Process,
A decomposition step of decomposing the feature amount acquired in the acquisition step into one or a plurality of base components;
An extraction step of extracting a base component related to the event from the base component decomposed in the decomposition step based on a change of the base component around the change point;
A generation step of generating a fluctuation component of the virtual model from the base component extracted in the extraction step;
An image recognition method comprising:
前記入力工程において入力された時系列情報からイベントに関する変化点を検出するとともに、前記変化点の周囲の時系列情報からイベント情報を検出する検出工程と、
前記検出工程において検出されたイベント情報に基づいて、前記イベントに関連する1つまたは複数のフレームの区間を前記時系列情報から取得するとともに、前記取得したフレームの区間に係る特徴量を取得する取得工程と、
前記取得工程において取得された特徴量を1つまたは複数の基底成分に分解する分解工程と、
前記変化点の周囲における基底成分の変化に基づいて、前記分解工程において分解された基底成分から前記イベントに関連する基底成分を抽出する抽出工程と、
前記抽出工程において抽出された基底成分から仮想モデルの変動成分を生成する生成工程と、
をコンピュータに実行させることを特徴とするプログラム。 An input process for inputting time-series information of the subject;
Detecting a change point related to an event from the time-series information input in the input step, and detecting event information from time-series information around the change point;
Acquiring one or a plurality of frame sections related to the event from the time-series information based on the event information detected in the detection step, and acquiring a feature amount related to the acquired frame section Process,
A decomposition step of decomposing the feature amount acquired in the acquisition step into one or a plurality of base components;
An extraction step of extracting a base component related to the event from the base component decomposed in the decomposition step based on a change of the base component around the change point;
A generation step of generating a fluctuation component of the virtual model from the base component extracted in the extraction step;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014005274A JP6282121B2 (en) | 2014-01-15 | 2014-01-15 | Image recognition apparatus, image recognition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014005274A JP6282121B2 (en) | 2014-01-15 | 2014-01-15 | Image recognition apparatus, image recognition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015133065A JP2015133065A (en) | 2015-07-23 |
JP6282121B2 true JP6282121B2 (en) | 2018-02-21 |
Family
ID=53900188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014005274A Active JP6282121B2 (en) | 2014-01-15 | 2014-01-15 | Image recognition apparatus, image recognition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6282121B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023089747A1 (en) * | 2021-11-18 | 2023-05-25 | 日本電信電話株式会社 | Collection device, collection method, collection program, and collection system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194876A (en) * | 1998-12-25 | 2000-07-14 | Atr Media Integration & Communications Res Lab | Virtual space sharing device |
JP4101734B2 (en) * | 2003-11-04 | 2008-06-18 | 株式会社国際電気通信基礎技術研究所 | Facial expression estimation device, facial expression estimation method, and facial expression estimation program |
US9824296B2 (en) * | 2011-11-10 | 2017-11-21 | Canon Kabushiki Kaisha | Event detection apparatus and event detection method |
JP5818714B2 (en) * | 2012-02-20 | 2015-11-18 | 花王株式会社 | Makeup face image evaluation apparatus and makeup face image evaluation method |
-
2014
- 2014-01-15 JP JP2014005274A patent/JP6282121B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015133065A (en) | 2015-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4002198A1 (en) | Posture acquisition method and device, and key point coordinate positioning model training method and device | |
KR101994316B1 (en) | Device and method for object pose estimation | |
JP4950787B2 (en) | Image processing apparatus and method | |
JP7452016B2 (en) | Learning data generation program and learning data generation method | |
Murtaza et al. | Analysis of face recognition under varying facial expression: a survey. | |
Ko et al. | Development of a Facial Emotion Recognition Method based on combining AAM with DBN | |
CN105809144A (en) | Gesture recognition system and method adopting action segmentation | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
Slama et al. | Grassmannian representation of motion depth for 3D human gesture and action recognition | |
CN113449570A (en) | Image processing method and device | |
US11823394B2 (en) | Information processing apparatus and method for aligning captured image and object | |
Loconsole et al. | Real-time emotion recognition: an improved hybrid approach for classification performance | |
Kowalski et al. | Holoface: Augmenting human-to-human interactions on hololens | |
CN104794446A (en) | Human body action recognition method and system based on synthetic descriptors | |
Chan et al. | Human motion classification using 2D stick-model matching regression coefficients | |
JP2014013432A (en) | Featured value extraction device and featured value extraction method | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
US20230368409A1 (en) | Storage medium, model training method, and model training device | |
US20230046705A1 (en) | Storage medium, determination device, and determination method | |
JP6282121B2 (en) | Image recognition apparatus, image recognition method, and program | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
KR20200137129A (en) | Method and Apparatus for Detecting Object Using Relational Query | |
JP2015184743A (en) | Image processor and object recognition method | |
Hammouche et al. | Toward a real time view-invariant 3d action recognition | |
KR20130081126A (en) | Method for hand-gesture recognition and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6282121 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |