JP2011210027A - 画像処理装置および方法並びにプログラム - Google Patents

画像処理装置および方法並びにプログラム Download PDF

Info

Publication number
JP2011210027A
JP2011210027A JP2010077386A JP2010077386A JP2011210027A JP 2011210027 A JP2011210027 A JP 2011210027A JP 2010077386 A JP2010077386 A JP 2010077386A JP 2010077386 A JP2010077386 A JP 2010077386A JP 2011210027 A JP2011210027 A JP 2011210027A
Authority
JP
Japan
Prior art keywords
face
image
stereoscopic
distance
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010077386A
Other languages
English (en)
Other versions
JP4787905B1 (ja
Inventor
Masaya Tamaru
雅也 田丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010077386A priority Critical patent/JP4787905B1/ja
Priority to US13/051,527 priority patent/US8803875B2/en
Application granted granted Critical
Publication of JP4787905B1 publication Critical patent/JP4787905B1/ja
Publication of JP2011210027A publication Critical patent/JP2011210027A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】複数の人物が写っている立体視用画像について適切に立体感を調整できるようにする。
【解決手段】複数の顔を距離順に並べたとき、手前から奥に向けて1:2に内分する点Aが頂点となる立体感評価関数F1に基づいて各顔毎に立体感評価値rを決定し、立体感評価値rが最も高い顔を最も優先順位の高い顔として主要被写体を決定する。次いで、上記のように決定した主要被写体の視差が最も小さくなるように複数の画像に対して3次元処理を行って立体視用画像を生成する。
【選択図】図6

Description

本発明は、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理装置および方法並びに画像処理方法をコンピュータに実行させるためのプログラムに関するものである。
同一の被写体を異なる位置から撮影することにより取得した複数の画像を組み合わせて立体視用画像を生成し、生成した立体視用画像を立体視表示することにより、視差を利用して立体視できることが知られている。立体視表示の具体的な手法として、複数の画像を並べて配置して立体視表示を行う裸眼平衡法が知られている。また、複数の画像の色を例えば赤と青のように異ならせて重ね合わせたり、複数の画像の偏光方向を異ならせて重ね合わせることにより、複数の画像を合成して立体視用画像を生成することによっても立体視表示を行うことができる。この場合赤青メガネや偏光メガネ等の画像分離メガネを用いて、立体視表示された立体視用画像を融合視することにより、立体視を行うことができる(アナグリフ方式、偏光フィルタ方式)。
また、偏光メガネ等を使用しなくても、パララックスバリア方式およびレンチキュラー方式のように、複数の画像を立体視可能な立体視表示モニタに表示して立体視することも可能である。この場合、複数の画像を垂直方向に短冊状に切り取って交互に配置することにより立体視用画像を生成して、立体視表示が行われる。また、画像分離メガネを使用したり、光学素子を液晶に貼ることで左右の画像の光線方向を変えながら、左右の画像を交互に高速で切り替えて表示することにより、残像効果によって立体視表示を行う方式も提案されている(スキャンバックライト方式)。
このように立体視を行う場合、立体感を適切に調整する必要があるため、立体視表示された立体視用画像の視差量の調整の指示を受け付け、指示された視差量に応じて立体視用画像を生成する手法が提案されている(特許文献1参照)。また、表示された立体視用画像を立体視しながら立体感を調整して立体視用画像を生成する手法も提案されている(特許文献2参照)。また、ゲームにおいて立体感を調整する手法も提案されている(特許文献3参照)。
特開2004−129186号公報 特開平10−90814号公報 特開平9−192349号公報
上記のような立体感の調整は、具体的には視線の交差位置であるクロスポイントを主要被写体に合せることで行なわれる。
画像中に人物が映っている場合、その人物の顔の位置をクロスポイントとして設定することにより、好ましい立体感の画像を得ることができるが、画像中に複数の人物が映っている場合には、最も手前の人物の顔にクロスポイントを合せると、他の人物の顔が全て奥に引っ込んで立体感の乏しい画像となってしまい、逆に最も奥の人物の顔にクロスポイントを合せると、他の人物の顔が全て手前に飛び出して視覚疲労や不快感を生じる画像となってしまうという問題がある。
本発明は上記事情に鑑みなされたものであり、複数の人物が写っている立体視用画像について適切に立体感を調整できるようにすることを目的とする。
本発明の第1の画像処理装置は、複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理装置であって、画像中の顔を検出する顔検出手段と、各顔毎に、複数の画像間の視差量に基づいて奥行き方向の距離を算出する距離算出手段と、複数の顔を距離順に並べたとき、中間距離にある顔を最も優先順位の高い顔として、主要被写体を決定する主要被写体決定手段と、主要被写体の視差が最も小さくなるように、複数の画像に対して3次元処理を行って立体視用画像を生成する3次元処理手段とを備えたことを特徴とするものである。
最適な立体感を得るために必要な要件としては、「(1):主要被写体より手前に飛び出した被写体が存在すること」、「(2):主要被写体より奥に引っ込んだ被写体が存在すること」等が挙げられる。これらを実現するためには、複数の顔を距離順に並べたとき、中間距離にある顔を最も優先順位の高い顔として、主要被写体を決定すればよい。
ここで、中間距離にある顔、すなわち優先順位を最も高くする顔は、複数の顔を距離順に並べたとき、手前から奥に向けて1:2に内分する点に最も近い顔とすることが好ましい。
その根拠について図20を用いて説明する。図20は3Dコンソーシアムが定めた立体映像に関する安全ガイドライン「GL−12:快適に見られる奥行き範囲を超えてコンテンツを表示しないこと」に示される立体視可能範囲である。なお図20中の数値の単位はcmである。
このガイドラインに従えば、立体視可能な範囲について、手前側の飛び出し量(図20の表示面ISより右側)は、奥側の引っ込み量(図20の表示面ISより左側)に比べて抑える必要があるとしている。この範囲を超える視差を残すようなクロスポイント調整を行えば、視覚疲労や不快感が生じる可能性がある。
従って、クロスポイントとなる主要被写体は、少なくとも最も手前の被写体と最も奥の被写体の中心よりも手前にすべきであり、この目安として手前から奥に向けて概ね1:2に内分する点に最も近い被写体とすることが望ましいと言える。もちろんこれは1:2に限定するものではなく、表示システムや観察者の視距離によっても変わり得るが、重要なことは中心よりも手前に位置する被写体を主要被写体として設定することである。
従って、画像中において顔が2つのみ検出された場合には、2つの顔を距離順に並べたとき、手前側の顔を主要被写体として決定することが好ましい。
また、主要被写体決定手段は、優先順位を調整する優先順位調整手段を備えたものとすることが好ましい。
この場合、優先順位調整手段は、表示手段の特性、各顔の信頼度、各顔の大きさ、各顔の表情、各顔の下部領域の色、各顔の下部領域の所定範囲内における肌色の割合の少なくとも1つに基づいて優先順位を調整するものとすることが好ましい。
本発明の第2の画像処理装置は、複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理装置であって、画像中の顔を検出する顔検出手段と、画像の各画素毎に、複数の画像間の視差量に基づいて奥行き方向の距離を算出する距離算出手段と、各画素を距離順に並べたとき、中間距離にある画素に最も近い顔を最も優先順位の高い顔として、主要被写体を決定する主要被写体決定手段と、主要被写体の視差が最も小さくなるように、複数の画像に対して3次元処理を行って立体視用画像を生成する3次元処理手段とを備えたことを特徴とするものである。
ここで、中間距離にある画素、すなわち優先順位を最も高くする顔を決めるための基準となる画素は、各画素を距離順に並べたとき、手前から奥に向けて1:2に内分する点の画素とすることが好ましい。
従って、画像中において顔が2つのみ検出された場合には、2つの顔を距離順に並べたとき、手前側の顔を主要被写体として決定することが好ましい。
本発明の第2の画像処理装置は、上記第1の画像処理装置と比較して、奥行き方向の距離が人物同士の中で中間付近にある人物の顔ではなく、画像全体の中で中間付近にある人物の顔を主要被写体として立体感を調整するようにした点が異なるだけであり、その利点の根拠は上記第1の画像処理装置での説明と同様である。
また、主要被写体決定手段は、優先順位を調整する優先順位調整手段を備えたものとすることが好ましい。
この場合、優先順位調整手段は、表示手段の特性、各顔の信頼度、各顔の大きさ、各顔の表情、各顔の下部領域の色、各顔の下部領域の所定範囲内における肌色の割合の少なくとも1つに基づいて優先順位を調整するものとすることが好ましい。
本発明の第1の画像処理方法は、複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理方法であって、画像中の顔を検出し、各顔毎に、複数の画像間の視差量に基づいて奥行き方向の距離を算出し、複数の顔を距離順に並べたとき、中間距離にある顔を最も優先順位の高い顔として、主要被写体を決定し、主要被写体の視差が最も小さくなるように、複数の画像に対して前記3次元処理を行って立体視用画像を生成することを特徴とする方法である。
本発明の第2の画像処理方法は、複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理方法であって、画像中の顔を検出し、画像の各画素毎に、複数の画像間の視差量に基づいて奥行き方向の距離を算出し、各画素を距離順に並べたとき、中間距離にある画素に最も近い顔を最も優先順位の高い顔として、主要被写体を決定し、主要被写体の視差が最も小さくなるように、複数の画像に対して3次元処理を行って立体視用画像を生成することを特徴とする方法である。
なお、本発明による第1および第2の画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、複数の人物が写っている立体視用画像について、奥行き方向の距離が人物同士の中で中間付近にある人物の顔、もしくは画像全体の中で中間付近にある人物の顔を主要被写体として立体感を調整するようにしたので、立体感に富みつつ視覚疲労や不快感を生じない適切な立体視用画像を得ることができる。
ここで、主要被写体を、奥行き方向の距離が人物同士の中で手前から奥に向けて1:2に内分する点に最も近い顔、もしくは画像全体の中で手前から奥に向けて1:2に内分する点の画素に最も近い顔とすることで、より適切な立体視用画像を得ることができる。
なお、画像中において顔が2つのみ検出された場合には、2つの顔を距離順に並べたとき、手前側の顔を主要被写体として決定することにより、同様の効果を得ることができる。
また、主要被写体を決定する上で、優先順位を調整可能にすることで、より柔軟な調整を行なうことができる。
この場合、表示手段の特性、各顔の信頼度、各顔の大きさ、各顔の表情、各顔の下部領域の色、各顔の下部領域の所定範囲内における肌色の割合の少なくとも1つに基づいて優先順位を調整することで、これらの条件を考慮したより適切な立体視用画像を得ることができる。
本発明の第1の実施の形態による画像処理装置の外観構成を示す斜視図 第1の実施の形態による画像処理装置の内部構成を示す概略ブロック図 第1の実施の形態において立体感の調整時に行われる処理を示すフローチャート 左右画像間の視差量を説明するための図(その1) 表示画像の一例を示す図(その1) 立体感評価値を示す図(その1) 表示手段毎に異なる立体感評価値とした場合の図 顔の信頼度に基づいて優先度を調整する場合の説明図 表示画像の一例を示す図(その2) 顔の大きさに基づいて優先度を調整する場合の説明図 表示画像の一例を示す図(その3) 顔の表情に基づいて優先度を調整する場合の説明図 表示画像の一例を示す図(その4) 服の彩度に基づいて優先度を調整する場合の説明図 肌の露出度に基づいて優先度を調整する場合の説明図 第2の実施の形態において立体感の調整時に行われる処理を示すフローチャート 左右画像間の視差量を説明するための図(その2) 立体感評価値を示す図(その2) その他の態様において立体感の調整時に行われる処理を示すフローチャート 3Dコンソーシアムが定めた立体映像に関する安全ガイドラインに示される立体視可能範囲を示す図
以下、図面を参照して本発明の実施の形態について説明する。図1は本発明の第1の実施の形態による画像処理装置の外観構成を示す斜視図、図2は第1の実施の形態による画像処理装置の内部構成を示す概略ブロック図である。
図1に示すように第1の実施の形態による画像処理装置1は、正面に液晶ディスプレイ(LCD)2および操作ボタン3を備える。また、側面にはメモリカード等の記録メディア4を挿入するスロット5を備える。そして、第1の実施の形態による画像処理装置1は、記録メディア4に記録された、互いに異なる位置において撮影を行うことにより取得した複数の画像から生成された立体視用画像を、LCD2に立体視表示するものである。なお、本実施の形態においては、2つの画像GL、GRを用いて立体視表示を行うものとして説明する。また、画像GLは立体視表示する際の左目用の画像、画像GRは右目用の画像とする。
操作ボタン3は、上ボタン3U、下ボタン3D、左ボタン3L、右ボタン3Rおよび中央ボタン3Cを備える。
図2に示すように、画像処理装置1は、記録制御部21、圧縮/伸長処理部22、フレームメモリ23、内部メモリ24、画像処理部25、表示制御部26およびCPU27を備える。
記録制御部21は、スロット5に挿入された記録メディア4に対する情報の記録および読み出しの制御を行う。
圧縮/伸長処理部22は、記録メディア4から読み出した立体視表示を行うための2つの画像GL,GRの圧縮および解凍の処理を行う。画像GL、GRの画像ファイルには、Exifフォーマット等に基づいて、後述する立体感調整値および撮影日時等の付帯情報が格納されたタグが付与される。
フレームメモリ23は、画像GL、GRを表す画像データに対して、後述する3次元処理を含む各種処理を行う際に使用する作業用メモリである。
内部メモリ24は、画像処理装置1において設定される各種定数、およびCPU27が実行するプログラム等を記憶する。
画像処理部25は、画像GL、GRをLCD2に立体視表示させるために、画像GL、GRに3次元処理を行って立体視用画像を生成する。ここで、本実施の形態における立体視表示の方式としては、公知の任意の方式を用いることができる。例えば、画像GL、GRを並べて表示して裸眼平衡法により立体視を行う方式、またはLCD2にレンチキュラーレンズを貼り付け、LCD2の表示面の所定位置に画像GL、GRを表示することにより、左右の目に画像GL、GRをそれぞれ入射させて立体視表示を実現するレンチキュラー方式を用いることができる。また、LCD2に左右の目への光路を変更するバリアを貼り付け、LCD2の表示面の所定位置に画像GL、GRを表示することにより、左右の目に画像GL、GRをそれぞれ入射させて立体視表示を実現するパララックスバリア方式を用いることができる。
また、画像GL、GRの色を例えば赤と青のように異ならせて重ね合わせたり、画像GL、GRの偏光方向を異ならせて重ね合わせることにより、画像GL、GRを合成して立体視表示を実現する方式(アナグリフ方式、偏光フィルタ方式)を用いることができる。さらに、LCD2のバックライトの光路を光学的に左右の目に対応するように交互に分離し、LCD2の表示面に画像GL、GRをバックライトの左右への分離にあわせて交互に表示することにより、立体視表示を実現するスキャンバックライト方式を用いることができる。
なお、LCD2は画像処理部25が行う3次元処理の方式に応じた加工がなされている。例えば、立体視表示の方式がレンチキュラー方式の場合には、LCD2の表示面にレンチキュラーレンズが取り付けられており、パララックスバリア方式の場合には、LCD2の表面にバリアが取り付けられている。また、スキャンバックライト方式の場合には、左右の画像の光線方向を変えるための光学素子がLCD2の表示面に取り付けられている。
また、画像処理部25は、画像中の顔を検出する顔検出手段、各顔毎に複数の画像間の視差量に基づいて奥行き方向の距離を算出する距離算出手段、複数の顔を距離順に並べたとき中間距離にある顔を最も優先順位の高い顔として主要被写体を決定する主要被写体決定手段、および主要被写体の視差が最も小さくなるように複数の画像に対して3次元処理を行って立体視用画像を生成する3次元処理手段としての機能を有する他、必要に応じて画像GL、GRに対してホワイトバランスを調整する処理、階調補正、シャープネス補正、および色補正等の画像処理を施すことも可能である。
表示制御部26は、3次元処理により取得される立体視用画像を立体視表示したり、画像GL、GRを2次元表示したりする。
CPU27は、操作ボタン3からの指示に応じて画像処理装置1の各部を制御する。
データバス28は、画像処理装置1を構成する各部およびCPU27に接続されており、画像処理装置1における各種データおよび各種情報のやり取りを行う。
次に、第1の実施の形態において行われる処理について説明する。図3は第1の実施の形態において立体感の調整時に行われる処理を示すフローチャート、図4は左右画像間の視差量を説明するための図(その1)、図5は表示画像の一例を示す図(その1)、図6は立体感評価値を示す図(その1)である。
第1の実施の形態による画像処理装置1は、複数の人物が写っている立体視用画像について、奥行き方向の距離が人物同士の中で中間付近にある人物の顔を主要被写体として立体感を調整するようにしたものである。なお、ここでは立体視表示の方式としてレンチキュラー方式を採用した場合について説明する。
立体視用画像を生成するための2つの画像GL、GRは、同一の被写体を異なる位置において撮影することにより取得されたものであるため、画像GL、GRを重ねた場合、画像GL、GRに含まれる被写体はあらかじめ定められた視差量を持っており、まず、図4に示すように、画像GL、GRに基づいて視差マップPMの作成を行なう(ステップS1)。この視差マップPMは、画像GL、GRのうちの一方を基準として、各画素毎の視差量を輝度で示したものである。本実施の形態では、左画像GLを基準画像とし、視差量が大きい程高輝度で表示しているが、この態様に限定されるものではない。
次いで、図5に示すように、基準画像とした左画像GL中において顔の検出を行ない(ステップS2)、各顔の代表視差の算出を行なう(ステップS3)。なお、画像中の顔の検出方法についてはどのような方法を用いてもよい。また、各顔の代表視差については、顔の中心位置や瞳の位置等どの位置を基準としてもよい。また、各顔の代表視差については、視差マップPMを参照して顔領域の視差の平均値を代表視差としてもよいし、顔の中心位置や瞳の位置等の任意の位置の視差量を代表視差としてもよい。
次いで、図6に示すように、複数の顔を距離順に並べたとき、手前から奥に向けて1:2に内分する点Aが頂点となる立体感評価関数F1に基づいて各顔毎に立体感評価値rを決定し(ステップS4)、立体感評価値rが最も高い顔を最も優先順位の高い顔として主要被写体を決定する(ステップS5)。
ここで、立体感評価値rの調整を行なわない場合には、立体感評価値rが最も高い顔2が主要被写体として決定されるのだが、各種の条件に基づいて各顔毎の立体感評価値rの調整を行なうようにしてもよい。以下、その条件について説明する。
例えば、表示手段の特性に基づいて立体感評価値rの調整を行なうようにしてもよい。図7は表示手段毎に異なる立体感評価値とした場合の図である。
LCD2(表示手段)の構成によって立体視の見え方は異なる。例えばレンチキュラーレンズが取り付けられたものの場合、レンチキュラーレンズのクロストーク特性によって立体視の見え方が異なる。クロストークが少ない場合には左右画像の視差が多少残っていてもクロスポイントがあっているように見えるため、この場合は、図7に示すように、頂点の位置は変えないものの他の部分の立体感評価値rが高い別の立体感評価関数F1aやF1bに変更する。その結果、後述の他の調整を組み合わせた場合に、各顔毎の優先順位が入れ替わり易くなる。
なお、レンチキュラーレンズが取り付けられたもの以外の場合であっても、その表示手段の特性を考慮して、立体感評価関数を変更すればよい。
また、各顔の信頼度に基づいて立体感評価値rの調整を行なうようにしてもよい。図8は顔の信頼度に基づいて優先度を調整する場合の説明図である。
顔の信頼度とは、画像から検出された顔が本当に顔であるかの信憑性を測る度合であって、図8に示すように、顔の信頼度が高い程、顔優先度k1の値を大きくする。なお、顔の信憑性を測る方法については、既に種々の方法が提案されており、どのような方法を用いてもよい。これにより顔の誤判別の影響を小さくすることができる。この顔優先度k1は、各顔毎に立体感評価値rに乗算する係数であって、0より大きい値を有する。最終的な立体感評価値rfは式(1)に基づいて算出され、立体感評価値rfが最も高い顔を最も優先順位の高い顔として主要被写体を決定する
rf=r×k1 (1)
また、各顔の大きさに基づいて立体感評価値rの調整を行なうようにしてもよい。図9は表示画像の一例を示す図(その2)、図10は顔の大きさに基づいて優先度を調整する場合の説明図である。
図9に示すように、画像中の顔の大きさが小さい程、図10に示すように、顔優先度k2の値を大きくする。これは、一般には子供を主役として画像の撮影を行なうことが多く、顔の大きさが小さい程子供の可能性が高いため、上記の態様とすることにより適切に主要被写体を選択できるようになるからである。この顔優先度k2は、各顔毎に立体感評価値rに乗算する係数であって、0より大きい値を有する。最終的な立体感評価値rfは式(2)に基づいて算出され、立体感評価値rfが最も高い顔を最も優先順位の高い顔として主要被写体を決定する
rf=r×k2 (2)
なお、上記とは逆に画像中の顔の大きさが大きい程、顔優先度k2の値を大きくするようにしてもかまわない。
また、各顔の表情に基づいて立体感評価値rの調整を行なうようにしてもよい。図11は表示画像の一例を示す図(その3)、図12は顔の表情に基づいて優先度を調整する場合の説明図である。
図11に示すように、画像中の顔の表情が笑顔である程、図12に示すように、顔優先度k3の値を大きくする。なお、顔の表情を判断する方法については、既に種々の方法が提案されており、どのような方法を用いてもよい。これは、一般には笑顔で写っている人を主要被写体とした方が好ましいため、上記の態様とすることにより適切に主要被写体を選択できるようになるからである。この顔優先度k3は、各顔毎に立体感評価値rに乗算する係数であって、0より大きい値を有する。最終的な立体感評価値rfは式(3)に基づいて算出され、立体感評価値rfが最も高い顔を最も優先順位の高い顔として主要被写体を決定する
rf=r×k3 (3)
なお、笑顔以外にも怒った表情等他の表情に基づいて顔優先度k3の値を調整するようにしてもかまわない。
また、各顔の下部領域の色に基づいて立体感評価値rの調整を行なうようにしてもよい。図13は表示画像の一例を示す図(その4)、図14は服の彩度に基づいて優先度を調整する場合の説明図である。
図13に示すように、画像中の顔の下部領域、すなわち人物の服装部分である可能性が高い領域の色の彩度が高い程、図14に示すように、顔優先度k4の値を大きくする。これは、例えば結婚式等のパーティーでは鮮やか色の服装をした人物が主役であることが多く、服装の色の彩度が高い程主役の可能性が高いため、上記の態様とすることにより適切に主要被写体を選択できるようになるからである。この顔優先度k4は、各顔毎に立体感評価値rに乗算する係数であって、0より大きい値を有する。最終的な立体感評価値rfは式(4)に基づいて算出され、立体感評価値rfが最も高い顔を最も優先順位の高い顔として主要被写体を決定する
rf=r×k4 (4)
なお、上記とは逆に画像中の顔の下部領域の色の彩度が低い程、顔優先度k4の値を大きくするようにしてもかまわない。
また、各顔の下部領域の所定範囲内における肌色の割合に基づいて立体感評価値rの調整を行なうようにしてもよい。図13は表示画像の一例を示す図(その4)、図15は肌の露出度に基づいて優先度を調整する場合の説明図である。
図13に示すように、画像中の顔の下部領域、すなわち人物の服装部分である可能性が高い領域の所定範囲内における肌色の割合が多い程、図15に示すように、顔優先度k5の値を大きくする。これは、例えば結婚式等のパーティーでは肌の露出が多い服装をした人物が主役であることが多く、顔の下部領域の所定範囲内における肌色の割合が多い程主役の可能性が高いため、上記の態様とすることにより適切に主要被写体を選択できるようになるからである。この顔優先度k5は、各顔毎に立体感評価値rに乗算する係数であって、0より大きい値を有する。最終的な立体感評価値rfは式(5)に基づいて算出され、立体感評価値rfが最も高い顔を最も優先順位の高い顔として主要被写体を決定する
rf=r×k5 (5)
なお、上記とは逆に顔の下部領域の所定範囲内における肌色の割合が少ない程、顔優先度k5の値を大きくするようにしてもかまわない。
以上の調整を、1つもしくは複数組み合わせて主要被写体を決定することによって、ユーザのニーズに沿ったより適切な立体視用画像を得ることができる。仮に以上の調整を全て組み合わせた場合には、最終的な立体感評価値rfは式(6)に基づいて算出される。
rf=r×k1×k2×k3×k4×k5 (6)
次いで、上記のように決定した主要被写体の視差が最も小さくなるように複数の画像に対して3次元処理を行って立体視用画像を生成する(ステップS6)。
本実施の形態では立体視表示の方式としてレンチキュラー方式を採用しているため、3次元処理の具体的な内容としては、LCD2上で画像GL、GRの主要被写体の表示位置が同じ位置となるように画像GL、GRの水平方向の座標を変更すればよい。なお、立体視表示の方式としてレンチキュラー方式以外の方式を採用した場合には、主要被写体がクロスポイントとなるように、各方式に合せて適宜処理を変更すればよい。
最後に、上記の様にして生成した立体視用画像をLCD2上に表示して処理を終了する。
上記の構成とすることにより、人物のみを主体として撮影された画像の場合に、立体感に富みつつ視覚疲労や不快感を生じない適切な立体視用画像を得ることができる。
次いで、本発明の第2の実施の形態について説明する。なお、第2の実施の形態による画像処理装置は、第1の実施の形態による画像処理装置と同一の構成を有し、行われる処理のみが異なるため、ここでは構成についての詳細な説明は省略する。図16は第2の実施の形態において立体感の調整時に行われる処理を示すフローチャート、図17は左右画像間の視差量を説明するための図(その2)、図18は立体感評価値を示す図(その2)である。
本実施の形態による画像処理装置は、複数の人物が写っている立体視用画像について、画像全体の中で中間付近にある人物の顔を主要被写体として立体感を調整するようにしたものである。なお、ここでは立体視表示の方式としてレンチキュラー方式を採用した場合について説明する。
立体視用画像を生成するための2つの画像GL、GRは、同一の被写体を異なる位置において撮影することにより取得されたものであるため、画像GL、GRを重ねた場合、画像GL、GRに含まれる被写体はあらかじめ定められた視差量を持っており、まず、図17に示すように、画像GL、GRに基づいて視差マップPMの作成を行なう(ステップS11)。この視差マップPMは、画像GL、GRのうちの一方を基準として、各画素毎の視差量を輝度で示したものである。本実施の形態では、左画像GLを基準画像とし、視差量が大きい程高輝度で表示しているが、この態様に限定されるものではない。
次いで、基準画像とした左画像GL中において顔の検出を行ない(ステップS12)、各顔の代表視差の算出を行なう(ステップS13)。なお、画像中の顔の検出方法についてはどのような方法を用いてもよい。また、各顔の代表視差については、顔の中心位置や瞳の位置等どの位置を基準としてもよい。
次いで、図18に示すように、各画素を距離順に並べたとき、手前から奥に向けて1:2に内分する点Bが頂点となる立体感評価関数F2に基づいて各顔毎に立体感評価値rを決定し(ステップS14)、立体感評価値rが最も高い顔を最も優先順位の高い顔として主要被写体を決定する(ステップS15)。
ここで、立体感評価値rの調整を行なわない場合には、立体感評価値rが最も高い顔2が主要被写体として決定されるのだが、上記第1の実施の形態と同様に、各種の条件に基づいて各顔毎の立体感評価値rの調整を行なうようにしてもよい。
次いで、上記のように決定した主要被写体の視差が最も小さくなるように複数の画像に対して3次元処理を行って立体視用画像を生成する(ステップS16)。
本実施の形態では立体視表示の方式としてレンチキュラー方式を採用しているため、3次元処理の具体的な内容としては、LCD2上で画像GL、GRの主要被写体の表示位置が同じ位置となるように画像GL、GRの水平方向の座標を変更すればよい。なお、立体視表示の方式としてレンチキュラー方式以外の方式を採用した場合には、主要被写体がクロスポイントとなるように、各方式に合せて適宜処理を変更すればよい。
最後に、上記の様にして生成した立体視用画像をLCD2上に表示して処理を終了する。
上記の構成とすることにより、風景まで含めた全体が撮影された画像の場合に、立体感に富みつつ視覚疲労や不快感を生じない適切な立体視用画像を得ることができる。
なお、第1の実施の形態における処理と第2の実施の形態における処理とを切り替え可能に構成することもできる。そのような態様とした場合において行われる処理について説明する。図19はこの場合の立体感の調整時に行われる処理を示すフローチャートである。
まず、視差マップの作成を行ない(ステップS21)、次いで基準画像中において顔の検出を行ない(ステップS22)、各顔の代表視差の算出を行なう(ステップS23)。
次いで、撮影画像についてのモード種別の取得を行なう(ステップS24)。このモード種別とは、立体視用画像を生成するための画像が、人物のみを主体として撮影されたものか風景まで含めた全体が撮影されたものかを判断するための情報であって、撮影を行なったカメラにおいて、撮影を行なった際の撮影モード(例えば人物/風景)の情報を画像のデータに添付するようにしてもよいし、本発明の画像処理装置において、ユーザに手動入力により選択させるようにしてもよい。
そして、モード種別の判定を行い(ステップS25)、風景を含むモードである場合には、図18に示すように、各画素を距離順に並べたとき、手前から奥に向けて1:2に内分する点Bが頂点となる立体感評価関数F2に基づいて各顔毎に立体感評価値rを決定し(ステップS26)、立体感評価値rが最も高い顔を最も優先順位の高い顔として主要被写体を決定する(ステップS27)。また、人物のみを主体としたモードである場合には、図6に示すように、複数の顔を距離順に並べたとき、手前から奥に向けて1:2に内分する点Aが頂点となる立体感評価関数F1に基づいて各顔毎に立体感評価値rを決定し(ステップS29)、立体感評価値rが最も高い顔を最も優先順位の高い顔として主要被写体を決定する(ステップS27)。
ここで、立体感評価値rの調整を行なわない場合には、立体感評価値rが最も高い顔2が主要被写体として決定されるのだが、上記第1および第2の実施の形態と同様に、各種の条件に基づいて各顔毎の立体感評価値rの調整を行なうようにしてもよい。
次いで、上記のように決定した主要被写体の視差が最も小さくなるように複数の画像に対して3次元処理を行って立体視用画像を生成し(ステップS28)、最後に上記の様にして生成した立体視用画像をLCD2上に表示して処理を終了する。
上記の構成とすることにより、画像の内容に応じて最適な処理を選択できるため、より適切な立体視用画像を得ることができる。
また、上記第1および第2の実施の形態による画像処理装置1を、複数の撮影部を備えた複眼撮影装置に適用してもよい。この場合、撮影により取得した複数の画像を直ちに表示して、立体感の調整を行って記録メディア4に記録することが可能となる。
以上、本発明の実施の形態に係る装置10について説明したが、コンピュータを、画像処理部25、記録制御部21および表示制御部26に対応する手段として機能させ、図3、図16および図19に示すような処理を行わせるプログラムも、本発明の実施の形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施の形態の1つである。
1 画像処理装置
2 LCD
3 操作ボタン
4 記録メディア
5 スロット
21 記録制御部
25 画像処理部
26 表示制御部

Claims (14)

  1. 複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理装置であって、
    前記画像中の顔を検出する顔検出手段と、
    各顔毎に、前記複数の画像間の視差量に基づいて奥行き方向の距離を算出する距離算出手段と、
    前記複数の顔を前記距離順に並べたとき、中間距離にある顔を最も優先順位の高い顔として、主要被写体を決定する主要被写体決定手段と、
    前記主要被写体の視差が最も小さくなるように、前記複数の画像に対して前記3次元処理を行って立体視用画像を生成する3次元処理手段とを備えたことを特徴とする画像処理装置。
  2. 前記中間距離にある顔が、前記複数の顔を前記距離順に並べたとき、手前から奥に向けて1:2に内分する点に最も近い顔であることを特徴とする請求項1記載の画像処理装置。
  3. 前記主要被写体決定手段が、前記画像中において顔が2つ検出された場合に、該2つの顔を前記距離順に並べたとき、手前側の顔を前記主要被写体として決定するものであることを特徴とする請求項1または2記載の画像処理装置。
  4. 前記主要被写体決定手段が、前記優先順位を調整する優先順位調整手段を備えたものであることを特徴とする請求項1から3のいずれか1項記載の画像処理装置。
  5. 前記優先順位調整手段が、前記表示手段の特性、各顔の信頼度、各顔の大きさ、各顔の表情、各顔の下部領域の色、各顔の下部領域の所定範囲内における肌色の割合の少なくとも1つに基づいて前記優先順位を調整するものであることを特徴とする請求項4記載の画像処理装置。
  6. 複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理装置であって、
    前記画像中の顔を検出する顔検出手段と、
    前記画像の各画素毎に、前記複数の画像間の視差量に基づいて奥行き方向の距離を算出する距離算出手段と、
    前記各画素を前記距離順に並べたとき、中間距離にある画素に最も近い顔を最も優先順位の高い顔として、主要被写体を決定する主要被写体決定手段と、
    前記主要被写体の視差が最も小さくなるように、前記複数の画像に対して前記3次元処理を行って立体視用画像を生成する3次元処理手段とを備えたことを特徴とする画像処理装置。
  7. 前記中間距離にある画素が、前記各画素を前記距離順に並べたとき、手前から奥に向けて1:2に内分する点の画素であることを特徴とする請求項5記載の画像処理装置。
  8. 前記主要被写体決定手段が、前記画像中において顔が2つ検出された場合に、該2つの顔を前記距離順に並べたとき、手前側の顔を前記主要被写体として決定するものであることを特徴とする請求項6または7記載の画像処理装置。
  9. 前記主要被写体決定手段が、前記優先順位を調整する優先順位調整手段を備えたものであることを特徴とする請求項6から8のいずれか1項記載の画像処理装置。
  10. 前記優先順位調整手段が、前記表示手段の特性、各顔の信頼度、各顔の大きさ、各顔の表情、各顔の下部領域の色、各顔の下部領域の所定範囲内における肌色の割合の少なくとも1つに基づいて前記優先順位を調整するものであることを特徴とする請求項9記載の画像処理装置。
  11. 複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理方法であって、
    前記画像中の顔を検出し、
    各顔毎に、前記複数の画像間の視差量に基づいて奥行き方向の距離を算出し、
    前記複数の顔を前記距離順に並べたとき、中間距離にある顔を最も優先順位の高い顔として、主要被写体を決定し、
    前記主要被写体の視差が最も小さくなるように、前記複数の画像に対して前記3次元処理を行って立体視用画像を生成することを特徴とする画像処理方法。
  12. 複数の顔が撮影された、視点が異なる複数の画像に対して立体視表示のための3次元処理を行って、立体視表示用の表示手段に立体視表示される立体視用画像を生成する画像処理方法であって、
    前記画像中の顔を検出し、
    前記画像の各画素毎に、前記複数の画像間の視差量に基づいて奥行き方向の距離を算出し、
    前記各画素を前記距離順に並べたとき、中間距離にある画素に最も近い顔を最も優先順位の高い顔として、主要被写体を決定し、
    前記主要被写体の視差が最も小さくなるように、前記複数の画像に対して前記3次元処理を行って立体視用画像を生成することを特徴とする画像処理方法。
  13. 請求項11に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  14. 請求項12に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2010077386A 2010-03-30 2010-03-30 画像処理装置および方法並びにプログラム Expired - Fee Related JP4787905B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010077386A JP4787905B1 (ja) 2010-03-30 2010-03-30 画像処理装置および方法並びにプログラム
US13/051,527 US8803875B2 (en) 2010-03-30 2011-03-18 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010077386A JP4787905B1 (ja) 2010-03-30 2010-03-30 画像処理装置および方法並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011156784A Division JP2011211754A (ja) 2011-07-15 2011-07-15 画像処理装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP4787905B1 JP4787905B1 (ja) 2011-10-05
JP2011210027A true JP2011210027A (ja) 2011-10-20

Family

ID=44709099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010077386A Expired - Fee Related JP4787905B1 (ja) 2010-03-30 2010-03-30 画像処理装置および方法並びにプログラム

Country Status (2)

Country Link
US (1) US8803875B2 (ja)
JP (1) JP4787905B1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8570429B2 (en) * 2009-02-27 2013-10-29 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP5741821B2 (ja) * 2011-03-24 2015-07-01 コニカミノルタ株式会社 データ加工送信装置およびデータ加工送信プログラム、方法
JP2013118468A (ja) * 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
CN102722044B (zh) * 2012-06-07 2015-05-20 深圳市华星光电技术有限公司 立体显示***
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US9685194B2 (en) 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US9734870B2 (en) 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
US9639560B1 (en) 2015-10-22 2017-05-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
CA3086592A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200508A (ja) * 1996-01-16 1997-07-31 Olympus Optical Co Ltd 画像処理装置
JP2002051255A (ja) * 2000-07-31 2002-02-15 Olympus Optical Co Ltd 主要被写体検出カメラ
JP2005086682A (ja) * 2003-09-10 2005-03-31 Omron Corp 対象決定装置
JP2009081869A (ja) * 2008-10-27 2009-04-16 Fujifilm Corp 画像出力装置及び画像出力方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3525970B2 (ja) 1996-01-19 2004-05-10 株式会社タイトー 立体視を体験できるゲーム機の視差調節装置
JP3595634B2 (ja) 1996-09-11 2004-12-02 キヤノン株式会社 複眼カメラ及び画像処理方法
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP4225768B2 (ja) 2002-07-31 2009-02-18 シャープ株式会社 立体画像データ処理装置および立体画像データ処理用プログラム
JP4902562B2 (ja) * 2007-02-07 2012-03-21 パナソニック株式会社 撮像装置、画像処理装置、制御方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200508A (ja) * 1996-01-16 1997-07-31 Olympus Optical Co Ltd 画像処理装置
JP2002051255A (ja) * 2000-07-31 2002-02-15 Olympus Optical Co Ltd 主要被写体検出カメラ
JP2005086682A (ja) * 2003-09-10 2005-03-31 Omron Corp 対象決定装置
JP2009081869A (ja) * 2008-10-27 2009-04-16 Fujifilm Corp 画像出力装置及び画像出力方法

Also Published As

Publication number Publication date
US8803875B2 (en) 2014-08-12
JP4787905B1 (ja) 2011-10-05
US20110242098A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
JP4787905B1 (ja) 画像処理装置および方法並びにプログラム
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
US8629870B2 (en) Apparatus, method, and program for displaying stereoscopic images
US7440004B2 (en) 3-D imaging arrangements
TWI508519B (zh) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
JP5266126B2 (ja) 画像表示装置および方法並びにプログラム
KR20120075829A (ko) 적응적 부화소 렌더링 장치 및 방법
US20110012899A1 (en) Image processing method, image processing device and recording medium
US20220256133A1 (en) Viewer-adjusted stereoscopic image display
US9167223B2 (en) Stereoscopic video processing device and method, and program
JP2011176800A (ja) 画像処理装置、立体表示装置及び画像処理方法
JP5396877B2 (ja) 画像処理装置、プログラム、画像処理方法、および記録方法
JP4787369B1 (ja) 画像処理装置および方法並びにプログラム
WO2019131160A1 (ja) 情報処理装置、情報処理方法、および記録媒体
JP2011211754A (ja) 画像処理装置および方法並びにプログラム
JP2006267767A (ja) 画像表示装置
JP2011176822A (ja) 画像処理装置、立体表示装置及び画像処理方法
CN113661514A (zh) 用于增强图像的设备和方法
CN102724540B (zh) 一种在播放器中进行3d视频处理方法及装置
JP7339278B2 (ja) 視聴者に合わせて調整された立体画像表示
JP6179282B2 (ja) 3次元画像表示装置及び3次元画像表示方法
JP2015029215A (ja) 立体画像処理装置
JP3425416B2 (ja) 立体画像を表示する装置および方法
JP2011217387A (ja) 複眼撮影装置および方法並びにプログラム
JP2011172286A (ja) 画像表示装置および方法並びにプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110715

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees