JP2018046464A - 視線一致顔画像合成方法、テレビ会議システム、及びプログラム - Google Patents

視線一致顔画像合成方法、テレビ会議システム、及びプログラム Download PDF

Info

Publication number
JP2018046464A
JP2018046464A JP2016180848A JP2016180848A JP2018046464A JP 2018046464 A JP2018046464 A JP 2018046464A JP 2016180848 A JP2016180848 A JP 2016180848A JP 2016180848 A JP2016180848 A JP 2016180848A JP 2018046464 A JP2018046464 A JP 2018046464A
Authority
JP
Japan
Prior art keywords
camera
image
input image
display
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016180848A
Other languages
English (en)
Other versions
JP6539624B2 (ja
Inventor
柏野 邦夫
Kunio Kashino
邦夫 柏野
隆行 黒住
Takayuki Kurozumi
隆行 黒住
卓弥 井上
Takuya Inoue
卓弥 井上
高橋 友和
Tomokazu Takahashi
友和 高橋
高嗣 平山
Takatsugu Hirayama
高嗣 平山
康友 川西
Yasutomo Kawanishi
康友 川西
大輔 出口
Daisuke Deguchi
大輔 出口
一郎 井手
Ichiro Ide
一郎 井手
村瀬 洋
Hiroshi Murase
洋 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nippon Telegraph and Telephone Corp filed Critical Nagoya University NUC
Priority to JP2016180848A priority Critical patent/JP6539624B2/ja
Publication of JP2018046464A publication Critical patent/JP2018046464A/ja
Application granted granted Critical
Publication of JP6539624B2 publication Critical patent/JP6539624B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ディスプレイ表示に対するカメラ視点位置が変化する場合であっても、視線の一致を精度よく判定して、視線が一致した画像を生成することができる。
【解決手段】特徴抽出部34が、カメラ入力画像から特徴を抽出し、目開閉判定部36が、カメラ入力画像の特徴を用いて目の開閉を判定する。目が開いていると判定している場合、対話相手注視判定部38が、学習された識別器に基づいて、カメラ入力画像が表す対話者が、対話相手を注視しているか否か及びディスプレイ表示に対するカメラ視点位置を判定する。合成部42が、対話相手を注視していると判定された場合であって、かつ、対話相手と視線を一致させてよいと判定された場合において、カメラ入力画像が表す対話者の目領域に、カメラを注視したときの画像を合成する。
【選択図】図1

Description

本発明は、視線一致顔画像合成方法、テレビ会議システム、及びプログラムに関する。
従来、視線一致顔画像合成方法に関しては、テレビ会議における対話者間の視線一致のための目領域変換手法として、利用者端末上のディスプレイ表示に対してカメラ位置が固定されていることを前提として目領域を変換する方法が知られている(非特許文献1)。
井上 卓弥,高橋 友和,平山 高嗣,出口 大輔,井手 一郎,村瀬 洋,黒住 隆行,柏野 邦夫. "テレビ会議における対話者間の視線一致のための目領域変換手法に関する検討". 信学技報, No. PRMU2014-60, pp. 33-38, October 2014.
しかし、上記の非特許文献1の方法では、利用者端末上のディスプレイ表示に対してカメラ視点位置が変化したときに十分な精度で視線の一致を判定できないという欠点があった。
本発明は、上記の事情を鑑みてなされたもので、ディスプレイ表示に対するカメラ視点位置が変化する場合であっても、視線の一致を精度よく判定して、視線が一致した画像を生成することができる視線一致顔画像合成方法、テレビ会議システム、及びプログラムを提供することを目的とする。
上記の目的を達成するために第1の発明の視線一致顔画像合成方法は、テレビ会議システムにおける視線一致顔画像合成方法であって、対話者を表すカメラ入力画像から特徴を抽出する特徴抽出過程と、前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定過程と、目が開いていると判定している場合において、対話相手を注視しているか否か及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、対話相手を注視しているか否か及び前記カメラ視点位置を識別する識別器と、前記カメラ入力画像の特徴とに基づいて、前記カメラ入力画像が表す対話者が、対話相手を注視しているか否か、及び前記カメラ視点位置を判定するカメラ位置対話相手注視判定過程と、前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、カメラを注視したときの画像を合成する合成過程と、を含む。
第2の発明のテレビ会議システムは、対話者を表すカメラ入力画像から特徴を抽出する特徴抽出部と、前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定部と、目が開いていると判定している場合において、対話相手を注視しているか否か及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、対話相手を注視しているか否か及び前記カメラ視点位置を識別する識別器と、前記カメラ入力画像の特徴とに基づいて、前記カメラ入力画像が表す対話者が、対話相手を注視しているか否か、及び前記カメラ視点位置を判定するカメラ位置対話相手注視判定部と、前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、カメラを注視したときの画像を合成する合成部と、を含んで構成されている。
第3の発明の視線一致顔画像合成方法は、テレビ会議システムにおける視線一致顔画像合成方法であって、対話者を表すカメラ入力画像から特徴を抽出する特徴抽出過程と、前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定過程と、目が開いていると判定している場合において、対話者側のディスプレイ上の注視点及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、各カメラ視点位置及び対話者側のディスプレイ上の各位置のペアについて前記位置を注視し、かつ、前記カメラ視点位置であるか否かを識別する識別器と、前記カメラ入力画像の特徴とに基づいて、対話者側のディスプレイ上の注視点、及び前記カメラ視点位置を判定するカメラ位置ディスプレイ上注視点判定過程と、前記対話者側のディスプレイ上の注視点に基づいて、前記カメラ入力画像が表す対話者が対話相手を注視しているか否かを判定する注視相手判定過程と、前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、前記対話相手に対応する位置を注視したときの画像を合成する合成過程と、を含む。
第4の発明のテレビ会議システムは、対話者を表すカメラ入力画像から特徴を抽出する特徴抽出部と、前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定部と、目が開いていると判定している場合において、対話者側のディスプレイ上の注視点及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、各カメラ視点位置及び対話者側のディスプレイ上の各位置のペアについて前記位置を注視し、かつ、前記カメラ視点位置であるか否かを識別する識別器と、前記カメラ入力画像の特徴とに基づいて、対話者側のディスプレイ上の注視点、及び前記カメラ視点位置を判定するカメラ位置ディスプレイ上注視点判定部と、前記対話者側のディスプレイ上の注視点に基づいて、前記カメラ入力画像が表す対話者が対話相手を注視しているか否かを判定する注視相手判定部と、前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、前記対話相手に対応する位置を注視したときの画像を合成する合成部と、を含んで構成されている。
本発明のプログラムは、コンピュータに、本発明の視線一致顔画像合成方法の各ステップを実行させるためのプログラムである。
以上説明したように、本発明の視線一致顔画像合成方法、テレビ会議システム、及びプログラムによれば、予め学習された識別器に基づいて、対話相手を注視しているか否か、又は対話者側のディスプレイ上の注視点と、ディスプレイ表示に対するカメラ視点位置とを判定し、カメラ入力画像が表す対話者の目領域に、カメラ、又は対話相手に対応する位置を注視したときの画像を合成することにより、ディスプレイ表示に対するカメラ視点位置が変化する場合であっても、視線の一致を精度よく判定して、視線が一致した画像を生成することができることができる、という効果が得られる。
本発明の第1の実施の形態のテレビ会議システムの一構成例を示すブロック図である。 カメラ視点位置とウィンドウの配置を説明するための図である。 カメラ視点位置とウィンドウの配置を説明するための図である。 カメラ視点位置とウィンドウの配置を説明するための図である。 カメラ視点位置とウィンドウの配置を説明するための図である。 目領域画像を抽出する方法を説明するための図である。 目領域画像の一例を示す図である。 学習用カメラ入力画像を撮像する際に、ディスプレイ上に表示した点の配置を示す図である。 本発明の第1の実施の形態のテレビ会議システムにおける学習処理ルーチンの内容を示すフローチャートである。 本発明の第1の実施の形態のテレビ会議システムにおける視線一致顔画像合成処理ルーチンの内容を示すフローチャートである。 本発明の第2の実施の形態のテレビ会議システムの一構成例を示すブロック図である。 カメラとウィンドウの配置を説明するための図である。 本発明の第2の実施の形態のテレビ会議システムにおける視線一致顔画像合成処理ルーチンの内容を示すフローチャートである。 本発明の第3の実施の形態のテレビ会議システムの一構成例を示すブロック図である。 カメラとウィンドウの配置を説明するための図である。 本発明の第3の実施の形態のテレビ会議システムにおける画像送信側視線一致顔画像合成処理ルーチンの内容を示すフローチャートである。 本発明の第3の実施の形態のテレビ会議システムにおける画像受信側視線一致顔画像合成処理ルーチンの内容を示すフローチャートである。
<本発明の実施の形態の概要>
まず、本発明の実施の形態の概要について説明する。本発明の実施の形態は、テレビ会議システムにおいて視線の一致する顔画像を生成するものである。複数の対話者のテレビ会議において、ウィンドウがさまざまな場所に配置してある場合においても、会議参加者に誰が誰に向かって対話しているかをわかりやすく提示するものである。
本発明の実施の形態は、非特許文献1に記載の、テレビ会議における対話者間の視線一致のための目領域変換手法に比べて、利用者端末上のディスプレイ表示に対する相対的なカメラ位置を判定することで利用者端末の向きの変化に対応することを可能とした点が主眼である。特にタブレット端末のように持ち方によってディスプレイの表示を回転できるような場合において、利用者端末上のディスプレイ表示に対するカメラ視点位置が変化するような場合にもカメラ視点位置と注視相手を特定することを可能とするものである。
<第1の実施の形態>
<テレビ会議システムの構成>
以下、図面を参照して本発明の第1の実施の形態を詳細に説明する。図1は、本発明の第1の実施の形態のテレビ会議システム100を示すブロック図である。テレビ会議システム100は、CPUと、RAMと、学習処理ルーチン、及び視線一致顔画像合成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータを用いて構成され、機能的には次に示すように構成されている。
本実施の形態のテレビ会議システム100は、図1に示すように、カメラ10と、演算部20と、通信部80と、ディスプレイ90とを備えている。
図2A〜図2Dに示すように、カメラ10は、ディスプレイ90の表示に対する複数の視点位置の何れかから、対話者の顔を撮像し、カメラ入力画像を、演算部20へ出力する。ディスプレイ90は、対話相手の画像を表示したウィンドウ92を表示し、対話者は、ウィンドウ92を見ながら対話を行う。
演算部20は、学習用画像DB22、目領域画像抽出部24、32、特徴抽出部26、34、識別器構築部28、識別器記憶部30、目開閉判定部36、カメラ位置対話相手注視判定部38、注視画像記憶部40、合成部42、及び画面出力部44を備えている。
学習用画像DB22は、ディスプレイ90の表示に対するカメラ10の各視点位置及びディスプレイ90上の各位置について、当該位置に配置された1点を対話者が注視しているときに当該視点位置のカメラ10により撮像された学習用カメラ入力画像が記憶されている。ディスプレイ90上のウィンドウ92の表示範囲が予め定められており、各学習用カメラ入力画像の注視点が、ウィンドウ92の表示範囲内であるか否かに応じて、対話者が対話相手を注視しているか否かを示す情報が予め付与され、更に、カメラ10の視点位置を示す情報が予め付与されている。例えば、対話者には顔は固定したまま視線だけを動かし、図5に示すような点を1点ずつディスプレイ上に表示し、順に注視してもらい、撮影したカメラ入力画像において、点線の矩形内を注視している画像をPositive、それ以外の画像をNegativeとする。
目領域画像抽出部24は、学習用カメラ入力画像の各々から、以下のように目領域画像を抽出する。
例えば、図3に示すような左右それぞれの目領域の輪郭部分から4点の特徴点を抽出する。次に、4点の特徴点の外接矩形で目領域を抽出し、左右の目を連結して、目領域画像とする。図4に抽出した目領域画像の例を示す。この際、抽出した特徴点に、平行移動や拡縮などの摂動を加えることで、目領域画像のパターンを増やしている。この処理をすべての学習用カメラ入力画像について行ない、すべての目領域画像の外接矩形の大きさの中央値で、すべての目領域画像をリサイズする。
特徴抽出部26は、学習用カメラ入力画像の各々から抽出された目領域画像について、以下のように特徴量を抽出する。
例えば、抽出した目領域画像からCannyによりエッジを検出し、エッジがあるか否かの特徴量とする。次に、目領域画像をグレースケールに変換し、ヒストグラム均等化を行なう。その後、輝度値を連結して特徴量とする。最後に、輝度値とエッジの特徴量を連結して最終的な特徴量とする。
識別器構築部28は、学習用カメラ入力画像の各々から抽出された特徴量と、学習用カメラ入力画像の各々に付与されている、対話者が対話相手を注視しているか否かを示す情報及びカメラ10の視点位置を示す情報とに基づいて、対話者が対話相手を注視しているか否か及びカメラ視点位置のペアを識別するための識別器を構築する。本実施の形態では、識別器として、一般的に2クラス識別問題に対して高い性能を持つとされる SVM(Suport Vector Machine) 識別器を用いる。
ここで識別するクラスのラベルは、対話者が対話相手を注視しているか否かとカメラ10の視点位置の各ペアとする。例えば、ウィンドウの位置を、ディスプレイ上の左上、右上、左下、右下の4つとし、対話者が対話相手を注視しているか否かの2つと合計すると4×2=8個のラベルを使用して、識別器の学習を行う。
識別器記憶部30は、識別器構築部28によって学習された識別器が記憶されている。
目領域画像抽出部32は、カメラ入力画像から、目領域画像抽出部24と同様に、目領域画像を抽出する。
特徴抽出部34は、カメラ入力画像から抽出された目領域画像について、特徴抽出部26と同様に、特徴量を抽出する。
目開閉判定部36は、カメラ入力画像について抽出された特徴量と、目の開閉度が既知の参照画像から予め抽出された特徴量とに基づいて、目の開閉度を計算し、目の開閉度が閾値より大きい場合に、目が開いていると判定する。
カメラ位置対話相手注視判定部38は、目が開いていると判定された場合、識別器記憶部30に記憶されている識別器と、カメラ入力画像について抽出された特徴量と、に基づいて、対話者が対話相手を注視しているか否か、及びカメラ10の視点位置を判定する。
注視画像記憶部40は、予め撮像された、対話者がカメラ10を注視しているときのカメラ入力画像から抽出された、目を表す画像が記憶されている。なお、カメラ10の視点位置毎に、当該視点位置のカメラ10を注視しているときのカメラ入力画像から抽出された、目を表す画像を用意してもよい。
合成部42は、対話者が対話相手を注視していると判定された場合、カメラ入力画像の目領域に、注視画像記憶部40に記憶されている、目を表す画像を合成した合成画像を生成し、合成画像を、通信部80により対話相手側のテレビ会議システム(図示省略)へ送信する。なお、カメラ10の視点位置毎に、目を表す画像を用意している場合には、カメラ位置対話相手注視判定部38により判定されたカメラ10の視点位置に対応する、目を表す画像を合成すればよい。
画面出力部44は、対話相手側のテレビ会議システムから通信部80により受信した画像を、ディスプレイ90のウィンドウ92上に表示する。
なお、対話相手側のテレビ会議システムも、対話者側のテレビ会議システム100と同様の構成となっており、インターネットなどのネットワークを介して、対話相手側のテレビ会議システムと、対話者側のテレビ会議システム100とは接続されている。
<テレビ会議システムの作用>
次に、第1の実施の形態のテレビ会議システム100の作用について説明する。まず、前処理として、カメラ10の各視点位置及びディスプレイ90上の各位置について、当該位置に配置された1点を対話者が注視しているときに、当該視点位置のカメラ10により学習用カメラ入力画像が撮像され、学習用画像DB22に、各学習用カメラ入力画像が、対話者が対話相手を注視しているか否かを示す情報及びカメラ10の視点位置を示す情報と共に格納される。
そして、テレビ会議システム100によって、図6に示す学習処理ルーチンが実行される。
まず、ステップS100において、学習用画像DB22から、各学習用カメラ入力画像が取得される。ステップS102では、各学習用カメラ入力画像から、目領域画像が抽出される。
そして、ステップS104において、各学習用カメラ入力画像の目領域画像から、特徴量が抽出される。ステップS106では、上記ステップS104で各学習用カメラ入力画像について抽出された特徴量と、各学習用カメラ入力画像に付与されている、対話者が対話相手を注視しているか否かを示す情報及びカメラ10の視点位置を示す情報とに基づいて、識別器を構築し、識別器記憶部30に格納して、学習処理ルーチンを終了する。
また、対話相手とのテレビ会議が開始され、ディスプレイ90のウィンドウ92上に、対話相手側のテレビ会議システムから送信された画像を表示しているときに、カメラ10からカメラ入力画像が入力される度に、テレビ会議システム100によって、図7に示す視線一致顔画像合成処理ルーチンが繰り返し実行される。
まず、ステップS110において、カメラ入力画像から、目領域画像が抽出される。ステップS112では、目領域画像から、特徴量を抽出する。
そして、ステップS114では、上記ステップS112で抽出された特徴量に基づいて、目が開いているか否かを判定する。目が開いていると判定された場合には、ステップS115へ進み、目が開いていないと判定された場合には、ステップS122へ進む。
ステップS115では、上記ステップS112で抽出された特徴量と、識別器記憶部30に記憶されている識別器とに基づいて、対話者が対話相手を注視している否か及びカメラ10の視点位置のペアを判定する。ステップS116では、上記ステップS115の判定結果に基づいて、対話者が対話相手を注視しているか否かを判定する。対話相手を注視していると判定された場合には、ステップS118へ進み、対話相手を注視していないと判定された場合には、ステップS122へ進む。
ステップS118では、カメラ入力画像の目領域に、注視画像記憶部40に記憶されている、目を表す画像を合成した合成画像を生成し、ステップS120において、上記ステップS118で生成した合成画像を、通信部80により対話相手側のテレビ会議システムへ送信し、視線一致顔画像合成処理ルーチンを終了する。
ステップS122では、カメラ入力画像をそのまま通信部80により対話相手側のテレビ会議システムへ送信し、視線一致顔画像合成処理ルーチンを終了する。
以上説明したように、第1の実施の形態に係るテレビ会議システムは、予め学習された識別器に基づいて、対話相手を注視しているか否か及びディスプレイ表示に対するカメラ視点位置を判定し、カメラ入力画像が表す対話者の目領域に、カメラを注視したときの画像を合成することにより、ディスプレイ表示に対するカメラ視点位置が変化する場合であっても、視線の一致を精度よく判定して、視線が一致した画像を生成することができる。
<第2の実施の形態>
<テレビ会議システムの構成>
次に、第2の実施の形態のテレビ会議システムについて説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第2の実施の形態では、ディスプレイに、複数の対話相手を表す複数のウィンドウが表示されている点と、対話者が注視している対話相手を判定して目の領域の画像を合成している点とが、第1の実施の形態と異なっている。
図8に示すように、第2の実施の形態のテレビ会議システム200の演算部220は、学習用画像DB22、目領域画像抽出部24、32、特徴抽出部26、34、識別器構築部228、識別器記憶部230、目開閉判定部36、カメラ位置ディスプレイ上注視点判定部238、注視相手判定部239、注視画像記憶部240、視線一致条件判定部241、合成部242、及び画面出力部44を備えている。
図9に示すように、カメラ10は、ディスプレイ90の表示に対する複数の視点位置の何れかから、対話者の顔を撮像し、カメラ入力画像を、演算部220へ出力する。ディスプレイ90は、複数の対話相手の画像を表示した複数のウィンドウ92を表示し、対話者は、複数のウィンドウ92を見ながら対話を行う。
識別器構築部228は、ディスプレイ90の表示に対するカメラ10の各視点位置及びディスプレイ90上の各位置のペアについて、学習用カメラ入力画像の各々から抽出された特徴量に基づいて、対話者がディスプレイ90上の当該位置を注視し、かつ、当該視点位置であるか否かを識別するための識別器を各々構築する。
ここで識別するクラスのラベルは、ディスプレイ90上の位置とカメラ10の視点位置の各ペアとする。例えば、カメラ10の視点位置を、ディスプレイ90の上部、下部、左部、右部の4つとし、ディスプレイ90上の位置を、ディスプレイ90上の縦方向、横方向に予め設定したスキップ幅でサンプリングしたN個の位置とする。合計すると4×N=4N個のラベルを使用して、識別器の学習を行う。また、学習用カメラ入力画像を注視しているか否かに分ける境界は、当該位置が中心となるような矩形とする。
識別器記憶部230は、識別器構築部28によってカメラ10の各視点位置及びディスプレイ90上の各位置のペアについて学習された識別器が記憶されている。
カメラ位置ディスプレイ上注視点判定部238は、目が開いていると判定された場合、カメラ10の各視点位置及びディスプレイ90上の各位置のペアについて、識別器記憶部230に記憶されている当該ペアについての識別器と、カメラ入力画像について抽出された特徴量と、に基づいて、対話者がディスプレイ90上の当該位置を注視し、かつ、当該視点位置であるか否かを各々判定する。
注視相手判定部239は、カメラ位置ディスプレイ上注視点判定部238によるカメラ10の各視点位置及びディスプレイ90上の各位置のペアについての判定結果に基づいて、対話者がどの対話相手を注視しているかを判定する。例えば、対話者が注視していると判定されたディスプレイ90上の位置の各々について、当該位置を含むウィンドウ92に投票し、投票数が最も多いウィンドウ92が表示している対話相手を、対話者が注視している対話相手として判定する。なお、投票数が最も多いウィンドウ92が複数存在する場合には、投票数が最も多い複数のウィンドウ92の中心位置の平均位置を注視していると判断すればよい。
注視画像記憶部240は、予め撮像された、対話者が、複数のウィンドウ92に対応する複数の合成用注視点290の各々を注視しているときのカメラ入力画像から抽出された、目を表す画像が記憶されている(上記図9参照)。
合成部242は、対話者が対話相手を注視していると判定された場合、カメラ入力画像の目領域に、対話者が注視している対話相手に対応して注視画像記憶部240に記憶されている、目を表す画像を合成した合成画像を生成し、合成画像を、通信部80により画像受信側のテレビ会議システムへ送信する。
なお、画像受信側のテレビ会議システムも、対話者側のテレビ会議システム200と同様の構成となっており、インターネットなどのネットワークを介して、画像受信側のテレビ会議システムと、対話者側のテレビ会議システム200とは接続されている。
<テレビ会議システムの作用>
次に、第2の実施の形態のテレビ会議システム200の作用について説明する。まず、前処理として、カメラ10の各視点位置及びディスプレイ90上の各位置について、当該位置に配置された1点を対話者が注視しているときに、当該視点位置のカメラ10により学習用カメラ入力画像が撮像され、学習用画像DB22に格納される。
そして、テレビ会議システム200によって、上記第1の実施の形態と同様に、学習処理ルーチンが実行される。なお、第2の実施の形態では、カメラ10の各視点位置及びディスプレイ90上の各位置のペアについて、学習用カメラ入力画像の各々から抽出された特徴量に基づいて、対話者がディスプレイ90上の当該位置を注視し、かつ、カメラ10が当該視点位置であるか否かを識別するための識別器が各々構築される。
また、対話相手とのテレビ会議が開始され、ディスプレイ90の複数のウィンドウ92上に、対話相手側の複数のテレビ会議システムから送信された画像を各々表示しているときに、カメラ10からカメラ入力画像が入力される度に、テレビ会議システム200によって、図10に示す視線一致顔画像合成処理ルーチンが繰り返し実行される。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、ステップS110において、カメラ入力画像から、目領域画像が抽出される。ステップS112では、目領域画像から、特徴量を抽出する。
そして、ステップS114では、上記ステップS112で抽出された特徴量に基づいて、目が開いているか否かを判定する。目が開いていると判定された場合には、ステップS200へ進み、目が開いていないと判定された場合には、ステップS122へ進む。
ステップS200では、上記ステップS112で抽出された特徴量と、識別器記憶部230に記憶されている識別器とに基づいて、カメラ10の各視点位置及びディスプレイ90上の各位置のペアについて、対話者が当該位置を注視し、かつ、カメラ10が当該視点位置である否かを判定する。そして、ステップS202では、上記ステップS200の判定結果に基づいて、対話者が注視している対話相手を判定する。
そして、ステップS204では、上記ステップS202の判定結果に基づいて、対話者が注視している対話相手がいるか否かを判定する。注視している対話相手がいると判定された場合には、ステップS206へ進み、注視している対話相手がいないと判定された場合には、ステップS122へ進む。
ステップS206では、上記ステップS202の判定結果に基づいて、カメラ入力画像の目領域に、対話者が注視している対話相手に対応して注視画像記憶部240に記憶されている、目を表す画像を合成した合成画像を生成し、ステップS120において、上記ステップS206で生成した合成画像を、通信部80により画像受信側のテレビ会議システムへ送信し、視線一致顔画像合成処理ルーチンを終了する。
ステップS122では、カメラ入力画像をそのまま通信部80により画像受信側のテレビ会議システムへ送信し、視線一致顔画像合成処理ルーチンを終了する。
以上説明したように、第2の実施の形態に係るテレビ会議システムは、ディスプレイ表示に対する各カメラ視点位置及びディスプレイ上の各位置のペアについて予め学習された識別器に基づいて、対話者側のディスプレイ上の注視点及びカメラ視点位置を判定して、注視している対話相手を判定し、カメラ入力画像が表す対話者の目領域に、対話相手に対応する位置を注視したときの画像を合成することにより、ディスプレイ表示に対するカメラ視点位置が変化する場合であっても、視線の一致を精度よく判定して、視線が一致した画像を生成することができる。
また、複数の対話者のテレビ会議において、ディスプレイ上に複数のウィンドウが配置してある場合においても、会議参加者に誰が誰に向かって対話しているかをわかりやすく提示することができる。
<第3の実施の形態>
<テレビ会議システムの構成>
次に、第3の実施の形態のテレビ会議システムについて説明する。なお、第1の実施の形態、第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第3の実施の形態では、画像受信側のテレビ会議システムで、画像を合成している点が、第2の実施の形態と異なっている。
図11に示すように、第3の実施の形態では、画像送信側のテレビ会議システム300と画像受信側のテレビ会議システム400とが、ネットワーク500を介して接続されている。
図12に示すように、画像送信側のテレビ会議システム300と画像受信側のテレビ会議システム400とにおいて、ディスプレイ90は、複数の対話相手の画像を表示した複数のウィンドウ92を表示し、対話者は、複数のウィンドウ92を見ながら対話を行う。本実施の形態では、画像送信側のテレビ会議システム300と画像受信側のテレビ会議システム400との各々で、ディスプレイ90上の複数のウィンドウ92の配置が変更可能となっている。以下では、画像送信側のテレビ会議システム300と画像受信側のテレビ会議システム400とで、ディスプレイ90上の複数のウィンドウ92の配置が異なっている場合を例に説明する。
画像送信側のテレビ会議システム300の演算部320は、学習用画像DB22、目領域画像抽出部24、32、特徴抽出部26、34、識別器構築部228、識別器記憶部230、目開閉判定部36、カメラ位置ディスプレイ上注視点判定部238、注視相手判定部239、及び画面出力部44を備えている。
画像送信側のテレビ会議システム300の通信部80は、目開閉判定部36により目が開いていないと判定された場合には、目開閉判定部36による判定結果と、カメラ入力画像とを、画像受信側のテレビ会議システム400へ送信する。また、目開閉判定部36により目が開いていると判定された場合には、目開閉判定部36による判定結果と、注視相手判定部239による判定結果と、カメラ入力画像とを、画像受信側のテレビ会議システム400へ送信する。
画像受信側のテレビ会議システム400の演算部420は、目開閉判定部422、注視対象計算部424、注視画像記憶部240、及び合成部242を備えている。
目開閉判定部422は、通信部80により受信した、目の開閉の判定結果に基づいて、画像送信側の対話者の目が開いているか否かを判定する。
注視対象計算部424は、画像送信側の対話者の目が開いていると判定された場合、通信部80により受信した、注視している対話相手の情報に基づいて、画像送信側の対話者が対話相手を注視しているか否かを判定する。また、注視対象計算部424は、画像送信側の対話者が対話相手を注視していると判定された場合、通信部80により受信した、注視している対話相手の情報に基づいて、ディスプレイ90上のどのウィンドウ92の対話者を注視しているかを計算する。例えば、ディスプレイ90上の複数のウィンドウ92のうち、通信部80により受信した、注視している対話相手の情報に対応するウィンドウ92を特定し、特定されたウィンドウ92が表示している対話相手を、画像送信側の対話者が注視している対話相手として計算する。
注視画像記憶部240は、予め撮像された、対話者が、上記図12に示すような複数のウィンドウ92に対応する複数の合成用注視点290の各々を注視しているときのカメラ入力画像から抽出された、目を表す画像が記憶されている。
合成部242は、画像送信側の対話者が対話相手を注視していると判定された場合、注視対象計算部424による計算結果に基づいて、画像送信側のテレビ会議システム300から受信したカメラ入力画像の目領域に、画像送信側の対話者が注視している対話相手に対応して注視画像記憶部240に記憶されている、目を表す画像を合成した合成画像を生成し、合成画像を、ディスプレイ90の該当するウィンドウ92に表示する。
なお、画像送信側のテレビ会議システム300は、画像受信側のテレビ会議システム400と同様の構成を更に有しており、画像受信側のテレビ会議システム400は、画像送信側のテレビ会議システム300と同様の構成を更に有しているが、簡単のため、図示を省略している。
<テレビ会議システムの作用>
次に、第3の実施の形態の画像送信側のテレビ会議システム300の作用について説明する。まず、前処理として、ディスプレイ90の表示に対するカメラ10の各視点位置及びディスプレイ90上の各位置について、当該位置に配置された1点を対話者が注視しているときに、当該視点位置のカメラ10により学習用カメラ入力画像が撮像され、学習用画像DB22に格納される。
そして、画像送信側のテレビ会議システム300によって、上記第2の実施の形態と同様に、学習処理ルーチンが実行される。
また、対話相手とのテレビ会議が開始され、ディスプレイ90の複数のウィンドウ92上に、画像受信側のテレビ会議システム400の各々から送信された画像を表示しているときに、カメラ10からカメラ入力画像が入力される度に、テレビ会議システム300によって、図13に示す画像送信側視線一致顔画像合成処理ルーチンが繰り返し実行される。なお、第1の実施の形態、第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、ステップS110において、カメラ入力画像から、目領域画像が抽出される。ステップS112では、目領域画像から、特徴量を抽出する。
そして、ステップS114では、上記ステップS112で抽出された特徴量に基づいて、目が開いているか否かを判定する。目が開いていると判定された場合には、ステップS200へ進み、目が開いていないと判定された場合には、ステップS300へ進む。
ステップS200では、上記ステップS112で抽出された特徴量と、識別器記憶部230に記憶されている識別器とに基づいて、カメラ10の各視点位置及びディスプレイ90上の各位置のペアについて、対話者が当該位置を注視し、かつ、カメラ10が当該視点位置である否かを判定する。そして、ステップS202では、上記ステップS200の判定結果に基づいて、対話者が注視している対話相手を判定する。
そして、ステップS302では、上記ステップS114の判定結果と、上記ステップS202の判定結果と、カメラ入力画像とを、通信部80により画像受信側のテレビ会議システム400へ送信し、画像送信側視線一致顔画像合成処理ルーチンを終了する。
一方、ステップS300では、上記ステップS114の判定結果と、カメラ入力画像とを通信部80により画像受信側のテレビ会議システム400へ送信し、画像送信側視線一致顔画像合成処理ルーチンを終了する。
画像送信側のテレビ会議システム300から、各種判定結果及びカメラ入力画像を受信する度に、テレビ会議システム400によって、図14に示す画像受信側視線一致顔画像合成処理ルーチンが繰り返し実行される。
まず、ステップS400では、画像送信側のテレビ会議システム300から受信した判定結果に基づいて、画像送信側の対話者の目が開いているか否かを判定する。目が開いていると判定された場合には、ステップS402へ進み、目が開いていないと判定された場合には、ステップS404へ進む。
ステップS402では、画像送信側のテレビ会議システム300から受信した判定結果に基づいて、画像送信側の対話者が注視している対話相手がいるか否かを判定する。注視している対話相手がいると判定された場合には、ステップS406へ進み、注視している対話相手がいないと判定された場合には、ステップS404へ進む。
ステップS406では、画像送信側のテレビ会議システム300から受信した判定結果に基づいて、画像送信側の対話者が、ディスプレイ90上のどのウィンドウ92の対話者を注視しているかを計算する。
そして、ステップS408では、上記ステップS406の計算結果に基づいて、画像送信側のテレビ会議システム300から受信したカメラ入力画像の目領域に、画像送信側の対話者が注視している対話相手に対応して注視画像記憶部240に記憶されている、目を表す画像を合成した合成画像を生成し、ステップS410において、上記ステップS408で生成した合成画像を、ディスプレイ90の該当するウィンドウ92に表示して、画像受信側視線一致顔画像合成処理ルーチンを終了する。
ステップS404では、画像送信側のテレビ会議システム300から受信したカメラ入力画像をそのまま、ディスプレイ90の該当するウィンドウ92に表示して、画像受信側視線一致顔画像合成処理ルーチンを終了する。
以上説明したように、第3の実施の形態に係るテレビ会議システムは、ディスプレイ表示に対する各カメラ視点位置及びディスプレイ上の各位置のペアについて予め学習された識別器に基づいて、画像送信側のディスプレイ上の注視点及びカメラ視点位置を判定して、注視している対話相手を判定し、画像受信側において、カメラ入力画像が表す対話者の目領域に、対話相手に対応する位置を注視したときの画像を合成することにより、ディスプレイ表示に対するカメラ視点位置が変化する場合であっても、視線の一致を精度よく判定して、視線が一致した画像を生成することができる。
また、複数の対話者のテレビ会議において、テレビ会議システム毎に、複数のウィンドウがさまざまな場所に配置してある場合においても、会議参加者に誰が誰に向かって対話しているかをわかりやすく提示することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述のテレビ会議システムは、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 カメラ
20、220、320、420 演算部
24 目領域画像抽出部
26 特徴抽出部
28、228 識別器構築部
30、230 識別器記憶部
32 目領域画像抽出部
34 特徴抽出部
36、422 目開閉判定部
38 カメラ位置対話相手注視判定部
40、240 注視画像記憶部
42、242 合成部
44 画面出力部
80 通信部
90 ディスプレイ
92 ウィンドウ
100、200、300、400 テレビ会議システム
238 カメラ位置ディスプレイ上注視点判定部
239 注視相手判定部
290 合成用注視点
424 注視対象計算部
500 ネットワーク

Claims (6)

  1. テレビ会議システムにおける視線一致顔画像合成方法であって、
    対話者を表すカメラ入力画像から特徴を抽出する特徴抽出過程と、
    前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定過程と、
    目が開いていると判定している場合において、対話相手を注視しているか否か及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、対話相手を注視しているか否か及び前記カメラ視点位置を識別する識別器と、前記カメラ入力画像の特徴とに基づいて、前記カメラ入力画像が表す対話者が、対話相手を注視しているか否か、及び前記カメラ視点位置を判定するカメラ位置対話相手注視判定過程と、
    前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、カメラを注視したときの画像を合成する合成過程と、
    を含む視線一致顔画像合成方法。
  2. テレビ会議システムにおける視線一致顔画像合成方法であって、
    対話者を表すカメラ入力画像から特徴を抽出する特徴抽出過程と、
    前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定過程と、
    目が開いていると判定している場合において、対話者側のディスプレイ上の注視点及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、各カメラ視点位置及び対話者側のディスプレイ上の各位置のペアについて前記位置を注視し、かつ、前記カメラ視点位置であるか否かを識別する識別器と、前記カメラ入力画像の特徴とに基づいて、対話者側のディスプレイ上の注視点、及び前記カメラ視点位置を判定するカメラ位置ディスプレイ上注視点判定過程と、
    前記対話者側のディスプレイ上の注視点に基づいて、前記カメラ入力画像が表す対話者が対話相手を注視しているか否かを判定する注視相手判定過程と、
    前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、前記対話相手に対応する位置を注視したときの画像を合成する合成過程と、
    を含む視線一致顔画像合成方法。
  3. 前記合成過程では、前記対話相手を注視していると判定された場合において、画像受信側の合成部が、前記カメラ入力画像が表す対話者の目領域に、前記注視したときの画像を合成する請求項1又は請求項2に記載の視線一致顔画像合成方法。
  4. 対話者を表すカメラ入力画像から特徴を抽出する特徴抽出部と、
    前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定部と、
    目が開いていると判定している場合において、対話相手を注視しているか否か及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、対話相手を注視しているか否か及び前記カメラ視点位置を識別する識別器と、前記カメラ入力画像の特徴とに基づいて、前記カメラ入力画像が表す対話者が、対話相手を注視しているか否か、及び前記カメラ視点位置を判定するカメラ位置対話相手注視判定部と、
    前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、カメラを注視したときの画像を合成する合成部と、
    を含むテレビ会議システム。
  5. 対話者を表すカメラ入力画像から特徴を抽出する特徴抽出部と、
    前記カメラ入力画像の特徴を用いて目の開閉を判定する目開閉判定部と、
    目が開いていると判定している場合において、対話者側のディスプレイ上の注視点及びディスプレイ表示に対するカメラ視点位置が既知の顔画像から予め学習された、各カメラ視点位置及び対話者側のディスプレイ上の各位置のペアについて前記位置を注視し、かつ、前記カメラ視点位置であるか否かを識別する識別器と、前記カメラ入力画像の特徴とに基づいて、対話者側のディスプレイ上の注視点、及び前記カメラ視点位置を判定するカメラ位置ディスプレイ上注視点判定部と、
    前記対話者側のディスプレイ上の注視点に基づいて、前記カメラ入力画像が表す対話者が対話相手を注視しているか否かを判定する注視相手判定部と、
    前記対話相手を注視していると判定された場合において、前記カメラ入力画像が表す対話者の目領域に、前記対話相手に対応する位置を注視したときの画像を合成する合成部と、
    を含むテレビ会議システム。
  6. コンピュータに、請求項1〜請求項3の何れか1項に記載の視線一致顔画像合成方法の各ステップを実行させるためのプログラム。
JP2016180848A 2016-09-15 2016-09-15 視線一致顔画像合成方法、テレビ会議システム、及びプログラム Active JP6539624B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016180848A JP6539624B2 (ja) 2016-09-15 2016-09-15 視線一致顔画像合成方法、テレビ会議システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016180848A JP6539624B2 (ja) 2016-09-15 2016-09-15 視線一致顔画像合成方法、テレビ会議システム、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018046464A true JP2018046464A (ja) 2018-03-22
JP6539624B2 JP6539624B2 (ja) 2019-07-03

Family

ID=61695225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016180848A Active JP6539624B2 (ja) 2016-09-15 2016-09-15 視線一致顔画像合成方法、テレビ会議システム、及びプログラム

Country Status (1)

Country Link
JP (1) JP6539624B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002796A (zh) * 2018-07-16 2018-12-14 阿里巴巴集团控股有限公司 一种图像采集方法、装置和***以及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09107531A (ja) * 1995-10-09 1997-04-22 Matsushita Electric Ind Co Ltd ビデオ会議システム
JPH11266443A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 画像及び音声送受信装置
JP2008140271A (ja) * 2006-12-04 2008-06-19 Toshiba Corp 対話装置及びその方法
JP2009089324A (ja) * 2007-10-03 2009-04-23 Nippon Telegr & Teleph Corp <Ntt> テレビ会議システムおよびプログラム、記録媒体
JP2012070081A (ja) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd 画像表示装置、画像表示プログラム及び画像表示システム
JP2013046319A (ja) * 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd 画像処理装置及び、画像処理方法
JP2013183421A (ja) * 2012-03-05 2013-09-12 Hitachi Consumer Electronics Co Ltd 送受信端末、送信端末、受信端末及び送受信方法
US20150278989A1 (en) * 2014-03-31 2015-10-01 Electronics And Telecommunications Research Institute Apparatus and method for controlling eye-to-eye contact function

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09107531A (ja) * 1995-10-09 1997-04-22 Matsushita Electric Ind Co Ltd ビデオ会議システム
JPH11266443A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 画像及び音声送受信装置
JP2008140271A (ja) * 2006-12-04 2008-06-19 Toshiba Corp 対話装置及びその方法
JP2009089324A (ja) * 2007-10-03 2009-04-23 Nippon Telegr & Teleph Corp <Ntt> テレビ会議システムおよびプログラム、記録媒体
JP2012070081A (ja) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd 画像表示装置、画像表示プログラム及び画像表示システム
JP2013046319A (ja) * 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd 画像処理装置及び、画像処理方法
JP2013183421A (ja) * 2012-03-05 2013-09-12 Hitachi Consumer Electronics Co Ltd 送受信端末、送信端末、受信端末及び送受信方法
US20150278989A1 (en) * 2014-03-31 2015-10-01 Electronics And Telecommunications Research Institute Apparatus and method for controlling eye-to-eye contact function

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
井上 卓弥: "テレビ会議話者間の視線一致知覚範囲を考慮した目領域画像合成型視線補正法", 電子情報通信学会技術研究報告, vol. 115, no. 415, JPN6019009737, 14 January 2016 (2016-01-14), JP, pages 53 - 58, ISSN: 0004001138 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002796A (zh) * 2018-07-16 2018-12-14 阿里巴巴集团控股有限公司 一种图像采集方法、装置和***以及电子设备
US11205071B2 (en) 2018-07-16 2021-12-21 Advanced New Technologies Co., Ltd. Image acquisition method, apparatus, system, and electronic device
US11244158B2 (en) 2018-07-16 2022-02-08 Advanced New Technologies Co., Ltd. Image acquisition method, apparatus, system, and electronic device

Also Published As

Publication number Publication date
JP6539624B2 (ja) 2019-07-03

Similar Documents

Publication Publication Date Title
US10846836B2 (en) View synthesis using deep convolutional neural networks
CN106462937B (zh) 图像处理装置以及图像显示装置
KR20220006657A (ko) 깊이를 사용한 비디오 배경 제거
US20090257730A1 (en) Video server, video client device and video processing method thereof
US9129397B2 (en) Human tracking method and apparatus using color histogram
CN112989904A (zh) 风格图像生成方法、模型训练方法、装置、设备和介质
US8749607B2 (en) Face equalization in video conferencing
CN109792485A (zh) 用于融合图像的***及方法
CN111291885A (zh) 近红外图像的生成方法、生成网络的训练方法和装置
CN106981078B (zh) 视线校正方法、装置、智能会议终端及存储介质
US20150206354A1 (en) Image processing apparatus and image display apparatus
TWI767985B (zh) 用於處理影像性質圖的方法及裝置
CN105141841B (zh) 摄像设备及其方法
CN111985281B (zh) 图像生成模型的生成方法、装置及图像生成方法、装置
CN111353336B (zh) 图像处理方法、装置及设备
WO2016165614A1 (zh) 一种即时视频中的表情识别方法和电子设备
US20200304713A1 (en) Intelligent Video Presentation System
CN112351325B (zh) 基于手势的显示终端控制方法、终端和可读存储介质
US20140168375A1 (en) Image conversion device, camera, video system, image conversion method and recording medium recording a program
JP2009246408A (ja) 対話装置、画像処理モジュール、画像処理方法およびプログラム
JP2017130046A (ja) 視線一致顔画像合成方法、テレビ会議システム、及びプログラム
JP2018046464A (ja) 視線一致顔画像合成方法、テレビ会議システム、及びプログラム
US11494934B2 (en) Image processing device, image processing method, and monitoring system
CN109495694A (zh) 一种基于rgb-d的环境感知方法及装置
CN113362243B (zh) 模型训练方法、图像处理方法及装置、介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180816

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6539624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150