JP2005063225A - 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム - Google Patents

自己画像表示を用いたインタフェース方法、装置、ならびにプログラム Download PDF

Info

Publication number
JP2005063225A
JP2005063225A JP2003293788A JP2003293788A JP2005063225A JP 2005063225 A JP2005063225 A JP 2005063225A JP 2003293788 A JP2003293788 A JP 2003293788A JP 2003293788 A JP2003293788 A JP 2003293788A JP 2005063225 A JP2005063225 A JP 2005063225A
Authority
JP
Japan
Prior art keywords
image
operator
remote
user
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003293788A
Other languages
English (en)
Inventor
Hidekazu Hosoya
英一 細谷
Ikuo Harada
育生 原田
Hidenori Sato
秀則 佐藤
Hisao Nojima
久雄 野島
Yoshinori Kitahashi
美紀 北端
Akira Onozawa
晃 小野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003293788A priority Critical patent/JP2005063225A/ja
Publication of JP2005063225A publication Critical patent/JP2005063225A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 操作者が、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を非接触に指定できるようにする。
【解決手段】 ユーザ側画像入力部1で入力された画像201から反転画像生成部2によって反転画像202が生成される。指示位置検出部3は反転画像202において、ユーザ指示位置203を検出する。遠隔地側画像入力部4で入力された画像204はネットワーク13を介してユーザ側に送られる。反転画像202と遠隔地側入力画像204は画像重畳部5で重畳される。コマンド選択部6はユーザ指示位置203とユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上の表示位置からコマンド情報206を選択し、出力する。情報表示部7は重畳画像205とコマンド情報206とを重ね合わせてディスプレイ8に表示する。
【選択図】 図1

Description

本発明は、ユーザ(操作者)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を自分で見ながら、メニューの選択・実行ができるインタフェース装置に関する。
従来、コンピュータと人間とのインタフェースにおいて、人間の動作に基づき、画面上でコマンド選択するインタフェース方法としては、キーボードやマウス等のポインティング装置を用いる方法がある。また、カメラからの画像情報から動作を検出する方法がある。一方、通信を介して、遠隔地にある物体(機器等)を操作・情報表示するインタフェース装置としては、コンピュータのソフトによりネットワークを介して遠隔地のカメラを制御可能なWebカメラがある。
このようなインタフェース装置の第1の従来手法として、現在一般のコンピュータに接続可能で市販されている装置として、キーボード、マウス、タッチパネル型のディスプレイがある。これらはいずれもユーザの手の動きを検出し、入力情報に変換するものである。
また、第2の従来手法として、モーションキャプチャシステム関連の製品で、体にマーカーを装着し画像処理によって動きを検出する装置がある。例えば、Vicon Motion Systems Ltd.社の「3次元動作解析システムVicon」(販売元:株式会社ナックイメージテクノロジー)は、体の複数の部位に球形の反射マーカーを貼付け、複数台のカメラからの入力画像から画像処理により各マーカーの3次元座標を算出する方法である。
また、第3の従来手法として、Vivid Group社のGesture Xtreme Software関連製品(例えばSoccer GX, Volleyball等)がある。本製品は、CG背景画像上に自己像を重ね合わせ、画像上でCGのボール等とユーザの体との接触判定を行い、その結果に基づいてゲーム等のCGソフトとユーザとのインタフェースを実現している。また、非特許文献1に記載の方法がある。本方法は、自画像上にCGのアイコンを表示させ、カメラに向かって行った動作に基づき希望のアイコンを選択(実行)するものである。
また、第4の従来手法として、遠隔地間のコミュニケーションが可能な手法として、非特許文献2に記載の手法がある。本手法は、ディスプレイ上に複数地点にいるユーザ映像を自己像含めて重ね合わせ、その映像を各ユーザに表示することにより、各地にいるユーザが同室にいるかのような効果を持つインタフェースである。
佐木ら,"パソコン映像入力を用いたアクション・インタフェースの試み",第12回ヒューマン・インタフェース・シンポジウム論文集,pp.213−218,1996 森川ら,"相手の空間の指差しが可能なビデオ対話:超鏡",計測自動制御学会第50回パターン計測部会研究会,pp.382−387,2000
しかしながら、上記の従来手法では、以下に示す問題があった。
第1の従来手法は、ユーザ(操作者)の手の動きを検出する際に装置に接触する必要があり、また装置を利用するための固定し限定された場所が必要であるため、任意の場所での動作検出を行うことが困難である。
第2の従来手法は、非接触型でありカメラ画像に写る範囲の任意の場所での動作を検出できるが、体の部位に常に何らかのマーカーまたはセンサを装着する必要があるため、家庭や職場等の通常生活におけるインタフェース装置としての利便性に欠ける。
第3の従来手法は、自画像を見ながら同じディスプレイに表示されたCGに手指等を触れる(重ねる)ことでユーザの動きを検出できるが、背景に写っている実空間上の物体を指示することはできないため、応用範囲に制限がある。
第4の従来手法は、遠隔地にいる人や物体の映像と、ユーザの自己像を重ねることにより、仮想的に同室にいるかのような効果は得られるが、遠隔地同士の互いのユーザが同じ映像を観察できるだけであり、遠隔地の人や物体に対するアクセス機能はないため、ユーザは遠隔地の物体に対して機器の操作や情報の表示のような遠隔地物体とのインタラクション操作を行うことはできない。
また、第4の従来手法は、一方のユーザ側の映像はクロマキー手法を用いてユーザの画像部分を切り出した上で遠隔地の映像上に重ね合わせている(重畳している)ため、背景を固定背景(ブルーバック等)とするような制限された撮影場所・条件でしか実現できない。
本発明の目的は、前述した従来手法に対して、
(1)接触型である問題、任意の場所での動作検出を行うことが困難である問題、
(2)インタフェース装置としての利便性に欠ける問題、
(3)応用範囲に制限がある問題、
(4)遠隔地の物体に対する機器操作や情報表示操作を行うことができない問題、
(5)撮影場所・条件が制限される問題、
を解決したインタフェース方法、装置、ならびにプログラムを提供することにある。
前記目的を達成するために、本発明のインタフェース装置は、操作者側の画像を入力し、左右反転した反転画像を生成する手段と、該反転画像上で操作者の指示している位置を検出する手段と、遠隔地側の画像を入力する手段と、検出した操作者の指示位置に対応する実物体を、遠隔地側入力画像中から検出する手段と、該反転画像と該遠隔地側入力画像とを重畳した画像を生成する手段と、該重畳画像上で、操作者の指定するコマンドを選択する手段と、該指定されたコマンドに基づき該重畳画像上に情報を表示する手段とを有している。
そのため、操作者は、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を非接触に指定できるので、前記の課題(1)(2)(3)(4)を解決できる。
本発明の実施態様では、反転画像と遠隔地側入力画像とを重畳して表示する手段が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する手段を含んでいる。
操作者側の映像全体を半透明にして重畳するため、操作者は任意の場所で任意の背景にて遠隔地の物体の操作が可能であるので、前記の課題(1)(2)(3)(4)(5)を解決できる。
本発明の他の実施態様では、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、該遠隔地側入力画像上において予め任意の実物***置を登録する手段と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する手段とを有している。
そのため、位置情報の初期値を登録・更新できるため、遠隔地側の物体の位置が移動しても、予め位置情報の初期値を修正しておけば、移動後の位置の物体をユーザが指定することができるので、前記課題の(1)(2)(3)(4)(5)を解決できる。
本発明の他の実施態様によれば、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、遠隔地側の実物体の位置を検出する手段と、得られた実物***置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する手段とを有している。
遠隔地側の物体が移動しても移動先の物***置を検出しているため、静止している物体だけでなく移動物体に対しても、ユーザが指定する物体を検出することができるので、前記の課題(1)(2)(3)(4)(5)を解決できる。
本発明によれば、例えば、遠隔地の部屋にある家電機器を遠隔操作したり、遠隔にある物体の情報を画面に表示したりできる。遠隔地として、例えば自宅と会社の間や、自宅内の別の部屋同士間にまたがる操作や情報表示が可能であり、そのような場面での非接触型インタフェース装置としての利用が考えられる。
請求項1と5と9の発明は、操作者は、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を指定できるため、ユーザフィードバックを得られるので操作者の希望する指定場所(物体)を高速かつ正確に指定することができる。また、非接触の操作により指定できるため、操作のための入力機器であるディスプレイから離れた位置から、遠隔地映像中の指定場所(物体)を指定することができる。これらから、インタフェースの利便性が向上する。
請求項2と6と9の発明は、操作者側の映像全体を半透明にして、遠隔地映像上に重畳するため、操作者側映像中の操作者以外の背景映像部分も薄くなって映るので、濃く映っている遠隔地側の操作対象物体を指定する際のユーザの選択操作性を低下させることはほとんどなく、このためユーザは、任意の場所で任意の背景にて遠隔地の物体の操作が可能となる。このため、インタフェースの利便性が向上する。
請求項3と7と9の発明は、位置情報の初期値を登録・更新できるため、遠隔地側の物体の位置が移動しても、予め位置情報の初期値を修正しておけば、移動後の位置の物体をユーザが指定することが可能となる。このため、インタフェースの利便性が向上する。
請求項4と8と9の発明は、遠隔地側の物体が移動しても移動先の物***置を検出しているため、静止している物体だけでなく移動物体に対しても、ユーザが指定する物体を検出することができ、任意の対象物体に対して操作が可能となる。このため、インタフェースの利便性が向上する。
次に、本発明の実施の形態について図面を参照して説明する。
(第1の実施形態)
図1は本発明の第1の実施形態のインタフェース装置の構成図、図2はその処理を示すフローチャートである。
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5とコマンド選択部6と情報表示部7で構成される。
ユーザ側画像入力部1として、本例では、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。ただし下記で述べる色情報を使用した方法を用いる場合はカラーカメラが必要である。
反転画像生成部2は、画像入力部1で入力された画像(入力画像)201を入力し、左右反転させた画像(反転画像)202を生成する(ステップ101)。コンピュータ内へ取り込んだ入力画像201に対し汎用の画像処理ソフトウェア(例:HALCON)により、リアルタイムに反転画像202を生成することができる。または、入力画像を入力し反転画像をリアルタイムに生成する機器(例:(株)朋栄の画面左右反転装置UPI−100LRF、またはカメラ一体型でSONYのEVI−D100)で実現できる。
指示位置検出部3は、反転画像生成部2で得られた反転画像202上において、ユーザ12が手指等の体の部位で指し示す位置(ユーザ指示位置)203を検出する(ステップ102)。
指示位置検出部3の1つ目の実現例として、ユーザ12がマーカを持ち、反転画像202中のマーカを画像処理により検出する方法がある。例えば、まず、赤色(他の色でもよいが、背景画像中に少ない色が好ましい)の物体を手に持ちもしくは装着し、それをカメラ1の前で手振りして動かす。得られたカラー画像のRGB等色情報の値から赤色成分を抽出し、ラベリング処理(固まり毎にグループに分ける一般的な画像処理方法)を行い、その中で最も面積の大きい赤色部分を1つ選び、その位置の重心位置(x,y)を求める。得られた(x,y)座標をユーザ指示位置203とする。ここで、赤色の物体の代わりに、赤色(前記物体同様、他の色でもよい)の発光ダイオード(LED)を発光させた状態で、手に持ちもしくは装着し、当該色を抽出して同様に行う方法も可能である。(x,y)は重心位置(抽出した部分の全画素値のx座標の合計値の平均値、およびy座標の合計値の平均値)でなく、中心位置(抽出した部分のx座標の最大値と最小値の中心値、およびy座標の最大値と最小値の中心値)でもよい。
指示位置検出部3の2つ目の実現例として、ユーザ12がマーカを持たずに、反転画像202中の手の位置を画像処理により直接検出する方法がある。例えば、まず、得られたカラー画像をRGB等の色情報の値から肌色成分を抽出し、ラベリング処理を行う。得られた複数の肌色部分の中から、手の大きさや位置等の制約情報を利用して、目的とする手を選択する。その選択する具体的な方法例としては、ユーザが通常衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積の大きいのは顔と考えられるので、2つ目と3つ目に面積が大きい肌色部分を手の候補として選択する。ユーザ指定位置を両手両方とした場合、その2つの肌色部分の候補に対する重心位置を、各々左右の手のユーザ指定位置とすればよい。またユーザ指定位置を1つとすると、2つの候補から1つを選ぶ必要があるが、予め例えば右手を指定する手としたら、体より右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置203とすればよい。左手の場合も同様である。
指示位置検出部3のこれらの実現例では、前述した検出処理をする前に、差分画像を用いた処理を加えることにより、精度を上げることもできる。差分画像は、例えば、反転画像202上で、予め撮影した背景画像(ユーザのいない状態で撮影した画像)と、現在撮影している現画像(ユーザがいる状態の画像)との間で作成する。差分画像は、例えば、全画素について、画素毎に背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。この差分画像を用いることにより、体等の動く物体だけを予め抽出しておき、その後前述したような画像処理(例えば体に付けたマーカを抽出する方法や、肌色を抽出する方法等)によりユーザ指定位置203を検出しその座標を取得すれば、背景画像に含まれるマーカの色や肌色に似た色の誤検出を減らせることが容易に推測できる。
このような指示位置検出部3により、コマンド選択のために、体全体を対象とせず、マーカや手のみを接触判定部位に用いることができるので、コマンド選択のためのアイコン等を任意の位置におけるのでその位置およびユーザ動作に関して高い自由度を得られる。
遠隔地側画像入力部4として、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。遠隔地側入力画像204は、ネットワーク13を介してユーザ側に送る。画像をネットワーク13を介して送る方法は、既存の一般的なインターネットを用いた映像データ送信技術を使うことによっても可能であり、また一般的な映像放送等による無線を用いた送信によっても、有線ネットワーク上での送信によっても容易に可能である。さらにまた、ネットワーク13を介さず、遠隔地側画像入力部4の出力204を直接画像重畳部5に接続することも可能である。ユーザ側と遠隔地側が比較的近い場所にある場合には、このような直接接続で映像信号を送る方法も有効である。その場合は図のネットワーク13は省略できる。
画像重畳部5は、反転画像生成部2で得られた反転画像202と、遠隔地側画像入力部4で得られた遠隔地側画像204を1つの画像に重ね合わせる(ステップ103)。この時、ユーザ12の自己像が写った反転画像202からユーザ12の体の輪郭(または動作入力に必要な手指等の部分画像だけもよい)を切り出し、遠隔地側画像204の上にその切り出した画像部分を重ね合わせる。ユーザ12の体の切り出しは、例えば画像処理により実現できる。切り出しの画像処理方法としては、背景差分によるユーザ12の切り出し方法がある。これは、例えば反転画像202(またはユーザ側の入力画像201)について予めユーザ12のいない場合の背景画像を撮影取得しておき、ユーザ12がいる場合に、背景画像とユーザ12がいる場合の画像との差分画像を生成することにより行える。差分画像は、例えば、全画素について、画素毎に背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。または、肌色認識処理を用いることにより、手の部分だけを切り出すことも容易に可能である。これらにより、遠隔地側画像204中にユーザ12が入り込んだかのような重畳画像を生成できる。
コマンド選択部6は、指示位置検出部3で得られたユーザ指示位置203と、ユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上での表示位置を照らし合わせ、両者の位置関係からユーザ12が指示しようとするコマンド情報206を探索し選択する(ステップ104)。ユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上での該表示位置は、各々予め、該遠隔地側入力画像上での表示位置を定めて記憶しておけばよい。例えば、ユーザ指示位置からある一定の距離範囲に表示位置を持つコマンドがあればそれを選択すればよい。コマンド情報206の表示位置は、コマンド毎に予め任意の位置に決めておけばよい。
情報表示部7は、画像重畳部5で得られた重畳画像202とコマンド選択部6で作成されたコマンド情報206とを重ね合わせてディスプレイ8に表示する(ステップ105)。ディスプレイ8は、コンピュータ用に使われる汎用のディスプレイでよく、コンピュータの画面とカメラ画像を表示できるものであればよい。コマンド情報206とは、コマンド表示位置やコマンド内容等のコマンドに関わる情報と、ユーザ12がその中から選択したコマンドの情報であり、その表示方法は、コンピュータで作成したCGで、選択可能なコマンド(群)、および選択されたコマンドを表示すればよい。また、指示位置検出部3で得られたユーザ指示位置203についても、例えばマウスのカーソル表示のようにリアルタイムに明示して表示してもよい。コマンドの内容としては、遠隔地側の物体を操作したり情報を表示するコマンドでもよいし、ユーザ側の部屋に関わる操作や情報表示を行うコマンドでもよい。遠隔地側の物体を操作したり情報を表示するコマンドであれば、重畳画像205中に遠隔地側の画像が表示されているので、ユーザ12にとって、操作の判断や、操作結果の確認が可能であり、ユーザ利便性の高いインタフェースを実現できる。
本実施形態によれば、ユーザ12は、自己画像が映った画面を見ながら、同じ画面上にCG表示されているコマンド情報207に手指等を重ね合わせるだけでコマンド選択が可能であるため、分かり易く間違いの少ない指示が可能になる。
(第2の実施形態)
図3は本発明の第2の実施形態のインタフェース装置の画像重畳部の構成図、図4はその処理を示すフローチャートである。
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザが12ディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、図1の第1の実施形態で示した画像重畳部5を、画像を半透明化処理する半透明化処理部5Aと、重畳処理部5Bで構成したものである。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、コマンド選択部6、情報表示部7の機能は、第1の実施形態と同様である。第1の実施形態と同様に、遠隔地側入力画像204をユーザ側に送る際にネットワーク13を介しても介さなくてもよい。
半透明化処理部5Aは、入力された反転画像203を半透明化する(ステップ103A)。半透明化の度合いを自由に設定することも容易に可能である。半透明化の方法は、画像データに対し、画素ごとに透明度(アルファ値とも言われ一般的な方法である)情報を持たせることで実現できる。重畳処理部5Bは、遠隔地側画像204を背景として、その上に、半透明化された反転画像を重ね合わせて(重畳して)1枚の画像(重畳画像)205を生成する(ステップ103B)。重畳する際は、半透明化された反転画像中の透明度の値の高い画素は、背景の画素値がその透明度の割合だけその画素情報(カラー画像ならカラー情報)が表示されることになる。例えば、透明度が0.7ならば、同じ位置の背景画素の情報を70%、残りの30%を反転画像205上の画素情報として、各々の値を加算して求めればよい。
本実施形態によれば、ユーザ12の自己像を含む反転画像202を半透明化して遠隔地側画像204に重畳するため、ユーザ12は遠隔地側入力画像204中の物体像と、ユーザ12の自己像を同時に見られるので、手指等と目的の物体を画像上で重ねる操作を行う際に、遠隔地でありながら、仮想的に同じ部屋にあるかのような操作性の高いインタフェースを実現できる。また、透明度は自由に設定できるので、重畳したときに、ユーザ12に最も操作しやすく自由に透明度を変更することができる。
また、半透明化処理部5Aは、反転画像202だけを半透明化するのではなく、遠隔地側入力画像204を半透明化処理し、反転画像202と重畳してもよい。もちろん、遠隔地側入力画像204と反転画像202の両方を半透明化してから重畳してもよい。これらにより、それぞれの入力画像の状態(撮影された照明条件、背景画像、物体・ユーザの色状態など)により、ユーザ12に最も操作しやすく自由に各々の透明度を変更することもできる。
(第3の実施形態)
図5は本発明の第3の実施形態のインタフェース装置の構成図、図6はその処理を示すフローチャートである。
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5と実物体検出部9と情報表示部7と実物体登録部10で構成される。
本実施形態では、第1の実施形態の内容に加え、第1の実施形態で示したコマンド選択部6に、実物体14の検出ができる仕組みを装備している。具体的には、第1の実施形態のコマンド選択部6が実物体検出部9と実物体登録部10で構成されている。実物体登録部10は実物***置データ10Aと実物体登録処理部10Bで構成される。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、画像重畳部5、情報表示部7は、第1の実施形態と同様である。第1、第2の実施形態と同様に、遠隔地側入力画像204をユーザ側に送る際に、ネットワーク13を介しても介さなくてもよい。また、画像重畳部5は、第2の実施形態のように、半透明化処理を含んだ処理も可能である。
実物体登録処理部10Bは、遠隔地側入力画像204上に含まれている任意の実物体14(例えば家の中とすると、テレビ、エアコン、コンピュータ、時計、窓、棚、椅子、机、引出し、書類、オーディオ機器、照明機器等)について、該遠隔地側入力画像204上での表示位置を予め各々求め、実物***置データ10Aへ各々登録・保存する(ステップ106)。
実物***置データ10Aは、物体の中心座標(x,y)1個でもよいが、範囲を示す情報(例えば、矩形枠の始点座標(x1,y1)と終点座標(x2,y2)や、中心座標(x,y)と半径値rや、または物体の存在する全ドットの座標リスト等)を持たせておいてもよい。第1の実施形態の指示位置検出部3での処理と同様に中心座標は重心座標に置き換えてもよい。
実物体検出部9は、実物***置データ10Aに保存されている複数の位置データと、指示位置検出部3で得られたユーザ指示位置203とを照らし合わせ、第1の実施形態のコマンド選択部6と同様に、両者の位置関係に基づきユーザ12が指示しようとする実物体14を検出し選択する(ステップ107)。例えば、ユーザ指示位置からある一定の距離範囲に実物体14の位置データがあればそれを選択すればよい。または、実物***置データ10Aとして範囲を持たせておいた場合は、ユーザ指示位置の座標がその範囲に含まれる実物体14を検出し、選択する。
図7に本実施形態によるインタフェース動作の例を示す。
遠隔地側入力画像204上に映っている実物体について、予め表示位置を求め、各々実物***置データ10Aへ登録しておく。ユーザ側入力画像201を反転した反転画像202が遠隔地側入力画像204の上に重畳されており、ユーザ12が動作すると、重畳画像205上のユーザ像は、遠隔地側の実物体の前面で動作しているように見える。ユーザ12が指示動作をしていない時は何も反応しないが、ユーザ12がアクセスしたい実物体に手指(やマーカ)等を重ねる動作を行い、実物体検出部9で実物体を検出したと判定した時、検出された実物体の位置が明示される。その明示の仕方は、例えば、実物体と同じ形もしくはほぼ同じ大きさのアイコン(必要に応じ色を変えたものや半透明にしたものや点滅させたもの等)を該実物体の上に重ねて表示する方法や、実物体の中心付近や実物体周囲にCGによるマーカ(必要に応じ色を変えたものや半透明にしたものや点滅させたもの等)を表示する方法など容易に考えられる。すなわち、実際は実物***置上の仮想のアイコン、もしくは表示した(透明もしくはその他の色の)CGアイコンを触ることとなる。また、検出された実物体の周囲等に、関連する情報(名称や状態等)を表示してもよい。さらに、図のように、検出された実物***置の周囲等に、その後続けて選択すべきメニューリストをCG表示し、ユーザ12はそのメニューリストから同様の選択方法(すなわち手指等を選択したいメニューアイコンに重ね合わせて選択する方法)等によりメニューを選択し実行することも可能である。
これにより、ユーザ12は、画像上に表示されたCGアイコンを指定してコマンド選択できるだけでなく、遠隔地にある実物体14を、画像中の物体像208を介して直接選択することも可能となる。第1の実施形態のようにCGによるコマンド選択と組み合わせれば、例えば、遠隔地のテレビ等を指し示して選択すると、テレビのスイッチやチャンネル等を制御できるようなコマンド選択用CGメニューが該実物体(テレビ)の周辺に表示され、ユーザ12は続けてコマンド選択を行い、遠隔地の実物体(テレビ)に対して各種操作を行うことが可能である。
また、遠隔地の実物体側でユーザ12に提示すべき情報を獲得していた場合、重畳画像205上の該実物体像の上または周囲に該情報を表示したり、もしくはアイコン(色を変えたものや半透明にしたものや点滅させたもの等)を該実物体像の上に重ねたりして明示し、見ているユーザ12に知らせるようにすることも考えられる。その後は前述と同様に、ユーザ12が該実物体を選択すると、必要な情報やCGメニューを表示できる。
(第4の実施形態)
図8は本発明の第4の実施形態のインタフェース装置の構成図、図9はその処理を示すフローチャートである。
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5と実物体検出部9と情報表示部7と実物体登録部10と実物***置検出部11で構成される。以下、本発明の動作を説明する。
本実施形態では、第3の実施形態の内容に加え、遠隔地側に実物体の位置をリアルタイムに検出できる仕組みを装備している。具体的には、第3の実施形態に加え、実物***置検出部11を装備している。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、画像重畳部5、情報表示部7、実物体登録部10は、第3の実施形態と同様である。第1、第2、第3の実施形態と同様に、遠隔地側画像入力部4、実物***置検出部11は、ユーザ側とはネットワーク13を介しても介さなくてもよい。また、画像重畳部5は、第2の実施形態のように、半透明化処理を含んだ処理方法も可能である。
実物***置検出部11は、遠隔地側画像入力部4から送られた遠隔地側入力画像204を入力し、対象とする物体の画像上の位置を求める処理を行う(ステップ108)。物***置を求める方法としては、対象とする実物体毎に位置認識可能なセンサ(広く市販も研究開発もされており、磁気センサ、超音波センサ、赤外線センサ等各種ある)を取り付けておくことにより、各々の物体の位置をリアルタイムに検出する方法がある。また、物***置を求める他の方法としては、撮影している遠隔地側入力画像204を用い、画像処理により求める方法がある。具体的には、対象とする物体の色や形状情報を予め登録しておき、該画像の上で、登録している物体をパターンマッチング処理等の画像処理により検出すればよい。パターンマッチング処理の方法については、汎用の画像処理ソフトの1機能として装備されていたり、また広く市販・研究開発が行われているものであり、容易に利用・実現可能である。画像処理を用いた方法の場合は、図8に示した物体14に取り付けるセンサ15はなくてもよい。
本実施形態によれば、実物***置データを常時更新していくことも可能であり、物体を移動させてもその位置情報も移動させられるので、情報表示部7によってユーザ側に表示される画像上では、物体が移動しても移動した先の物体(現時点の物体)をユーザ12は画面上で触ることができる。
(第5の実施形態)
以上の実施形態では、遠隔地側からユーザ側へ画像が流れ、ユーザ側で操作するものであったが、いずれの実施形態でも、本システムを2セット用いて、互いに逆向きに設置することにより、双方向の操作が可能なインタフェース装置を実現可能である。これにより、遠隔地間でそれぞれにユーザがいて、互いの部屋の背景に移っている物体を操作したり情報表示したりすることも可能であり、その際、互いのユーザも同一の画面に重畳することも容易に可能であるので、両ユーザがあたかも1つの同部屋にいて、同じく見えている物体を2人で確認しながら触ることも可能である。
(第6の実施形態)
以上の実施形態では、2箇所の地点を接続するものであったが、本システムにおける遠隔地側を複数設定することも可能である。また、同様にユーザ側を複数設定することも容易に可能である。さらに、第5の実施形態のような双方向操作を可能とすれば、任意の地点のユーザが任意の地点のユーザもしくは物体に対して機器操作や情報表示(情報取得)を行うことができる。重畳する画像としては、そのうちの必要な2地点の画像を重畳し、必要に応じ別の2地点に切り替える方法でもよいし、また必要な3地点以上の画像を重畳して表示してもよい。
なお、本発明のインタフェース方法は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。
本発明の第1の実施形態のインタフェース装置の構成図である。 第1の実施形態の処理を示すフローチャートである。 本発明の第2の実施形態のインタフェース装置の構成図である。 第2の実施形態の処理を示すフローチャートである。 本発明の第3の実施形態のインタフェース装置の構成図である。 第3の実施形態の処理を示すフローチャートである。 第3の実施形態における操作例を説明する図である。 本発明の第4の実施形態のインタフェース装置の構成図である。 第4の実施形態の処理を示すフローチャートである。
符号の説明
1 ユーザ側画像入力部
2 反転画像生成部
3 指示位置検出部
4 遠隔地側画像入力部
5 画像重畳部
5A 半透明化処理部
5B 重畳処理部
6 コマンド選択部
7 情報表示部
8 ディスプレイ
9、9´ 実物体検出部
10 実物体登録部
10A 実物***置データ
10B 実物体登録処理部
11 実物***置検出部
12 ユーザ
13 ネットワーク
14 実物体
15 センサ
101 反転画像生成処理
102 指示位置検出処理
103 画像重畳処理
103A 半透明化処理
103B 画像重畳処理
104 コマンド選択処理
105 情報表示処理
106 実物体データ処理
107 実物体検出処理
108 実物***置検出処理
201 ユーザ側入力画像
202 反転画像
203 指示位置座標
204 遠隔地側入力画像
205 重畳画像
206 コマンド情報
207 選択コマンド情報
208 物体像

Claims (9)

  1. カメラで撮影された操作者を含む画像またはその左右反転した画像を入力画像とし、操作者がその入力画像を見ながら、該画面上の定められた場所へ、画像上に表示されている操作者の体の一部の部分画像もしくは装着したマーカの部分画像を移動し重ねることにより、該部分画像の画面上での位置に基づき操作者の動作を認識するインタフェース方法であって、
    操作者側の画像を入力し、左右反転した反転画像を生成する段階と、
    該反転画像上で操作者の指示している位置を検出する段階と、
    遠隔地側の画像を入力する段階と、
    検出された操作者の指示位置に対応する実物体を遠隔地側入力画像中から検出する段階と、
    該反転画像と該遠隔地側入力画像とを重畳した画像を生成する段階と、
    該重畳画像上で、操作者の指定するコマンドを選択する段階と、
    該指定されたコマンドに基づき該重畳画像上に情報を表示する段階とを有するインタフェース方法。
  2. 前記の、反転画像と遠隔地側入力画像とを重畳して表示する段階が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する段階を含む、請求項1記載のインタフェース方法。
  3. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する段階が、該遠隔地側入力画像上において任意の実物***置を予め登録する段階と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する段階とを含む、請求項1または2に記載のインタフェース方法。
  4. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する段階が、遠隔地側の実物体の位置を検出する段階と、得られた実物***置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する段階とを含む、請求項1または2記載のインタフェース方法。
  5. カメラで撮影された操作者を含む画像またはその左右反転した画像を入力画像とし、操作者がその入力画像を見ながら、該画面上の定められた場所へ、画像上に表示されている操作者の体の一部の部分画像もしくは装着したマーカの部分画像を移動し重ねることにより、該部分画像の画面上での位置に基づき操作者の動作を認識するインタフェース装置であって、
    操作者側の画像を入力し、左右反転した反転画像を生成する手段と、
    該反転画像上で操作者の指示している位置を検出する手段と、
    遠隔地側の画像を入力する手段と、
    検出された操作者の指示位置に対応する実物体を遠隔地側入力画像中から検出する手段と、
    該反転画像と該遠隔地側入力画像とを重畳した画像を生成する手段と、
    該重畳画像上で、操作者の指定するコマンドを選択する手段と、
    該指定されたコマンドに基づき該重畳画像上に情報を表示する手段とを有するインタフェース装置。
  6. 前記の、反転画像と遠隔地側入力画像とを重畳して表示する手段が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する手段を含む、請求項5記載のインタフェース装置。
  7. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、該遠隔地側入力画像上において任意の実物***置を予め登録する手段と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する手段とを含む、請求項5または6に記載のインタフェース装置。
  8. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、遠隔地側の実物体の位置を検出する手段と、得られた実物***置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する手段とを含む、請求項5または6に記載のインタフェース装置。
  9. 請求項1から4のいずれかに記載のインタフェース方法をコンピュータに実行させるためのインタフェースプログラム。
JP2003293788A 2003-08-15 2003-08-15 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム Pending JP2005063225A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003293788A JP2005063225A (ja) 2003-08-15 2003-08-15 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003293788A JP2005063225A (ja) 2003-08-15 2003-08-15 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム

Publications (1)

Publication Number Publication Date
JP2005063225A true JP2005063225A (ja) 2005-03-10

Family

ID=34370579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003293788A Pending JP2005063225A (ja) 2003-08-15 2003-08-15 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム

Country Status (1)

Country Link
JP (1) JP2005063225A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287004A (ja) * 2004-03-03 2005-10-13 Canon Inc 画像表示方法、プログラム、画像表示装置及び画像表示システム
JP2007074731A (ja) * 2005-09-07 2007-03-22 Fuji Xerox Co Ltd 3次元マルチカメラビデオ監視支援システム、3次元マルチカメラビデオ監視支援方法、3次元マルチカメラビデオ監視支援プログラム
WO2009078144A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 空間入力動作表示装置
WO2009119026A1 (ja) * 2008-03-27 2009-10-01 日本写真印刷株式会社 プレゼンテーションシステム
JP2010015212A (ja) * 2008-07-01 2010-01-21 Totsu:Kk 画像情報表示装置及び手書き書込み画像情報入力方法
JP2010541053A (ja) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
JP2013506925A (ja) * 2009-10-05 2013-02-28 アルカテル−ルーセント 拡張物体との対話用デバイス
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
JP2013140568A (ja) * 2011-12-09 2013-07-18 Sony Corp 情報処理装置、情報処理方法、および記録媒体
JP2014067381A (ja) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd サービス提供装置、それに用いる制御方法及びコンピュータプログラム
CN105565103A (zh) * 2016-03-16 2016-05-11 广州日滨科技发展有限公司 电梯故障检测方法及装置
JP2016524221A (ja) * 2013-05-14 2016-08-12 クアルコム,インコーポレイテッド 拡張現実(ar)キャプチャおよびプレイ
JP2019207573A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2021039567A (ja) * 2019-09-03 2021-03-11 東芝システムテクノロジー株式会社 作業支援システム及びプログラム

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287004A (ja) * 2004-03-03 2005-10-13 Canon Inc 画像表示方法、プログラム、画像表示装置及び画像表示システム
JP4677245B2 (ja) * 2004-03-03 2011-04-27 キヤノン株式会社 画像表示方法、プログラム、画像表示装置及び画像表示システム
JP2007074731A (ja) * 2005-09-07 2007-03-22 Fuji Xerox Co Ltd 3次元マルチカメラビデオ監視支援システム、3次元マルチカメラビデオ監視支援方法、3次元マルチカメラビデオ監視支援プログラム
JP2010541053A (ja) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
WO2009078144A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 空間入力動作表示装置
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
WO2009119026A1 (ja) * 2008-03-27 2009-10-01 日本写真印刷株式会社 プレゼンテーションシステム
JP2009237951A (ja) * 2008-03-27 2009-10-15 Nissha Printing Co Ltd プレゼンテーションシステム
JP2010015212A (ja) * 2008-07-01 2010-01-21 Totsu:Kk 画像情報表示装置及び手書き書込み画像情報入力方法
JP2013506925A (ja) * 2009-10-05 2013-02-28 アルカテル−ルーセント 拡張物体との対話用デバイス
US9063537B2 (en) 2009-10-05 2015-06-23 Alcatel Lucent Device for interaction with an augmented object
JP2015099603A (ja) * 2010-02-24 2015-05-28 大日本印刷株式会社 画像表示システム
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
JP2013140568A (ja) * 2011-12-09 2013-07-18 Sony Corp 情報処理装置、情報処理方法、および記録媒体
US10564827B2 (en) 2011-12-09 2020-02-18 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2014067381A (ja) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd サービス提供装置、それに用いる制御方法及びコンピュータプログラム
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
JP2016524221A (ja) * 2013-05-14 2016-08-12 クアルコム,インコーポレイテッド 拡張現実(ar)キャプチャおよびプレイ
US11112934B2 (en) 2013-05-14 2021-09-07 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US11880541B2 (en) 2013-05-14 2024-01-23 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
CN105565103A (zh) * 2016-03-16 2016-05-11 广州日滨科技发展有限公司 电梯故障检测方法及装置
JP2019207573A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置及びプログラム
CN110543233A (zh) * 2018-05-29 2019-12-06 富士施乐株式会社 信息处理设备和非暂时性计算机可读介质
JP7135444B2 (ja) 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN110543233B (zh) * 2018-05-29 2024-06-07 富士胶片商业创新有限公司 信息处理设备和非暂时性计算机可读介质
JP2021039567A (ja) * 2019-09-03 2021-03-11 東芝システムテクノロジー株式会社 作業支援システム及びプログラム
JP7398227B2 (ja) 2019-09-03 2023-12-14 東芝システムテクノロジー株式会社 作業支援システム及びプログラム

Similar Documents

Publication Publication Date Title
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
US8666115B2 (en) Computer vision gesture based control of a device
US8902158B2 (en) Multi-user interaction with handheld projectors
US9565238B2 (en) Method for controlling electronic apparatus, handheld electronic apparatus and monitoring system
TWI524210B (zh) 基於自然姿勢之使用者介面方法及系統
JP5617246B2 (ja) 画像処理装置、物体選択方法及びプログラム
US20070216642A1 (en) System For 3D Rendering Applications Using Hands
JPH0844490A (ja) インターフェイス装置
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
US20160012612A1 (en) Display control method and system
JP2009134718A5 (ja)
US20120229509A1 (en) System and method for user interaction
JP2007257639A (ja) 映像パターンを利用したポインティング入力装置、方法、およびシステム
JP2009245444A (ja) ポインティングデバイスに基づくユーザインターフェイスシステム
US20140053115A1 (en) Computer vision gesture based control of a device
TW200525410A (en) Method and apparatus for light input device
KR102163742B1 (ko) 전자 장치 및 그 동작 방법
JP4555701B2 (ja) 情報処理方法、インタフェース装置、プログラム、および記録媒体
JP2004078977A (ja) インターフェイス装置
JP2008235989A (ja) 画像処理装置および画像処理方法
CN116830066A (zh) 图像处理装置、图像处理方法和图像处理***
JP2006268209A (ja) ユーザの身体動作による遠隔命令入力装置
KR20100048747A (ko) 안면 추적을 이용한 모바일 유저 인터페이스 장치
CN109144598A (zh) 基于手势的电子面罩人机交互方法与***
Hosoya et al. A mirror metaphor interaction system: touching remote real objects in an augmented reality environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050714

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070124

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070201