JP6381361B2 - データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム - Google Patents

データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム Download PDF

Info

Publication number
JP6381361B2
JP6381361B2 JP2014167828A JP2014167828A JP6381361B2 JP 6381361 B2 JP6381361 B2 JP 6381361B2 JP 2014167828 A JP2014167828 A JP 2014167828A JP 2014167828 A JP2014167828 A JP 2014167828A JP 6381361 B2 JP6381361 B2 JP 6381361B2
Authority
JP
Japan
Prior art keywords
operator
data processing
distance image
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014167828A
Other languages
English (en)
Other versions
JP2016045588A5 (ja
JP2016045588A (ja
Inventor
亮 小坂
亮 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014167828A priority Critical patent/JP6381361B2/ja
Priority to US14/823,543 priority patent/US20160054806A1/en
Priority to CN201510514247.XA priority patent/CN105391889A/zh
Publication of JP2016045588A publication Critical patent/JP2016045588A/ja
Publication of JP2016045588A5 publication Critical patent/JP2016045588A5/ja
Application granted granted Critical
Publication of JP6381361B2 publication Critical patent/JP6381361B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • H04N1/00251Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector with an apparatus for taking photographic images, e.g. a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00278Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a printing apparatus, e.g. a laser beam printer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/4406Restricting access, e.g. according to user identity
    • H04N1/442Restricting access, e.g. according to user identity using a biometric data reading device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2113Multi-level security, e.g. mandatory access control

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、同一画面上に複数の操作項目を含む操作画面を複数の操作者が同時に操作することが可能なデータ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラムに関する。
近年、原稿の画像データを読み取る装置として、書画台に載置した原稿をカメラで撮像して、カメラで撮像した原稿の画像データを処理して記憶するカメラスキャナが知られている(特許文献1)。
また、このようなカメラスキャナにおいて、カメラにより撮像した画像データと操作ボタンをプロジェクタにより書画台上に投射する画像処理システムが知られている。このような画像処理システムにおいて、投射された画面上でのユーザによる操作を検出することにより、撮像した画像データを印刷すること等が可能である。
特開2006−115334号公報
しかしながら、上述した画像処理システムにおいては、複数の操作者が同時に操作画面を操作するユースケースを考慮したものではなかった。例えば保険契約などの手続きを行う場面において、書画台に置かれた契約書をカメラにより撮影し、得られた画像データをプロジェクタにより書画台に投射すると共に、内容確認のためのチェックボックスを書画台上に投射するものとする。この場合、保険会社の担当者と顧客が同時に操作画面を操作することが可能となるが、チェックボックスについては顧客が担当者からの説明に納得した時のみ入力可能とすべきであり、担当者が勝手に入力できるようにするのは望ましくない。
本発明は、同一画面上に複数の操作項目を含む操作画面を複数の操作者が同時に操作可能なシステムにおいて、操作項目毎に操作可能な操作者を限定できるようにすることを目的とする。
上記課題を解決するため、本発明は、同一画面上に複数の操作項目を含む操作画面を第1の操作者と第2の操作者が同時に操作することが可能なデータ処理装置であって、前記操作画面を所定の領域に投射する投射手段と、前記投射手段により投射された前記操作画面に対する操作を行った操作者が第1の操作者であるか第2の操作者であるかを判定する判定手段と、前記判定手段により前記第1の操作者であると判定された場合、前記操作画面に含まれる第1の操作項目、及び前記操作画面に含まれる第2の操作項目に対する操作を有効とし、前記判定手段により前記第2の操作者であると判定された場合、前記第1の操作項目に対する操作を有効とし、前記第2の操作項目に対する操作を無効とするよう制御する制御手段と、前記第1の操作者が前記データ処理装置を操作可能な位置に存在するか否かを確認する確認手段と、を有し、前記制御手段は、前記確認手段による確認の結果、前記第1の操作者が前記データ処理装置を操作可能な位置に存在しないと確認された場合には、前記第2の操作者による前記第1の操作項目に対する操作を無効とするよう制御することを特徴とする。
本発明によれば、同一画面上に複数の操作項目を含む操作画面を複数の操作者が同時に操作可能なシステムにおいて、操作項目毎に操作可能な操作者を限定することが可能となる。
カメラスキャナ101のネットワーク構成を示す図の一例である。 カメラスキャナ101の外観の一例を示す図である。 コントローラ部201等のハードウェア構成の一例を示す図である。 カメラスキャナ101の機能構成401の一例を示す図である。 距離画像取得部409の処理の一例を示すフローチャート等である。 ジェスチャー認識部411の処理の一例を示すフローチャート等である。 指先検出処理を説明するための模式図である。 カメラスキャナ101の利用シーンを示す図の一例である。 実施形態1のメイン制御部402の処理の一例を示すフローチャートである。 操作画面および操作の様子を示す図の一例である。 実施形態1のジェスチャー操作者特定部412の一例を示すフローチャート等である。 実施形態1の操作権限管理テーブル1201の一例を示す図である。 操作画面の一例を示す図である。 実施形態2のメイン制御部402の処理の一例を示すフローチャートである。 実施形態2の離席状況確認処理の一例を示す図である。 実施形態2の操作権限管理テーブル1601の一例を示す図である。 実施形態3のメイン制御部402の処理の一例を示すフローチャートである。 実施形態3の実行制限確認時時の操作の一例を示す図である。 実施形態3の操作権限管理テーブル1901の一例を示す図である。
以下、本発明を実施するための最良の形態について図面を参照して説明する。
<実施形態1>
図1は、実施形態に係るカメラスキャナ101が含まれるネットワーク構成を示す図である。
図1に示すように、カメラスキャナ101は、ネットワーク104にてホストコンピュータ102及びプリンタ103に接続されている。なお、カメラスキャナ101は、画像処理装置の一例である。図1のシステム構成において、ホストコンピュータ102からの指示により、カメラスキャナ101から画像を読み取るスキャン機能や、スキャンデータをプリンタ103により出力するプリント機能の実行が可能である。また、ホストコンピュータ102を介さず、カメラスキャナ101への直接の指示により、スキャン機能、プリント機能の実行も可能である。
(カメラスキャナの構成)
図2は、実施形態に係るカメラスキャナ101の外観の一例を示す図である。
図2(a)に示すように、カメラスキャナ101は、コントローラ部201、カメラ部202、腕部203、短焦点プロジェクタ207(以下、プロジェクタ207という)、距離画像センサ208を含む。カメラスキャナ101の本体であるコントローラ部201と、撮像を行うためのカメラ部202、プロジェクタ207及び距離画像センサ208は、腕部203により連結されている。腕部203は関節を用いて曲げ伸ばしが可能である。ここで、カメラ部202は、撮像画像を取得する撮像部の一例である。プロジェクタ207は、後述するユーザが操作を行うための操作画面(操作表示)を投射する投射部の一例である。距離画像センサ208は、距離画像を取得する距離画像取得部の一例である。
図2(a)には、カメラスキャナ101が設置されている書画台204も示されている。カメラ部202及び距離画像センサ208のレンズは、書画台204方向に向けられており、破線で囲まれた読み取り領域205内の画像を読み取り可能である。図2の例では、原稿206は読み取り領域205内に置かれているので、カメラスキャナ101で読み取り可能である。また、書画台204内にはターンテーブル209が設けられている。ターンテーブル209は、コントローラ部201からの指示によって回転することが可能であり、ターンテーブル209上に置かれた物体(被写体)とカメラ部202との角度を変えることができる。
カメラ部202は、単一解像度で画像を撮像するものとしてもよいが、高解像度画像撮像と低解像度画像撮像とが可能なものとすることが好ましい。
なお、図2に示されていないが、カメラスキャナ101は、LCDタッチパネル330及びスピーカ340を更に含むこともできる。
図2(b)は、カメラスキャナ101における座標系を表している。カメラスキャナ101では各ハードウェアデバイスに対して、カメラ座標系、距離画像座標系、プロジェクタ座標系という座標系が定義される。これらはカメラ部202及び距離画像センサ208のRGBカメラが撮像する画像平面、又はプロジェクタ207が投射(投影)する画像平面をXY平面とし、画像平面に直交した方向をZ方向として定義したものである。更に、これらの独立した座標系の3次元データを統一的に扱えるようにするために、書画台204を含む平面をXY平面とし、このXY平面から上方に垂直な向きをZ軸とする直交座標系を定義する。
座標系を変換する場合の例として、図2(c)に直交座標系と、カメラ部202を中心としたカメラ座標系を用いて表現された空間と、カメラ部202が撮像する画像平面との関係を示す。直交座標系における3次元点P[X,Y,Z]は、式(1)によって、カメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換できる。
Figure 0006381361
ここで、Rc及びtcは、直交座標系に対するカメラの姿勢(回転)と位置(並進)とによって求まる外部パラメータによって構成され、Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。逆に、カメラ座標系で定義された3次元点は式(2)によって、直交座標系へ変換することができる。
Figure 0006381361
更に、カメラ部202で撮影される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。即ち、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を、式(3)によってカメラ画像平面での2次元座標pc[xp,yp]に透視投影変換することによって変換することができる。
Figure 0006381361
ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心等とで表現される3×3の行列である。
以上のように、式(1)と式(3)とを用いることで、直交座標系で表された3次元点群を、カメラ座標系での3次元点群座標やカメラ画像平面に変換することができる。なお、各ハードウェアデバイスの内部パラメータ及び直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法により予めキャリブレーションされているものとする。以後、特に断りがなく3次元点群と表記した場合は、直交座標系における3次元データ(立体データ)を表しているものとする。
(カメラスキャナのコントローラのハードウェア構成)
図3は、カメラスキャナ101の本体であるコントローラ部201等のハードウェア構成の一例を示す図である。
図3に示すように、コントローラ部201は、システムバス301に接続されたCPU302、RAM303、ROM304、HDD305、ネットワークI/F306、画像処理プロセッサ307を含む。また、コントローラ部201は、カメラI/F308、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311及びUSBコントローラ312を含む。
CPU302は、コントローラ部201全体の動作を制御する中央演算装置である。RAM303は、揮発性メモリである。ROM304は、不揮発性メモリであり、CPU302の起動用プログラムが格納されている。HDD305は、RAM303と比較して大容量なハードディスクドライブ(HDD)である。HDD305にはコントローラ部201の実行する、カメラスキャナ101の制御用プログラムが格納されている。CPU302が、ROM304やHDD305に格納されているプログラムを実行することにより、カメラスキャナ101の機能構成及び後述するフローチャートの処理(情報処理)が実現される。
CPU302は、電源ON等の起動時、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、CPU302がHDD305に格納されている制御用プログラムを読み出し、RAM303上に展開するためのものである。CPU302は、起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、制御を行う。また、CPU302は、制御用プログラムによる動作に用いるデータもRAM303上に格納して読み書きを行う。HDD305上には更に、制御用プログラムによる動作に必要な各種設定や、また、カメラ入力によって生成した画像データを格納することができ、CPU302によって読み書きされる。CPU302は、ネットワークI/F306を介してネットワーク104上の他の機器との通信を行う。
画像処理プロセッサ307は、RAM303に格納された画像データを読み出して処理し、またRAM303へ書き戻す。なお、画像処理プロセッサ307が実行する画像処理は、回転、変倍、色変換等である。
カメラI/F308は、カメラ部202及び距離画像センサ208と接続され、CPU302からの指示に応じてカメラ部202から画像データを、距離画像センサ208から距離画像データを取得してRAM303へ書き込む。また、カメラI/F308は、CPU302からの制御コマンドをカメラ部202及び距離画像センサ208へ送信し、カメラ部202及び距離画像センサ208の設定を行う。
また、コントローラ部201は、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311及びUSBコントローラ312のうち少なくとも1つを更に含むことができる。
ディスプレイコントローラ309は、プロジェクタ207及びLCDタッチパネル330に接続されており、CPU302の指示に応じて画像データの表示を制御する。
シリアルI/F310は、シリアル信号の入出力を行う。ここでは、シリアルI/F310は、ターンテーブル209に接続され、CPU302の回転開始・終了及び回転角度の指示をターンテーブル209へ送信する。また、シリアルI/F310は、LCDタッチパネル330に接続され、CPU302はLCDタッチパネル330が押下されたときに、シリアルI/F310を介して押下された座標を取得する。
オーディオコントローラ311は、スピーカ340に接続され、CPU302の指示に応じて音声データをアナログ音声信号に変換し、スピーカ340を通じて音声を出力する。
USBコントローラ312は、CPU302の指示に応じて外付けのUSBデバイスの制御を行う。ここでは、USBコントローラ312は、USBメモリやSDカード等の外部メモリ350に接続され、外部メモリ350へのデータの読み書きを行う。
(カメラスキャナの機能構成)
図4は、CPU302が制御用プログラムを実行することにより実現されるカメラスキャナ101の機能構成401の一例を示す図である。カメラスキャナ101の制御用プログラムは前述のようにHDD305に格納され、CPU302が起動時にRAM303上に展開して実行する。
メイン制御部402は制御の中心であり、機能構成401内の他の各モジュールを制御する。
画像取得部407は、画像入力処理を行うモジュールであり、カメラ画像取得部408、距離画像取得部409から構成される。カメラ画像取得部408は、カメラI/F308を介してカメラ部202が出力する画像データを取得し、RAM303へ格納する(撮像画像取得処理)。距離画像取得部409は、カメラI/F308を介して距離画像センサ208が出力する距離画像データを取得し、RAM303へ格納する(距離画像取得処理)。距離画像取得部409の処理の詳細は図5を用いて後述する。
認識処理部410はカメラ画像取得部408、距離画像取得部409が取得する画像データから書画台204上の物体の動きを検知して認識するモジュールであり、ジェスチャー認識部411、ジェスチャー操作者特定部412から構成される。ジェスチャー認識部411は、画像取得部407から書画台204上の画像を取得し続け、タッチ等のジェスチャーを検知するとメイン制御部402へ通知する。ジェスチャー操作者特定部412は、ジェスチャー認識部411で検知されたジェスチャーを行った操作者を特定し、メイン制御部402へ通知する。ジェスチャー認識部411、ジェスチャー操作者特定部412の処理の詳細は図6および図10を用いて後述する。
画像処理部413は、カメラ部202および距離画像センサ208から取得した画像を画像処理プロセッサ307で解析するために用いられる。前述のジェスチャー認識部411やジェスチャー操作者特定部412なども画像処理部413の機能を利用して実行される。
ユーザーインターフェイス部403は、メイン制御部402からの要求を受け、メッセージやボタン等のGUI部品を生成する。そして、ユーザーインターフェイス部403は生成したGUI部品の表示を表示部406へ要求する。表示部406はディスプレイコントローラ309を介して、プロジェクタ207もしくはLCDタッチパネル330へ要求されたGUI部品の表示を行う。プロジェクタ207は、書画台204に向けて設置されているため、書画台204上にGUI部品を投射することが可能となっている。すなわち、書画台204には、プロジェクタ207により画像が投射される投射領域が含まれる。また、ユーザーインターフェイス部403は、ジェスチャー認識部411が認識したタッチ等のジェスチャー操作、又はシリアルI/F310を介したLCDタッチパネル330からの入力操作、そしてさらにそれらの座標を受信する。そして、ユーザーインターフェイス部403は、描画中の操作画面の内容と操作座標を対応させて操作内容(押下されたボタン等)を判定する。ユーザーインターフェイス部403がこの操作内容をメイン制御部402へ通知することにより、操作者の操作を受け付ける。
ネットワーク通信部404は、ネットワークI/F306を介して、ネットワーク104上の他の機器とTCP/IPによる通信を行う。
データ管理部405は、CPU302が制御用プログラムを実行することにより生成した作業データ等の様々なデータをHDD305上の所定の領域へ保存し、管理する。
(距離画像センサ及び距離画像取得部の説明)
距離画像センサ208は赤外線によるパターン投射方式の距離画像センサであり、図3に示すように、赤外線パターン投射部361、赤外線カメラ362、RGBカメラ363から構成される。赤外線パターン投射部361は対象物に対して、人の目には不可視である赤外線によって3次元測定パターンを投射する。赤外線カメラ362は対象物に投射された3次元測定パターンを読み取るカメラである。RGBカメラ363は人の目に見える可視光をRGB信号で撮影するカメラである。
距離画像取得部409の処理を図5(a)のフローチャートを用いて説明する。また、図5(b)〜(d)はパターン投射方式による距離画像の計測原理を説明するための図面である。
距離画像取得部409は、処理を開始すると、S501では図5(b)に示すように赤外線パターン投射部361を用いて赤外線による3次元形状測定パターン(立体形状測定パターン)522を対象物521に投射する。
S502で、距離画像取得部409は、RGBカメラ363を用いて対象物を撮影したRGBカメラ画像523、及び赤外線カメラ362を用いてS501で投射した3次元形状測定パターン522を撮影した赤外線カメラ画像524を取得する。なお、赤外線カメラ362とRGBカメラ363とでは設置位置が異なるため、図5(c)に示すようにそれぞれで撮影される2つのRGBカメラ画像523及び赤外線カメラ画像524の撮影領域が異なる。
S503で、距離画像取得部409は、赤外線カメラ362の座標系からRGBカメラ363の座標系への座標系変換を用いて赤外線カメラ画像524をRGBカメラ画像523の座標系に合わせる。なお、赤外線カメラ362とRGBカメラ363との相対位置や、それぞれの内部パラメータは事前のキャリブレーション処理により既知であるとする。
S504で、距離画像取得部409は、図5(d)に示すように、3次元形状測定パターン522とS503で座標変換を行った赤外線カメラ画像524との間での対応点を抽出する。例えば、距離画像取得部409は、赤外線カメラ画像524上の1点を3次元形状測定パターン522上から探索して、同一の点が検出された場合に対応付けを行う。また、距離画像取得部409は、赤外線カメラ画像524の画素の周辺のパターンを3次元形状測定パターン522上から探索し、一番類似度が高い部分と対応付けてもよい。
S505で、距離画像取得部409は、赤外線パターン投射部361と赤外線カメラ362とを結ぶ直線を基線525として三角測量の原理を用いて計算を行うことにより、赤外線カメラ362からの距離を算出する。距離画像取得部409は、S504で対応付けができた画素については、その画素に対応する位置における対象物521と赤外線カメラ362との距離を算出して画素値として保存する。一方、距離画像取得部409は、対応付けができなかった画素については、距離の計測ができなかった部分として無効値を保存する。距離画像取得部409は、これをS503で座標変換を行った赤外線カメラ画像524の全画素に対して行うことで、各画素に距離値(距離情報)が入った距離画像を生成する。
S506で、距離画像取得部409は、距離画像の各画素にRGBカメラ画像523のRGB値を保存することにより、1画素につきR、G、B、距離の4つの値を持つ距離画像を生成する。ここで取得した距離画像は、距離画像センサ208のRGBカメラ363で定義された距離画像センサ座標系が基準となっている。
そこでS507で、距離画像取得部409は、図2(b)を用いて上述したように、距離画像センサ座標系として得られた距離情報を直交座標系における3次元点群に変換する。以後、特に指定がなく3次元点群と表記した場合は、直交座標系における3次元点群を示すものとする。
なお、本実施形態では上述したように、距離画像センサ208として赤外線パターン投射方式を採用しているが、他の方式の距離画像センサを用いることも可能である。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザー光の飛行時間を検出することで距離を測定するTOF(Time of Flight)方式を用いてもよい。
(ジェスチャー認識部の説明)
ジェスチャー認識部411の処理の詳細を、図6のフローチャートを用いて説明する。
図6において、ジェスチャー認識部411は、処理を開始すると、S601では初期化処理を行う。初期化処理で、ジェスチャー認識部411は、距離画像取得部409から距離画像を1フレーム取得する。ここで、ジェスチャー認識部411の処理の開始時は書画台204上に対象物が置かれていない状態であるため、初期状態として書画台204の平面の認識を行う。即ち、ジェスチャー認識部411は、取得した距離画像から最も広い平面を抽出し、その位置と法線ベクトル(以降、書画台204の平面パラメータと呼ぶ)とを算出し、RAM303に保存する。
S602で、ジェスチャー認識部411は、S621〜622に示す、書画台204上に存在する物体の3次元点群を取得する。
S621で、ジェスチャー認識部411は、距離画像取得部409から距離画像と3次元点群とを1フレーム取得する。
S622で、ジェスチャー認識部411は、書画台204の平面パラメータを用いて、取得した3次元点群から書画台204を含む平面にある点群を除去する。
S603で、ジェスチャー認識部411は、S631〜S634に示す、取得した3次元点群からユーザの手の形状及び指先を検出する処理を行う。ここで、S603の処理について、図7に示す、指先検出処理の方法を模式的に表した図を用いて説明する。
S631で、ジェスチャー認識部411は、S602で取得した3次元点群から、書画台204を含む平面から所定の高さ以上にある、肌色の3次元点群を抽出することで、手の3次元点群を得る。図7(a)の801は、抽出した手の3次元点群を表している。
S632で、ジェスチャー認識部411は、抽出した手の3次元点群を、書画台204の平面に射影した2次元画像を生成して、その手の外形を検出する。図7(a)の802は、書画台204の平面に投射した3次元点群を表している。投射は、点群の各座標を、書画台204の平面パラメータを用いてされればよい。また、図7(b)に示すように、投射した3次元点群から、xy座標の値だけを取り出せば、z軸方向から見た2次元画像703として扱うことができる。このとき、ジェスチャー認識部411は、手の3次元点群の各点が、書画台204の平面に投射した2次元画像の各座標のどれに対応するかを、記憶しておくものとする。
S633で、ジェスチャー認識部411は、検出した手の外形上の各点について、その点での外形の曲率を算出し、算出した曲率が所定値より小さい点を指先として検出する。図7(c)は、外形の曲率から指先を検出する方法を模式的に表したものである。704は、書画台204の平面に投射された2次元画像703の外形を表す点の一部を表している。ここで、704のような、外形を表す点のうち、隣り合う5個の点を含むように円を描くことを考える。円705、707が、その例である。この円を、全ての外形の点に対して順に描き、その直径(例えば706、708)が所定の値より小さい(曲率が小さい)ことを以て、指先とする。この例では隣り合う5個の点としたが、その数は限定されるものではない。また、ここでは曲率を用いたが、外形に対して楕円フィッティングを行うことで、指先を検出してもよい。
S634で、ジェスチャー認識部411は、検出した指先の個数及び各指先の座標を算出する。このとき、前述したように、書画台204に投射した2次元画像の各点と、手の3次元点群の各点との対応関係を記憶しているため、ジェスチャー認識部411は、各指先の3次元座標を得ることができる。今回は、3次元点群から2次元画像に投射した画像から指先を検出する方法を説明したが、指先検出の対象とする画像は、これに限定されるものではない。例えば、距離画像の背景差分や、RGB画像の肌色領域から手の領域を抽出し、上述と同様の方法(外形の曲率計算等)で、手領域のうちの指先を検出してもよい。この場合、検出した指先の座標はRGB画像や距離画像といった、2次元画像上の座標であるため、ジェスチャー認識部411は、その座標における距離画像の距離情報を用いて、直交座標系の3次元座標に変換する必要がある。このとき、指先点となる外形上の点ではなく、指先を検出するときに用いた、曲率円の中心を指先点としてもよい。
S604で、ジェスチャー認識部411は、S641〜S646に示す、検出した手の形状及び指先からのジェスチャー判定処理を行う。
S641で、ジェスチャー認識部411は、S603で検出した指先が1つかどうか判定する。ジェスチャー認識部411は、指先が1つでなければS646へ進み、ジェスチャーなしと判定する。ジェスチャー認識部411は、S641において検出した指先が1つであればS642へ進み、検出した指先と書画台204を含む平面との距離を算出する。
S643で、ジェスチャー認識部411は、S642で算出した距離が所定値以下であるかどうかを判定し、所定値以下であればS644へ進んで指先が書画台204へタッチした、タッチジェスチャーありと判定する。ジェスチャー認識部411は、S643においてS642で算出した距離が所定値以下でなければS645へ進み、指先が移動したジェスチャー(タッチはしていないが指先が書画台204上に存在するジェスチャー)と判定する。
S605で、ジェスチャー認識部411は、判定したジェスチャーをメイン制御部402へ通知し、S602へ戻ってジェスチャー認識処理を繰り返す。
以上の処理により、ジェスチャー認識部411は、距離画像に基づいてユーザのジェスチャーを認識することができる。
(利用シーンの説明)
図7を用いてカメラスキャナ101の利用シーンについて説明する。
本発明においては、複数の操作者がカメラスキャナ101を同時に操作する場合を想定している。例えば、契約などの手続きを行う場面、商品などの説明を行う場面、打合せを行う場面、教育など様々なシーンでの使用に適用できる。
カメラスキャナ101の操作者は、カメラスキャナ101の操作を行いながら説明を行う人(メイン操作者)と、説明を受けながらカメラスキャナ101を操作する人(サブ操作者)に分類される。
契約などの手続きを行う場面においては、説明員(メイン操作者)と顧客(サブ操作者)により、契約内容の確認、必要事項の入力、入力内容確認、承認といった手続きが行われる。必要事項の入力については、最終的に顧客による入力内容の確認を得ればよいので、説明員と顧客のどちらが入力してもよい。一方で、入力内容確認のチェックを行う際には、顧客が説明員の説明に納得した場合にのみ実行される必要がある。言い換えれば、説明員が顧客の代わりに内容確認チェックを行うことは許されない。
教育の場合には、教師(メイン操作者)と生徒(サブ操作者)により、問題の出題、解答、添削、解答例の指導、等の流れがある。教師は生徒の解答に対して添削を行うことができるが、その逆はできない。一方で、生徒は問題に対する解答を、教師は問題に対する解答例を入力することができる。本発明において、このような複数の操作者がカメラスキャナ101を操作する場合に、各操作者に適切な操作権限を付与することで、適切な処理フローを実現させることを目的とする。
図8は、2人の操作者801および802が同時にカメラスキャナ101を操作している様子を示している。例えば、図8(a)のように対面で利用したり、図8(b)のようにL字型で利用したり、図8(c)のように横並びで利用することも可能である。メイン操作者とサブ操作者の配置は、カメラスキャナ101のシステムにメイン操作者がログインする際に決めることができる。あるいは、顔認証技術などを用いて、事前に登録されているメイン操作者の顔を検出し、それ以外の操作者をサブ操作者と判断することで決めることも可能である。また、カメラスキャナ101を3人以上で利用することも可能である。
以下の説明では、図8(a)のように対面での契約手続きでカメラスキャナ101を使用するシーンを用いて説明を行う。そして、801をメイン操作者、802をサブ操作者とする。なお、操作者数や配置、使用シーンに関してはこれに限定されるものではない。
(メイン制御部の説明)
メイン制御部402の処理の詳細を、図9のフローチャートを用いて説明する。
メイン制御部402が処理を開始すると、図9のS901において、プロジェクタ207によって操作画面を書画台204上へ投射表示させる。図10は、メイン操作者801とサブ操作者802が書画台204上に投射表示された操作画面を操作している様子を示しており、図10(a)は操作画面の一例を示す。操作画面には、印刷ボタン1001、氏名入力欄1002、チェックボックス1003、承認ボタン1004が投影表示されている。操作者801および802はジェスチャー操作により各操作項目を操作可能である。なお、操作画面に表示される操作項目、及び各操作項目に対して行われるジェスチャー操作についてはこれに限るものではない。例えば、ソフトキーボード入力操作や、表示されたUI部品・画像に対するジェスチャー操作(拡縮表示・回転・移動・切り出しなど)を適用することも可能である。
S902で、メイン制御部402は、ジェスチャー認識部411からのジェスチャー検知通知の有無を確認する。なお、以下の説明では、検知するジェスチャーは書画台204上へのタッチ操作であるとするが、その他のジェスチャー操作を用いても構わない。図10(a)の場合は、メイン操作者801、サブ操作者802のいずれも操作画面に対する操作を行っておらず、ジェスチャー認識部411はジェスチャーを検知しないため、S908へ進む。一方、図10(b)〜(g)の場合においては、メイン操作者801又はサブ操作者802のいずれかがジェスチャー操作を行っており、ジェスチャー認識部411からジェスチャー検知が通知されるため、S903へ進む。
S903で、メイン制御部402は、ジェスチャーによって選択された操作項目を識別する。図10(b)および(c)の場合は氏名入力欄1002、図10(d)および(e)の場合はチェックボックス1003、図10(f)および(g)の場合は印刷ボタン1001が、選択された操作項目として識別される。
S904で、メイン制御部402は、S902で検知されたジェスチャーを行ったジェスチャー操作者を特定する。図9(b)、(d)、(f)の場合、メイン操作者801がジェスチャー操作者として特定され、図9(c)、(e)、(g)の場合、サブ操作者802がジェスチャー操作者として特定される。
ここで図11を用いて、S904のジェスチャー操作者特定処理について説明する。図11(a)はジェスチャー操作者特定部412が実行する処理のフローチャートの一例であり、図11(b)〜(f)は処理の説明図である。
図11(a)のステップS1101において、ジェスチャー操作者特定部412は、手の概形形状を取得する。具体的には、ジェスチャー操作者特定部412は、カメラ部202あるいは距離画像センサ208により撮像された画像から背景差分やフレーム差分などを用いて手の概形形状を取得する。あるいは、ジェスチャー操作者特定部412は、ジェスチャー認識部411よりタッチジェスチャー検出時に図6のS632で生成された手の概形形状を取得しても構わない。例えば、図10(g)のようなタッチジェスチャーが行われた場合には、図11(b)に示すような手の概形形状1111が得られる。
続いてS1102において、ジェスチャー操作者特定部412は手領域の細線化処理を行い、図11(c)で示す手領域の中心線1121を生成する。
S1103において、ジェスチャー操作者特定部412はベクトル近似処理を行い、図11(d)で示すベクトル1131を生成する。
S1104において、ジェスチャー操作者特定部412は手領域の骨格モデルを生成する。図11(e)で示すように、指領域1141、手領域1142、前腕部1143、上腕部1144からなる骨格モデルが生成される。
最後にステップS1105において、ジェスチャー操作者特定部412はS1104で得られた骨格モデルをもとにジェスチャー操作が行われた方向を推定し、事前に設定された操作者の位置関係に基づいてジェスチャー操作者を特定する。これにより、操作者802の右手によりタッチジェスチャーが行われたと特定することができる。
なお、ジェスチャー操作者を特定する方法はこれに限るものではなく、他の方法で実現してもよい。たとえば、図11(f)に示すように画像端部で手領域の重心位置1151と指先位置1152との向き1153を用いてジェスチャー操作者を簡易的に特定してもよい。あるいは、図11(g)に示すようにジェスチャー認識部411より検知される指先移動ジェスチャーから手領域の軌跡1161を生成することでジェスチャー操作者を特定してもよい。さらには、カメラスキャナ101に取り付けられた人感センサ(図示なし)と組み合わせてジェスチャー操作者を特定することも可能である。また、顔認証などを用いて操作者を特定してもよい。
図9の説明に戻る。S905において、メイン制御部402は、S903で識別された操作項目と、S904で特定されたジェスチャー操作者とに基づいて、当該操作項目に対するジェスチャー操作者の操作権限があるか否かを判定する。操作権限があると判定された場合にはステップS906へ、操作権限がないと判定された場合にはステップ908へそれぞれ進む。操作権限の有無については、図12に示すような操作権限管理テーブル1201に基づいて判定される。例えば、氏名入力欄1002への操作に関してはメイン操作者801とサブ操作者802の双方に操作権限があることが分かる。一方、印刷ボタン1001への操作に関してはメイン操作者801のみに操作権限があり、チェックボックス1003および承認ボタン1004への操作はサブ操作者802のみに操作権限があることが分かる。
なお、操作権限有無の判断方法についてはこれに限るものではない。例えば、操作項目に対応するUI部品1001〜1004に操作権限有無の情報を埋め込み、操作されたUI部品に付与された情報とジェスチャー操作者の情報から操作権限の有無を判断してもよい。
例えば図13(a)に示すように、操作可能なUI部品に対して、操作権限を有する操作者の方向に対して影付表示を行ったUI画面を提供するようにしても良い。そして、カメラ画像取得部408あるいは距離画像取得部409から得られた画像から操作されたUI部品の影付け方向を検出し、ジェスチャー操作者の方向と一致しているか否かに応じて操作権限の有無を判断すればよい。すなわち、印刷ボタン1301はメイン操作者801側に影付け表示されているため、メイン操作者801のみが操作権限があると判断できる。また、チェックボックス1303および承認ボタン1304は、サブ操作者802側に影付け表示されているため、サブ操作者802のみが操作権限があると判断できる。氏名入力欄1302はメイン操作者801およびサブ操作者802の両方に影付け表示されているため、メイン操作者801およびサブ操作者802双方に操作権限があると判断できる。
あるいは、図13(b)に示すように、それぞれ操作者が操作可能な操作項目に対応するUI部品を、各操作者から見やすい方向に向けて表示するようなUI画面を提供するようにしても良い。そして、カメラ画像取得部408あるいは距離画像取得部409から得られた画像から、ジェスチャー操作者の方向とUI部品の方向が一致しているか否かに応じて操作権限の有無を判断すればよい。図13(b)の例では、印刷ボタン1311はメイン操作者801が見やすい方向に向けて表示されており、チェックボックス1313、承認ボタン1314はサブ操作者802が見やすい方向に向けて表示されている。また、複数の操作者が操作可能な操作項目に関しては、各操作者に対して操作項目がそれぞれ表示されることになる。例えば氏名入力欄1312はメイン操作者801およびサブ操作者802がそれぞれ操作可能な操作項目であるため、メイン操作者801用の氏名入力欄1312−1とサブ操作者802用の氏名入力欄1312−2が表示される。なお、複数の操作者が操作可能な操作項目に関しては、一方の操作者が操作した結果が、他方の操作項目にも反映される仕組みを提供する必要がある。ここで、メイン操作者801が氏名入力欄1312−1への入力操作を行うと、入力内容がサブ操作者用氏名入力欄1312−2へ反映される。同様に、サブ操作者802が氏名入力欄1312−2への入力操作を行うと、入力内容がメイン操作者用氏名入力欄1312−1へ反映される。このとき、図13(b)に示すように同一の内容を表示しても良いし、図13(c)に示すように表示方法や表示内容を各操作者向けに修正して表示してもよい(1312−1’、1312−2’)。
また、図13(d)に示すように、複数の操作者が操作可能な操作項目(指名入力欄1322)に関しては、操作結果を提示したい方向に表示するようにし、回転ボタン1323を操作すると他方の操作者の方向に表示を回転させるなどの仕組みを設けても構わない。
なお、図12で示した操作権限管理テーブル1201と、図13で示したUI部品の表示方法を組み合わせてもよい。
再び図9の説明に戻る。S906において、メイン制御部402は、S903で識別された操作項目に対応する処理を実行する。そして、S907で、メイン制御部402は、実行された操作項目に伴うUI画面の更新処理を行う。
氏名入力欄1002はメイン操作者801、サブ操作者802共に操作可能な項目であるため、図10(b)及び(c)に示すように、メイン操作者801、サブ操作者802のいずれが操作した場合であっても記入結果が氏名入力欄1002に反映される。一方、チェックボックス1003はサブ操作者802のみが操作可能な項目である。よって、図10(e)で示すように、サブ操作者802がチェックボックス1003を押下した場合にはチェック表示が行われるが、図10(d)で示すように、メイン操作者801がチェックボックス1003を押下してもチェック表示は行われない。また、印刷ボタン1001はメイン操作者801のみが操作可能である。よって、図10(f)で示すように、メイン操作者801が印刷ボタン1001を押下した場合には、プリンタ103による印刷が実行されるが、サブ操作者802が印刷ボタン1001を押下しても、印刷処理は実行されない。
S908で、メイン制御部402は、システムの終了判定を行い、終了判定がなされるまでステップS901〜ステップS908の処理を繰り返す。なお、システムの終了は操作画面上に投射表示された終了ボタンを操作する、カメラスキャナ101の本体の電源ボタン(図示なし)を押すなどにより行われるものとする。
以上のように、本実施形態によれば、ジェスチャーによる操作が検出されると、ジェスチャー操作者の特定を行い、操作画面上の操作項目毎に実行可否が制御される。これにより、複数の操作者が同時に一つの操作画面を操作可能なデータ処理システムにおいて、一方の操作者のみ操作を許容する項目を表示しつつ、他の操作者が当該項目を勝手に操作してしまうのを防止することができる。
<実施形態2>
実施形態1では、操作者が常にカメラスキャナ101の傍にいて操作する場合について説明した。しかしながら、契約などの手続きを行う場面においては、説明員が一時的に離席する場合なども考えられる。このような場合、例え顧客が入力可能な操作項目であったとしても、説明員が離席中に操作されるのは望ましくない項目も考えられる。そこで、本実施形態では、一方の操作者がカメラスキャナ101を利用不可能な位置に移動した場合に、他方の操作者に対する操作権限を変更する仕組みについて説明する。
実施形態2におけるカメラスキャナ101の処理について、図14〜図16を用いて説明する。
図14は、実施形態2におけるメイン制御部402の処理フローを説明した図である。図9と比較すると、操作者の離席状況を確認する処理(S1401)が追加されている。なお、図9と同様の処理については同一の参照符号を付与することにより、詳細な説明を省略する。
S903で操作項目が識別され、S904でジェスチャー操作者が特定されると、S1401において、メイン制御部402は、操作者の離席状況を確認する。離席状況を確認するには、図15(a)に示すように、カメラスキャナ101に取りつけられた人感センサ1501および1502を用いて、人検知領域1503あるいは1504から操作者の離席状況を確認すればよい。この場合、操作者801は人検知領域1503の範囲外に移動していることから離席と判断することができる。ここでは人感センサを2つ使用して操作者を検知しているが、カメラスキャナ101周囲全体を検知できるような人感センサ1つのみで履歴状況を確認しても構わない。あるいは、カメラスキャナ101のカメラ部202あるいは距離画像センサ208のズーム倍率を変更するなど撮像範囲を広げて、各操作者の離席状態を確認してもよい。すなわち、図15(b)に示すように広域で撮影された画像1511に操作者801が映っていない場合に、操作者801が離席したと判断することができる。さらには、図15(c)に示すように、操作者801が離席する際には離席ボタン1521を押下するものとし、離席ボタン1521が押下されたか否かに応じて離席状況を判断するようにしても良い。なお、他の各種デバイスや他の手段を用いて離席状況確認を確認してもよい。
続いて、S905において、メイン制御部402は、S903で識別された操作項目と、S904で特定された操作者、及びS1401により確認した離席状況に基づいて、当該操作項目に対する操作者の操作権限があるか否かを判定する。操作権限があると判定された場合にはS906に進み、操作権限がないと判定された場合にはステップS908に進む。操作権限の有無については、図16に示す操作権限管理テーブル1601に基づいて判定される。図12の操作権限管理テーブル1201と比較すると、一方の操作者に関して、他方の操作者が在席中である場合と離席中の場合とで夫々操作権限が付与されている。例えばチェックボックス1003に関しては、メイン操作者801が在席中であるか離席中であるかに拘わらずサブ操作者802は操作可能である。一方、承認ボタン1004に関しては、メイン操作者801が在席中のみサブ操作者802は押下可能であり、メイン操作者801が離席中はサブ操作者802の操作権限がないものと判断される。その結果、サブ操作者802が承認ボタン1004を押下しても承認処理は行われないこととなる。
以上のように、本実施形態によれば、一方の操作者がカメラスキャナ101を利用可能な位置に存在しない場合における他方の操作者の操作権限を限定することができるため、一方の操作者が不在の間に無断で操作が行われることを防止することができる。
<実施形態3>
実施形態1および2では、メイン操作者であるかサブ操作者であるかに拘わらず、操作権限のある操作項目が操作された場合には即座に当該操作項目に対応する処理を実行するものとして説明した。しかしながら、サブ操作者などの操作に不慣れな人がカメラスキャナ101を利用した際に、何気ない動作がジェスチャー操作と認識され、誤動作してしまうことが考えられる。そこで、本実施形態では、サブ操作者が操作できるタイミングをメイン操作者が制御することで、誤動作を防止するための仕組みについて説明する。
実施形態2におけるカメラスキャナ101の処理について、図17〜図19を用いて説明する。
図17は、実施形態3におけるメイン制御部402の処理フローを説明した図である。図14と比較すると、S1701、S1702の処理が追加されている、なお、実施形態1〜2と同様の処理については同一の参照番号を付与することにより、詳細な説明を省略する。
S1701において、メイン制御部402は、S904で特定されたジェスチャー操作者がメイン操作者801か否かを判断する。ジェスチャー操作者がメイン操作者801の場合には、S905の操作権限有無の確認処理へ進む。ジェスチャー操作者がサブ操作者802の場合には、S1702へ進む。
S1702において、メイン制御部402は、サブ操作者802による操作を許可する指示が入力されているか否かを確認する。例えば、図18(a)に示すように、メイン操作者801が書画台上の所定の位置に手を置いている場合には、サブ操作者802による操作の許可指示が入力されているものとすることができる。この場合には、所定の位置にメイン操作者801の手があるか否かを確認することでサブ操作者802の操作が許可されているか否かを判定することができる。あるいは、メイン操作者801が操作可能ボタン(不図示)を押下することにより、サブ操作者802による操作を許可するようにしても良い。この場合は、操作可能ボタンの押下状態を確認することにより、サブ操作者802の操作が許可されているか否かを判定することができる。
続いてS905において、メイン制御部402は、図19に示す操作権限確認テーブル1901に基づいて、特定された操作者の操作権限があるか否かを判定する。図16の操作権限管理テーブル1601と比較すると、サブ操作者802の操作権限に関し、メイン操作者801による操作許可指示が行われていない場合の操作権限が追加されている。すなわち、メイン操作者801による操作許可指示が入力されていない場合には、サブ操作者802はどの操作項目を操作したとしてもその操作は無効化されることとなる。メイン操作者801による操作許可指示が入力されている場合のサブ操作者802の操作権限に関しては、図16の場合と同様である。
上述のように、図18(a)の場合はメイン操作者801が書画台上の所定の位置に手を置いており、サブ操作者802の操作許可指示が入力されているため、サブ操作者802はチェックボタンの押下を行うことができる。一方で、図18(b)の場合は、書画台上の所定の位置にメイン操作者801の手が置かれていないため、サブ操作者802の操作許可指示が入力されていないと判断され、サブ操作者802のチェックボタンへの操作が無効化されている。このような制御を加えることにより、図18(c)に示すような、操作に不慣れなサブ操作者802が書画台の上で自然と手を組むといった動作により、承認ボタン1004の押下とみなされてしまう場合にも、実行制限を加えることが可能となる。
以上のように、本実施形態によれば、メイン操作者801がサブ操作者802の操作に対して制限を加えることで、サブ操作者802の何気ない動きによる誤動作を防ぐことができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、カメラスキャナ101等の同一画面上に複数の操作項目を含む操作画面を複数の操作者が同時に操作可能なデータ処理装置におけるユーザの操作性を向上させることができる。より具体的には、投射した操作画面に対するジェスチャー操作を行った操作者を距離画像に基づいて特定し、特定された操作者に応じて、操作画面に含まれる操作項目毎に操作の有効・無効を制御する。これにより、複数の操作者が一方の操作者のみ操作を許容する項目を表示しつつ、他の操作者が当該項目を勝手に操作してしまうのを防止することができる。
以上、本発明の好ましい形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
101 カメラスキャナ
201 コントローラ部
202 カメラ部
204 書画台
207 プロジェクタ
208 距離画像センサ部

Claims (10)

  1. 同一画面上に複数の操作項目を含む操作画面を第1の操作者と第2の操作者が同時に操作することが可能なデータ処理装置であって、
    前記操作画面を所定の領域に投射する投射手段と、
    前記投射手段により投射された前記操作画面に対する操作を行った操作者が第1の操作者であるか第2の操作者であるかを判定する判定手段と、
    前記判定手段により前記第1の操作者であると判定された場合、前記操作画面に含まれる第1の操作項目、及び前記操作画面に含まれる第2の操作項目に対する操作を有効とし、前記判定手段により前記第2の操作者であると判定された場合、前記第1の操作項目に対する操作を有効とし、前記第2の操作項目に対する操作を無効とするよう制御する制御手段と、
    前記第1の操作者が前記データ処理装置を操作可能な位置に存在するか否かを確認する確認手段と、を有し、
    前記制御手段は、前記確認手段による確認の結果、前記第1の操作者が前記データ処理装置を操作可能な位置に存在しないと確認された場合には、前記第2の操作者による前記第1の操作項目に対する操作を無効とするよう制御することを特徴とするデータ処理装置。
  2. 前記操作画面に含まれる複数の操作項目それぞれについて、第1の操作者と第2の操作者それぞれの操作権限があるか否かを示す情報を記憶する記憶手段と、を有し、
    前記制御手段は、前記記憶手段により記憶されている情報に基づいて、前記制御を行うことを特徴とする請求項1に記載のデータ処理装置。
  3. 距離画像を取得する距離画像取得手段を有し、
    前記判定手段は、前記距離画像取得手段により取得した距離画像に基づいて、前記操作画面に対する操作を行った操作者が前記第1の操作者であるか前記第2の操作者であるかを判定することを特徴とする請求項1に記載のデータ処理装置。
  4. 前記判定手段は、前記距離画像取得手段により取得した距離画像に基づいて操作が行われた方向を推定し、該推定された方向と、事前に設定された前記第1の操作者と前記第2の操作者の位置関係とに基づいて、該操作を行った操作者が前記第1の操作者であるか前記第2の操作者であるかを判定することを特徴とする請求項記載のデータ処理装置。
  5. 前記距離画像取得手段により取得した距離画像に基づいて、前記操作画面に対して行われたジェスチャー操作を認識する認識手段を有し、
    前記判定手段は、前記認識手段により認識したジェスチャー操作を行った操作者が前記第1の操作者であるか前記第2の操作者であるかを判定することを特徴とする請求項3又は記載のデータ処理装置。
  6. 前記認識手段は、前記距離画像取得手段により取得された距離画像から検出した手の形状と位置とに基づいて、ジェスチャー操作を認識することを特徴とする請求項記載のデータ処理装置。
  7. 前記第2の操作者による操作を許可する指示を入力する入力手段を有し、
    前記制御手段は、前記指示が入力されていない場合には、前記操作画面に含まれる全ての操作項目に対する前記第2の操作者の操作を無効とするよう制御することを特徴とする請求項1に記載のデータ処理装置。
  8. 同一画面上に複数の操作項目を含む操作画面を第1の操作者と第2の操作者が同時に操作することが可能なデータ処理システムであって、
    前記操作画面を所定の領域に投射する投射手段と、
    前記投射手段により投射された前記操作画面に対する操作を行った操作者が第1の操作者であるか第2の操作者であるかを判定する判定手段と、
    前記判定手段により前記第1の操作者であると判定された場合、前記操作画面に含まれる第1の操作項目、及び前記操作画面に含まれる第2の操作項目に対する操作を有効とし、前記判定手段により前記第2の操作者であると判定された場合、前記第1の操作項目に対する操作を有効とし、前記第2の操作項目に対する操作を無効とするよう制御する制御手段と、
    前記第1の操作者が前記データ処理装置を操作可能な位置に存在するか否かを確認する確認手段と、を有し、
    前記制御手段は、前記確認手段による確認の結果、前記第1の操作者が前記データ処理装置を操作可能な位置に存在しないと確認された場合には、前記第2の操作者による前記第1の操作項目に対する操作を無効とするよう制御することを特徴とするデータ処理システム。
  9. 同一画面上に複数の操作項目を含む操作画面を第1の操作者と第2の操作者が同時に操作することが可能なデータ処理装置の制御方法であって、
    前記操作画面を所定の領域に投射する投射工程と、
    前記投射工程において投射された前記操作画面に対する操作を行った操作者が第1の操作者であるか第2の操作者であるかを判定する判定工程と、
    前記判定工程において前記第1の操作者であると判定された場合、前記操作画面に含まれる第1の操作項目、及び前記操作画面に含まれる第2の操作項目に対する操作を有効とし、前記判定工程において前記第2の操作者であると判定された場合、前記第1の操作項目に対する操作を有効とし、前記第2の操作項目に対する操作を無効とするよう制御する制御工程と、
    前記第1の操作者が前記データ処理装置を操作可能な位置に存在するか否かを確認する確認工程と、を有し、
    前記制御工程では、前記確認工程での確認の結果、前記第1の操作者が前記データ処理装置を操作可能な位置に存在しないと確認された場合には、前記第2の操作者による前記第1の操作項目に対する操作を無効とするよう制御することを特徴とするデータ処理装置の制御方法。
  10. 請求項記載の制御方法をコンピュータに実行させるためのプログラム。
JP2014167828A 2014-08-20 2014-08-20 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム Expired - Fee Related JP6381361B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014167828A JP6381361B2 (ja) 2014-08-20 2014-08-20 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
US14/823,543 US20160054806A1 (en) 2014-08-20 2015-08-11 Data processing apparatus, data processing system, control method for data processing apparatus, and storage medium
CN201510514247.XA CN105391889A (zh) 2014-08-20 2015-08-20 数据处理装置、数据处理***和数据处理装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014167828A JP6381361B2 (ja) 2014-08-20 2014-08-20 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2016045588A JP2016045588A (ja) 2016-04-04
JP2016045588A5 JP2016045588A5 (ja) 2017-09-21
JP6381361B2 true JP6381361B2 (ja) 2018-08-29

Family

ID=55348293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014167828A Expired - Fee Related JP6381361B2 (ja) 2014-08-20 2014-08-20 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20160054806A1 (ja)
JP (1) JP6381361B2 (ja)
CN (1) CN105391889A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6769790B2 (ja) * 2016-09-07 2020-10-14 東芝テック株式会社 印刷制御装置及びプログラム
WO2018150569A1 (ja) * 2017-02-20 2018-08-23 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP6373537B1 (ja) * 2017-09-04 2018-08-15 株式会社ワコム 空間位置指示システム
JP6633115B2 (ja) * 2018-03-27 2020-01-22 合同会社オフィス・ゼロ プログラム作成支援システム及びその方法並びにそのプログラム
JP2020052681A (ja) * 2018-09-26 2020-04-02 シュナイダーエレクトリックホールディングス株式会社 操作処理装置
US11928831B2 (en) * 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
JP2009080683A (ja) * 2007-09-26 2009-04-16 Pioneer Electronic Corp タッチパネル型表示装置、その制御方法、プログラム及び記憶媒体
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
JP5304848B2 (ja) * 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
US20130173925A1 (en) * 2011-12-28 2013-07-04 Ester Yen Systems and Methods for Fingerprint-Based Operations
US9557878B2 (en) * 2012-04-25 2017-01-31 International Business Machines Corporation Permitting participant configurable view selection within a screen sharing session
JP5862888B2 (ja) * 2012-07-09 2016-02-16 コニカミノルタ株式会社 操作表示装置およびプログラム
JP5916590B2 (ja) * 2012-12-06 2016-05-11 コニカミノルタ株式会社 オブジェクト操作装置及びオブジェクト操作制御プログラム
JP6167529B2 (ja) * 2013-01-16 2017-07-26 株式会社リコー 画像投影装置、画像投影システム、制御方法およびプログラム
US8924735B2 (en) * 2013-02-15 2014-12-30 Microsoft Corporation Managed biometric identity
US9063631B2 (en) * 2013-03-15 2015-06-23 Chad Dustin TILLMAN System and method for cooperative sharing of resources of an environment
US20150370472A1 (en) * 2014-06-19 2015-12-24 Xerox Corporation 3-d motion control for document discovery and retrieval

Also Published As

Publication number Publication date
CN105391889A (zh) 2016-03-09
JP2016045588A (ja) 2016-04-04
US20160054806A1 (en) 2016-02-25

Similar Documents

Publication Publication Date Title
JP6381361B2 (ja) データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
US20130135199A1 (en) System and method for user interaction with projected content
JP2015212898A (ja) 画像処理装置、情報処理方法及びプログラム
US9888209B1 (en) Remote communication system, method for controlling remote communication system, and storage medium
JP2018112894A (ja) システムおよび制御方法
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
JP2017117373A (ja) 操作装置とその制御方法、及びプログラム
JP6866467B2 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2017126225A (ja) 画像処理装置、方法およびプログラム
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP2010272078A (ja) 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法
JP5571895B2 (ja) 情報表示装置
TWI674562B (zh) 擴增實境互動式語言學習裝置
JP2017162126A (ja) 入力システム、入力方法、制御用プログラム、及び記憶媒体
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6643825B2 (ja) 装置及び方法
JP5939469B2 (ja) 閲覧装置及び閲覧システム
JP6624861B2 (ja) 画像処理装置、制御方法およびプログラム
JP2019152815A (ja) 投影システムとその制御方法及びプログラム
JP2018173907A (ja) 情報処理装置、および情報処理装置の制御方法、プログラム
JP7427937B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017167810A (ja) 入力支援装置、入力支援方法、制御用プログラム、及び記憶媒体
JP2018116360A (ja) 手入力装置、手入力装置の制御方法
JP2017117372A (ja) 操作装置とその制御方法、及びプログラム
JP2017022590A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180731

R151 Written notification of patent or utility model registration

Ref document number: 6381361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees