JPWO2016021022A1 - 投写型映像表示装置及びその制御方法 - Google Patents

投写型映像表示装置及びその制御方法 Download PDF

Info

Publication number
JPWO2016021022A1
JPWO2016021022A1 JP2016539754A JP2016539754A JPWO2016021022A1 JP WO2016021022 A1 JPWO2016021022 A1 JP WO2016021022A1 JP 2016539754 A JP2016539754 A JP 2016539754A JP 2016539754 A JP2016539754 A JP 2016539754A JP WO2016021022 A1 JPWO2016021022 A1 JP WO2016021022A1
Authority
JP
Japan
Prior art keywords
projection
unit
image
display
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016539754A
Other languages
English (en)
Inventor
孝志 松原
孝志 松原
沙希子 成川
沙希子 成川
森 直樹
直樹 森
長谷川 実
実 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Publication of JPWO2016021022A1 publication Critical patent/JPWO2016021022A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

投写型映像表示装置1は、複数の映像信号を入力する信号入力部120と、投写面に映像を投写表示する投写部115と、投写面を操作する1あるいは複数の操作者を撮影する撮像部100と、撮像部の撮影画像から操作者の操作を検出する操作検出部104〜109と、投写部から投写する映像の表示を制御する制御部110と、を備える。制御部は、操作検出部の検出結果に基づいて、信号入力部に入力される映像信号の中から、投写部で投写表示する映像信号を選択する。

Description

本発明は、投写面に映像を投写して表示する投写型映像表示装置及びその制御方法に関するものである。
投写型映像表示装置により映像を投写する際に、ユーザ操作を撮影画像から検出し、映像の表示位置や表示方向をユーザにとって見やすい状態に制御する技術が提案されている。
特許文献1では、投影画像上のユーザ操作を検出可能な画像投影装置において、ユーザがユーザインタフェースの操作に用いる操作物体(例えば手)が投影画像上へ/から移動する方向を、投影画像を含む投影面の領域を撮像した画像から検出し、検出した方向に応じて、ユーザインタフェースの表示位置又は表示方向を決定し、投影させる構成が開示されている。
また、特許文献2では、ユーザが複数の場合もより見易い表示状態を実現するために、表示対象に対向する観察者の人数及び位置を取得し、取得した観察者の人数及び位置に基づき、表示する画像の向きを含む表示態様を決定し、決定した表示態様で画像を表示対象上に表示させる構成が開示されている。
特開2009−64109号公報 特開2013−76924号公報
従来、投写型映像表示装置に複数の映像信号を入力し、映像信号を切替えて投写する場合、その信号切替は装置に備えられたスイッチやリモコンを操作することで行っている。しかしながら、ユーザが机上面やスクリーンなどの投写面の近傍に位置し、投写している映像を指さしして説明するような場合、スイッチやリモコンを用いての信号切替は不便である。
前記特許文献1および2に開示される技術では、撮影画像からユーザ操作を検出し、既に選択された映像の表示位置や表示方向をユーザにとって見やすい状態に制御するものであって、ユーザ画像により複数の映像信号を切替えることについては特に考慮されていない。仮に、特許文献1、2に開示される技術を映像信号の切替に適用する場合には、表示状態への操作と信号切替への操作とが混在し、誤った制御を起こす恐れがある。よって、両者の操作を識別する手法が必要になる。
本発明の目的は、複数の映像信号を入力する投写型映像表示装置において、撮影画像からユーザ操作を検出して、表示する映像信号の切替を好適に行うことにある。
本発明の投写型映像表示装置は、複数の映像信号を入力する信号入力部と、投写面に映像を投写表示する投写部と、投写面を操作する1あるいは複数の操作者を撮影する撮像部と、撮像部の撮影画像から操作者の操作を検出する操作検出部と、投写部から投写する映像の表示を制御する制御部と、を備え、制御部は、操作検出部の検出結果に基づいて、信号入力部に入力される映像信号の中から、投写部で投写表示する映像信号を選択する。
本発明によれば、表示する映像信号の切替を好適に行うことができ、使い勝手の良い投写型映像表示装置を実現する。
投写型映像表示装置の表示画面に対してユーザが操作する状態の一例を示す図。 実施例1の投写型映像表示装置の構成を示す図。 2つの照明で生じるユーザの指の影の形状を示す図。 ユーザの操作位置による影の形状の影響を示す図。 複数の指で操作する場合の影の形状を示す図。 輪郭線による指さし方向の決定を説明する図。 長方形状の机に合わせて投写する例を示す図。 円形の机に合わせて投写する例を示す図。 複数のユーザに合わせて複数の映像を表示する例を示す図。 指操作による表示画面の平行移動の例を示す図。 指操作による表示画面の回転の例を示す図。 指操作による表示画面の拡大・縮小の例を示す図。 両手の指の操作により表示画面を回転させる例を示す図。 両手の指の操作により表示画面を拡大・縮小する例を示す図。 実施例2の投写型映像表示装置の構成を示す図。 複数の信号出力装置からの映像を表示する状態を示す図。 表示映像の入力切替操作の一例を示す図。 表示映像の入力切替操作の他の例を示す図。 表示映像の入力切替操作の他の例を示す図。 信号出力装置へのタッチ操作を組み合わせた操作の例を示す図。 実施例3の投写型映像表示装置の構成を示す図。 複数映像の同時表示操作の一例を示す図。 複数映像の同時表示操作の他の例を示す図。 複数映像の同時表示操作の他の例を示す図。 映像画面と描画用画面とを同時表示する例を示す図。 非接触による入力切替操作の一例を示す図(実施例4)。 非接触による入力切替操作の他の例を示す図。 非接触による入力切替操作の他の例を示す図。
以下、本発明の実施形態について図面を用いて説明する。
図1は、投写型映像表示装置1の表示画面に対してユーザ(操作者)3が操作する状態の一例を示す図である。ここでは、投写型映像表示装置1を投写面2である机上に設置し、2つの表示画面202、203を机上に投写する例を示している。表示画面202と203は、OSD(オンスクリーンディスプレイ)の画面に相当し、表示画面202、203に表示される映像は最大投写範囲210の中の部分映像である。これにより、例えば、投写面2上の最大投写範囲210に装置の設計図を表示し、表示画面202、203に設計図の解説資料を表示するような使い方が可能である。なお、投写面2は机上に限らず、スクリーンやその他の構造物の面であってもよい。
投写型映像表示装置1は、ユーザ操作検出用に、カメラ(撮像部)100と2つの照明101、102を備える。2つの照明101、102はユーザ3の指30を照射し、カメラ100は指30とその近傍を撮像する。ユーザ3は操作物である指30を、投写面2の表示画面203に接近させ、またある位置に接触させることで、表示映像に対する所望の操作(ジェスチャ操作)を行う。すなわち、投写面2の内、カメラ100で撮像可能な領域は、ユーザ3が投写型映像表示装置1に対して操作可能な操作面でもある。
指30が投写面2に接近または接触すると指30の影の形状が変化することから、投写型映像表示装置1はカメラ100の画像を解析し、投写面2に対する指の接近度、接触点、指さし方向を検出する。そして、ユーザの行う様々な操作に応じて、映像の表示形態や映像信号切替などの制御を行う。ユーザ3による各種操作(ジェスチャ操作)と表示制御の例については、後に詳しく述べる。
図2は、実施例1の投写型映像表示装置1の構成を示す図である。投写型映像表示装置1は、カメラ100、2つの照明101と102、影領域抽出部104、特徴点検出部105、接近度検出部106、接触点検出部107、輪郭検出部108、方向検出部109、制御部110、表示制御部111、駆動回路部112、入力端子部113、入力信号処理部114、投写部115を含む。このうち、影領域抽出部104、特徴点検出部105、接近度検出部106、接触点検出部107、輪郭検出部108、方向検出部109は、ユーザ3の操作を検出する操作検出部である。以下、操作検出部を中心に各部の構成と動作を説明する。
カメラ100は、イメージセンサ、レンズなどで構成され、ユーザ3の操作物である指30を含む画像を撮像する。2つの照明101と102は、発光ダイオード、回路基板、レンズなどで構成され、投写面2およびユーザ3の指30に照明光を照射して、カメラ100で撮像する画像内に指30の影を投影する。なお、照明101と102は赤外光照明とし、カメラ100は赤外光カメラで構成しても良い。これにより、カメラ100で撮像する赤外光画像を、操作検出機能付投写型映像表示装置1から投写される映像信号の映像である可視光映像から分離して取得することができる。
影領域抽出部104は、カメラ100で得られた画像から影領域を抽出し影画像を生成する。例えば、操作検出時の撮像画像から予め撮像した投写面2の背景画像を減算して差分画像を生成し、差分画像の輝度を所定の閾値Lthで二値化して、閾値以下の領域を影領域とすれば良い。さらに、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。ラべリング処理により、抽出した複数の影についてどの指に対応するか、すなわち1本の指に対応する対となる2つの影を識別することができる。
特徴点検出部105は、影領域抽出部104で抽出した影画像内の特定の位置(以下、特徴点と呼ぶ)を検出する。例えば特徴点として、影画像内の先端位置(指先位置に対応)を検出する。特徴点検出のためには種々の手法が用いられるが、先端位置の場合はその影画像を構成する画素の座標データから検出可能であり、あるいは特徴点の持つ特有の形状に一致する部分を画像認識などにより検出することでも可能である。特徴点は1つの影から1箇所検出されるので、1本の指(2つの影)に対しては2か所検出される。
接近度検出部106は、特徴点検出部105で検出した2つの特徴点間の距離dを測定し、距離dに基づいて指と操作面との間隙s(接近度)を検出する。これにより、指が操作面に接触しているか、接触していないかを判定する。
接触点検出部107は、接近度検出部106により指が操作面に接触していると判定した場合、その特徴点の位置に基づいて、操作面に対する指の接触点を検出し、その座標を算出する。
輪郭検出部108は、影領域抽出部104で抽出した影画像から影領域の輪郭を抽出する。例えば、影画像内を一定の方向に走査して輪郭追跡の開始画素を決定し、開始画素の近傍画素を反時計回りで追跡することで輪郭が得られる。
方向検出部109は、輪郭検出部108で検出した輪郭線からほぼ直線状の線分を抽出する。そして、抽出した輪郭線の方向に基づいて、操作面上の指の指さし方向を検出する。
なお、上記した各検出部の処理は、上記手法に限らず、他の画像処理のアルゴリズムを用いても良い。また、上記した各検出部は、回路基板によるハードウェアだけでなく、ソフトウェアで構成することもできる。
制御部110は、装置全体の動作を制御し、各検出部で検出した操作面に対する指の接近度、接触点座標、指さし方向などの検出結果データを生成する。
表示制御部111は、制御部110で生成した検出結果データに基づいて、映像信号切替、映像表示位置、映像表示方向、拡大縮小などの表示制御データを生成する。そして、入力端子113および入力信号処理部114を経由する映像信号に対して、表示制御データに基づいた表示制御処理を行う。また表示制御部111は、ユーザが文字や図形を描画するための描画用画面を生成する。
駆動回路部112は、処理された映像信号を表示映像として投写するための処理を行う。表示画像は投写部115から投写面に対して投写される。
ここまでの各部は一つの投写型映像表示装置1に内蔵されるとして説明したが、これらの一部が別ユニットとして構成され、伝送線で接続される構成であっても構わない。また、図2にはバッファやメモリ等の記載は省略しているが、必要なバッファやメモリ等は適宜搭載すればよい。
以下、ユーザ操作検出(ジェスチャ検出)の基本となる指接触の検出法を説明する。
図3は、2つの照明で生じるユーザの指の影の形状を示す図である。(a)は指30と投写面2が接触していない状態、(b)は接触している状態である。
(a)に示すように指30が投写面2に接触していない状態(間隙s≠0)では、2つの照明101、102からの光は指30で遮断され、それぞれ影401、402(斜線で示す)が形成される。カメラ画像では、2つの影401、402は指30の両側に互いに離れて存在する。
一方、(b)に示すように指30の指先が投写面2に接触している状態(間隙s=0)では、2つの影401、402は、指30の指先の位置で接近して存在する。なお、影401、402の一部領域は指30の陰に隠れているが、この隠れた部分は影領域には含めない。本実施例では、指30が投写面2に接近すると影401と影402と間隔が接近する性質を利用して、指30と投写面2との接触を判定する。
影401と影402と間隔を測定するために、それぞれの影の中に特徴点601,602を決め、特徴点間の距離dを測定する。特徴点は、それぞれの影401、402の先端位置(すなわち指先位置)に設定すれば、投写面との接触位置の対応が取り易くなる。指が投写面に接触しない状態においても、特徴点間の距離dの大きさにより指と投写面の接近度(間隙s)をレベル分けし、指の接近度に応じた制御を行うこともできる。すなわち、指が接触状態で行う接触操作モードと、指が非接触状態で行う非接触操作モード(空中操作モード)を設定し、両者で制御内容を切替えることができる。
図4は、ユーザの操作位置による影の形状の影響を示す図である。ここでは、ユーザの操作位置が投写面2の中央から左側にずれた場合(a)と、右側にずれた場合(b)のカメラ画像を比較している。(a)と(b)ではカメラ100から見たユーザの操作位置は変化するが、それらのカメラ画像では、指30(30’)に対する影401(401’)、402(402’)の位置関係は変わらない。すなわち、ユーザ操作位置に関係なく、常に指30(30’)の両側に影401(401’)と402(402’)が存在する。これは、カメラ100と照明101、102の位置関係により一義的に決定されるからである。従って、ユーザが投写面2に対してどの位置で操作しても2つの影401、402の検出が可能であり、本実施例の操作検出方法が有効に適用できる。
図5は、複数の指で操作する場合の影の形状を示す図である。手を開いた状態で複数の指31、32・・・を操作面に接触させた際に、各指に対し、左側の影411、421・・・と、右側の影412、422・・・が形成される。そして、各影に対して特徴点を設定する。ここでは、影411、412に対する特徴点611、612と、影421、422に対する特徴点621、622を示す。対応する特徴点611、612、あるいは特徴点621、622間の距離dを測定することで、それぞれの指31、32の接近度や接触点を求めることができる。これより本実施例によれば、手を開いた状態でも複数の指についての接触を独立して検出できるので、マルチタッチ操作に適用可能となる。
図6は、輪郭線による指さし方向の決定を説明する図である。指30の方向(指さし方向)を傾けたときの影401、402の形状を示し、指さし方向の変化に伴って影401、402の向きも変化する。指さし方向を検出するために、まず輪郭検出部108にて影401、402に対する輪郭線501、502を検出する。なお、輪郭線の検出では、指先などの曲線部分を除去して、略直線状の線分からなる輪郭線を検出する。その後、方向検出部109は次の方法で指さし方向を決定する。
(a)では、影401、402に対する内側の輪郭線501、502を使用する。そして、内側の輪郭線501、502の傾き方向701、702のいずれかを指さし方向として決定する。
(b)では、影401、402に対する外側の輪郭線501’、502’を使用する。そして、外側の輪郭線501’、502’の傾き方向701’、702’のいずれかを指さし方向として決定する。
(c)では、影401、402に対する内側の輪郭線501、502を使用する。そして、内側の輪郭線501、502の中線の傾き方向703を指さし方向として決定する。この場合には2つの輪郭線501、502の平均方向から求めるので、より精度が高くなる。なお、外側の輪郭線501’、502’の中線方向を指さし方向としても良い。
以上が、投写型映像表示装置1におけるユーザ操作の検出方法である。以上説明した指接触点および指さし方向の検出方式では、指あるいはこれに相当する細長い操作物であれば操作が可能である。これは、ペン先から所定の光を発光して認識処理を行う発光ペン方式に比べて、専用の発光ペン等を準備する必要がないので大幅に使い勝手がよい。
続いて、ユーザ操作によって実現する表示画面の制御の例について説明する。
まず、投写面における表示画面数、表示の向き、表示の位置、表示の大きさ等の基本設定について説明する。これらの基本設定は、初期状態では投写型映像表示装置1に設定されたディフォルト条件に従って、あるいはユーザがマニュアル操作を行って設定する。装置を使用中、ユーザの人数や位置が変化することがある。その場合は、ユーザの人数や位置と投写面の形状等を検出し、それに応じて表示画面数、表示位置、表示向き、表示の大きさ等を視認しやすい状態に変更する。
ここで、ユーザの人数や位置、投写面の形状等の認識は、投写型映像表示装置1のカメラ100の撮影画像を用いて行う。投写型映像表示装置が机上に設置される場合、認識物(ユーザや投写面)との距離が近いことや、認識物との間を障害物によって遮蔽される頻度が少ないことなどから有利となる。なお、カメラ100は指検出等によるユーザ3の操作を撮影するためのものとし、ユーザ3の位置や投写面2の形状を撮影するために別のカメラを備えてもよい。
以下、投写面の形状やユーザの位置等を認識して、これに合わせて表示画面の表示向きを決定する例を示す。
図7は、長方形状の机に合わせて投写する例を示す図である。(a)では、投写型映像表示装置1のカメラの撮影画像から、ユーザ3が長方形状の机である投写面2付近にいることが認識される。さらにユーザ3と机の縁との最接近部302の机の縁の位置が認識される。(b)は表示画面202の向きを示し、最接近部302の位置の縁の方向と表示映像の底辺が平行、かつ302の位置が下側となる向きに、表示画面202の表示方向を決定する。
図8は、円形の机に合わせて投写する例を示す図である。(a)では、投写型映像表示装置1のカメラの撮影画像から、ユーザ3が円形の机である投写面2付近にいることが認識される。さらにユーザ3と机の縁との最接近部303の机の縁の位置が認識される。(b)は表示画面202の向きを示し、最接近部303の位置の縁の方向と表示映像の底辺が平行、かつ303の位置が下側となる向きに、表示画面202の表示方向を決定する。
図9は、複数のユーザに合わせて複数の映像を表示する例を示す図である。(a)は四角形状の机である投写面2に投写する場合、(b)は円形の机である投写面2に投写する場合である。いずれもカメラにより複数のユーザとその位置を検出し、その位置から最も接近した机の縁の位置と形状から、表示画面202の位置と表示方向を決定している。このように、ユーザ3に最も近い机の縁の形状から自動的に表示方向を決めることが可能となる。
次に、表示中の画面を、ユーザ3のジェスチャ操作により表示状態を変更するいくつかの例について説明する。この場合、ユーザの指先は表示画面202(投写面2)に接触させ、指先の位置を移動させることで操作する。投写型映像表示装置1により投写面2に映像を投写できる範囲を符号210で示している。最大投写範囲210の表示範囲内には、例えば2つの表示画面202と203が表示される。
図10は、指操作による表示画面の平行移動の例を示す図である。(a)は操作前、(b)は操作後の状態を示す。(a)では表示画面203に指を接触させ、指の向きを変えずに所望の方向(上下方向、左右方向、斜め方向のいずれか)に移動させる。すると(b)のように、表示画面202,203のうち指が接触している表示画面203のみが、画面203’のように指の動きと同様に移動する。これにより、所望の表示画面をユーザが望む位置に移動させることができる。
図11は、指操作による表示画面の回転の例を示す図である。(a)では表示画面203に接触させた指を回転させる。すると(b)のように、指が接触している表示画面203のみが、画面203’のように指の動きに合わせて表示向きが回転する。これにより、所望の表示画面をユーザの所望の向きに回転させることができる。
図11の回転操作では、ユーザ操作のうち指さし方向を検出する。よって(b)で示すように、接触点の位置自体は変化させずに、指の方向を回転させた場合でも表示画面の回転操作を実現できる。これは、タブレット端末等のタッチセンサでは実現が困難な回転操作であり、本実施例の構成によって初めて実現するものである。
図12は、指操作による表示画面の拡大・縮小の例を示す図である。(a)で表示画面202に接触させた2本の指を、長方形の向かい合う頂点上に置いたかのように位置させ、(b)でその向かい合う頂点同士を結ぶ対角線を押し広げるように2本の指間の距離を広げる。すると、操作された表示画面202のみが押し広げた分だけ画面を拡大され、画面202’のようになる。一方、表示画面202に接触させた2本の指を接近させるように動かせば、画面を縮小させることもできる。画面の拡大・縮小操作は、前記した画面の移動、回転操作と並行して行うことで、定められた最大投写範囲210を有効に使って各表示画面を表示することができる。
その他の操作として、表示画面を分割して画面数を増加させることも可能である。ユーザは表示画面に指を接触させながら、画面を切断するように指を移動することで、同じ表示内容の2つの画面を生成することができる。
次に、ユーザの両手の指、すなわち複数の指を用いた表示画面操作の例を説明する。複数の指を用いた画面操作によれば、回転処理やサイズ変更処理において表示画面を明確に特定し、また、制御部の処理を効率化することが可能になる。
図13は、両手の指の操作により表示画面を回転させる例を示す図である。(a)のように、2本の指の両方が表示画面203内に接触している状態で、(b)のように、2本の指の接触点を結ぶ直線の傾きが変わるように2本の指を動かす。すると、投写型映像表示装置1は、当該傾きの変化に対応するように表示角度を変更し、画面203’のように表示する。これにより、表示画面の回転処理が可能となる。
図14は、両手の指の操作により表示画面を拡大・縮小する例を示す図である。(a)のように、2本の指の両方が表示画面202内で接触している状態で、(b)のように、2本の指の接触点を結ぶ直線の距離が長くなるように2本の指を動かす。すると、投写型映像表示装置1は、当該長さの変化に対応するように表示サイズを変更し、画面202’のように表示する。これにより、表示画面の拡大処理が可能となる。逆に、2本の指の接触点を結ぶ直線の距離が短くなる場合には、表示画面の縮小処理を行う。
なお、上記した回転、拡大・縮小操作等での誤動作をなくすため、2本の指の両方が表示画面内に接触している場合に動作を可能とし、一方の指が表示画面の外にある場合には、動作しないようにするとよい。
また、上記の操作において、2本の指の接触位置はこれら2本の指が空中から表示画面(投写面)に接触した最初の位置を採用する。よって、これらの指が投写面に接触しながら表示画面の外から内に移動してきた場合などは、動作をしないようにする。これにより、処理を簡素化し制御部110の処理効率が向上する。また、複数の表示画面のうち、処理対象となる表示画面を明確に特定することができる。
また、上記の操作では2本の指の接触位置を検出するが、制御部110は、カメラ100で検出された複数の指のうち、表示画面(投写面)に接触した時間差が所定の時間内である2本の指を、上記操作に用いられた指の組み合わせと判断する。これにより、2本の指が接触する時間差に伴う誤動作を回避できる。
以上説明したように、実施例1によれば、指接触検出等による表示画面操作を精度良く効率的に行う投写型映像表示装置を実現できる。
実施例2では、ユーザのジェスチャ操作により、複数の信号出力装置から入力する表示映像の入力切替を行う機能について説明する。
図15は、実施例2の投写型映像表示装置1の構成を示す図である。本実施例の構成では、実施例1(図2)の入力端子113に代えて、信号入力部120を備える。信号入力部120は、HDMI(登録商標)(High-Definition Multimedia Interface)端子、VGA(Video Graphics Array)端子、コンポジット端子、LAN(Local Area Network)端子およびワイヤレスLANモジュールを介したネットワーク映像伝送等の信号入力部であり、投写型映像表示装置1の外部にある信号出力装置より、映像信号及び操作検出信号を含む入力信号121を入力する。信号入力部120の信号入力方法は、上記した端子、モジュール等に限らず、映像信号及び操作検出信号を含む入力信号121を入力できる方法であれば良い。信号出力装置4a、4b、4c、4dは、PC(Personal Computer)、タブレット端末、スマートフォン、携帯電話等の装置であり、これらの装置に限らず、投写型映像表示装置1に映像信号及び操作検出信号を含む信号121を出力する装置であれば良い。
図16は、複数の信号出力装置からの映像を表示する状態を示す図であり、(a)は正面図、(b)は側面図である。投写型映像表示装置1には、映像伝送ケーブルやネットワークケーブル、無線接続等の通信手段により、複数の信号出力装置4a、4b、4c、4dが接続される。ユーザ3は投写面2の表示画面202を接触操作することで、各信号出力装置が出力する映像を1つ、もしくは複数同時に表示する。この例では、4つの表示映像A〜Dを同時に表示する場合である。
本実施例では、以下の例に示すユーザ操作を検出した場合に、投写型映像表示装置1の制御部110は、入力切替操作と判別し、制御部110は表示制御部111に対して、信号入力部120および入力信号処理部114を介して入力されている複数の映像の中から、指定した映像に表示を切替えるよう指示する。ここで制御部110は、ユーザ操作を判別する際に、1本もしくは2本の指の接触を検出した場合は表示中の映像に対する操作として扱い、3本の指の接触を検出した場合は表示映像の入力切替に対する操作として扱う。
図17は、表示映像の入力切替操作の一例を示す図である。例えば、信号出力装置4aからの映像Aを表示している際に、信号出力装置4bからの映像Bの表示に切替える場合を示す。表示映像を切替える際に用いるジェスチャ操作は、(a)に示すように、ユーザ3の3本の指30aが投写面2(表示画面202)に接触させることで行う。投写型映像表示装置1は、3本の指30aが投写面に接触しているジェスチャを検出すると、(b)に示すように信号出力装置4bからの映像Bに入力を切替える。その後さらに、3本の指30aが投写面に接触するジェスチャを検出する度に、信号出力装置4cからの映像C、信号出力装置4dからの映像Dへと、所定の順番で表示映像を切替える。
図18は、表示映像の入力切替操作の他の例を示す図である。この例では(a)に示すように、3本の指30aを投写面に接触させ横方向に移動(スライド)させる、いわゆるスワイプ操作を用いる。これにより、(b)のように次の映像Bに表示を切替える。
図19は、表示映像の入力切替操作の他の例を示す図である。まず(a)に示すように、3本の指30aを投写面に接触すると、入力切替メニュー209を表示する。この入力切替メニュー209には、入力映像の識別番号A〜Dが表示されている。これに対しユーザは、(b)に示すように、入力切替メニュー209から所望の映像の識別番号をタッチ操作で選択すると、選択した映像Bが表示される。
なお、入力切替メニュー209の表示位置は、表示画面202の中央または周囲の所定の位置とする。あるいは、(a)に示すジェスチャの指30aの接触位置の近傍に、入力切替メニュー209を表示してもよい。また、(b)において入力切替メニュー209から所望の映像を選択する際、タッチ操作ではなく、手を横方向にスライドさせるスワイプ操作でもよい。
なお、図17〜図19において、3本の指の接触状態は指が完全に投写面に接触している必要はなく、投写面から所定の距離以内に近接している場合を含めても良い。実施例1(図3)で述べた接触検出法によれば、指の影の間隔dから非接触時の投写面からの距離(間隙s)を判別できる。
本実施例では、投写型映像表示装置1に対する表示映像の切替操作として、ユーザの特定本数(3本)の指を投写面に接触させるジェスチャを用いた。これにより、1本もしくは2本の指を接触させるジェスチャによる表示中の映像に対する操作と明確に区別し、誤動作を防止することができる。なお、表示映像の切替操作として、表示中の映像に対するジェスチャ操作(1本もしくは2本の指を接触)と区別可能であれば、他のジェスチャ(3本以外の本数の指を接触)に変えても構わない。
さらに他の方法として、上記した3本の指による投写面に対するタッチ操作の他に、映像信号の入力源となる信号出力装置に対するタッチ操作を組み合わせることで、より確実に入力信号の切替を行うことができる。
図20は、信号出力装置へのタッチ操作を組み合わせた操作の例を示す図である。(a)のように、投写型映像表示装置1が信号出力装置4aの映像Aを表示中に、ユーザ3は映像Cを出力する信号出力装置4cに対し、3本の指30aをその表示面に接触させるジェスチャを行い、装置4cを選択する。この操作に続いてユーザ3は、(b)のように、投写型映像表示装置1の投写面に対し3本の指30aを接触させるジェスチャを行う。その結果、投写型映像表示装置1は、上記(a)の操作で選択された信号出力装置4cの映像Cに表示を切替える。
上記処理は次のように行う。信号出力装置4cは、(a)に示したジェスチャを検出すると、先に述べたネットワークケーブルや無線接続等の通信手段を介して、投写型映像表示装置1に操作検出信号121を送信する。投写型映像表示装置1の制御部110は、信号入力部120および入力信号処理部114を介して信号出力装置4cからの操作検出信号121を受信する。次に制御部110は、(b)に示したジェスチャを検出すると入力切替操作と判別する。そして表示制御部111に対して、信号入力部120および入力信号処理部114を介して入力されている複数の映像信号121の中から、先に受信した操作検出信号の送信元である信号出力装置4cの映像Cに切替えるよう指示する。
なお、(a)、(b)に示したジェスチャは一例であり、他の操作と区別可能であれば、他のジェスチャでも良い。また、(a)と(b)に示したジェスチャの操作の順序は逆でもよい。すなわち、(b)に示したジェスチャを検出すると、投写型映像表示装置1は、信号出力装置からの操作検出信号の受信を待機する。続いて(a)に示したジェスチャにより信号出力装置4cから操作検出信号を受信することで、投写型映像表示装置1は信号出力装置4cの映像Cに表示を切替える。
図20に示した操作の効果を説明する。投写型映像表示装置1を複数ユーザで共用して使う場合、図17〜図19のように投写面に対するユーザのジェスチャだけで映像切替を行う方式では、投写面の近くにいる複数のユーザの指の動きにより、予期しない誤動作を起こす恐れがある。これに対し、図20に示すように信号出力装置に対するタッチ操作を組み合わせる方式とすることで、誤動作がなく確実に映像切替を行うことができる。
さらに図20に示した操作は、プレゼンテーション時のユーザの動きに適したものである。例えば、ユーザが信号出力装置4cの映像Cを表示し、表示画面202の近傍に立って周囲の人にプレゼンテーションをする場合を想定する。このときのユーザの動きは、まず手元にある信号出力装置4cの画面をタッチし、投写面2(表示画面202)の近傍に移動した後に、表示画面202をタッチすることになる。すなわち、プレゼンテーションを行うユーザは、自席からプレゼンテーションを行う投写面の位置に移動する動作の中で、投写型映像表示装置1の入力切替を円滑に行うことができるという効果がある。
以上説明したように、実施例2の入力切替機能によれば、複数の信号出力装置からの入力映像切替を行う際、ユーザにとって使い勝手の良い投写型映像表示装置を提供することができる。
実施例3では、実施例2の機能に加え、複数の信号出力装置から入力する映像の同時表示機能を有する構成について説明する。
図21は、実施例3の投写型映像表示装置1の構成を示す図である。前記実施例2(図15)の操作検出部の構成に、手識別部122が加わっている。手識別部122は、検出している手が左右どちらの手であるかを識別する。その手法は、図5で示した複数の指の特徴点の配置をもとに、パターン認識やテンプレートマッチング等の方法を用いることで可能となる。
本実施例では、以下に示したジェスチャを検出した場合に、投写型映像表示装置1の制御部110は、複数の映像の同時表示の操作と判別し、制御部110は表示制御部111に対して、信号入力部120および入力信号処理部114を介して入力されている複数の映像の中から、指定した2つ以上の表示映像を同時に表示するよう指示する。
図22は、複数映像の同時表示操作の一例を示す図である。ここでは、投写型映像表示装置1が信号出力装置4aの映像Aを表示している場合に、信号出力装置4aの映像Aと信号出力装置4bの映像Bの同時表示に切替える操作を示す。表示映像を切替えるため、(a)に示すように、3本の指30aが投写面に接触した状態で手を縦方向に移動(スライド)させる、いわゆるスワイプ操作のジェスチャを行う。その結果(b)に示すように、画面を2分割して表示画面202,203とし、信号出力装置4aと信号出力装置4bからの2つの映像A,Bを、同時に表示する。
図23は、複数映像の同時表示操作の他の例を示す図である。(a)のように、ユーザは両手の3本の指30a(計6本)を同時に表示面に接触させるジェスチャを行うことで、(b)のように2つの映像A,Bを同時に表示させる。その際、接触しているのがユーザの両手の指であることは手識別部122により判別する。
図24は、複数映像の同時表示操作の他の例を示す図である。(a)は切替前の状態で、信号出力装置4aからの1つの映像Aを表示し、1人のユーザ3が1本の指をタッチして表示画面202を操作している。これに対し(b)に示すように、3人のユーザ3a、3b、3cが、それぞれの左手(または右手)の1本の指30bで同時に投写面に接触する操作を行う。すなわち、等価的に3本の指を同時に接触するジェスチャとすることで、表示画面202を3分割して、3台の信号出力装置4a、4b、4cからの各映像A,B,Cを同時に表示させるものである。
上記したように、複数の表示映像の同時表示のためのジェスチャ操作は、3本の指が投写面に接触することで認識する。これにより、1本もしくは2本の指を接触させて表示中の表示映像に対する操作と区別し、誤動作を防止することができる。
なお、図22〜図24において、3本の指の接触状態は指が完全に表示面に接触している必要はなく、投写面から所定の距離以内に近接している場合を含めてもよい。実施例1(図3)で述べた接触検出法によれば、指の影の間隔dから非接触時の投写面からの距離(間隙s)を判別できる。また、図22〜図24に示した画面の分割数は一例であり、4分割や5分割など、さらに分割数を増加して多数の入力映像を同時表示しても良い。
さらに上記した同時表示の変形として、分割した表示画面の少なくとも1つに描画用画面を表示させるようにしてもよい。
図25は、映像画面と描画用画面とを同時表示する例を示す図である。(a)は、信号出力装置4aからの映像Aを表示中に、前記図23(a)と同様にユーザ3が両手の3本の指30aを同時に投写面に接触することで、表示画面202を2つに分割する。(b)は分割画面の表示状態を示し、例えば右側の表示画面202には信号出力装置4aの映像Aを表示し、左側の表示画面203にはホワイトボードのような描画画面WBを表示している。描画用画面WBは、ユーザ3がタッチ操作(またはペン操作)で文字や図形の描画を行うことができる。このような表示形態により、信号出力装置からの映像資料等と、それに対するユーザ描画用画面を並べて表示することができる。
上記の処理を行うため、投写型映像表示装置1の制御部110は、図25(a)に示したジェスチャを検出すると複数の映像の同時表示の操作と判別し、表示制御部111に対して、信号出力装置4aの映像Aと、表示制御部111で生成される描画用の映像WBの2つの映像を同時に表示するよう指示する。さらに(b)の表示画面のうち右側の表示画面202では、1本もしくは2本の指の接触を行うと、表示中の映像Aに対する画面操作(タッチ操作)として扱う。一方、左側の描画用画面203では、1本もしくは2本の指の接触を行うと、接触点を検出しそれに応じて画面203に文字や図形を描画する操作として扱い、描画の軌跡を表示する。
通常図25(b)のような表示形態を設定するには、別途描画用画面を立ち上げて、画面ごとにタッチ操作と描画操作を設定する必要があるが、本例では1つの操作で簡単に設定できるので使い勝手に優れるものとなる。
以上説明したように、実施例3の複数の映像の同時表示機能によれば、複数の信号出力装置からの映像を同時に表示する際、ユーザにとって使い勝手の良い投写型映像表示装置を提供することができる。
実施例4では、実施例2の変形として、非接触のジェスチャ操作により表示映像の入力切替を行う構成について説明する。
本実施例では、以下に示した非接触ジェスチャを検出した場合に、投写型映像表示装置1の制御部110は、入力切替操作と判別する。そして、制御部110は表示制御部111に対して、信号入力部120および入力信号処理部114を介して入力されている複数の映像の中から、指定した映像に表示を切替えるよう指示する。
なお、非接触状態のジェスチャ操作の検出については、実施例1(図3)で説明したように、指(または手)の2つの影の間隔dを測定することで投写面との間隙s(接近度)を判定する。また、非接触状態のジェスチャ操作を用いる場合は、類似する接触状態の操作との誤動作を防ぐために、投写型映像表示装置1の操作設定メニューにより各機能の有効/無効を設定するのが良い。
図26は、非接触による入力切替操作の一例を示す図である。(a)は切替前の状態で、信号出力装置4aからの映像Aを表示している表示画面202に対し、ユーザ3は指を接触して表示操作を行っている。これに対し(b)に示すように、ユーザ3は手を開いた状態30cで投写面2に非接触状態で横に移動(スライド)させる、いわゆるスワイプ操作のジェスチャを行う。これにより、信号出力装置4bからの映像Bの表示に切替える。その後、非接触状態のジェスチャを行う度に、信号出力装置4cからの映像C、信号出力装置4dからの映像Dへと、所定の順番で表示映像を切替える。
図27は、非接触による入力切替操作の他の例を示す図である。(a)は切替前の状態で、信号出力装置4aからの映像Aを表示している。これに対し(b)に示すように、ユーザ3は手を握った形30dで投写面2に非接触状態で横にスライドさせる、いわゆるスワイプ操作のジェスチャを行う。これにより、信号出力装置4bからの映像Bの表示に切替える。この場合、特定の手の形(手を握った形30d)の場合にのみ入力切替可能とすれば、意図しない手の動きによる誤動作を防ぐことができる。
なお、図26(b)と図27(b)に示したジェスチャは一例であり、手を投写面に接触させない状態であれば、手の形はこれに限らない。さらに、手の形が同じで移動方向や移動距離が同じジェスチャであっても、手が投写面に接触状態か非接触状態かによって区別し、異なる処理を行うようにしても良い。
図28は、非接触による入力切替操作の他の例を示す図である。(a)は、手の形状が1本指30eで接触状態でスワイプ操作を行う場合である。この場合の第1の処理として、例えば、信号出力装置4aからの映像Aを表示している場合のページ送り処理の他、描画用画面が表示されている場合の描画処理、表示映像中にドラッグ可能なオブジェクトが表示されている場合のドラッグ処理等を割り当てる。一方(b)は、(a)と同じ手の形30eであるが非接触状態でスワイプ操作を行う場合である。この場合の第2の処理は(a)の第1の処理と異なり、例えば、信号出力装置4aの映像Aから信号出力装置4bの映像Bへの入力切替処理を割り当てる。
以上説明したように、実施例4の非接触状態のジェスチャによる入力切替機能によれば、手の位置精度がそれほど高くない非接触スワイプ操作などによって入力切替処理を確実に実行することができる。一方、接触位置の精度が要求されるボタン押下や描画等の処理には、接触状態のジェスチャ操作を割り当てることで、ユーザにとって使い勝手の良い投写型映像表示装置を提供することができる。
1:投写型映像表示装置、2:投写面、3:ユーザ、4a,4b,4c,4d:信号出力装置、30:指(手)、100:カメラ、101,102:照明、104:影領域抽出部、105:特徴点検出部、106:接近度検出部、107:接触点検出部、108:輪郭検出部、109:方向検出部、110:制御部、111:表示制御部、112:駆動回路部、113:入力端子、114:入力信号処理部、115:投写部、120:信号入力部、121:入力信号、122:手識別部、202,203:表示画面、209:入力切替メニュー、401,402:影、501,502:輪郭線、601,602:特徴点。
図2は、実施例1の投写型映像表示装置1の構成を示す図である。投写型映像表示装置1は、カメラ100、2つの照明101と102、影領域抽出部104、特徴点検出部105、接近度検出部106、接触点検出部107、輪郭検出部108、方向検出部109、制御部110、表示制御部111、駆動回路部112、入力端子113、入力信号処理部114、投写部115を含む。このうち、影領域抽出部104、特徴点検出部105、接近度検出部106、接触点検出部107、輪郭検出部108、方向検出部109は、ユーザ3の操作を検出する操作検出部である。以下、操作検出部を中心に各部の構成と動作を説明する。

Claims (12)

  1. 操作者の操作に応じて投写表示する映像を制御する投写型映像表示装置において、
    複数の映像信号を入力する信号入力部と、
    投写面に映像を投写表示する投写部と、
    前記投写面を操作する1あるいは複数の操作者を撮影する撮像部と、
    前記撮像部の撮影画像から前記操作者の操作を検出する操作検出部と、
    前記投写部から投写する映像の表示を制御する制御部と、を備え、
    前記制御部は、前記操作検出部の検出結果に基づいて、前記信号入力部に入力される映像信号の中から、前記投写部で投写表示する映像信号を選択することを特徴とする投写型映像表示装置。
  2. 請求項1に記載の投写型映像表示装置であって、
    前記操作検出部の検出結果、前記操作者が前記投写面に特定の本数の指で接触した場合、または特定の本数の指を接触して移動させた場合に、前記制御部は、前記投写部で投写表示する映像信号の選択を行うことを特徴とする投写型映像表示装置。
  3. 請求項2に記載の投写型映像表示装置であって、
    前記信号入力部には複数の信号出力装置が接続されており、
    前記制御部は前記映像信号を選択する際、前記操作者が特定の操作を行った信号出力装置からの映像信号を選択することを特徴とする投写型映像表示装置。
  4. 請求項1に記載の投写型映像表示装置であって、
    前記操作検出部の検出結果、前記操作者が前記投写面に特定の本数の指で接触した場合、または特定の本数の指を接触して移動させた場合に、前記制御部は、入力される前記複数の映像信号の中から2つ以上の映像信号を選択し、前記投写部で同時に投写表示することを特徴とする投写型映像表示装置。
  5. 請求項4に記載の投写型映像表示装置であって、
    前記操作検出部は、前記操作者が操作した手の左右を識別する手識別部を有し、
    前記操作検出部の検出結果、前記操作者が両手を用いて特定の本数の指で接触した場合、または片手を用いて特定の本数の指を接触して移動させた場合に、前記制御部は、2つ以上の映像信号を選択し、前記投写部で同時に投写表示することを特徴とする投写型映像表示装置。
  6. 請求項4または請求項5に記載の投写型映像表示装置であって、
    前記制御部は、2つ以上の映像信号を選択し、前記投写部で同時に投写表示する際、少なくとも1つの映像信号の表示に対し、前記操作検出部を用いて操作者が描画を行う機能を割り当てることを特徴とする投写型映像表示装置。
  7. 請求項1に記載の投写型映像表示装置であって、
    前記操作検出部の検出結果、前記操作者が前記投写面に対して指または手を非接触の状態で移動させた場合、前記制御部は、前記投写部で投写表示する映像信号の選択を行うことを特徴とする投写型映像表示装置。
  8. 請求項7に記載の投写型映像表示装置であって、
    前記操作検出部の検出結果、前記操作者が手を特定の形状で移動させた場合に、前記制御部は、前記投写部で投写表示する映像信号の選択を行うことを特徴とする投写型映像表示装置。
  9. 投写面に映像を投写する投写部と、
    前記投写面を操作する操作物を撮影する撮像部と、
    前記撮像部の撮影画像から前記操作物による操作を検出する操作検出部と、
    前記操作検出部の検出結果に基づいて前記投写部から投写する映像の表示を制御する制御部と、を備え、
    前記操作検出部は、前記操作物が前記投写面に接触しているか、非接触であるかを識別可能であり、
    前記操作検出部の検出結果、前記操作物が前記投写面に接触しながら移動していると検出した場合と、前記操作物が前記投写面に非接触状態で移動していると検出した場合とで、前記制御部は前記投写部に対し、投写する映像の表示について異なる制御を行うことを特徴とする投写型映像表示装置。
  10. 請求項9に記載の投写型映像表示装置であって、
    前記操作物は操作者の指であって、
    前記操作検出部の検出結果、前記操作者の指または手が前記投写面に接触しながら移動している場合で、前記指が1本以上接触していれば、前記制御部は有効な操作と判別し、
    前記操作者の指または手が前記投写面に非接触状態で移動している場合で、前記指または手が特定の形状であれば、前記制御部は有効な操作と判別することを特徴とする投写型映像表示装置。
  11. 投写面に映像を投写する投写型映像表示装置の制御方法であって、
    前記投写面を操作する操作物を撮影するステップと、
    前記撮影した画像から前記操作物による操作を検出するステップと、
    前記操作の検出結果に基づいて前記投写面に投写する映像の表示を制御するステップと、を備え、
    前記操作検出のステップでは、前記操作物が前記投写面に接触しているか、非接触であるかを識別し、
    前記操作の検出結果、前記操作物が前記投写面に接触しながら移動していると検出した場合と、前記操作物が前記投写面に非接触状態で移動していると検出した場合とで、前記投写面に投写する映像の表示について異なる制御を行うことを特徴とする投写型映像表示装置の制御方法。
  12. 請求項11に記載の投写型映像表示装置の制御方法であって、
    前記操作物は操作者の指であって、
    前記操作の検出結果、前記操作者の指または手が前記投写面に接触しながら移動している場合で、前記指が1本以上接触していれば、前記操作は有効な操作と判別し、
    前記操作者の指または手が前記投写面に非接触状態で移動している場合で、前記指または手が特定の形状であれば、前記操作は有効な操作と判別することを特徴とする投写型映像表示装置の制御方法。
JP2016539754A 2014-08-07 2014-08-07 投写型映像表示装置及びその制御方法 Pending JPWO2016021022A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/070884 WO2016021022A1 (ja) 2014-08-07 2014-08-07 投写型映像表示装置及びその制御方法

Publications (1)

Publication Number Publication Date
JPWO2016021022A1 true JPWO2016021022A1 (ja) 2017-06-15

Family

ID=55263328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016539754A Pending JPWO2016021022A1 (ja) 2014-08-07 2014-08-07 投写型映像表示装置及びその制御方法

Country Status (4)

Country Link
US (1) US20170214862A1 (ja)
JP (1) JPWO2016021022A1 (ja)
CN (1) CN106462227A (ja)
WO (1) WO2016021022A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016075796A1 (ja) 2014-11-13 2016-05-19 日立マクセル株式会社 投射型映像表示装置および映像表示方法
JP6631181B2 (ja) * 2015-11-13 2020-01-15 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
JP6816402B2 (ja) 2016-08-12 2021-01-20 セイコーエプソン株式会社 表示装置および表示装置の制御方法
DE102016215746A1 (de) 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
JP7061883B2 (ja) * 2018-01-22 2022-05-02 マクセル株式会社 画像表示装置および画像表示方法
CN110738118B (zh) * 2019-09-16 2023-07-07 平安科技(深圳)有限公司 手势识别方法、***及管理终端、计算机可读存储介质
US11093046B2 (en) 2019-12-16 2021-08-17 Microsoft Technology Licensing, Llc Sub-display designation for remote content source device
US11487423B2 (en) 2019-12-16 2022-11-01 Microsoft Technology Licensing, Llc Sub-display input areas and hidden inputs
US11404028B2 (en) 2019-12-16 2022-08-02 Microsoft Technology Licensing, Llc Sub-display notification handling
US11042222B1 (en) * 2019-12-16 2021-06-22 Microsoft Technology Licensing, Llc Sub-display designation and sharing
US11372518B2 (en) * 2020-06-03 2022-06-28 Capital One Services, Llc Systems and methods for augmented or mixed reality writing
CN111966313B (zh) * 2020-07-28 2022-06-17 锐达互动科技股份有限公司 一种融合白板的实现方法、装置、设备和介质
JP7238878B2 (ja) * 2020-12-18 2023-03-14 セイコーエプソン株式会社 表示装置および表示装置の制御方法
TWI766509B (zh) * 2020-12-28 2022-06-01 技嘉科技股份有限公司 顯示裝置及投影式螢幕上顯示介面的控制方法
CN114253452A (zh) * 2021-11-16 2022-03-29 深圳市普渡科技有限公司 机器人、人机交互方法、装置和存储介质
CN114596582B (zh) * 2022-02-28 2023-03-17 北京伊园未来科技有限公司 一种带视觉和力反馈的增强现实交互方法及***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
JP2009003606A (ja) * 2007-06-20 2009-01-08 Univ Kinki 画像認識による機器制御方法それを用いたコンテンツ作成方法および装置
US20090103780A1 (en) * 2006-07-13 2009-04-23 Nishihara H Keith Hand-Gesture Recognition Method
JP2011053971A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012185631A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2013008368A (ja) * 2011-06-24 2013-01-10 Ricoh Co Ltd 仮想タッチスクリーンシステム及び双方向モード自動切換方法
JP2013164658A (ja) * 2012-02-09 2013-08-22 Ricoh Co Ltd 画像表示装置
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5299866B2 (ja) * 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
JP5304848B2 (ja) * 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
US20090103780A1 (en) * 2006-07-13 2009-04-23 Nishihara H Keith Hand-Gesture Recognition Method
JP2009003606A (ja) * 2007-06-20 2009-01-08 Univ Kinki 画像認識による機器制御方法それを用いたコンテンツ作成方法および装置
JP2011053971A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012185631A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2013008368A (ja) * 2011-06-24 2013-01-10 Ricoh Co Ltd 仮想タッチスクリーンシステム及び双方向モード自動切換方法
JP2013164658A (ja) * 2012-02-09 2013-08-22 Ricoh Co Ltd 画像表示装置
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
CN106462227A (zh) 2017-02-22
WO2016021022A1 (ja) 2016-02-11
US20170214862A1 (en) 2017-07-27

Similar Documents

Publication Publication Date Title
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
US10191594B2 (en) Projection-type video display device
JP6791994B2 (ja) 表示装置
US10915186B2 (en) Projection video display apparatus and video display method
US10452206B2 (en) Projection video display device and video display method
US9442606B2 (en) Image based touch apparatus and control method thereof
US11029766B2 (en) Information processing apparatus, control method, and storage medium
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP2012185630A (ja) 投影装置
JP5817149B2 (ja) 投影装置
JP2017199289A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP7369834B2 (ja) 表示装置
JP6314177B2 (ja) 投射型映像表示装置
JP6075193B2 (ja) 携帯端末装置
JP2013134549A (ja) データ入力装置およびデータ入力方法
JP2017009664A (ja) 画像投写装置、及び対話型入出力システム
JP2021036401A (ja) 表示装置、表示方法、プログラム
US20240070889A1 (en) Detecting method, detecting device, and recording medium
EP3879822A1 (en) Method and system for projected content handover among a plurality of projection mapping units
JP5118663B2 (ja) 情報端末装置
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180123