JP2019054360A - 電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法 - Google Patents
電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法 Download PDFInfo
- Publication number
- JP2019054360A JP2019054360A JP2017176453A JP2017176453A JP2019054360A JP 2019054360 A JP2019054360 A JP 2019054360A JP 2017176453 A JP2017176453 A JP 2017176453A JP 2017176453 A JP2017176453 A JP 2017176453A JP 2019054360 A JP2019054360 A JP 2019054360A
- Authority
- JP
- Japan
- Prior art keywords
- area sensor
- image
- change
- line
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 238000005096 rolling process Methods 0.000 claims abstract description 15
- 239000000203 mixture Substances 0.000 description 32
- 238000000034 method Methods 0.000 description 24
- 238000003384 imaging method Methods 0.000 description 17
- 239000002131 composite material Substances 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B26/00—Optical devices or arrangements for the control of light using movable or deformable optical elements
- G02B26/08—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
- G02B26/10—Scanning systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/689—Motion occurring during a rolling shutter mode
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】短い周期で位置変化を解析する電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法を提供する。【解決手段】ローリングシャッター方式のエリアセンサー31とエリアセンサー31で撮像された画像のライン毎のフレーム間差分に基づいてエリアセンサー31の位置の変化を検出する検出部34とを備えるカメラユニット30と、エリアセンサー31の位置の変化に基づいてオブジェクトの位置を変化させる表示部10と、を備える電子機器としてヘッドマウントディスプレイ1が構成される。さらに、表示部10は、エリアセンサー31で撮像された画像と当該画像に重畳されたオブジェクトとを表示する。【選択図】図2
Description
本発明は、電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法に関する。
従来、撮像装置によって撮像された画像の位置変化を解析する技術が知られている。例えば、特許文献1においては、撮像装置で撮像された画像からテンプレートマッチングによって動きベクトルの検出対象となる矩形領域を抽出し、当該矩形領域のフレーム間の相関値に基づいて動きベクトルを算出する構成が開示されている。
特許文献1の技術のように画像内の特定の部分に関するフレーム間の比較を行う構成においては、あるフレームの矩形領域が撮像された後にフレーム間の比較が行われた後、さらに比較を行うためには次のフレームの矩形領域の撮像が完了する必要がある。従って、比較の周期は最小でもフレーム周期になる。
本発明は上記課題にかんがみてなされたもので、短い周期で位置変化を解析することを目的の1つとする。
本発明は上記課題にかんがみてなされたもので、短い周期で位置変化を解析することを目的の1つとする。
上記目的を達成するため、電子機器においては、ローリングシャッター方式のエリアセンサーと、エリアセンサーで撮像された画像のライン毎のフレーム間差分に基づいてエリアセンサーの位置の変化を検出する検出部と、を備える。この構成によれば、ライン毎にエリアセンサーの位置の変化を検出することができ、各ラインの撮像周期でエリアセンサーの位置の変化を取得することができる。従って、短い周期で位置変化を解析可能な電子機器を提供することができる。
さらに、エリアセンサーの位置の変化に基づいてオブジェクトの位置を変化させる表示部を備える電子機器が構成されてもよい。この構成によれば、表示部に表示されたオブジェクトの位置をエリアセンサーの位置の変化に応じて変化させることができる。
さらに、表示部におけるオブジェクトの位置の変化は、エリアセンサーの位置の変化を相殺する変化である構成が採用されてもよい。この構成によれば、エリアセンサーが移動しても移動しないように見えるオブジェクトを含む画像を表示部に表示させることができる。
さらに、表示部は、エリアセンサーで撮像された画像と当該画像に重畳されたオブジェクトとを表示する構成であっても良い。この構成によれば、エリアセンサーの位置の変化に応じて位置が変化するオブジェクトを、エリアセンサーによって撮像された画像に重畳して表示部に表示させることができる。
さらに、エリアセンサーが、筐体に固定された第1エリアセンサーと、第1エリアセンサーの主走査方向と直交する方向に主走査方向が向くように筐体に固定された第2エリアセンサーとを含み、検出部は、第1エリアセンサーで撮像された画像に基づいて第1エリアセンサーの主走査方向への筐体の位置の変化を検出し、第2エリアセンサーで撮像された画像に基づいて第2エリアセンサーの主走査方向への筐体の位置の変化を検出する構成であっても良い。この構成によれば、エリアセンサーの位置の変化に基づいて筐体の位置の変化を直交する2方向について検出することができ、筐体における2次元的な位置の変化を検出することができる。
さらに、ローリングシャッター方式のエリアセンサーと、エリアセンサーで撮像された画像のライン毎のフレーム間差分を出力する出力部と、を備えるモーションセンサーが構成されても良い。この構成によれば、ライン毎のフレーム間差分に基づいてエリアセンサーの位置の変化を出力するモーションセンサーを提供することができ、短い周期で位置変化を解析することが可能なモーションセンサーを提供することができる。
ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ヘッドマウントディスプレイの構成:
(1−1)カメラユニットの構成:
(1−2)表示部の構成:
(2)撮像処理:
(3)表示処理:
(4)他の実施形態:
(1)ヘッドマウントディスプレイの構成:
(1−1)カメラユニットの構成:
(1−2)表示部の構成:
(2)撮像処理:
(3)表示処理:
(4)他の実施形態:
(1)ヘッドマウントディスプレイの構成:
図1は、本発明にかかるヘッドマウントディスプレイ(Head Mounted Display、HMD)1としてのスマートグラスの外観構成を示す説明図である。図2は、ヘッドマウントディスプレイ1の構成を機能的に示すブロック図である。本実施形態にかかるヘッドマウントディスプレイ1は、ヘッドマウントディスプレイ1は眼鏡形状を有しており、眼鏡のレンズに相当する部分には、表示部10およびカメラユニット30が組み込まれている。表示部10には第1表示パネル17a,第2表示パネル17bが備えられており、ユーザーがヘッドマウントディスプレイ1を装着した状態において、ユーザーの右左の目の視野を遮る位置に1個ずつ第1表示パネル17a,第2表示パネル17bが配置されている。眼鏡のレンズに相当する部分にはユーザーの耳に掛けられる保持部40が連結され、保持部40には制御部20が取り付けられている。
図1は、本発明にかかるヘッドマウントディスプレイ(Head Mounted Display、HMD)1としてのスマートグラスの外観構成を示す説明図である。図2は、ヘッドマウントディスプレイ1の構成を機能的に示すブロック図である。本実施形態にかかるヘッドマウントディスプレイ1は、ヘッドマウントディスプレイ1は眼鏡形状を有しており、眼鏡のレンズに相当する部分には、表示部10およびカメラユニット30が組み込まれている。表示部10には第1表示パネル17a,第2表示パネル17bが備えられており、ユーザーがヘッドマウントディスプレイ1を装着した状態において、ユーザーの右左の目の視野を遮る位置に1個ずつ第1表示パネル17a,第2表示パネル17bが配置されている。眼鏡のレンズに相当する部分にはユーザーの耳に掛けられる保持部40が連結され、保持部40には制御部20が取り付けられている。
(1−1)カメラユニットの構成:
カメラユニット30は、エリアセンサー31、タイミング制御部32、画像処理部33、検出部34を備えている。エリアセンサー31は、光学系、CMOSセンサーを含む第1エリアセンサー30a、第2エリアセンサー30bを備えている。光学系はヘッドマウントディスプレイ1を装着したユーザーの視野方向に存在する物体からの光をCMOSセンサーに結像させることができる。CMOSセンサーは、カラーフィルターと、光量に応じた電荷を光電変換によって画素ごとに蓄積する複数のフォトダイオードとを備えており、視野内の像を示すカラーの画像データを出力することができる。
カメラユニット30は、エリアセンサー31、タイミング制御部32、画像処理部33、検出部34を備えている。エリアセンサー31は、光学系、CMOSセンサーを含む第1エリアセンサー30a、第2エリアセンサー30bを備えている。光学系はヘッドマウントディスプレイ1を装着したユーザーの視野方向に存在する物体からの光をCMOSセンサーに結像させることができる。CMOSセンサーは、カラーフィルターと、光量に応じた電荷を光電変換によって画素ごとに蓄積する複数のフォトダイオードとを備えており、視野内の像を示すカラーの画像データを出力することができる。
第1エリアセンサー30aは右目、第2エリアセンサー30bは左目の視野内の画像データを出力するセンサーであり、図1においては、ヘッドマウントディスプレイ1の筐体において右左の端に固定されているが、むろん、左右の各目で視認される画像が撮像できる限りにおいて固定位置は任意である。第1エリアセンサー30a,第2エリアセンサー30bにおいて、画素の位置は直交座標系における座標で規定され、一方の座標軸に平行な方向に並ぶ複数の画素によってラインが構成され、複数のラインが他方の座標軸に平行な方向に並ぶように構成されている。本明細書では、ラインに平行な方向を主走査方向、ラインに垂直な方向を副走査方向と呼ぶ。なお、本実施形態において、第1エリアセンサー30a、第2エリアセンサー30bの主走査方向および副走査方向は平行であり、副走査方向は上下方向(図1に示すY方向)、主走査方向は左右方向(図1に示すX方向)に向いている。
本実施形態においてエリアセンサー31の第1エリアセンサー30aおよび第2エリアセンサー30bは、タイミング制御部32が出力する各種信号に同期した動作を行う。すなわち、タイミング制御部32は、基準のクロック信号に基づいて各種信号を生成することが可能である。本実施形態において、各種信号には、1フレーム(各エリアセンサーの全画素によって構成される1画面)分のフォトダイオードの検出結果を読み出すための期間を規定する垂直同期信号(SVsync)、1ライン分のフォトダイオードの検出結果を読み出すための期間を規定する水平同期信号(SHsync)、各画素の画像データの読み出しタイミング等を規定するデータクロック信号(SDotclock)が含まれる。エリアセンサー31は、垂直同期信号SVsyncに応じて1フレーム分の出力データの出力を開始し、水平同期信号SHsyncにて規定される期間内にデータクロック信号SDotclockに応じたタイミングで第1エリアセンサー30aおよび第2エリアセンサー30bの1ライン内の画素に対応するフォトダイオードの検出結果を示す出力データを逐次読み出す。
本実施形態における第1エリアセンサー30aにおいて、水平同期信号SHsync1の位相はライン毎に少しずつずれている。第2エリアセンサー30bにおいても同様に、水平同期信号SHsync2の位相がライン毎に少しずつずれている。すなわち、本実施形態において、同一ラインは同一のタイミングで露光されるが、副走査方向に隣接するライン同士では異なるタイミングで露光される。また、副走査開始ラインから副走査終了ラインまでに並ぶ各ラインにおいて、ライン番号が増加するたびに露光開始タイミングが遅れ、各ラインで異なるタイミングで順次露光が開始されるように構成されている。すなわち、本実施形態における第1エリアセンサー30aおよび第2エリアセンサー30bは、ローリングシャッター方式のCMOSセンサーである。なお、以下において、第1エリアセンサー31a、第2エリアセンサー31b用の信号や第1表示パネル17a、第2表示パネル17b用の信号を区別する際には、信号を示す符号に1,2等の符号を付して示す。
画像処理部33は、図示しないバッファメモリを利用し、第1エリアセンサー30aおよび第2エリアセンサー30bからライン順次に出力される撮像データに既定の画像処理を行う。本実施形態における画像処理は、第1エリアセンサー30aおよび第2エリアセンサー30bが撮像した画像を右左の第1表示パネル17a,第2表示パネル17bのそれぞれに対して表示させるための画像を生成するための処理であり、例えば、色再現処理、フィルター処理、ガンマ補正、リサイズ処理等によって構成される。むろん、画像処理は種々の処理であって良く、表示のための処理に限らず、エリアセンサーの位置の変化を検出するための処理等であっても良い。
なお、リサイズ処理は、第1エリアセンサー30aおよび第2エリアセンサー30bの有効撮像領域の画素数と第1表示パネル17aおよび第2表示パネル17bの有効表示領域の画素数との差を吸収し、撮像画像を第1表示パネル17aおよび第2表示パネル17bに表示可能な大きさにするための処理である。従って、画像処理部33から出力される撮像画像は、第1表示パネル17a、第2表示パネル17bで表示できるように変換された画像である。
画像処理部33における処理は第1エリアセンサー30aおよび第2エリアセンサー30bのそれぞれについてライン順次に実行され、処理後のデータは表示部10が備えるVRAM11に出力される(図2に示すVRAM11内の撮像画像)。VRAM11には、少なくとも1フレーム前の1フレーム分の撮像画像と現フレームの撮像中の画像とが保存されていく。一方、本実施形態において、画像処理部33による処理後のデータは検出部34にも出力される。
検出部34は、エリアセンサー31で撮像された画像のライン毎のフレーム間差分に基づいてエリアセンサー31の位置の変化を検出する機能を有している。本実施形態において、第1エリアセンサー30aおよび第2エリアセンサー30bの双方ともがヘッドマウントディスプレイ1の筐体に固定されているため、第1エリアセンサー30aの位置の変化と第2エリアセンサー30bの位置の変化はほぼ同一と見なすことができる。そこで、本実施形態においては、第1エリアセンサー30aの出力に対して画像処理部33で処理されたデータが検出部34に出力される構成を想定して説明を行う。
本実施形態において、検出部34は、ライン毎に定義される比較領域内のパターンの移動量を特定することにより、第1エリアセンサー30aの位置の変化を検出する。すなわち、本実施形態においては、第1エリアセンサー30aで撮像される被写体が静止している(またはほぼ静止している)状態を想定し、比較領域内の像のフレーム間での移動はヘッドマウントディスプレイ1の移動(すなわち第1エリアセンサー30aの移動)であると見なしている。
図3〜図6は、比較領域のパターンの移動量を特定する処理を説明する説明図である。図3および図4は連続する2個のフレームの撮像画像を模式的に示している。これらの図は、第1エリアセンサー30aの視野に長方形の物体が存在する場合の例であり、図3は第1エリアセンサー30aが静止した状態、図4は第1エリアセンサー30aがX軸正方向に移動している状態(ヘッドマウントディスプレイ1を装着したユーザーが首を首の回転軸で回転させている状態)で撮像された画像を模式的に示している。
第1エリアセンサー30aが移動している状態においては、ローリングシャッター方式によって各ラインの露光開始タイミングがずれることにより、移動による位置変化が反映された状態で画像が撮像される。図4においては、露光開始タイミングが早いラインの撮像段階で第1エリアセンサー30aが静止しており、途中で第1エリアセンサー30aの移動が開始されたことを反映し、矩形の物体がX軸負方向に歪んだ状態で撮像されている。
ここでは、図3に示すフレームを前フレーム、図4に示すフレームを現フレームと呼ぶ。また、ここでは、第1エリアセンサー30aのKライン目に着目しており、Kライン目の1ラインを破線で示している。比較領域はKライン目以前に撮像された撮像画像から抽出される領域であり、本実施形態においてはKライン目より既定ライン数だけ前のLy個のラインの画像の中央に存在するPx個の画素の領域が比較領域である。図3および図4においては一点鎖線によって比較領域Zcを示している。また、図5および図6のそれぞれは図3および図4から比較領域Zcを抜き出して示す図である。
検出部34は、図示しないバッファメモリを備えており、画像処理部33からKライン目の撮像画像の出力が完了すると、バッファメモリを参照して現フレームのKライン目における比較領域Zcの撮像画像を取得する。また、検出部34は、VRAM11を参照し、前フレームのKライン目における比較領域Zcの撮像画像を取得する。図5,図6に示す例であれば、現フレームのKライン目における比較領域Zcの撮像画像が図6、前フレームのKライン目における比較領域Zcの撮像画像が図5である。なお、図6においては、参考のために、前フレームの撮像画像のパターンを破線によって示している。
検出部34は、前フレームのKライン目における比較領域Zcの撮像画像をX軸方向、Y軸方向に移動させ、移動後の画像の階調値と、現フレームのKライン目における比較領域Zcの撮像画像の階調値との差分を取得する。そして、差分が最小になる場合のX軸方向への移動量ΔX、Y軸方向への移動量ΔYを取得する。図3〜図6においては、第1エリアセンサー30aがX軸正方向に移動している状態が想定されており、この場合において検出部34は、図6に示すようにX軸方向への移動量ΔXを有限の値として取得し、Y軸方向への移動量ΔYを0として取得する。むろん、第1エリアセンサー30aがY軸方向に移動している場合、Y軸方向への移動量ΔYも有限の値となる。
なお、これらの移動量は画素単位で表現されているが、当該移動量は比較領域内の像のフレーム間での移動量を示しているため、ヘッドマウントディスプレイ1の移動量(第1エリアセンサー30aの移動量)と逆方向であり、単位も異なり得るが、被写体が静止しているのであれば両者は本質的に等価である。また、フレーム間差分を評価するための処理は、上述のような階調値の差分に限定されず、各種の処理を行ってよい。例えば、比較前に各比較領域内の撮像画像に対してエッジ検出処理や2値化等の処理を行い、処理後の各画像の差分を評価する構成等が採用されてもよい。
検出部34は、以上の処理を複数のラインによって実施可能であり、本実施形態においては、第1エリアセンサー30aの全ラインに関してX軸方向への移動量ΔX、Y軸方向への移動量ΔYを取得する。検出部34がライン毎の第1エリアセンサー30aのX軸方向への移動量ΔX、Y軸方向への移動量ΔYを取得すると、検出部34は、ライン番号と対応づけて移動量ΔX,ΔYを表示部10のRAM12に記録する。
この結果、表示部10においては、ライン番号に基づいて移動量ΔX,ΔYを参照することもできるし、最新の移動量ΔX,ΔYを参照することも可能になる。なお、比較領域は、Kライン目のフレーム間差分を取得するために参照される領域であれば良く、比較領域の大きさ(Ly,Pxの数)や位置等は限定されない。例えば、Lyが1になればライン単位でのフレーム間差分を解析する構成となるし、比較領域にKライン目の撮像画像が含まれる構成や、Kライン目における比較領域をKライン目の撮像画像とするような構成(すなわち、Ly=1)等も想定可能である。
(1−2)表示部の構成:
表示部10は、VRAM11、RAM12、画像合成部13、タイミング制御部14、出力コントローラー15、第1パネルドライバー16a、第2パネルドライバー16b、第1表示パネル17a、第2表示パネル17bを備えている。VRAM11は、第1表示パネル17a,第2表示パネル17bに表示される画像を記録するためのメモリである。本実施形態においては、画像処理部33が出力する撮像画像(表示用に変換済の画像)、撮像画像に重畳されてAR(Augmented Reality)表示を行うためのオブジェクト画像、撮像画像に重畳されて各種の情報をユーザーに伝達するためのOSD画像、これらの画像が合成された合成画像がVRAM11に記録され得る。
表示部10は、VRAM11、RAM12、画像合成部13、タイミング制御部14、出力コントローラー15、第1パネルドライバー16a、第2パネルドライバー16b、第1表示パネル17a、第2表示パネル17bを備えている。VRAM11は、第1表示パネル17a,第2表示パネル17bに表示される画像を記録するためのメモリである。本実施形態においては、画像処理部33が出力する撮像画像(表示用に変換済の画像)、撮像画像に重畳されてAR(Augmented Reality)表示を行うためのオブジェクト画像、撮像画像に重畳されて各種の情報をユーザーに伝達するためのOSD画像、これらの画像が合成された合成画像がVRAM11に記録され得る。
なお、オブジェクト画像のデータおよびOSD画像のデータは予め作成され、制御部20の制御により表示対象のオブジェクト画像のデータおよびOSD画像のデータがVRAM11に記録される。制御部20は、表示部10やカメラユニット30、図示しない入力部の入力に応じた出力の制御など、各種の処理を実行可能である。合成に関して制御部20は、オブジェクト画像やOSD画像の選択および位置の決定を行う。本実施形態において、オブジェクト画像はAR表示されるため、制御部20は、撮像画像に基づいてオブジェクト画像の表示位置(第1エリアセンサー30aが静止している場合の表示位置)を特定する。そして、制御部20は、オブジェクト画像に表示位置を対応づけてVRAM11に記録する。OSD画像が表示されない場合、OSD画像のデータは記録されなくて良い。
RAM12には検出部34が出力する移動量ΔX,ΔYが記録される。画像合成部13は、第1エリアセンサー30aの位置の変化に基づいて位置が変化するオブジェクトを、第1エリアセンサー30aおよび第2エリアセンサー30bの撮像画像のそれぞれに合成する処理を行う。本実施形態においては、第1エリアセンサー30aの位置の変化が0である場合のオブジェクトの表示位置が制御部20によって決められる。第1エリアセンサー30aの位置の変化が0ではない場合、画像合成部13は、第1エリアセンサー30aの位置の変化を相殺するように、オブジェクトの位置を表示位置に対して変化させる。すなわち、第1エリアセンサー30aの位置の変化が0である場合のオブジェクトの表示位置が(DX,DY)である場合において、検出部34によって移動量ΔX,ΔYが検出されると、画像合成部13は、オブジェクトの表示位置を(DX+ΔX,DY+ΔY)とする。
第1エリアセンサー30aの位置の変化を反映してオブジェクトの表示位置が補正されると、画像合成部13は、撮像画像に対してオブジェクト画像を合成する。合成する際には、補正後のオブジェクトの表示位置を反映していれば良く、種々の手法で合成が行われてよい。例えば、スプライト機能等によって実現されて良い。スプライト機能が利用されるのであれば、画像合成部13は、VRAM11に記録されたオブジェクト画像の表示位置が補正後の表示位置であると見なし、撮像画像に対してオブジェクト画像を重畳表示するための合成画像のデータを生成する。
なお、本実施形態においては、第1エリアセンサー30aの撮像画像が第1表示パネル17aに表示され、第2エリアセンサー30bの撮像画像が第2表示パネル17bに表示される。このため、第1エリアセンサー30aの撮像画像と第2エリアセンサー30bの撮像画像とのそれぞれがVRAM11に記録されており、画像合成部13は、各撮像画像に対して補正後のオブジェクトの表示位置にオブジェクト画像を合成する。本実施形態において、以上の処理はライン順次に実行される。なお、OSD表示の必要がある場合、画像合成部13はOSD画像を既定の位置に重畳する処理も行う。
本実施形態において、第1表示パネル17a、第2表示パネル17bは、OLED(Organic Light Emitting Diode)パネルであり、白色の発光体のそれぞれに対してRGB(赤、緑、青)のカラーフィルターが設けられることで構成された画素が複数個形成されている。従って、各発光体の発光強度が変化することで各画素において多色の表示を行うことができる。第1表示パネル17a、第2表示パネル17bにおいても画素の位置は直交座標系における座標で規定される。また、一方の座標軸(本例ではX軸)に平行な方向に並ぶ複数の画素によってラインが構成され、複数のラインが他方の座標軸(本例ではY軸)に平行な方向に並ぶように構成されている。本明細書では、ラインに平行な方向を主走査方向、ラインに垂直な方向を副走査方向と呼び、各パネルの全画素によって構成される1画面を1フレームと呼ぶ。
第1パネルドライバー16a、第2パネルドライバー16bは、各画素を合成画像のデータに応じた発光強度で発光させるための信号を第1表示パネル17a、第2表示パネル17bに対して出力する。第1表示パネル17a、第2表示パネル17bは、図示しない主走査方向ドライバーおよび副走査方向ドライバーを備えており、第1パネルドライバー16a、第2パネルドライバー16bから出力される信号に応じて主走査方向ドライバーが各ラインの各画素における表示タイミングを制御し、副走査方向ドライバーが表示タイミングとされているラインの各画素の発光体を駆動することによって表示を行う。
すなわち、第1パネルドライバー16a、第2パネルドライバー16bは、第1表示パネル17a、第2表示パネル17bにおける表示を行うための各種信号、例えば、1フレーム分の表示を行うための期間を規定する垂直同期信号(DVsync)、1ライン分の表示を行うための期間を規定する水平同期信号(DHsync)、各ライン内での合成画像のデータの取り込み期間を規定するデータアクティブ信号(DDactive)、各画素のデータの取り込みタイミング等を規定するデータクロック信号(DDotclock)、各画素のデータ(Data)を出力するように構成されている。
第1表示パネル17aは、第1エリアセンサー30aで撮像され、画像処理部33によって生成された撮像画像の表示を垂直同期信号DVsync1に応じて開始し、水平同期信号DHsync1にて規定される期間内にデータクロック信号DDotclock1に応じたタイミングで第1表示パネル17aの各ライン上の表示対象画素を駆動して表示を行う。第2表示パネル17bは、第2エリアセンサー30bで撮像され、画像処理部33によって生成された撮像画像の表示を垂直同期信号DVsync2に応じて開始し、水平同期信号DHsync2にて規定される期間内にデータクロック信号DDotclock2に応じたタイミングで第2表示パネル17bの各ライン上の表示対象画素を駆動して表示を行う。
なお、表示部10は、タイミング制御部14を備えており、タイミング制御部14とタイミング制御部32とは接続されている。すなわち、カメラユニット30における撮像と表示部10における表示とを同期させる必要がある場合には、タイミング制御部14とタイミング制御部32との少なくとも一方で生成されたクロック信号を他方で使用することにより、同期を行うことが可能である。むろん、同期が不要であれば互いに独立したクロック信号で駆動されても良い。
以上のように、第1表示パネル17aおよび第2表示パネル17bにおいては、ライン順次に表示を行うことができる。そして、本実施形態において、第1エリアセンサー30aおよび第2エリアセンサー30bはローリングシャッター方式のセンサーであるため、各ラインの撮像画像を表示するための撮像画像は少しずつずれたタイミングで生成される。本実施形態においては、1フレーム分の撮像画像の生成が完了するのを待つことなく、表示の準備が完了したラインから順に表示を行えるように構成されている。
すなわち、Kライン目の撮像画像に基づいて第1エリアセンサー30aの位置の変化が特定され、オブジェクトの表示位置が特定され、Kライン目における撮像画像とオブジェクト画像との合成が完了すると、Kライン目の表示が可能になる。そこで、タイミング制御部14は、当該Kライン目の合成が完了するタイミングを指示する信号を出力コントローラー15に指示する。
出力コントローラー15が当該指示を受け付けると、出力コントローラー15は、画像合成部13に指示を行い、画像合成部13はKライン目の合成画像のデータをVRAM11から取得し、出力コントローラー15に出力する。出力コントローラー15は、第1エリアセンサー30aの撮像画像に基づいて生成されたKライン目のデータに基づいて第1パネルドライバー16aを駆動し、第2エリアセンサー30bの撮像画像に基づいて生成されたKライン目のデータに基づいて第2パネルドライバー16bを駆動する。この結果、第1表示パネル17aおよび第2表示パネル17bは、撮像画像にオブジェクト画像が重畳されたKライン目の画像を表示する。
なお、Kライン目の合成が完了するタイミングを指示する信号は、各種の態様であって良く、第1エリアセンサー30aおよび第2エリアセンサー30bにおいてKライン目の撮像が開始されてから、一定期間後のタイミングであってもよいし、画像合成部13でKライン目の合成が完了したことが特定されたタイミングであっても良い。前者の一定期間は、例えば、画像処理部33や画像合成部13の処理に要する期間以上の固定期間等によって定義可能である。後者は、画像合成部13で各ラインの合成が終了した場合に画像合成部13等からパルス信号がタイミング制御部14や出力コントローラー15に出力される構成等によって実現可能である。
以上のように、本実施形態においては、ライン毎に第1エリアセンサー30aの位置の変化が検出され、当該ライン毎の位置の変化が反映した状態でオブジェクトの合成および表示が行われる。従って、図4に示す例のように、第1エリアセンサー30aの移動に起因する歪みが発生した状態で撮像されていたとしても、オブジェクト画像を当該歪みに追従させて表示することができる。
図7、図8は、矩形の物体Rに楕円形のオブジェクトOが重畳された表示画像の例を示している。図7は、第1エリアセンサー30aが静止している状態を示しており、ここでは、図7に示すように物体Rの画像にオブジェクトOの画像が重畳されるAR表示が想定されている。このようなAR表示において、制御部20は、VRAM11に記録された第1エリアセンサー30aの撮像画像に基づいて撮像画像内での物体の位置を、例えば、パターンマッチング等によって検出し、当該物体の位置に基づいて、例えば、物体の位置の重心位置等がオブジェクトの表示位置であるとみなす処理等を実行する。
第1エリアセンサー30aおよび第2エリアセンサー30bによって物体Rが撮像され、画像処理部33によって撮像画像が変換されると、撮像画像を示すデータはVRAM11に記録される。第1エリアセンサー30aが静止している状態においては、物体Rと第1エリアセンサー30aとの相対位置関係が変化しないため、各ラインで撮像される物体Rの位置に変化はない。
従って、表示用に変換された撮像画像において、図7に示すように物体Rの形状は歪まない。この場合、各ラインにおけるフレーム間差分が0であり、検出部34は、第1エリアセンサー30aの位置の変化を検出しない。従って、画像合成部13は制御部20が特定したオブジェクトの表示位置を補正しない。この結果、図7に示すように静止した物体Rに静止したオブジェクトOが重畳された画像が生成され、第1表示パネル17aおよび第2表示パネル17bに表示される。
一方、第1エリアセンサー30aがX軸方向に移動している状態においては、物体Rと第1エリアセンサー30aとの相対位置関係が変化するため、各ラインで撮像される物体Rの位置に変化が生じる。従って、表示用に変換された撮像画像において、図8に示すように物体Rの形状は歪む。この場合、フレーム間差分が有限(非0)であるラインが存在し、検出部34は、第1エリアセンサー30aの位置の変化を検出する。従って、画像合成部13は制御部20が特定したオブジェクトの表示位置を補正する。この結果、図7に示すように歪んだ物体Rに対して、ライン毎に異なる表示位置にオブジェクトOを重畳した画像が生成され、第1表示パネル17aおよび第2表示パネル17bに表示される。
なお、図8においては、ライン毎に異なる移動量でオブジェクトOが表示される様子を、オブジェクトOがY軸方向にある程度の幅を有したエリアを単位にして模式的に示しているが、本実施形態においてはライン毎に異なる表示位置にオブジェクトOを表示し得るため、実際にはよりなめらかに歪んだオブジェクトOとなり得る。
図9、図10は正方形の物体Rに円形のオブジェクトOが重畳された表示画像の例を示しており、図9は、第1エリアセンサー30aが静止している状態の例、図10は、第1エリアセンサー30aがY軸方向に移動している状態の例である。第1エリアセンサー30aが静止している場合、第1エリアセンサー30aおよび第2エリアセンサー30bがローリングシャッター方式で撮像した場合であっても、物体R、オブジェクトOの像は図9に示すように歪まない。
一方、第1エリアセンサー30aがY軸正方向に移動している場合、第1エリアセンサー30aおよび第2エリアセンサー30bの各ラインにおける露光開始タイミングが順次送れていくため、図10に示すようにY軸方向に物体Rの像が歪む。この場合、検出部34は、Y軸方向への移動量ΔYを有限の値(非0)として取得する。従って、画像合成部13は制御部20が特定したオブジェクトの表示位置を補正する。この結果、図10に示すように歪んだ物体Rに対して、ライン毎に異なる表示位置にオブジェクトOを重畳した画像が生成され、第1表示パネル17aおよび第2表示パネル17bに表示される。
なお、図10においては、ライン毎に異なる移動量でオブジェクトOが表示される様子を、オブジェクトOがY軸方向にある程度の幅を有したエリアを単位にして模式的に示しているが、本実施形態においてはライン毎に異なる表示位置にオブジェクトOを表示し得るため、実際にはよりなめらかに歪んだオブジェクトOとなり得る。
以上の構成によれば、ライン毎に第1エリアセンサー30aの位置の変化を検出することができ、各ラインの撮像周期で第1エリアセンサー30aの位置の変化を取得することができる。従って、短い周期で位置変化を解析可能なヘッドマウントディスプレイ1を提供することができる。
第1エリアセンサー30aは、当該第1エリアセンサー30aが搭載されたヘッドマウントディスプレイ1の位置の変化を検出するモーションセンサーとして機能する。モーションセンサーとしては、他にもジャイロセンサー等が存在するが、ジャイロセンサーにおいては、例えば、数十m周期で角速度の検出を行う。一方、本実施形態においては、ライン周期で位置の検出を行うことができる。従って、例えば、横1280ドット、縦720ラインのセンサー(実際には約750ライン程度)を60fpsで駆動する場合であれば、1/60×1/750=22.2μS程度の周期で位置の検出が行われる。このため、既存のモーションセンサーと比較して遥かに高精度に位置の検出を行うことができる。
また、短い周期で検出した第1エリアセンサー30aの位置の変化を反映した状態で、表示部10に表示されたオブジェクトの位置を第1エリアセンサー30aの位置の変化に応じて変化させることができる。また、この構成によれば、第1エリアセンサー30aが移動しても移動しないように見えるオブジェクトを含む画像を表示部10に表示させることができる。さらに、オブジェクトがヘッドマウントディスプレイ1の移動に対して遅延して反応するという印象を与えないように表示を行うことができる。
(2)撮像処理:
次に、カメラユニット30で実行される撮像処理を図11に示すフローチャートに沿って説明する。制御部20の指示等によってカメラユニット30で撮像が開始されると、タイミング制御部32は、クロック信号に基づいて上述の垂直同期信号SVsync1,SVsync2や、水平同期信号SHsync1,SHsync2などの各種信号を生成し、既定のタイミングで各種信号を第1エリアセンサー31a、第2エリアセンサー31bに出力する。タイミング制御部32から各種信号が既定のタイミングで出力されると、エリアセンサー31の第1エリアセンサー30aおよび第2エリアセンサー30bは、各種信号が示すタイミングで撮像を行う。
次に、カメラユニット30で実行される撮像処理を図11に示すフローチャートに沿って説明する。制御部20の指示等によってカメラユニット30で撮像が開始されると、タイミング制御部32は、クロック信号に基づいて上述の垂直同期信号SVsync1,SVsync2や、水平同期信号SHsync1,SHsync2などの各種信号を生成し、既定のタイミングで各種信号を第1エリアセンサー31a、第2エリアセンサー31bに出力する。タイミング制御部32から各種信号が既定のタイミングで出力されると、エリアセンサー31の第1エリアセンサー30aおよび第2エリアセンサー30bは、各種信号が示すタイミングで撮像を行う。
すなわち、垂直同期信号SVsync1,SVsync2が規定するフレーム周期の各フレームにおいて、水平同期信号SHsync1,SHsync2が規定する周期で各ラインの撮像を行う。この結果、第1エリアセンサー30aおよび第2エリアセンサー30bから撮像画像がライン順次に出力される。このように、第1エリアセンサー30aおよび第2エリアセンサー30bから垂直同期信号SVsync1,SVsync2や、水平同期信号SHsync1,SHsync2等に応じた出力が順次行われている過程において、画像処理部33は、最初に、ライン番号Kを1に初期化する(ステップS100)。すなわち、垂直同期信号SVsync1,SVsync2の最初のパルスに応じて画像処理部33はKを1に初期化する。
次に、画像処理部33は、Kライン目の画像処理を実行する(ステップS105)。すなわち、第1エリアセンサー30aおよび第2エリアセンサー30bから1ライン分の出力が行われると、画像処理部33は、それぞれのラインの出力に対して色再現処理、フィルター処理、ガンマ補正、リサイズ処理等を実施する。ステップS105が実行されると、撮像画像は表示用の画像に変換された状態になり、VRAM11に記録される。VRAM11においては、少なくとも前フレームの撮像画像は保持する。VRAM11にKライン目の変換後の撮像画像のデータが蓄積される際、2フレーム以前の撮像画像が存在するならば当該2フレーム以前のKライン目のデータは破棄される。むろん、データを破棄するタイミングはVRAM11の容量に応じて変化して良く、VRAM11の容量が多い場合に3フレーム以前の撮像画像が存在する際に破棄される構成等であっても良い。
次に、検出部34は、第1エリアセンサー30aの撮像画像に基づいて、Kライン目における比較領域の画像を取得する(ステップS110)。すなわち、検出部34は、VRAM11を参照し、前フレームのKライン目より既定ライン数だけ前のLy個のラインの画像の中央に存在するPx個の画素の領域の画像データを取得する(例えば、図5)。また、検出部34は、検出部34が備えるバッファメモリを参照して現フレームのKライン目より既定ライン数だけ前のLy個のラインの画像の中央に存在するPx個の画素の領域の画像データを取得する(例えば、図6)。
次に、検出部34は、パターンマッチングにより移動量(ΔX,ΔY)を取得し、出力する(ステップS115)。すなわち、検出部34は、ステップS110で取得した、前フレームの比較領域の画像を移動させ、移動後の画像の階調値と現フレームの比較領域の画像の階調値との差分を取得する。この移動は、既定ステップずつ複数回実行され、予め決められた上下左右方向の移動範囲を網羅するように実施される。上下左右方向の移動範囲の全てについて階調値の差分が得られると、検出部34は、差分が最小になる移動量(ΔX,ΔY)を出力し、Kライン目に対応づけてRAM12に記録する。
なお、Kの値が小さく(第1エリアセンサー30aの上部のラインである場合)、既定の形状の比較領域を確保できない場合、比較領域の大きさおよび形状を変形させても良いし、差分を算出するために比較領域が移動される移動範囲が狭くなっても良い。さらに、ステップS105において画像処理が行われた撮像画像が最初のフレームであり、それ以前のフレームのデータが存在しない場合、ステップS110,S115はスキップされる。
次に、画像処理部33は、ライン番号Kが最終ラインの番号であるか否かを判定し(ステップS120)、最終ラインでなければ、Kをインクリメントして(ステップS125)、ステップS105以降を繰り返す。すなわち、次のラインに関する画像処理部33の処理と検出部34の処理を繰り返す。ステップS120で最終ラインであると判定された場合、画像処理部33はステップS100以降を繰り返す。すなわち、次のフレームに関する画像処理部33の処理と検出部34の処理を繰り返す。
(3)表示処理:
次に、表示部10で実行される表示処理を図12に示すフローチャートに沿って説明する。カメラユニット30における撮像が開始されると、タイミング制御部14は、タイミング制御部32の出力信号と同期させて上述の垂直同期信号DVsync1,DVsync2や、水平同期信号DHsync1,DHsync2などの各種信号を生成し、既定のタイミングで各種信号の出力を行う。タイミング制御部14から各種信号が既定のタイミングで出力されると、第1パネルドライバー16aおよび第2パネルドライバー16bは、各種信号が示すタイミングで第1表示パネル17aおよび第2表示パネル17bに画像を表示する。
次に、表示部10で実行される表示処理を図12に示すフローチャートに沿って説明する。カメラユニット30における撮像が開始されると、タイミング制御部14は、タイミング制御部32の出力信号と同期させて上述の垂直同期信号DVsync1,DVsync2や、水平同期信号DHsync1,DHsync2などの各種信号を生成し、既定のタイミングで各種信号の出力を行う。タイミング制御部14から各種信号が既定のタイミングで出力されると、第1パネルドライバー16aおよび第2パネルドライバー16bは、各種信号が示すタイミングで第1表示パネル17aおよび第2表示パネル17bに画像を表示する。
すなわち、垂直同期信号DVsync1,DVsync2が規定するフレーム周期の各フレームにおいて、水平同期信号DHsync1,DHsync2が規定する周期で各ラインの表示を行う。この結果、第1エリアセンサー30aおよび第2エリアセンサー30bで撮像された画像のそれぞれにオブジェクトが重畳された画像が、第1表示パネル17aおよび第2表示パネル17bのそれぞれにライン順次で表示される。
このように、第1表示パネル17aおよび第2表示パネル17bに対して垂直同期信号DVsync1,DVsync2や、水平同期信号DHsync1,DHsync2等に応じたタイミングで表示を行うため、画像合成部13は、最初に、ライン番号Kを1に初期化する(ステップS200)。すなわち、垂直同期信号DVsync1,DVsync2の最初のパルスに応じて画像合成部13はKを1に初期化する。
次に、画像合成部13は、移動量(ΔX,ΔY)に基づいてオブジェクトの表示位置を決定する(ステップS205)。すなわち、画像合成部13は、第1エリアセンサー30aが静止している場合のオブジェクト画像の表示位置(DX,DY)に基づいて、Kライン目のオブジェクトの表示位置を(DX+ΔX,DY+ΔY)と決定する。
次に、画像合成部13は、Kライン目の画像を合成する(ステップS210)。すなわち、画像合成部13は、VRAM11を参照して第1エリアセンサー30aおよび第2エリアセンサー30bのそれぞれで撮像された現フレームの撮像画像のKライン目のデータを抽出する。また、画像合成部13は、表示位置が移動された後のオブジェクト画像のKライン目のデータを抽出する。そして、第1エリアセンサー30aおよび第2エリアセンサー30bで撮像された現フレームの撮像画像におけるKライン目のデータのそれぞれに、オブジェクトが視認されるようにオブジェクト画像のKライン目のデータを重畳する。重畳された合成画像はVRAM11に記録される。
次に、第1表示パネル17aおよび第2表示パネル17bはKライン目の画像を表示する(ステップS215)。すなわち、タイミング制御部14がKライン目の表示を行うための水平同期信号DHsync1,DHsync2等を出力すると、出力コントローラー15は画像合成部13を介してKライン目の合成画像を取得し、第1エリアセンサー30aの撮像画像に基づいて生成された合成画像を第1パネルドライバー16aに出力する。また、第2エリアセンサー30bの撮像画像に基づいて生成された合成画像を第2パネルドライバー16bに出力する。
この結果、第1エリアセンサー30aで撮像された画像にオブジェクト画像が重畳され、第1エリアセンサー30aの位置の変化に応じてオブジェクト画像が移動する画像が第1表示パネル17aに表示される。また、第2エリアセンサー30bで撮像された画像にオブジェクト画像が重畳され、第2エリアセンサー30bの位置の変化に応じてオブジェクト画像が移動する画像が第2表示パネル17bに表示される。
次に、画像合成部13は、ライン番号Kが最終ラインの番号であるか否かを判定し(ステップS220)、最終ラインでなければ、Kをインクリメントして(ステップS225)、ステップS205以降を繰り返す。すなわち、次のラインに関する画像合成部13の処理を繰り返す。ステップS220で最終ラインであると判定された場合、画像合成部13はステップS200以降を繰り返す。すなわち、次のフレームに関する画像合成部13の処理を繰り返す。
(4)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、ローリングシャッター方式のエリアセンサーのライン毎の露光開始時間ずれを利用して、エリアセンサーの位置の変化をライン毎に検出する限りにおいて、他にも種々の実施形態を採用可能である。
以上の実施形態は本発明を実施するための一例であり、ローリングシャッター方式のエリアセンサーのライン毎の露光開始時間ずれを利用して、エリアセンサーの位置の変化をライン毎に検出する限りにおいて、他にも種々の実施形態を採用可能である。
例えば、第1表示パネル17aおよび第2表示パネル17bはOLEDに限定されず、液晶ディスプレイであっても良いし、投影によって画像を表示するディスプレイであっても良い。後者としては、スクリーン投影であってもよいし、透過型のスクリーンに画像を投影するシースルー型のディスプレイであっても良い。当該構成は、例えば、図1に示す構成において、レンズに相当する部分が透過型のスクリーンであり、ユーザーの耳にかけられる保持部に投影部が組み込まれており、導光板を介して投影画像がスクリーンに投影される構成であっても良い。透過型のスクリーンの場合、第1エリアセンサー30aおよび第2エリアセンサー30bで撮像された画像の表示は省略され、スクリーンを通して視認される風景にオブジェクトが重畳されても良い。
さらに、検出部34は画像処理部33によるリサイズ後の撮像画像、すなわち、第1表示パネル17a、第2表示パネル17bに表示可能な画素数に変換された撮像画像に基づいて第1エリアセンサー30aおよび第2エリアセンサー30bの位置の変化を検出しているが、リサイズ前に位置の変化を検出しても良い。この場合、リサイズ前後の画素の対応関係は予め明らかにされており、当該対応関係に基づいてリサイズ前の画像に基づいて検出された位置の変化がリサイズ後の位置の変化に変換され、リサイズ後の画像にオブジェクトが合成される。
エリアセンサーは、ローリングシャッター方式のエリアセンサーであれば良い。すなわち、ライン毎に露光タイミングが異なるエリアセンサーであり、ライン毎の画像に基づいてフレーム間差分を取得することで、ライン毎に異なるタイミングでエリアセンサーの位置の変化の解析を実行可能なセンサーであれば良い。
検出部は、エリアセンサーで撮像された画像のライン毎のフレーム間差分に基づいてエリアセンサーの位置の変化を検出することができればよい。すなわち、検出部は、エリアセンサーを構成する複数のラインについてフレーム間差分を取得し、当該フレーム間差分からエリアセンサーの位置の変化を検出することができればよい。
なお、エリアセンサーの位置の変化は、電子機器やエリアセンサーが存在する実空間内での位置の変化であり、少なくとも1方向への変化の有無が検出できれば良く、上述の実施形態のように2方向への位置の変化量が検出される構成でなくても良い。
フレーム間差分は少なくともライン毎に取得されれば良く、エリアセンサーを構成する複数のラインの中のあるラインについて、異なるフレームで撮像された画像同士の差分がフレーム間差分として取得されれば良い。フレーム間差分はフレーム単位での差分であり、上述のように、あるフレームとその直前のフレームとの間での差分であることが好ましいが、直前より前のフレームとの差分が解析に利用されても良い。
また、フレーム間差分は、エリアセンサーの位置の変化を取得できるような態様で定義されれば良く、上述のように各ラインに対応した各比較領域内でのパターンの移動量によって定義されても良いし、各ラインに存在するエッジの移動距離等によって定義されても良いし、ライン毎の画像をライン方向に移動させた場合に最も一致する移動量によって定義されても良い。むろん、フレーム間差分に基づいてエリアセンサーの位置の変化が検出される場合において、種々の画像処理、例えば、2値化や鮮鋭化、スムージング等が行われてもよい。
なお、フレーム間差分は撮像された被写体の画像のフレーム間の変化を反映しているため、エリアセンサーの位置の変化は、当該被写体とエリアセンサーとの相対位置の変化である。すなわち、被写体の位置が変化している場合と、エリアセンサーの位置が変化している場合と、その双方があり得る。ただし、被写体の位置が変化しない(またはほぼ変化しない)のであれば、エリアセンサーの位置の変化と見なすことができる。
被写体(例えば背景)の位置が変化しないことが前提になる場合、位置が変化する移動体を画像内から除外してフレーム間差分の解析対象を特定する構成が採用されてもよいし、画像等に基づいてエリアセンサーの絶対位置が変化していることが特定された場合にエリアセンサーの位置の変化が検出されても良い。また、フレーム間差分が特定されるラインは、エリアセンサーが備えるラインの全てであっても良いし、一部であっても良い。例えば、エッジが検出されたラインについてフレーム間差分が特定されても良い。
エリアセンサーの位置は、エリアセンサーにおける任意の変化に応じて変化すると見なされて良く、並進方向への変化が位置の変化と見なされても良いし、回転方向への変化が位置の変化と見なされても良いし、双方が位置の変化と見なされても良い。
画像に重畳されるオブジェクトは、任意の形状、大きさ、色の画像であって良く、表示部における表示の目的に応じて種々のオブジェクトを採用可能である。オブジェクトの位置は、エリアセンサーの位置の変化に基づいて変化すればよく、上述のように、エリアセンサーの位置に依存せずにオブジェクトが静止しているかのようにオブジェクトを表示する構成の他にも種々の構成を採用可能である。例えば、オブジェクトが移動していることを表現する場合に、エリアセンサーの位置の変化を加味する(同方向の移動であればオブジェクトの位置変化速度からエリアセンサーの位置変化速度を減じる等)構成であっても良い。
表示部は電子機器に備えられていれば良く、各種の態様を想定可能である。すなわち、電子機器は、上述のようなヘッドマウントディスプレイ以外にも種々の構成であってよく、携帯端末やロボットなど、種々の電子機器であって良い。前者としては、携帯端末の筐体のある面にエリアセンサーが配置され、当該面の裏面にフラットパネルディスプレイとしての表示部が取り付けられる構成等が挙げられる。後者としては、ロボットのアームやベースに固定された部位(人間の頭部を模した部位等)にエリアセンサーが取り付けられる構成が挙げられる。この場合、表示部が省略されても良いしロボット制御装置等に表示部が取り付けられてもよい。
表示部におけるオブジェクトの位置の変化が、エリアセンサーの位置の変化を相殺する構成は、オブジェクトがエリアセンサーの移動に依存せずに静止して見えるように表示部に対してオブジェクトを表示する構成であれば良い。エリアセンサーの位置の変化を相殺する際には、エリアセンサーが移動した場合に、オブジェクトが静止しているように感じられればよく、エリアセンサーの位置の変化を厳密に相殺しても良いし、多少の誤差は許容されても良い。
なお、上述の実施形態において、第1エリアセンサー30aおよび第2エリアセンサー30bの主走査方向は平行であったが、互いに異なる方向に向いていても良い。例えば、図2に示す構成において、第1エリアセンサー30aの副走査方向を上下方向(図1に示すY方向)、主走査方向を左右方向(図1に示すX方向)に向け、第2エリアセンサー30bの副走査方向を左右方向(図1に示すX方向)、主走査方向を上下方向(図1に示すY方向)に向けてもよい。
このように、第1エリアセンサー30aおよび第2エリアセンサー30bの主走査方向が直交するように筐体に固定された構成においては、第1エリアセンサー30aおよび第2エリアセンサー30bの出力を利用して各センサーやヘッドマウントディスプレイ1の位置の変化を検出しても良い。すなわち、図2に示す構成において検出部34は、第1エリアセンサー30aの出力に基づいて(主走査方向の移動量,副走査方向の移動量)=(ΔX1,ΔY1)をライン毎に取得し、第2エリアセンサー30b出力に基づいて(主走査方向の移動量,副走査方向の移動量)=(ΔX2,ΔY2)をライン毎に取得する。なお、第1エリアセンサー30aおよび第2エリアセンサー30bにおいては、主走査方向が互いに直交しているため、ΔX1とΔX2は異なる方向への移動量、ΔX1とΔY2は同一方向への移動量である。
このように、第1エリアセンサー30aおよび第2エリアセンサー30bの主走査方向が直交している場合、各センサーにおいてX方向、Y方向への移動量を検出していることになり、画像合成部13は、任意の値をヘッドマウントディスプレイ1の位置の変化であると見なすことができる。
ただし、各センサーにおいては移動方向毎に位置の精度に差が生じ得る。すなわち、各センサーはローリングシャッター方式で撮像が行われるため、副走査方向に物体が移動する場合、物体の副走査方向の大きさが間延びまたは縮小された状態で撮像される。一方、主走査方向に物体が移動する場合、各ラインで異なる位置で撮像され得るが、ローリングシャッター方式であることに起因して物体の主走査方向の大きさが間延びまたは縮小されることはない。
従って、フレーム間差分を算出する際に、主走査方向の位置の変化は副走査方向の位置の変化より高精度に算出される。そこで、検出部34が、第1エリアセンサー30aで撮像された画像に基づいて主走査方向への筐体の位置の変化(ΔX1)を検出し、第2エリアセンサー30bで撮像された画像に基づいて主走査方向への筐体の位置の変化(ΔX2)を検出すれば、高精度に2次元的な位置の変化を検出することができる。
さらに、検出部34における処理としては、他にも種々の処理が採用可能である。例えば、検出部34が、通常は、第1エリアセンサー30aまたは第2エリアセンサー30bの一方の出力に基づいて筐体の位置の変化を検出し、第1エリアセンサー30aの出力から得られる位置変化の検出精度が低下したと推定される場合に第2エリアセンサー30bの出力を援用する構成であっても良い。位置変化の検出精度が低下する場合としては、位置の変化量が基準以上である場合(ノイズと推定される場合)や第1エリアセンサー30aが検出した移動量と第2エリアセンサー30bが検出した移動量との差分((|ΔX1−ΔY2|、|ΔX2−ΔY1|))が閾値以上である場合等が挙げられる。第2エリアセンサー30bの出力を援用する構成としては、移動量が(ΔX1,ΔX2)であると見なされる構成等が挙げられる。
なお、第1エリアセンサー30aやヘッドマウントディスプレイ1の位置の変化は、例えば、装着者の首の回転運動である場合などが多く、完全に2次元的な変位は少ないため、第1エリアセンサーと第2エリアセンサーの主走査方向が厳密に直交でなくても、主な2個の移動方向に対して各エリアセンサーの主走査方向が平行であれば良い。
なお、第1エリアセンサー30aと第2エリアセンサー30bとが筐体に固定される際には、筐体に対して相対的に移動しないように固定されることにより、各エリアセンサーの位置の変化が筐体の変化と実質的に同一であると見なすことができればよい。なお、第1エリアセンサー30aと第2エリアセンサー30bとは、同一の被写体を撮像できるように筐体に固定されることが好ましい。また、各エリアセンサーの位置の変化は、同一の被写体の画像についてのフレーム間差分に基づいて取得されても良い。むろん、エリアセンサーの数は3個以上であっても良く、3個のエリアセンサーによって3次元空間内でのエリアセンサー(筐体)の位置の変化が検出される構成であっても良い。
さらに、第1エリアセンサー30aの位置の変化を検出する構成は、モーションセンサーと見なすこともできる。例えば、第1エリアセンサー30aの撮像画像に基づいて第1エリアセンサー30aの移動量(ΔX,ΔY)を出力する構成(図2に示す例であれば、タイミング制御部32と画像処理部33とVRAM11と検出部34)を出力部と見なし、当該出力部を備えたモーションセンサーを単体で流通させることも可能である。
さらに、本発明のように、ライン毎のフレーム間差分に基づいてエリアセンサーの位置の変化を検出する手法は、プログラムや方法としても適用可能である。また、以上のような装置、プログラム、方法は、単独の装置として実現される場合もあれば、複合的な機能を有する装置において共有の部品を利用して実現される場合もあり、各種の態様を含むものである。
1…ヘッドマウントディスプレイ、10…表示部、11…VRAM、12…RAM、13…画像合成部、14…タイミング制御部、15…出力コントローラー、16a…第1パネルドライバー、16b…第2パネルドライバー、17a…第1表示パネル、17b…第2表示パネル、20…制御部、30…カメラユニット、30a…第1エリアセンサー、30b…第2エリアセンサー、31…エリアセンサー、32…タイミング制御部、33…画像処理部、34…検出部、40…保持部
Claims (8)
- ローリングシャッター方式のエリアセンサーと、
前記エリアセンサーで撮像された画像のライン毎のフレーム間差分に基づいて前記エリアセンサーの位置の変化を検出する検出部と、
を備える電子機器。 - 前記エリアセンサーの位置の変化に基づいて位置が変化するオブジェクトを表示する表示部を備える、
請求項1に記載の電子機器。 - 前記表示部における前記オブジェクトの位置の変化は、前記エリアセンサーの位置の変化を相殺する変化である、
請求項2に記載の電子機器。 - 前記表示部は、前記エリアセンサーで撮像された前記画像と前記画像に重畳された前記オブジェクトとを表示する、
請求項2または請求項3のいずれかに記載の電子機器。 - 前記エリアセンサーは、
筐体に固定された第1エリアセンサーと、前記第1エリアセンサーの主走査方向と直交する方向に主走査方向が向くように前記筐体に固定された第2エリアセンサーとを含み、
前記検出部は、
前記第1エリアセンサーで撮像された前記画像に基づいて前記第1エリアセンサーの主走査方向への前記筐体の位置の変化を検出し、前記第2エリアセンサーで撮像された前記画像に基づいて前記第2エリアセンサーの主走査方向への前記筐体の位置の変化を検出する、
請求項1〜請求項4のいずれかに記載の電子機器。 - ローリングシャッター方式のエリアセンサーと、
前記エリアセンサーで撮像された画像のライン毎のフレーム間差分を出力する出力部と、
を備えるモーションセンサー。 - ローリングシャッター方式のエリアセンサーを制御するコンピューターを、
前記エリアセンサーで撮像された画像のライン毎のフレーム間差分に基づいて前記エリアセンサーの位置の変化を検出する検出部、
として機能させる位置変化検出プログラム。 - ローリングシャッター方式のエリアセンサーで撮像された画像のライン毎のフレーム間差分に基づいて前記エリアセンサーの位置の変化を検出する、
位置変化検出方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017176453A JP2019054360A (ja) | 2017-09-14 | 2017-09-14 | 電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法 |
US16/130,439 US10834323B2 (en) | 2017-09-14 | 2018-09-13 | Electronic apparatus, motion sensor, position change detection program, and position change detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017176453A JP2019054360A (ja) | 2017-09-14 | 2017-09-14 | 電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019054360A true JP2019054360A (ja) | 2019-04-04 |
Family
ID=65631802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017176453A Pending JP2019054360A (ja) | 2017-09-14 | 2017-09-14 | 電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10834323B2 (ja) |
JP (1) | JP2019054360A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020110506A1 (ja) * | 2018-11-28 | 2020-06-04 | ソニーセミコンダクタソリューションズ株式会社 | 表示装置および表示制御装置 |
JP7498768B2 (ja) | 2019-07-12 | 2024-06-12 | アレディア | 画像ビューイングシステム及び制御方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017208719A1 (ja) * | 2016-06-02 | 2017-12-07 | ソニー株式会社 | 表示制御装置及び表示制御方法、表示装置、並びに移動体装置 |
JP7121523B2 (ja) * | 2018-04-10 | 2022-08-18 | キヤノン株式会社 | 画像表示装置、画像表示方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003279882A (ja) | 2002-03-22 | 2003-10-02 | Victor Co Of Japan Ltd | ヘッドマウントディスプレイ装置 |
JP2004085476A (ja) | 2002-08-28 | 2004-03-18 | Sony Corp | ヘッドトラッキング方法及び装置 |
US7760997B2 (en) | 2006-04-14 | 2010-07-20 | Seiko Epson Corporation | Shake detection device, shake detection method, and shake detection program |
US20100259471A1 (en) | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
JP5428261B2 (ja) | 2008-09-16 | 2014-02-26 | 株式会社ニコン | 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法 |
JP2009141717A (ja) | 2007-12-07 | 2009-06-25 | Hitachi Ltd | 撮像装置 |
JP5406768B2 (ja) | 2010-03-24 | 2014-02-05 | 富士フイルム株式会社 | 撮像装置およびその制御方法 |
JP5548552B2 (ja) * | 2010-08-03 | 2014-07-16 | キヤノン株式会社 | 撮像装置 |
JP4957851B2 (ja) | 2011-01-28 | 2012-06-20 | セイコーエプソン株式会社 | 手ぶれ検出装置、手ぶれ検出方法、および手ぶれ検出プログラム |
JP5522078B2 (ja) | 2011-02-16 | 2014-06-18 | 株式会社Jvcケンウッド | 撮像装置及び撮像装置の画像歪補正方法 |
JP2012222374A (ja) | 2011-04-04 | 2012-11-12 | Hitachi Consumer Electronics Co Ltd | 車載カメラシステム |
DE112014006149T5 (de) * | 2014-01-10 | 2016-09-29 | Aisin Seiki Kabushiki Kaisha | Bildanzeigesteuervorrichtung und Bildanzeigesystem |
JP2016052114A (ja) | 2014-08-29 | 2016-04-11 | キヤノン株式会社 | 画像処理システム、画像処理方法、及び、プログラム |
JP2016066848A (ja) | 2014-09-24 | 2016-04-28 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP6250592B2 (ja) | 2015-06-02 | 2017-12-20 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム |
-
2017
- 2017-09-14 JP JP2017176453A patent/JP2019054360A/ja active Pending
-
2018
- 2018-09-13 US US16/130,439 patent/US10834323B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020110506A1 (ja) * | 2018-11-28 | 2020-06-04 | ソニーセミコンダクタソリューションズ株式会社 | 表示装置および表示制御装置 |
JPWO2020110506A1 (ja) * | 2018-11-28 | 2021-10-14 | ソニーセミコンダクタソリューションズ株式会社 | 表示装置および表示制御装置 |
US11837145B2 (en) | 2018-11-28 | 2023-12-05 | Sony Semiconductor Solutions Corporation | Display apparatus and display control apparatus |
JP7404271B2 (ja) | 2018-11-28 | 2023-12-25 | ソニーセミコンダクタソリューションズ株式会社 | 表示装置および表示制御装置 |
JP7498768B2 (ja) | 2019-07-12 | 2024-06-12 | アレディア | 画像ビューイングシステム及び制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US10834323B2 (en) | 2020-11-10 |
US20190082089A1 (en) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11199706B2 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
US11024082B2 (en) | Pass-through display of captured imagery | |
US11190714B2 (en) | Electronic device, head-mounted display, gaze point detector, and pixel data readout method | |
US10834323B2 (en) | Electronic apparatus, motion sensor, position change detection program, and position change detection method | |
JP6860488B2 (ja) | 複合現実システム | |
CN107430324B (zh) | 具有不可见光通道的数字光投影仪 | |
CN108292489A (zh) | 信息处理装置和图像生成方法 | |
JP2021073561A (ja) | 動的領域分解能を有する仮想/拡張現実システム | |
US11030732B2 (en) | Information processing device, information processing system, and image processing method for generating a sum picture by adding pixel values of multiple pictures | |
US20200021787A1 (en) | Projector, projection method, image processing system, and method | |
JP2000184398A (ja) | 仮想画像立体合成装置、仮想画像立体合成方法、ゲ―ム装置及び記録媒体 | |
JP4211097B2 (ja) | 受像機、その位置認識装置、その位置認識方法及び仮想画像立体合成装置 | |
CN116205980A (zh) | 一种移动空间内虚拟现实定位追踪方法及装置 | |
US10778893B2 (en) | Detection device, display device and detection method | |
JP2000098300A (ja) | 仮想画像立体合成装置、仮想画像立体合成方法、ゲーム装置及び記録媒体 | |
Soomro et al. | Decoupling of real and digital content in projection-based augmented reality systems using time multiplexed image capture | |
WO2018084051A1 (ja) | 情報処理装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法 | |
US11176911B2 (en) | Information processing apparatus, information processing method, program, and head-mounted display | |
JP2000098870A (ja) | 仮想画像立体合成装置、仮想画像立体合成方法、ゲーム装置及び記録媒体 | |
WO2023153093A1 (ja) | 情報処理装置および代表座標導出方法 | |
WO2023153094A1 (ja) | 情報処理装置および代表座標導出方法 | |
US20230396746A1 (en) | Image projection system and image projection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190920 |
|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200806 |