JP2015068858A - 情報処理装置及びその制御方法、プログラム - Google Patents

情報処理装置及びその制御方法、プログラム Download PDF

Info

Publication number
JP2015068858A
JP2015068858A JP2013200525A JP2013200525A JP2015068858A JP 2015068858 A JP2015068858 A JP 2015068858A JP 2013200525 A JP2013200525 A JP 2013200525A JP 2013200525 A JP2013200525 A JP 2013200525A JP 2015068858 A JP2015068858 A JP 2015068858A
Authority
JP
Japan
Prior art keywords
projection
information
unit
processing apparatus
projection plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013200525A
Other languages
English (en)
Other versions
JP6289003B2 (ja
JP2015068858A5 (ja
Inventor
明日可 和田
Asuka Wada
明日可 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013200525A priority Critical patent/JP6289003B2/ja
Priority to EP20140003236 priority patent/EP2854400A1/en
Priority to US14/491,311 priority patent/US10134118B2/en
Priority to CN201410497144.2A priority patent/CN104519293A/zh
Publication of JP2015068858A publication Critical patent/JP2015068858A/ja
Publication of JP2015068858A5 publication Critical patent/JP2015068858A5/ja
Application granted granted Critical
Publication of JP6289003B2 publication Critical patent/JP6289003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 任意の投影面における、投影装置からの投影画像を過去の投影状態と同じ状態で容易に投影可能とし、かつ投影装置の設置が容易となる。【解決手段】 投影部が投影する投影面に関する投影面情報を取得する。取得する投影面情報より、投影部が投影する画像の投影領域に関する投影領域情報を抽出する。抽出する投影領域情報と、既に記憶されている投影領域情報とから、投影部が投影する画像を補正するための投影補正パラメータを算出する。算出する投影補正パラメータを、投影部が投影する画像に反映する。【選択図】 図10

Description

本発明は、投影部が投影する画像の表示を制御する情報処理技術に関するものである。
近年、プロジェクタの高精細化・高輝度化が進み、その用途が多様になっている。例えば、プロジェクタを建物の壁面や物体等の形状に合わせて投影するプロジェクションマッピングでは、比較的遠い投影面に対して投影位置の精度を高く投影することが求められる。また、複数台のプロジェクタを連携させ継ぎ目のない画像を投影するマルチプロジェクションシステムにおいても、画像が近接もしくは重なる領域のずれやぼけを防ぐために、投影位置の精度が求められる。
一方、プロジェクタの小型化・軽量化に伴い可搬性が向上した結果、利用時のみプロジェクタを設置する形態が増加している。前述のプロジェクションマッピングのように、従来は、一度設置した後は、プロジェクタを移動させなかったユースケースにおいても、例えば、週末のみプロジェクタを設置し投影する等の形態が予想される。
ここで、プロジェクタの投影領域の位置合わせは煩わしい。特に、投影面が遠い場合は、プロジェクタ設置位置の微小な変化が投影面上の投影位置や形に大きく影響する。そのため、プロジェクタを設置する度に位置合わせに多大な時間を要する。また、通常の会議室での投影においても位置合わせは煩わしく、プロジェクタの設置時間を少しでも短縮したいという要求がある。
上記問題を解決するために、スクリーン上のマーカと、プロジェクタから発するレーザポインタの輝点の位置を確認しながら設置位置を自動的に調整する方法がある(特許文献1)。
特開平11−327042号公報
しかしながら、特許文献1の方法は、マーカが予め設置された特定の投影面(スクリーン等)を必要とする。また、投影面に対する投影位置や大きさが予め決まっている。そのため、プロジェクションマッピングのように任意の投影面に投影位置の精度を高く投影したいという要求に対応できない。
ここで、任意の投影面に投影する場合、その投影面に対する投影が初めての場合は、ユーザの希望する投影位置や投影の大きさ(以下、これを投影状態と称す)を推測することは難しい。しかしながら、過去に投影したことのある投影面であれば、例えば、前回の投影状態と同一の投影を希望しているという推測が可能となる。この推測をもとに過去の投影状態を自動的に再現することができれば、ユーザは同一投影面に対する2回目以降の投影時の設置が容易となる。
本発明は上記の課題を解決するためになされたものであり、任意の投影面における、投影装置からの投影画像を過去の投影状態と同じ状態で容易に投影可能とし、かつ投影装置の設置が容易となる情報処理技術を提供することを目的とする。
上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
投影部が投影する画像の表示を制御する情報処理装置であって、
前記投影部が投影する投影面に関する投影面情報を取得する取得手段と、
前記取得手段が取得する投影面情報より、前記投影部が投影する画像の投影領域に関する投影領域情報を抽出する抽出手段と、
前記抽出手段が抽出する投影領域情報を記憶する記憶手段と、
前記抽出手段が抽出する投影領域情報と、前記記憶手段に既に記憶されている投影領域情報とから、前記投影部が投影する画像を補正するための投影補正パラメータを算出する算出手段と、
前記算出手段が算出する投影補正パラメータを、前記投影部が投影する画像に反映する反映手段と
を備える。
本発明によれば、任意の投影面における、投影装置からの投影画像を過去の投影状態と同じ状態で容易に投影可能とし、かつ投影装置の設置が容易となる。
プロジェクタ投影システムの構成を示すブロック図である。 実施形態1の第一の投影領域情報を記憶する処理を表すフローチャートである。 実施形態1の第一の投影状態の一例を表す図である。 実施形態1の投影を停止した状態の一例を表す図である。 実施形態1の壁面の特徴点群、及び投影領域の特徴点群を抽出する処理の詳細を表すフローチャートである。 実施形態1の投影領域の特徴点群の抽出結果の一例を表す図である。 実施形態1の壁面の特徴点群の抽出結果の一例を表す図である。 実施形態1の投影領域の特徴点群の抽出結果の保持方法の一例を表す図である。 実施形態1の壁面の特徴点群の抽出結果の保持方法の一例を表す図である。 実施形態1の第二の投影領域を補正して投影する処理を表すフローチャートである。 実施形態1の第二の投影状態の一例を表す図である。 実施形態1の第二投影面情報を正規化し、正規化済第二投影面情報とする処理の詳細を表すフローチャートである。 実施形態1の第二投影面情報における特徴点群の抽出結果の一例を表す図である。 実施形態1の正規化した第二投影面情報の一例を表す図である。 実施形態1の投影補正パラメータを算出する処理の詳細を表すフローチャートである。 実施形態1の正規化済第二投影面情報における特徴点群の抽出結果の一例を表す図である。 実施形態1の投影補正パラメータを反映した投影状態の一例を表す図である。 実施形態2の第二の投影領域を補正して投影する処理を表すフローチャートである。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
図1は実施形態1のプロジェクタ投影システムの実施形態の構成を示すブロック図である。
図中、101は投影部であり、投影装置であるプロジェクタに入力された任意の画像をプロジェクタ前面のスクリーンや壁面に拡大して投影する。投影方式としては、液晶パネルに光を透過させて投影する投影方式、CRTに表示された画像を光学系を用いて拡大投影する投影方式等があるが、実施形態1では、これらの投影方式を限定しない。
102は投影面情報取得部であり、投影部101が投影する投影面の投影面情報を取得する。投影面情報の一例としては、投影画像及び画像を投影している壁面をカメラで撮影した画像が想定される。以下では、投影面情報として、撮影装置であるカメラで撮影した画像を取得する場合を例に挙げて説明する。
103は投影領域情報抽出部であり、投影面情報取得部102が取得する投影面情報より投影領域情報を抽出する。投影領域情報の一例としては、上記カメラで撮影した画像を画像解析することにより得られる特徴点群の位置情報、及び投影面情報が想定される。
104は投影領域情報記憶部であり、投影領域情報抽出部103が抽出する投影領域情報を記憶する。投影領域情報を記憶するタイミングは、プロジェクタやプロジェクタに付属するリモコンに備わるボタン等の入力部による操作によってユーザが指示しても良いし、投影開始後一定時間経過後等、プロジェクタの状態遷移に連動して自動的に記憶しても良い。以下では、投影領域情報を記憶するタイミングをユーザが指示するものとして説明を続ける。
105は投影補正パラメータ算出部であり、投影領域情報抽出部103が抽出する投影領域情報と投影領域情報記憶部104が既に記憶している投影領域情報から、投影部101から投影する画像を補正するための投影補正パラメータを算出する。投影補正パラメータとしては、変形情報、表示位置情報、拡大・縮小情報、キーストーン補正情報等、プロジェクタの機能と連動する様々な形態の少なくとも1つが想定される。
106は投影補正パラメータ反映部であり、投影補正パラメータ算出部105が算出する投影補正パラメータを投影部101が投影する画像に反映する。反映形態としては、電気的な画像の変形・オフセット・拡大・縮小や光学補正等プロジェクタの機能と連動する様々な形態が想定される。
尚、情報処理装置の1つとして実現されるプロジェクタ投影システムは、汎用コンピュータに搭載される標準的な構成要素(例えば、CPU、RAM、ROM、ハードディスク、外部記憶装置、ネットワークインタフェース、ディスプレイ、キーボード、マウス等)を有している。そして、これらの構成要素によって、図1に示される各種機能構成を実現する。これらの機能構成は、例えば、CPUが、ROM等のメモリに記憶されているプログラムを読み出し実行することで実現することもできる。
図2は実施形態1における第一の投影領域情報を記憶する処理を表すフローチャートである。本処理は、ユーザが任意の壁面に初めて投影する際の処理に関る。以下では、本フローチャートに沿って、図3・図4の具体例を交えながら説明を加える。
ステップS201で、投影部101によって、ユーザがプロジェクタをユーザの希望する投影状態(投影位置、投影画像の大きさ)で画像を投影する。以下、これを第一の投影状態とする。図3に第一の投影状態一例を表す。図中、301はプロジェクタであり、302はプロジェクタ301からの画像を投影する建物の壁面、303はプロジェクタ301からの画像の投影領域を示す。ユーザは、プロジェクタ301の設置位置を調整しながら、もしくはプロジェクタ301に備わる投影位置調整機能を用いながら投影領域303の位置合わせを行う。その際、壁面302の形状や模様に対して投影領域303の位置を調整し、ユーザの希望する投影状態を実現する。
ステップS202で、投影部101によって、ユーザの希望する投影状態で投影していることを通知するユーザ操作を受付ける。このユーザ操作は、例えば、プロジェクタやプロジェクタに付属のリモコンに備わるボタン等の入力部の操作によって受付けるが、本実施形態ではこれらの入力部を限定しない。また、例えば、ユーザ操作と等価の通知をプロジェクタ内で自動的に生成して、ステップS202を省略することも可能である。プロジェクタ内で自動的に生成する方法としては、例えば、投影開始後、一定時間経過後、プロジェクタの状態遷移に連動する方法がある。
ステップS203で、投影面情報取得部102によって、投影部101が投影した壁面を撮影し、その撮影した投影面を第一投影面情報として取得する。図3の例では、投影面情報取得部102は、投影領域303とその周辺の壁面302を含む領域304を撮影し、この撮影した投影面を第一投影面情報として取得する。
ステップS204で、投影を一旦停止し、投影面情報取得部102によって、再度、壁面を撮影し、この撮影した投影面を基礎投影面情報として取得する。図4に投影を停止した状態の模式図を表す。プロジェクタ401からの投影を停止したことにより、投影先の壁面のみが撮影される。この際に撮影される領域402は、ステップS203で撮影した領域304と同一の領域を撮影することが好ましい。但し、領域304と領域402がずれた場合にも、例えば、取得する第一投影面情報と基礎投影面情報を正規化する補正処理を実施することにより、以下の処理を継続することが可能である。
ステップS205で、投影領域情報抽出部103によって、壁面の特徴点群、及び投影領域の特徴点群を抽出する。この処理の詳細は図5を用いて後述する。
ステップS206で、投影領域情報記憶部104によって、壁面の特徴点群、投影領域の特徴点群、第一投影面情報、及び基礎投影面情報を記憶する。
図5は実施形態1における壁面の特徴点群、及び投影領域の特徴点群を抽出する処理の詳細を表すフローチャートであり、これは図2のステップS205に対応する。以下では、本フローチャートに沿って、図6〜図9の具体例を交えながら説明を加える。
ステップS501で、投影領域情報抽出部103によって、第一投影面情報、及び基礎投影面情報からノイズを除去する。本ステップは、以降のステップS502及びステップS503の処理精度を向上させるための前処理であり、第一投影面情報及び基礎投影面情報の撮影状態に合わせて省略可能である。
ノイズの除去アルゴリズムとしては、例えば、画像全域の各画素に対してメディアンフィルタを適用する方法が広く知られているが、本実施形態ではノイズの除去アルゴリズムを限定しない。但し、続くステップS502以降の処理の精度を向上させるために、画像中の濃淡の急激な変化点(以降、これをエッジと称す)が損なわれないアルゴリズムを選択することができる。また、第一投影面情報、及び基礎投影面情報に対して同一のアルゴリズムを適用することができる。尚、メディアンフィルタは、ある領域内の画素値の中央値を出力とするフィルタであり、エッジを損なわずにノイズを除去する効果がある。
ステップS502で、投影領域情報抽出部103によって、第一投影面情報から複数の特徴点(A群)を抽出する。特徴点の抽出アルゴリズムとしては、画像全域の各画素に対してラプラシアンフィルタを適用してエッジを強調する方法、KLT法等が広く知られているが、本実施形態では抽出アルゴリズムを限定しない。尚、(式1)にラプラシアンフィルタの一例を示す。
Figure 2015068858
図6に、第一投影面情報から特徴点を抽出した結果の一例を示す。この第一投影面情報はステップS203で取得されたものであり、図3で示す領域304に相当する。図中、601は投影領域、602は壁面であり、これらを取り囲むように特徴点603〜614が抽出されている。
ステップS503で、投影領域情報抽出部103によって、基礎投影面情報から複数の特徴点(B群)を抽出する。ここで利用する抽出アルゴリズム及びパラメータは、ステップS502で第一投影面情報に適用したものと同一とする。図7に、基礎投影面情報から特徴点を抽出した結果の一例を示す。この基礎投影面情報はステップS204で取得されたものであり、図4で示す領域402に相当する。図中、701は壁面であり、702〜712は抽出された壁面の特徴点である。
ステップS504で、投影領域情報抽出部103によって、特徴点(A群)と特徴点(B群)を比較し、投影領域の特徴点群を抽出する。より具体的には、特徴点(B群)には存在しない特徴点を特徴点(A群)から抜き出し、投影領域に対して推定される輪郭を当てはめることにより、投影領域の特徴点群を抽出する。図6及び図7の例では、投影領域601に対する特徴点603〜606が抽出される。
図8に、ステップS504により抽出した投影領域の特徴点群の抽出結果の投影領域情報記憶部104における保持方法の一例を表す。表800は抽出された投影領域の特徴点の数だけ行を持ち、列801に第一投影面情報の左上を基点とする各特徴点の位置情報である座標(x:y)を保持する。例えば、行802は、図6の投影領域601の特徴点603に対応する。
ステップS505で、投影領域情報抽出部103によって、特徴点(B群)より、投影領域の特徴点群の外側近傍に位置する壁面の特徴点群を抽出する。より詳しくは、ステップS504より抽出され、図8に示す形で保持された投影領域の特徴点群より投影領域を推定し、その外側に位置する特徴点、即ち、投影領域外の壁面の特徴点を抽出する。図6及び図7の例では、壁面701に対する特徴点702〜709が抽出される。尚、特徴点710〜712については投影領域内に含まれると判断し除外される。
図9に、ステップS505により抽出した壁面の特徴点群の抽出結果の投影領域情報記憶部104における保持方法の一例を表す。表900は抽出された壁面の特徴点の数だけ行を持ち、列901に基礎投影面情報の左上を基点とする各特徴点の座標(x:y)を保持する。例えば、行902は、図7の壁面701の特徴点702に対応する。
図10は実施形態1における第二の投影領域を補正して投影する処理を表すフローチャートである。本処理は、ユーザが過去に投影したことがある壁面に、再度、投影する際の処理に関る。つまり、例えば、図2で説明した第一の投影状態を記憶した後にプロジェクタを一旦撤収し、その後、再度、設置する際の処理に相当する。以下では、本フローチャートに沿って、図11の具体例を交えながら説明を加える。
ステップS1001で、プロジェクタを再設置した後に、投影部101によって、画像を再投影する。以下、これを第二の投影状態とする。図11に第二の投影状態の一例を表す。ユーザは第一の投影状態と同一の投影状態とするべくプロジェクタ1101を設置するものの、人手での設置では設置位置や設置角度の調整に限界がある。その結果、壁面1102に投影される投影領域1103が、ステップS201で投影した投影領域303に比べて異なる位置、形状となっている。
ステップS1002で、投影部101によって、ステップS1003以降の処理を進めるトリガとなるユーザ操作を受付ける。このユーザ操作は、例えば、プロジェクタやプロジェクタに付属のリモコンに備わるボタン等の入力部の操作によって受付けるが、本実施形態ではこれらの入力部を限定しない。また、ユーザ操作と等価の通知をプロジェクタ内で自動的に生成して、ステップS1002を省略することも可能である。プロジェクタ内で自動的に生成する方法としては、例えば、投影開始後、一定時間経過後、プロジェクタの状態遷移に連動する方法がある。
ステップS1003で、投影面情報取得部102によって、投影部101が投影した壁面を撮影し、その撮影した投影面を第二投影面情報として取得する。図11の例では、領域1104を撮影し、この撮影した投影面を第二投影面情報として取得する。
ステップS1004で、投影領域情報抽出部103によって、第二投影面情報を基礎投影面情報を用いて正規化し、正規化済第二投影面情報とする。この処理の詳細は図12を用いて後述する。
ステップS1005で、投影補正パラメータ算出部105によって、投影補正パラメータを算出する。この処理の詳細は図15を用いて後述する。
ステップS1006で、投影補正パラメータ反映部106によって、投影補正パラメータを投影対象の画像に反映し、投影する。投影補正パラメータの反映形態としては、電気的な画像の変形、オフセット、拡大・縮小や光学補正等、プロジェクタの機能と連動する様々な形態が想定される。
図12は実施形態1における第二投影面情報を基礎投影面情報を用いて正規化し、正規化済第二投影面情報とする処理の詳細を表すフローチャートであり、これは図10のステップS1004に対応する。以下では、本フローチャートに沿って、図13及び図14の具体例を交えながら説明を加える。
ステップS1201で、投影領域情報抽出部103によって、第二投影面情報からノイズを除去する。この処理の詳細はステップS501と同等であり、適用するアルゴリズムは第一投影面情報、及び基礎投影面情報に適用したアルゴリズムと同一とすることができる。
ステップS1202で、投影領域情報抽出部103によって、第二投影面情報から複数の特徴点(C群)を抽出する。この処理の詳細はステップS502及びステップS503と同等であり、適用するアルゴリズムは同一とする。図13に、第二投影面情報における壁面の特徴点群の抽出結果の一例を表す。この第二投影面情報はステップS1003で取得されたものであり、図11で示す領域1104に相当する。図中、1301は投影領域、1302は壁面であり、これらを取り囲むように特徴点が抽出されている。
ステップS1203で、投影領域情報抽出部103によって、基礎投影面情報から抽出済の特徴点(B群)に対応する第二投影面情報から抽出済の特徴点(C群)を3点以上抽出する。特徴点(B群)及び特徴点(C群)から対応する特徴点を抽出する方法としては、例えば、KLT法を用いる。但し、本実施形態ではその抽出アルゴリズムを限定しない。図13の例では、第二投影面情報から抽出済の特徴点1303〜1305が、それぞれ基礎投影面情報から抽出済の特徴点702・705・709に対応して抽出されたとして、以下の説明を続ける。
ステップS1204で、投影領域情報抽出部103によって、第二投影面情報を基礎投影面情報と同一の位置から撮影された画像に変換するための正規化パラメータを算出する。正規化パラメータは、(式2)のアフィン行列にステップS1203で抽出した3組の特徴点の座標を代入することにより求める。
Figure 2015068858
(式2)中、x、yが基礎投影面情報から抽出済の特徴点の座標、x’、y’が第二投影面情報から抽出済の特徴点の座標である。また、連立方程式を解くことによって算出されるa、b、c、dは拡大縮小回転パラメータ、tx、tyは並行移動パラメータであり、これらを総じて正規化パラメータと称す。
ステップS1205で、投影領域情報抽出部103によって、第二投影面情報が示す投影面全域の画素に対してステップS1204で算出した正規化パラメータを適用し、正規化済第二投影面情報とする。図14に、正規化済第二投影面情報の一例を表す。図中、1401は正規化された投影領域、1402は正規化された壁面である。また、プロット1403〜1405はそれぞれステップS1203により抽出された特徴点1303〜1305を正規化したものであり、その結果、基礎投影面情報から抽出済の特徴点702・705・709と座標が一致している。
図15は、実施形態1における投影補正パラメータを算出する処理の詳細を表すフローチャートであり、これは図10のステップS1005に対応する。以下では、本フローチャートに沿って、図16及び図17の具体例を交えながら説明を加える。
ステップS1501で、投影領域情報抽出部103によって、正規化済第二投影面情報から複数の特徴点(D群)を抽出する。この処理の詳細はステップS502、ステップS503及びステップS1202と同一であり、適用するアルゴリズムは同一とする。図16に、正規化済第二投影面情報における壁面の特徴点群の抽出結果の一例を表す。図中、1601は投影領域、1602は壁面であり、これらを取り囲むように特徴点が抽出されている。
ステップS1502で、投影領域情報抽出部103によって、第一投影面情報から抽出済の投影領域の特徴点に対応する正規化済第二投影面情報から抽出済の特徴点(D群)を抽出する。ここで、投影領域の特徴点はステップS504により抽出され、表800の形態で保持されている。この投影領域の特徴点に対応する特徴点を抽出した結果として、図16の特徴点1603〜1606を抽出する。
ステップS1503で、投影補正パラメータ算出部105によって、正規化済第二投影面情報上の投影領域を第一投影面情報上の投影領域に変形するための変形パラメータを算出する。この変形パラメータは、(式2)のアフィン行列にステップS1502で抽出した特徴点の中で3組の座標を代入することにより算出する。(式2)中、x、yが正規化済第二投影面情報から抽出済の投影領域の特徴点の座標、x’、y’が第一投影面情報から抽出済の投影領域の特徴点の座標である。連立方程式を解くことによって算出されるa、b、c、dは拡大縮小回転パラメータ、tx、tyは並行移動パラメータであり、これらを総じて変形パラメータと称す。
図17は、ステップS1006の処理結果として得られる投影補正パラメータを反映した投影状態の模式図である。図中、プロジェクタ1701は第一の投影状態でのプロジェクタ301の位置(中心軸)に比べて移動してはいるが、壁面1702に対する投影領域1703の位置は、第一の投影状態での壁面302に対する投影領域303の位置と差分が無い。このように、投影補正パラメータ算出部105は、投影領域情報抽出部103が抽出する投影領域情報が示す特徴点の位置と、投影領域情報記憶部104に既に記憶されている投影領域情報が示す特徴点の位置との差分が少なくなるあるいはなくなるような投影補正パラメータを算出する。
以上により、2回目以降の投影において投影領域を自動で補正(制御)し投影することが可能となる。
また、本実施形態では、ステップS204で投影を一旦停止した状態で壁面を撮影装置で撮影して基礎投影面情報を取得し、ステップS205で第一投影面情報及び基礎投影面情報から投影領域及び壁面の特徴点を抽出しているが、これに限定されない。例えば、ステップS204で第一投影面情報の取得時と異なる画像を投影した状態で壁面を撮影装置で撮影して基礎投影面情報を取得し、ステップS205で第一投影面情報及び基礎投影面情報から投影領域及び壁面の特徴点を抽出しても良い。
以上説明したように、実施形態1によれば、初回の投影時に投影領域と投影先の壁面の位置関係を示す情報を記憶しておき、その情報を利用して、次回以降の投影時における投影領域を補正する。これにより、任意の投影面において、プロジェクタからの投影画像を過去の投影状態と同じ状態で容易に投影可能となり、設置が容易となる。
<実施形態2>
実施形態2について、実施形態1との差異を中心に説明する。但し、本発明の技術的範囲がこの実施形態に限定されるものではない。
実施形態2では、図2に示す第一の投影領域情報を記憶する処理が独立に複数回実施された場合を想定する。例えば、プロジェクタを用いて異なる複数の壁面に画像を投影し、その各々の場面において第一の投影領域情報を記憶する。この場合、投影領域情報抽出部103に壁面の特徴点群、投影領域の特徴点群、及び基礎投影面情報がそれぞれ複数保持されることになる。
図18は実施形態2における第二の投影領域を補正して投影する処理を表すフローチャートである。
ステップS1801で、プロジェクタを再設置した後に、投影部101によって、画像を再投影する。以下、これを第二の投影状態とする。
ステップS1802で、投影部101によって、ステップS1803以降の処理を進めるトリガとなるユーザ操作を受付ける。
ステップS1803で、投影面情報取得部102によって、投影した壁面を撮影し、その撮影した投影面を第二投影面情報として取得する。
ステップS1804で、投影領域情報抽出部103によって、複数保持されている基礎投影面情報の中から、第二投影面情報に類似の基礎投影面情報を選択する。類似の基礎投影面情報を選択する方法としては、ユーザからの選択指示によって選択しても良いし、遺伝的アルゴリズム等、広く知られているアルゴリズムを用いて、第二投影面情報と最も近似(最も類似度が高い)の基礎投影面情報を選択しても良い。
ステップS1805で、投影領域情報抽出部103によって、第二投影面情報を選択した基礎投影面情報を用いて正規化し、正規化済第二投影面情報とする。
ステップS1806で、投影補正パラメータ算出部105によって、投影補正パラメータを算出する。
ステップS1807で、投影補正パラメータ反映部106によって、投影補正パラメータを投影対象の画像に反映し、投影する。投影補正パラメータの反映形態としては、電気的な画像の変形、オフセット、拡大・縮小や光学補正などプロジェクタの機能と連動する様々な形態が想定される。
以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、複数の基礎投影面情報の中から第二投影面情報に類似の基礎投影面情報を選択しつつ、2回目以降の投影において投影領域を自動で補正し(制御し)投影することが可能となる。
<実施形態3>
上記実施形態では、具体例としてプロジェクションマッピングを扱い説明しているが、例えば、会議室やホームシアター等のその他の利用形態においても本実施形態は有効に作用する。
さらに、本発明の各部は、ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をCPU、プロセッサ等の情報処理装置にて実行することもできる。例えば、投影面情報取得部が市販のカメラ(外部装置)上に配置される場合にも、その投影面情報取得部がプロジェクタ上に配置される投影領域情報抽出部と通信部を介して接続することにより本実施形態は有効に作用する。
尚、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 投影部が投影する画像の表示を制御する情報処理装置であって、
    前記投影部が投影する投影面に関する投影面情報を取得する取得手段と、
    前記取得手段が取得する投影面情報より、前記投影部が投影する画像の投影領域に関する投影領域情報を抽出する抽出手段と、
    前記抽出手段が抽出する投影領域情報を記憶する記憶手段と、
    前記抽出手段が抽出する投影領域情報と、前記記憶手段に既に記憶されている投影領域情報とから、前記投影部が投影する画像を補正するための投影補正パラメータを算出する算出手段と、
    前記算出手段が算出する投影補正パラメータを、前記投影部が投影する画像に反映する反映手段と
    を備えることを特徴とする情報処理装置。
  2. 前記取得手段は、撮影装置によって前記投影面を撮影して得られる画像を、前記投影面情報として取得する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記抽出手段は、前記投影領域情報として、前記投影面に存在する特徴点の位置情報と、前記投影面に前記投影部が投影する画像の特徴点の位置情報を少なくとも抽出する
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記抽出手段は、前記投影面情報が示す画像を画像解析することで、前記投影領域情報を抽出する
    ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の情報処理装置。
  5. 前記記憶手段は、ユーザ操作による入力を受付けた場合に前記抽出手段が抽出する投影領域情報を記憶する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記算出手段は、前記抽出手段が抽出する投影領域情報と、前記記憶手段に既に記憶されている投影領域情報との差分が少なくなるような前記投影補正パラメータを算出する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記算出手段は、前記抽出手段が抽出する投影領域情報と、前記記憶手段に既に記憶されている複数の投影領域情報の中から選択された投影領域情報との差分が少なくなるような前記投影補正パラメータを算出する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  8. 前記選択された投影領域情報は、前記複数の投影領域情報の中の、前記抽出手段が抽出する投影領域情報と最も類似度が高い投影領域情報である、あるいは、前記複数の投影領域情報の中から、ユーザの選択指示によって選択された投影領域情報である
    ことを特徴とする請求項7に記載の情報処理装置。
  9. 前記算出手段は、前記投影補正パラメータとして、画像の変形情報、表示位置情報、拡大・縮小情報、キーストーン補正情報の少なくとも1つを算出し、
    前記反映手段は、前記算出手段が算出した投影補正パラメータに応じて、前記投影部が投影する画像を補正する
    ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記取得手段は、前記投影部による投影が停止されている状態での基礎投影面に関する基礎投影面情報を取得し、
    前記記憶手段に既に記憶されている投影領域情報は、前記基礎投影面情報より、前記抽出手段によって抽出された投影領域情報である
    ことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記取得手段は、通信部を介して接続される撮影装置が前記投影面を撮影して得られる画像を、前記通信部を介して前記投影面情報として取得する
    ことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 投影部が投影する画像の表示を制御する情報処理装置の制御方法であって、
    前記投影部が投影する投影面に関する投影面情報を取得する取得工程と、
    前記取得工程が取得する投影面情報より、前記投影部が投影する画像の投影領域に関する投影領域情報を抽出する抽出工程と、
    前記抽出工程が抽出する投影領域情報と、記憶媒体に既に記憶されている投影領域情報とから、前記投影部が投影する画像を補正するための投影補正パラメータを算出する算出工程と、
    前記算出工程が算出する投影補正パラメータを、前記投影部が投影する画像に反映する反映工程と
    を備えることを特徴とする情報処理装置の制御方法。
  13. 投影部が投影する画像の表示を制御する情報処理装置の制御をコンピュータに機能させるためのプログラムであって、
    前記コンピュータを、
    前記投影部が投影する投影面に関する投影面情報を取得する取得手段と、
    前記取得手段が取得する投影面情報より、前記投影部が投影する画像の投影領域に関する投影領域情報を抽出する抽出手段と、
    前記抽出手段が抽出する投影領域情報を記憶する記憶手段と、
    前記抽出手段が抽出する投影領域情報と、前記記憶手段に既に記憶されている投影領域情報とから、前記投影部が投影する画像を補正するための投影補正パラメータを算出する算出手段と、
    前記算出手段が算出する投影補正パラメータを、前記投影部が投影する画像に反映する反映手段と
    して機能させることを特徴とするプログラム。
JP2013200525A 2013-09-26 2013-09-26 情報処理装置及びその制御方法、プログラム Active JP6289003B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013200525A JP6289003B2 (ja) 2013-09-26 2013-09-26 情報処理装置及びその制御方法、プログラム
EP20140003236 EP2854400A1 (en) 2013-09-26 2014-09-18 Information processing apparatus, method of controlling an information processing apparatus, and recording medium
US14/491,311 US10134118B2 (en) 2013-09-26 2014-09-19 Information processing apparatus and method of obtaining information about a projection surface on which a target is projected
CN201410497144.2A CN104519293A (zh) 2013-09-26 2014-09-24 信息处理装置及信息处理装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200525A JP6289003B2 (ja) 2013-09-26 2013-09-26 情報処理装置及びその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2015068858A true JP2015068858A (ja) 2015-04-13
JP2015068858A5 JP2015068858A5 (ja) 2016-11-10
JP6289003B2 JP6289003B2 (ja) 2018-03-07

Family

ID=51726278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200525A Active JP6289003B2 (ja) 2013-09-26 2013-09-26 情報処理装置及びその制御方法、プログラム

Country Status (4)

Country Link
US (1) US10134118B2 (ja)
EP (1) EP2854400A1 (ja)
JP (1) JP6289003B2 (ja)
CN (1) CN104519293A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207373A (ja) * 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 投写型表示装置の較正装置、較正方法、プログラム、投写型表示装置、及び投写型表示システム
WO2023074302A1 (ja) * 2021-10-28 2023-05-04 パナソニックIpマネジメント株式会社 通知方法、及び、通知システム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP6631181B2 (ja) * 2015-11-13 2020-01-15 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
DE112017004626T5 (de) * 2016-09-14 2019-06-06 Erez Halahmi Überwachungssystem und Verfahren zum Kontrollieren des Prozesses der Oberflächenbearbeitung im Bauwesen
CN106454542A (zh) * 2016-10-31 2017-02-22 北京小米移动软件有限公司 投影处理方法及装置
JP6897092B2 (ja) * 2016-12-22 2021-06-30 カシオ計算機株式会社 投影制御装置、投影制御方法及びプログラム
US10349022B2 (en) * 2017-03-22 2019-07-09 Casio Computer Co., Ltd. Image processing apparatus, projector, image processing method, and storage medium storing image processing program
JP6766720B2 (ja) * 2017-03-27 2020-10-14 カシオ計算機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7179446B2 (ja) * 2017-05-22 2022-11-29 キヤノン株式会社 情報処理装置、情報処理方法、および、プログラム
DE102017010683B4 (de) * 2017-11-17 2019-08-14 domeprojection.com GmbH Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
JP6642610B2 (ja) * 2018-03-22 2020-02-05 カシオ計算機株式会社 投影制御装置、投影装置、投影制御方法及びプログラム
JP7392302B2 (ja) * 2019-06-25 2023-12-06 株式会社リコー 画像処理装置、画像形成装置および画像処理方法
NL2023747B1 (en) * 2019-09-02 2021-05-12 Suss Microtec Lithography Gmbh Method and test system for assessing the quality of a multi-channel micro- and/or subwavelength-optical projection unit
CN114845091B (zh) * 2021-02-01 2023-11-10 扬智科技股份有限公司 投影装置与其梯形校正方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211461A (ja) * 1999-12-18 2001-08-03 Lg Electronics Inc 映像歪み補正装置及びその方法とそれを利用した映像表示機器
WO2007149323A2 (en) * 2006-06-16 2007-12-27 Hewlett-Packard Development Company, L.P. Mesh for rendering an image frame
JP2008113416A (ja) * 2006-08-11 2008-05-15 Silicon Optix Inc 表示の形状及び色の自動較正及び修正のためのシステム及び方法
US20090115916A1 (en) * 2007-11-06 2009-05-07 Satoshi Kondo Projector and projection method
JP2009135921A (ja) * 2007-11-06 2009-06-18 Panasonic Corp 画像投影装置及び画像投影方法
WO2009104550A1 (ja) * 2008-02-22 2009-08-27 パナソニック電工株式会社 光投影装置、照明装置
JP2012022246A (ja) * 2010-07-16 2012-02-02 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012142669A (ja) * 2010-12-28 2012-07-26 Seiko Epson Corp 投写制御装置、投写システム、テストチャート、投写領域判定方法
WO2013038656A1 (ja) * 2011-09-15 2013-03-21 日本電気株式会社 投影像自動補正システム、投影像自動補正方法およびプログラム
JP2013187667A (ja) * 2012-03-07 2013-09-19 Seiko Epson Corp プロジェクター、及び、プロジェクターの制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327042A (ja) 1998-05-20 1999-11-26 Mitsubishi Electric Corp プロジェクタの位置決め装置
JP4169462B2 (ja) * 1999-08-26 2008-10-22 株式会社リコー 画像処理方法及び装置、デジタルカメラ、画像処理システム、並びに、画像処理プログラムを記録した記録媒体
US7119833B2 (en) * 2002-12-03 2006-10-10 University Of Kentucky Research Foundation Monitoring and correction of geometric distortion in projected displays
US6715888B1 (en) * 2003-03-21 2004-04-06 Mitsubishi Electric Research Labs, Inc Method and system for displaying images on curved surfaces
JP5029012B2 (ja) 2004-09-21 2012-09-19 株式会社ニコン 電子機器
US8406562B2 (en) * 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
US8538084B2 (en) * 2008-09-08 2013-09-17 Apple Inc. Method and apparatus for depth sensing keystoning
JP2010152267A (ja) * 2008-12-26 2010-07-08 Seiko Epson Corp プロジェクタ
JP5262743B2 (ja) * 2009-01-20 2013-08-14 セイコーエプソン株式会社 投写型表示装置及びその制御方法、その制御プログラム
DE102009046114B4 (de) * 2009-10-28 2011-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer kalibrierten Projektion
JP5560722B2 (ja) * 2010-01-12 2014-07-30 セイコーエプソン株式会社 画像処理装置、画像表示システム、および画像処理方法
CA2847999C (en) * 2011-10-20 2019-11-12 Imax Corporation Invisible or low perceptibility of image alignment in dual projection systems
US20130113975A1 (en) * 2011-11-04 2013-05-09 Peter Gabris Projector Image Correction Method and System
JP6089424B2 (ja) * 2012-03-21 2017-03-08 セイコーエプソン株式会社 画像処理装置、プロジェクター、およびプロジェクターの制御方法
JP5842694B2 (ja) * 2012-03-21 2016-01-13 セイコーエプソン株式会社 画像処理装置、プロジェクター、およびプロジェクターの制御方法
US9128366B2 (en) * 2012-05-22 2015-09-08 Ricoh Company, Ltd. Image processing system, image processing method, and computer program product

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211461A (ja) * 1999-12-18 2001-08-03 Lg Electronics Inc 映像歪み補正装置及びその方法とそれを利用した映像表示機器
WO2007149323A2 (en) * 2006-06-16 2007-12-27 Hewlett-Packard Development Company, L.P. Mesh for rendering an image frame
JP2008113416A (ja) * 2006-08-11 2008-05-15 Silicon Optix Inc 表示の形状及び色の自動較正及び修正のためのシステム及び方法
US20090115916A1 (en) * 2007-11-06 2009-05-07 Satoshi Kondo Projector and projection method
JP2009135921A (ja) * 2007-11-06 2009-06-18 Panasonic Corp 画像投影装置及び画像投影方法
WO2009104550A1 (ja) * 2008-02-22 2009-08-27 パナソニック電工株式会社 光投影装置、照明装置
JP2012022246A (ja) * 2010-07-16 2012-02-02 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012142669A (ja) * 2010-12-28 2012-07-26 Seiko Epson Corp 投写制御装置、投写システム、テストチャート、投写領域判定方法
WO2013038656A1 (ja) * 2011-09-15 2013-03-21 日本電気株式会社 投影像自動補正システム、投影像自動補正方法およびプログラム
JP2013187667A (ja) * 2012-03-07 2013-09-19 Seiko Epson Corp プロジェクター、及び、プロジェクターの制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207373A (ja) * 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 投写型表示装置の較正装置、較正方法、プログラム、投写型表示装置、及び投写型表示システム
WO2023074302A1 (ja) * 2021-10-28 2023-05-04 パナソニックIpマネジメント株式会社 通知方法、及び、通知システム

Also Published As

Publication number Publication date
JP6289003B2 (ja) 2018-03-07
CN104519293A (zh) 2015-04-15
US20150084992A1 (en) 2015-03-26
EP2854400A1 (en) 2015-04-01
US10134118B2 (en) 2018-11-20

Similar Documents

Publication Publication Date Title
JP6289003B2 (ja) 情報処理装置及びその制御方法、プログラム
JP5604909B2 (ja) 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
US8472667B2 (en) Editing apparatus and method
US20160337593A1 (en) Image presentation method, terminal device and computer storage medium
JP2004318823A (ja) 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
CN111246080B (zh) 控制设备、控制方法、摄像设备以及存储介质
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
JP2016009266A (ja) 撮影システム、撮影の方法、およびコンピュータープログラム
JP6467612B2 (ja) 正置画像処理システムおよび構造物維持管理業務システム
US20180220114A1 (en) System for controlling projector, information processing apparatus, information processing method, and storage medium
JP2014142737A (ja) 入力プログラム、入力装置および入力方法
KR20110132835A (ko) 원근왜곡 보정을 통한 영상대조 방법 및 장치
JP2019012359A (ja) 情報処理装置、プログラム及び情報処理方法
JP2019012360A (ja) 情報処理装置、プログラム及び情報処理方法
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP7118729B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2007288295A (ja) 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム
JP6483661B2 (ja) 撮像制御装置、撮像制御方法およびプログラム
JP5502771B2 (ja) 電子黒板システム及びプログラム
JP2019027894A (ja) 位置情報取得システム、位置情報取得方法及びプログラム
JP6694907B2 (ja) 判定装置、判定方法及び判定プログラム
JP7245773B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP2016015639A (ja) 情報処理装置、画像投影システム及び情報処理方法
JP6641525B2 (ja) 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R151 Written notification of patent or utility model registration

Ref document number: 6289003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151