JP7380661B2 - 投射方法、及び投射システム - Google Patents

投射方法、及び投射システム Download PDF

Info

Publication number
JP7380661B2
JP7380661B2 JP2021152923A JP2021152923A JP7380661B2 JP 7380661 B2 JP7380661 B2 JP 7380661B2 JP 2021152923 A JP2021152923 A JP 2021152923A JP 2021152923 A JP2021152923 A JP 2021152923A JP 7380661 B2 JP7380661 B2 JP 7380661B2
Authority
JP
Japan
Prior art keywords
projector
information
dimensional position
projection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021152923A
Other languages
English (en)
Other versions
JP2023044838A (ja
Inventor
泰介 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021152923A priority Critical patent/JP7380661B2/ja
Priority to CN202211134743.9A priority patent/CN115842905B/zh
Priority to US17/948,820 priority patent/US20230092033A1/en
Publication of JP2023044838A publication Critical patent/JP2023044838A/ja
Application granted granted Critical
Publication of JP7380661B2 publication Critical patent/JP7380661B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、投射方法、及び投射システムに関する。
3次元形状を有する投射対象物にプロジェクターから投射画像を投射することで種々の演出を行うプロジェクションマッピングが普及しつつある。また、プロジェクションマッピング用の投射画像を生成するための技術が種々提案されており、一例としては特許文献1又は特許文献2に開示の技術が挙げられる。特許文献1には、カメラによる投射対象物の撮像画像を解析することで投射対象物が占める領域を特定し、この特定結果に基づいて投射画像を生成する技術が開示されている。特許文献2には、カメラによる投射対象物の撮像画像をスマートフォン等の端末における表示領域に背景として表示し、この表示領域に描画されたオブジェクトの画像をプロジェクターに投射させる技術が開示されている。
特開2018-97148号公報 特開2021-87043号公報
特許文献1に開示される技術では、カメラ座標系とプロジェクター座標系の変換テーブルを生成するものの、投影画像と撮像画像との各画像の対応づけであるため、キャリブレーション実行後に物***置が移動した場合は、投影画像と撮像画像との対応付けがキャリブレーション時と変化しているため、所望の3次元位置に描画を行うことができない。また、特許文献2に開示される技術では、カメラ画像内におけるプロジェクター画像の対応付けとして、カメラ画像内の投射領域に対する台形補正により対応関係を求めているが、台形補正では投射領域内に存在する奥行き情報を考慮していないため、投影対象物が3次元形状を有する場合、投射対象物の所望の3次元位置に描画を行うことができない。また、特許文献1と同様に、カメラとプロジェクターの対応付けを行ったときの状態から、物***置が移動した場合には所望の3次元位置に描画を行うことができない。つまり、特許文献1および特許文献2に開示の技術では、投射対象物の画像に対してユーザーが描画した描画オブジェクトを、描画された位置に描画された形状で正確に投射することができない場合がある、という問題がある。
本開示の投射方法の一態様は、投射対象物をカメラによって撮像することにより得られた第1画像を取得することと、前記第1画像においてユーザーが描画オブジェクトを描画する操作を受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、前記カメラと前記投射対象物との相対3次元位置を示す第1位置情報、及び前記カメラの光軸の向きを示す第1姿勢情報に基づいて、前記第1オブジェクト情報を、前記投射対象物の表面に前記描画オブジェクトが配置された場合の前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、プロジェクターと前記投射対象物との相対3次元位置を示す第2位置情報、及び前記プロジェクターの光軸の向きを示す第2姿勢情報に基づいて、前記第2オブジェクト情報を、前記プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、を含む。
また、本開示の投射方法の別の態様は、投射対象物を模擬した仮想物体及び前記投射対象物に画像を投射するプロジェクターを模擬した仮想プロジェクターを含み、前記仮想物体と前記仮想プロジェクターとの相対3次元位置が前記投射対象物と前記プロジェクターとの相対3次元位置に応じて定まる仮想空間において、ユーザーによって設定された視点から前記仮想物体を見た第1画像を取得することと、前記第1画像において前記ユーザーが描画オブジェクトを描画する操作を受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、前記視点と前記仮想物体との相対3次元位置を示す第1位置情報に基づき、前記第1オブジェクト情報を、前記仮想物体の表面に前記描画オブジェクトが配置された場合に、前記投射対象物の表面に配置された前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、前記仮想プロジェクターと前記仮想物体との相対3次元位置を示す第2位置情報、及び前記仮想プロジェクターの光軸の向きを示す姿勢情報に基づいて、前記第2オブジェクト情報を、前記仮想プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、を含む。
また、本開示の投射システムの一態様は、投射対象物に画像を投射するプロジェクターと、ユーザーの操作を受け付ける入力装置と、処理装置と、を含む。前記処理装置は、前記投射対象物をカメラによって撮像することにより得られた第1画像を取得することと、前記第1画像において描画オブジェクトを描画する操作を前記入力装置によって受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、前記カメラと前記投射対象物との相対3次元位置を示す第1位置情報、及び前記カメラの光軸の向きを示す第1姿勢情報に基づいて、前記第1オブジェクト情報を、前記投射対象物の表面に前記描画オブジェクトが配置された場合の前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、プロジェクターと前記投射対象物との相対3次元位置を示す第2位置情報、及び前記プロジェクターの光軸の向きを示す第2姿勢情報に基づいて、前記第2オブジェクト情報を、前記プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、を実行する。
また、本開示の投射システムの別の態様は、投射対象物に画像を投射するプロジェクターと、ユーザーの操作を受け付ける入力装置と、処理装置と、を含む。前記処理装置は、前記投射対象物を模擬した仮想物体及び前記プロジェクターを模擬した仮想プロジェクターを含み、前記仮想物体と前記仮想プロジェクターとの相対3次元位置が前記投射対象物と前記プロジェクターとの相対3次元位置に応じて定まる仮想空間において、前記入力装置に対する操作によって設定された視点から前記仮想物体を見た第1画像を取得することと、前記第1画像において描画オブジェクトを描画する操作を前記入力装置によって受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、前記視点と前記仮想物体との相対3次元位置を示す第1位置情報に基づき、前記第1オブジェクト情報を、前記仮想物体の表面に前記描画オブジェクトが配置された場合に、前記投射対象物の表面に配置された前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、前記仮想プロジェクターと前記仮想物体との相対3次元位置を示す第2位置情報、及び前記仮想プロジェクターの光軸の向きを示す姿勢情報に基づいて、前記第2オブジェクト情報を、前記仮想プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、を実行する。
本開示の第1実施形態による投射システム1Aの構成例を示す図である。 投射システム1Aに含まれる制御装置10Aの構成例を示す図である。 カメラ30による投射対象物PSの撮像画像G1の一例を示す図である。 第1位置情報DA1及び第1姿勢情報DB1の算出の原理を説明するための図である。 本実施形態の動作例を説明するための図である。 本実施形態の動作例を説明するための図である。 制御装置10Aの処理装置140がプログラムPAに従って実行する投射方法の流れを示すフローチャートである。 本開示の第2実施形態による投射システム1Bの構成例を示す図である。 本実施形態における仮想空間VSを説明するための図である。 投射システム1Bに含まれる制御装置10Bの構成例を示す図である。 制御装置10Bの処理装置140がプログラムPBに従って実行する投射方法の流れを示すフローチャートである。 本実施形態の効果を説明するための図である。 本実施形態の効果を説明するための図である。
以下、図面を参照して本開示の実施形態を説明する。以下に述べる実施形態には技術的に好ましい種々の限定が付されている。しかし、本開示の実施形態は、以下に述べる形態に限られるものではない。
1.第1実施形態
図1は、本開示の第1実施形態による投射システム1Aの構成例を示す図である。図1に示されるように、投射システム1Aには、制御装置10Aと、投射対象物PSに投射画像を投射するためのプロジェクター20と、投射対象物PSを撮像するためのカメラ30と、が含まれる。投射対象物PSは3次元形状を有する物体である。図1に示されるように、本実施形態における投射対象物PSは直方体状の物体である。
図1に示されるように、プロジェクター20は、USB(Universal Serial Bus)ケーブル等の通信線L1を介して制御装置10Aに接続される。同様に、カメラ30は、USBケーブル等の通信線L2を介して制御装置10Aに接続される。制御装置10Aは、通信線L2を介してカメラ30と通信することにより、投射対象物PSの撮像画像を表す撮像画像データをカメラ30から取得する。カメラ30による投射対象物PSの撮像画像は本開示における第1画像の一例である。なお、制御装置10Aとカメラ30との間の通信は無線通信であってもよい。同様に、制御装置10Aとプロジェクター20との間の通信も無線通信であってもよい。
制御装置10Aは、投射対象物PSの撮像画像において投射対象物PSが示す領域に投射対象物PSに投射する描画オブジェクトを描画するユーザーの操作を受け付ける。制御装置10Aは、プロジェクター20から投射対象物PSに投射する投射画像を表す投射画像データを当該操作に応じて生成する。制御装置10Aは、生成した投射画像データを通信線L1を介してプロジェクター20へ送信する。投射システム1Aでは、投射画像データの表す投射画像をプロジェクター20から投射対象物PSに投射することにより、プロジェクションマッピングが実現される。以下、本実施形態の特徴を顕著に示す制御装置10Aを中心に説明する。
図2は、制御装置10Aのハードウェア構成の一例を示すブロック図である。図2に示されるように、制御装置10Aは、通信装置100、表示装置110、入力装置120、記憶装置130、及び処理装置140を含む。制御装置10Aの具体例としては、スマートフォン又はタブレット端末等の携帯端末が挙げられる。
通信装置100には、通信線L1及び通信線L2が接続される。通信装置100は、カメラ30から送信される撮像画像データを、通信線L2を介して受信する。通信装置100は、受信した撮像画像データを処理装置140へ出力する。また、通信装置100は、処理装置140から与えられる投射画像データを、通信線L1を介してプロジェクター20へ送信する。通信装置100の具体例としてはインターフェイス回路が挙げられる。
表示装置110は、処理装置140による制御の下、画像を表示する装置である。表示装置110の具体例としては、液晶ディスプレイ及び当該液晶ディスプレイの駆動回路が挙げられる。表示装置110に表示される画像の一例としては、撮像画像データの表す画像、即ちカメラ30による投射対象物PSの撮像画像が挙げられる。
入力装置120は、投射システム1Aのユーザーによる操作を受け付ける装置である。入力装置120の具体例としては、表示装置110の表示領域を覆うように配置された透明なシート状の感圧センサーが挙げられる。本実施形態では、入力装置120として当該感圧センサーが用いられ、表示装置110と入力装置120とによりタッチパネルが形成される。表示装置110に投射対象物PSの撮像画像が表示されている状況下では、投射システム1Aのユーザーは、この撮像画像において投射対象物PSが占める領域に投射対象物PSに投射する描画オブジェクトを描画する操作を入力装置120に対して行うことができる。入力装置120は、入力装置120に対して為されたユーザーの操作を表す操作内容データを処理装置140に与える。操作内容データが入力装置120から処理装置140に与えられることによって、ユーザーの操作の内容が処理装置140に伝達される。
記憶装置130は、揮発性記憶装置であるRAM(Random Access Memory)と不揮発性記憶装置であるROM(Read Only Memory)とを含む。不揮発性記憶装置には、本開示の特徴を顕著に示す投射方法を処理装置140に実行させるプログラムPAが記憶されている。揮発性記憶装置は、プログラムPAを実行する際のワークエリアとして処理装置140によって利用される。また、記憶装置130の揮発性記憶装置には、第1位置情報DA1、第1姿勢情報DB1、第2位置情報DA2、第2姿勢情報DB2、第3位置情報DA3、第3姿勢情報DB3、及びマーカー情報DMが記憶される。
本実施形態では、投射対象物PSの表面には、図1に示されるように複数のマーカーMが予め付与されている。これら複数のマーカーMの各々は、互いに異なるAR(Augmented Reality)マーカーである。これら複数のマーカーMについては、投射対象物PS、プロジェクター20及びカメラ30が配置される3次元空間における3次元位置が予め計測されている。以下では、投射対象物PS、プロジェクター20及びカメラ30が配置される3次元空間は実空間と称される。実空間における各マーカーMの3次元位置を計測する際には、任意の3次元座標系が設定される。この3次元座標系は実空間座標系と称される。本実施形態では、複数のマーカーMの各々の実空間座標系における3次元座標値は既知である。マーカー情報DMは、実空間座標系における複数のマーカーMの各々の3次元位置を示す情報である。マーカー情報DMは、記憶装置130に予め記憶されている。
第3位置情報DA3は、実空間座標系においてプロジェクター20から見たカメラ30の3次元位置、即ち実空間座標系におけるプロジェクター20とカメラ30との相対3次元位置を示す情報である。本実施形態では、実空間座標系におけるカメラ30の3次元位置として、実空間座標系におけるカメラ30の撮像レンズの主点の位置が用いられる。また、本実施形態では、実空間座標系におけるプロジェクター20の3次元位置として、実空間座標系におけるプロジェクター20の投射レンズの主点の位置が用いられる。本実施形態における第3位置情報DA3は、実空間座標系においてカメラ30の撮像レンズの主点を平行移動によりプロジェクター20の主点に移動させる際の平行移動行列に対応する。本実施形態では、プロジェクター20とカメラ30との相対3次元位置は固定であり、第3位置情報DA3は記憶装置130に予め記憶されている。
以下では、カメラ30の主点を原点とし、カメラ30による撮像画像の水平走査方向に沿った座標軸をx軸、当該撮像画像の垂直走査方向に沿った座標軸をy軸、及びカメラ30の光軸に沿った座標軸をz軸とする座標系はカメラ座標系と称される。また、プロジェクター20の主点を原点とし、プロジェクター20による投射画像の水平走査方向に沿った座標軸をx軸、当該投射画像の垂直走査方向に沿った座標軸をy軸、及びプロジェクター20の光軸に沿った座標軸をz軸とする座標系はプロジェクター座標系と称される。
第3姿勢情報DB3は、実空間座標系におけるカメラ30のプロジェクター20に対する相対姿勢を示す情報である。本実施形態における第3姿勢情報DB3は、実空間座標系においてプロジェクター20の光軸に沿った単位ベクトルを、回転により実空間座標系においてカメラ30の光軸に沿った単位ベクトルに変換する回転行列である。本実施形態では、実空間座標系におけるカメラ30のプロジェクター20に対する相対姿勢は固定であり、両者の相対姿勢を示す第3姿勢情報DB3が記憶装置130に予め記憶されている。第3位置情報DA3及び第3姿勢情報DB3はカメラ座標系とプロジェクター座標系とを相互変換するための情報である。
第1位置情報DA1は、実空間座標系においてカメラ30から見た投射対象物PSの3次元位置、即ち実空間座標系におけるカメラ30と投射対象物PSの相対3次元位置を示す情報である。第1姿勢情報DB1は、実空間座標系におけるカメラ30の姿勢、即ちカメラ30の光軸の向きを示す情報である。第1位置情報DA1及び第1姿勢情報DB1は、PnP(Perspective n-Points)の原理に基づいて以下の要領で生成される。
図3は、カメラ30による撮像画像G1の一例を示す図である。この撮像画像G1は、図4に示される前方クリッピング面F1に対応する。より詳細には、実空間座標系においてカメラ30の主点MPに先端が位置し、且つ投射対象物PSを含む視錐台S1における前方クリッピング面F1が撮像レンズを介してカメラ30の撮像面に写ることにより、撮像画像G1が撮像される。カメラ座標系におけるマーカーMの3次元位置は、撮像画像G1上のマーカーMの2次元位置(mx、my)と、カメラ30の主点MPから前方クリッピング面F1までの距離fとを用いて、(mx、my、f)と表される。
前述したように、マーカーMの実空間座標系における3次元位置(X、Y、Z)は既知であるため、マーカーMの実空間座標系における3次元位置(X、Y、Z)とカメラ座標系におけるマーカーMの3次元位置(mx、my、f)とは、以下の式(1)に示されるように、式(2)に示す内部パラメーター行列F、及び式(3)に示す行列RTを用いて互いに関連付けられる。なお、内部パラメーター行列Fにおけるfxはカメラ30の撮像レンズにおける焦点距離のうち水平走査方向の焦点距離を表し、fyは撮像レンズにおける焦点距離のうち垂直走査方向の焦点距離を表す。また、cx及びcyは、カメラ30の主点MPを通りz軸に沿った直線と前方クリッピング面F1との交点P1の撮像画像G1上のx座標及びy座標である。なお、内部パラメーター行列Fは既知であり、内部パラメーター行列Fを表す情報は記憶装置130に予め記憶されている。また、本実施形態では、プロジェクター20の投射レンズの内部パラメーター行列も記憶装置130に予め記憶されている。
Figure 0007380661000001
Figure 0007380661000002
Figure 0007380661000003
行列RTは、成分r11~r33により構成される3行3列の回転行列と成分t1~t3により構成される3行1列の平行移動行列とを含む。本実施形態では、この回転行列が第1姿勢情報DB1であり、この平行移動行列が第1位置情報DA1である。本実施形態では、行列RTを構成する12個の成分は未知であるため、少なくとも6個のマーカーMについての実空間座標系における3次元位置(X、Y、Z)と撮像画像G1上の2次元位置(mx、my)とを式1に代入して得られる12個の式を連立させて解くことで第1姿勢情報DB1と第1位置情報DA1とが求まる。
第2位置情報DA2は、実空間座標系においてプロジェクター20から見た投射対象物PSの3次元位置、即ち実空間座標系におけるプロジェクター20と投射対象物PSの相対3次元位置を示す情報である。本実施形態における第2位置情報DA2は、第1位置情報DA1と同様に平行移動行列である。第2姿勢情報DB2は、実空間座標系におけるプロジェクター20の姿勢、即ちプロジェクター20の光軸の向きを示す情報である。第2姿勢情報DB2は、第1姿勢情報DB1と同様に回転行列である。本実施形態では、カメラ30とプロジェクター20の相対3次元位置及び相対姿勢は固定であるため、第2位置情報DA2は、第1位置情報DA1と第3位置情報DA3とに基づいて生成される。また、第2姿勢情報DB2は第1姿勢情報DB1と第3姿勢情報DB3とに基づいて生成される。
処理装置140は、CPU(Central Processing Unit)等のプロセッサー、即ちコンピューターを含む。処理装置140には、1つのプロセッサーが含まれてもよいし、複数のプロセッサーが含まれてもよい。処理装置140は、制御装置10Aの電源投入を契機として、プログラムPAを不揮発性記憶装置から揮発性記憶装置へ読み出し、プログラムPAの実行を開始する。
より具体的には、プログラムPAに従って作動している処理装置140は、図2に示されるように、取得部141A、第1生成部142A、第2生成部143A、変換部144A、及び投射制御部145として機能する。つまり、図2に示される取得部141A、第1生成部142A、第2生成部143A、変換部144A、及び投射制御部145は、プログラムPAに従ってコンピューターを作動させることにより実現されるソフトウェアモジュールである。取得部141A、第1生成部142A、第2生成部143A、変換部144A、及び投射制御部145の各々の機能は、次の通りである。
取得部141Aは、投射対象物PSをカメラ30によって撮像することにより得られた撮像画像を取得する。より詳細に説明すると、取得部141Aは、通信装置100を用いてカメラ30と通信することによって、カメラ30から送信される画像データ、即ちカメラ30による投射対象物PSの撮像画像を表す撮像画像データを取得する。
第1生成部142Aは、取得部141Aにより取得された撮像画像データの表す撮像画像とマーカー情報DMとに基づいてPnPの原理により、第1位置情報DA1及び第1姿勢情報DB1を生成する。また、第1生成部142Aは、第1位置情報DA1及び第3位置情報DA3に基づいて第2位置情報DA2を生成するとともに、第1姿勢情報DB1及び第3姿勢情報DB3に基づいて第2姿勢情報DB2を生成する。
第2生成部143Aは、取得部141Aにより取得された撮像画像データの表す画像、即ちカメラ30による投射対象物PSの撮像画像を表示装置110に表示させることによって、撮像画像において投射対象物PSが占める領域に描画オブジェクトを描画する操作を受け付ける。第2生成部143Aは、入力装置120から出力される操作内容データを受信する。操作内容データは、描画する操作に応じたデータである。第2生成部143Aは、操作内容データを受信することによって、描画オブジェクトを描画する操作を受け付ける。第2生成部143Aは、操作内容データに基づいて、撮像画像における描画オブジェクトの2次元位置、具体的には描画オブジェクト上の複数の点の各々の2次元位置を示す第1オブジェクト情報を生成する。例えば、図3に示される撮像画像G1が表示装置110に表示されている状況下で、図5にて点線で示される描画オブジェクトOB1を描く操作が入力装置120に対して為されたとする。この場合、第2生成部143Aは、図5にて点線で示される線上に位置する複数の点の各々の2次元位置を示す第1オブジェクト情報を生成する。
変換部144Aは、第1オブジェクト情報を、投射対象物PSの表面に描画オブジェクトが配置された場合に、投射対象物PSの表面に配置された描画オブジェクトの3次元位置、即ち実空間座標系における3次元位置を示す第2オブジェクト情報に変換する。より詳細に説明すると、変換部144Aは、第1位置情報DA1、第1姿勢情報DB1,および撮像レンズの内部パラメーター行列を用いて、図4のF1に示すような前方クリッピング面に第1オブジェクト情報の示す第1オブジェクトを配置する。変換部144Aは、前方クリッピング面上の第1オブジェクトと撮像レンズの主点MPの延長線上に存在するオブジェクトの交点となる3次元位置を算出することにより、第1オブジェクト情報を第2オブジェクト情報に変換する。撮像レンズが歪みを有する場合、変換部144Aは前方クリッピング面に配置する第1オブジェクトを当該歪みを補正する所謂歪補正処理を行った座標に配置することで、第1オブジェクト情報をレンズ歪みの影響を有さない第2オブジェクト情報、即ち3次元空間における描画オブジェクトの正確な3次元位置を示す第2オブジェクト情報に変換する。
投射制御部145は、第2オブジェクト情報を、プロジェクター20から投射する画像上の描画オブジェクトの2次元位置、即ちプロジェクター座標系における2次元位置を示す第3オブジェクト情報に変換する。より詳細に説明すると、投射制御部145は、第2位置情報DA2、第2姿勢情報DB2、及び投射レンズの内部パラメーター行列を式(1)に代入し、更に式(1)の右辺のX、Y及びZに第2オブジェクト情報の示す座標値を代入して式(1)に示す演算を行うことにより、第2オブジェクト情報を第3オブジェクト情報に変換する。そして、投射制御部145は、描画オブジェクトを含む投射画像を表す画像データを第3オブジェクト情報に基づいて生成し、生成した画像データをプロジェクター20に送信する。式(1)にはレンズ歪みを表す内部パラメーターを含ませることができるため、この式(1)に従って第2オブジェクト情報を第3オブジェクト情報に変換することにより、投射レンズのレンズ歪みを加味した投射画像が生成される。この投射画像をプロジェクター20から投射対象物PSに投射することにより、図6に示されるように、撮像画像G1に対する操作により指定された位置に当該操作により指定された形状の描画オブジェトが投射対象物PSの表面に映る。
また、プログラムPAに従って作動している処理装置140は、本実施形態の特徴を顕著に示す投射方法を実行する。図7は、この投射方法の流れを示すフローチャートである。図7に示すように、この投射方法は、取得処理SA100、第1生成処理SA110、第2生成処理SA120、変換処理SA130、及び投射制御処理SA140を含む。取得処理SA100、第1生成処理SA110、第2生成処理SA120、変換処理SA130、及び投射制御処理SA140の各々の内容は次の通りである。
取得処理SA100では、処理装置140は、取得部141Aとして機能する。取得処理SA100では、処理装置140は、通信装置100を用いてカメラ30と通信することにより、投射対象物PSをカメラ30によって撮像することにより得られた撮像画像を表す撮像画像データを取得する。
第1生成処理SA110では、処理装置140は、第1生成部142Aとして機能する。第1生成処理SA110では、処理装置140は、取得処理SA100にて取得された撮像画像データの表す撮像画像とマーカー情報DMとに基づいてPnPの原理により、第1位置情報DA1及び第1姿勢情報DB1を生成する。また、処理装置140は、第1位置情報DA1及び第3位置情報DA3に基づいて第2位置情報DA2を生成するとともに、第1姿勢情報DB1及び第3姿勢情報DB3に基づいて第2姿勢情報DB2を生成する。
第2生成処理SA120では、処理装置140は、第2生成部143Aとして機能する。第2生成処理SA120では、処理装置140は、取得処理SA100にて取得された撮像画像データの表す画像を表示装置110に表示させることによって、撮像画像において投射対象物PSが占める領域に描画オブジェクトを描画する操作を受け付ける。そして、処理装置140は、当該操作を入力装置120によって受け付け、撮像画像における描画オブジェクトの2次元位置を示す第1オブジェクト情報を入力装置120から与えられる操作内容データに応じて生成する。前述したように、表示装置110に表示された撮像画像G1に対して、図5にて点線で示されるように描画オブジェクトOB1が描画されると、第2生成処理SA120では、当該点線上の複数の点の各々の撮像画像上の2次元位置を示す第1オブジェクト情報が生成される。
変換処理SA130では、処理装置140は、変換部144Aとして機能する。変換処理SA130では、処理装置140は、第1位置情報DA1及び第1姿勢情報DB1に基づいて第1オブジェクト情報を第2オブジェクト情報に変換する。
投射制御処理SA140では、処理装置140は、投射制御部145として機能する。投射制御処理SA140では、処理装置140は、第2位置情報DA2及び第2姿勢情報DB2に基づいて、第2オブジェクト情報を第3オブジェクト情報に変換する。次いで、処理装置140は、描画オブジェクトOB1を含む投射画像を表す画像データを第3オブジェクト情報に基づいて生成し、生成した画像データをプロジェクター20に送信する。この投射画像がプロジェクター20から投射対象物PSに投射されることにより、図6に示されるように、撮像画像G1に対する操作により指定された3次元位置に当該操作により指定された形状の描画オブジェトが投射対象物PSの表面に映る。
以上説明したように、本実施形態によれば、投射対象物PSに投射するためにユーザーが投射対象物PSの撮像画像に描画した描画オブジェクトの画像を、正確な3次元位置に正確な形状で投射対象物PSに投射することが可能になる。
2.第2実施形態
図8は、本開示の第2実施形態による投射システム1Bの構成例を示す図である。本実施形態では、図9に示されるように、投射対象物PSを模擬した仮想物体VPS及びプロジェクター20を模擬した仮想プロジェクターVPJを含む仮想空間VSにおいてユーザーにより設定された視点VPから当該仮想物体VPSを見た画像に基づいて投射画像が生成される点が第1実施形態と異なる。この仮想空間VSには、任意の3次元座標系が設定される。また、仮想空間VSに設定される3次元座標系は仮想空間座標系と称される。本実施形態では、仮想空間座標系における仮想物体VPSと仮想プロジェクターVPJとの相対3次元位置は、実空間座標系における投射対象物PSとプロジェクター20との相対3次元位置に応じて定まる。具体的には、仮想空間座標系における仮想物体VPSと仮想プロジェクターVPJとの相対3次元位置は、実空間座標系における投射対象物PSとプロジェクター20との相対3次元位置と同じである。本実施形態では、実空間座標系におけるプロジェクター20と投射対象物PSとの相対3次元位置、及びプロジェクター20の光軸の向きは既知である。投射対象物PSの形状がCAD(Computer-Aided Design)によりデザインされる場合、仮想空間VSの具体例としては、このCAD空間が挙げられる。
図8と図1とでは同一の構成要素には同一の符号が付されている。図8と図1とを比較すれば明らかなように、投射システム1Bは、制御装置10Aに代えて制御装置10Bを有する点と、カメラ30を有さない点とにおいて投射システム1Aと異なる。本実施形態では、仮想空間VSにおいてユーザーにより設定された視点VPから当該仮想物体VPSを見た画像に基づいて投射画像が生成されるため、カメラ30は不要である。また、本実施形態では、ユーザーは、視点VPを任意の3次元位置に設定することができる。
図10は、制御装置10Bの構成例を示すブロック図である。図10では、図2におけるものと同一の構成要素には同一の符号が付されている。本実施形態では第3位置情報DA3、第3姿勢情報DB3、及びマーカー情報DMは記憶装置130に記憶されておらず、この点において本実施形態は第1実施形態と異なる。第1位置情報DA1及び第2位置情報DA2の各々が平行移動行列である点は第1実施形態と同様である。また、第1姿勢情報DB1及び第2姿勢情報DB2の各々が回転行列である点も第1実施形態と同様である。
本実施形態では、第1位置情報DA1は仮想空間VSにおける視点VPと仮想物体VPSとの相対3次元位置を示し、第1姿勢情報DB1は仮想空間VSにおいて視点VPから仮想物体VPSを見る方向を示す点が第1実施形態と異なる。また、本実施形態では、第2位置情報DA2は仮想プロジェクターVPJと仮想物体VPSとの相対3次元位置を示し、第2姿勢情報DB2は仮想プロジェクターVPJの光軸の向きを示す点が第1実施形態と異なる。ただし、本実施形態では、仮想プロジェクターVPJと仮想物体VPSとの相対3次元位置は、プロジェクター20と投射対象物PSとの相対3次元位置と同じであり、仮想プロジェクターVPJの光軸の向きはプロジェクター20の光軸の向きと同じある。本実施形態では、プロジェクター20と投射対象物PSとの相対3次元位置、及びプロジェクター20の光軸の向きは既知であり、第2位置情報DA2及び第2姿勢情報DB2は、制御装置10Bの記憶装置130に予め記憶されている。なお、図10では詳細な図示は省略されているが、制御装置10Bの記憶装置130には、仮想空間座標系、及び仮想空間VSにおける仮想物体VPSの3次元位置及び形状を示す仮想空間情報が予め記憶されている。
図10と図2とを対比すれば明らかなように、本実施形態では、プログラムPAに代えてプログラムPBが記憶装置130に記憶されている。第1実施形態における場合と同様に、処理装置140は、制御装置10Bの電源投入を契機として、プログラムPBの実行を開始する。プログラムPBに従って作動している処理装置140は、図10に示されるように、取得部141B、第1生成部142B、第2生成部143B、変換部144B、及び投射制御部145として機能する。取得部141B、第1生成部142B、第2生成部143B、変換部144B、及び投射制御部145は、コンピューターをプログラムPBに従って作動させることにより実現されるソフトウェアモジュールである。
取得部141Bは、仮想空間VSの画像を表示装置110に表示することにより仮想空間VSにおける視点VPの3次元位置及び視点VPから仮想物体VPSを見る方向を設定する操作を受け付ける。これらの操作が入力装置120に対して為されると、取得部141Bは、ユーザーによって設定された視点VPから仮想物体VPSを見た仮想撮像画像を表す画像データを仮想空間情報と仮想空間VSにおける視点VPの3次元位置を示す情報とに基づいて算出することにより、当該仮想撮像画像を表す画像データを取得する。この仮想撮像画像は本開示における第1画像の一例である。仮想撮像画像は、撮像レンズを介して撮像された画像ではないため、レンズ歪みを含まない。
第1生成部142Bは、仮想空間VSにおける視点VPの3次元位置、視点VPから仮想物体VPSを見る方向、及び仮想空間情報に基づいて第1位置情報DA1及び第1姿勢情報DB1を生成する。
第2生成部143Bは、取得部141Bにより取得された撮像画像データの表す画像、即ち仮想撮像画像を表示装置110に表示させることによって、仮想撮像画像において仮想物体VPSが占める領域に描画オブジェクトを描画する操作を受け付ける。前述したように仮想撮像画像はレンズ歪みを含まないため、本実施形態によれば、レンズ歪みの無い画像を基準として描画オブジェクトを描画することが可能になる。第2生成部143Bは、描画オブジェクトを描画する操作を入力装置120によって受け付け、仮想撮像画像における描画オブジェクトの2次元位置を示す第1オブジェクト情報を入力装置120から与えられる操作内容データに応じて生成する。
変換部144Bは、第1位置情報DA1及び第1姿勢情報DB1に基づき、第1オブジェクト情報を、仮想物体VPSの表面に配置された描画オブジェクトの3次元位置、即ち仮想空間座標系における位置を示す第2オブジェクト情報に変換する。
投射制御部145は、第1実施形態における場合と同様に第2オブジェクト情報を投射画像上の描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、当該描画オブジェクトを含む投射画像をプロジェクター20から投射対象物へ投射する。
また、プログラムPBに従って作動している処理装置140は、本実施形態の特徴を顕著に示す投射方法を実行する。図11は、この投射方法の流れを示すフローチャートである。図11では、図7におけるものと同じ処理には同じ符号が付されている。図11と図7とを比較すれば明らかなように、本実施形態における投射方法は、取得処理SA100に代えて取得処理SB100を含む点、第1生成処理SA110に代えて第1生成処理SB110を含む点、第2生成処理SA120に代えて第2生成処理SB120を含む点、及び変換処理SA130に代えて変換処理SB130を含む点において第1実施形態における投射方法と異なる。
取得処理SB100では、処理装置140は、取得部141Bとして機能する。取得処理SB100では、処理装置140は、仮想空間VSの画像を表示装置110に表示することにより仮想空間VSにおける視点VPの3次元位置及び視点VPから仮想物体VPSを見る方向を設定する操作を受け付ける。そして、処理装置140は、ユーザーによって設定された視点VPから仮想物体VPSを見た仮想撮像画像を表す画像データを、仮想空間情報と当該視点VPの仮想空間VSにおける3次元位置及び視点VPから仮想物体VPSを見る方向を示す情報とに基づいて算出することにより、当該仮想撮像画像を表す画像データを取得する。
第1生成処理SB110では、処理装置140は、第1生成部142Bとして機能する。第1生成処理SB110では、処理装置140は、ユーザーによって設定された視点VPの3次元位置、当該視点VPから仮想物体VPSを見る方向、及び仮想空間情報に基づいて第1位置情報DA1及び第1姿勢情報DB1を生成する。
第2生成処理SB120では、処理装置140は、第2生成部143Bとして機能する。第2生成処理SB120では、処理装置140は、取得処理SB100にて取得された画像データの表す仮想撮像画像を表示装置110に表示させることによって、この仮想撮像画像において仮想物体VPSが占める領域に描画オブジェクトを描画する操作を受け付ける。そして、処理装置140は、当該操作を入力装置120によって受け付け、仮想撮像画像における描画オブジェクトの2次元位置を示す第1オブジェクト情報を入力装置120から与えられる操作内容データに応じて生成する。
変換処理SB130では、処理装置140は、変換部144Bとして機能する。変換処理SB130では、処理装置140は、第1位置情報DA1及び第1姿勢情報DB1に基づいて第1オブジェクト情報を第2オブジェクト情報に変換する。
投射制御処理SA140では、処理装置140は、投射制御部145として機能する。投射制御処理SA140では、処理装置140は、第2位置情報DA2及び第2姿勢情報DB2に基づいて、第2オブジェクト情報を第3オブジェクト情報に変換する。次いで、処理装置140は、描画オブジェクトを含む投射画像を表す画像データを第3オブジェクト情報に基づいて生成し、生成した画像データをプロジェクター20に送信する。
本実施形態によっても、投射対象物PSに投射するためにユーザーが仮想撮像画像に描画した画像を、正確な3次元位置に正確な形状でプロジェクター20から投射対象物PSに投射することが可能になる。なお、本実施形態では、プロジェクター20と投射対象物PSとの相対3次元位置、及びプロジェクター20の光軸の向きは既知であり、第2位置情報DA2及び第2姿勢情報DB2が記憶装置130に予め設定されていた。しかし、取得処理SB100にて仮想プロジェクターVPJの3次元位置及び姿勢を設定する操作を受け付け、第1生成処理SB110では、この操作に応じて第2位置情報DA2及び第2姿勢情報DB2が生成されてもよい。
加えて、本実施形態では、視点VPの3次元位置及び視点VPから仮想物体VPSを見る方向を任意に設定することができるため、投射対象物PSの6個の面のうち、描画オブジェクトの配置を所望する面を正対視するように、仮想空間VSにおける視点VPの3次元位置及び視点VPから仮想物体VPSを見る方向を設定することで、以下の効果が奏される。なお、描画オブジェクトの配置を所望する面を正対視するとは、視点VPと当該面の中心とを通る直線が当該面に垂直に交わり、且つ視点VPから仮想物体VPSを見る方向が当該直線に沿っていることをいう。
第1実施形態の投射システム1Aでは、図12に示されるように、投射対象物PSにおいて描画オブジェクトOB2が配置される面とカメラ30の光軸とが直交していない状態で撮像された撮像画像、即ち投射対象物PSを正対視していない撮像画像に対して描画オブジェクトが描画されると、図13に示されるように、投射対象物PSの表面に映る描画オブジェクトOB2に射影歪みが発生する。本実施形態では、描画オブジェクトの配置を所望する面を正対視するように、視点VPの3次元位置及び視点VPから仮想物体VPSを見る方向を設定することで、射影歪みの発生が回避される。なお、視点VPの3次元位置の設定は、仮想物体VPSを正対視する位置への設定に制限されてもよい。仮想物体VPSを正対視する位置とは、仮想物体VPSの外延を形成する複数の面の何れかを正対視する位置のことをいう。視点VPの3次元位置の設定を、仮想物体VPSを正対視する位置への設定に制限する態様では、第1姿勢情報DB1は省略可能である。この態様では、仮想撮像画像に描画された描画オブジェクトを、視点VPと仮想物体VPSとの間の距離と視点VPに先端が位置する視錐台における前方クリッピング面から視点VPまでの距離に応じた比率で縮小しつつ仮想物体VPSに投影することで第2オブジェクト情報を生成することができるからである。
3.変形
上記各実施形態は、以下のように変形され得る。
(1)上記第2実施形態において、第2オブジェクト情報により3次元空間における3次元位置が表される描画オブジェクトがテクスチャとして仮想物体VPSの表面に張り付けられてもよい。本態様によれば、投射対象物PSの移動に伴って仮想物体VPSが移動する場合に仮想撮像画像上での描画オブジェクトの再描画を行うことなく、描画オブジェクトを表面に配置済の仮想物体VPSの仮想撮像画像を表示装置110に表示させることが可能になる。第1実施形態に関しても同様に撮像画像に代えて仮想撮像画像を用いるようにすれば、投射対象物PSが移動する場合に描画オブジェクトの再描画を行うことなく、描画オブジェクトを表面に配置済の仮想物体VPSの仮想撮像画像を表示装置110に表示させることが可能になる。
(2)上記第1実施形態では、投射対象物PSの表面に配置された複数のマーカーMを利用して第1位置情報DA1及び第1姿勢情報DB1が取得された。しかし、投射対象物PSの撮像画像に写っている投射対象物PSの表面に各々位置し、且つ各々の3次元位置が既知の複数の特徴点を選択する操作を入力装置120により受け付け、これら複数の特徴点の各々の撮像画像上の2次元位置に基づいて第1位置情報DA1及び第1姿勢情報DB1が取得されてもよい。また、第2実施形態の投射システム1Bにカメラ30が追加され、第1生成処理SB110に代えて第1生成処理SA110が制御装置10Bにおいて実行されてもよい。この場合、複数のマーカーMに代えて、投射対象物PSの撮像画像に写っている当該投射対象物PSの表面に各々位置し、且つ各々の3次元位置が既知の複数の特徴点が用いられてもよい。
(3)通信装置100は、無線LAN(Local Area Network)又は有線LAN等の通信網を介してプロジェクター20又はカメラ30と通信してもよい。プロジェクター20又はカメラ30と有線LANを介して通信する態様における通信装置100の具体例としては、LANケーブルを介して有線LANに接続されるNIC(Network Interface Card)が挙げられる。また、プロジェクター20又はカメラ30と無線LANを介して通信する態様における通信装置100の具体例としては、当該無線LANにおける通信電波を受信するアンテナ及び当該通信電波の変調及び復調を行う回路が挙げられる。また、通信装置100は、通信網を介して管理者端末と通信し、この管理者端末が表示装置110及び入力装置120の機能を担ってもよい。この態様によれば、投射画像の視聴者の注意を喚起するアノテーション情報を描画オブジェクトとして用いることにより、投射対象物PSを介した視聴者と遠隔地の管理者とのリアルタイムな遠隔コミュニケーションが可能となる。
この遠隔コミュニケーションの具体例としては、投射対象物PSが工場の製造ラインにて作業者の手作業により製造される物である場合、投射対象物PSの撮像画像又は仮想撮像画像に管理者が作業箇所を示す描画オブジェクトを順次描画することにより作業手順を指導することが挙げられる。また、上記遠隔コミュニケーションの他の具体例としては、公共施設における地形ジオラマ等を投射対象物PSとし、投射対象物PSの撮像画像又は仮想撮像画像に学芸員等の管理者が注目箇所を示す描画オブジェクトを順次描画することにより、公共施設の来場者に対して投射対象物PSに関する解説を行うことが挙げられる。また、上記遠隔コミュニケーションの更に別の具体例としては、医療教育における人体模型を投射対象物PSとし、投射対象物PSの撮像画像又は仮想撮像画像に指導教官等の管理者が注目箇所を示す描画オブジェクトを順次描画することで学習者の指導を行うことが挙げられる。このように、本開示によれば、特定の知識又は技能を有する者が現場まで赴くことなく、当該知識等を有さない者の指導等を行うことが可能となる。
(4)上記第1実施形態における投射システム1Aに含まれるプロジェクター20の数は1であったが2以上であってもよい。例えば、プロジェクター20により画像を投射可能な範囲に比較して投射対象物PSが大きい場合には、複数のプロジェクター20を用い、各プロジェクター20に互いに異なる投射領域が割り当てられてもよい。同様に、投射システム1Bに複数のプロジェクター20が含まれてもよい。また、投射システム1Aに複数のカメラ30が含まれてもよい。
(5)上記第1実施形態における制御装置10Aが単体で製造又は販売されてもよい。1又は複数のプロジェクター20と1又は複数のカメラ30とを含み、プロジェクションマッピングを実現する従来の投射システムに制御装置10Aを追加することで、当該従来の投射システムにおいて本開示の投射方法を実行することが可能になる。同様に、第2実施形態における制御装置10Bが単体で製造又は販売されてもよい。
(6)上記第1実施形態では、投射対象物PSに投射画像を投射するプロジェクター20と、投射画像を表す画像データを生成する制御装置10Aとが別個の装置であったが、制御装置10Aはプロジェクター20に含まれてもよく、また、カメラ30に含まれてもよい。第2実施形態における制御装置10Bについても同様に、当該制御装置10Bがプロジェクター20に含まれてもよい。なお、上記第1実施形態における取得部141A、第1生成部142A、第2生成部143A、変換部144A、及び投射制御部145はソフトウェアモジュールであったが、ASIC(Application Specific Integrated Circuit)等のハードウェアモジュールであってもよい。上記第2実施形態における取得部141B、第1生成部142B、第2生成部143B、変換部144B、及び投射制御部145もASIC等のハードウェアモジュールであってもよい。
(7)上記第1実施形態におけるプログラムPAが単体で製造されてもよく、有償又は無償で配布されてもよい。プログラムPAの具体的な配布方法としては、フラッシュROM(Read Only Memory)等のコンピューター読み取り可能な記録媒体にプログラムPAを書き込んで配布する態様、又はインターネット等の電気通信回線経由のダウンロードにより配布する態様が考えられる。これらの態様により配布されるプログラムPAに従って一般的なコンピューターを作動させることで、当該コンピューターを制御装置10Aとして機能させることができる。制御装置10Aとしてコンピューターを用いる場合には、入力装置120としてマウスとキーボードの少なくとも一方が用いられてもよい。同様に、上記第2実施形態におけるプログラムPBが単体で製造されてもよく、有償又は無償で配布されてもよい。
(8)上記第1実施形態において投射対象物PS、プロジェクター20の3次元位置及び光軸の向き、及び、カメラ30の3次元位置及び光軸の向き、が固定されている場合には、第1位置情報DA1、第1姿勢情報DB1、第2位置情報DA2、及び第2姿勢情報DB2を予め生成して記憶装置130に記憶させておくごとができる。この場合、第1生成部142Aは不要であり、第1生成処理SA110も省略可能である。第2実施形態についても同様に、投射対象物PS、プロジェクター20の3次元位置及び光軸の向き、及び、視点VPの3次元位置及び視点VPから仮想物体VPSを見る方向が固定されている場合には、第1生成部142Bは不要であり、第1生成処理SB110も省略可能である。
4.実施形態及び各変形例の少なくとも1つから把握される態様
本開示は、上述した実施形態及び変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の態様で実現することができる。例えば、本開示は、以下の態様によっても実現可能である。以下に記載した各態様中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、或いは本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
本開示の投射方法の一態様は、以下の取得処理SA100、第2生成処理SA120、変換処理SA130、及び投射制御処理SA140を含む。取得処理SA100は、投射対象物PSをカメラ30によって撮像することにより得られた撮像画像を取得する処理である。投射対象物PSをカメラ30によって撮像することにより得られた撮像画像は本開示における第1画像の一例である。第2生成処理SA120は、取得処理SA100にて取得された撮像画像において投射対象物PSが占める領域にユーザーが描画オブジェクトを描画する操作を受け付けることによって、撮像画像における描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成する処理である。変換処理SA130は、第1オブジェクト情報を、投射対象物PSの表面に描画オブジェクトが配置された場合に投射対象物PSの表面に配置される描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換する処理である。変換処理SA130では、第1オブジェクト情報は、カメラ30と投射対象物PSとの相対3次元位置を示す第1位置情報DA1、及びカメラ30の光軸の向きを示す第1姿勢情報DB1に基づいて、第2オブジェクト情報に変換される。投射制御処理SA140は、第2オブジェクト情報を、プロジェクター20から投射する画像上の描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、描画オブジェクトを含む投射画像をプロジェクター20から投射対象物PSへ投射する処理である。投射制御処理SA140では、第2オブジェクト情報は、プロジェクター20と投射対象物PSとの相対3次元位置を示す第2位置情報DA2、及びプロジェクター20の光軸の向きを示す第2姿勢情報DB2に基づいて、第3オブジェクト情報に変換される。本態様の投射方法によれば、投射対象物PSの撮像画像に対してユーザーが描画した画像を、正確な3次元位置に正確な形状でプロジェクター20から投射対象物PSに投射することが可能になる。
より好ましい態様の投射方法は、第1位置情報DA1、第1姿勢情報DB1、第2位置情報DA2及び第2姿勢情報DB2を生成する第1生成処理SA110を更に含んでもよい。本態様によれば、投射対象物PSに対するカメラ30の相対3次元位置及び姿勢と投射対象物PSに対するプロジェクター20の相対3次元位置及び姿勢を任意に設定することが可能になる。
第1生成処理SA110を含む態様の投射方法では、投射対象物PSの表面に、各々の3次元位置が既知の複数のマーカーMが配置されてもよい。この態様では、第1生成処理SA110は、以下の第1処理、第2処理、及び第3処理を含んでもよい。第1処理は、撮像画像における複数のマーカーMの各々の2次元位置に基づいて第1位置情報DA1及び第1姿勢情報DB1を生成する処理である。第2処理は、カメラ30とプロジェクター20との相対3次元位置を示す第3位置情報DA3と第1位置情報DA1とに基づき第2位置情報DA2を生成する処理である。第3処理は、カメラ30とプロジェクター20との相対姿勢を示す第3姿勢情報DB3と第1姿勢情報DB1とに基づき第2姿勢情報DB2を生成する処理である。本態様によれば、投射対象物PSの表面に配置される複数のマーカーMに基づいて第1位置情報DA1、第1姿勢情報DB1、第2位置情報DA2及び第2姿勢情報DB2を生成することが可能になる。
第1生成処理SA110を含む態様の別の態様の投射方法では、第1生成処理SA110は、以下、第4処理、第5処理、第6処理、及び第7処理を含んでもよい。第4処理は、撮像画像に写っている投射対象物PSの表面に各々位置し、且つ各々の3次元位置が既知の複数の特徴点を選択する操作を受け付ける処理である。第5処理は、撮像画像における複数の特徴点の各々の2次元位置に基づいて第1位置情報DA1及び第1姿勢情報DB1を生成する処理である。第6処理は、カメラ30とプロジェクター20との相対3次元位置を示す第3位置情報DA3と第1位置情報DA1とに基づき第2位置情報DA2を生成する処理である。第7処理は、カメラ30とプロジェクター20との相対姿勢を示す第3姿勢情報DB3と第1姿勢情報DB1とに基づき第2姿勢情報DB2を生成する処理である。本態様によれば、投射対象物PSの表面に位置する複数の特徴点に基づいて第1位置情報DA1、第1姿勢情報DB1、第2位置情報DA2及び第2姿勢情報DB2を生成することが可能になる。
また、本開示の別の態様の投射方法は、取得処理SB100、第2生成処理SB120、変換処理SB130、及び投射制御処理SA140を含む。取得処理SB100は、投射対象物PSを模擬した仮想物体及び投射対象物PSに画像を投射するプロジェクター20を模擬した仮想プロジェクターを含み、仮想物体と仮想プロジェクターとの相対3次元位置が投射対象物PSとプロジェクター20との相対3次元位置に応じて定まる仮想空間において、ユーザーによって設定された視点から仮想物体を見た仮想撮像画像を取得する処理である。仮想撮像画像は本開示における第1画像の一例である。第2生成処理SB120では、仮想撮像画像において仮想物体が占める領域にユーザーが描画オブジェクトを描画する操作が受け付けられる。第2生成処理SB120では、仮想撮像画像における描画オブジェクトの2次元位置を示す第1オブジェクト情報が生成される。変換処理SB130では、ユーザーによって設定された視点と仮想物体との相対3次元位置を示す第1位置情報DA1に基づき、第1オブジェクト情報が第2オブジェクト情報に変換される。本態様における第2オブジェクト情報は、仮想物体の表面に描画オブジェクトが配置された場合に、投射対象物の表面に配置された描画オブジェクトの3次元位置を示す。投射制御処理SA140では、第2オブジェクト情報は、第2位置情報DA2及び第2姿勢情報DB2に基づいて第3オブジェクト情報に変換される。本態様における第2位置情報DA2は仮想プロジェクターと仮想物体との相対3次元位置を示す。また、本態様における第2姿勢情報DB2は仮想プロジェクターの光軸の向きを示す。本態様の投射方法によっても、仮想撮像画像に対してユーザーが描画した画像を、正確な3次元位置に正確な形状でプロジェクター20から投射対象物PSに投射することが可能になる。
より好ましい態様の投射方法における取得処理SB100は、視点の3次元位置を設定する操作を受け付けることを、更に含んでもよい。本態様によれば、視点の3次元位置を任意に設定して仮想撮像画像を取得することが可能になる。
別の好ましい態様の投射方法では、仮想空間に設定される視点は、仮想物体を正対視する3次元位置にある。本態様によれば、仮想物体を正対視した仮想撮像画像に基づいてユーザーに、投射対象物PSに投射する描画オブジェクトを描画させることが可能になる。
仮想空間に設定される視点が仮想物体を正対視する3次元位置にある態様の投射方法は、第1位置情報DA1、及び第2位置情報DA2を生成する第1生成処理SB110を更に含んでもよい。本態様によれば、仮想物体に対する視点の相対3次元位置、及び投射対象物PSに対するプロジェクター20の相対3次元位置を任意に設定することが可能になる。
第1生成処理SB110を含む態様の投射方法は、投射対象物の表面には、各々の3次元位置が既知の複数のマーカーMが配置されてもよい。この態様の投射方法における第1生成処理SB110は、第8処理、第9処理、及び第10処理を含んでもよい。第8処理は、複数のマーカーMが表面に配置された投射対象物PSを、仮想空間に設定された視点に対応する3次元位置に設置されたカメラ30によって撮像することにより得られる撮像画像を取得する処理である。第9処理は、この撮像画像における複数のマーカーMの各々の2次元位置に基づいて第1位置情報DA1を生成する処理である。第10処理は、カメラ30とプロジェクター20との相対3次元位置を示す第3位置情報DA3と第1位置情報DA1とに基づき第2位置情報DA2を生成する処理である。なお、上記撮像画像は本開示における第2画像の一例である。
また、第1生成処理SB110を含む別の態様の投射方法では、第1生成処理SB110は、以下の第11処理、第12処理、第13処理、及び第14処理を含んでもよい。第11処理は、仮想空間に設定される視点に対応する3次元位置に設置されたカメラ30によって投射対象物PSを撮像することにより得られる撮像画像を取得する処理である。第12処理は、この撮像画像に写っている投射対象物PSの表面に各々位置し、且つ各々の3次元位置が既知の複数の特徴点を選択する操作を受け付ける処理である。第13処理は、上記撮像画像における複数の特徴点の各々の2次元位置に基づいて第1位置情報DA1を生成する処理である。第14処理は、カメラ30とプロジェクター20との相対3次元位置を示す第3位置情報DA3と第1位置情報DA1とに基づき、第2位置情報DA2を生成する処理である。本態様における撮像画像も、本開示における第2画像の一例である。
また、本開示の一態様の投射システムは、投射対象物PSに画像を投射するプロジェクター20と、ユーザーの操作を受け付ける入力装置120と、処理装置140と、を含む。処理装置140は、前述した取得処理SA100、第2生成処理SA120、変換処理SA130、及び投射制御処理SA140を実行する。本態様の投射システムによっても、投射対象物PSのカメラ30による撮像画像に対してユーザーが描画した画像を、正確な3次元位置に正確な形状でプロジェクター20から投射対象物PSに投射することが可能になる。
また、プロジェクター20と、入力装置120と、処理装置140と、を含む別の態様の投射システムにおいて、処理装置140は、前述した取得処理SB100、第2生成処理SB120、変換処理SB130、及び投射制御処理SA140を実行してもよい。本態様の投射方法によっても、仮想撮像画像に対してユーザーが描画した画像を、正確な3次元位置に正確な形状でプロジェクター20から投射対象物PSに投射することが可能になる。
1A、1B…投射システム、10A,10B…制御装置、100…通信装置、110…表示装置、120…入力装置、130…記憶装置、140…処理装置、141A、141B…取得部、142A、142B…第1生成部、143A,143B…第2生成部、144A、144B…変換部、145…投射制御部、20…プロジェクター、30…カメラ、PA,PB…プログラム。

Claims (12)

  1. 投射対象物をカメラによって撮像することにより得られた第1画像を取得することと、
    前記第1画像においてユーザーが描画オブジェクトを描画する操作を受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、
    前記カメラと前記投射対象物との相対3次元位置を示す第1位置情報、及び前記カメラの光軸の向きを示す第1姿勢情報に基づいて、前記第1オブジェクト情報を、前記投射対象物の表面に前記描画オブジェクトが配置された場合の前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、
    プロジェクターと前記投射対象物との相対3次元位置を示す第2位置情報、及び前記プロジェクターの光軸の向きを示す第2姿勢情報に基づいて、前記第2オブジェクト情報を、前記プロジェクターから投射する画像上の前記描画オブジェクトの位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、
    を含む投射方法。
  2. 前記第1位置情報、前記第1姿勢情報、前記第2位置情報、及び前記第2姿勢情報を生成すること、を更に含む、
    請求項1に記載の投射方法。
  3. 前記投射対象物の表面には、各々の3次元位置が既知の複数のマーカーが配置され、
    前記第1位置情報、前記第1姿勢情報、前記第2位置情報、及び前記第2姿勢情報を生成することは、
    前記第1画像における前記複数のマーカーの各々の2次元位置に基づいて前記第1位置情報及び前記第1姿勢情報を生成すること、
    前記カメラと前記プロジェクターとの相対3次元位置を示す第3位置情報と前記第1位置情報とに基づき前記第2位置情報を生成すること、及び、
    前記カメラと前記プロジェクターとの相対姿勢を示す第3姿勢情報と前記第1姿勢情報とに基づき前記第2姿勢情報を生成すること、を含む、
    請求項2に記載の投射方法。
  4. 前記第1位置情報、前記第1姿勢情報、前記第2位置情報、及び前記第2姿勢情報を生成することは、
    前記第1画像に写っている前記投射対象物の表面に各々位置し、且つ各々の3次元位置が既知の複数の特徴点を選択する操作を受け付けること、
    前記第1画像における前記複数の特徴点の各々の2次元位置に基づいて前記第1位置情報及び前記第1姿勢情報を生成すること、
    前記カメラと前記プロジェクターとの相対3次元位置を示す第3位置情報と前記第1位置情報とに基づき前記第2位置情報を生成すること、及び、
    前記カメラと前記プロジェクターとの相対姿勢を示す第3姿勢情報と前記第1姿勢情報とに基づき前記第2姿勢情報を生成すること、を含む、
    請求項2に記載の投射方法。
  5. 投射対象物を模擬した仮想物体及び前記投射対象物に画像を投射するプロジェクターを模擬した仮想プロジェクターを含み、前記仮想物体と前記仮想プロジェクターとの相対3次元位置が前記投射対象物と前記プロジェクターとの相対3次元位置に応じて定まる仮想空間において、ユーザーによって設定された視点から前記仮想物体を見た第1画像を取得することと、
    前記第1画像において前記ユーザーが描画オブジェクトを描画する操作を受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、
    前記視点と前記仮想物体との相対3次元位置を示す第1位置情報に基づき、前記第1オブジェクト情報を、前記仮想物体の表面に前記描画オブジェクトが配置された場合に、前記投射対象物の表面に配置された前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、
    前記仮想プロジェクターと前記仮想物体との相対3次元位置を示す第2位置情報、及び前記仮想プロジェクターの光軸の向きを示す姿勢情報に基づいて、前記第2オブジェクト情報を、前記仮想プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、
    を含む投射方法。
  6. 前記視点の3次元位置を設定する操作を受け付けることを、更に含む、
    請求項5に記載の投射方法。
  7. 前記視点は、前記仮想物体を正対視する3次元位置にある請求項5に記載の投射方法。
  8. 前記第1位置情報及び前記第2位置情報を生成すること、を更に含む、
    請求項5乃至7のうちの何れか1項に記載の投射方法。
  9. 前記投射対象物の表面には、各々の3次元位置が既知の複数のマーカーが配置され、
    前記第1位置情報及び前記第2位置情報を生成することは、
    前記複数のマーカーが表面に配置された前記投射対象物を前記視点に対応する3次元位置に設置されたカメラによって撮像することにより得られる第2画像を取得すること、
    前記第2画像における前記複数のマーカーの各々の2次元位置に基づいて前記第1位置情報を生成すること、及び、
    前記カメラと前記プロジェクターとの相対3次元位置を示す第3位置情報と前記第1位置情報とに基づき前記第2位置情報を生成すること、を含む、
    請求項8に記載の投射方法。
  10. 前記第1位置情報及び前記第2位置情報を生成することは、
    前記投射対象物を前記視点に対応する3次元位置に設置されたカメラによって撮像することにより得られる第2画像を取得すること、
    前記第2画像に写っている前記投射対象物の表面に各々位置し、且つ各々の3次元位置が既知の複数の特徴点を選択する操作を受け付けること、
    前記第2画像における前記複数の特徴点の各々の2次元位置に基づいて前記第1位置情報を生成すること、及び、
    前記カメラと前記プロジェクターとの相対3次元位置を示す第3位置情報と前記第1位置情報とに基づき、前記第2位置情報を生成すること、を含む、
    請求項8に記載の投射方法。
  11. 投射対象物に画像を投射するプロジェクターと、
    ユーザーの操作を受け付ける入力装置と、
    処理装置と、を含み、
    前記処理装置は、
    前記投射対象物をカメラによって撮像することにより得られた第1画像を取得することと、
    前記第1画像において描画オブジェクトを描画する操作を前記入力装置によって受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、
    前記カメラと前記投射対象物との相対3次元位置を示す第1位置情報、及び前記カメラの光軸の向きを示す第1姿勢情報に基づいて、前記第1オブジェクト情報を、前記投射対象物の表面に前記描画オブジェクトが配置された場合の前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、
    前記プロジェクターと前記投射対象物との相対3次元位置を示す第2位置情報、及び前記プロジェクターの光軸の向きを示す第2姿勢情報に基づいて、前記第2オブジェクト情報を、前記プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、を実行する、
    投射システム。
  12. 投射対象物に画像を投射するプロジェクターと、
    ユーザーの操作を受け付ける入力装置と、
    処理装置と、を含み、
    前記処理装置は、
    前記投射対象物を模擬した仮想物体及び前記プロジェクターを模擬した仮想プロジェクターを含み、前記仮想物体と前記仮想プロジェクターとの相対3次元位置が前記投射対象物と前記プロジェクターとの相対3次元位置に応じて定まる仮想空間において、前記入力装置に対する操作によって設定された視点から前記仮想物体を見た第1画像を取得することと、
    前記第1画像において前記ユーザーが描画オブジェクトを描画する操作を前記入力装置によって受け付けることによって、前記第1画像における前記描画オブジェクトの2次元位置を示す第1オブジェクト情報を生成することと、
    前記視点と前記仮想物体との相対3次元位置を示す第1位置情報に基づき、前記第1オブジェクト情報を、前記仮想物体の表面に前記描画オブジェクトが配置された場合に、前記投射対象物の表面に配置された前記描画オブジェクトの3次元位置を示す第2オブジェクト情報に変換することと、
    前記仮想プロジェクターと前記仮想物体との相対3次元位置を示す第2位置情報、及び前記仮想プロジェクターの光軸の向きを示す姿勢情報に基づいて、前記第2オブジェクト情報を、前記仮想プロジェクターから投射する画像上の前記描画オブジェクトの2次元位置を示す第3オブジェクト情報に変換することによって、前記描画オブジェクトを含む投射画像を前記プロジェクターから前記投射対象物へ投射することと、を実行する、
    投射システム。
JP2021152923A 2021-09-21 2021-09-21 投射方法、及び投射システム Active JP7380661B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021152923A JP7380661B2 (ja) 2021-09-21 2021-09-21 投射方法、及び投射システム
CN202211134743.9A CN115842905B (zh) 2021-09-21 2022-09-19 投射方法以及投射***
US17/948,820 US20230092033A1 (en) 2021-09-21 2022-09-20 Projection method and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021152923A JP7380661B2 (ja) 2021-09-21 2021-09-21 投射方法、及び投射システム

Publications (2)

Publication Number Publication Date
JP2023044838A JP2023044838A (ja) 2023-04-03
JP7380661B2 true JP7380661B2 (ja) 2023-11-15

Family

ID=85571742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021152923A Active JP7380661B2 (ja) 2021-09-21 2021-09-21 投射方法、及び投射システム

Country Status (3)

Country Link
US (1) US20230092033A1 (ja)
JP (1) JP7380661B2 (ja)
CN (1) CN115842905B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192189A (ja) 2012-03-15 2013-09-26 Casio Comput Co Ltd 画像処理装置、投影システム、プログラム及び画像処理方法
JP2017085234A (ja) 2015-10-23 2017-05-18 セイコーエプソン株式会社 携帯端末、プロジェクター、投写システム、投写システムの制御方法およびプログラム
WO2017179432A1 (ja) 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 3次元的な投影対象のための画像投影方法及び画像投影装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003115055A (ja) * 2001-10-05 2003-04-18 Canon Inc 画像生成装置
JP2010034720A (ja) * 2008-07-28 2010-02-12 Fuji Xerox Co Ltd 指示システム、指示装置、端末装置、指示プログラム及び端末用プログラム
JP5200800B2 (ja) * 2008-09-16 2013-06-05 富士ゼロックス株式会社 撮影装置及び撮影システム
JP5615651B2 (ja) * 2010-09-28 2014-10-29 京セラ株式会社 電子機器および投影システム
US9578076B2 (en) * 2011-05-02 2017-02-21 Microsoft Technology Licensing, Llc Visual communication using a robotic device
US9304582B1 (en) * 2013-12-19 2016-04-05 Amazon Technologies, Inc. Object-based color detection and correction
WO2016194191A1 (ja) * 2015-06-04 2016-12-08 日立マクセル株式会社 投射型映像表示装置および映像表示方法
US10574956B2 (en) * 2015-08-07 2020-02-25 Christie Digital Systems Usa, Inc. System and method for automatic alignment and projection mapping
JP2018056924A (ja) * 2016-09-30 2018-04-05 匡佑 安本 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス
JP7088530B2 (ja) * 2018-02-08 2022-06-21 元治 藤垣 3次元計測対象物体の表面に計測結果関連情報を投影する方法および装置
KR20200028532A (ko) * 2018-09-06 2020-03-17 주식회사 비즈모델라인 영상 투영 기능을 구비한 카메라장치
JP7094400B2 (ja) * 2019-02-13 2022-07-01 三菱電機株式会社 シミュレーション装置およびシミュレーション方法
US11206294B2 (en) * 2020-03-31 2021-12-21 Konica Minolta Business Solutions U.S.A., Inc. Method for separating local and remote content in a camera-projector based collaborative system
JPWO2022080260A1 (ja) * 2020-10-13 2022-04-21

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013192189A (ja) 2012-03-15 2013-09-26 Casio Comput Co Ltd 画像処理装置、投影システム、プログラム及び画像処理方法
JP2017085234A (ja) 2015-10-23 2017-05-18 セイコーエプソン株式会社 携帯端末、プロジェクター、投写システム、投写システムの制御方法およびプログラム
WO2017179432A1 (ja) 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 3次元的な投影対象のための画像投影方法及び画像投影装置

Also Published As

Publication number Publication date
US20230092033A1 (en) 2023-03-23
JP2023044838A (ja) 2023-04-03
CN115842905B (zh) 2024-05-28
CN115842905A (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN107564069B (zh) 标定参数的确定方法、装置及计算机可读存储介质
US6031941A (en) Three-dimensional model data forming apparatus
CN105026997B (zh) 投影***、半导体集成电路及图像修正方法
JP4677273B2 (ja) 情報処理方法および情報処理装置
US5982378A (en) System and method for modeling a three dimensional object
JP2015219679A (ja) 画像処理システム、情報処理装置、プログラム
CN110648274B (zh) 鱼眼图像的生成方法及装置
EP3330928A1 (en) Image generation device, image generation system, and image generation method
JP2005135355A (ja) データオーサリング処理装置
CN111062869B (zh) 一种面向曲面幕的多通道校正拼接的方法
CN110312111A (zh) 用于图像装置的自动校准的装置、***和方法
JP2002071315A (ja) 投影平面計測システム
CN111880649A (zh) Ar观景仪的演示方法、***及计算机可读储存介质
CN112912936A (zh) 混合现实***、程序、移动终端装置和方法
JP2015233266A (ja) 画像処理システム、情報処理装置、プログラム
JP2016162392A (ja) 3次元画像処理装置および3次元画像処理システム
JP4746717B2 (ja) 画像生成システム、画像生成方法、コンピュータプログラムおよびコンピュータプログラムを記録した記録媒体
CN111627100A (zh) 一种用于评价摄影测量精度的数值模拟方法
RU2735066C1 (ru) Способ отображения широкоформатного объекта дополненной реальности
JP2013231607A (ja) 校正器具表示装置、校正器具表示方法、校正装置、校正方法、校正システム及びプログラム
JP7380661B2 (ja) 投射方法、及び投射システム
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP6253834B1 (ja) 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
CN116128744A (zh) 消除图像畸变的方法、电子设备、存储介质及车辆
JP2008040913A (ja) 情報処理方法、情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7380661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150