JP7417827B2 - 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム - Google Patents

画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム Download PDF

Info

Publication number
JP7417827B2
JP7417827B2 JP2020141145A JP2020141145A JP7417827B2 JP 7417827 B2 JP7417827 B2 JP 7417827B2 JP 2020141145 A JP2020141145 A JP 2020141145A JP 2020141145 A JP2020141145 A JP 2020141145A JP 7417827 B2 JP7417827 B2 JP 7417827B2
Authority
JP
Japan
Prior art keywords
image
target image
model
dimensional
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020141145A
Other languages
English (en)
Other versions
JP2022036773A (ja
Inventor
征浩 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Psychic Vr Lab
Original Assignee
Psychic Vr Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Psychic Vr Lab filed Critical Psychic Vr Lab
Priority to JP2020141145A priority Critical patent/JP7417827B2/ja
Publication of JP2022036773A publication Critical patent/JP2022036773A/ja
Application granted granted Critical
Publication of JP7417827B2 publication Critical patent/JP7417827B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、拡張現実又は複合現実に好適な画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラムに関する。
従来より、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報を重畳する拡張現実(AR)システムが知られている(例えば、特許文献1参照。)。
特開2010-238096号公報
ところで、上述のような拡張現実(AR)を実現するためには、予め、付加情報など、その実空間の所定位置に表示したい画像を実空間と対応付けるための画像編集を行う必要がある。また、実際の風景の中に、仮想的な画像をリアルに表示するためには、背景と仮想的な画像の前後関係を正しく反映した合成映像を生成する必要がある。しかしながら、背景と仮想的な画像の前後関係を正しく反映させ、実際の場所で意図したとおりの画像をユーザに見せるように、予め画像編集することは容易でない。
本発明の目的は、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易な画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラムを提供することである。
本発明に係る画像編集方法は、(A1)所定の現実空間が表わされた3Dモデルを画像表示し、(A2)前記画像表示された3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置の入力操作を受け付け、(A3)前記3Dモデルに対して前記指定位置に前記目的画像を対応付けた三次元貼付位置情報を生成し、(A4)前記現実空間を、所定の視点位置を中心に水平方向に360度撮影した全周画像を含む事前実写データに基づいて前記視点位置から所定の視線方向に見た事前実写画像と、前記三次元貼付位置情報における前記目的画像を前記視点位置から前記視線方向に見たときの画像とを重ね合わせ、(A5)前記重ね合わせられた画像における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記事前実写画像を表示せずに前記目的画像を表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記事前実写画像を表示する。
また、本発明に係る画像編集システムは、上述の画像編集方法を実行する。
また、本発明に係る画像編集プログラムは、上述の画像編集方法を、コンピュータに実行させる。
これらの画像編集方法、画像編集システム、及び画像編集プログラムによれば、(A2)で、編集作業者が、画像表示された3Dモデル上における、所望の三次元の指定位置に目的画像を張り付けた三次元貼付位置情報を生成することができる。そして、所定の視点位置を中心に水平方向に360度撮影した全周画像を含む事前実写データを用いて(A3)~(A5)が実行されるので、その三次元貼付位置情報を用いて現実空間でユーザが拡張現実(AR)又は複合現実(MR)によって体験するであろう景色の、水平方向に360度の範囲内で所定の視線方向からみた画像を、作業者が実際にその現実空間を訪れることなく、確認することができる。その結果、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることができる三次元貼付位置情報を生成することが容易となり、従って、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
また、(A6)前記(A5)の後に新たな前記視線方向の入力操作を受け付け、前記新たな視点位置から前記新たな視線方向に見た3Dモデルを画像表示し、(A7)前記(A6)で表示された画像と前記新たな視線方向とに基づいて再び前記(A2)~(A5)を実行することが好ましい。
この構成によれば、編集作業者は、水平方向に360度の範囲内で、自由に視線方向を変化させて、上述のその三次元貼付位置情報を用いて現実空間でユーザが拡張現実(AR)又は複合現実(MR)によって体験するであろう景色の画像を確認することができる。その結果、現実空間でユーザが視線方向を動かした場合でも、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることができる三次元貼付位置情報を生成することが容易となる。
また、前記事前実写データは、前記視点位置を中心に水平方向に360度、水平方向と交差する方向に180度撮影した半天球画像を少なくとも含むことが好ましい。
この構成によれば、変化させることのできる視線方向の自由度が増大する。
また、前記目的画像は、静止画、動画、又はコンピュータグラフィックスであることが好ましい。
この構成によれば、現実空間の景色に、静止画、動画、又はコンピュータグラフィックスが表示された拡張現実(AR)又は複合現実(MR)をユーザに体験させることができる。
また、本発明に係る画像表示方法は、上述の画像編集方法によって生成された前記三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、(B1)前記現実空間を撮像する撮像部と前記撮像部で撮像された実写画像を表示する表示部とを備えた非透過型端末装置に前記三次元貼付位置情報を記憶させ、(B2)前記非透過型端末装置を前記現実空間に位置させ、(B3)前記撮像部によって前記現実空間を実写して実写画像を取得すると共に前記実写の視点位置及び前記実写の視線方向を取得し、(B4)前記三次元貼付位置情報における前記目的画像を、前記(B3)で取得された前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記実写画像を表示せずに前記変換された目的画像を表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記実写画像を表示する。
この方法によれば、上述の画像編集方法によって生成された三次元貼付位置情報を用いて、非透過型端末装置によって、ユーザに拡張現実(AR)又は複合現実(MR)を体験させることができるので、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
また、本発明に係る画像表示方法は、上述の画像編集方法によって生成された三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、(C1)ユーザが前記現実空間を直接視認可能な直接視認型端末装置に前記三次元貼付位置情報を記憶させ、(C2)前記直接視認型端末装置を前記現実空間に位置させ、(C3)前記ユーザの視点位置及び前記ユーザの視線方向を取得し、(C4)前記三次元貼付位置情報における前記目的画像を、前記(C3)で取得された前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記変換された目的画像を前記ユーザに視認させ、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を前記ユーザに視認させない。
この方法によれば、上述の画像編集方法によって生成された三次元貼付位置情報を用いて、直接視認型端末装置によって、ユーザに拡張現実(AR)又は複合現実(MR)を体験させることができるので、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
このような構成の画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラムは、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
本発明の一実施形態に係る画像編集方法を実行する画像編集システムの構成の一例を示すブロック図である。 図1に示す画像編集システムの動作の一例を示すフローチャートである。 図1に示す画像編集システムの動作の一例を示すフローチャートである。 3Dモデルを、事前実写データの視点位置からみた画像の一例である。 目的画像の一例を示す説明図である。 3Dモデル上の指定された三次元の位置に、目的画像を張り付けた状態を図示した説明図である。 3Dモデルの表示画像に対して、視点位置と視線方向とを一致させた事前実写画像の一例を示す説明図である。 ステップS8でディスプレイに表示される画像の一例を示す説明図である。 非透過型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。 直接視認型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。図1は、本発明の一実施形態に係る画像編集方法を実行する画像編集システムの構成の一例を示すブロック図である。図1に示す画像編集システム1は、後述する拡張現実(AR)又は複合現実(MR)に用いる画像を編集する装置である。
画像編集システム1は、例えば、いわゆるパーソナルコンピューターから構成されている。画像編集システム1は、例えば、演算部10、ディスプレイ11、キーボード12、マウス13、及び記憶部14を備えている。
ディスプレイ11は、例えば液晶表示装置や有機ELパネル等の表示装置である。キーボード12及びマウス13は、作業者の入力操作を受け付ける入力操作部である。なお、ディスプレイ11をタッチパネルディスプレイとすることによって、ディスプレイ11が表示装置と入力操作部とを兼ねてもよい。
記憶部14は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置である。記憶部14には、事前実写データ141、3Dモデル142、目的画像143、及びコンピュータに本発明の一実施形態に係る画像編集方法を実行させる画像編集プログラム145が予め記憶されている。
事前実写データ141は、所定の現実空間を、所定の視点位置を中心に上下左右全方位360度撮影した全天球画像の画像データである。なお、事前実写データ141は、少なくとも所定の視点位置を中心に水平方向に360度撮影した全周画像を含んでいればよく、全天球画像でなくてもよい。事前実写データ141は、例えば、視点位置を中心に水平方向に360度、水平方向と交差する方向に180度撮影した半天球画像であってもよい。
事前実写データ141は、全周画像よりも半天球画像、半天球画像よりも全天球画像の方が、後述する画像編集の際に、視線方向変更の自由度が向上する点でより好ましい。
事前実写データ141は、例えば東京渋谷スクランブル交差点、東京タワー横、大阪駅前、京都嵐山渡月橋のたもと、建築物の内部等の現実の場所に設定された視点位置に、いわゆる全天球カメラや半天球カメラを設置して撮影したり、視野角の狭いカメラで撮影方向を全天球、半天球、又は全周に移動させて撮影したりすることができる。
3Dモデル142は、事前実写データ141によって撮影された現実空間と同じ空間が3Dモデルとして表わされたデータである。3Dモデル142としては、例えば事前実写データ141を撮影したのと同じ視点位置から、3Dスキャナでスキャンした三次元計測データを用いることができる。3Dモデル142は、対応する事前実写データ141が含んでいる全周画像、半天球画像、又は全天球画像の範囲の領域の三次元構造を示す情報を含んでいる。
3Dスキャナとしては、例えばレーザー光により三次元測量を行うLiDAR(Light Detection and Ranging)や、ミリ波レーダー、複眼カメラによる三角測量により三次元測量を行うもの、又はカメラを移動させて撮像された画像により三次元測量を行うもの等、現実の空間を三次元で測量可能な種々の三次元測量装置を用いることができる。
3Dモデル142は、必ずしも3Dスキャナによってスキャンされたデータそのものである必要はなく、3Dスキャナによってスキャンされたデータを加工等したものであってもよい。
あるいは、現実空間が建築物の内部である場合など、その背景として見える建築物等の三次元設計データを3Dモデル142として用いてもよい。
なお、同じ現実空間の事前実写データ141と3Dモデル142とを対にして、異なる場所の複数の現実空間に対応する複数対の事前実写データ141と3Dモデル142とが記憶部14に記憶されていることが好ましい。後述するフローチャートでは、複数の場所に対応する複数対の事前実写データ141と3Dモデル142とが記憶部14に記憶されている場合について示している。
また、事前実写データ141及び3Dモデル142は、記憶部14に記憶される例に限らない。例えば画像編集システム1から遠隔のサーバ装置等に事前実写データ141及び3Dモデル142が記憶されていてもよい。そして、画像編集システム1は、ネットワーク等を介して事前実写データ141及び3Dモデル142を取得してもよい。
また、画像編集システム1は、ディスプレイ11、キーボード12、及びマウス13を備えず、作業者は、画像編集システム1にネットワークを介して接続された操作端末を操作することによって、画像編集システム1への入力操作を行ってもよい。
目的画像143は、後述する拡張現実(AR)又は複合現実(MR)を実施するユーザに対して、現実空間と重なって見せようとする画像である。目的画像143は、静止画、動画、又はコンピュータグラフィックス(CG)であってもよい。目的画像143は、いわゆる画像データに限られず、プログラムによって画像が動くコンピュータグラフィックスであってもよい。
演算部10は、例えば所定の演算処理を実行するCPU(Central Processing Unit)、データを一時的に記憶するRAM(Random Access Memory)、不揮発性の記憶素子、及びこれらの周辺回路等から構成されている。演算部10は、画像編集プログラム145を実行することによって、表示制御部101、及び貼付位置情報生成部102として機能する。
次に、上述のように構成された画像編集システム1の動作について説明する。図2、図3は、図1に示す画像編集システム1の動作の一例を示すフローチャートである。まず、作業者は、マウス13等を操作して、記憶部14に記憶された複数対の、事前実写データ141及び3Dモデル142の中から、所望の場所に対応する事前実写データ141及び3Dモデル142を選択する(ステップS1)。これにより、マウス13等によって、作業者の選択が受け付けられる。
次に、表示制御部101は、ステップS1で選択された3Dモデル142を、事前実写データ141の視点位置Pからみた画像をディスプレイ11に表示させる(ステップS2:(A1))。図4は、3Dモデル142を、事前実写データ141の視点位置からみた画像の一例である。3Dモデル142は、現実空間の三次元の奥行情報を含むデータであるが、これを特定の視点位置からみたときに人間の目に見える画像と近似するように、遠近法で表された画像がディスプレイ11に表示される。
次に、マウス13等によって視線方向Dの入力操作が受け付けられ(ステップS3)、表示制御部101は、3Dモデル142の画像を、視点位置Pから、視線方向Dに見た画像に変更してディスプレイ11に表示させる(ステップS4)。これにより、作業者は、視点位置Pを中心にして、所望の方向を見たときの三次元構造を視覚的に確認することができる。
次に、マウス13等によって、画像表示された3Dモデル142上への目的画像143の貼り付けを指示する三次元の指定位置の入力操作が受け付けられる(ステップS5:(A2))。これにより、作業者は、所望の視線方向Dから見た3Dモデル142の画像を確認しつつ、目的画像143を表示したい三次元の位置を指定することができる。
次に、貼付位置情報生成部102は、3Dモデル142上の、指定された三次元の位置に、目的画像143を対応付けた三次元貼付位置情報144を生成する(ステップS6:(A3))。
三次元貼付位置情報144は、3Dモデル142と、目的画像143と、3Dモデル142の三次元の位置に目的画像143を対応付ける情報とを含んでいる。三次元貼付位置情報144は、一塊のデータファイルとして構成される例に限らない。例えば、3Dモデル142と、目的画像143と、3Dモデル142の三次元の位置に目的画像143を対応付ける情報とが別個のデータファイルとして構成され、三次元貼付位置情報144は、複数のデータファイルを含んでいてもよい。
図5は、目的画像143の一例を示す説明図である。図5には、目的画像143として、四つの目的画像G1~G4が記載されている。図5に示す目的画像G1~G4は、視点位置と視線方向とを、3Dモデル142の画像と一致させた状態で示している。
図6は、3Dモデル142上の指定された三次元の位置に、目的画像143を貼付けた状態を図示した説明図である。この状態では、単純に3Dモデル142の画像と目的画像143とが重ね合わされただけであり、3Dモデル142で示される構造を透視して目的画像G1~G4が見えている。
次に、表示制御部101は、視点位置Pから視線方向Dに事前実写データ141の画像を見た事前実写画像と、三次元貼付位置情報144における目的画像143を視点位置Pから視線方向Dに見たときの画像とをデータ上で重ね合わせる(ステップS7:(A4))。
図7は、視点位置Pから視線方向Dに事前実写データ141の画像を見た事前実写画像の一例を示す説明図である。図7に示す事前実写画像は、いわゆるショッピングモール内の画像であり、二階まで吹き抜けの通路Aの両側に店舗が並んでいる。通路A両側の店舗の二階同士が、通路Aを跨いで掛け渡された連絡通路B,Cでつながっている。
次に、表示制御部101は、ステップS7でデータ上で重ね合わせられた画像における、3Dモデル142と目的画像143の位置関係に基づき、目的画像143が3Dモデル142の手前に位置する部分では目的画像143をディスプレイ11に表示させ、3Dモデル142が目的画像143の手前に位置する部分では目的画像143を表示させずに事前実写画像をディスプレイ11に表示させる(ステップS8:(A5))。
図4、図7を比較して、図4に示す3Dモデル142は、三次元の構造を表しているものの、図7に示す事前実写画像の風景すなわち人間の目に見える風景とは異なっている。一方、図7に示す事前実写画像は三次元構造を有していないため、事前実写画像に直接目的画像143を張り付けると、背景と目的画像143の前後関係を表すことができない。
そこで、ステップS8において、三次元構造を示す3Dモデル142を含む三次元貼付位置情報144に基づいて背景と目的画像143との前後関係を特定し、人間の目に見える風景である事前実写画像に対して、立体的に見えるように目的画像143を重ね合わせる。
図8は、ステップS8でディスプレイ11に表示される画像の一例を示す説明図である。ステップS8では、三次元構造を有さない事前実写画像に対して、三次元構造を有する3Dモデル142と目的画像143の位置関係に基づき、視点位置からみて手前に位置するのが目的画像143であれば目的画像143を表示し、視点位置からみて手前に位置するのが3Dモデル142であればその部分の事前実写画像を表示する。
これにより、図8に示す例では、目的画像G1の一部や目的画像G3の上半分が連絡通路Bの陰に隠れて見える。その結果、拡張現実(AR)又は複合現実(MR)によって、ユーザが、現実空間におけるこの視点位置からみることになる風景と同様の画像を、作業者がディスプレイ11に表示される画像によって確認することができる。
次に、表示制御部101は、作業者による画像編集作業の終了指示の有無を確認する(ステップS11)。キーボード12又はマウス13によって、作業者による画像編集作業の終了指示が受け付けられた場合(ステップS11でYES)、表示制御部101は、処理を終了する。
一方、キーボード12又はマウス13によって、終了指示が受け付けられることなく(ステップS11でNO)、かつ新たな視線方向が受け付られない場合(ステップS12でNO)、再びステップS5~S11を繰り返す。これにより、視点方向は固定したまま、新たな目的画像143を3Dモデル142の指定された三次元の位置に対応付けて新たな三次元貼付位置情報144を生成し(ステップS5,S6)、事前実写データ141の画像に目的画像143を重ね合わせて三次元表示させる(ステップS7,S8)ことができる。
一方、新たな視線方向が受け付られた場合(ステップS12でYES)、表示制御部101は、受け付けられた新たな視線方向から見た3Dモデル142の画像をディスプレイ11に表示し(ステップS13:(A6))、すなわち視線方向を変更して、再びステップS5~S11を繰り返す。
事前実写データ141は全周画像、半天球画像、又は全天球画像であるので、少なくとも水平方向に360度視線方向を自由に変更することができ、実際に現実空間で三次元貼付位置情報144を用いて拡張現実(AR)又は複合現実(MR)によりユーザが見るであろう画像を、作業者は、実際に現実空間に行くことなく画像編集システム1を用いて確認することができる。その結果、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易な三次元貼付位置情報144を編集することができる。従って、拡張現実(AR)又は複合現実(MR)によって、現実空間でユーザに対して意図したとおりの拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。
次に、上述のようにして編集、生成された三次元貼付位置情報144を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する画像表示方法について説明する。拡張現実(AR)画像又は複合現実(MR)画像を表示する装置としては、非透過型端末装置又は直接視認型端末装置を用いることができる。
非透過型端末装置は、現実空間を撮像する撮像部と、撮像部で撮像された実写画像を表示する表示部とを備え、撮像部によって撮像された画像と目的画像143とを重畳させて表示する装置である。非透過型端末装置としては、例えば、スマートフォン、タブレット端末、カメラ付きヘッドセット等を用いることができる。カメラ付きヘッドセットとしては、例えばOculus社製カメラ付きVRヘッドセットや、Windows Mixed Reality(登録商標)互換のヘッドセット等、種々のヘッドセットを用いることができる。
直接視認型端末装置は、例えば透過型端末装置や、網膜走査型端末装置等、ユーザが直接現実空間を視認可能な端末装置である。
透過型端末装置は、例えば眼鏡レンズ状のスクリーンを透過してユーザが現実空間を直接視認可能な透過型のディスプレイ装置である。透過型端末装置は、ユーザがスクリーンを透過してみている景色に対して、スクリーン上に画像を投影することによって、現実空間の景色と画像とを重ね合わせるようになっている。
透過型端末装置としては、例えばHoloLens(登録商標)、Magic Leap(登録商標)等、種々のAR/MRグラスを用いることができる。
網膜走査型端末装置は、網膜走査型ディスプレイを用いてユーザに画像を視認させる。網膜走査型ディスプレイは、網膜に直接映像を照射することで、ユーザが直接見ている現実空間の景色に、目的画像143を重ねて視認させることができる。
非透過型端末装置及び直接視認型端末装置は、例えばGPS等、現在位置を取得する現在位置取得部を備えている。
図9は、非透過型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
まず、例えばユーザが三次元貼付位置情報144及び画像表示プログラムを、例えばネットワークを介して記憶部14や図略のサーバ装置等からダウンロードすることによって、自分の非透過型端末装置に記憶させる(ステップS21:(B1))。
次に、三次元貼付位置情報144に対応する現実空間に、ユーザが非透過型端末装置を持っていくことで、現実空間に、非透過型端末装置を位置させる(ステップS22:(B2))。なお、ステップS22,S21の順に実行され、現実空間に位置した非透過型端末装置が、ステップS21においてその現在位置に対応する三次元貼付位置情報144を取得する構成であってもよい。
次に、ユーザが自分の非透過型端末装置の撮像部で景色を撮像して実写画像を取得し(ステップS23:(B3))、非透過型端末装置が実写の視点位置及び視線方向を取得する(ステップS24:(B3))。ステップS23,S24は、以降の処理と並行して継続的に実行される。
視点位置及び視線方向は、例えばGPS、SLAM(登録商標:Simultaneous Localization and Mapping)、又はマーカー検出等、種々の位置検出手法により検出することができる。
次に、非透過型端末装置は、三次元貼付位置情報144における目的画像143を、ステップS24で取得された視点位置及び視線方向から見た画像に変換する(ステップS25:(B4))。これにより、目的画像143は、実写画像の視点位置から視線方向に見た目的画像143になるように、その大きさや傾きが調節された画像に変換される。
次に、非透過型端末装置は、三次元貼付位置情報144における、3Dモデル142と目的画像143の位置関係に基づき、目的画像143が3Dモデル142の手前に位置する部分では実写画像を表示せずにステップS25で変換された目的画像143を表示し、3Dモデル142が目的画像143の手前に位置する部分では目的画像143を表示せずに実写画像を表示する(ステップS26:(B4))。
これにより、現実空間の実際の景色の中に、目的画像143が実在しているかのようにリアルに表示され、画像編集作業者が意図したとおりの拡張現実(AR)又は複合現実(MR)を、現実空間でユーザに対して体験させることが可能となる。
次に、非透過型端末装置は、並行して継続的に実行されているステップS24において取得される視点位置及び視線方向を監視し(ステップS27)、視点位置及び視線方向が変化した場合(ステップS27でYES)、新たな視点位置及び視線方向に基づいて、ステップS25~S27を繰り返す。
なお、ステップS25とステップS26は、それぞれ独立した処理である必要はなく、ステップS25,S26(B4)が混然一体として処理されてもよい。
図10は、直接視認型端末装置を用いて、拡張現実(AR)画像又は複合現実(MR)画像を表示する場合の画像表示方法の一例を示すフローチャートである。
まず、例えばユーザが三次元貼付位置情報144及び画像表示プログラムを、例えばネットワークを介して記憶部14や図略のサーバ装置等からダウンロードすることによって、自分の直接視認型端末装置に記憶させる(ステップS31:(C1))。
次に、三次元貼付位置情報144に対応する現実空間に、ユーザが直接視認型端末装置を持っていくことで、現実空間に、直接視認型端末装置を位置させる(ステップS32:(C2))。なお、ステップS32,S31の順に実行され、現実空間に位置した直接視認型端末装置が、ステップS31においてその現在位置に対応する三次元貼付位置情報144を取得する構成であってもよい。
次に、ユーザが自分の直接視認型端末装置で景色を視認し(ステップS33)、直接視認型端末装置がユーザの視点位置及び視線方向を取得する(ステップS34:(C3))。ステップS33,S34は、以降の処理と並行して継続的に実行される。
次に、直接視認型端末装置は、三次元貼付位置情報144における目的画像143を、ステップS34で取得された視点位置及び視線方向から見た画像に変換する(ステップS35:(C4))。これにより、目的画像143は、実写画像の視点位置から視線方向に見た目的画像143になるように、その大きさや傾きが調節された画像に変換される。
次に、直接視認型端末装置は、三次元貼付位置情報144における、3Dモデル142と目的画像143の位置関係に基づき、目的画像143が3Dモデル142の手前に位置する部分ではステップS35で変換された目的画像143をユーザに視認させ、3Dモデル142が目的画像143の手前に位置する部分では目的画像143をユーザに視認させない(ステップS36:(C4))。
これにより、ユーザが実際に見ている現実空間の実際の景色の中に、目的画像143が実在しているかのようにリアルに視認され、画像編集作業者が意図したとおりの拡張現実(AR)又は複合現実(MR)を、現実空間でユーザに対して体験させることが可能となる。
次に、直接視認型端末装置は、並行して継続的に実行されているステップS34において取得される視点位置及び視線方向を監視し(ステップS37)、視点位置及び視線方向が変化した場合(ステップS37でYES)、新たな視点位置及び視線方向に基づいて、ステップS35~S37を繰り返す。
なお、ステップS35とステップS36は、それぞれ独立した処理である必要はなく、ステップS35,S36(C4)が混然一体として処理されてもよい。
以上、ステップS21~S27,S31~S37によれば、作業者が上述の画像編集方法によって、実際に現実空間に行くことなく、ユーザが実際に見るであろう視点位置及び視点方向からの画像を、画像編集システム1を用いて予め確認しつつ生成された三次元貼付位置情報144に基づいて、現実空間においてユーザが拡張現実(AR)又は複合現実(MR)を体験することになる。その結果、作業者が意図したとおりの拡張現実(AR)又は複合現実(MR)を、ユーザに対して体験させることが容易となる。
画像編集システム1の記憶部14に、様々な場所の事前実写データ141、及び3Dモデル142を予め記憶させておけば、作業者は、実際の場所を訪れることなく、ユーザに目的画像143を体験させたい様々な場所で、意図したとおりに拡張現実(AR)又は複合現実(MR)を体験させることが容易となる。例えば目的画像143を広告画像とすれば、広告主である作業者は、消費者であるユーザに対して、様々な場所で、広告主の意図したとおりの広告宣伝を行うことができるので、ユーザに対して効果的な広告宣伝活動を行うことができる。
1 画像編集システム
10 演算部
11 ディスプレイ
12 キーボード
13 マウス
14 記憶部
101 表示制御部
102 貼付位置情報生成部
141 事前実写データ
142 3Dモデル
143 目的画像
144 三次元貼付位置情報
145 画像編集プログラム
A 通路
B,C 連絡通路
D 視線方向
G1~G4 目的画像
P 視点位置

Claims (8)

  1. (A1)所定の現実空間が表わされた3Dモデルを画像表示し、
    (A2)前記画像表示された3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置の入力操作を受け付け、
    (A3)前記3Dモデルに対して前記指定位置に前記目的画像を対応付けた三次元貼付位置情報を生成し、
    (A4)前記現実空間を、所定の視点位置を中心に水平方向に360度撮影した全周画像を含む事前実写データに基づいて前記視点位置から所定の視線方向に見た事前実写画像と、前記三次元貼付位置情報における前記目的画像を前記視点位置から前記視線方向に見たときの画像とを重ね合わせ、
    (A5)前記重ね合わせられた画像における、前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記事前実写画像を表示せずに前記目的画像を表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記事前実写画像を表示する画像編集方法。
  2. (A6)前記(A5)の後に新たな前記視線方向の入力操作を受け付け、前記新たな視点位置から前記新たな視線方向に見た3Dモデルを画像表示し、
    (A7)前記(A6)で表示された画像と前記新たな視線方向とに基づいて再び前記(A2)~(A5)を実行する請求項1記載の画像編集方法。
  3. 前記事前実写データは、前記視点位置を中心に水平方向に360度、水平方向と交差する方向に180度撮影した半天球画像を少なくとも含む請求項1又は2に記載の画像編集方法。
  4. 前記目的画像は、静止画、動画、又はコンピュータグラフィックスである請求項1~3のいずれか1項に記載の画像編集方法。
  5. 所定の現実空間が表わされた3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置に、前記目的画像を対応付けた三次元貼付位置情報が予め生成され、該三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、
    撮像部と該撮像部で撮像された実写画像を表示する表示部とを備えた非透過型端末装置に前記三次元貼付位置情報を記憶させ、
    前記非透過型端末装置を前記現実空間に位置させ、
    前記非透過型携帯端末の前記撮像部によって前記現実空間を実写して実写画像を取得すると共に、前記非透過型携帯端末に前記実写の視点位置及び前記実写の視線方向を取得させ
    前記非透過型携帯装置により、前記記憶した前記三次元貼付位置情報における前記目的画像を、前記取得した前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記実写画像を表示せずに前記変換された目的画像を前記表示部に表示し、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を表示せずに前記実写画像を前記表示部に表示する画像表示方法。
  6. 所定の現実空間が表わされた3Dモデル上における、所望の目的画像を貼り付ける位置である三次元の指定位置に、前記目的画像を対応付けた三次元貼付位置情報が予め生成され、該三次元貼付位置情報に基づいて拡張現実又は複合現実による表示を行う画像表示方法であって、
    ユーザが前記現実空間を直接視認可能な直接視認型端末装置に前記三次元貼付位置情報を記憶させ、
    前記直接視認型端末装置を前記現実空間に位置させ、
    前記直接視認型端末装置により、前記ユーザの視点位置及び前記ユーザの視線方向を取得させ
    前記直接視認型端末装置により、前記記憶した前記三次元貼付位置情報における前記目的画像を、前記取得した前記視点位置及び前記視線方向から見た画像に変換すると共に、前記三次元貼付位置情報における前記3Dモデルと前記目的画像の位置関係に基づき、前記目的画像が前記3Dモデルの手前に位置する部分では前記変換された目的画像を前記ユーザに視認させ、前記3Dモデルが前記目的画像の手前に位置する部分では前記目的画像を前記ユーザに視認させない画像表示方法。
  7. 請求項1~4のいずれか1項に記載の画像編集方法を実行する画像編集システム。
  8. 請求項1~4のいずれか1項に記載の画像編集方法を、コンピュータに実行させる画像編集プログラム。
JP2020141145A 2020-08-24 2020-08-24 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム Active JP7417827B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020141145A JP7417827B2 (ja) 2020-08-24 2020-08-24 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020141145A JP7417827B2 (ja) 2020-08-24 2020-08-24 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム

Publications (2)

Publication Number Publication Date
JP2022036773A JP2022036773A (ja) 2022-03-08
JP7417827B2 true JP7417827B2 (ja) 2024-01-19

Family

ID=80493633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020141145A Active JP7417827B2 (ja) 2020-08-24 2020-08-24 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム

Country Status (1)

Country Link
JP (1) JP7417827B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143478A (ja) 2001-10-31 2003-05-16 Canon Inc 映像合成装置および情報処理方法
JP2003216982A (ja) 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2016091348A (ja) 2014-11-06 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2020064520A (ja) 2018-10-18 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153213A (ja) * 1994-09-29 1996-06-11 Hitachi Ltd 画像合成表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143478A (ja) 2001-10-31 2003-05-16 Canon Inc 映像合成装置および情報処理方法
JP2003216982A (ja) 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2016091348A (ja) 2014-11-06 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2020064520A (ja) 2018-10-18 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大田 友一 Yuichi Ohta,フリーハンド映像から切り出した壁領域に対する複合現実型壁紙シミュレーション Wallpaper Replacement Simulation in a Free-Hand Movie by Using Mixed Reality,日本バーチャルリアリティ学会論文誌 第19巻 第2号 Transactions of the Virtual Reality Society of Japan,日本,特定非営利活動法人日本バーチャルリアリティ学会 The Virtual Reality Society of Japan,2014年06月30日,第19巻

Also Published As

Publication number Publication date
JP2022036773A (ja) 2022-03-08

Similar Documents

Publication Publication Date Title
US11651555B2 (en) Re-creation of virtual environment through a video call
CN110300909B (zh) 用于显示交互式增强现实展示的***、方法和介质
JP6643357B2 (ja) 全球状取込方法
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
EP3954111A1 (en) Multiuser asymmetric immersive teleconferencing
US11842384B2 (en) Digital model optimization responsive to orientation sensor data
US20210312887A1 (en) Systems, methods, and media for displaying interactive augmented reality presentations
CN113228688B (zh) 在计算设备上创建壁纸图像的***和方法
CN109640070A (zh) 一种立体显示方法、装置、设备及存储介质
US20190164323A1 (en) Method and program for generating virtual reality contents
JP2019101563A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
CN110060349B (zh) 一种扩展增强现实头戴式显示设备视场角的方法
JP7417827B2 (ja) 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
KR20200069004A (ko) 다시점 360도 vr 컨텐츠 제공 시스템
CN114463520A (zh) 一种实现虚拟现实vr漫游的方法及装置
US20200098150A1 (en) Augmented reality system and method for substrates, coated articles, insulating glass units, and/or the like
KR101315398B1 (ko) 3차원 증강 현실 표시 장치 및 방법
CN108920598A (zh) 全景图浏览方法、装置、终端设备、服务器及存储介质
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
US11830140B2 (en) Methods and systems for 3D modeling of an object by merging voxelized representations of the object
US20230316670A1 (en) Volumetric immersion system & method
JP2023134220A (ja) 通信システム、通信管理サーバ、通信管理方法、及びプログラム
JP2023134065A (ja) 通信装置、通信システム、表示方法、及びプログラム
Kimura et al. “Wall Hack AR”: AR See-through system with LiDAR and VPS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20221220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231215

R150 Certificate of patent or registration of utility model

Ref document number: 7417827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150