JP6978838B2 - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP6978838B2 JP6978838B2 JP2017016638A JP2017016638A JP6978838B2 JP 6978838 B2 JP6978838 B2 JP 6978838B2 JP 2017016638 A JP2017016638 A JP 2017016638A JP 2017016638 A JP2017016638 A JP 2017016638A JP 6978838 B2 JP6978838 B2 JP 6978838B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- image data
- generated
- dimensional image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Generation (AREA)
Description
しかし、悪意のあるユーザによって、取得した複数の2次元画像データに対して補間処理などの画像処理を施すことによって、元のモデリングデータの復元が試みられる虞がある。モデリングデータが勝手に復元されてしまうと、著作物であるモデリングデータの保護を図ることが難しい。
モデリングデータの復元を阻止する一つの対策として、ユーザ端末に提供するデータを暗号化するなどして、ユーザが2次元データを加工・編集できないようにすることが考えられる。しかし、暗号化処理に起因した演算量の増加や通信リソースの増大という問題が生じる。
また、たとえ暗号化等の秘匿処理を行ったとしても、最終的にはユーザ端末の画面上に複数の画像が表示されるという事実は変えようがないので、例えばユーザ端末において画面をキャプチャして複数の画像に対応する2Dデータを生成し、この2次元画像データに基づいて元のモデリングデータの復元を試みる可能性は排除できない。
本発明は、複数の2次元画像データに基づくモデリングデータの復元処理を阻害することを目的とする。
図1は画像処理システム10の概要を示す。画像処理システム10は、画像処理サーバ100とユーザ端末200とを含む。画像処理サーバ100は例えば物体コンテンツの公開およびユーザ端末200への提供を行う事業者によって管理されるサーバである。ユーザ端末200は例えば汎用のパーソナルコンピュータである。300は例えばインターネットや専用線である。画像処理サーバ100およびユーザ端末200は、300を介して接続される
部位指定部150は、物体の部位の指定を画像処理サーバ100の管理者から受付ける。部位とは、例えば物体が人形である場合は、人形を構成する顔、腕、脚、手、目、鼻、口といったパーツであり、物体が多角形である場合は所定の一つの面である。これに限らず、本実施例における部位には、機能的または構造的一体性を有する必要はなく、一般的な名称が存在する必要もなく、広く、物体表面の任意の領域として定義されるものを含む。
このように、特定の部位を指定することで、3Dデータの復元可能性や再現性を、みる方向によらずに一様に制御するだけでなく、見る方向や部位によって軽重がつけられる制御することが可能となる。
物体に関する特徴量は、特徴決定部111が、記憶部130から取得した3Dデータに基づいて、各方向についての特徴量を算出し、データ生成部112にて生成された2Dデータの方向に対応する特徴量を、視点設定部113にて生成された各2Dデータに付与してもよい。
あるいは、物体に関する特徴量は、データ生成部112にて生成された2Dデータに基づいて特徴決定部111が算出してもよい。2Dデータに基づいて算出する具体的方法としては、視点設定部113が、所定のアルゴリズムに従って、物体の構造的特徴および色彩(模様)的特徴の少なくともいずれかに基づいて決定する。その他の構造的特徴は、例えば物体表面のテクスチャ(凹凸の程度)や頂点や面の数によって定義される。色彩または模様に関する特徴は、例えば、使用されている色の多様性(バリエーション)として定義される。
同図(a)は人形900を正面からみた画像、人形900を水平面内(紙面左右方向)で45°回転させた画像(視点が水平面面内で45°回転した位置にある画像)、90°回転させた画像、135°回転させた画像、180°回転させた画像を示す。
決定された方向を表す情報はデータ生成部112に出力される。例えば、視点設定部113は特徴決定部111から供給される特徴量に基づいて方向を決定してもよい。また、画像処理サーバ100がユーザ端末200から人形900の部位の指定を受付けた場合、視点設定部113は、該指定された部位が1以上の画像に必ず現れるように、上記方向を決定してもよい。
あるいは、特徴量は画像処理サーバ100以外の装置で決定され、画像処理サーバ100に供給されてもよい。
要するに、データ生成部112において視点が異なる複数の2Dデータが同一の照明環境の下で生成されないように照明環境情報が生成される。
なお、照明制御部114は、光源の位置に替えてまたは加えて、仮想的に出射される光の波長特性(光学スぺクトル;色味)、強度、方向、指向性、前記光源の形状(点発光、面発光等)といった光学特性を表すパラメータのうち、少なくともいずれか一つを制御してもよい。
また、部位指定部150から物体の部位の指定が指示された場合に、照明制御部114は、当該部位のコントラストが他の部位よりも低くなるようにデータ生成部112にてシェーディングが実行することを規定する照明環境情報を生成する。
好ましい態様において、照明制御部114は、200において100から提供された複数の2Dデータに基づいて3Dデータを生成した場合に当該部位の再現性が他の部位の再現性よりも低下するように、照明設定部115を制御する。この際、200においてコンピュータによる再現ができるだけ妨げられる一方、個別に2Dデータに基づく画像を視認したユーザができるだけ不自然な印象を受けない程度に照明環境情報が生成されることが好ましい。
生成された2Dデータは、記憶部130または通信部120に供給される。
画像処理サーバ100は、所定の照明環境の下、仮想空間に設定された複数の視点からみた人形900の2次元画像を、生成する。換言すると、仮想空間に設置された仮想的なカメラ(視点に相当;以下、単にカメラという)を用いて、当該仮想空間に設置された仮想的な光源(以下、単に「光源」という)の下で、人形900を「撮影」することに相当する。
つまり、生成される複数の2Dデータは、人形900から等距離にあって前記物体に対する方向が異なる位置を視点とする画像を表す。
なお、この例では、光源LT1およびLT2はL2上に位置しているが、この配置は例示に過ぎず、光源の位置(距離や方向)をカメラの位置とは独立に設定することが可能である。また、光源の個数も2に限らない。各光源の位置は独立に設定可能であり、例えば各光源の物体までの距離は異なってもよい。また、光源の光学特性も光源ごとに異ならせてもよい。
同図に示すように、この例では、人形900の正面に重点的にカメラが配置されている。より具体的には、θ=−90、φ=0に近い位置においてはカメラが密に配置され、離れた位置(上方、下方、側面、背面)には疎に配置されている。これは、特徴決定部111において特徴量が正面側からみた画像が相対的に大きいと算出され、視点設定部113にて特徴量に基づいてカメラ位置が決定されたためである。
なお、カメラは同一の性能である必要はない。例えば、画角やフォーカスが異なる複数のカメラを配置してもよい。
要するに、1つの3Dデータに基づいて各々一の視点に対応する2Dデータが複数個生成されればよい。
光源の個数や位置の推定が正しければ、ある部位について撮影方向の違いによる明度の違い(例えば影ができる大きさや方向の変化)に基づいて、2Dデータには欠けているその部位の立体形状(例えば凹凸の程度)に関する情報を高い精度で復元することができる。
復元に用いる2Dデータの数や光源の個数、形状の複雑度、コンピュータの演算能力等にもよるが、2Dデータが同一位置の光源という条件で生成されたものであった場合は、ある程度の精度で物体の形状を推定することが可能である。
一方で、人間がこのような複数の2Dデータに基づく画像を視認した場合、光源位置が変化していることに気が付くことはなく、人形の全体像を何の問題なく認識することができる。これは、それが人形であると認知できる本能的・経験的な人間の能力が発揮され、光源位置が固定であるとした場合に生じする多少の矛盾は無意識のうちに瞬時に脳内で補正されるからである。
仮に、このような複数の2Dデータに基づく画像に対してなんとなく違和感を抱くことがあったとしても、少なくとも、人形を複数の方向からみた画像であることが理解できないとか、人形の全体形状が全く想像できないとか、その他認知上の重大な悪影響が生じるといったことは、極めて考えにくい。
特に、図5の概念図で生成される複数の2Dデータのように、人形900から等距離にあって物体に対する方向が異なる位置を視点とする複数の画像を取得する場合、同一の物体に関する等距離で異なる方向の画像は、補完処理などの画像処理を施すこと等により、元のモデリングデータを復元し易いことから、2Dデータ生成時の照明環境を制御することで、コンピュータによるモデリングデータの復元を阻害する必要性が高い。
あるいは、光源位置とカメラ位置とを固定し、物体を仮想空間内において回転させて「撮影」することでも、同様の効果が生じる。このようにしても、物体を基準とした光源の位置が撮影ごとに変化している点で変わりないからである。
(b)は画像データ本体Dmの詳細を示す。この例では、視点設定部113にて、5つのレイヤが設定され、レイヤごとに30枚(12°ごと)にカメラを配置された場合を示す。Dmには、IM1−1〜IM5−30の計150枚分の画像データが含まれ、これが、ヘッダ部Dhに規定された順番(この例ではレイヤごとにまとまて)で配列されている。
図13は、ユーザ端末200にて画像表示アプリを実行した時に表示される画面W2の例である。3Dデータで表わされる物体の代表となる2D画像(同図では正面からみた画像)がサムネイル表示される。
ユーザは、閲覧したい画像を指定する(S104)と、当該画像の識別情報を含む要求が画像処理サーバ100に送信される(S106)。
また、2Dデータを送信することで、元の3Dデータを送信する場合に比べてやり取りされるデータの量が小さくなり、画像処理サーバ100とユーザ端末200との間のレスポンスが向上する。加えて、端末に3Dデータに基づく描画機能を有するアプリケーションをインストールしておく必要もない。
以下、部位指定部150を介して部位が指定された場合に照明制御部114および照明設定部115で実行される処理の内容について説明する。
図19は、人形900のうち秘匿対象とすべき部位として、鼻に相当する部位SPが部位指定部150にて指定されたとする。この指定に基づき、照明設定部115は、図20〜24に示すような視点と光源の位置関係を規定する照明環境情報を生成する決定する。
すなわち、顔を正面から撮影する場合は(図22)、顔全体が暗くなるように(影が顔面全体にできるように)、光源を頭部の後ろ側に配置する。顔を真横から撮影する場合は、顔全体が照らされて影ができにくいような正面やや上方の位置に光源を配置する(図23、24)。顔を斜めからみた場合は、光源は、カメラのほぼ真上に配置し、影がカメラと反対側の顔にできるようにする(図20、21)。これらの5枚の2次元画像から画像の明度(影のでき方)に基づいてコンピュータが立体形状を復元しようとした場合、本来周囲よりも盛り上がっている鼻が平坦になっている、あるいは逆に凹んでいるなど、表面の凹凸の状態をより誤認識しやすくなる。
このように、指定した部位に基づいて照明環境を制御することで、特定の部位について重点的に復元を阻害し、あるいは間違った立体形状への認識を積極的に誘導することができる。
続いて画像処理サーバ100は、指定された方向に対応する1つの2Dデータを抽出する(S120)。そのようなデータが記憶部130に既に記憶されている場合は読み出す。具体的には、当該3Dデータに関連する2Dデータとして指定された方向と同一の方向からみた2Dデータが既に存在すればそのデータが読み出される。同一の角度のデータが存在しない場合は、最も近い角度の2Dデータが読み出される。あるいは、制御部110は新たに指定された方向からみた2Dデータを新たに生成してもよい。
抽出または生成された1つの2Dデータはユーザ端末200に送信される(S122)。画像処理サーバ100にて描画表示アプリケーションは、受信した2Dデータに基づいて描画処理を実行する。ユーザによって指定された方向に応じた画像が表示される点は上述の実施例と同様である。
Claims (6)
- 物体が位置する空間の照明環境を設定する設定手段と、
前記物体の3次元形状を表すモデリングデータに基づいて、前記照明環境の下、一の方向からみた前記物体を表す2次元画像データを複数生成する生成手段と、
前記生成手段にて生成される複数の2次元画像データに含まれる第1の画像データと第2の画像データとに対して異なる照明環境が適用されるように、前記設定手段を制御する制御手段と、
前記生成手段にて生成された2次元画像データの全部または一部を同時にもしくは関連付けて出力または該生成された複数の2次元画像データのうちユーザが選択した2次元画像データを出力する出力手段と
を有し、
前記制御手段は、前記空間内に設けられる光源の位置を、前記2次元画像データの視点の位置に応じて決定する
画像処理装置。 - 前記複数の2次元画像データは、前記物体から等距離で且つ前記物体への方向が互いに異なる位置を視点とする画像である
ことを特徴とする請求項1に記載の画像処理装置。 - 前記物体の部位の指定をユーザから受付ける受付手段を更に備え、
前記制御手段は、該指定された部位のコントラストが他の部位よりも低くなるようにシェーディングが施されるように前記設定手段を制御する
ことを特徴とする請求項1または2に記載の画像処理装置。 - 前記物体の部位の指定をユーザから受付ける受付手段を更に備え、
前記制御手段は、情報処理装置において前記複数の2次元画像データに基づいてモデリングデータを生成した場合に当該部位の再現性が他の部位の再現性よりも低下するように、前記設定手段を制御する、
ことを特徴とする請求項1ないし3のいずれか一つに記載の画像処理装置。 - コンピュータに、
物体が位置する空間の照明環境を設定するステップと、
前記物体の3次元形状を表すモデリングデータに基づいて、前記照明環境の下、一の方向からみた前記物体を表す2次元画像データを複数生成するステップと、
前記生成される複数の2次元画像データに含まれる第1の画像データと第2の画像データと対して異なる照明環境が適用されるように、前記照明環境を制御するステップと、
該生成された2次元画像データの全部または一部を同時にもしくは関連付けて出力または該生成された複数の2次元画像データのうちユーザが選択した2次元画像データを出力するステップと
を実行させるためのプログラムであって、
前記空間内に設けられる光源の位置は、前記2次元画像データの視点の位置に応じて決定される、
プログラム。 - 物体が位置する空間の照明環境を設定するステップと、
前記物体の3次元形状を表すモデリングデータに基づいて、前記照明環境の下、一の方向からみた前記物体を表す2次元画像データを複数生成するステップと、
前記生成される複数の2次元画像データに含まれる第1の画像データと第2の画像データと対して異なる照明環境が適用されるように、前記照明環境を制御するステップと、
該生成された2次元画像データの全部または一部を同時にもしくは関連付けて出力または該生成された複数の2次元画像データのうちユーザが選択した2次元画像データを出力するステップと
を有し、
前記空間内に設けられる光源の位置は、前記2次元画像データの視点の位置に応じて決定される、
画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016638A JP6978838B2 (ja) | 2017-02-01 | 2017-02-01 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016638A JP6978838B2 (ja) | 2017-02-01 | 2017-02-01 | 画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124806A JP2018124806A (ja) | 2018-08-09 |
JP6978838B2 true JP6978838B2 (ja) | 2021-12-08 |
Family
ID=63110368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017016638A Active JP6978838B2 (ja) | 2017-02-01 | 2017-02-01 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6978838B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020007537A (ja) | 2018-06-29 | 2020-01-16 | 信越化学工業株式会社 | 硬化性有機ケイ素樹脂組成物及び半導体装置 |
JP7409014B2 (ja) * | 2019-10-31 | 2024-01-09 | 富士フイルムビジネスイノベーション株式会社 | 表示装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003302211A (ja) * | 2002-04-11 | 2003-10-24 | Canon Inc | 3次元画像処理装置及び方法 |
JP4081033B2 (ja) * | 2004-03-18 | 2008-04-23 | 株式会社リコー | 透かし情報埋込方法、透かし情報埋込装置かつ媒体、および3次元形状モデル表示方法、3次元形状モデル表示装置かつ媒体 |
JP2015099545A (ja) * | 2013-11-20 | 2015-05-28 | 株式会社東芝 | 画像生成システム及び画像生成プログラム |
JP6314672B2 (ja) * | 2014-06-10 | 2018-04-25 | 株式会社リコー | 表示処理装置、表示処理方法、及びプログラム |
-
2017
- 2017-02-01 JP JP2017016638A patent/JP6978838B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018124806A (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10147233B2 (en) | Systems and methods for generating a 3-D model of a user for a virtual try-on product | |
KR102120046B1 (ko) | 오브젝트를 표시하는 방법 | |
JP4819164B2 (ja) | 点座標を正確に表示する能力を有する、画像がマップされたポイントクラウド | |
JP7007348B2 (ja) | 画像処理装置 | |
JP5011168B2 (ja) | 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP4276178B2 (ja) | 皮膚又は類似物をデジタル式にレンダリングする方法 | |
TWI786157B (zh) | 用於產生場景之舖磚式三維影像表示之設備及方法 | |
JP5299173B2 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
WO2013175700A1 (ja) | 情報処理装置および情報処理方法 | |
JP7353782B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6978838B2 (ja) | 画像処理装置 | |
US20190073824A1 (en) | Arbitrary view generation | |
JP4809480B2 (ja) | 丸みのある角を備えた画像を生成するためのコンピュータグラフィックスの方法およびシステム | |
de Haan et al. | Egocentric navigation for video surveillance in 3D virtual environments | |
JP6679966B2 (ja) | 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム | |
JP6917140B2 (ja) | 画像処理装置 | |
JP2020166473A (ja) | 学習済みモデル生成装置、プログラム及び学習済みモデル生成システム | |
KR101817756B1 (ko) | 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법 | |
WO2018151612A1 (en) | Texture mapping system and method | |
JP6719168B1 (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 | |
JP2017215706A (ja) | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 | |
Kolivand et al. | Livephantom: Retrieving virtual world light data to real environments | |
JP7119853B2 (ja) | 変更画素領域抽出装置、画像処理システム、変更画素領域抽出方法、画像処理方法及びプログラム | |
RU2771957C2 (ru) | Устройство и способ для генерации мозаичного представления трехмерного изображения сцены | |
JP2011048545A (ja) | 画像合成装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6978838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |