図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたジャイロセンサや加速度センサなどによりヘッドマウントディスプレイ100を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢(orientation)情報を計測することができる。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの凝視方向、瞳孔の動き、瞬きなどを検出することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ」の一例である。ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、本実施の形態に係る画像転送システムの構成図である。ヘッドマウントディスプレイ100は、一例として、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)などのインタフェースでレンダリング装置200に接続される。
本実施の形態では、ヘッドマウントディスプレイ100とレンダリング装置200の間のデータ伝送路300はHDMI伝送路である。
HDMI2.1規格には動的HDR(High Dynamic Range)と呼ばれる機能があり、映像の動的メタデータ(Dynamic Metadata)を参照してシーンに応じてフレーム毎に輝度や色の深度を最適に調整した映像を生成することができる。HDMI2.1規格では動的メタデータは、シーンの最大輝度、平均輝度、最小輝度など動的HDRに必要な情報を映像に同期させて伝送することができる。
本実施の形態では、レンダリング装置200が映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報を動的メタデータに含め、動的メタデータを映像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。
ヘッドマウントディスプレイ100とレンダリング装置200の通信インタフェースは、動的メタデータを映像と同期させて伝送できるものであれば、HDMIに限られない。
レンダリング装置200の一例はゲーム機である。レンダリング装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをレンダリング装置200に提供してもよい。ヘッドマウントディスプレイ100は、レンダリング装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
ヘッドマウントディスプレイ100に表示される映像は、あらかじめカメラで撮影された映像の他、ゲーム映像のようなコンピュータグラフィックスによる映像であってもよい。また、ネットワーク経由で配信される遠隔地のライブ映像であってもよい。
図3は、ヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。
HDMI送受信部90は、HDMIにしたがって映像・音声のデジタル信号を送受信する。HDMI送受信部90がレンダリング装置200から受け取るフレームデータには動的メタデータが関連づけられており、動的メタデータにはレンダリング装置200が当該フレームデータの描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報L2が含まれる。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させることができる。
姿勢センサ64は、ヘッドマウントディスプレイ100の位置情報と、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。3軸地磁気センサ、3軸加速度センサおよび3軸ジャイロ(角速度)センサの少なくとも1つ以上を組み合わせたモーションセンサを用いて、ユーザの頭部の前後、左右、上下の動きを検出してもよい。
姿勢センサ64が検出したヘッドマウントディスプレイ100の現在の位置・姿勢情報L1は、通信制御部40または外部入出力端子インタフェース70を介してレンダリング装置200に通知される。あるいは、HDMI送受信部90がヘッドマウントディスプレイ100の現在の位置・姿勢情報L1をレンダリング装置200に送信してもよい。レンダリング装置200は、受信したヘッドマウントディスプレイ100の現在の位置・姿勢情報L1から、映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、ヘッドマウントディスプレイ100の予測位置・姿勢情報L2を前提としてヘッドマウントディスプレイ100に表示されるべき画像を描画する。
姿勢センサ64は、レンダリング装置200から描画データを受け取った際、ヘッドマウントディスプレイ100の最新の位置・姿勢情報L3を検出し、位置・姿勢差分計算部62に与える。位置・姿勢差分計算部62は、レンダリング装置200が描画の際に前提とした予測位置・姿勢情報L2をHDMI送受信部90から受け取る。位置・姿勢差分計算部62は、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLを求め、リプロジェクション部60に与える。ここで、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLは、一般にはヘッドマウントディスプレイ100の位置情報と姿勢情報の両方が異なるが、位置情報と姿勢情報のいずれか一方のみが異なる場合もあることに留意する。
リプロジェクション部60は、HDMI送受信部90がレンダリング装置200から受け取った描画データに対して差分ΔLにもとづいた補正をかけることにより、リプロジェクションを実行し、リプロジェクション後の描画データを制御部10に与える。制御部10は、リプロジェクション後の描画データを出力インタフェース30に供給してディスプレイに表示させる。
図4は、本実施の形態に係るレンダリング装置200の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
レンダリング装置200の少なくとも一部の機能をヘッドマウントディスプレイ100に実装してもよい。あるいは、レンダリング装置200の少なくとも一部の機能を、ネットワークを介してレンダリング装置200に接続されたサーバに実装してもよい。
位置・姿勢取得部210は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報L1をヘッドマウントディスプレイ100から取得する。
遅延時間取得部220は、ある時刻での視点位置から視線方向に見える画像を描画してからヘッドマウントディスプレイ100に表示するまでに要する遅延時間を取得する。この遅延時間には描画処理に要する時間の他、画像データを伝送するのに要する時間が含まれる。遅延時間取得部220は、3次元描画ハードウェア性能と伝送路の伝送遅延にもとづいて遅延時間を求める。
位置・姿勢予測部230は、遅延時間取得部220により求められた遅延時間の間の位置および姿勢の変化量を予測する。位置・姿勢予測部230は、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進速度や角速度に遅延時間を乗じることで位置および姿勢の変化量を求めることができる。位置・姿勢予測部230は、現在の位置・姿勢情報L1に遅延時間の間の位置および姿勢の変化量を加算することにより遅延時間経過後の位置・姿勢情報L2を予測し、予測位置・姿勢情報L2を視点・視線設定部240とメタデータ生成部270に供給する。
視点・視線設定部240は、位置・姿勢予測部230により取得されたヘッドマウントディスプレイ100の予測位置・姿勢情報L2を用いて、ユーザの視点位置および視線方向を更新する。
画像生成部250は、画像記憶部260から画像データを読み出し、視点・視線設定部240によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える画像を生成し、HDMI送受信部280に与える。ここで、画像データは、事前に作成された動画または静止画コンテンツであってもよく、レンダリングされたコンピュータグラフィックスであってもよい。
メタデータ生成部270は、位置・姿勢予測部230から予測位置・姿勢情報L2を取得し、フレームデータに関連づけるべき動的メタデータに予測位置・姿勢情報L2を埋め込み、動的メタデータをHDMI送受信部280に供給する。
HDMI送受信部280は、画像生成部250からフレームデータを受け取り、メタデータ生成部270から予測位置・姿勢情報L2が埋め込まれた動的メタデータを受け取る。HDMI送受信部280は、HDMIにしたがってフレームデータに動的メタデータを同期させ、フレームデータと動的メタデータをヘッドマウントディスプレイ100に伝送する。
図5は、ヘッドマウントディスプレイ100に表示される全周囲画像500を説明する図である。全周囲画像500に対して、ユーザが左前方を向いている場合、ヘッドマウントディスプレイ100aの方向で画角150aの範囲にある画像510aが表示され、ユーザが首を回して右前方を向いている場合、ヘッドマウントディスプレイ100bの方向で画角150bの範囲にある画像510bが表示される。
このように頭部の動きに応じてヘッドマウントディスプレイ100に表示される全周囲画像を見る視点位置と視線方向も変わるため、全周囲画像に対する没入感を高めることができる。
図6は、ヘッドマウントディスプレイ100に表示される全周囲画像に遅れが生じる理由を説明する図である。ユーザが首を回して右前方を向いた場合、ヘッドマウントディスプレイ100bの方向で画角150bの範囲にある画像510bを生成し、ヘッドマウントディスプレイ100に表示するが、画像510bの表示の時点では、既にヘッドマウントディスプレイ100bの位置と回転が符号150cで示すように変化している。そのため、本来は画角150cの範囲で見える画像をヘッドマウントディスプレイ100cに表示する必要があるが、実際に生成されて表示される画像は、少し前の時点のヘッドマウントディスプレイ100bの方向で画角150bの範囲で見える画像となってしまう。この時間差によるずれのため、ユーザが見ている方向とは少しずれた画像がヘッドマウントディスプレイ100に表示され、ユーザはある種の「酔い」を感じることがある。
このように、ヘッドマウントディスプレイ100の回転を検知し、次の描画範囲を確定し、CPUが描画コマンドを発行し、GPU(Graphics Processing Unit)がレンダリングを実行し、描画された画像がヘッドマウントディスプレイ100に出力されるまでには時間がかかる。描画がたとえば60fps(フレーム/秒)のフレームレートで行われているとすると、CPUが十分高速であったとしても、ヘッドマウントディスプレイ100の回転を検知してから画像を出力するまでに1フレーム分の遅れが生じる。これはフレームレート60fpsのもとでは、16.67ミリ秒ほどであり、人間がずれを感知するには十分な時間である。
さらに、レンダリング装置200で描画された画像をデータ伝送路300でヘッドマウントディスプレイ100に伝送する際にもレイテンシが生じる。
そこで、生成された画像に対してリプロジェクション処理を行うことで人間がずれを感知しにくいようにしている。レンダリング装置200が遅延時間経過後のヘッドマウントディスプレイ100の位置・姿勢情報を予測して描画を行うこともリプロジェクションの一種であるが、本実施の形態では、レンダリング装置200が描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報と、レンダリング装置200により描画された画像をヘッドマウントディスプレイ100で表示する際のヘッドマウントディスプレイ100の最新の位置・姿勢情報とのずれを補償するための画像の補正処理をリプロジェクションと呼ぶ。
具体的には描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報とヘッドマウントディスプレイ100の最新の位置・姿勢情報の差分を求め、ヘッドマウントディスプレイ100の最新の位置・姿勢情報に合うように画像を補正する処理であり、画像変換やフレーム補間などの技術が用いられる。
レンダリング装置200は、リプロジェクションに必要な情報を動的メタデータとして画像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報はレンダリング装置200がもっているため、レンダリング装置200からヘッドマウントディスプレイ100にフレーム毎に動的メタデータとして伝送しなければ、ヘッドマウントディスプレイ100側ではわからない。そこで、レンダリング装置200は、ヘッドマウントディスプレイ100の予測位置・姿勢情報を動的メタデータに埋め込み、動的メタデータをフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。ヘッドマウントディスプレイ100の予測位置・姿勢情報は、リプロジェクションに必要なデータの一例であり、リプロジェクションに必要な情報であればそれ以外の情報を動的メタデータに埋め込んでヘッドマウントディスプレイ100に伝送してもよい。
ここで、フレームデータとは別に動的メタデータを伝送すると、フレームデータと動的メタデータを関連づけることができず、フレームデータに動的メタデータを適用することができない。比較のため、図7を参照して、動的メタデータをフレームデータと関連付けることなく、別々に伝送する方法を説明し、その後、図8を参照して、動的メタデータをフレームデータに同期させて伝送する方法を説明する。
図7は、動的メタデータをフレームデータとは別の伝送路で伝送する方法を説明する図である。
フレームデータはHDMI伝送路で伝送される。各フレームデータの直前には垂直ブランキング信号VBlankが挿入される。ここでは、N番目のフレームデータ600の直前にVBlank602が挿入され、(N+1)番目のフレームデータ610の直前にVBlank612が挿入される。
各フレームデータに適用すべき動的メタデータは一例としてUSB伝送路で伝送される。USB接続以外に、たとえば無線通信でメタデータを伝送してもよい。N番目のフレームデータ600に適用すべきN番目の動的メタデータ604、(N+1)番目のフレームデータ610に適用すべき(N+1)番目の動的メタデータ614がUSB伝送路で伝送されるが、これらの動的メタデータ604、614はフレームデータ600、610には同期していない。そのため、ヘッドマウントディスプレイ100が動的メタデータ604、614を受け取ってもいずれのフレームデータ600、610に適用させればよいかわからない。
図8は、動的メタデータをフレームデータに同期させて同一の伝送路で伝送する方法を説明する図である。
フレームデータと動的メタデータはHDMI伝送路で伝送される。各フレームデータの直前には垂直ブランキング信号VBlankが挿入されるが、垂直ブランキング信号VBlankにメタデータが挿入される。ここでは、N番目のフレームデータ600の直前にVBlank602が挿入され、VBlank602にN番目の動的メタデータ604が挿入される。また、(N+1)番目のフレームデータ610の直前にVBlank612が挿入され、VBlank612に(N+1)番目の動的メタデータ614が挿入される。
このように各フレームデータ600、610の垂直ブランキング信号VBlankに各フレームデータ600、610に適用すべき各動的メタデータ604、614を挿入して同一のHDMI伝送路で伝送すれば、各フレームデータ600、610に各動的メタデータ604、614が同期するため、ヘッドマウントディスプレイ100は各動的メタデータ604、614を対応する各フレームデータ600、610に正しく適用することができる。
HDMI2.1規格では各フレームデータのVBlank信号に各フレームに適用すべき動的メタデータを挿入して伝送することが検討されている。動的メタデータにヘッドマウントディスプレイ100の予測位置・姿勢情報を埋め込めば、レンダリング装置200が利用したヘッドマウントディスプレイ100の予測位置・姿勢情報をフレームデータに同期させてヘッドマウントディスプレイ100に伝送することができる。ここではHDMI2.1規格のVBlank信号に動的メタデータを挿入する例を説明したが、これは一例であり、各フレームに同期する何らかの同期信号に動的メタデータを挿入して伝送すればよい。
図9は、ヘッドマウントディスプレイ100とレンダリング装置200によるリプロジェクション処理を説明するシーケンス図である。
ヘッドマウントディスプレイ100の姿勢センサ64は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報L1を検出する(S10)。ヘッドマウントディスプレイ100は現在の位置・姿勢情報L1をレンダリング装置200に通知する(S12)。
レンダリング装置200は、ヘッドマウントディスプレイ100とレンダリング装置200の間の伝送遅延とレンダリング装置200における描画にかかる処理遅延により発生する遅延時間を求める。レンダリング装置200の位置・姿勢予測部230は、現在の位置・姿勢情報L1から、遅延時間を経過した後のヘッドマウントディスプレイ100の位置・姿勢情報L2を予測する(S14)。
レンダリング装置200の画像生成部250は、予測位置・姿勢情報L2にもとづいてヘッドマウントディスプレイ100を装着したユーザに見える画像を描画する(S16)。
レンダリング装置200のHDMI送受信部280は、描画されたフレームデータに予測位置・姿勢情報L2を動的メタデータとして関連づけてヘッドマウントディスプレイ100に伝送する(S18)。
レンダリング装置200からフレームデータを受け取ると、ヘッドマウントディスプレイ100の姿勢センサ64は、ヘッドマウントディスプレイ100の最新の位置・姿勢情報L3を検出し、位置・姿勢差分計算部62は、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLを求める(S20)。
リプロジェクション部60は、差分ΔLにもとづいてフレームデータにリプロジェクション処理を施し、最新の位置・姿勢情報L3に合った画像を生成する(S22)。
上記の説明では、動的メタデータに予測位置・姿勢情報L2を埋め込み、フレームデータに同期させて伝送したが、一般的にはリプロジェクションに必要な情報を動的メタデータに埋め込んで伝送する。以下、リプロジェクションを用いた実施例を挙げて、動的メタデータに埋め込むべき他の情報を説明する。
図10は、マルチレゾルーションシェーディングの分割領域を説明する図である。ヘッドマウントディスプレイ100に映像を表示する場合、画像にレンズ歪みの補正をかける必要があり、画像の中央領域は解像度が維持されるが、視野の端の領域は圧縮されて解像度が落ちる。そこで、画像の中央領域400は高解像度で描画し、それ以外の周辺領域は低解像度で描画することで描画処理の負荷を低減するマルチレゾルーションシェーディング(Multi-Resolution Shading)と呼ばれる方法がある。ヘッドマウントディスプレイ100では左目用画像と右目用画像のそれぞれにおいてマルチレゾルーションシェーディングが行われるが、ここでは片方の目の画像について図示している。
レンダリング装置200がマルチレゾルーションシェーディングにより描画した画像をヘッドマウントディスプレイ100に伝送し、ヘッドマウントディスプレイ100のリプロジェクション部60が最新の位置・姿勢情報L3に合わせて画像に対してリプロジェクションを実行する。ヘッドマウントディスプレイ100は、画像に対してリプロジェクションを実行する際、マルチレゾルーションシェーディングにおいて画像がどのように分割されて複数の解像度で描画されたかを知る必要がある。画像に対してリプロジェクションを施す際に分割領域毎の解像度の違いを考慮しなければならないからである。
そこで、レンダリング装置200は、予測位置・姿勢情報L2以外に、マルチレゾルーションシェーディングにおける分割領域の情報を動的メタデータに含めてフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。
図11(a)〜図11(c)は、グラフィックスプロセッシングユニット(GPU)の負荷に応じてマルチレゾルーションシェーディングの分割領域の大きさが変化する様子を説明する図である。GPUの負荷が小さい場合、図11(a)に示すように高解像度で描画する中央領域を広げるが(符号402)、GPUの負荷が高まるにつれて、図11(b)、図11(c)に示すように中央領域402の狭くしていく(符号404、406)。このようにGPUの負荷に応じて分割領域の大きさが変化する場合、動的に変化する分割領域の範囲情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
図12は、中心窩レンダリングにおける凝視領域を説明する図である。ユーザの凝視追跡(Gaze Tracking)を行い、凝視点を中心とする領域を高解像度で描画し、周囲を低解像度で描画することで描画処理の負荷を低減する中心窩レンダリング(Foveated Rendering)と呼ばれる方法がある。凝視点を中心とする中央領域410は高解像で描画し、中央領域410の外側の周辺領域420は中解像度で描画し、周辺領域420のさらに外側は低解像度で描画する。
レンダリング装置200が中心窩レンダリングにより描画した画像をヘッドマウントディスプレイ100に伝送し、ヘッドマウントディスプレイ100のリプロジェクション部60が最新の位置・姿勢情報L3に合わせて画像に対してリプロジェクションを実行する。ヘッドマウントディスプレイ100は、画像に対してリプロジェクションを実行する際、中心窩レンダリングにおける凝視領域の情報が必要になる。そこで、レンダリング装置200は、予測位置・姿勢情報L2以外に、中心窩レンダリングにおける凝視領域の情報、具体的には凝視点の位置と凝視領域の円の半径の情報を動的メタデータに含めてフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。
図13(a)〜図13(c)は、凝視点の移動に応じて中心窩レンダリングの凝視領域の位置が変化する様子を説明する図である。凝視点が左下にある場合、図13(a)に示すように凝視領域は左下にあり(中央領域412、周辺領域422)、凝視点が正面にある場合、図13(b)に示すように凝視領域は正面にあり(中央領域414、周辺領域424)、凝視点が右上にある場合、図13(c)に示すように凝視領域は右上にある(中央領域416、周辺領域426)。このように凝視点の位置に応じて凝視領域の位置が変化する場合、動的に変化する凝視領域の位置情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
図11(a)〜図11(c)と同様、GPUの負荷に応じて中心窩レンダリングの凝視領域の大きさが変化する場合、すなわち、GPUの負荷が小さい場合は凝視領域を広げ、GPUの負荷が高まるにつれて凝視領域を狭くする場合、動的に変化する凝視領域の範囲情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
図14(a)〜図14(c)は、マルチレゾルーションシェーディングに凝視追跡を組み合わせた場合に分割領域の位置が変化する様子を説明する図である。凝視点が左下にある場合、図14(a)に示すように高解像度で描画する注視領域432は左下にあり、凝視点が正面にある場合、図14(b)に示すように注視領域434は正面にあり、凝視点が右上にある場合、図14(c)に示すように注視領域436は右上にある。このように凝視点の位置に応じて注視領域の位置が変化する場合、動的に変化する注視領域の位置情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
以上述べたように、本実施の形態のレンダリング装置200によれば、リプロジェクションに必要な情報を動的メタデータとして画像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送することができる。ヘッドマウントディスプレイ100は、動的メタデータからリプロジェクションに必要な情報を抽出し、画像のフレームデータにリプロジェクションを施すことができる。これにより、ヘッドマウントディスプレイ100を装着したユーザのVR酔いを防ぐことができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。