JP2017086542A - 画像変更システム、方法、及びプログラム - Google Patents

画像変更システム、方法、及びプログラム Download PDF

Info

Publication number
JP2017086542A
JP2017086542A JP2015221332A JP2015221332A JP2017086542A JP 2017086542 A JP2017086542 A JP 2017086542A JP 2015221332 A JP2015221332 A JP 2015221332A JP 2015221332 A JP2015221332 A JP 2015221332A JP 2017086542 A JP2017086542 A JP 2017086542A
Authority
JP
Japan
Prior art keywords
image
display mode
change
information
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015221332A
Other languages
English (en)
Other versions
JP2017086542A5 (ja
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015221332A priority Critical patent/JP2017086542A/ja
Publication of JP2017086542A publication Critical patent/JP2017086542A/ja
Publication of JP2017086542A5 publication Critical patent/JP2017086542A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間内における画像の生成に偶然的な要素を関与させ、即興的な効果を生じさせること。【解決手段】発生音検出手段802は現実空間内を移動するオブジェクトの発生音を検出する。位置検出手段801は検出音に基づいて現実空間内のオブジェクトの位置を検出する。タイミング取得手段803は検出音に基づいて発生音の発生タイミング情報を取得する。テーブルサーチ手段804はオブジェクトの発生音に対応する表示態様を出力する。位置指定手段805は現実空間内のオブジェクトの位置に対応する仮想現実空間内の位置を指定する。変更態様情報出力手段806は、仮想現実空間内の対応位置の近傍領域の表示態様を発生音に対応する表示態様で置き換えるために、仮想現実空間内の位置情報及びタイミング情報に基づいて変更態様情報を画像出力手段807に供給する。【選択図】図8A

Description

本発明は、画像変更システム、方法、及びプログラムに関する。
従来より、仮想現実(VR:Virtual Reality)空間内にオブジェクトを出現させ、仮想現実空間内においてゲームを進行させるようにしたゲームシステムが知られている。当該ゲームシステムは、例えば、頭部装着型ディスプレイ(HMD:Head Mounted Display)と、プレイヤーの視点の位置姿勢を検出するための位置姿勢センサと、CG(Computer Graphics;コンピュータグラフィックス)映像生成手段を備えている。そして、生成されたCG映像をHMDに表示することにより、プレイヤーはあたかも仮想のCG空間の中に没入しているような感覚を得ることができる。
なお、位置姿勢センサとしては、例えば、磁気方式による位置姿勢センサなどが用いられ、これをHMDに取り付けることによってセンサの3次元位置(X,Y,Z)と姿勢(Pitch,Yaw,Roll)をリアルタイムで検出している。
上記のような従来のVR技術を利用したゲームにおいては、ゲームの進行は所定のプログラムに基づいて行われ、仮想現実空間内における画像の生成に偶然的な要素を関与させることはできなかった。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、仮想空間内における画像の生成に偶然的な要素を関与させ、即興的な効果を生じさせるようにした画像変更システム、制御方法、及びプログラムを提供することにある。
上述した課題を解決するための本発明の基本的態様は、ヘッドマウントディスプレイに画像を出力することによって提供される仮想空間内で、前記画像を変更するための画像変更システムであって、前記画像を前記ヘッドマウントディスプレイに出力する画像出力手段と、前記仮想空間内の位置を指定する位置指定手段と、タイミングを指定するタイミング指定手段と、前記指定されたタイミングで、前記指定された位置近傍の表示態様の変更情報を出力する表示態様変更情報出力手段と、を備え、前記表示態様変更情報出力手段の出力に基づいて前記仮想空間内の画像を変更させることを特徴とする画像変更システムに係るものである。
本発明によれば、仮想空間内における画像の生成に偶然的な要素を関与させることにより即興的な効果を生じさせることができ、エンタテイメント性の向上を図ることができる。
図1は、本発明の一実施形態に係る画像変更システム1の概略構成を示すブロック図である。 図2は、本発明の一実施形態を含む全体システムのハードウェア構成の概要を示す概念図である。 図3は、画像生成装置200の基本機能の構成を示すブロック図である。 図4は、ユーザの頭の動きを模式的に示す模式図である。 図5Aは、画像変更システムによる表示態様の変更が実施される前の画面表示の模式図である。 図5Bは、画像変更システムによる表示態様の変更が実施された後の画面表示の模式図である。 図6は、画像変更システムの第1実施形態の基本機能の構成を示すブロック図である。 図7Aは、画像変更システムの第2実施形態の基本機能の構成を示すブロック図である。 図7Bは、画像変更システムの第2実施形態を用いて現実空間内のオブジェクトの位置情報や表示態様変更の指示情報を取得するための手法の一例を示す模式図である。 図8Aは、画像変更システムの第3実施形態の基本機能の構成を示すブロック図である。 図8Bは、画像変更システムの第3実施形態を用いて現実空間内のオブジェクトの位置情報や表示態様変更の指示情報を取得するための手法の一例を示す模式図である。
[本発明の実施形態の説明]
本発明の実施の形態の概要を例示的に列挙すると以下のとおりである。
〔形態1〕
ヘッドマウントディスプレイに画像を出力することによって提供される仮想空間内で、前記画像を変更するための画像変更システムであって、
前記画像を前記ヘッドマウントディスプレイに出力する画像出力手段と、
前記仮想空間内の位置を指定する位置指定手段と、
タイミングを指定するタイミング指定手段と、
前記指定されたタイミングで、前記指定された位置近傍の表示態様の変更情報を出力する表示態様変更情報出力手段と、
を備え、前記表示態様変更情報出力手段の出力に基づいて前記仮想空間内の画像を変更させることを特徴とする画像変更システム。
本形態1によれば、仮想空間内における画像の生成に偶然的な要素を関与させることにより即興的な効果を生じさせることができ、エンタテイメント性の向上を図ることができる。
〔形態2〕
形態1に記載の画像変更システムにおいて、前記表示態様の変更がオブジェクト及び/又はアクションの変更であることを特徴とする画像変更システム。
本形態2によれば、表示態様の変更にリアリティを付与することができる。
〔形態3〕
形態1又は2に記載の画像変更システムにおいて、前記位置指定手段は、前記仮想空間内の位置をランダムに指定し、前記タイミング指定手段はタイミングをランダムに指定することを特徴とする画像変更システム。
本形態3によれば、偶然的な要素の関与の度合いを高めることができ、即興的な効果を増大させることができる。
〔形態4〕
形態1〜3のいずれかに記載の画像変更システムにおいて、前記表示態様変更情報出力手段は、予め用意された複数の表示態様の中から1つをランダムに選択して出力することを特徴とする画像変更システム。
本形態4によれば、偶然的な要素の関与の度合いを高めることができるとともに、表示態様の変更のための構成を簡素化することができる。
〔形態5〕
形態1又は2に記載の画像変更システムにおいて、前記位置指定手段は、現実空間内の位置情報に基づいて仮想空間内の位置を指定することを特徴とする画像変更システム。
本形態5によれば、現実空間と仮想空間との対応関係を有効に利用することができる。
〔形態6〕
形態5に記載の画像変更システムにおいて、前記表示態様変更情報出力手段は、予め用意された複数の表示態様の中から選択された表示態様の情報に基づいて前記指定された位置近傍の表示態様の変更情報を出力することを特徴とする画像変更システム。
本形態6によれば、表示態様の変更のための構成を簡素化することができる。
〔形態7〕
形態6に記載の画像変更システムにおいて、前記予め用意された複数の表示態様の中から選択された表示態様は、前記1又は複数のオブジェクトとともに移動する選択デバイスにより指定されることを特徴とする画像変更システム。
本形態7によれば、表示態様の変更を確実に行うことができる。
〔形態8〕
形態5に記載の画像変更システムにおいて、前記予め用意された複数の表示態様の中から選択された表示態様は、前記1又は複数のオブジェクトのジェスチャにより指定されることを特徴とする画像変更システム。
本形態8によれば、表示態様の変更を簡便に行うことができる。
〔形態9〕
形態8に記載の画像変更システムにおいて、前記現実空間内の位置情報は、前記現実空間内を移動する1又は複数のオブジェクトの発生する音を集音手段により収集することにより取得された音源位置の情報であり、前記表示態様変更情報出力手段は、前記1又は複数のオブジェクトの発生する音を解析し該解析結果に基づいて前記指定された位置近傍の表示態様の変更情報を出力することを特徴とする画像変更システム。
本形態9によれば、オブジェクトの発生する音を利用して多様な表示態様の変更を実現することができる。
〔形態10〕
形態1〜9のいずれかに記載の画像変更システムにおいて、前記仮想空間は仮想現実(Virtual Reality)空間であることを特徴とする画像変更システム。
本形態10によれば、VR空間における表示態様の変更を即興的かつ簡便に実施することができる。
本発明の他の実施の形態は、上記各システムと略同様の内容を有する方法、及び、該方法をコンピュータにより実現するためのプログラムに係るものである。
そして、前記方法、及び、プログラムにおいても、前記システムと同様の作用効果を奏するものである。
以下、本発明に係る実施の一形態を図面に基づいて詳細に説明する。なお、本発明は、以下において説明する実施の形態に限定されるべきではなく、特許請求の範囲の記載に基き解釈されるべきである。また、当業者であれば、他の類似する実施形態を使用することができること、また、本発明から逸脱することなく適宜形態の変更又は追加を行うことができることに留意すべきである。
〔システムの構成の概要〕
図1は、本発明の実施の一形態に係る画像変更システム1の構成を示すブロック図である。システム1は、位置指定手段2とタイミング指定手段3と表示態様変更情報出力手段4と画像出力手段5を具備している。システム1の各構成要素2〜5の果たす機能の詳細については、以下において詳述する。
〔全体システムのハードウェア構成の概要〕
図2は、本発明の一実施形態を含む全体システムのハードウェア構成の概要を示す概念図であり、全体システム100のハードウェア構成として、HMD120と、画像生成装置200とを含むものである。HMD120と画像生成装置200は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。
HMD120は、ユーザ101の頭に装着されて利用される表示デバイスである。HMD120は、ディスプレイ122と、センサ126とを備える。HMD120は更に、不図示のスピーカ(ヘッドホン)を備えてもよい。
ディスプレイ122は、HMD120を装着したユーザ101の視界に画像を提示するように構成される。例えば、ディスプレイ122は、非透過型ディスプレイとして構成することができる。この場合、HMD120の外界の光景はユーザ101の視界から遮断され、ユーザ101の目にはディスプレイ122に映し出された画像だけが届けられる。ディスプレイ122には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実の空間、例えば、コンピュータゲームで作り出される世界を画像化した仮想現実空間画像である。
センサ126は、HMD120を装着したユーザ101の頭がどちらの方向を向いているかを検知するためのセンサである。センサ126としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ126が磁気センサ、角速度センサ、又は加速度センサである場合、センサ126はHMD120に内蔵されて、HMD120の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ126からの出力値を適宜の方法で加工することで、HMD120を装着したユーザ101の頭の向きが算出される。ユーザ101の頭の向きは、ユーザ101が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用することができる。例えば、ユーザ101が頭を右(又は左、上、下)に向けると、ディスプレイ122には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出されることになる。
なおセンサ126として、HMD120の外部に設けられたセンサを適用することとしてもよい。例えば、センサ126は、HMD120とは別体の、室内の固定位置に設置された赤外線センサであってよい。この赤外線センサを用いて、HMD120の表面に設けられた赤外線反射マーカーを検知することにより、HMD120を装着したユーザ101の頭の向きを特定することができる。
画像生成装置200は、HMD120に表示される画像を生成するためのシステムである。画像生成装置200は、ハードウェア構成として、プロセッサ202と、メモリ204と、ユーザ入力インターフェイス206と、通信インターフェイス208とを少なくとも備える。画像生成装置200は、専用の装置であってもよいが、例えば、パーソナルコンピュータ、ゲームコンソール、スマートフォン、PDA(Personal Digital Assistant)、タブレット端末等として実現することが可能である。
メモリ204には、少なくともオペレーティングシステムと画像生成用プログラムとが格納されている。オペレーティングシステムは、画像生成装置200の全体的な動作を制御するためのコンピュータプログラムである。メモリ204はまた、画像生成装置200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納されたプログラムを実行することによって、画面生成が行われる。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
ユーザ入力インターフェイス206は、画像表示システム100のユーザから画像生成装置200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス206の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。
通信インターフェイス208は、ネットワークを介して他の装置と通信するためのネットワークインターフェイスである。
なお、画像生成用プログラムは、SNSプラットフォームとは独立したプログラムとして構築してもよいし、SNSプラットフォーム上で提供されるプログラムとすることもできる。プログラムが、SNSプラットフォーム上で提供されるプログラムの場合には、プログラム(アプリケーションソフトウェア)がサーバに実装されており、該サーバが、各ユーザの入力操作に応じて画像生成のための演算処理やデータ処理を実行することになる。したがって、このようなケースにおいては、メモリ204に画像生成用プログラムを格納しておく必要はない。
〔画像生成装置の基本的動作〕
次に、画像生成装置200の基本的動作について説明する。なお、以下の説明においては、仮想空間を仮想現実(VR)空間とするが、あくまで例示であって、仮想空間はVR空間に限られるものではない点に留意されたい。
図3は、画像生成装置200の基本機能の構成を示すブロック図であり、図2に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される画像生成処理の機能を表す。
画像生成部231は、HMD120に表示するための画像を生成する。例えば、画像生成部231は、記憶部220から所定のデータを取得し、取得したデータに基づいてコンピュータグラフィックス処理によって画像を生成する。一例として、画像生成部231は、HMD120を装着した第2ユーザ101がコンピュータゲームによる仮想現実空間を認識することができるような仮想現実空間画像を生成する。仮想現実空間画像は、ユーザが仮想現実空間内で目にすることのできる光景を表す。例えば、画像生成部231によって生成される仮想現実空間画像は、コンピュータゲーム内に登場するキャラクタ、建物や木などの風景、室内の家具や壁の内装、地面に落ちているアイテム、ユーザが操作しているアバター(自分自身)の体の一部(手や足)やアバターが手で持っている物体(銃や剣)等の様々なオブジェクトを含む。仮想現実空間を構成するこのような各オブジェクトの配置位置、形状、色など、仮想現実空間画像を生成するのに必要なデータは、仮想現実空間構成情報221として記憶部220に格納されている。画像生成部231bは、記憶部220から取得した仮想現実空間構成情報221に基づいて、このようなコンピュータゲームの仮想現実空間画像を生成する。
また、画像生成部231は、センサ126からの出力値に基づいて画像を変化させている。例えば、画像生成部231が生成する画像は、仮想現実空間内におけるユーザの視界が、センサ126からの出力値が示すユーザ101の頭の動きに追従して移り変わっていく様子を表す画像であってよい。一例として、図4は、ユーザの頭の動きを模式的に示す。図示されるように、ユーザ101の頭の中心とHMD120の中心(ディスプレイ122の画面中心)とを結ぶ軸をZ軸、ユーザ101の頭の中心と頭頂部とを結ぶ軸をY軸、ユーザ101の頭の中心を通りY軸及びZ軸に直交する軸をX軸にとる。センサ126が例えば角速度センサである場合、センサ126からはX軸回りのピッチ角、Y軸回りのヨー角、及びZ軸回りのロール角のそれぞれの角速度の値が出力される。画像生成部231は、これらの角速度の出力値、即ちユーザ101の頭の向きに基づいて、仮想現実空間画像を変化させる。例えば、ユーザ101が頭を右に向けた場合、Y軸回りのヨー角が変化する。画像生成部231は、Y軸の角速度値の変化に合わせて、仮想現実空間内でユーザの右方向にある光景が映し出されるように、仮想現実空間画像を変化させる。同様に、ユーザ101が頭を右に傾けた場合、Z軸回りのロール角が変化する。画像生成部231は、Z軸の角速度値の変化に合わせて、仮想現実空間内におけるユーザの視界が右に傾くように、仮想現実空間画像を変化させる。
また、画像生成部231は、ユーザの位置に基づいて画像を変化させている。例えば、ユーザが仮想現実空間内を歩き回る場合、画像生成部231が生成する画像は、仮想現実空間内でユーザが現在立っている位置から見える光景を表す画像であってよい。一例として、仮想現実空間内におけるユーザの経時的な位置情報が記憶部220に記憶される。画像生成部231は、記憶部220から仮想現実空間内におけるユーザの直前の位置情報を取得する。またゲームコントローラなどのユーザ入力インターフェイス206からは、ユーザが仮想現実空間内を歩き回るための操作入力として、ユーザの移動方向及び移動速度の指示が入力される。画像生成部231は、記憶部220から取得したユーザの直前の位置情報と、ユーザ入力インターフェイス206から入力されたユーザの移動方向及び移動速度の情報とに基づいて、仮想現実空間内におけるユーザの現在位置を算出する。算出したユーザの現在位置に基づいて、画像生成部231は、仮想現実空間内をユーザが歩くのに合わせてユーザの視界が移り変わるように、仮想現実空間画像を変化させる。
このようにして、画像生成部231では、仮想現実空間内におけるユーザの位置と頭の向きに応じた仮想現実空間画像が生成される。生成された仮想現実空間画像は、画像出力部239を介してHMD120へ出力されて、ディスプレイ122に表示される。これによりユーザは、仮想現実空間において、現在自分が立っている場所から頭を向けた方向に存在する仮想的光景を見ることができる。
〔画像変更システム〕
画像変更システムについて詳細を説明するに当たり、画像生成装置に画像変更システムを適用した場合の表示態様例について、図5A及び図5Bを用いて説明する。
図5Aは、画像変更システムによる表示態様の変更が実施される前の画面表示の模式図、図5Bは、画像変更システムによる表示態様の変更が実施された後の画面表示の模式図である。両図を比較すれば明らかなように、図5Aに示されるような仮想現実空間内の指定された位置501の近傍を表す破線領域502の表示態様が、画像変更システムの作用により、図5Bにおいては領域502’のように変更されている。このように、画像変更システムは、指定されたタイミングで仮想現実空間内の指定された位置近傍にあるオブジェクト及び/又はアクションを適宜変更し、当該位置近傍の表示態様を変更するという機能を有するものである。
次に、上記のような機能を有する画像変更システムを3つのタイプに大別し、以下、それらをそれぞれ第1、第2、第3実施形態として説明する。
<第1実施形態>
図6は、画像変更システムの第1実施形態の基本機能の構成を示すブロック図である。図6に示される手段601〜607と図1に示される手段2〜4との対応関係は以下のとおりである。図1の位置指定手段2に相当するものは、図6の乱数発生手段601、サンプル手段602、テーブルサーチ手段603である。また、図1のタイミング指定手段3に相当するものは、図6の乱数発生手段601、サンプル手段602、テーブルサーチ手段605、加算手段607である。更に、図1の表示態様変更情報出力手段4に相当するものは、図6の乱数発生手段601、サンプル手段602、テーブルサーチ手段604、変更態様情報出力手段606である。
上記各手段601〜607の有する機能について以下説明する。乱数発生手段601は、一定範囲の乱数を発生させ、サンプリング手段602は、乱数発生手段601が発生させた乱数の中から任意の乱数を抽出するものである。テーブルサーチ手段603〜605は、抽出された乱数をテーブルの読み出しアドレスとして用い、仮想現実空間内の位置が記憶されている位置テーブル(不図示)、変更後の表示態様が記憶されている変更態様テーブル(不図示)、前回のタイミング時刻からの経過時間値が記憶されているタイミングテーブル(不図示)から該当するアドレスに格納されているデータを取得する。
テーブルサーチ手段603から出力された位置情報(指定位置情報)とテーブルサーチ手段604から出力された変更後の表示態様の情報に基づいて、変更態様情報出力手段606が変更指定位置近傍の変更後の表示態様の情報を取得する。そして、タイミングテーブル(不図示)から読み出された経過時間値に前回のタイミング時刻値を加算して、タイミング情報を発生すべき時刻の情報を算出し、タイミング情報を発生すべき時刻が到来したときに、変更態様情報出力手段606は、前記取得した指定位置近傍の変更後の表示態様の情報を画像出力手段608に供給する。画像出力手段608は、画像情報を画像生成部231(図3参照)に供給する。
これにより、例えば、図5Aの領域501、502の表示態様が図5Bの領域501’、502’のように変更され、画像生成部231により図5Bに示されるような画像が生成され、画像出力部239を経てHMD120のディスプレイ122に表示される。
<第2実施形態>
図7Aは、画像変更システムの第2実施形態の基本機能の構成を示すブロック図である。図7Aに示される手段701〜706と図1に示される手段2〜4との対応関係は以下のとおりである。図1の位置指定手段2に相当するものは、図7Aの位置検出手段701、位置指定手段705である。また、図1のタイミング指定手段3に相当するものは、図7Aのタイミング取得手段703である。更に、図1の表示態様変更情報出力手段4に相当するものは、図7Aの選択信号検出手段702、テーブルサーチ手段704、変更態様情報出力手段706である。
上記各手段701〜706の中、特に破線内に示される手段701〜703の有する機能に関し、図7Bを使用して以下説明する。図7Bは、図7Aに示される画像変更システムの第2実施形態を用いて現実空間内のオブジェクトの位置情報や表示態様変更の指示情報を取得するための手法の一例を示す模式図である。図7Bにおいては、現実空間内(例えば、スタジオ内)を移動するオブジェクト711、712に、選択操作内容に対応した点滅パターンで発光する選択デバイス721、722を保持させてデジタルビデオカメラ731、732で撮像し、撮像されたシーンを解析して選択デバイス721、722の位置情報を取得するとともに、その点滅パターンから選択操作内容の情報を取得するようにしている。また、点滅パターンの発生時点をタイミング取得手段703で取得し、タイミング情報として使用している。なお、必要に応じて、各デバイスごとの固有のIDを点滅パターンに含めることもできる。
表示態様変更の指示情報は、例えば、点滅パターンと表示態様変更の指示情報との対応関係を予めテーブルに格納しておき、取得された点滅パターンを用いてテーブルのアドレス指定を行い、当該アドレスで指定される領域に格納されている内容(表示態様変更の指示情報)を読み出すことにより取得することができる。
なお、オブジェクト711、712は、典型的には人物であるが、ランダムに移動するロボット等であってもよい。スタジオ内にモニターを設け、ユーザが視認している仮想的光景を視認できるようにしてもよい。オブジェクトや選択デバイスの数、デジタルビデオカメラの個数等は、図示のものに限られるものではなく、適宜設定することができる。また、図7Bに示される選択デバイス721、722は可視光を発生するものであるが、選択デバイスから赤外光を発生させ、それを赤外デジタルビデオカメラで撮像するように構成してもよい。
また、選択デバイスを使用せず、オブジェクト711、712のジェスチャを検出することにより選択操作内容の情報を取得こともできる。この場合、表示態様変更の指示情報は、例えば、ジェスチャと表示態様変更の指示情報との対応関係を予めテーブルに格納しておき、検出されたジェスチャを用いてテーブルのアドレス指定を行い、当該アドレスで指定される領域に格納されている内容(表示態様変更の指示情報)を読み出すことにより取得することができる。この場合は、ジェスチャの検出時点をタイミング取得手段703で取得し、タイミング情報として使用している。
さらに、超音波を利用した次のような構成(不図示)を採用することもできる。即ち、例えば、スタジオの天井に超音波センサを所定間隔でメッシュ状に配置し、スタジオ内を移動するオブジェクトに、選択操作内容に対応したパターンで超音波を発生する選択デバイスを保持させるようにする。選択デバイスから発信された超音波は、天井に配置された超音波センサのいくつかで受信され、伝播遅延時間の差から三角測距の原理で選択デバイスの位置が算出されるとともに、パターン情報から選択操作内容の情報が取得される。なお、必要に応じて、各デバイスごとの固有のIDをパターンに含めることもできる。
<第3実施形態>
図8Aは、画像変更システムの第3実施形態の基本機能の構成を示すブロック図である。図8Aに示される手段801〜806と図1に示される手段2〜4との対応関係は以下のとおりである。図1の位置指定手段2に相当するものは、図7Aの位置検出手段801、位置指定手段805である。また、図1のタイミング指定手段3に相当するものは、図8Aのタイミング取得手段803である。更に、図1の表示態様変更情報出力手段4に相当するものは、図7Aの発生音検出手段802、テーブルサーチ手段804、変更態様情報出力手段806である。
上記各手段801〜806の中、特に破線内に示される手段801〜803の有する機能に関し、図8Bを使用して以下説明する。図8Bは、図8Aに示される画像変更システムの第3実施形態を用いて現実空間内のオブジェクトの位置情報や表示態様変更の指示情報を取得するための手法の一例を示す模式図である。図8Bにおいては、現実空間内(例えば、スタジオ内)を移動するオブジェクト811、812(例えば、人物)が発生する音(音声)831、832を、現実空間内(例えば、スタジオ内)に配置した複数の集音手段821〜824(例えば、マイクロフォン)で収集して、オブジェクト811、812の位置(音源位置)を取得するとともに、発生音831、832の解析結果を利用して表示態様の変更指示情報を取得するようにしている。また、音の発生時点をタイミング取得手段803で取得し、タイミング情報として使用している。
発生音831、832の解析には、例えば、音声認識技術を使用することができる。表示態様変更の指示情報は、例えば、音声と表示態様変更の指示情報との対応関係を予めテーブルに格納しておき、解析された音声情報を用いてテーブルのアドレス指定を行い、当該アドレスで指定される領域に格納されている内容(表示態様変更の指示情報)を読み出すことにより取得することができる。
オブジェクトの数、集音手段の配置や個数等は、図示のものに限られるものではなく、適宜設定することができる。例えば、集音手段をHMD120に設けるように構成してもよい。また、スタジオ内にモニターを設け、ユーザが視認している仮想的光景を視認できるようにしてもよい。
以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱し
ない範囲内において様々な変更が可能である。例えば、所定の条件を満たした場合、例えば、ゲームの進行が特定の段階に至った場合にのみタイミング情報の出力を許容して表示態様の変更を可能にしてもよい。
また、前記システムを構成する各手段は、専用のハードウェアであってもよいが、コンピュータがプログラムを実行することにより各処理段階ごとに実現される仮想的手段(所謂、機能現手段)であってもよい。
さらに、前記システムは、各処理が複数のコンピュータ等によって分散処理されるようなシステムとしても構成できる。
1 画像変更システム
2 位置指定手段
3 タイミング指定手段
4 表示態様変更情報出力手段
5、608、707、807 画像出力手段
120 ヘッドマウントディスプレイ(HMD)
122 ディスプレイ
126 センサ
150 有線ケーブル
200 画像生成装置
202 プロセッサ
204 メモリ
206 ユーザ入力インターフェイス
208 通信インターフェイス
220 記憶部
221 仮想現実空間構成情報
230 処理部
231 画像生成部
239 画像出力部
501、502、501’、502’ 領域
601 乱数発生手段
602 サンプル手段
603,604、605、704、804 テーブルサーチ手段
606、706、806 変更態様情報出力手段
607 加算手段
703、803 タイミング取得手段
705、805 位置指定手段
711、712、811、812 オブジェクト
721、722 選択デバイス
731、732 デジタルビデオカメラ
821〜824 集音手段
831、832 発生音

Claims (21)

  1. ヘッドマウントディスプレイに画像を出力することによって提供される仮想空間内で、前記画像を変更するための画像変更システムであって、
    前記画像を前記ヘッドマウントディスプレイに出力する画像出力手段と、
    前記仮想空間内の位置を指定する位置指定手段と、
    タイミングを指定するタイミング指定手段と、
    前記指定されたタイミングで、前記指定された位置近傍の表示態様の変更情報を出力する表示態様変更情報出力手段と、
    を備え、前記表示態様変更情報出力手段の出力に基づいて前記仮想空間内の画像を変更させることを特徴とする画像変更システム。
  2. 請求項1に記載の画像変更システムにおいて、前記表示態様の変更がオブジェクト及び/又はアクションの変更であることを特徴とする画像変更システム。
  3. 請求項1又は2に記載の画像変更システムにおいて、前記位置指定手段は、前記仮想空間内の位置をランダムに指定し、前記タイミング指定手段はタイミングをランダムに指定することを特徴とする画像変更システム。
  4. 請求項1〜3のいずれか1項に記載の画像変更システムにおいて、前記表示態様変更情報出力手段は、予め用意された複数の表示態様の中から1つをランダムに選択して出力することを特徴とする画像変更システム。
  5. 請求項1又は2に記載の画像変更システムにおいて、前記位置指定手段は、現実空間内を移動する1又は複数のオブジェクトの現実空間内の位置情報に基づいて仮想空間内の位置を指定することを特徴とする画像変更システム。
  6. 請求項5に記載の画像変更システムにおいて、前記表示態様変更情報出力手段は、予め用意された複数の表示態様の中から選択された表示態様の情報に基づいて前記指定された位置近傍の表示態様の変更情報を出力することを特徴とする画像変更システム。
  7. 請求項6に記載の画像変更システムにおいて、前記予め用意された複数の表示態様の中から選択された表示態様は、前記1又は複数のオブジェクトとともに移動する選択デバイスにより指定されることを特徴とする画像変更システム。
  8. 請求項6に記載の画像変更システムにおいて、前記予め用意された複数の表示態様の中から選択された表示態様は、前記1又は複数のオブジェクトのジェスチャにより指定されることを特徴とする画像変更システム。
  9. 請求項5に記載の画像変更システムにおいて、前記現実空間内の位置情報は、前記現実空間内を移動する1又は複数のオブジェクトの発生する音を集音手段により収集することにより取得された音源位置の情報であり、前記表示態様変更情報出力手段は、前記1又は複数のオブジェクトの発生する音を解析し該解析結果に基づいて前記指定された位置近傍の表示態様の変更情報を出力することを特徴とする画像変更システム。
  10. 請求項1〜9のいずれか1項に記載の画像変更システムにおいて、前記仮想空間は仮想現実(Virtual Reality)空間であることを特徴とする画像変更システム。
  11. 仮想空間内で画像を変更するための画像変更方法であって、
    コンピュータが仮想空間内の位置を指定するステップと、
    コンピュータがタイミングを指定するステップと、
    コンピュータが前記指定されたタイミングで、前記指定された位置近傍の表示態様の変更情報を出力するステップと、
    を備え、前記各ステップに基づいて前記仮想空間内の画像を変更させることを特徴とする画像変更方法。
  12. 請求項11に記載の画像変更方法において、前記表示態様の変更が前記指定された位置近傍のオブジェクト及び/又はアクションの変更であることを特徴とする画像変更方法。
  13. 請求項11又は12に記載の画像変更方法において、前記仮想空間内の位置及びタイミングがランダムに指定されることを特徴とする画像変更方法。
  14. 請求項11〜13のいずれか1項に記載の画像変更方法において、前記表示態様の変更情報を出力するステップで、予め用意された複数の表示態様の中から1つがランダムに選択されて出力されることを特徴とする画像変更方法。
  15. 請求項11又は12に記載の画像変更方法において、現実空間内を移動する1又は複数のオブジェクトの現実空間内の位置情報に基づいて仮想空間内の位置が指定されることを特徴とする画像変更方法。
  16. 請求項15に記載の画像変更方法において、予め用意された複数の表示態様の中から選択された表示態様の情報に基づいて前記指定された位置近傍の表示態様の変更情報が出力されることを特徴とする画像変更方法。
  17. 請求項16に記載の画像変更方法において、前記表示態様の変更情報を出力するステップで、前記予め用意された複数の表示態様の中から選択された表示態様は、前記1又は複数のオブジェクトとともに移動する選択デバイスにより指定されることを特徴とする画像変更方法。
  18. 請求項16に記載の画像変更方法において、前記予め用意された複数の表示態様の中から選択された表示態様は、前記1又は複数のオブジェクトのジェスチャにより指定されることを特徴とする画像変更方法。
  19. 請求項18に記載の画像変更方法において、前記現実空間内の位置情報は、前記現実空間内を移動する1又は複数のオブジェクトの発生する音を集音手段により収集することにより取得された音源位置の情報であり、前記1又は複数のオブジェクトの発生する音が解析され該解析結果に基づいて前記指定された位置近傍の表示態様の変更情報が出力されることを特徴とする画像変更方法。
  20. 請求項11〜19のいずれか1項に記載の画像変更方法において、前記仮想空間は仮想現実(Virtual Reality)空間であることを特徴とする画像変更方法。
  21. コンピュータに請求項11〜20のいずれか1項に記載の方法を実行させるためのプログラム。
JP2015221332A 2015-11-11 2015-11-11 画像変更システム、方法、及びプログラム Pending JP2017086542A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015221332A JP2017086542A (ja) 2015-11-11 2015-11-11 画像変更システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015221332A JP2017086542A (ja) 2015-11-11 2015-11-11 画像変更システム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017086542A true JP2017086542A (ja) 2017-05-25
JP2017086542A5 JP2017086542A5 (ja) 2018-09-06

Family

ID=58766841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015221332A Pending JP2017086542A (ja) 2015-11-11 2015-11-11 画像変更システム、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2017086542A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839563B2 (en) 2017-12-20 2020-11-17 Samsung Electronics Co., Ltd. Method and apparatus for processing image interaction
JPWO2019235245A1 (ja) * 2018-06-07 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、情報処理システム
JP7299371B1 (ja) 2022-03-31 2023-06-27 Kddi株式会社 情報処理装置及び情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353248A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2008067863A (ja) * 2006-09-13 2008-03-27 Konami Digital Entertainment:Kk ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2010046151A (ja) * 2008-08-19 2010-03-04 Chubu Electric Power Co Inc ゲーム装置及びその制御方法
JP2015008966A (ja) * 2013-06-28 2015-01-19 株式会社バンダイナムコゲームス プログラムおよびコンピュータシステム
JP2015073720A (ja) * 2013-10-09 2015-04-20 株式会社 ディー・エヌ・エー サーバ装置、電子ゲーム装置及び電子ゲームプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353248A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2008067863A (ja) * 2006-09-13 2008-03-27 Konami Digital Entertainment:Kk ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2010046151A (ja) * 2008-08-19 2010-03-04 Chubu Electric Power Co Inc ゲーム装置及びその制御方法
JP2015008966A (ja) * 2013-06-28 2015-01-19 株式会社バンダイナムコゲームス プログラムおよびコンピュータシステム
JP2015073720A (ja) * 2013-10-09 2015-04-20 株式会社 ディー・エヌ・エー サーバ装置、電子ゲーム装置及び電子ゲームプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"もっとFlashを極めたい人に送る ActionScript 3 テクニカルバイブル", WEB CREATORS VOL.94, vol. 通巻94号, JPN6019025782, 1 October 2009 (2009-10-01), JP, pages 078 - 081, ISSN: 0004187752 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839563B2 (en) 2017-12-20 2020-11-17 Samsung Electronics Co., Ltd. Method and apparatus for processing image interaction
JPWO2019235245A1 (ja) * 2018-06-07 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、情報処理システム
JP7414715B2 (ja) 2018-06-07 2024-01-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、情報処理システム
JP7299371B1 (ja) 2022-03-31 2023-06-27 Kddi株式会社 情報処理装置及び情報処理方法
JP2023151115A (ja) * 2022-03-31 2023-10-16 Kddi株式会社 情報処理装置及び情報処理方法

Similar Documents

Publication Publication Date Title
TWI732194B (zh) 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染的方法及系統以及非暫時性電腦可讀媒體
US10671239B2 (en) Three dimensional digital content editing in virtual reality
JP6276882B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
JP6263252B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6392911B2 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2010253277A (ja) ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
JP2010257461A (ja) ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US11189057B2 (en) Provision of virtual reality content
US20220147138A1 (en) Image generation apparatus and information presentation method
WO2021261346A1 (ja) 情報処理装置、方法、プログラム及び情報処理システム
JP2017086542A (ja) 画像変更システム、方法、及びプログラム
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2018194889A (ja) 情報処理方法、コンピュータ及びプログラム
JP2019032844A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018100906A1 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP2019133309A (ja) プログラム、情報処理装置、及び情報処理方法
JP7192151B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP6554139B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2014195715A (ja) ゲームプログラムおよびゲーム装置
JP6458179B1 (ja) プログラム、情報処理装置、および方法
JP2019155115A (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200107