JP2020112895A - 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置 - Google Patents

情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置 Download PDF

Info

Publication number
JP2020112895A
JP2020112895A JP2019001492A JP2019001492A JP2020112895A JP 2020112895 A JP2020112895 A JP 2020112895A JP 2019001492 A JP2019001492 A JP 2019001492A JP 2019001492 A JP2019001492 A JP 2019001492A JP 2020112895 A JP2020112895 A JP 2020112895A
Authority
JP
Japan
Prior art keywords
information
virtual space
avatar
function
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019001492A
Other languages
English (en)
Other versions
JP6721727B1 (ja
Inventor
翔太 塩原
Shota Shiobara
翔太 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2019001492A priority Critical patent/JP6721727B1/ja
Application granted granted Critical
Publication of JP6721727B1 publication Critical patent/JP6721727B1/ja
Publication of JP2020112895A publication Critical patent/JP2020112895A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間内におけるトラブル等の事象を記録可能な、情報処理装置の制御プログラム等を提供すること。【解決手段】ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムは、情報処理装置に、仮想空間における位置を指定する入力情報を生成する位置指定機能と、位置指定機能によって指定された位置における仮想空間の画像情報を取得する取得機能と、画像情報に含まれる1以上のアバターを抽出し、抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析機能と、解析機能による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、生成機能によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶機能とを実現させる。【選択図】 図1

Description

本発明は、情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置に関し、特に、仮想空間を提供するシステムで用いられる情報処理装置の制御プログラム等に関する。
近年、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)の普及と共に、HMDを用いた仮想空間を提供する様々なサービスが広がりを見せている。特に、ネットワークを介して、仮想空間上の複数のユーザがそれぞれのアバターを通じてコミュニケーションを図るサービスが人気を博している(例えば、非特許文献1)。このような仮想空間の実現において、現実世界のユーザの動きや表情をアバターに反映する技術が提案されている。(例えば、特許文献1)。
なお、仮想空間においても、現実世界と同様に、アバター間(ユーザ間)において様々なトラブルが発生することが考えられる。このような問題に対し、例えば特許文献2では、仮想空間内での会話やチャットを健全に運営すべく、不正ユーザ、迷惑行為ユーザを早期に発見する技術が提案されている。
"VR CHAT"、[online]、[平成30年12月5日検索]、インターネット、<https://www.vrchat.net/#>
特開2016−531333号公報 特開2018−92416号公報
特許文献2では、通報者としてのユーザが、迷惑行為を行うアバターを撮影し、撮影画像に関する情報が通報データとしてサーバへ送信される。しかしながら、特許文献2に記載の技術では、以下のような問題がある。
まず、通報者としてのユーザ毎に、迷惑行為か否かの判断基準が異なる。従って、不要な通報が送信されたり、逆に、真の迷惑行為が通報されないことも起こり得る。また、仮想空間の管理者側が、犯罪となり得る行為に関する情報のやり取り等、不正行為を実行可能な場所として仮想空間を提供することも起こり得る。この場合、ユーザが通報したとしても、管理者側で適切な対応が取られるとは考え難い。
なお、仮想空間内で生じたトラブルを後から確認できるように、各ユーザの操作履歴を記録しておくことも考えられる。しかしながら、各アバターに対する各ユーザの操作情報には、アバターを動かすための操作情報、音声、そして、将来的には触覚などの情報も含まれてくると考えられる。それらの情報は、ユーザ数も相まって膨大なものになると考えられるため、これらの情報を記憶することは現実的ではない。
そこで、本発明は、上述のような問題を解消し、仮想空間内におけるトラブル等の事象を記録可能な、情報処理装置の制御プログラム等を提供する。
本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムであって、当該情報処理装置に、仮想空間における位置を指定する入力情報を生成する位置入力機能と、位置入力機能によって指定された位置における仮想空間の画像情報を取得する取得機能と、画像情報に含まれる1以上のアバターを抽出し、抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析機能と、解析機能による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、生成機能によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶機能と、を実現させる。
本発明の一実施形態に係る制御プログラムにおいて、取得機能は、仮想空間の画像情報とともに音声情報を取得し、解析機能は、アバターとともに当該アバターの音声情報を抽出し、生成機能は、所定の条件の判定に、音声情報をさらに用いてもよい。
本発明の一実施形態に係る制御プログラムは、情報処理装置に、仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け機能をさらに実現させ、生成機能は、所定の条件として、抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、テキスト情報を生成してもよい。
本発明の一実施形態に係る制御プログラムにおいて、位置入力機能は、解析機能によって抽出されたアバターが所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定する入力情報を生成し、取得機能は、複数の位置における、アバターに関する画像情報を取得してもよい。
本発明の一実施形態に係る制御プログラムにおいて、関連付け機能は、アバターの一連の動作を学習した結果に基づいて、アバターに関連付けるアノテーション情報を更新してもよい。
本発明の一実施形態に係る制御プログラムにおいて、記憶機能は、生成機能によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いてもよい。
本発明の一実施形態に係る制御プログラムにおいて、記憶機能は、1のアバターとして仮想空間システムに登録された登録情報をさらに記憶し、位置入力機能は、仮想空間システムにおける1のアバターの位置を入力し、取得機能は、1のアバターの視界として、仮想空間の画像情報を取得してもよい。
本発明の一実施形態に係る制御プログラムにおいて、1のアバターは、仮想空間において背景を透過させる透明なオブジェクトとして実現されてもよい。
本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御方法は、当該情報処理装置が、仮想空間における位置を指定する入力情報を生成するステップと、指定された位置における仮想空間の画像情報を取得するステップと、画像情報に含まれる1以上のアバターを抽出し、抽出するステップによって抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析するステップと、解析するステップによる解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成するステップと、生成するステップにて生成されたテキスト情報を、所定の記憶部に記憶させるステップと、を実行する。
本発明の一実施形態に係る、ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間におけるユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置は、仮想空間における位置を指定する入力情報を生成する位置入力部と、位置入力部によって指定された位置における仮想空間の画像情報を取得する取得部と、画像情報に含まれる1以上のアバターを抽出し、抽出部によって抽出されたアバターが所定の条件を満たす場合に、アバターの動作を解析する解析部と、解析部による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する生成部と、生成部によって生成されたテキスト情報を、所定の記憶部に記憶させる記憶制御部と、を備える。
本発明によれば、仮想空間内におけるトラブル等の事象を記録する情報処理装置の制御プログラム等を提供することができる。
本発明の一実施形態に係る仮想空間記録システム構成の概略図である。 本発明の一実施形態に係る記録サーバ(情報処理装置)、コンピュータ、及び、HMDのハードウェア構成の一例である。 本発明の一実施形態に係るコンピュータのソフトウェア構成の一例である。 本発明の一実施形態に係る記録サーバ(情報処理装置)のソフトウェア構成の一例である。 (a)は、本発明の一実施形態に係る仮想空間記録システムを説明する概略図、(b)は、本発明の一実施形態に係る仮想空間記録システムにおいて記憶される情報の一例である。 本発明の一実施形態に係るシーケンスの一例である。 本発明の一実施形態に係る仮想空間記録システムにおいて生成されるアノテーション情報の一例である。 本発明の他の実施形態に係る仮想空間記録システムを説明する概略図である。
以降、諸図面を参照しながら、本発明の一実施形態を詳細に説明する。
<システム構成>
図1は、本発明の一実施形態に係る仮想空間記録システムの構成例を示す図である。図1に示すように、仮想空間記録システム700は、ネットワーク600を介して互いに接続された、記録サーバ(情報処理装置)100と、仮想空間提供サーバ200と、各ユーザのHMDシステム500A〜500Cとを含む。記録サーバ100は、仮想空間提供サーバ200が提供する仮想空間において生じる事象を記録する(詳細は後述する)。
仮想空間提供サーバ200は、仮想空間提供サービス(以降、「仮想空間サービス」と称する)の管理者側のサーバであって、ユーザA〜ユーザCそれぞれのHMDシステム500A〜500Cに仮想空間サービスを提供する。HMDシステム500A〜500Cは、ユーザが仮想空間サービスを利用するためのシステムであって、それぞれ、ユーザ端末としてのHMD400A〜400C及びコンピュータ300A〜300Cを含む。なお、図1において、ユーザはユーザA、ユーザB、ユーザCの3人を示してあるが、これに限られるものではなく、これ以上でも、これ以下でもよい。また、HMD400A〜400Cは、同一の種類のものである必要はなく、仮想空間提供サーバ200が提供する仮想空間サービスを利用可能であればその種類は問わない。
なお、上述のように、ユーザXに対応するHMDシステム500やコンピュータ300等を、HMDシステムXやコンピュータ300X等と表現し、また、仮想空間サービスにおけるユーザ情報を、ユーザ情報Xと表現する。ここで、ユーザ情報とは、仮想空間サービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、例えば、ユーザにより入力される、又は、仮想空間サービスにより付与される、ユーザの名前、ユーザのアバター情報、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、電話番号やメールアドレスなどのユーザの連絡先、ユーザの識別子(ユーザID(IDentifier))などのユーザに対応づけられた情報であってよい。
なお、これ以降、特に区別する必要のない場合、HMDシステム500A〜500CをHMDシステム500、HMD400A〜400CをHMD400、コンピュータ300A〜300Cをコンピュータ300と総称する。
ネットワーク600は、仮想空間提供サーバ200、記録サーバ100、及び、各コンピュータ300を接続する役割を担う。ネットワーク600は、これらの間でデータを送受信することができるように接続経路を提供する通信網を意味する。ネットワーク600は、無線ネットワークや有線ネットワークを含んでよい。具体的には、ネットワーク600は、ワイヤレスLAN(wireless LAN:WLAN)や広域ネットワーク(wide area network:WAN)、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)、LTE−Advanced、第4世代(4G)、第5世代(5G)、CDMA(code division multiple access)等である。なお、ネットワーク600は、これらの例に限られず、例えば、公衆交換電話網(Public Switched Telephone Network:PSTN)やブルートゥース(Bluetooth(登録商標))、光回線、ADSL(Asymmetric Digital Subscriber LINE)回線、衛星通信網等であってもよい。また、ネットワーク600は、これらの組み合わせであってもよい。
仮想空間提供サーバ200は、典型的にはクラウド上で実現されてもよい。仮想空間提供サーバ200は、アプリケーションサーバとしての機能を有し、コンピュータ300にインストールされたアプリケーションからの要求に応じて各種処理を実行する。
コンピュータ300では、アプリケーションプログラムに基づいて、仮想空間や、コンピュータ300のユーザ、及び、他のユーザのアバターの表示、音声の出力等が行われる。コンピュータ300は、HMD400に対し、HMD400を装着したユーザに仮想空間を提供するための情報を送信する。仮想空間を提供するための情報とは、仮想空間を表示させる表示情報、仮想空間における音声情報、及び、将来的には触覚情報等を含む。なお、動画像情報を含んでもよい。また、コンピュータ300は、HMD400を装着したユーザの動作に関する動作情報や、ユーザが発生した音声に関する音声情報(以降、「動作情報等」と称する)を、HMD400から取得し、取得した動作情報に応じて、仮想空間の表示を変化させる。また、コンピュータ300は、ネットワーク600を介して仮想空間提供サーバ200から送信された、他のユーザの動作情報に応じて、仮想空間における他のユーザのアバターを動作させる。
HMD400は、ユーザの頭部に装着される。HMD400は、コンピュータ300に接続されて仮想空間をユーザに提供する。HMD400は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。なお、図及び本開示では、コンピュータ300に仮想空間のアプリケーションがインストールされる態様について説明するが、本発明はこれに限られるものではなく、HMD400にアプリケーションがインストールされ、また、HMD400がネットワーク600に直接接続されて、ユーザに仮想空間を提供してもよい。
なお、記録サーバ100、仮想空間提供サーバ200、コンピュータ300、及び、HMD400は、本開示に記載される機能、及び/又は、方法を実現できる情報処理装置であればどのような情報処理装置であってもよい。例えば、これら情報処理装置の例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、サーバ装置、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダなど)、ハンドヘルドコンピュータデバイス(例えば、PDA(Personal Digital Assistant)、電子メールクライアントなど)、ウェアラブル端末(例えば、メガネ型デバイス、時計型デバイスなど)、他種のコンピュータ、又はコミュニケーションプラットホームを含んでよい。
<ハードウェア構成>
図2を用いて、仮想空間記録システム700に含まれる記録サーバ100、コンピュータ300、及び、HMD400のハードウェア構成について説明する。
(1)HMDシステム500のハードウェア構成
本発明の一実施形態において、仮想空間提供サービスは既存のものを用いることができ、仮想空間提供サーバ200及びHMDシステム500は既存の技術であってよい。従って、仮想空間提供サービスや仮想空間提供サーバ200の詳細な説明は省略する。なお、仮想空間提供サービスは、本開示の記載に限定されるものではない。
コンピュータ300は、プロセッサ301と、ストレージ302と、入出力インタフェース(入出力I/F)303と、メモリ304と、通信インタフェース(通信I/F)305とを含む。各構成要素は、バスBを介して相互に接続される。
プロセッサ301は、ストレージ302に記憶されるプログラムに含まれるコード又は命令によって実現する機能や方法を実行する。メモリ304は、ストレージ302からロードしたプログラムを一時的に記憶し、プロセッサ301に対して作業領域を提供する。メモリ304には、プロセッサ301がプログラムを実行している間に生成される各種データも一時的に格納される。ストレージ302は、プログラムを記憶する。
通信I/F305は、ネットワーク600を介して、他の情報処理装置である仮想空間提供サーバ200や記録サーバ100との通信を実行する。通信I/F305は、各種データを、プロセッサ301からの指示に従って、他の情報処理装置に送信する。また、通信I/F305は、他の情報処理装置から送信された各種データを受信し、プロセッサ301に伝達する。
入出力I/F303は、HMD400との接続インタフェースであって、HMD400との間でデータの通信を行う。入出力I/F303としては、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)等が含まれる。なお、HMD400とコンピュータ300との間のデータの通信は、無線通信(近距離無線通信(Bluetooth,Wi-Fi等))又は有線通信を介して行われてもよい。また、入出力I/F303には、図示しない、HMD400とは別個に設けられる他のセンサであって、例えば、赤外線センサ、カメラ等が接続されてもよい。カメラは、ユーザの表情を検出可能に備えられ、ユーザの表情の変化を、アバターの表情の変化に反映させてもよい。
HMD400は、ジャイロセンサ410、視線センサ420、カメラ430、マイク440、モニタ450、及び、スピーカ460を含む。モニタ450は、例えば、液晶モニタ又は有機EL(Electro Luminescence)モニタとして実現され、3次元の仮想空間を表示する。より具体的には、モニタ450には、両目の視差に基づく3次元画像がユーザに認識されるように、右目用の画像及び左目用の画像が表示される。なお、ここではモニタ450として説明しているが、網膜投影であってもよい。
ジャイロセンサ410は、HMD400の傾きを検出する。なお、HMD400は、ジャイロセンサ410の他にも、加速度センサ、地磁気センサその他のセンサを含み、HMD400を装着したユーザの頭の動き(回転、傾き、向き、加速度等)を検出可能であってよい。さらに、コンピュータ300が、HMD400に備えられたセンサや、上述した別個のセンサからの出力に基づいて、HMD400の位置及び傾きを検出するように構成されてもよい。
カメラ430は、カメラ430から対象物までの深度情報を取得可能に構成され、HMD400を装着したユーザの視線方向にあるもの(例えば、ユーザの手)を3次元で表示するためのデータを取得する。例えば、カメラ430は、TOF(Time Of Flight)カメラ、ステレオカメラ、赤外線カメラ等であってよい。カメラ430は、取得した対象物の深度情報をコンピュータ300に出力する。
スピーカ460は、コンピュータ300から受信した音声信号を、音声に変換してユーザに出力する。マイク440は、ユーザの発話を電気信号に変換して、コンピュータ300に出力する。視線センサ420は、ユーザの右目及び左目の視線が向けられる方向(視線)を検出する。
(2)記録サーバ100のハードウェア構成
記録サーバ100は、プロセッサ101と、ストレージ102と、入出力インタフェース(入出力I/F)103と、メモリ104と、通信インタフェース(通信I/F)105とを含む。各構成要素は、バスBを介して相互に接続される。
記録サーバ100は、プロセッサ101と、ストレージ102と、入出力I/F103と、メモリ104と、通信I/F105との協働により、本実施形態に記載される機能や方法を実現する。例えば、本開示の機能又は方法は、メモリ104に読み込まれたプログラムに含まれる命令をプロセッサ101が実行することによって実現される。
プロセッサ101は、ストレージ102に記憶されるプログラムに含まれるコード又は命令によって実現する機能、及び/又は、方法を実行する。プロセッサ101は、例えば、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
メモリ104は、ストレージ102からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ104には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む。
ストレージ102は、プログラムを記憶する。ストレージ102は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含む。
通信I/F105は、ネットワークアダプタ等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク600を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、ネットワーク600を介して、他の情報処理装置である仮想空間提供サーバ200やコンピュータ300との通信を実行する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。
入出力I/F103は、記録サーバ100に対する各種操作を入力する入力装置、及び、記録サーバ100で処理された処理結果を出力する出力装置を含む。入出力I/F103は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力装置は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。出力装置は、プロセッサ101で処理された処理結果を出力する。出力装置は、例えば、タッチパネル、スピーカ等を含む。
<機能構成>
次に、図3、図4を用いて、コンピュータ300、記録サーバ100の機能構成について説明する。
(1)コンピュータ300の機能構成
図3に、コンピュータ300の機能構成の概略図を示す。図3に示すように、コンピュータ300は、仮想空間アプリケーション310として、表示制御部320及び仮想空間制御部330を含む。さらに、コンピュータ300は、通信制御部340、記憶部350、入出力制御部360を含む。
通信制御部340は、通信I/F305を介した他の情報処理装置との間の通信を制御する。すなわち、通信制御部340は、他の情報処理装置である仮想空間提供サーバ200、記録サーバ100、他のコンピュータ300との間の通信で取得したデータを、仮想空間アプリケーション310や記憶部350へ送信したり、仮想空間アプリケーション310や記憶部350からのデータを、他の情報処理装置へ送信したりする。
入出力制御部360は、入出力I/F303を介した、例えばHMD400との間の通信を制御する。すなわち、入出力制御部360は、HMD400から送信されたユーザの動作情報や音声情報を、仮想空間アプリケーション310や記憶部350へ送信したり、仮想空間アプリケーション310から送信された仮想空間の表示情報や音声情報を、HMD400へ送信したりする。
表示制御部320は、仮想空間のうちHMD400のモニタ450に表示させる画像を制御する。表示制御部320は、位置入力部321、視点入力部322、視界画像生成部323、動き検出部324、角速度検出部325、及び、視線検出部326を含む。
位置入力部321は、HMD400から送信されたユーザの動作情報に応じて、仮想空間における位置を設定する。すなわち、位置入力部321は、ユーザの歩行動作や走行動作に応じて、仮想空間内の移動先や移動距離を設定する。なお、ユーザの動作情報は、HMD400から送信されるものに限られず、図示しないコントローラから送信されてもよい。コントローラとしては、既知のものを用いることができる。又は、位置入力部321は、ユーザから直接入力された仮想空間内での移動先に基づき、仮想空間における位置を設定してもよい。視点入力部322は、HMD400の傾き(すなわち、ジャイロセンサ410の出力)と、位置入力部321によって設定された位置に応じて、ユーザの仮想空間の視界領域を設定する。視界画像生成部323は、設定された視界領域に基づいて、モニタ450に表示する仮想空間の視界画像を生成する。
動き検出部324は、HMD400から送信されたユーザの動きを検出する。ここ検出部326は、ジャイロセンサ410や図示しない他のセンサからの出力に基づいて、ユーザの視線としてのHMD400の傾きを検出する。角速度検出部325は、ジャイロセンサ410の出力を角速度に変換し、変換した角速度を、視点入力部322及び視線検出部326に出力する。
仮想空間制御部330は、ユーザに提供する仮想空間を制御する。仮想空間制御部330は、仮想空間生成部331、仮想オブジェクト生成部332、及び、アバター生成部333を含む。
仮想空間生成部331は、仮想空間を表す仮想空間データを生成し、HMD400へ出力する。仮想オブジェクト生成部332は、仮想空間に配置されるオブジェクトを生成する。オブジェクトは、例えば、仮想空間に設定されたテーマや物語に従って配置される、市街地、道路、店舗といった人工物や、森、山その他を含む風景、動物等の自然物を模したオブジェクトを含んでよい。なお、仮想オブジェクト生成部332は、仮想空間においてユーザによる操作が可能なオブジェクトを生成してもよい。操作が可能なオブジェクトとしては、例えば、ユーザの手(ユーザのアバターの手)、他のユーザのアバターの手であってよい。また、仮想オブジェクト生成部332は、仮想空間サービスの登録ユーザによるプログラムに基づいて生成される任意のオブジェクトを表示させてもよい。なお、仮想空間において生成(表示)されるオブジェクトとしては、上述のものに限られるものではなく、例えば、仮想通貨、文字、静止画、動画等様々なものを含むことができる。
アバター生成部333は、仮想空間に配置されるアバターのデータを生成する。仮想空間に配置されるアバターとしては、ネットワーク600を介して接続される他のコンピュータ300の他のユーザのアバターオブジェクトであったり、ユーザのアバターオブジェクトであったりしてよい。なお、アバターオブジェクトとしては、人物、動物、ロボット、キャラクター等、ユーザによって設定された様々なものを含むことができる。
アバター生成部333は、角速度検出部325が出力する角速度に基づいて、HMD400の動きを、ユーザのアバターオブジェクトに反映する。また、アバター生成部333は、動き検出部324の出力に基づいて、現実空間のユーザの手の動きを含むユーザの動作を、アバターオブジェクトに反映する。また、アバター生成部333は、カメラで取得されたユーザの表情の変化や、ユーザの音声・発話内容に応じて、アバターの表情を変化させる。これは、既知の3次元画像生成技術や、HMDのユーザの顔に接触する部分に筋電センサを設けて表情を推定する技術によって行うことができる。また、アバター生成部333は、他のコンピュータ300から入力される角速度の情報などに基づいて、他のコンピュータ300の他のユーザに対応するアバターオブジェクトを動かして表示させる。
記憶部350は、コンピュータ300が仮想空間をユーザに提供するために用いるデータを保持する。記憶部350は、仮想空間情報351や、ユーザ情報352を含む。仮想空間情報351は、仮想空間を提供するために規定された1つ以上のテンプレートや、上述したオブジェクト等を含む。
ユーザ情報352は、HMDシステム500の制御装置としてコンピュータ300を機能させるためのプログラムや、仮想空間サービスのアプリケーションプログラム、仮想空間サービスで利用可能なコンテンツ等を保持する。これらのプログラムやコンテンツは、仮想空間サービスを提供する事業者(例えば、仮想空間提供サーバ200)や、コンテンツを提供する事業者のコンピュータや、クラウド上のデータをダウンロードすることで取得してもよい。
なお、仮想空間アプリケーション310の一部は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。又は、仮想空間アプリケーション310は、各処理を実現する回路素子の組み合わせとしても実現され得る。
(2)記録サーバ100の機能構成
図4に、記録サーバ100の機能構成の概略図を示す。図4に示すように、記録サーバ100は、仮想空間アプリケーション110として、表示制御部120及び仮想空間制御部130を含む。さらに、記録サーバ100は、通信制御部140、記憶部150、操作入力情報生成部160、画像認識部170、テキスト生成部181、及び、関連付け部182を含む。
ここで、記録サーバ100の各機能部の説明に先立ち、コンピュータ300と記録サーバ100と間の機能構成の差異について説明する。
記録サーバ100は、コンピュータ300と同様に、仮想空間サービスのアプリケーションプログラムをインストールされ、当該プログラムに基づき、仮想空間に関するデータを取得する。従って、コンピュータ300における仮想空間アプリケーション310と、記録サーバ100における仮想空間アプリケーション110との間に、機能上の差異はない。すなわち、本発明の一実施形態における仮想空間記録システムの実現にあたり、仮想空間サービスの管理者側に、何ら特別な措置を強いる必要はない。
記録サーバ100とコンピュータ300とは、記録サーバ100にはHMD400が接続されず、記録サーバ100において、仮想空間を記録する場所(位置)や方向を指定するための入力情報が、操作入力情報生成部160によって生成される点に差異の1つがある。このため、図4において、仮想空間アプリケーション110の表示制御部120に、HMD400に関する動き検出部、角速度検出部、視線検出部は図示していない。しかしながら、本発明の一実施形態において、仮想空間サービスのアプリケーションプログラムを利用する場合、これら動き検出部、角速度検出部、視線検出部が機能として含まれてもよい。
上述のように、仮想空間アプリケーション110は、仮想空間アプリケーション310と同様であるため、以下では、同様の部分についての説明を省略し、異なる部分について説明する。
操作入力情報生成部160は、HMDシステム500においてはHMD400によって生成される情報を生成する。すなわち、位置入力情報生成部161は、仮想空間における位置を指定(設定)する入力情報を生成する。視点入力情報生成部162は、仮想空間の視界領域を指定する入力情報を生成する。これら、操作入力情報生成部160によって生成される入力情報は、HMD400から送信されるデータ形式に則ったデータ形式で生成されてよい。又は、原点を設定し、当該原点からの相対位置を数値で指定するものであってよいし、座標を直接指定するものであってよい。また、視点入力情報生成部162によって生成される情報には、現在位置からの回転角、回転方向などを含む。
画像認識部170は、仮想空間アプリケーション110によって生成された仮想空間に関する画像データを処理する。画像認識部170は、視界画像取得部171、解析部172を含む。視界画像取得部171は、仮想空間アプリケーション110における視界画像生成部123が生成した視界画像の情報(画像情報)を取得する。解析部172は、視界画像取得部171が取得した画像における1以上のアバターを抽出する。解析部172におけるアバターの抽出は、既存の画像解析技術を用いて行うことができる。
解析部172は、抽出されたアバターが所定の条件を満たすか否かを判定する。詳細は後述するが、所定の条件とは、仮想空間におけるトラブルの発生や、トラブルの発生に繋がり得る状態を判定可能な条件である。解析部172は、さらに、抽出されたアバターが所定の条件を満たすと判定された場合、当該アバターの動作を解析する。本開示において、解析とは、解析対象の統計的なデータを得ることを意味し、アバターの動作の解析とは、アバターの動作が時間の経過に沿ってどのように変化したかについてのデータを得ることを意味する。この、解析部172によるアバターの動作の解析やアバターの表情の解析も、既存の画像解析技術を用いることが出来る。なお、解析部172には、人工知能(AI:Artifficial Intelligence)、例えば、深層学習による解析技術が用いられてもよい。テキスト生成部181は、解析部172による解析の結果に基づき、アバターの動作に関する情報を記述するテキスト情報を生成する。
通信制御部140は、通信I/F105を介した他の情報処理装置との間の通信を制御する。すなわち、通信制御部140は、他の情報処理装置である仮想空間提供サーバ200、複数のコンピュータ300との間の通信で取得したデータを、仮想空間アプリケーション110や記憶部150へ送信したり、仮想空間アプリケーション110や記憶部150からのデータを、他の情報処理装置へ送信したりする。
記憶部150は、仮想空間情報151、ユーザ情報152、条件データベース(DB)153を含む。仮想空間情報151は、仮想空間を提供するために規定された1つ以上のテンプレートや、上述したオブジェクト等を含む。条件データベース153は、上述した所定の条件を保持する。さらに、記憶部150は、テキスト生成部181によって生成されたテキスト情報を保持する。
<仮想空間における記録処理>
次に、図5を用いて、記録サーバ100が仮想空間における事象を記録する概要について説明する。図5(a)は、仮想空間10を半球で表した図である。図において、仮想空間10はアバター20A,20Bを含む状態を示してある。
図において、アバター30Uは、記録サーバ100の1のアカウントに対応する。図に示すように、本発明の一実施形態によれば、記録サーバ100が仮想空間サービスにおけるアカウントを有し、当該アカウントに対応付けてアバター30Uを仮想空間内に配置することができる。そして、操作入力情報生成部160は、アバター30を移動させる情報や、アバター30の視点を動かす入力情報を生成し、仮想空間アプリケーション110へ当該情報を送信することができる。これにより、仮想空間における視界画像を取得することが可能となる。
なおこのとき、アバター30Uは、背景を透過させる透明なオブジェクトとして実現してもよい。また、アバター30Uは、仮想空間内の通常のアバターの移動ルールに縛られる必要はなく、例えば、空間に浮いた状態での上からの俯瞰画像を取得できてもよい。即ち、本実施の形態に係る記録サーバ100に係るアバター30Uは、いわば、透明な監視カメラとして仮想空間内の画像情報を取得することができる。これにより、仮想空間の利用ユーザに記録システムを検知させず、自然な動作を行わせることが可能となる。
図5(a)において、アバター30Uから延びる点線によって囲まれたフィールドは、アバター30Uの仮想的な視界領域を表す。図において、アバター30Uの視界には、アバター20A,20Bが含まれ、視界画像取得部171は、アバター20A,20Bが含まれる画像情報を取得することができる。解析部172は、アバター20A,20Bを抽出し、これらのアバターが所定の条件を満たすか否かを判定する。
所定の条件とは、仮想空間におけるトラブルに繋がりかねない状態であって、例えば、「ユーザ同士の接近」、「ジェスチャーでのやり取り」、「顔の表情が負の感情に分類される」、「受け渡しが禁止されているオブジェクトの受け渡し」等の条件や、それらの組合せであってよい。解析部172は、アバターの含まれる画像を既知の画像解析技術で解析し、アバターについて、所定の条件にあてはまる行動があった場合に、所定の条件を満たすと判定する。
例えば、図5では、アバター20Aとアバター20Bとが接近し、所定の条件を満たしたとする。そのため、解析部172は、アバター20Aとアバター20Bの動作の解析を開始する。テキスト生成部181は、解析部172による解析結果に基づき、アバターの動作を記述するテキスト情報を生成する。なお、その際、テキスト生成部181は、当該動作の開始時間や終了時間、仮想空間における場所についての情報を含むテキスト情報を生成してもよい。図5(b)に、生成されるテキスト情報の一例を示す。図のように、日付、事象の発生場所(場所ID)とともに、事象の内容が記録される。
上述のように、本発明の一実施形態によれば、アバターの動作を画像から解析し、テキスト情報として記述することができる。この際、所定の条件を満たすアバターに関してのみテキスト情報が生成されるため、仮想空間サービスの利用ユーザ毎に異なり得る不正行為の判断を一律化することができ、また、利用ユーザに負担をかけることがない。さらに、仮想空間で生じた全ての事象を記録しないため、記録するデータを削減することができる。さらに、本発明の一実施形態を実現するのに、仮想空間サービスによって提供されるアプリケーションを用いることができるため、仮想空間サービスの管理者側に負担を強いることがない。また、仮想空間における事象の記録は、視界画像の解析によって行われ、各アバターの3次元データを取得する必要はないため、アバターの動作を反映させる膨大なデータの取得を必要としない。
なお、所定の条件の判定には、アバターの音声情報がさらに用いられてもよい。視界画像取得部171は、仮想空間アプリケーション110から、仮想空間の画像情報とともに音声情報を取得することができる。解析部172は、画像情報から、アバターと、当該アバターの音声情報を抽出し、抽出した音声情報が所定の条件を満たすか否かを判定する。音声情報に関する所定の条件は、例えば、「暴言」、「口論」、「合言葉の使用」、等とすることができる。なお、音声情報に関する所定の条件と、動作に関する所定の条件とを組み合わせて判定されてもよい。
本発明の一実施形態によれば、音声情報を用いて、仮想空間における事象の記録の有無が判定されるため、トラブルとなり得る事象を適切に記録することができる。
ここで、本発明の一実施形態による記録システムについて、図6を用いて説明する。図6は、記録処理における、記録サーバ100、HMDシステム500A、仮想空間提供サーバ200間のシーケンス図である。なお、HMDシステム500としてユーザAのHMDシステム500Aを示してあるが、他のHMDシステム500B,500Cも同様にネットワーク600と接続され、ユーザB、ユーザCの動作も、仮想空間における各アバターに反映されることに留意されたい。
まず、HMDシステム500Aにおいて、HMD400AはユーザAの動作情報及び音声情報を取得し、コンピュータ300Aへ送信する(ステップS21)。コンピュータ300Aは、ユーザAの動作情報及び音声情報をアバターAに反映させる表示情報及び音声情報を、HMD400Aに送信する(ステップS22)。記録サーバ100において、位置入力情報生成部161が生成した入力情報に応じて、仮想空間における位置が指定され、視点入力情報生成部162が生成した入力情報に応じて、視点(視野領域)が指定される(ステップS26)。記録サーバ100の視界画像取得部171は、仮想空間アプリケーション110によって生成された視界画像を取得し、解析部172は、視界画像に含まれる1以上のアバターを抽出する(ステップS27)。HMD400Aでは、アバターAの動作が表示され、音声が再生される(ステップS25)。
仮想空間提供サーバ200は、アバターAの動作情報及び音声情報を、記録サーバ100へ送信する(ステップS23)。記録サーバ100の視界画像生成部は、アバターAの動作を反映させる視界画像を生成する。視界画像取得部171は、当該視界画像に関する情報、すなわち、アバターAの動作を表示、音声(あれば)を再生させる視界画像に関する画像情報を取得し、解析部172は、画像情報に含まれるアバターAを抽出する(ステップS27)。そして、解析部172は、アバターAが所定の条件を満たすか否か判定する(ステップS28)。所定の条件を満たさない場合(ステップS28でNO)、ステップS26へ戻り仮想空間における位置を変更するか、処理を終了する。所定の条件を満たす場合(ステップS28でYES)、解析部172は、アバターAの一連の動作を解析し、テキスト生成部181は、アバターAの動作に関する情報を記述するテキスト情報を生成する(ステップS29)。
なお、図6のシーケンスにおいて、ステップの順番は厳密なものではなく、各HMDシステム500から送信されたユーザの動作情報が、仮想空間のアバターに反映され、当該仮想空間のアバターについて、記録サーバ100がリアルタイムで解析を実行することができる。
また、記録サーバ100は、さらに、仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け部182を備えてもよい。アノテーション情報とは、動作や状態を記述する情報を指す。本発明の一実施形態によれば、仮想空間の画像情報に基づいて、各アバターの行動を学習し、アバターの行動の規則性等に基づいて、アバターの行動を予測する。例えば、アバターの表情と、それに伴う行動(口角を上げる表情で喜ぶ、口角を下げる表情で怒る、目を細める表情で喜ぶ、目を見開く表情で驚く、両手を上げる動作で喜ぶ、肩をすくめる動作で呆れる、叫んだ後に怒る等)とを学習し、表情毎、行動毎、音声毎にアノテーション情報を関連付けて、記憶部150のユーザ情報152に記憶する。
図7に、アノテーション情報の関連付けに関するアバター情報の一例を示す。テーブルTB1は、睨む表情に対して、「睨む」、「怒り」というアノテーション情報が関連付けられている。テーブルTB2は、音声情報に対し、その音声を発声した際のユーザの動作が、アノテーション情報として関連付けられている。これらのテーブルは、ユーザ毎、すなわち、アバター毎に生成されることが好ましい。
テキスト生成部181は、所定の条件として、抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、テキスト情報を生成してもよい。所定のキーワードとは、トラブルの発生又は発生に繋がり得る状態を表すキーワードであって、例えば、「喧嘩」、「怒り」、「泣く」等の、一般的にネガティブな意味を有するキーワードである。例えば、画像解析により、ある表情に関連付けられたアノテーション情報に「怒り」というキーワードが含まれる場合、解析部172は、アバターが所定の条件を満たすと判定することができる。
ユーザによって、すなわち、アバターによって、ある動作に付随する表情や音声等は異なってくる。しかしながら上述のように、本発明の一実施形態によれば、各アバターに対し、アバターの動作を特定するアノテーション情報が関連付けられるため、各ユーザの動作がトラブルに繋がり得るか否かを、適切に判定することが可能となる。
なお、関連付け部182は、アバターの一連の動作を学習した結果に基づいて、アバターに関連付けるアノテーション情報を更新してもよい。これにより、より精度の高い判定が可能となる。
次に、図8を用いて、本発明の他の実施形態について説明する。図8は、仮想空間10の概略図である。位置入力情報生成部161は、解析部172によって抽出されたアバターが所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定してもよい。例えば、図8に示すように、仮想空間10において、アバター500Cが倒れており、解析部172によって、アバター500Cが所定の条件を満たすと判定されたとする。この場合、位置入力情報生成部161は、アバター500Cから所定距離内の複数の位置を指定する入力情報を生成する。これは、例えば、アバター30Uの他に、アバター30X,30Yを、アバター500Cの周囲に配置させる入力情報に相当する。これは、アバター30X,30Yについて、仮想空間サービスに予めアカウントを登録しておき、位置入力情報生成部161が、それら複数アカウントについての入力情報を生成することで実現できる。そして、視点入力情報生成部162は、アバター500Cが視界領域に入るように視点を設定する入力情報を生成し、視界画像取得部171が、アバター30U,30X,30Yに対応する画像情報を取得してもよい。
上述の構成によれば、所定の条件を満たすと判定されたアバターの動作について、より詳細に記述するテキスト情報を生成することができる。
なお、記憶部150は、テキスト生成部181によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いてもよい。これにより、解析結果としてのテキスト情報の安全性、秘匿性を担保することができ、仮想空間サービスの管理者側によるデータの改ざんの可能性を低くすることができる。
なお、テキスト生成部181によって生成されたテキスト情報は、必要に応じて、証拠として所定の機関に送信されてもよい。
なお、リアルタイムでの解析処理が好ましいが、画像の解析処理が並行して生じたり、記録期間が長い等、負荷が高くなる場合も考えられる。この場合、所定の時間(例えば、10分等)、動画像データを記憶しておき、別の解析処理がなく負荷が低い時間に、記憶しておいた動画像データを解析してもよい。この場合、一時的に記憶容量を圧迫することになるが、解析処理が終了次第、すぐに動画像データが削除されるようにすればよい。なお、アバターが所定の条件を満たす場合、証拠としての画像情報を、テキスト情報と合わせて記憶しておいてもよい。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、上記実施の形態に示す構成を適宜組み合わせることとしてもよい。例えば、記録サーバ100が備えるとして説明した各構成部は、複数のサーバによって分散されて実現されてもよい。
本開示の各実施形態のプログラムは、情報処理装置に読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、例えば、ソフトウェアプログラムや情報処理装置プログラムを含む。
記憶媒体は適切な場合、1つ又は複数の半導体ベースの、又は他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向けIC(ASIC)等)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、又はこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、又は揮発性と不揮発性の組合せでよい。
また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、記録サーバ100に提供されてもよい。
また、本開示の各実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、本開示のプログラムは、例えば、JavaScript(登録商標)、Python等のスクリプト言語、C言語、Go言語、Swift,Koltin、Java(登録商標)等を用いて実装される。
100 記録サーバ(情報処理装置)
200 仮想空間提供サーバ
300(300A〜300C) コンピュータ
400 ネットワーク
500(500A〜500C) HMDシステム
600 ネットワーク
700 仮想空間記録システム
301 プロセッサ
302 ストレージ
304 メモリ
410 ジャイロセンサ
420 視線センサ
430 カメラ
440 マイク
450 モニタ
460 スピーカ
101 プロセッサ
102 ストレージ
104 メモリ
310 仮想空間アプリケーション
320 表示制御部
321 位置入力部
322 視点入力部
323 視界画像生成部
324 検出部
325 角速度検出部
326 視線検出部
330 仮想空間制御部
331 仮想空間生成部
332 仮想オブジェクト生成部
333 アバター生成部
340 通信制御部
350 記憶部
351 仮想空間情報
352 ユーザ情報
360 入出力制御部
110 仮想空間アプリケーション
120 表示制御部
123 視界画像生成部
130 仮想空間制御部
140 通信制御部
150 記憶部
160 操作入力情報生成部
161 位置入力情報生成部
162 視点入力情報生成部
170 画像認識部
171 視界画像取得部
172 解析部
181 テキスト生成部
182 関連付け部
151 仮想空間情報
152 ユーザ情報
153 条件データベース
10 仮想空間
10A,10B,20A,20B,30U,30X,30Y アバター

Claims (10)

  1. ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間における前記ユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御プログラムであって、
    当該情報処理装置に、
    前記仮想空間における位置を指定する入力情報を生成する位置入力機能と、
    前記位置入力機能によって指定された位置における前記仮想空間の画像情報を取得する取得機能と、
    前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析する解析機能と、
    前記解析機能による解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成する生成機能と、
    前記生成機能によって生成された前記テキスト情報を、所定の記憶部に記憶させる記憶機能と、
    を実現させる制御プログラム。
  2. 前記取得機能は、前記仮想空間の画像情報とともに音声情報を取得し、
    前記解析機能は、前記アバターとともに当該アバターの音声情報を抽出し、
    前記生成機能は、前記所定の条件の判定に、前記音声情報をさらに用いる、
    ことを特徴とする請求項1に記載の制御プログラム。
  3. 前記情報処理装置に、
    前記仮想空間におけるアバターの動作を特定する情報であるアノテーション情報を関連付ける関連付け機能をさらに実現させ、
    前記生成機能は、前記所定の条件として、前記抽出されたアバターに関連付けられたアノテーション情報に所定のキーワードが含まれる場合、前記テキスト情報を生成する、
    ことを特徴とする請求項1又は2に記載の制御プログラム。
  4. 前記位置入力機能は、前記解析機能によって抽出された前記アバターが前記所定の条件を満たす場合に、当該アバターから所定距離内の複数の位置を指定する入力情報を生成し、
    前記取得機能は、前記複数の位置における、前記アバターに関する動画像情報を取得する、
    ことを特徴とする請求項1〜3のいずれか一項に記載の制御プログラム。
  5. 前記関連付け機能は、前記アバターの一連の動作を学習した結果に基づいて、前記アバターに関連付けるアノテーション情報を更新する、
    ことを特徴とする請求項3に記載の制御プログラム。
  6. 前記記憶機能は、前記生成機能によって生成されたテキスト情報の記憶に、電子透かし又は分散型台帳技術を用いる、
    ことを特徴とする請求項1〜5のいずれか一項に記載の制御プログラム。
  7. 前記記憶機能は、1のアバターとして前記仮想空間システムに登録された登録情報をさらに記憶し、
    前記位置入力機能は、前記仮想空間システムにおける前記1のアバターの位置を指定する入力情報を生成し、
    前記取得機能は、前記1のアバターの視界として、前記仮想空間の画像情報を取得する、
    ことを特徴とする請求項1〜6のいずれか一項に記載の制御プログラム。
  8. 前記1のアバターは、前記仮想空間において背景を透過させる透明なオブジェクトとして実現される、
    ことを特徴とする請求項7に記載の制御プログラム。
  9. ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間における前記ユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置の制御方法であって、
    当該情報処理装置が、
    前記仮想空間における位置を指定する入力情報を生成するステップと、
    前記指定された位置における前記仮想空間の画像情報を取得するステップと、
    前記画像情報に含まれる1以上のアバターを抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析するステップと、
    前記解析するステップによる解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成するステップと、
    前記生成するステップにて生成された前記テキスト情報を、所定の記憶部に記憶させるステップと、
    を実行する情報処理装置の制御方法。
  10. ユーザ端末を介して入力されたユーザの動作及び音声が、仮想空間における前記ユーザのアバターの動作及び音声に反映される仮想空間システムに接続される情報処理装置であって、
    前記仮想空間における位置を指定する入力情報を生成する位置入力部と、
    前記位置入力部によって指定された位置における前記仮想空間の画像情報を取得する取得部と、
    前記画像情報に含まれる1以上のアバターを抽出する抽出し、抽出された前記アバターが所定の条件を満たす場合に、前記アバターの動作を解析する解析部と、
    前記解析部による解析の結果に基づき、前記アバターの動作に関する情報を記述するテキスト情報を生成する生成部と、
    前記生成部によって生成された前記テキスト情報を、所定の記憶部に記憶させる記憶制御部と、
    を備える情報処理装置。
JP2019001492A 2019-01-08 2019-01-08 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置 Active JP6721727B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019001492A JP6721727B1 (ja) 2019-01-08 2019-01-08 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019001492A JP6721727B1 (ja) 2019-01-08 2019-01-08 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置

Publications (2)

Publication Number Publication Date
JP6721727B1 JP6721727B1 (ja) 2020-07-15
JP2020112895A true JP2020112895A (ja) 2020-07-27

Family

ID=71523882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019001492A Active JP6721727B1 (ja) 2019-01-08 2019-01-08 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置

Country Status (1)

Country Link
JP (1) JP6721727B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023167212A1 (ja) * 2022-03-01 2023-09-07 株式会社KPMG Ignition Tokyo コンピュータプログラム、情報処理方法及び情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114185428B (zh) * 2021-11-09 2023-03-10 北京百度网讯科技有限公司 虚拟形象风格的切换方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048303A (ja) * 2007-08-15 2009-03-05 Yahoo Japan Corp 仮想空間放送装置
JP2009048302A (ja) * 2007-08-15 2009-03-05 Yahoo Japan Corp 仮想空間情報要約作成装置
JP2011502307A (ja) * 2007-10-26 2011-01-20 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー オンラインリソースモニタリング
WO2017002473A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018092416A (ja) * 2016-12-05 2018-06-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048303A (ja) * 2007-08-15 2009-03-05 Yahoo Japan Corp 仮想空間放送装置
JP2009048302A (ja) * 2007-08-15 2009-03-05 Yahoo Japan Corp 仮想空間情報要約作成装置
JP2011502307A (ja) * 2007-10-26 2011-01-20 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー オンラインリソースモニタリング
WO2017002473A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018092416A (ja) * 2016-12-05 2018-06-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023167212A1 (ja) * 2022-03-01 2023-09-07 株式会社KPMG Ignition Tokyo コンピュータプログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
JP6721727B1 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
US11782272B2 (en) Virtual reality interaction method, device and system
US10176798B2 (en) Facilitating dynamic and intelligent conversion of text into real user speech
WO2014094199A1 (en) Facial movement based avatar animation
US9977510B1 (en) Gesture-driven introduction system
US11756251B2 (en) Facial animation control by automatic generation of facial action units using text and speech
US11553009B2 (en) Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space
EP4268060A1 (en) Recentering ar/vr content on an eyewear device
JP6721727B1 (ja) 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置
EP4268056A1 (en) Conversation interface on an eyewear device
US10423833B2 (en) Setting a personal status using augmented reality
WO2024027819A1 (zh) 图像处理方法、装置、设备及存储介质
WO2017193343A1 (zh) 媒体文件分享方法、媒体文件分享设备及终端
KR20160039776A (ko) 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US20150172376A1 (en) Method for providing social network service and electronic device implementing the same
US20230342898A1 (en) Image visual quality assessment
US20230342877A1 (en) Cached cloud rendering
JP7335221B2 (ja) 画像認識モデルを用いた識別子情報推論のための電子装置、方法、プログラム及びシステム
US20240070950A1 (en) Avatar call on an eyewear device
JP6967041B2 (ja) 画像認識モデルを用いた識別子情報推論のための電子装置、方法、プログラム及びシステム
US20240233274A9 (en) Electronic device and method for displaying modification of virtual object and method thereof
US20220375103A1 (en) Automatic media capture based on motion sensor data
US20220373791A1 (en) Automatic media capture using biometric sensor data
US20240037882A1 (en) Video processing with preview of ar effects
US20230419559A1 (en) Double camera streams
WO2022245856A1 (en) Automatic media capture based on motion sensor data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R150 Certificate of patent or registration of utility model

Ref document number: 6721727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250