JP7386583B1 - プログラム、情報処理装置及び方法 - Google Patents

プログラム、情報処理装置及び方法 Download PDF

Info

Publication number
JP7386583B1
JP7386583B1 JP2023047607A JP2023047607A JP7386583B1 JP 7386583 B1 JP7386583 B1 JP 7386583B1 JP 2023047607 A JP2023047607 A JP 2023047607A JP 2023047607 A JP2023047607 A JP 2023047607A JP 7386583 B1 JP7386583 B1 JP 7386583B1
Authority
JP
Japan
Prior art keywords
person
icons
screen
motion
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023047607A
Other languages
English (en)
Inventor
剛 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mirrorx
Original Assignee
Mirrorx
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirrorx filed Critical Mirrorx
Priority to JP2023047607A priority Critical patent/JP7386583B1/ja
Application granted granted Critical
Publication of JP7386583B1 publication Critical patent/JP7386583B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間上で各種サービスの提供を受けるための操作を容易にするプログラム、情報処理装置及び方法を提供する。【解決手段】アバターサービス提供システムにおいて、端末装置10による方法は、人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から、人物の動作を検出し、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるポインタ制御処理と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させS311、検出した人物の、第2の動作に応じて、複数のアイコンを画面上で移動させS312、人物の手の動作に応じて、手の動作に合わせてポインタを動かしS313、複数のアイコンのうちの1のアイコンとの位置に応じて、アイコンに関連付けられた機能を実行させるS314アイコン制御処理と、を行う。【選択図】図7

Description

特許法第30条第2項適用 ウェブサイトによる発表(1)2022年12月14日_https://www.xrkaigi.com/pages/future_pitch(2)2022年12月16日_https://mirox.jimdosite.com/%E3%81%8A%E7%9F%A5%E3%82%89%E3%81%9B/(3)2023年1月5日_htpps://apps.apple.com/jp/app/mirrox/idl621968722(4)2023年1月5日_https://prtmes.jp/main/html/rd/p/000000001.000114425.html(5)2023年1月4日_https://youtu.be/2oTwXA_ksZI
本開示は、プログラム、情報処理装置及び方法に関する。
昨今、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供することが行われている。このようなサービスは、実際の人物の外観を表示させずに各種サービスを提供するため、当該人物の外観を不特定のユーザに晒すことなく各種サービスの提供を受けることが可能であるため、一定のユーザにより利用されている。
特許文献1には、ユーザーアカウントに関連したアバター情報および骨格情報に基づいて人物オブジェクトがアバターに代替された合成画像を生成する技術が開示されている。
特開2021-157800号公報
ところで、仮想空間において、携帯端末で撮影された人物のアバターをリアルタイムで表示し、仮想空間上で各種サービスの提供を受ける場合、他の者により携帯端末を操作して当該各種サービスの提供を開始する、終了する等の操作をするか、当該人物が自身で携帯端末またはコントローラ等を操作する必要があった。そのため、このようなサービスの提供を受けるために煩わしい操作が必要となり、没入感やアバターとの一体感を喪失させていた。
そこで、本開示では、仮想空間上で各種サービスの提供を受けるための操作を容易にする技術について説明する。
本開示の一実施の形態によると、プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムが提供される。プログラムは、プロセッサに、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から、人物の動作を検出するステップと、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップと、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコン(例えば、アイコンボタン)を表示させるステップと、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップと、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップと、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップと、を実行させる。
本開示によれば、撮影した人物の動作に応じて複数の所定のアイコンを表示させ、画面上で移動させる。人物の手の動作に合わせてポインタを動かすように制御し、ポインタと1のアイコンとの位置に応じて当該アイコンに関連付けられた機能を実行させる。これにより、仮想空間上で各種サービスの提供を受けるための操作を容易にし、没入感やアバターとの一体感を喪失することなく各種サービスの提供を受けることが可能になる。
本開示に係るアバターサービス提供システムの概略を示す構成図である。 実施の形態のアバターサービス提供システム1の全体の構成を示す構成図である。 本実施の形態のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。 本実施の形態のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。 本実施の形態のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。 本実施の形態のアバターサービス提供システム1によるポインタ制御処理を行う流れの一例を示すフローチャートである。 本実施の形態のアバターサービス提供システム1によるアイコン制御処理を行う流れの一例を示すフローチャートである。 表示画面30にポインタ31L,31Rが表示された画面例を示す図である。 表示画面30にアイコン32A,32B,32Cが表示された画面例を示す図である。 仮想空間VRにおける人物Hとアイコン32A~32Fとの仮想的な位置関係を示す図である。 表示画面30に表示されたアイコン32Bが選択された画面例を示す図である。
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。従って、それらについての詳細な説明は繰り返さない。
<概要>
以下、本開示に係るアバターサービス提供システムについて説明する。このアバターサービス提供システムは、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供するするためのシステムである。仮想空間上で提供される各種サービスとは、例えば、アバターをユーザの動きにより操作して行うゲームのようなエンターテインメント、複数のアバターをそれぞれのユーザの動きにより表示させて行うオンラインフィットネスサービス、複数のアバターによるコミュニケーションサービス等が挙げられる。本開示に係るアバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばWebサービスとして提供するシステムであり、クラウドサーバ等によりWebサービスとして、いわゆるSaaS(Software as a Service)によって提供されるシステムである。また、アバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばスマートフォン等の携帯端末によって(Webサーバを介してもよく、介さなくてもよい)提供されるシステムである。
図1は、本開示に係るアバターサービス提供システムの概略を示す構成図である。図1に示すように、アバターサービス提供システムは、スマートフォン等の端末装置10と、表示画面30とを含む。端末装置10は、スマートフォン、タブレット等の携帯端末である。表示画面30は、ディスプレイ、テレビジョン、プロジェクタ等の画像表示装置であり、一定の離れた位置で見ることが可能な大きさに構成されている。端末装置10のディスプレイ132には仮想空間が表示されており、端末装置10で人物Hを撮影すると、端末装置10のディスプレイ132に表示されている仮想空間上に、人物Hに関連付けられたキャラクタであるアバターAが表示される。また、表示画面30にも、仮想空間とアバターAが表示される。アバターAは、人物Hの身体の動きに対応して動くように構成されており、アバターAの動きにより各種サービスが提供される。さらに、アバターAの情報はWebサーバ等により共有されてもよく、共有されている複数のアバターAが表示画面30に表示されて各種サービスが提供されてもよい。
ここで、端末装置10で人物Hの身体の動きを撮影しようとすると、人物Hから一定の離隔した距離で撮影する必要がある。その状態で、各種サービスの提供を開始するためには端末装置10を操作する必要があり、人物Hが1人で行っている場合、人物Hが端末装置10の位置まで移動して端末装置10を操作し、各種サービスの提供を開始させ、さらに端末装置10から離隔した位置に戻る必要があり、人物Hにとって煩わしい操作が必要となっていた。
そのため、本開示に係るアバターサービス提供システムでは、各種サービスの提供開始前の状態で、手の形状を模したポインタを表示させて人物Hの手の動作に合わせてポインタを動かすように制御し、ポインタの動作により各種サービスの提供を開始できるようにしている。例えば、表示画面30に各種サービスの提供を開始させるためのアイコンを表示させ、ポインタの動作によりアイコンを選択し、実行させることが可能になるように構成している。そのため、人物Hは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
また、本開示に係るアバターサービス提供システムでは、人物Hの所定の動作(第1の動作)に応じて複数の所定のアイコンを表示させ、人物Hの所定の動作(第2の動作)に応じて複数の所定のアイコンを画面上で移動させる。そして、複数のアイコンのうちの1のアイコンを選択可能とし、そのアイコンがポインタにより選択されると、アイコンに関連付けられた機能を実行させるようにしている。具体的には、表示画面30に各種サービスの提供を開始するためのアイコンが複数表示され、人物Hの所定の動作(第2の動作)に応じて複数のアイコン全体をスクロールさせる。それらのアイコンのうちの1のアイコンが人物Hの正面に表示されたときに当該アイコンを選択可能としている。これにより、煩わしい操作を不要にし、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
<実施の形態>
以下、アバターサービス提供システム1について説明する。以下の説明では、例えば、端末装置10がサーバ20へアクセスすることにより、サーバ20が、端末装置10で画面を生成するための情報を応答する。端末装置10は、サーバ20から受信した情報に基づいて画面を生成し表示する。
<1 アバターサービス提供システム1の全体構成>
図2は、アバターサービス提供システム1の全体の構成を示す構成図である。図2に示すように、アバターサービス提供システム1は、複数の端末装置(図2では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20とを含む。端末装置10とサーバ20とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。
端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末等により実現される。この他、端末装置10は、例えば持ち運び可能なノートPC(Personal Computer)、ラップトップPCであるとしてもよい。端末装置10を操作するユーザとは、アバターサービス提供システム1において仮想空間上にアバターを表示させて各種サービスの提供を受ける者であり、例えば、アバターサービス提供システム1に会員登録している者である。
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。図2に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネルや、タッチパッド、キーボード、マウス等のポインティングデバイス等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
サーバ20は、ユーザから各種サービスの提供を受けるための入力を受け付け、仮想空間上にアバターを表示して仮想空間上で各種サービスを提供するサービスをWebサービスとして配信して提供する装置である。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、サーバ20は必須の構成ではない。
サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
<1.1 端末装置10の構成>
図3は、本実施の形態のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。図3に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131及びディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170と、制御部180とを含む。端末装置10は、図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路等)も有している。図3に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理等を行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理等を行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路等を含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ(画面)132とを含む。なお、操作受付部130は、例えばキーボードやマウス等により構成してもよい。
タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部180へ出力する。
ディスプレイ132は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。
カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。
記憶部170は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部170は、ユーザ情報171を記憶する。
ユーザ情報171は、端末装置10を使用してアバターサービス提供システム1の機能である、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザの情報である。ユーザの情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。
制御部180は、記憶部170に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部180は、例えば予め端末装置10にインストールされているアプリケーションである。制御部180は、プログラムに従って動作することにより、入力操作受付部181と、送受信部182と、通知制御部183と、データ処理部184としての機能を発揮する。
入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対してユーザが自己の指等を接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。また、入力操作受付部181は、マイク141からのユーザの音声を受け付ける処理を行う。
送受信部182は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
通知制御部183は、ユーザに対し情報を提示する処理を行う。通知制御部183は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理等を行う。
データ処理部184は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。
また、データ処理部184は、端末装置10のプロセッサ19がプログラムに従って処理を行うことにより、各種モジュールとして、動いている人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析して解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から人物の動作を検出し、ディスプレイ132の画面上に、人物の手に対応して画面上における位置を示すポインタを表示させ、検出した人物の第1の動作に応じて画面上に複数の所定のアイコンを表示させ、検出した人物の第2の動作に応じて画面上に表示されている複数のアイコンを画面上で移動させ、検出した人物の動作から抽出した人物の手の動作に応じて人物の手の動作に合わせてポインタを動かすように制御し、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させる機能を発揮する。さらに、データ処理部184は、複数のアイコンのうちの1のアイコンのみを選択可能に表示させ、第2の動作に応じて画面上に表示されている複数のアイコンを移動させることで選択可能なアイコンを変更するように構成してもよい。
<1.2 サーバ20の機能的な構成>
図4は、本実施の形態のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、ユーザデータベース2021等を記憶する。
ユーザデータベース2021は、アバターサービス提供システム1において、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザに関する情報を保持するためのデータベースである。ユーザに関する情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして受信制御モジュール2031、送信制御モジュール2032、ユーザ認証モジュール2033に示す機能を発揮する。
受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
ユーザ認証モジュール2033は、サーバ20にアクセスするユーザが正当なユーザであることを認証する処理を制御する。ユーザ認証モジュール2033によるユーザの認証は、例えば、ユーザIDが登録されていること、当該ユーザIDのパスワードとして登録されているパスワードと同一のパスワードが入力されたこと、等により行われる。
<2 動作>
以下、図5ないし図7を参照しながら、第1の実施の形態におけるアバターサービス提供システム1により実行させるプログラム、及び方法であるユーザ認証処理、ポインタ移動処理、及びアイコン制御処理について説明する。
図5は、本実施の形態のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、図5に示すユーザ認証処理は行わなくてもよい。
ステップS111において、端末装置10の入力操作受付部181は、ユーザの操作によりアバターサービス提供システム1の専用アプリケーションを起動する。送受信部182は、ユーザID、パスワード等のユーザの情報を、サーバ20へ送信する。送受信部182は、サーバ20から送信された、仮想空間上にアバターを表示させて各種サービスの提供を受けるための各種情報を受け付ける。通知制御部183は、受け付けた各種情報を、ディスプレイ132に表示させる。
ステップS121において、サーバ20のユーザ認証モジュール2033は、端末装置10から送信されたユーザの情報を、通信部201を介して受け付ける。サーバ20のユーザ認証モジュール2033は、受け付けたユーザの情報が正当なユーザからのものであることを認証する。サーバ20は、受け付けたユーザの情報が正当なものであると判定した場合、仮想空間上にアバターを表示させて各種サービスを提供するための各種情報を当該ユーザの端末装置10のディスプレイ132に表示させるため、端末装置10へ通信部201を介して送信する。
図6は、本実施の形態のアバターサービス提供システム1によるポインタ制御処理を行う流れの一例を示すフローチャートである。
ステップS211において、端末装置10のデータ処理部184は、ユーザの操作により、動いている人物をカメラ160で撮影した撮影画像を取得する。例えば、データ処理部184は、図1に示すように、端末装置10がカメラ160のレンズ部分が人物Hの方向に向けられた状態で固定された状態で、アバターサービス提供システム1の専用アプリケーションにより人物Hを撮影した撮影画像、例えば動画を取得する。なお、このとき、人物Hを撮影する装置は端末装置10のカメラ160に限られず、外部装置としてのカメラであってもよく、例えば、LIDAR(Light Detection and Ranging)カメラ(センサ)、光学式または機械式(Inertial Measurement Unit)のモーションキャプチャシステム等であってもよい。端末装置10のデータ処理部184は、撮影画像を画像データとして記憶部170に記憶させる。
ステップS212において、端末装置10のデータ処理部184は、ステップS211で取得した撮影画像に基づく画像データを解析し、解析結果に基づき、撮影された人物の骨格情報を特定する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物を、既知の画像認識技術を用いて身体の部位を特定し、それぞれの身体の部位を示す点の間を直線で結び、点と線で得られた情報を骨格情報とする。データ処理部184は、撮影画像における点の位置を撮影画像における座標の情報とする。この点は、例えば身体の関節部分に配置され、身体の動きに合わせて直線部分との角度を変更するように構成される。このような構成により、身体の動きを点と直線とで表現することを可能にしている。端末装置10のデータ処理部184は、特定した骨格情報を記憶部170に記憶させる。
ステップS213において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、撮影された人物の動作を検出する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物の身体の部位を特定し、特定された身体の部位に配置された点の情報、例えば点の座標の情報を抽出し、人物の動作を検出する。このとき、データ処理部184は、人物の動作を、身体の部位に配置された点(座標)の移動情報として人物の動作を検出してもよく、例えば機械学習モデル等のアノテーションにより、当該人物の身体の移動情報から解釈される、当該人物の動作の情報(例えば、手を叩く、上半身を捻る、片手または両手を上げる、等)として人物の動作を検出してもよい。
ステップS214において、端末装置10のデータ処理部184は、端末装置10のディスプレイ132上に、人物の手に対応し、ディスプレイ132上における位置を示すポインタを表示させる。ポインタは、例えば人間の手の形状を模した画像であるが、ディスプレイ132上のどこを指し示しているかを認識できるような形状であればよく、矢印のような形状であってもよい。表示させるポインタは、両手のものでもよく、左右どちらか一方の片手のものでもよい。ポインタの画像データは、記憶部170に記憶されたものである。また、端末装置10のデータ処理部184は、ポインタを、ディスプレイ132に表示させると共に、図1に示すような表示画面30に表示させる。
ステップS215において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、ステップS213で検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせて、ステップS214で表示させたポインタを動かすように制御する。
以上のように、アバターサービス提供システム1では、画面上に手を模したポインタを表示させ、人物の手の動作に合わせてポインタを動かすように制御する。
図7は、本実施の形態のアバターサービス提供システム1によるアイコン制御処理を行う流れの例を示すフローチャートである。
ステップS311において、端末装置10のデータ処理部184は、ステップS213で検出した人物の所定の動作(第1の動作)に応じて、端末装置10のディスプレイ132上に、複数の所定のアイコンを表示させる。このアイコンは、画面上でアバターサービス提供システム1が提供する各種サービスの提供を開始するためのアイコンであり、ポインタにより選択され、アイコンに関連付けられた機能(各種サービス)を実行させるものである。アイコンに関連付けられた機能とは、例えば上記のように、アバターを人物の動きにより操作して行うゲーム等において、ゲームのプレイデータをセーブする、スタート地点に戻る、ユーザ自身のアバターを表示する(三人称ビュー)/表示しない(一人称ビュー)、アバターの装備や服装を変更する、仮想空間の各種設定条件を変更する、等の機能を含む。ここで、人物の所定の動作(第1の動作)とは、例えば人物による両手を上げる動作、手を叩く動作、片手を上げる動作、人物による音声(例えば、「メニュー」と発話)を含む。
また、ステップS311において、端末装置10のデータ処理部184は、ディスプレイ132上に複数の所定のアイコンを表示させる際、複数のアイコンのうちの1のアイコンのみを選択可能に表示させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に表示されている複数のアイコンのうち、ディスプレイ132上の所定の位置にあるアイコン(例えば、人物の正面に位置するアイコン)のみをユーザが選択可能とし、後述するステップS312において、所定の位置にあるアイコンを移動させるように構成してもよい。さらに、データ処理部184は、ユーザが選択可能なアイコンのみをディスプレイ132上に表示させるように構成してもよい。
また、ステップS311において、端末装置10のデータ処理部184は、ディスプレイ132上に複数の所定のアイコンを表示させ、人物による所定の動作に応じて複数のアイコンのうちの1のアイコンを選択可能に表示させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に複数のアイコンが表示されている状態で、ユーザが右手を上げた場合には右方向に配置されているアイコンを選択されたものと判定し、ユーザが左手を上げた場合には左方向に配置されているアイコンを選択されたものと判定してもよい。
さらに、ステップS311において、端末装置10のデータ処理部184は、人物を含む仮想空間をディスプレイ132上に表示させ、この仮想空間に複数のアイコンが存在するように表示させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に当該人物に関連付けられたキャラクタであるアバターを表示し、アバターを含む仮想空間上に複数のアイコンが存在(例えば、仮想空間上に浮遊するように配置してもよい)し、当該アバターがそのアイコンを選択可能に構成してもよい。
ステップS312において、端末装置10のデータ処理部184は、ステップS213で検出した人物の所定の動作(第2の動作)に応じて、端末装置10のディスプレイ132上に表示されている複数の所定のアイコンをディスプレイ132上で移動させる。例えば、データ処理部184は、人物の所定の動作(第2の動作)であるジェスチャに応じて当該ジェスチャが示す方向へ、複数の所定のアイコンをディスプレイ132上で移動させる。このとき、データ処理部184は、複数のアイコンすべてを同一の態様(例えば、同一方向)で移動させてもよく、一部のアイコンのみを移動させてもよい。さらに、データ処理部184は、ディスプレイ132上に表示されている複数の所定のアイコンについて一部のアイコンをディスプレイ132上で非表示にしてもよく、一部のアイコンをディスプレイ132上に再度表示させてもよい。このような動作は、ディスプレイ132上でアイコンがスクロールすることで表示/非表示にしてもよく、ディスプレイ132上でアイコンを出現/削除等させることで表示/非表示にしてもよい。ここで、人物の所定の動作(第2の動作)とは、例えば人物による両手を合わせる動作、上半身を捻る動作、両手を同時に所定の方向に動かす動作、手を叩く動作、両手を上げる動作、片手を上げる動作、人物による音声を含むが、前出の第1の動作とは異なる動作である。
また、ステップS312において、端末装置10のデータ処理部184は、ディスプレイ132上に表示されている複数の所定のアイコンを移動させる際、複数のアイコンを移動させて、選択可能な1のアイコンを変更するように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に表示されている複数のアイコンのうち、ディスプレイ132上の所定の位置にあるアイコン(例えば、人物の正面に位置するアイコン)のみをユーザが選択可能とし、所定の位置にあるアイコンを移動させるように構成してもよい。
さらに、ステップS312において、端末装置10のデータ処理部184は、ディスプレイ132上に表示されている、当該人物を含む仮想空間において、ステップS311で表示された仮想空間上の複数のアイコンを仮想空上で移動させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に当該人物に関連付けられたキャラクタであるアバターを表示した状態で、当該人物の所定の動作(第2の動作)に基づくアバターの動作に応じて、仮想空間上の複数のアイコンを移動させてもよい。
ステップS313において、端末装置10のデータ処理部184は、画面上におけるポインタの位置と、アイコンの位置とを検出する。例えば、データ処理部184は、画面上におけるポインタの位置を、画面上における座標位置の情報として、人物の手の動きに合わせて随時検出する。また、データ処理部184は、画面上におけるアイコンの位置を、画面上における座標位置の情報として検出し、ステップS312にて移動したアイコンの位置を、アイコンの移動に応じてその都度検出する。
ステップS314において、端末装置10のデータ処理部184は、ディスプレイ132上におけるポインタの位置とアイコンの位置とが一致したことを検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を実行する。このとき、データ処理部184は例えば、画面上における両手のポインタのうち、片手のポインタの位置がアイコンの位置と一致したことを検出すると、アイコンを選択状態(選択だけされた状態であり、機能は実行されない状態)にし、画面上における両手のポインタの両方のポインタの位置がアイコンの位置と一致したことを検出すると、アイコンを実行状態(アイコンに関連付けられた機能を実行させる状態)にしてもよい。
以上のように、アバターサービス提供システム1では、人物の所定の動作(第1の動作)に応じて複数の所定のアイコンを表示させ、人物の所定の動作(第2の動作)に応じて複数の所定のアイコンを画面上で移動させる。そして、複数のアイコンのうちの1のアイコンを選択可能とし、そのアイコンがポインタにより選択されると、アイコンに関連付けられた機能を実行させるようにしている。これにより、ユーザは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。
<3 画面例>
以下、図8ないし図11を参照しながら、アバターサービス提供システム1におけるポインタによる操作の画面例について説明する。
図8は、表示画面30にポインタ31L,31Rが表示された画面例を示す図である。図8の画面例は、図1に示す表示画面30に、人物Hの手の動作に合わせて移動させるポインタが表示された画面例を示す。図6のステップS214に相当する。
図8に示すように、端末装置10のディスプレイ132には、人物Hに関連付けられたキャラクタであるアバターAが表示されている。また、表示画面30には、人物Hの手の動作に合わせて移動させるポインタ31L,31Rが表示されている。ポインタ31L,31Rは、それぞれ人物Hの左手の動作に合わせて移動させるもの、人物Hの右手の動作に合わせて移動させるものである。
人物Hが右手を動かすと、その動きに合わせてポインタ31Rが表示画面30上で上下左右に移動する。同様に、人物Hが左手を動かすと、その動きに合わせてポインタ31Lが表示画面30上で上下左右に移動する。これにより、人物Hの手の動きに合わせてポインタを動かすことが可能である。
図9は、表示画面30にアイコン32A,32B,32Cが表示された画面例を示す図である。図9の画面例は、ユーザが所定の動作(第1の動作)をしたことに応じて、図1に示す表示画面30に、複数の所定のアイコン32A,32B,32Cが表示された状態の画面例を示す。図7のステップS311に相当する。
図9に示すように、表示画面30には、アイコン32A,32B,32Cが表示画面30の横方向に沿って表示されている。このアイコン32A,32B,32Cは、例えば図8に示す表示画面30のように、ポインタ31L,31Rのみが表示されている状態で、ユーザが所定の動作(第1の動作)、例えばユーザが両手を上げる動作をすると、データ処理部184がその動作を検知して、図7のステップS311にてアイコン32A,32B,32Cを表示させる。
また、図9に示す状態で、ユーザが所定の動作(第2の動作)、例えばユーザが両手を合わせる動作をすると、データ処理部184がその動作を検知して、図7のステップS312にてアイコン32A,32B,32Cを移動させる。このときのアイコン32A,32B,32Cの移動方向は、例えば、ユーザが両手を合わせて動かした方向である。この移動により、例えばユーザが示した動きが表示画面30に向かって左方向であった場合、アイコン32A,32B,32Cはそれぞれ左方向へ1つずつ移動し、アイコン32Aがアイコン32Bの位置へ、アイコン32Bがアイコン32Cの位置へ、アイコン32Cが表示画面30の表示範囲外へそれぞれ移動する。また、アイコン32Aの位置には、新たなアイコンが表示されてもよい。なお、このとき、あるアイコン(例えば、アイコン32B)が選択されると、アイコン32Bにより実行される機能が変化するように構成してもよく、他のアイコン(例えば、アイコン32A,32C)も含めて実行される機能が変化するように構成してもよい。
図10は、仮想空間VRにおける人物Hとアイコン32A~32Fとの仮想的な位置関係を示す図である。図10に示す仮想空間VRは、データ処理部184がユーザを含む仮想空間VRをディスプレイ132上に表示させた場合の例であり、仮想空間VRに、図9に示すアイコン32A,32B,32Cを含むアイコン32A~32Fが存在している場合の例を模式的に示す図である。図7のステップS311に相当する。
図10に示すように、仮想空間VRには、アイコン32A,32B,32C,32D,32E,32Fが、仮想空間VR上の人物Hを中心として環状に存在するように配置されている。図10に示すアイコン32A,32B,32C,32D,32E,32Fは、ユーザが所定の動作(第1の動作)をすると表示画面30に表示されるが、表示画面30には、人物Hの正面方向に存在しているアイコン、図10に示す状態ではアイコン32A,32B,32Cのみが表示されることになる。
また、図10に示す状態で、ユーザが所定の動作(第2の動作)をすると、アイコン32A,32B,32C,32D,32E,32Fは、ユーザの動作の方向(例えば、図10に示す矢印方向)へ1つずつ、環状に沿って移動する。これにより、ユーザは端末装置10の位置まで戻ることなく、アイコン32を選択することが可能である。
図11は、表示画面30に表示されたアイコン32Bが選択された画面例を示す図である。図11の画面例は、図1に示す表示画面30に、ポインタ31L,31Rの位置と、アイコン32Bの位置とが一致した状態の画面例を示す。図7のステップS314に相当する。
図11に示すように、表示画面30には、人物Hの手の動作に合わせて移動させるポインタ31L,31Rが表示されている。また、表示画面30には、アイコン32A,32B,32Cが表示されている。
人物Hの手の動きに合わせてポインタ31L,31Rが動き、その画面上の位置が検出される。そして、図11に示す状態では、画面上におけるポインタ31L,31Rの位置と、アイコン32Bの位置とが一致したことを検出する。このとき、アイコン32Bは、選択状態、または実行状態になる。これにより、ユーザは端末装置10の位置まで戻ることなく、アイコン32Bを選択し、アイコン32Bによる機能を実行させることが可能である。
なお、アイコン32Bを選択し、アイコン32による機能を実行させる操作は、図11に示す連とは限られない。例えば、ポインタ31L,31Rのいずれか一方の位置が一定時間以上アイコン32Bの位置と一致した場合、アイコン32Bを選択状態にし、ポインタ31L,31Rのいずれか一方の位置が一定時間以内に2回アイコン32Bの位置と一致した場合(いわゆるダブルクリック)、アイコン32Bによる機能を実行させるように構成してもよい。
<小括>
以上のように、本実施の形態によると、ポインタを表示させてユーザの手の動作に合わせてポインタを動かすように制御し、ポインタの動作により、ポインタが各種サービスの提供を開始させるためのアイコンを選択し、実行させることが可能になるように構成している。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にし、没入感やアバターとの一体感を喪失することなく各種サービスの提供を受けることを可能にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
また、本実施の形態によると、人物の所定の動作(第1の動作)に応じて複数の所定のアイコンを表示させ、人物の所定の動作(第2の動作)に応じて複数の所定のアイコンを画面上で移動させる。そして、複数のアイコンのうちの1のアイコンを選択可能とし、そのアイコンがポインタにより選択されると、アイコンに関連付けられた機能を実行させるようにしている。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
以上、開示に係る実施の形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換及び変更を行なって実施することができる。これらの実施の形態及び変形例ならびに省略、置換及び変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
<付記>
以上の各実施の形態で説明した事項を、以下に付記する。
(付記1)プロセッサ29と、メモリ25とを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、プログラムは、プロセッサ29に、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させるステップ(S311)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップ(S312)と、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップ(S215)と、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップ(S314)と、を実行させる、プログラム。
(付記2)画面上に複数のアイコンを表示させるステップにおいて、画面上に、複数のアイコンのうちの1のアイコンのみを選択可能に表示させ、複数のアイコンを移動させるステップにおいて、第2の動作に応じて、画面上に表示されている複数のアイコンを移動させて選択可能な1のアイコンを変更する、(付記1)に記載のプログラム。
(付記3)画面上に複数のアイコンを表示させるステップにおいて、画面上に、人物を含む仮想空間を表示させ、仮想空間に複数のアイコンが存在するように表示させ、複数のアイコンを移動させるステップにおいて、第2の動作に応じて、仮想空間における複数のアイコンを仮想空間上で移動させる、(付記2)に記載のプログラム。
(付記4)画面上に複数のアイコンを表示させるステップにおいて、仮想空間において、人物を中心として環状に複数のアイコンが存在するように表示させ、複数のアイコンを移動させるステップにおいて、第2の動作に応じて、仮想空間における複数のアイコンを環状に沿って移動させ、選択可能な前記1のアイコンを変更する、(付記3)に記載のプログラム。
(付記5)第1の動作は、人物による両手を上げる動作、及び手を叩く動作を含む、(付記1)から(付記4)のいずれかに記載のプログラム。
(付記6)第2の動作は、人物による上半身を捻る動作、及び両手を同時に所定の方向に動かす動作を含む、(付記1)から(付記4)のいずれかに記載のプログラム。
(付記7)制御部180と、記憶部170とを備え、画面上に表示させる画像を生成する情報処理装置であって、制御部180は、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させるステップ(S311)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップ(S312)と、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップ(S215)と、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップ(S314)と、を実行する、情報処理装置。
(付記7)プロセッサ29と、メモリ25とを備えるコンピュータにより実行され、画面上に表示させる画像を生成するための方法であって、方法は、プロセッサ29が、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させるステップ(S311)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップ(S312)と、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップ(S215)と、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップ(S314)と、を実行する、方法。
1 :アバターサービス提供システム
10 :端末装置
10A :端末装置
10B :端末装置
13 :入力装置
14 :出力装置
15 :メモリ
16 :記憶部
19 :プロセッサ
20 :サーバ
25 :メモリ
26 :ストレージ
29 :プロセッサ
30 :表示画面
31L :ポインタ
31R :ポインタ
32 :アイコン
80 :ネットワーク
81 :無線基地局
82 :無線LANルータ
111 :アンテナ
112 :アンテナ
121 :第1無線通信部
122 :第2無線通信部
130 :操作受付部
131 :デバイス
132 :ディスプレイ
140 :音声処理部
141 :マイク
142 :スピーカ
150 :位置情報センサ
160 :カメラ
170 :記憶部
171 :ユーザ情報
180 :制御部
181 :入力操作受付部
182 :送受信部
183 :通知制御部
184 :データ処理部
201 :通信部
202 :記憶部
203 :制御部
2021 :ユーザデータベース
2031 :受信制御モジュール
2032 :送信制御モジュール
2033 :ユーザ認証モジュール

Claims (8)

  1. プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
    前記プログラムは、前記プロセッサに、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物の手に対応し、前記画面上における位置を示すポインタを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に複数の所定のアイコンを表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを前記画面上で移動させるステップと、
    検出した前記人物の動作から抽出した前記人物の手の動作に応じて、前記人物の手の動作に合わせて前記ポインタを動かすように制御するステップと、
    前記ポインタの動作を検出し、前記ポインタと、前記複数のアイコンのうちの1のアイコンとの位置に応じて、前記1のアイコンに関連付けられた機能を実行させるステップと、を実行させ、
    前記第1の動作及び前記第2の動作は、前記人物による両手を用いた動作、及び前記人物による上半身を用いた動作を含み、
    前記人物の骨格情報を特定するステップにおいて、前記人物の全身が撮像された前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定し、
    前記人物の動作を検出するステップにおいて、前記人物の両手を用いた動作、及び前記人物による上半身を用いた動作を検出する、プログラム。
  2. 前記画面上に複数のアイコンを表示させるステップにおいて、前記画面上に、前記複数のアイコンのうちの1のアイコンのみを選択可能に表示させ、
    前記複数のアイコンを移動させるステップにおいて、前記第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを移動させて選択可能な前記1のアイコンを変更する、請求項1に記載のプログラム。
  3. 前記画面上に複数のアイコンを表示させるステップにおいて、前記画面上に、前記人物を含む仮想空間を表示させ、前記仮想空間に前記複数のアイコンが存在するように表示させ、
    前記複数のアイコンを移動させるステップにおいて、前記第2の動作に応じて、前記仮想空間における前記複数のアイコンを前記仮想空間上で移動させる、請求項2に記載のプログラム。
  4. 前記画面上に複数のアイコンを表示させるステップにおいて、前記仮想空間において、前記人物を中心として環状に前記複数のアイコンが存在するように表示させ、
    前記複数のアイコンを移動させるステップにおいて、前記第2の動作に応じて、前記仮想空間における前記複数のアイコンを前記環状に沿って移動させ、選択可能な前記1のアイコンを変更する、請求項3に記載のプログラム。
  5. 前記第1の動作は、前記人物による両手を上げる動作、及び手を叩く動作を含む、請求項1から請求項4のいずれか1項に記載のプログラム。
  6. 前記第2の動作は、前記人物による上半身を捻る動作、及び両手を同時に所定の方向に動かす動作を含む、請求項1から請求項4のいずれか1項に記載のプログラム。
  7. 制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
    前記制御部は、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物の手に対応し、前記画面上における位置を示すポインタを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に複数の所定のアイコンを表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを前記画面上で移動させるステップと、
    検出した前記人物の動作から抽出した前記人物の手の動作に応じて、前記人物の手の動作に合わせて前記ポインタを動かすように制御するステップと、
    前記ポインタの動作を検出し、前記ポインタと、前記複数のアイコンのうちの1のアイコンとの位置に応じて、前記1のアイコンに関連付けられた機能を実行させるステップと、を実行し、
    前記第1の動作及び前記第2の動作は、前記人物による両手を用いた動作、及び前記人物による上半身を用いた動作を含み、
    前記人物の骨格情報を特定するステップにおいて、前記人物の全身が撮像された前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定し、
    前記人物の動作を検出するステップにおいて、前記人物の両手を用いた動作、及び前記人物による上半身を用いた動作を検出する、情報処理装置。
  8. プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
    前記方法は、前記プロセッサが、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物の手に対応し、前記画面上における位置を示すポインタを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に複数の所定のアイコンを表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを前記画面上で移動させるステップと、
    検出した前記人物の動作から抽出した前記人物の手の動作に応じて、前記人物の手の動作に合わせて前記ポインタを動かすように制御するステップと、
    前記ポインタの動作を検出し、前記ポインタと、前記複数のアイコンのうちの1のアイコンとの位置に応じて、前記1のアイコンに関連付けられた機能を実行させるステップと、を実行し、
    前記第1の動作及び前記第2の動作は、前記人物による両手を用いた動作、及び前記人物による上半身を用いた動作を含み、
    前記人物の骨格情報を特定するステップにおいて、前記人物の全身が撮像された前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定し、
    前記人物の動作を検出するステップにおいて、前記人物の両手を用いた動作、及び前記人物による上半身を用いた動作を検出する、方法。
JP2023047607A 2023-03-24 2023-03-24 プログラム、情報処理装置及び方法 Active JP7386583B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023047607A JP7386583B1 (ja) 2023-03-24 2023-03-24 プログラム、情報処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023047607A JP7386583B1 (ja) 2023-03-24 2023-03-24 プログラム、情報処理装置及び方法

Publications (1)

Publication Number Publication Date
JP7386583B1 true JP7386583B1 (ja) 2023-11-27

Family

ID=88917894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023047607A Active JP7386583B1 (ja) 2023-03-24 2023-03-24 プログラム、情報処理装置及び方法

Country Status (1)

Country Link
JP (1) JP7386583B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140123077A1 (en) 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
JP2014160323A (ja) 2013-02-19 2014-09-04 Brother Ind Ltd 表示装置および表示プログラム
JP2023029950A (ja) 2021-06-11 2023-03-07 Tis株式会社 情報処理システム、情報処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140123077A1 (en) 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
JP2014160323A (ja) 2013-02-19 2014-09-04 Brother Ind Ltd 表示装置および表示プログラム
JP2023029950A (ja) 2021-06-11 2023-03-07 Tis株式会社 情報処理システム、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
CN108415705B (zh) 网页生成方法、装置、存储介质及设备
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
EP3586316B1 (en) Method and apparatus for providing augmented reality function in electronic device
US11954200B2 (en) Control information processing method and apparatus, electronic device, and storage medium
US20160171773A1 (en) Display control method, information processing apparatus, and storage medium
EP3090424A1 (en) Assigning virtual user interface to physical object
KR102004986B1 (ko) 어플리케이션 실행 방법 및 시스템, 단말과 그 기록 매체
CN112581571B (zh) 虚拟形象模型的控制方法、装置、电子设备及存储介质
CN110932963A (zh) 多媒体资源分享方法、***、装置、终端、服务器及介质
CN111437600A (zh) 剧情展示方法、装置、设备及存储介质
CN111752658B (zh) 管理功能教程的方法、装置、设备以及存储介质
CN110569064B (zh) 接口标识生成方法、装置、设备及存储介质
JP7386583B1 (ja) プログラム、情報処理装置及び方法
US20190212834A1 (en) Software gyroscope apparatus
KR20170045101A (ko) 콘텐트를 외부 장치와 공유하는 전자 장치 및 이의 콘텐트 공유 방법
JP7182324B1 (ja) プログラム、情報処理装置及び方法
JP7236551B2 (ja) キャラクタ推薦方法、キャラクタ推薦装置、コンピュータ装置およびプログラム
CN115379113A (zh) 拍摄处理方法、装置、设备及存储介质
JP7372717B1 (ja) プログラム、情報処理装置及び方法
CN114100121A (zh) 操作控制方法、装置、设备、存储介质及计算机程序产品
CN114826799A (zh) 信息获取方法、装置、终端及存储介质
CN112132472A (zh) 资源管理方法、装置、电子设备及计算机可读存储介质
CN111539794A (zh) 凭证信息的获取方法、装置、电子设备及存储介质
US20240078071A1 (en) Interaction method between display device and terminal device, storage medium and electronic device
CN114466237B (zh) 显示方法、装置、计算机设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230421

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7386583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150