JP5564625B1 - プログラム及び表示制御装置 - Google Patents

プログラム及び表示制御装置 Download PDF

Info

Publication number
JP5564625B1
JP5564625B1 JP2014003227A JP2014003227A JP5564625B1 JP 5564625 B1 JP5564625 B1 JP 5564625B1 JP 2014003227 A JP2014003227 A JP 2014003227A JP 2014003227 A JP2014003227 A JP 2014003227A JP 5564625 B1 JP5564625 B1 JP 5564625B1
Authority
JP
Japan
Prior art keywords
dimensional model
hand
model
control unit
signer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014003227A
Other languages
English (en)
Other versions
JP2015132678A (ja
Inventor
景司 工藤
英哲 禹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Mobile Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Mobile Corp filed Critical SoftBank Mobile Corp
Priority to JP2014003227A priority Critical patent/JP5564625B1/ja
Application granted granted Critical
Publication of JP5564625B1 publication Critical patent/JP5564625B1/ja
Publication of JP2015132678A publication Critical patent/JP2015132678A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】従来に比べて、より直感的に手話を学ぶことができるシステムの提供が望まれている。
【解決手段】コンピュータを、手の3次元モデルを取得するモデル取得部、指定された言葉に対応する動きを手の3次元モデルにさせるための動作データを取得する動作データ取得部、動作データに従って手の3次元モデルを動作させる動作制御部、及び手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた手の3次元モデルを表示部に表示させる表示制御部として機能させるためのプログラムを提供する。
【選択図】図2

Description

本発明は、プログラム及び表示制御装置に関する。
従来、テキストを手話のアニメーションに変換し、変換後の手話のアニメーションを表示する装置が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2004−254218号公報
従来に比べて、より直感的に手話を学ぶことができるシステムの提供が望まれている。
本発明の第1の態様によれば、コンピュータを、手の3次元モデルを取得するモデル取得部、指定された言葉に対応する動きを手の3次元モデルにさせるための動作データを取得する動作データ取得部、動作データに従って手の3次元モデルを動作させる動作制御部、及び手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた手の3次元モデルを表示部に表示させる表示制御部として機能させるためのプログラムが提供される。
上記コンピュータにおいて、モデル取得部は、手話者の胴体の3次元モデルをさらに取得してよく、表示制御部は、手話者側からみた手の3次元モデルを表示部に表示させる場合、手の3次元モデル及び半透明化された胴体の3次元モデルを表示部に表示させてよい。上記コンピュータにおいて、モデル取得部は、手話者の頭部の3次元モデルをさらに取得してよく、表示制御部は、手話者側からみた手の3次元モデルを表示部に表示させる場合、手の3次元モデル及び半透明化された頭部の3次元モデルを表示部に表示させてよい。
上記プログラムは、上記コンピュータを、手の3次元モデルを含む手話者モデルに対して視点を回転移動させる又は手話者モデルを回転させる回転制御部としてさらに機能させてよく、表示制御部は、手話者モデルに含まれる手の3次元モデル以外の他の3次元モデルが手の3次元モデルに対して重畳する場合に、手の3次元モデルと、半透明化された他の3次元モデルを表示部に表示させてよい。上記コンピュータにおいて、表示制御部は、手話者モデルと視点との位置関係が第1の範囲内であるときには手の3次元モデル及び半透明化されていない他の3次元モデルを表示部に表示させ、手話者モデルと視点との位置関係が第2の範囲内あるときには手の3次元モデル及び半透明化された他の3次元モデルを表示部に表示させてよい。上記コンピュータにおいて、表示制御部は、他の3次元モデルが手の3次元モデルに対して重畳するか否かを判定し、他の3次元モデルが手の3次元モデルに対して重畳していないと判定した場合、手の3次元モデル及び半透明化されていない他の3次元モデルを表示部に表示させ、他の3次元モデルが手の3次元モデルに対して重畳していると判定した場合、手の3次元モデル及び半透明化された他の3次元モデルを表示部に表示させてよい。
上記コンピュータにおいて、表示制御部は、手の3次元モデルの動作に合わせて、手の3次元モデルの軌道を示す軌道オブジェクトを表示部に表示させてよい。上記プログラムは、上記コンピュータを、手話者の利き腕を設定する利き腕設定部としてさらに機能させてよく、動作制御部は、利き腕に応じて、手の3次元モデルを動作させてよい。上記コンピュータにおいて、手の3次元モデルは、手及び前腕を模した3次元モデルであってよい。
本発明の第2の態様によれば、手の3次元モデルを取得するモデル取得部と、指定された言葉に対応する動きを手の3次元モデルにさせるための動作データを取得する動作データ取得部と、動作データに従って手の3次元モデルを動作させる動作制御部と、手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた手の3次元モデルを表示部に表示させる表示制御部とを備える表示制御装置が提供される。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
表示制御装置の通信環境の一例を概略的に示す。 表示制御装置の機能構成の一例を概略的に示す。 辞典データの表示例を概略的に示す。 複数のカテゴリの表示例を概略的に示す。 シーン別例文集タブが選択された場合の表示例を概略的に示す。 手話者の3次元モデルの表示例を概略的に示す。 視点を回転移動させた場合の手話者の3次元モデルの表示例を概略的に示す。 視点を回転移動させた場合の手話者の3次元モデルの表示例を概略的に示す。 視点を回転移動させた場合の手話者の3次元モデルの表示例を概略的に示す。 手の3次元モデルの表示例を概略的に示す。 手話者の3次元モデルの表示例を概略的に示す。 表示制御装置による処理の流れの一例を概略的に示す。 表示制御装置の機能構成の他の一例を概略的に示す。 ゲーム画面の表示例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、表示制御装置100の通信環境の一例を概略的に示す。本実施形態に係る表示制御装置100は、指定された言葉に対応する動きを、手話者を模した3次元モデルにさせることによって手話の学習を支援する。
例えば、表示制御装置100を使用する使用者30は、単語及び文章等の言葉を表示制御装置100に対して入力する。表示制御装置100は、表示した手話者の3次元モデルに、入力された言葉に対応する動きをさせる。これにより、使用者30は入力した言葉に対応する手話を学習できる。
表示制御装置100は、手話者の3次元モデルを表示する機能を有する装置であれば、どのような装置であってもよい。例えば、表示制御装置100は、スマートフォン等の携帯電話、タブレット端末、PC(Personal Computer)、テレビ、及びゲーム機等である。
表示制御装置100は、手話者の3次元モデルを予め格納してよい。表示制御装置100は、例えば、ネットワーク50を介してサーバ400から手話者の3次元モデルを受信して、格納する。ネットワーク50は、例えば、インターネット及び電話網等を含む。
また、表示制御装置100は、複数の言葉のそれぞれについて、対応する動きを手話者の3次元モデルにさせるための動作データを予め格納してよい。表示制御装置100は、例えば、ネットワーク50を介して、サーバ400から動作データを受信して格納する。
図2は、表示制御装置100の機能構成の一例を概略的に示す。表示制御装置100は、受信部102、辞典データ格納部104、モデル格納部106、動作データ格納部108、入力受付部112、動作制御部120、モデル取得部126、動作データ取得部128、表示制御部130、及び表示部132を備える。表示制御装置100がこれらの全ての構成を備えることは必須であるとは限らない。
受信部102は、サーバ400からデータを受信する。受信部102は、例えば、辞典データを受信する。また、受信部102は、手話者の3次元モデルを受信してよい。また、受信部102は、動作データを受信してよい。
辞典データは、文字、単語、及び文章等の言葉を含んでよい。手話者の3次元モデルは、手話者の手の3次元モデル、胴体の3次元モデル、及び頭部の3次元モデルを含んでよい。動作データは、辞典データに含まれる複数の言葉に対応する動きを手話者の3次元モデルにさせるためのデータを含んでよい。また、動作データは、指文字に対応する動きを手話者の3次元モデルにさせるためのデータを含んでよい。
辞典データ格納部104は、辞典データを格納する。辞典データ格納部104は、例えば、受信部102が受信した辞典データを格納する。モデル格納部106は、手話者の3次元モデルを格納する。モデル格納部106は、例えば、受信部102が受信した手話者の3次元モデルを格納する。動作データ格納部108は、動作データを格納する。動作データ格納部108は、例えば、受信部102が受信した動作データを格納する。
入力受付部112は、入力を受け付ける。入力受付部112は、タッチ入力、キー入力、及びポインティング入力の少なくともいずれかを受け付けてよい。入力受付部112は、辞典データ格納部104に格納された複数の言葉のうちのいずれかを指定する入力を受け付けてよい。また、入力受付部112は、フリーワードの入力を受け付けてもよい。
動作制御部120は、入力受付部112が受け付けた入力に基づいて、モデル取得部126がモデル格納部106から取得した手話者の3次元モデルを、動作データ取得部128が動作データ格納部108から取得した動作データに従って動作させる。動作制御部120は、入力受付部112がフリーワードの入力を受け付けた場合、フリーワードに含まれる複数の文字のそれぞれを示す指文字を特定して、複数の指文字に対応する動きを、手話者の3次元モデルに連続的にさせてよい。
表示制御部130は、動作制御部120が動作させる手話者の3次元モデルを表示部132に表示させる。表示制御部130は、手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた手話者の3次元モデルを表示部132に表示させてよい。表示制御部130は、例えば、手話者の3次元モデルに対して視点を回転移動させてよく、また、手話者の3次元モデルを回転させる。また、表示制御部130は、手話者側からの方向からみた手話者の3次元モデルと、手話者の相手側からの方向からみた手話者の3次元モデルとを切り換えて表示部132に表示させてもよい。
また、表示制御部130は、辞典データ格納部104に格納された辞典データを表示部132に表示させてよい。使用者30は、表示部132に表示された辞典データを閲覧して、辞典データに含まれる複数の言葉のうちのいずれかの言葉を、入力受付部112を介して入力してよい。
利き腕設定部134は、手話者の利き腕を設定する。利き腕設定部134は、入力受付部112が受け付けた利き腕を指定する入力に従って、手話者の利き腕を設定してよい。利き腕設定部134によって利き腕が設定された場合、動作制御部120は、設定された利き腕に応じて、手話者の3次元モデルを動作させてよい。
動作制御部120は、例えば、指定された言葉に対応する右利き用の動きを手話者の3次元モデルにさせるための動作データに従って、手話者の3次元モデルを動作させる。また、動作制御部120は、例えば、指定された言葉に対応する左利き用の動きを手話者の3次元モデルにさせるための動作データに従って、手話者の3次元モデルを動作させる。これにより、右利き用の手話及び左利き用の手話を使用者30に学習させることができる。
図3は、辞典データの表示例を概略的に示す。辞典データは、単語辞典データ及びシーン別例文集データを含んでよい。表示制御部130は、単語辞典タブ210が選択された場合に、単語辞典データを表示させる。単語辞典データは、複数の単語212を含む。表示制御部130は、検索ボックス214に入力された単語を単語辞典データから検索して、検索結果を表示部132に表示させてよい。
入力受付部112が、複数の単語212のうちのいずれかに対する選択入力を受け付けた場合、動作制御部120は、選択された単語212に対応する動作データを動作データ格納部108から取得する。そして、動作制御部120は、取得した動作データに従って、モデル格納部106から取得した手話者の3次元モデルを動作させる。
複数の単語212のうちのいずれかが選択されているときに、入力受付部112が指文字再生指示ボタン216に対する選択入力を受け付けた場合、動作制御部120は、手話者の3次元モデルに、指文字を表現させる。すなわち、動作制御部120は、選択されている単語212の文字列に対応する指文字を、手話者の3次元モデルが連続的に表現させるべく、手話者の3次元モデルを動作させる。
入力受付部112が、カテゴリボタン220に対する選択入力を受け付けた場合、表示制御部130は、カテゴリを選択するための画面を表示部132に表示させてよい。
図4は、複数のカテゴリ222の表示例を概略的に示す。表示制御部130は、複数のカテゴリ222、閉じるボタン224、及び検索ボックス214を表示部132に表示させてよい。
入力受付部112が、複数のカテゴリ222のうちのいずれかに対する選択入力を受け付けた場合、表示制御部130は、選択されたカテゴリに含まれる単語を表示部132に表示させてよい。入力受付部112が、閉じるボタン224に対する選択入力を受け付けた場合、表示制御部130は、カテゴリボタン220が選択される前の画面を表示部132に表示させてよい。
図5は、シーン別例文集タブ230が選択された場合の表示例を概略的に示す。シーン別例文集タブ230が選択された場合、表示制御部130は、複数の例文232を表示部132に表示させてよい。
入力受付部112が、複数の例文232のうちのいずれかに対する選択入力を受け付けた場合、動作制御部120が、選択された例文232に対応する動作データを動作データ格納部108から取得する。そして、動作制御部120が、取得した動作データに従って、モデル格納部106から取得した手話者の3次元モデルを動作させる。
図6は、手話者の3次元モデル240の表示例を概略的に示す。図6は、手話者の相手側の方向からみた手話者の3次元モデル240が表示されている場合を例示する。表示制御部130は、図6に示すように、手話者の3次元モデル240、言葉欄250、再生ボタン252、リピートボタン254、説明ボタン256、スピードボタン258、カメラボタン260、次へボタン262、及び前へボタン264を表示部132に表示させてよい。
言葉欄250は、指定された言葉を示す。言葉欄250には、例えば、辞典データから選択された言葉が含まれる。再生ボタン252は、手話者の3次元モデル240に対して動作の開始を指示するためのボタンであってよい。入力受付部112が、再生ボタン252に対する選択入力を受け付けた場合、動作制御部120は、言葉欄250に含まれる言葉に対応する動きを手話者の3次元モデル240にさせる。
リピートボタン254は、手話者の3次元モデル240に対して動作を連続的に行わせることを指示するためのボタンであってよい。入力受付部112が、リピートボタン254に対する選択入力を受け付けた場合、動作制御部120は、言葉欄250に含まれる言葉に対応する動きを手話者の3次元モデル240に連続的にさせる。
説明ボタン256は、言葉欄250に含まれる言葉に対応する手話の動き及び由来等の説明を表示することを指示するためのボタンであってよい。入力受付部112が、説明ボタン256に対する選択入力を受け付けた場合、表示制御部130は、言葉欄250に含まれる言葉に対応する手話の動き及び由来等の説明を表示部132に表示させる。
スピードボタン258は、手話者の3次元モデル240による動作のスピードの変更を指示するためのボタンであってよい。入力受付部112が、スピードボタン258に対する選択入力を受け付けた場合、動作制御部120は、手話者の3次元モデル240を動作させるスピードを変更させる。
カメラボタン260は、視点の移動を指示するためのボタンであってよい。入力受付部112が、カメラボタン260に対する選択入力を受け付けた場合、表示制御部130は、視点を変更する。例えば、表示制御部130は、視点を上下方向に移動させる。これにより、使用者30は、手話者の3次元モデル240の動きを、斜め上及び斜め下などから確認することができる。
次へボタン262及び前へボタン264は、言葉欄250に含まれる言葉を切り換える。例えば、入力受付部112が複数の言葉の指定を受け付けていた場合、表示制御部130は、次へボタン262及び前へボタン264に対する選択入力を入力受付部112が受け付けたのに応じて、複数の言葉を切り換える。これにより、使用者30は、複数の言葉に対応する手話の動きを連続的に確認することができる。
入力受付部112は、手話者の3次元モデル240に対して視点を回転移動させるための入力を受け付けてよい。また、入力受付部112は、手話者の3次元モデル240を回転させるための入力を受け付けてよい。例えば、入力受付部112は、表示部132に対するスライド入力及びフリック入力等を受け付ける。また、入力受付部112は、キー入力による、手話者の3次元モデル240に対して視点を回転移動させるための入力を受け付けてもよい。
表示制御部130は、入力受付部112が、手話者の3次元モデル240に対して視点を回転移動させるための入力を受け付けた場合、視点を回転移動させてよい。また、表示制御部130は、入力受付部112が手話者の3次元モデル240を回転させるための入力を受け付けた場合、手話者の3次元モデル240を回転させてよい。
図7は、視点を回転移動させた場合の手話者の3次元モデル240の表示例を概略的に示す。図7に示すように、手話者の相手側の方向以外からみた手話者の3次元モデル240を表示制御部130が表示させることにより、手話の動きをより精確に使用者30に把握させることができる。
動作制御部120は、指定された言葉に対応する表情の動きを手話者の3次元モデル240にさせてよい。動作データは、言葉に対応する表情の動きを手話者の3次元モデル240にさせるためのデータを含んでよい。言葉に対応する表情の動きは、言葉に含まれる複数の文字のそれぞれに対応する口の動きを含んでよい。また、言葉に対応する表情の動きは、言葉の内容に対応する表情の動きを含んでよい。例えば、言葉の内容が怒りの感情に対応する場合、言葉に対応する表情の動きは怒りの表情を含む。
図8及び図9は、視点を回転移動させた場合の手話者の3次元モデル240の表示例を概略的に示す。図8及び図9は、手話者側の方向からみた手話者の3次元モデル240を例示する。図8は、手話者の3次元モデル240の斜め後方からみた手話者の3次元モデル240の表示例を示す。図9は、手話者の3次元モデル240の真後ろからみた手話者の3次元モデル240の表示例を示す。手話者の3次元モデル240は、図8及び図9に示すように、手の3次元モデル242、胴体の3次元モデル244、及び頭部の3次元モデル246を含んでよい。胴体の3次元モデル244及び頭部の3次元モデル246は、手の3次元モデル242以外の他の3次元モデルの一例であってよい。
視点の移動によって、手話者の3次元モデル240の背面が表示される場合、手の3次元モデル242に、胴体の3次元モデル244及び頭部の3次元モデル246が重畳してしまう。これにより、使用者30に対して、手の3次元モデル242が隠ぺいされることから、使用者30は、手の3次元モデル242の動きを確認しづらくなってしまう。この点、手話者の3次元モデル240を回転させて手話者の3次元モデル240の背面が表示される場合も同様である。そこで、本実施形態に係る表示制御装置100は、手の3次元モデル242以外の他の3次元モデルが手の3次元モデル242に重畳する場合に、手の3次元モデル242及び半透明化された他の3次元モデルを表示する。
図8及び図9は、表示制御部130が、手の3次元モデル242と、半透明化された胴体の3次元モデル244及び頭部の3次元モデル246とを表示している場合を例示する。このように、胴体の3次元モデル244及び頭部の3次元モデル246を半透明化させることによって、手話者側からみた手の3次元モデル242の動きを、使用者30に精確に把握させることができる。
また、胴体の3次元モデル244及び頭部の3次元モデル246の動きも、使用者30に把握させることができる。手話をする場合、胴体の動き及び頭部の動きも重要な役割を果たす場合が多い。本実施形態に係る表示制御装置100によれば、手話者側の方向からみた手の動きと同時に、胴体及び頭の動きを確認させることができるので、使用者30の学習効果を高めることができる。
表示制御部130は、例えば、視点が予め定められた角度に移動されたことに応じて、胴体の3次元モデル244及び頭部の3次元モデル246を半透明化させる。また、表示制御部130は、例えば、手話者の3次元モデル240が予め定められた角度に回転されたことに応じて、胴体の3次元モデル244及び頭部の3次元モデル246を半透明化させる。すなわち、表示制御部130は、手話者の3次元モデル240と視点との位置関係が第1の範囲内であるときには手の3次元モデル242及び半透明化されていない胴体の3次元モデル244及び頭部の3次元モデル246を表示させ、手話者の3次元モデル240と視点との位置関係が第2の範囲内であるときには手の3次元モデル242及び半透明化された胴体の3次元モデル244及び頭部の3次元モデル246を表示させてよい。
また、表示制御部130は、胴体の3次元モデル244及び頭部の3次元モデル246の少なくともいずれかが手の3次元モデル242に対して重畳していると判定した場合、胴体の3次元モデル244及び頭部の3次元モデル246を半透明化させてよい。表示制御部130は、他の3次元モデルが手の3次元モデル242に対して重畳していると判定した場合、手の3次元モデル242及び半透明化された他の3次元モデルを表示部132に表示させ、他の3次元モデルが手の3次元モデル242に対して重畳していないと判定した場合、手の3次元モデル242及び半透明化されていない他の3次元モデルを表示部132に表示させてよい。
なお、表示制御部130は、半透明化された胴体の3次元モデル244及び頭部の3次元モデル246を表示部132に表示させる場合、胴体の3次元モデル244及び頭部の3次元モデル246を半透明化させてよい。また、表示制御部130は、半透明化されていない胴体の3次元モデル244及び頭部の3次元モデル246の代わりに、半透明化された胴体の3次元モデル244及び頭部の3次元モデル246を表示させてもよい。
図10は、手の3次元モデル242の表示例を概略的に示す。図10に示すように、表示制御部130は、手話者の3次元モデル240のうち、手の3次元モデル242のみを表示部132に表示させてよい。動作制御部120は、指定された言葉に対応する動きを手の3次元モデル242にさせるための動作データを、動作データ格納部108から取得してよい。そして、動作制御部120は、取得した動作データに従って、手の3次元モデル242を動作させてよい。表示制御部130は、手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた手の3次元モデル242を表示部132に表示させてよい。
表示制御部130は、例えば、手話者側からの方向からみた手の3次元モデル242と、手話者の相手側の方向からみた手の3次元モデル242とを切り換えて表示させてよい。また、表示制御部130は、入力受付部112が受け付けた、手の3次元モデル242に対して視点を回転移動させるための入力又は手の3次元モデル242を回転させるための入力に応じて、手の3次元モデル242を表示する角度を変更してよい。このように、表示制御部130が、手の3次元モデル242のみを表示部132に表示させることによって、使用者30は、手の動きに集中して手話の動きを確認することができる。
なお、手の3次元モデル242は、図10に示す通り、手及び前腕を模したオブジェクトであってよい。また、手の3次元モデル242は、前腕を含まずに、手のみを模したオブジェクトであってもよい。また、手の3次元モデル242は、上肢を模したオブジェクトであってもよい。
図11は、手話者の3次元モデル240の表示例を概略的に示す。表示制御部130は、動作制御部120による手の3次元モデル242の動作に合わせて、手の3次元モデル242の軌道を示す軌道オブジェクト270を表示部132に表示させてよい。
表示制御部130は、例えば、手の3次元モデル242の動作に追従するように軌道オブジェクト270を表示させる。軌道オブジェクト270は、輝度が連続的に変化するオブジェクトであってよい。例えば、軌道オブジェクト270は、星が瞬くようなオブジェクトである。これにより、軌道を目立たせることができる。また、軌道オブジェクト270は、手の3次元モデル242の残像を示すオブジェクトであってもよい。
図12は、表示制御装置100による処理の流れの一例を概略的に示す。図12では、表示制御装置100が言葉の指定を待ち受けている状態を開始状態とし、一の言葉の指定を受け付けてから終了指示を受け付けるまでの処理の流れを説明する。図12に示す各処理は、表示制御装置100の制御部が主体となって実行されてよい。
ステップ602(ステップをSと省略して表記する場合がある。)では、入力受付部112が言葉の指定を受け付ける。S604では、動作制御部120の制御に基づいて、モデル取得部126がモデル格納部106から手話者の3次元モデル240を取得する。S606では、動作制御部120の制御に基づいて、動作データ取得部128が、S602で受け付けた言葉に対応する動きを手話者の3次元モデル240にさせるための動作データをモデル格納部106から取得する。S608では、S604でモデル取得部126によって取得された手話者の3次元モデル240を、表示制御部130が表示部132に表示させる。
S610では、入力受付部112が視点を移動する指示を受け付けたか否かを判定する。S610で受け付けたと判定された場合、S612に進む。S612では、受け付けた指示に従って、表示制御部130が、視点を移動させる。
S614では、表示制御部130が、手の3次元モデル242に他の3次元モデルが重畳しているか否かを判定する。表示制御部130によって、重畳していると判定された場合、S616に進み、重畳していないと判定された場合、S618に進む。S616では、表示制御部130が、他の3次元モデルを半透明化させる。
S618では、表示制御部130が、他の3次元モデルがすでに半透明化されているか否かを判定する。S618で、他の3次元モデルがすでに半透明化されていると判定された場合、S620に進む。S620では、表示制御部130が、他の3次元モデルの半透明化を解除する。
S622では、入力受付部112が、再生指示を受け付けたか否かを判定する。再生指示を受け付けたと判定された場合、S624に進む。S624では、動作制御部120が、S606で取得した動作データに従って、動作制御部120が、手話者の3次元モデル240を動作させる。
S626では、終了指示を受け付けたか否かを判定する。S626で終了指示を受け付けたと判定されなかった場合、S610に戻り、終了指示を受け付けたと判定された場合、処理が終了する。
図13は、表示制御装置100の機能構成の他の一例を概略的に示す。ここでは、図2で説明した表示制御装置100とは異なる点を主に説明する。表示制御装置100は、受信部102、モデル格納部106、動作データ格納部108、入力受付部112、動作制御部120、モデル取得部126、動作データ取得部128、表示制御部130、表示部132、及びゲーム制御部140を備える。表示制御装置100がこれらの全ての構成を備えることは必須であるとは限らない。
ゲーム制御部140は、ゲーム進行部142、問題取得部144、問題出題部146、文字取得部148、及び一致判定部150を有する。ゲーム進行部142は、ゲームを進行する。問題取得部144は、問題を取得する。問題は、文字、単語、及び文章の少なくともいずれかを含んでよい。
ゲーム進行部142は、問題取得部144が取得した問題を問題出題部146に出題させる。問題出題部146は、問題取得部144が取得した問題を、動作制御部120に送信して、問題に対応する動きを手話者の3次元モデル240にさせることによって、問題を出題する。
動作制御部120は、モデル取得部126を介して、モデル格納部106から手話者の3次元モデル240を取得する。また、動作制御部120は、動作データ取得部128を介して、問題に対応する動きを手話者の3次元モデル240にさせるための動作データを取得する。そして、動作制御部120は、取得した動作データに従って、手話者の3次元モデル240を動作させる。
表示制御部130は、問題出題部146の制御のもと、動作制御部120が動作させる手話者の3次元モデル240を表示部132に表示させる。表示制御装置100を使用してゲームを行う使用者30は、表示部132に表示された手話者の3次元モデル240の動きを閲覧して、手話者の3次元モデル240の動きに対応すると考えられる文字列を、入力受付部112を介して入力する。文字列取得部148は、入力受付部112が受け付けた文字列を取得する。
一致判定部150は、問題出題部146によって出題された問題と、文字取得部148が取得した文字列とが一致したか否かを判定する。ゲーム進行部142は、一致判定部150によって一致すると判定された場合と、一致しないと判定された場合とでゲームの進行を異ならせる。
ゲーム制御部140は、例えば、ゲームの主人公がモンスターを退治するゲーム形式に従って、ゲームを進行する。まず、ゲーム制御部140は、モンスターを示す画像を表示制御部130によって表示部132に表示させる。次に、ゲーム制御部140は、動作制御部120を制御して、問題に対応する動きを手話者の3次元モデル240にさせる。次に、ゲーム制御部140は、出題した問題と、入力受付部112が受け付けた文字列とが一致したか否かを判定する。そして、ゲーム制御部140は、一致したと判定した場合、魔法が発動したことを示す画面を表示制御部130に表示させて、モンスターがダメージを受けたこととする。また、ゲーム制御部140は、一致しなかったと判定した場合、ゲームの主人公がモンスターの攻撃を受けたことを示す画面を表示制御部130に表示させて、ゲームの主人公がダメージを受けたこととする。
図14は、表示制御部130によるゲーム画面の表示例を概略的に示す。表示制御部130は、手話者の3次元モデル240、文字入力オブジェクト280、入力文字282、及びヒットポイントインジケータ284を表示部132に表示させてよい。
動作制御部120は、問題に対応する動きを手話者の3次元モデル240にさせる。使用者30は、手話者の3次元モデル240の動きを閲覧して、手話者の3次元モデル240の動きに対応すると考えられる文字列を、文字入力オブジェクト280を介して入力する。図14では、文字入力オブジェクト280がフリック入力を受け付けるオブジェクトである場合を例示しているが、これに限らず、他の入力を受け付けるオブジェクトであってもよい。
入力文字282は、既に入力された文字を示す。ヒットポイントインジケータ284は、ゲームの主人公のヒットポイントを示す。問題出題部146が出題した問題と、文字取得部148が取得した文字列とが一致しないと判定された場合、ヒットポイントインジケータ284によって示されるヒットポイントが減少する。このように、ゲーム形式で手話を学習できる環境を提供することによって、手話の浸透をサポートすることができる。
以上の説明において、表示制御装置100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよい。また、ハードウエアとソフトウエアとの組み合わせにより実現されてもよい。また、プログラムが実行されることにより、コンピュータが、表示制御装置100として機能してもよい。プログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、表示制御装置100の少なくとも一部を構成するコンピュータにインストールされてよい。
コンピュータにインストールされ、コンピュータを本実施形態に係る表示制御装置100として機能させるプログラムは、CPU等に働きかけて、コンピュータを、表示制御装置100の各部としてそれぞれ機能させる。これらのプログラムに記述された情報処理は、コンピュータに読込まれることにより、ソフトウエアと表示制御装置100のハードウエア資源とが協働した具体的手段として機能する。コンピュータは、CPU、ROM、RAM、EEPROM(登録商標)等の各種メモリ、通信バス及びインタフェースを有し、予めファームウェアとしてROMに格納された処理プログラムをCPUが読み出して順次実行することで、表示制御装置100として機能してよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
30 使用者、50 ネットワーク、100 表示制御装置、102 受信部、104 辞典データ格納部、106 モデル格納部、108 動作データ格納部、112 入力受付部、120 動作制御部、126 モデル取得部、128 動作データ取得部、130 表示制御部、132 表示部、134 利き腕設定部、140 ゲーム制御部、142 ゲーム進行部、144 問題取得部、146 問題出題部、148 文字取得部、150 一致判定部、210 単語辞典タブ、212 単語、214 検索ボックス、216 指文字再生指示ボタン、220 カテゴリボタン、222 カテゴリ、224 閉じるボタン、230 シーン別例文集タブ、232 例文、240 手話者の3次元モデル、242 手の3次元モデル、244 胴体の3次元モデル、246 頭部の3次元モデル、250 言葉欄、252 再生ボタン、254 リピートボタン、256 説明ボタン、258 スピードボタン、260 カメラボタン、262 次へボタン、264 前へボタン、270 軌道オブジェクト、280 文字入力オブジェクト、282 入力文字、284 ヒットポイントインジケータ、400 サーバ

Claims (11)

  1. コンピュータを、
    手の3次元モデル及び手話者の胴体の3次元モデルを取得するモデル取得部、
    指定された言葉に対応する動きを前記手の3次元モデルにさせるための動作データを取得する動作データ取得部、
    前記動作データに従って前記手の3次元モデルを動作させる動作制御部、及び
    手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた前記手の3次元モデルを表示部に表示させる表示制御部であって、前記手話者側からみた前記手の3次元モデルを前記表示部に表示させる場合、前記手の3次元モデル及び半透明化された前記胴体の3次元モデルを前記表示部に表示させる表示制御部
    として機能させるためのプログラム。
  2. コンピュータを、
    手の3次元モデル及び手話者の頭部の3次元モデルを取得するモデル取得部
    指定された言葉に対応する動きを前記手の3次元モデルにさせるための動作データを取得する動作データ取得部、
    前記動作データに従って前記手の3次元モデルを動作させる動作制御部、及び
    手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた前記手の3次元モデルを表示部に表示させる表示制御部であって、前記手話者側からみた前記手の3次元モデルを前記表示部に表示させる場合、前記手の3次元モデル及び半透明化された前記頭部の3次元モデルを前記表示部に表示させる表示制御部
    として機能させるためのプログラム。
  3. プログラムであって、
    コンピュータを、
    手の3次元モデルを取得するモデル取得部、
    指定された言葉に対応する動きを前記手の3次元モデルにさせるための動作データを取得する動作データ取得部、
    前記動作データに従って前記手の3次元モデルを動作させる動作制御部、
    手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた前記手の3次元モデルを表示部に表示させる表示制御部、及び
    前記手の3次元モデルを含む手話者モデルに対して視点を回転移動させる又は前記手話者モデルを回転させる回転制御部
    として機能させ、
    前記表示制御部は、前記手話者モデルに含まれる前記手の3次元モデル以外の他の3次元モデルが前記手の3次元モデルに対して重畳する場合に、前記手の3次元モデルと、半透明化された前記他の3次元モデルを前記表示部に表示させる、プログラム。
  4. 前記表示制御部は、前記手話者モデルと前記視点との位置関係が第1の範囲内であるときには前記手の3次元モデル及び半透明化されていない前記他の3次元モデルを前記表示部に表示させ、前記手話者モデルと前記視点との位置関係が第2の範囲内あるときには前記手の3次元モデル及び半透明化された前記他の3次元モデルを前記表示部に表示させる、請求項に記載のプログラム。
  5. 前記表示制御部は、前記他の3次元モデルが前記手の3次元モデルに対して重畳するか否かを判定し、前記他の3次元モデルが前記手の3次元モデルに対して重畳していないと判定した場合、前記手の3次元モデル及び半透明化されていない前記他の3次元モデルを前記表示部に表示させ、前記他の3次元モデルが前記手の3次元モデルに対して重畳していると判定した場合、前記手の3次元モデル及び半透明化された前記他の3次元モデルを前記表示部に表示させる、請求項に記載のプログラム。
  6. 前記表示制御部は、前記手の3次元モデルの動作に合わせて、前記手の3次元モデルの軌道を示す軌道オブジェクトを前記表示部に表示させる、請求項1からのいずれか一項に記載のプログラム。
  7. 前記コンピュータを、
    前記手話者の利き腕を設定する利き腕設定部
    としてさらに機能させ、
    前記動作制御部は、前記利き腕に応じて、前記手の3次元モデルを動作させる、請求項1からのいずれか一項に記載のプログラム。
  8. 前記手の3次元モデルは、手及び前腕を模した3次元モデルである、請求項1からのいずれか一項に記載のプログラム。
  9. 手の3次元モデル及び手話者の胴体の3次元モデルを取得するモデル取得部と、
    指定された言葉に対応する動きを前記手の3次元モデルにさせるための動作データを取得する動作データ取得部と、
    前記動作データに従って前記手の3次元モデルを動作させる動作制御部と、
    手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた前記手の3次元モデルを表示部に表示させる表示制御部であって、前記手話者側からみた前記手の3次元モデルを前記表示部に表示させる場合、前記手の3次元モデル及び半透明化された前記胴体の3次元モデルを前記表示部に表示させる表示制御部
    を備える表示制御装置。
  10. 手の3次元モデル及び手話者の頭部の3次元モデルを取得するモデル取得部と、
    指定された言葉に対応する動きを前記手の3次元モデルにさせるための動作データを取得する動作データ取得部と、
    前記動作データに従って前記手の3次元モデルを動作させる動作制御部と、
    手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた前記手の3次元モデルを表示部に表示させる表示制御部であって、前記手話者側からみた前記手の3次元モデルを前記表示部に表示させる場合、前記手の3次元モデル及び半透明化された前記頭部の3次元モデルを前記表示部に表示させる表示制御部と
    を備える表示制御装置。
  11. 手の3次元モデルを取得するモデル取得部と、
    指定された言葉に対応する動きを前記手の3次元モデルにさせるための動作データを取得する動作データ取得部と、
    前記動作データに従って前記手の3次元モデルを動作させる動作制御部と、
    手話者側からの方向及び手話者の相手側からの方向を含む複数の方向からみた前記手の3次元モデルを表示部に表示させる表示制御部と、
    前記手の3次元モデルを含む手話者モデルに対して視点を回転移動させる又は前記手話者モデルを回転させる回転制御部と
    を備え、
    前記表示制御部は、前記手話者モデルに含まれる前記手の3次元モデル以外の他の3次元モデルが前記手の3次元モデルに対して重畳する場合に、前記手の3次元モデルと、半透明化された前記他の3次元モデルを前記表示部に表示させる、
    表示制御装置。
JP2014003227A 2014-01-10 2014-01-10 プログラム及び表示制御装置 Active JP5564625B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014003227A JP5564625B1 (ja) 2014-01-10 2014-01-10 プログラム及び表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014003227A JP5564625B1 (ja) 2014-01-10 2014-01-10 プログラム及び表示制御装置

Publications (2)

Publication Number Publication Date
JP5564625B1 true JP5564625B1 (ja) 2014-07-30
JP2015132678A JP2015132678A (ja) 2015-07-23

Family

ID=51417108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014003227A Active JP5564625B1 (ja) 2014-01-10 2014-01-10 プログラム及び表示制御装置

Country Status (1)

Country Link
JP (1) JP5564625B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10238968B2 (en) 2016-12-06 2019-03-26 Colopl, Inc. Information processing method, apparatus, and system for executing the information processing method
JP6201028B1 (ja) * 2016-12-06 2017-09-20 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018116537A (ja) 2017-01-19 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2021096272A (ja) 2018-03-30 2021-06-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004254218A (ja) * 2003-02-21 2004-09-09 Seiko Epson Corp 携帯電話、通信方法および通信プログラム
JP2005099977A (ja) * 2003-09-24 2005-04-14 Hitachi Ltd 手話編集方法および装置
JP2005222504A (ja) * 2004-01-07 2005-08-18 Oki Electric Ind Co Ltd 情報表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004254218A (ja) * 2003-02-21 2004-09-09 Seiko Epson Corp 携帯電話、通信方法および通信プログラム
JP2005099977A (ja) * 2003-09-24 2005-04-14 Hitachi Ltd 手話編集方法および装置
JP2005222504A (ja) * 2004-01-07 2005-08-18 Oki Electric Ind Co Ltd 情報表示装置

Also Published As

Publication number Publication date
JP2015132678A (ja) 2015-07-23

Similar Documents

Publication Publication Date Title
CN106875764B (zh) 基于网络的虚拟现实外语学习***及控制方法
US11871109B2 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
CN111897431B (zh) 展示方法及装置、显示设备、计算机可读存储介质
US11915612B2 (en) Multi-sensory learning with feedback
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
US20170124770A1 (en) Self-demonstrating object features and/or operations in interactive 3d-model of real object for understanding object's functionality
WO2022105846A1 (zh) 虚拟对象显示方法及装置、电子设备、介质
JP5564625B1 (ja) プログラム及び表示制御装置
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
JP2022531057A (ja) インタラクティブ対象の駆動方法、装置、デバイス、及び記録媒体
CN111459454B (zh) 交互对象的驱动方法、装置、设备以及存储介质
US10894211B2 (en) Information processing method, apparatus, and system for executing the information processing method
WO2021196644A1 (zh) 交互对象的驱动方法、装置、设备以及存储介质
CN108536293B (zh) 人机交互***、方法、计算机可读存储介质及交互装置
KR20180118669A (ko) 디지털 커뮤니케이션 네트워크에 기반한 지능형 채팅
JPWO2019087564A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112673400A (zh) 化身动画
CN111798548A (zh) 舞蹈画面的控制方法、装置及计算机存储介质
CN106502401B (zh) 一种图像控制方法及装置
WO2019124850A1 (ko) 사물 의인화 및 인터랙션을 위한 방법 및 시스템
US20240096227A1 (en) Content provision system, content provision method, and content provision program
KR102026172B1 (ko) 사물 의인화 및 사물 컨텍스트를 이용한 인공지능 대화 방법 및 시스템
KR20160087564A (ko) 교육용 인터랙티브 앱북 화면 구성 방법 및 시스템
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN111459451A (zh) 交互对象的驱动方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140616

R150 Certificate of patent or registration of utility model

Ref document number: 5564625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250