JP2014011676A - コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム - Google Patents

コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム Download PDF

Info

Publication number
JP2014011676A
JP2014011676A JP2012147648A JP2012147648A JP2014011676A JP 2014011676 A JP2014011676 A JP 2014011676A JP 2012147648 A JP2012147648 A JP 2012147648A JP 2012147648 A JP2012147648 A JP 2012147648A JP 2014011676 A JP2014011676 A JP 2014011676A
Authority
JP
Japan
Prior art keywords
content
listener
language
determined
reproduction control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012147648A
Other languages
English (en)
Inventor
Takashi Shibuya
貴史 渋谷
Katsuyuki Shibata
克幸 柴田
Ken Yoshino
研 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012147648A priority Critical patent/JP2014011676A/ja
Priority to CN201380034857.9A priority patent/CN104412606A/zh
Priority to PCT/JP2013/003911 priority patent/WO2014002461A1/en
Priority to US14/411,381 priority patent/US20150143412A1/en
Publication of JP2014011676A publication Critical patent/JP2014011676A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】聴取者に対し、理解しやすいコンテンツを再生させることができるコンテンツ再生制御装置、コンテンツ再生制御方法及びそのプログラムを提供する。
【解決手段】コンテンツ再生制御装置100は、コンテンツを提供する対象となる聴取者の属性を取得する取得手段(106、107、108)と、取得手段により取得された聴取者の属性に基づいて、コンテンツを再生する際の言語を決定する決定手段(112)と、決定手段で決定された決定言語の音声によりコンテンツを再生する再生制御手段(112)と、を備える。
【選択図】 図2

Description

本発明は、コンテンツ再生制御装置、コンテンツ再生制御方法及びそのプログラムに関する。
聴取者に対して広告内容等のコンテンツを提示する際の印象を高めるために、特許文献1に記載の発明のように、人型に成形されたスクリーンに、そのスクリーン輪郭に合わせた形状のコンテンツ映像を投影するという技術が考えられている。
特開2011−150221号公報
上記特許文献1に記載された技術は、聴取者に対してコンテンツを用意された言語でアナウンスするものであり、そのコンテンツの言語を理解できない聴取者はコンテンツが何の情報を説明しているものなのかどうか理解することが困難となる。
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、聴取者が理解できる言語を認識し、その聴取者の理解できる言語を用いてわかりやすくコンテンツを再生するコンテンツ再生制御装置、コンテンツ再生制御方法及びそのプログラムを提供することである。
本発明の一態様は、コンテンツの再生を制御するコンテンツ再生制御装置であって、コンテンツを提供する対象となる聴取者の属性を取得する取得手段と、当該取得手段により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定手段と、当該決定手段で決定された決定言語の音声により前記コンテンツを再生する再生制御手段とを備えることを特徴とする。
本発明によれば、聴取者が理解できる言語を認識し、その聴取者の理解できる言語を用いて、わかりやすくコンテンツを再生するコンテンツ再生制御装置、コンテンツ再生制御方法及びそのプログラムを提供できる。
本発明の一実施形態に係るコンテンツ再生制御装置を含むシステムの使用状況を示す概略図である。 同実施形態に係るコンテンツ再生制御装置の機能の概略構成を示すブロック図である。 同実施形態に係るコンテンツ再生制御装置の動作の処理内容を示すフローチャートである。 同実施形態に係るコンテンツ再生制御装置の記憶部が備える人種/国籍−言語テーブルの例である。 同実施形態に係るコンテンツ再生制御装置の動作のうち、再生コンテンツの準備処理を説明するフローチャートである。 同実施形態に係るコンテンツ再生制御装置の動作のうち、決定言語に対応するコンテンツが有った場合、その言語に対応する再生コンテンツを選択する動作概念を説明するための図である。 同実施形態に係るコンテンツ再生制御装置の動作のうち、決定言語に対応するコンテンツがなかった場合、その言語に対応する再生コンテンツに変換する動作概念を説明するための図である。
以下、本発明の一実施形態によるコンテンツ再生制御装置について図面を参照して説明する。図1は、この発明の一実施形態によるコンテンツ再生制御装置100を含むシステムの使用状況を示す概略図である。
同図に示すように、コンテンツ再生制御装置100は、例えば無線通信等を用いてコンテンツ供給装置であるサーバ200に接続され、サーバ200はコンテンツ映像再生装置であるプロジェクタ300に接続されている。このプロジェクタ300の出力光照射方向側にはスクリーン310が設置されている。プロジェクタ300は、サーバ200から供給されるコンテンツを受信して出力光にてコンテンツの映像内容として、スクリーン310に例えば人物画像等映像320が投影される。
コンテンツ再生制御装置100はマイク107とスピーカ110とを備えている。コンテンツ再生制御装置100はこのマイク107により聴取者の会話の音(音声)を認識し、認識した音声から会話で利用されている言語を判別する。そして、コンテンツ再生制御装置は判別された言語でサーバ200に記憶されている音声のコンテンツを検索し、その言語のコンテンツを、スピーカ110を用いて音声として聴取者に提供する。(詳しくは後述する。)
サーバ200は画像のコンテンツや音声のコンテンツを記憶している。そして、サーバ200はコンテンツ再生制御装置100からの指令に基づいてプロジェクタ300及びコンテンツ再生制御装置100にコンテンツを供給する。
プロジェクタ300は例えば、アレイ状に配列された複数、例えばXGA(横1024画素×縦768画素)個の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する表示素子であるDMDを利用したDLP(Digital Light Processing)(登録商標)方式のデータプロジェクタである。
スクリーン310は、投影するコンテンツの形状になるように樹脂板が切断されて作成されている。この背面投射型のプロジェクタ用のスクリーンフィルムが投影面に貼付され、背面投射用のスクリーンとしての機能を有する。このスクリーンフィルムは、市販されている高輝度、高コントラストを有するものを用いることにより、日中の明るさであっても、また、明るい居室内であっても、スクリーンに投影されたコンテンツを視認することができる。
次に図2により本実施形態に係るコンテンツ制御装置100の概略機能構成について説明する。
同図中、符号112は中央制御部(CPU)である。このCPU112がコンテンツ再生制御装置100での動作すべてを統括して制御する。
このCPU112は、記憶部114と直接接続される。記憶部114は全体制御プログラム114A、人種―言語テーブル114B、音声合成用素材データ114C等を記憶すし、その他ワーク用領域114D等を備える。
全体制御プログラム114Aは、CPU112が実行する動作プログラムや各種定型データ等である。
人種/国籍―言語テーブル114Bは判別された聴取者の人種/国籍に対応する言語の対応関係を示すテーブルである。(詳しくは後述する。)
音声合成用素材データ114Cは、言語翻訳したコンテンツのテキストデータを、適切なフォーマットの音声ファイルとして作製するのに用いられる音声合成素材のデータである。(詳しくは後述する。)
その他ワーク用データ領域114Dは、CPU112のワークメモリとして機能する。
CPU112は、上記記憶部114に記憶されているプログラムや定型データ等を読出し、その他ワーク用領域114Dに展開して当該プログラムを実行することにより、このコンテンツ再生制御装置を統括して制御する。
上記CPU112はさらに、操作部103と接続される。操作部103は図示しないリモコン等からのキー操作信号を受信し、当該キー操作信号をCPU112に供給する。CPU112は操作部103からの操作信号に応じて電源の投入やモード切替え等の各種動作を実行する。
上記CPU112はさらに、表示部104と接続される。表示部104は操作部103からの操作信号に対応した種々の操作状況等を表示する。
上記CPU112はさらに、通信部101、コンテンツ入力部102と接続される。
通信部101は例えば無線通信を利用して、CPU112からの命令に基づいて、所望するコンテンツがコンテンツ供給装置200内にあるか否かをサーチするサーチ命令等をサーバ200に送信する。尚、有線通信を利用して、コンテンツのサーチ命令等をサーバ200に送信してもよいことは勿論である。
コンテンツ入力部102はサーバ200から供給されるコンテンツを無線通信又は有線通信により受け取り、CPU112にそのコンテンツを渡す。
上記CPU112はさらに、人感センサ部105、音声入力部106、音声出力部109及び映像出力部111と接続される。
人感センサ部105は例えば赤外線センサ等、聴取者がコンテンツ再生制御装置の前の所定の範囲内にいるか否かを感知するセンサである。人感センサ105からの検出出力が予め設定したしきい値レベル以上となった場合、CPU112は聴取者がコンテンツ再生制御装置の前の所定の範囲内にいると判断する。
音声入力部106はマイク107が接続される。音声入力部106はマイク107を用いてコンテンツ再生制御装置の設置されている場所の周辺の音を拾い、取得した音を音声データとしてCPU112に供給する。
音声出力部109にはスピーカ110が接続され、このスピーカ110を用いてサーバ200から供給された音声ファイルを実際の音声に変換して音声発生させる。
映像出力部111はプロジェクタ300に、サーバ200から供給されたコンテンツのうち画像のコンテンツのデータを供給する。
上記CPU112には、さらに、撮像部108が接続される。
撮像部108は、コンテンツ再生制御装置100の前の所定の範囲の画角で、コンテンツ再生制御装置の周囲の画像を撮影し、取得された画像データをCPU112に供給する。
上記CPU112はさらに、電源制御部113を備える。
電源制御部113は、コンテンツ再生制御装置を構成する全ての構成装置に対する電源供給を個別に制御し、適切に省電力が図れるように制御する。
次に上記実施形態の動作について説明する。
なお以下に示す動作は、上述した如くCPU12がプログラムメモリ13Aから読出した動作プログラムや定型データ等をワーク用領域114Dに展開した上で実行するものである。全体制御プログラムとして記憶される動作プログラム等は、このコンテンツ再生制御装置100の工場出荷時に記憶されていたもののみならず、ユーザがこのコンテンツ再生制御装置100を購入後に通信部101を介して図示しないパーソナルコンピュータ等からインターネット経由でダウンロードしたバージョンアップ用のプログラム等によりインストールした内容を含む。
図3は、本実施形態に係るコンテンツ再生制御装置の動作の処理内容を示すフローチャートである。
CPU112は、その当初には、操作部3により電源をオンする図示しないリモートコントローラ等からのキー操作があるのを待機する(ステップS101)。このときにCPU112は、電源オンに必要な部分を除く回路への電力供給を電源制御部113により停止させている。
電源をオンするキー操作がリモートコントローラでなされた時点でCPU112は、上記ステップS101でそれを判断すると、所定の初期設定処理を実行した後に(ステップS102)、電源制御部113により人感センサ(赤外線センサ等)105への電源供給を開始させる(ステップS103)。
以後CPU112は、人感センサ105からの検出出力が予め設定したしきい値レベル以上となるのを繰返し判断することで、当該コンテンツ再生制御装置100の前の所定の範囲内に再生コンテンツを提供すべき対象となる人(聴取者)がいるか否かを感知するのを待機する(ステップS104)。
ステップ104で、例えば、所定の時間内に人が感知できない場合、後述するステップS130に進む。
ステップ104で、人感センサ105で人を感知した場合、CPU112は、電源制御部113にマイク107への電力供給を開始するように指示する(ステップS105)。
そして、CPU112は、聴取者の属性を表す情報を取得するために、マイク105で所定のレベル以上の音が取得されるか否かを判断する(ステップS106)。
ステップ106で、所定の時間内に所定のレベル以上の音が取得されなかった場合、後述するステップS120に進む。
ステップ105で、マイク105で所定のレベル以上の音が取得されたと判断した場合、CPU112は、取得した音から人の音声部と思われる部分を分離抽出する(ステップS107)。この処理は、周波数解析等の既存のアルゴリズムで行えばよい。
CPU112は、音声部と思われる部分が分離抽出されたか否かを判断する。(ステップS108)。
ステップ108で、音声部と思われる部分が分離抽出されなかったと判断された場合、後述するステップS120に進む。
ステップS108で、音声部があると判断された場合、詳細な音声認識処理を行う。(ステップS109)。この処理も、音声認識用の既存のアルゴリズムで行えばよい。
CPU112は、音声認識の結果、その音声の言語(英語、中国語、日本語、等)が認識可能か否か判断する(ステップS110)。
ステップ110で、音声の言語が認識可能でないと判断された場合、後述するステップS120に進む。
ステップS110で、言語が認識可能であると判断された場合、その言語を特定し(ステップS111)、聴取者が使っている言語として、コンテンツを再生する際の言語として決定する。(ステップS112)。
次に、上記で、ステップS106で、所定の時間内に所定のレベル以上の音が取得されなかった場合、ステップS108で、分離抽出された部分に、音声部がないと判断された場合、ステップS110で、音声の言語が認識可能でないと判断された場合に行われるステップS120以降処理の説明を行う。
ステップS120以降の処理は、音声による言語決定ができないと判断された場合の処理である。
まず、CPU112は、電源制御部113に撮像部108への電力供給を開始するように指示する(ステップS120)。
そして、CPU112は、コンテンツ再生制御装置の前の所定の範囲の画角で、人感センサで検知された人物の画像を撮像する(ステップS121)。この時、撮像は静止画としての撮像としてもよいが、動画として撮像するようにしてもよい。
そして、CPU112は、撮像された画像から画像処理により人物と思われる部分を抽出する(ステップS122)。
そして、CPU112は、その人物の顔、眼の色、髪の毛の色、肌の色、服装等の特徴を抽出し、その特徴から、人物の人種(例えば、白人、黒人、ヒスパニック、アジア系)あるいは、国籍(例えば、アメリカ、ブラジル、フランス、中国)を判別する(ステップS123)。
そして、ある程度の確かさで、人種/国籍が判別されたか否かを判定する(ステップS124)。
ステップ124で、人種/国籍が判別されなかったと判断された場合、後述するステップS130に進む。
ステップS124で、人種/国籍が判別されたと判断された場合、CPU112は、その人種/国籍から記憶部114に記憶されている人種/国籍−言語テーブル114Bを参照して(ステップS125)、その人種/国籍に対応する言語を決定する(ステップS112)。
図4は、人種/国籍−言語テーブルの例を示すもので、図4(a)は、人種−言語テーブルの例、図4(b)は、国籍−言語テーブルの例である。
例えば、人物の画像より、聴取者が白人であると判別された場合、コンテンツを再生する際の言語として英語と決定する。
また、例えば、人物の画像より、聴取者がブラジル人であると判別された場合、コンテンツを再生する際の言語としてポルトガル語と決定する。
次に、上記で、ステップS104で、対象となる聴取者が検出されなかった場合、ステップS124で、人種/国籍が判別されなかったと判断された場合に行われるステップS130の処理の説明を行う。
ステップS130の処理は、言語の特定を行えなかった場合の処理である。
この場合は、予め設定されているデフォルトの言語、例えば、英語を、コンテンツを再生する際の言語として決定する(ステップS130)。
次に、上記ステップS112、または、ステップS130で、コンテンツを再生する際の言語が決定された際に続けて行われるステップS140以降の処理を説明する。
ステップS140は、決定された再生コンテンツを準備する処理であって、図5を用いて、詳述する。
サブルーチンステップS140において、まず、CPU112は、決定言語に対応するコンテンツが、コンテンツ供給装置200内にあるか否かを検索する(ステップS141)。
コンテンツサ供給装置200内に決定言語に対応するコンテンツが有るか否かを判断し(ステップS142)、コンテンツ供給装置200内に決定言語に対応するコンテンツが有った場合、その言語対応する再生コンテンツを選択する(ステップS143)。
このときの動作概念図を図6に示す。
そして、このサブルーチンを抜けて、図3のステップS150の処理に戻る。
サブルーチンステップS142において、コンテンツサ供給装置200内に決定言語に対応するコンテンツがないと判断された場合、CPU112は、コンテンツサ供給装置200から、推奨の(第1順位の)コンテンツを読み込む(ステップS144)。
その際、読み込むコンテンツとして、音声ファイルではなく、テキストデータであることが望ましいが、コンテンツサ供給装置200が持っているコンテンツデータ形式による。読み込むコンテンツが音声ファイルであった場合は、テキスト化処理を行うようにすればよい。
次に、CPU112は、読み込んだコンテンツを決定言語に翻訳する(ステップS145)。その際に用いる翻訳用の辞書は、コンテンツ再生制御装置100が記憶部114内に持っているようにしてもよい。
また、通信部101により、外部にある図示しない翻訳サーバを呼び出して、そこの辞書を用いて翻訳させるようにしてもよい。
また、翻訳サーバがコンテンツサ供給装置200であってもよい。
次に、CPU112は、翻訳されたコンテンツを記憶部114内に記憶される音声合成用素材データ114Cを用いて、音声合成する(ステップS146)。
そして、適切なフォーマットで再生する音声ファイルとして、再生コンテンツファイルを作成する(ステップS147)。
このようなステップS144〜S147の動作概念図を図7に示す。
そして、このサブルーチンを抜けて、図3のステップS150の処理に戻る。
次に、上記サブルーチン処理を抜けた後に行われるステップS150以降の処理を説明する。
CPU112は、上記サブルーチンステップS140で準備されたコンテンツを、音声出力部109を通して、スピーカ110より出力する(ステップS150)。
この時、コンテンツが映像を含むものの場合、準備したコンテンツの映像部分をプロジェクタ等のコンテンツ映像再生装置300に出力して、音声と同期させるように再生する。例えば、音声合成する場合は、動画と同期が取れるように合成し、同期再生させる。
そして、コンテンツの再生を行ったのち、操作部103に操作が行われたか否かを検出する(ステップS160)。
ステップS160で操作が行われていないと判断された場合、CPU112は、ステップS150に戻り、準備コンテンツの再生を繰り返す。また、繰り返す回数を予め決めておくようにしてもよい。
ステップS160で操作が行われたと判断された場合、CPU112は、その操作が電源オフ操作であるか否かを判断する(ステップS161)。
ステップS161で、操作が電源オフ操作であると判断された場合、CPU112は、所定の電源オフ処理を行い(ステップS162)、上記ステップS101に戻る。
ステップS161で、操作が電源オフ操作でないと判断された場合、CPU112は、その操作に対応する処理を行い(ステップS163)、上記ステップS104に戻る。
以上、詳述したように、上記実施形態によれば、聴取者が理解できる言語を認識し、その聴取者の理解できる言語を用いて、コンテンツを再生するようにしたので、わかりやすくコンテンツを再生することができる。
また、上記実施形態によれば、聴取者が理解できる言語を認識する上で、コンテンツ再生制御装置の回りの音を取得して、聴取者が話していると思われる言語を認識するようにしたので、容易に聴取者が理解できる言語を決定することができる。
さらに、上記実施形態によれば、聴取者が理解できる言語を認識する上で、コンテンツ再生制御装置の回りを撮像して、取得した画像より、聴取者の属性として、人種/国籍を判別して聴取者がわかると思われる言語を決定するようにしたので、音声からの決定が困難な場合も、聴取者が理解できる言語を決定することができる。
また、上記実施形態では、上記コンテンツ再生制御装置は、人感センサを備え、人感センサで人を感知してから音声認識を行うようにした。
このようにすることにより、人がいない場合に処理の重い音声認識が無用に行われるようなことを防ぐことができる。また、撮像部による画像処理等の重い処理を行わなくても、人がいるかどうかを簡便に検出することができる。
なお、人感センサを備えずに、音声認識又は画像認識処理を行わせるようにしてもよい。
また、上記実施形態では、まず、音声認識により言語決定するようにし、決定できる場合は、撮像部を使った画像認識による言語決定を行わなくてもよいようにした。
このようにすることで、撮像部による処理の重い画像認識が無用に行われるようなことを防ぐことができる
また、上記実施形態では、音声認識を行って、言語認識が困難な場合に、撮像部を用いて画像認識を行うようなものにしたが、撮像部による処理を先に行ってもよい。
また、どちらか一方のみで言語を決定するようにしてもよい。
また、処理の軽さよりも言語決定の精度を優先したい場合は、音声認識による処理と画像認識による処理を並列的に行わせ、総合的に言語を決定するようにすればよい。
また、上記実施形態によれば、聴取者がわかると思われる言語を認識した上で、その言語のコンテンツが存在しない場合でも、コンテンツを変更して再生するようにしたので、確実に、コンテンツを聴取者が理解できるように再生することができる。
また、上記実施形態によれば、聴取者がわかると思われる言語を認識した上で、その言語のコンテンツが存在する場合は、適切なコンテンツを選択して再生するようにしたので、迅速に、コンテンツを聴取者が理解できるように再生することができる。
また、コンテンツが映像を伴うものである場合、選択/変換された音声での再生だけでなく、映像を同期するように再生するので、違和感なく、確実に、わかりやすくコンテンツを聴取者が理解できるように再生することができる。
また、上記実施形態では、映像と音声を伴うコンテンツの映像部分を、プロジェクタを用い、人型のスクリーンに投影して、再生するようにしたので、聴取者に、コンテンツの内容(広告内容等)を、印象をづけるように再生することができる。
なお、上記実施形態では、映像と音声を伴うコンテンツの映像部分を、プロジェクタを用い、人型のスクリーンに投影して、再生するようにしたが、本発明はそれに限らず、直視型の表示装置に映像部分を表示する形態にも適用できることは言うまでもない。
なお、上記実施形態では、簡単のために、詳述していないが、所定時間毎に、人感センサでの人がいるかどうかの検出、音声認識処理、画像認識処理を行うようにして、動的に再生言語を適切に変えるようにしてもよい。
また、上記実施形態では、当該コンテンツ再生制御装置100は、コンテンツ供給装置200、コンテンツ映像再生装置300と別体のものとして説明した。
しかし、当該コンテンツ再生制御装置100は、コンテンツ供給装置200及び又はコンテンツ映像再生装置300と一体になっているものであってもよい。
そのようにすれば、システムをよりコンパクトなものにすることができる。
その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
コンテンツの再生を制御するコンテンツ再生制御装置であって、
コンテンツを提供する対象となる聴取者の属性を取得する取得手段と、
当該取得手段により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定手段と、
当該決定手段で決定された決定言語の音声により前記コンテンツを再生する再生制御手段と
を備えることを特徴とするコンテンツ再生制御装置。
<請求項2>
前記取得手段は、前記聴取者の音声を取得する音声取得手段を含み、
前記決定手段は、前記音声取得手段により取得された前記聴取者の属性としての前記聴取者の音声に基づいて、前記コンテンツを再生する際の言語を決定する
ことを特徴とする請求項1記載のコンテンツ再生制御装置。
<請求項3>
前記取得手段は、前記聴取者を撮像する撮像手段を含み、
前記決定手段は、前記撮像手段により撮像された前記聴取者の画像に基づいて、前記聴取者の属性としての人種及び又は国籍を判別し、前記判別された人種及び又は国籍に基づいて前記コンテンツを再生する際の言語を決定する
ことを特徴とする請求項1又は2記載のコンテンツ再生制御装置。
<請求項4>
前記聴取者が所定の範囲内にいるか否かを検出する人感センサ
を更に備え、
前記取得手段は、前記人感センサにより前記聴取者が所定の範囲内にいると検出された場合に、前記聴取者の属性を取得する
ことを特徴とする請求項1〜3何れか記載のコンテンツ再生制御装置。
<請求項5>
前記再生制御手段は、前記決定言語に対応するコンテンツを検索する検索手段を含み、
当該検索手段により、前記決定言語に対応するコンテンツが検索されなかった場合に、コンテンツを前記決定言語に対応するコンテンツに変換する
ことを特徴とする請求項1〜4何れか記載のコンテンツ再生制御装置。
<請求項6>
前記再生制御手段は、前記決定言語に対応するコンテンツを検索する検索手段を含み、
当該検索手段により、前記決定言語に対応するコンテンツが検索された場合に、検索されたコンテンツを再生するコンテンツとして選択する
ことを特徴とする請求項1〜4何れか記載のコンテンツ再生制御装置。
<請求項7>
前記コンテンツは、前記決定された言語の音声とともに再生される映像を含み、
前記再生制御手段は、前記コンテンツを映像と同期させて再生させる
ことを特徴とする請求項1〜6何れか記載のコンテンツ再生制御装置。
<請求項8>
当該コンテンツ再生制御装置は、前記映像をスクリーンに投影することで表示する映像投影部を備える投影装置であることを特徴とする請求項1〜7何れか記載のコンテンツ再生制御装置。
<請求項9>
当該コンテンツ再生制御装置は、前記映像を表示する映像表示部を備える表示装置であることを特徴とする請求項1〜7何れか記載のコンテンツ再生制御装置。
<請求項10>
コンテンツの再生を制御するコンテンツ再生制御方法であって、
コンテンツを提供する対象となる聴取者の属性を取得する取得工程と、
当該取得工程により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定工程と、
当該決定工程で決定された決定言語の音声により前記コンテンツを再生する再生制御工程と
を含むことを特徴とするコンテンツ再生制御方法。
<請求項11>
コンテンツの再生を制御する装置が内蔵するコンピュータが実行するプログラムであって、
上記コンピュータを、
コンテンツを提供する対象となる聴取者の属性を取得する取得手段、
当該取得手段により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定手段、
当該決定手段で決定された決定言語の音声により前記コンテンツを再生する再生制御手段
として機能させることを特徴とするプログラム。
100…コンテンツ再生制御装置、101…通信部、102…コンテンツ入力部、103…操作部、104…表示部、105…人感センサ部、106…音声入力部、107…マイク、108…撮像部、109…音声出力部、110…スピーカ、111…映像出力部、112…CPU、113…電源制御部、114…記憶部、200…サーバ、300…プロジェクタ、310…スクリーン、320…コンテンツの内容として投影された映像。

Claims (11)

  1. コンテンツの再生を制御するコンテンツ再生制御装置であって、
    コンテンツを提供する対象となる聴取者の属性を取得する取得手段と、
    当該取得手段により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定手段と、
    当該決定手段で決定された決定言語の音声により前記コンテンツを再生する再生制御手段と
    を備えることを特徴とするコンテンツ再生制御装置。
  2. 前記取得手段は、前記聴取者の音声を取得する音声取得手段を含み、
    前記決定手段は、前記音声取得手段により取得された前記聴取者の属性としての前記聴取者の音声に基づいて、前記コンテンツを再生する際の言語を決定する
    ことを特徴とする請求項1記載のコンテンツ再生制御装置。
  3. 前記取得手段は、前記聴取者を撮像する撮像手段を含み、
    前記決定手段は、前記撮像手段により撮像された前記聴取者の画像に基づいて、前記聴取者の属性としての人種及び又は国籍を判別し、前記判別された人種及び又は国籍に基づいて前記コンテンツを再生する際の言語を決定する
    ことを特徴とする請求項1又は2記載のコンテンツ再生制御装置。
  4. 前記聴取者が所定の範囲内にいるか否かを検出する人感センサ
    を更に備え、
    前記取得手段は、前記人感センサにより前記聴取者が所定の範囲内にいると検出された場合に、前記聴取者の属性を取得する
    ことを特徴とする請求項1〜3何れか記載のコンテンツ再生制御装置。
  5. 前記再生制御手段は、前記決定言語に対応するコンテンツを検索する検索手段を含み、
    当該検索手段により、前記決定言語に対応するコンテンツが検索されなかった場合に、コンテンツを前記決定言語に対応するコンテンツに変換する
    ことを特徴とする請求項1〜4何れか記載のコンテンツ再生制御装置。
  6. 前記再生制御手段は、前記決定言語に対応するコンテンツを検索する検索手段を含み、
    当該検索手段により、前記決定言語に対応するコンテンツが検索された場合に、検索されたコンテンツを再生するコンテンツとして選択する
    ことを特徴とする請求項1〜4何れか記載のコンテンツ再生制御装置。
  7. 前記コンテンツは、前記決定された言語の音声とともに再生される映像を含み、
    前記再生制御手段は、前記コンテンツを映像と同期させて再生させる
    ことを特徴とする請求項1〜6何れか記載のコンテンツ再生制御装置。
  8. 当該コンテンツ再生制御装置は、前記映像をスクリーンに投影することで表示する映像投影部を備える投影装置であることを特徴とする請求項1〜7何れか記載のコンテンツ再生制御装置。
  9. 当該コンテンツ再生制御装置は、前記映像を表示する映像表示部を備える表示装置であることを特徴とする請求項1〜7何れか記載のコンテンツ再生制御装置。
  10. コンテンツの再生を制御するコンテンツ再生制御方法であって、
    コンテンツを提供する対象となる聴取者の属性を取得する取得工程と、
    当該取得工程により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定工程と、
    当該決定工程で決定された決定言語の音声により前記コンテンツを再生する再生制御工程と
    を含むことを特徴とするコンテンツ再生制御方法。
  11. コンテンツの再生を制御する装置が内蔵するコンピュータが実行するプログラムであって、
    上記コンピュータを、
    コンテンツを提供する対象となる聴取者の属性を取得する取得手段、
    当該取得手段により取得された前記聴取者の属性に基づいて、前記コンテンツを再生する際の言語を決定する決定手段、
    当該決定手段で決定された決定言語の音声により前記コンテンツを再生する再生制御手段
    として機能させることを特徴とするプログラム。
JP2012147648A 2012-06-29 2012-06-29 コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム Pending JP2014011676A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012147648A JP2014011676A (ja) 2012-06-29 2012-06-29 コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
CN201380034857.9A CN104412606A (zh) 2012-06-29 2013-06-21 内容重放控制装置、内容重放控制方法和程序
PCT/JP2013/003911 WO2014002461A1 (en) 2012-06-29 2013-06-21 Content playback control device, content playback control method and program
US14/411,381 US20150143412A1 (en) 2012-06-29 2013-06-21 Content playback control device, content playback control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147648A JP2014011676A (ja) 2012-06-29 2012-06-29 コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014011676A true JP2014011676A (ja) 2014-01-20

Family

ID=48808466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147648A Pending JP2014011676A (ja) 2012-06-29 2012-06-29 コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム

Country Status (4)

Country Link
US (1) US20150143412A1 (ja)
JP (1) JP2014011676A (ja)
CN (1) CN104412606A (ja)
WO (1) WO2014002461A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071501A (ja) * 2014-09-29 2016-05-09 株式会社日立システムズ 広告評価システム、広告評価方法
JP2016110586A (ja) * 2014-12-10 2016-06-20 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP2016155179A (ja) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP2019161652A (ja) * 2019-03-28 2019-09-19 みこらった株式会社 移動型プロジェクション装置及びプロジェクションシステム
JP6996186B2 (ja) 2017-09-19 2022-01-17 株式会社Jvcケンウッド 情報処理装置、言語判定方法及びプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635392B2 (en) * 2014-04-16 2017-04-25 Sony Corporation Method and system for displaying information
JP2016148961A (ja) * 2015-02-12 2016-08-18 カシオ計算機株式会社 コンテンツ出力装置、コンテンツ出力方法およびプログラム
CN106649290A (zh) * 2016-12-21 2017-05-10 上海木爷机器人技术有限公司 语音翻译方法及***
CN108364633A (zh) * 2017-01-25 2018-08-03 晨星半导体股份有限公司 文字转语音***以及文字转语音方法
CN107484034A (zh) * 2017-07-18 2017-12-15 深圳Tcl新技术有限公司 字幕显示方法、终端及计算机可读存储介质
CN109862425A (zh) * 2017-11-30 2019-06-07 深圳Tcl新技术有限公司 一种电视伴音调整方法、存储介质以及智能电视
CN108305613A (zh) * 2018-02-28 2018-07-20 柳州市实福农业科技有限公司 一种贸易会议现场记录器
CN108694394A (zh) * 2018-07-02 2018-10-23 北京分音塔科技有限公司 人脸识别的翻译机、方法、装置及存储介质
CN109618221B (zh) * 2018-08-08 2019-07-26 厦门市东合传媒科技有限公司 国籍信息智能识别方法
CN109309864B (zh) * 2018-08-08 2019-06-07 艾博特(上海)电信科技有限公司 国籍信息智能识别***
CN109600680B (zh) * 2018-08-15 2019-06-28 上海极链网络科技有限公司 重复场景图像分组方法
CN109977866B (zh) * 2019-03-25 2021-04-13 联想(北京)有限公司 内容翻译方法及装置、计算机***及计算机可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028010A (ja) * 1999-05-10 2001-01-30 Matsushita Electric Ind Co Ltd マルチメディアコンテンツ自動抽出システム及びその方法
JP2001197207A (ja) * 2000-01-17 2001-07-19 Mega Chips Corp 多言語応対装置
JP2003030210A (ja) * 2001-07-11 2003-01-31 Contents Station:Kk 通信回線網を用いた情報提供方法及び情報提供システム
JP2005210196A (ja) * 2004-01-20 2005-08-04 Sony Corp 情報処理装置、情報処理方法
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP2007193166A (ja) * 2006-01-20 2007-08-02 Kenwood Corp 対話装置、対話方法及びプログラム
JP2011223551A (ja) * 2010-03-23 2011-11-04 Panasonic Corp 表示装置、表示方法、プログラムおよび記録媒体
JP2012029107A (ja) * 2010-07-23 2012-02-09 Nec Casio Mobile Communications Ltd 電子機器
JP2012083925A (ja) * 2010-10-10 2012-04-26 Jvc Kenwood Corp 電子機器及びその表示言語判定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134669A (ja) * 1984-07-27 1986-02-18 Hitachi Ltd 自動取引システム
US6122668A (en) * 1995-11-02 2000-09-19 Starlight Networks Synchronization of audio and video signals in a live multicast in a LAN
JP3908437B2 (ja) * 2000-04-14 2007-04-25 アルパイン株式会社 ナビゲーションシステム
US20030046075A1 (en) * 2001-08-30 2003-03-06 General Instrument Corporation Apparatus and methods for providing television speech in a selected language
KR100803586B1 (ko) * 2001-12-18 2008-02-15 삼성전자주식회사 프로젝션 텔레비전의 휘도 개선장치
JP2006524856A (ja) * 2003-04-14 2006-11-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動ダビングをオーディオ・ビジュアル・ストリームに対して行うシステム及び方法
EP2050263A4 (en) * 2005-12-06 2010-08-04 Daniel John Simpson INTERACTIVE NATURAL LANGUAGE CALLING SYSTEM
US20070271580A1 (en) * 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics
DE102006057159A1 (de) * 2006-12-01 2008-06-05 Deutsche Telekom Ag Verfahren zur Klassifizierung der gesprochenen Sprache in Sprachdialogsystemen
CN101925916B (zh) * 2007-11-21 2013-06-19 高通股份有限公司 基于媒体偏好控制电子设备的方法和***
EP2469846B1 (en) * 2008-06-27 2015-01-28 Kabushiki Kaisha Toshiba Television receiver, method of controlling the receiver
US10319173B2 (en) * 2008-10-22 2019-06-11 Newzoom, Inc. Vending store inventory management and reporting system
JP2011150221A (ja) 2010-01-25 2011-08-04 Seiko Epson Corp 映像出力装置搭載機器、映像出力装置の投影方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028010A (ja) * 1999-05-10 2001-01-30 Matsushita Electric Ind Co Ltd マルチメディアコンテンツ自動抽出システム及びその方法
JP2001197207A (ja) * 2000-01-17 2001-07-19 Mega Chips Corp 多言語応対装置
JP2003030210A (ja) * 2001-07-11 2003-01-31 Contents Station:Kk 通信回線網を用いた情報提供方法及び情報提供システム
JP2005210196A (ja) * 2004-01-20 2005-08-04 Sony Corp 情報処理装置、情報処理方法
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP2007193166A (ja) * 2006-01-20 2007-08-02 Kenwood Corp 対話装置、対話方法及びプログラム
JP2011223551A (ja) * 2010-03-23 2011-11-04 Panasonic Corp 表示装置、表示方法、プログラムおよび記録媒体
JP2012029107A (ja) * 2010-07-23 2012-02-09 Nec Casio Mobile Communications Ltd 電子機器
JP2012083925A (ja) * 2010-10-10 2012-04-26 Jvc Kenwood Corp 電子機器及びその表示言語判定方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071501A (ja) * 2014-09-29 2016-05-09 株式会社日立システムズ 広告評価システム、広告評価方法
JP2016110586A (ja) * 2014-12-10 2016-06-20 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP2016155179A (ja) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP6996186B2 (ja) 2017-09-19 2022-01-17 株式会社Jvcケンウッド 情報処理装置、言語判定方法及びプログラム
JP2019161652A (ja) * 2019-03-28 2019-09-19 みこらった株式会社 移動型プロジェクション装置及びプロジェクションシステム

Also Published As

Publication number Publication date
US20150143412A1 (en) 2015-05-21
CN104412606A (zh) 2015-03-11
WO2014002461A1 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
JP2014011676A (ja) コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
JP4599244B2 (ja) 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体
KR101978743B1 (ko) 디스플레이 장치, 상기 디스플레이 장치를 제어하는 원격 제어 장치, 디스플레이 장치 제어 방법, 서버 제어 방법 및 원격 제어 장치 제어 방법
EP1865426B1 (en) Information processing apparatus, information processing method, and computer program
EP2376207B1 (en) Method and system for generating data for controlling a system for rendering at least one signal
KR100948600B1 (ko) 제스처/음성 융합 인식 시스템 및 방법
WO2019037615A1 (zh) 视频处理方法和装置、用于视频处理的装置
EP3696648A1 (en) Interaction method and device
CN110322760B (zh) 语音数据生成方法、装置、终端及存储介质
JP2014035541A (ja) コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
CN112445395B (zh) 音乐片段的选取方法、装置、设备及存储介质
JP2011239141A (ja) 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム
JP2007101945A (ja) 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
CN110996163B (zh) 用于自动字幕显示的***和方法
JP7290154B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111727608A (zh) 内容播放程序、内容播放方法及内容播放***
JP5554110B2 (ja) 文書処理方法および文書処理システム
KR100701290B1 (ko) 메모리 관리 기능을 구비한 교육용 완구
JP4235635B2 (ja) データ検索装置及びその制御方法
WO2020197716A1 (en) Interactive reading assistant
JP2012118286A (ja) 利用者属性対応カラオケシステム
JP2017068592A (ja) ロボット、ロボット制御装置、ロボット制御方法、及びプログラム
KR20230082374A (ko) 아바타를 적응적으로 생성하기 위한 전자 장치 및 그 동작 방법
CN107463251B (zh) 一种信息处理方法、装置、***和存储介质
KR101483635B1 (ko) 컨텐츠 재생 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161220