JP7162698B2 - Output control program, information processing device, and output control method - Google Patents

Output control program, information processing device, and output control method Download PDF

Info

Publication number
JP7162698B2
JP7162698B2 JP2021095793A JP2021095793A JP7162698B2 JP 7162698 B2 JP7162698 B2 JP 7162698B2 JP 2021095793 A JP2021095793 A JP 2021095793A JP 2021095793 A JP2021095793 A JP 2021095793A JP 7162698 B2 JP7162698 B2 JP 7162698B2
Authority
JP
Japan
Prior art keywords
output
file
volume
sound
output control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021095793A
Other languages
Japanese (ja)
Other versions
JP2021157813A (en
Inventor
空 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019202323A external-priority patent/JP6896828B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2021095793A priority Critical patent/JP7162698B2/en
Publication of JP2021157813A publication Critical patent/JP2021157813A/en
Priority to JP2022166990A priority patent/JP7493827B2/en
Application granted granted Critical
Publication of JP7162698B2 publication Critical patent/JP7162698B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、複数のコンテンツの出力状態を調整する出力制御プログラム、情報処理装置
及び出力制御方法に関する。
The present invention relates to an output control program, an information processing apparatus, and an output control method for adjusting output states of a plurality of contents.

スピーカ等を備えた音響装置において、再生される音としてBGM、台詞、効果音等さ
まざまなものがある。ここで、同時並列的に出力される音の種類に応じて、相対的な優先
度があり、音量等を調整すべき場合もある。例えば、BGMが恒常的に出力されている状
況下で、台詞が間欠的に出力される場合には、台詞を聴こえやすくするために、台詞の出
力レベルに応じてBGMのレベルを下げるように調整するダッキング処理が行なわれる(
特許文献1を参照)。
2. Description of the Related Art In an acoustic device having a speaker or the like, various sounds such as BGM, dialogue, and sound effects are reproduced. Here, there is a relative priority according to the types of sounds that are output simultaneously and in parallel, and there are cases where the volume and the like should be adjusted. For example, if the dialogue is intermittently output in a situation where BGM is constantly being output, the BGM level is adjusted to lower the output level of the dialogue in order to make the dialogue easier to hear. ducking process is performed (
See Patent Document 1).

また、スマートフォン等のコンピュータ端末を利用するユーザに対して、各種コンテン
ツが提供されている。このようなコンテンツは、ウェブページにより提供される場合があ
る。このウェブページは、HTML(HyperText Markup Language)等のマークアップ言
語で記述されている。更に、ウェブページにおいて、オーディオや動画などの、多様なメ
ディアコンテンツを提供できる規格も開示されている(非特許文献1、2を参照)。この
規格においては、メディア要素(<audio>要素、<video>要素)及びWeb Audio APIにより
、メディアコンテンツを再生することができる。
In addition, various contents are provided to users who use computer terminals such as smartphones. Such content may be provided by web pages. This web page is written in a markup language such as HTML (HyperText Markup Language). Furthermore, standards have also been disclosed for providing various media contents such as audio and video on web pages (see Non-Patent Documents 1 and 2). In this standard, media content can be played back using media elements (<audio> element, <video> element) and Web Audio API.

特開2012-70137公報Japanese Unexamined Patent Application Publication No. 2012-70137

The World Wide Web Consortium(W3C)、″HTML5 A vocabulary and associated APIs for HTML and XHTML W3C Candidate Recommendation 04 February 2014″、[online]、ホームページ、[平成26年3月20日検索]、インターネット<http://www.w3.org/TR/html5/embedded-content-0.html#media-elements>The World Wide Web Consortium (W3C), ``HTML5 A vocabulary and associated APIs for HTML and XHTML W3C Candidate Recommendation 04 February 2014'', [online], homepage, [searched on March 20, 2014], Internet <http:/ /www.w3.org/TR/html5/embedded-content-0.html#media-elements> The World Wide Web Consortium(W3C)、″Web Audio API W3C Working Draft 10 October 2013″、[online]、ホームページ、[平成26年3月20日検索]、インターネット<http://www.w3.org/TR/webaudio/>The World Wide Web Consortium (W3C), ``Web Audio API W3C Working Draft 10 October 2013'', [online], homepage, [searched March 20, 2014], Internet <http://www.w3.org/ TR/webaudio/>

ウェブページにおいても、複数のコンテンツ(例えば、音声ファイル)を同時に再生す
ることがある。例えば、ゲーム画面において、BGM(副音声)を出力しながら、ナレー
ション(主音声)を出力することがある。この場合、主音声が出力されている間は、副音
声の音量を下げる。そして、主音声が終了した後に、副音声の音量を元に戻す処理が行な
われている。
Also in a web page, a plurality of contents (for example, audio files) may be reproduced at the same time. For example, on a game screen, narration (main audio) may be output while BGM (secondary audio) is being output. In this case, the volume of the sub-audio is lowered while the main audio is being output. Then, after the main audio ends, processing is performed to restore the volume of the sub-audio.

しかしながら、ゲームのように、音声内容が状況に応じて変化する場合には、最適な音
声素材を作成することが困難であった。また、クライアント端末のブラウザを利用してコ
ンテンツを出力する場合、再生環境に応じて音量が異なることがある。この場合、再生環
境に応じて、音量を調整したコンテンツを準備することは煩雑であった。
However, it is difficult to create optimal audio material when the audio content changes according to the situation, such as in a game. Also, when content is output using a browser on a client terminal, the volume may vary depending on the playback environment. In this case, it is troublesome to prepare the content whose volume is adjusted according to the reproduction environment.

本発明は、上述した問題に鑑みてなされたものであり、その目的は、複数のコンテンツ
を同時に出力する場合に、コンテンツの出力状況を調整するための出力制御プログラム、
情報処理装置及び出力制御方法を提供することにある。
The present invention has been made in view of the above problems, and its object is to provide an output control program for adjusting the output status of contents when outputting a plurality of contents at the same time;
An object of the present invention is to provide an information processing device and an output control method.

上記課題を解決する出力制御プログラムは、マークアップ言語で記述され、再生環境に
関する情報を取得するための記述を含むファイルに基づきウェブページを表示するブラウ
ザを備えたコンピュータ端末において、ウェブページに含まれる複数のコンテンツを再生
する実行手段として機能させるプログラムであって、前記コンピュータ端末の制御部を、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する
複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定手段、前
記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出
力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記再生環境に応じて
設定する出力条件設定手段、前記マークアップ言語において、前記主コンテンツ及び前記
副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前
記主コンテンツ及び前記副コンテンツを出力する出力調整手段、として機能させる。
上記課題を解決する情報処理装置は、マークアップ言語で記述され、再生環境に関する
情報を取得するための記述を含むファイルに基づきウェブページを表示するブラウザを備
え、ウェブページに含まれる複数のコンテンツを再生する情報処理装置であって、前記ブ
ラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数の
コンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定手段、前記主コ
ンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法
と前記副コンテンツの出力方法とを異ならせる出力条件を、前記再生環境に応じて設定す
る出力条件設定手段、前記マークアップ言語において、前記主コンテンツ及び前記副コン
テンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コ
ンテンツ及び前記副コンテンツを出力する出力調整手段、を備える。
上記課題を解決する出力制御方法は、マークアップ言語で記述され、再生環境に関する
情報を取得するための記述を含むファイルに基づきウェブページを表示するブラウザを備
えたコンピュータ端末において、ウェブページに含まれる複数のコンテンツを再生する出
力制御方法であって、前記コンピュータ端末の制御部が、前記ブラウザが取得したウェブ
ページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主
コンテンツ及び副コンテンツを特定する主副特定ステップ、前記主コンテンツ及び前記副
コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツ
の出力方法とを異ならせる出力条件を、前記再生環境に応じて設定する出力条件設定ステ
ップ、前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に
出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前
記副コンテンツを出力する出力調整ステップ、を実行する。
An output control program that solves the above problems is included in a web page in a computer terminal equipped with a browser that displays the web page based on a file that is written in a markup language and includes a description for obtaining information about the playback environment. A program that functions as execution means for reproducing a plurality of contents, wherein the control unit of the computer terminal is:
main and sub-specification means for specifying main content and sub-content for a plurality of contents to be output when the markup language constituting the web page acquired by the browser is reproduced, and when the main content and the sub-content are simultaneously output (2) output condition setting means for setting an output condition for making the output method of the main content and the output method of the sub-content different according to the reproduction environment; It functions as output adjusting means for outputting the main content and the sub content based on the output condition when an event to be output at the same time is detected.
An information processing device that solves the above problems includes a browser that displays a web page based on a file that is described in a markup language and includes a description for acquiring information about a playback environment, and that displays a plurality of contents included in the web page. An information processing apparatus for reproduction, comprising main and sub identification means for identifying main content and sub content for a plurality of contents to be output when reproducing a markup language constituting a web page acquired by the browser, the main content and output condition setting means for setting, according to the reproduction environment, an output condition for making the method of outputting the main content different from the method of outputting the secondary content when the secondary content is output at the same time; and output adjusting means for outputting the main content and the sub-content based on the output condition when an event of outputting the main content and the sub-content at the same time is detected.
An output control method for solving the above problems is provided in a computer terminal equipped with a browser for displaying a web page based on a file written in a markup language and containing a description for obtaining information about a playback environment. An output control method for reproducing a plurality of contents, wherein the controller of the computer terminal, when reproducing a markup language constituting a web page acquired by the browser, outputs main contents and sub contents for the plurality of contents to be output. an output condition for differentiating a method of outputting the main content from a method of outputting the subsidiary content when the main content and the subsidiary content are output at the same time according to the reproduction environment; an output condition setting step for setting an output condition for outputting the primary content and the secondary content based on the output condition when an event for simultaneously outputting the primary content and the secondary content is detected in the markup language; execute the step.

本発明によれば、複数のコンテンツを同じ場面において出力する場合に、コンテンツの
出力状況を効率的に調整することができる。
ADVANTAGE OF THE INVENTION According to this invention, when outputting several content in the same scene, the output state of content can be adjusted efficiently.

本実施形態のシステム概略図。1 is a schematic diagram of a system according to the present embodiment; FIG. 本実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of this embodiment. 本実施形態のソースコード例の一部の説明図。FIG. 2 is an explanatory diagram of part of a source code example of the embodiment; 本実施形態のソースコード例の一部の説明図。FIG. 2 is an explanatory diagram of part of a source code example of the embodiment; 他の実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of other embodiment.

<第1の実施形態>
以下、図1、図2に従って、出力制御プログラムの一実施形態を説明する。
本実施形態では、図1に示すように、クライアント端末20が、サーバ10から取得し
たファイル(マークアップ言語ファイル)に基づいて、複数のコンテンツを再生する場合
を想定する。
<First embodiment>
An embodiment of the output control program will be described below with reference to FIGS. 1 and 2. FIG.
In this embodiment, as shown in FIG. 1, it is assumed that the client terminal 20 reproduces a plurality of contents based on files (markup language files) acquired from the server 10. FIG.

ユーザが利用するクライアント端末20は、ネットワークを介してサーバ10に接続さ
れている。このサーバ10は、ファイル記憶部12を備える。
ファイル記憶部12には、クライアント端末20に提供するファイルを記憶させておく
。ここでは、マークアップ言語により記述されたファイルを記録しておく。このファイル
には、後述するように、クライアント端末20において、各種手段を実現するための記述
(出力制御プログラム)を含めておく。本実施形態では、後述するダッキング管理手段2
13、主副特定手段214、出力条件設定手段215を実現するための記述を含める。
A client terminal 20 used by a user is connected to the server 10 via a network. This server 10 has a file storage unit 12 .
A file to be provided to the client terminal 20 is stored in the file storage unit 12 . Here, a file written in markup language is recorded. This file contains descriptions (output control programs) for realizing various means in the client terminal 20, as will be described later. In this embodiment, the ducking management means 2 described later
13. Include a description for realizing the main/sub specifying means 214 and the output condition setting means 215 .

更に、このファイルには、出力時に使用する複数のコンテンツに関する情報(コンテン
ツ情報)を含んでいる。コンテンツ情報は、オーディオや動画等のコンテンツの取得先に
関する情報が含まれる。ここで、取得先は、このアイテムを利用する場合、提供可能なオ
ブジェクトが格納されたアドレス情報(例えば、URL:Uniform Resource Locator)で
ある。
更に、ファイルには、各コンテンツにおいて、主コンテンツ又は副コンテンツのいずれ
かを特定するための主副設定情報を含める。
In addition, this file contains information (content information) on multiple contents to be used at the time of output. The content information includes information relating to acquisition sources of content such as audio and video. Here, the acquisition destination is address information (for example, URL: Uniform Resource Locator) storing an object that can be provided when using this item.
Furthermore, the file includes main and sub setting information for specifying either main content or sub content in each content.

クライアント端末20は、ファイルを閲覧するユーザが利用するコンピュータ(スマー
トフォン等の情報処理端末)であり、出力制御装置として機能する。このクライアント端
末20は、CPU、メモリ(RAM及びROM)等からなる制御部21、端末記憶部22
、入出力部23を備えている。
The client terminal 20 is a computer (information processing terminal such as a smart phone) used by a user who browses files, and functions as an output control device. The client terminal 20 includes a control unit 21 composed of a CPU, memory (RAM and ROM), etc., a terminal storage unit 22
, and an input/output unit 23 .

端末記憶部22には、クライアント端末20において用いられる各種設定やプログラム
が記録される。本実施形態では、マークアップ言語で記載されたファイルを表示するブラ
ウザ(プログラム)が格納される。
入出力部23は、タッチパネルディスプレイ等により構成され、データの出力や入力を
行なう。
Various settings and programs used in the client terminal 20 are recorded in the terminal storage unit 22 . In this embodiment, a browser (program) for displaying files written in a markup language is stored.
The input/output unit 23 is configured by a touch panel display or the like, and performs data output and input.

制御部21は、端末記憶部22に格納されたブラウザプログラムを実行することにより
、ブラウザ210を起動させる。このブラウザ210は、ファイル取得手段211、出力
処理手段212を備える。
The control unit 21 activates the browser 210 by executing the browser program stored in the terminal storage unit 22 . This browser 210 comprises file acquisition means 211 and output processing means 212 .

ファイル取得手段211は、ファイル(マークアップ言語ファイル)を読み込む。
出力処理手段212は、マークアップ言語ファイルをウェブページとして、入出力部2
3に出力する。
File acquisition means 211 reads a file (markup language file).
The output processing means 212 converts the markup language file into a web page and outputs it to the input/output unit 2.
Output to 3.

更に、ブラウザ210は、このファイルに含まれる記述を実行する。この記述を実行す
ることにより、制御部21は、ダッキング管理手段213、主副特定手段214、出力条
件設定手段215として機能する。具体的には、ブラウザ210のファイル取得手段21
1によって、サーバ10のファイル記憶部12に格納されたJavaScript(登録商標)を取
得する。そして、このJavaScript(登録商標)の記述に基づいて、制御部21が、このダ
ッキング管理手段213、主副特定手段214、出力条件設定手段215を機能させる。
In addition, browser 210 executes the statements contained in this file. By executing this description, the control unit 21 functions as ducking management means 213 , main/sub specifying means 214 , and output condition setting means 215 . Specifically, the file acquisition means 21 of the browser 210
1 acquires the JavaScript (registered trademark) stored in the file storage unit 12 of the server 10 . Then, based on the JavaScript (registered trademark) description, the control unit 21 causes the ducking management means 213, the main/sub specifying means 214, and the output condition setting means 215 to function.

ダッキング管理手段213は、ダッキング処理の必要性を検知する。
主副特定手段214は、ファイル再生に利用する複数のコンテンツについて、主コンテ
ンツ又は副コンテンツを特定する。
Ducking management means 213 detects the necessity of ducking processing.
The main/sub-specifying means 214 specifies main contents or sub-contents for a plurality of contents to be used for file reproduction.

出力条件設定手段215は、主コンテンツ、副コンテンツが同時に出力される場合の出
力条件を設定する。この出力条件設定手段215は、主コンテンツ、副コンテンツを同時
に出力するときの主コンテンツ、副コンテンツの出力条件(出力レベル)に関する情報を
保持させておく。例えば、オーディオに関するコンテンツの場合には、主コンテンツと副
コンテンツとの音量比を大きくする設定に関する情報を保持させておく。これにより、副
コンテンツに対して、主コンテンツを目立たせることができる。
The output condition setting means 215 sets the output condition when the main content and the sub content are output at the same time. The output condition setting means 215 holds information regarding the output conditions (output levels) of the main content and the sub-contents when the main content and the sub-contents are output at the same time. For example, in the case of audio-related content, information is held regarding settings for increasing the volume ratio between the main content and the sub-content. This makes it possible to make the main content stand out from the sub content.

次に、図2を用いて、クライアント端末20において、ファイルに含まれるコンテンツ
を出力する場合の処理を説明する。
まず、クライアント端末20の制御部21は、ファイルの読込処理を実行する(ステッ
プS1-1)。具体的には、入出力部23を介して、ブラウザ210に、出力希望のファ
イルのURLを入力する。この場合、ブラウザ210は、ファイル取得手段211により
、サーバ10に対して、URLのコンテンツを要求する。そして、ブラウザ210は、サ
ーバ10から、ファイルを取得する。ここでは、ファイルとして、マークアップ言語ファ
イルを取得する場合を想定する。このファイルには、ダッキング管理手段213、主副特
定手段214、出力条件設定手段215を実現するための記述が含まれる。更に、このフ
ァイルには、出力時に使用するコンテンツ(例えば、オーディオ)に関する情報が含まれ
ている。
Next, with reference to FIG. 2, a process of outputting content included in a file at the client terminal 20 will be described.
First, the control unit 21 of the client terminal 20 executes file reading processing (step S1-1). Specifically, the URL of the desired output file is input to the browser 210 via the input/output unit 23 . In this case, the browser 210 requests the content of the URL from the server 10 using the file acquisition means 211 . The browser 210 then acquires the file from the server 10 . Here, it is assumed that the file is a markup language file. This file includes descriptions for realizing the ducking management means 213 , main/sub specifying means 214 , and output condition setting means 215 . Additionally, this file contains information about the content (eg, audio) to use when outputting.

次に、クライアント端末20の制御部21は、ファイルの再生処理を実行する(ステッ
プS1-2)。具体的には、制御部21のブラウザ210の出力処理手段は、サーバ10
から取得したファイルを出力する。ここで、ファイルに含まれる単独のコンテンツを出力
する場合には、そのまま再生する。
Next, the control unit 21 of the client terminal 20 executes file reproduction processing (step S1-2). Specifically, the output processing means of the browser 210 of the control unit 21 is the server 10
Output the file obtained from . Here, when outputting a single content contained in the file, it is reproduced as it is.

この場合、クライアント端末20の制御部21は、ダッキング処理を実行する。
このダッキング処理においては、まず、クライアント端末20の制御部21は、イベン
ト待機処理を実行する(ステップS2-1)。具体的には、制御部21のブラウザ210
は、ダッキング管理手段213により、複数のコンテンツが同時に出力されるイベントを
待機する。
In this case, the control unit 21 of the client terminal 20 executes ducking processing.
In this ducking process, first, the control unit 21 of the client terminal 20 executes event waiting process (step S2-1). Specifically, the browser 210 of the control unit 21
waits for an event in which a plurality of contents are output simultaneously by the ducking management means 213 .

複数のコンテンツが同時に出力されるイベントを検知した場合、クライアント端末20
の制御部21は、ダッキングが必要かどうかについての判定処理を実行する(ステップS
2-2)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213は、
ファイルに含まれる複数のコンテンツに対して、主副設定情報の有無を確認する。そして
、主副設定情報が含まれる場合には、ダッキングが必要と判定する。
When detecting an event in which multiple contents are output at the same time, the client terminal 20
The control unit 21 executes determination processing as to whether or not ducking is necessary (step S
2-2). Specifically, the browser 210 of the control unit 21, the ducking management means 213,
Check the existence of primary and secondary setting information for multiple contents included in the file. Then, if the primary and secondary setting information is included, it is determined that ducking is necessary.

ダッキングが必要でないと判定した場合(ステップS2-2において「NO」の場合)
、イベント待機処理(ステップS2-1)を継続する。
一方、ダッキングが必要と判定した場合(ステップS2-2において「YES」の場合
)、クライアント端末20の制御部21は、主副コンテンツの特定処理を実行する(ステ
ップS2-3)。具体的には、制御部21のブラウザ210は、主副特定手段214によ
り、ファイルに含まれる主副設定情報に基づいて、主コンテンツを特定する。
If it is determined that ducking is not necessary ("NO" in step S2-2)
, the event standby process (step S2-1) is continued.
On the other hand, if it is determined that ducking is necessary ("YES" in step S2-2), the control unit 21 of the client terminal 20 executes main and sub-content specifying processing (step S2-3). Specifically, the browser 210 of the control unit 21 uses the main/sub-specification unit 214 to specify the main content based on the main/sub-setting information included in the file.

次に、クライアント端末20の制御部21は、主副コンテンツの出力条件の変更処理を
実行する(ステップS2-4)。具体的には、制御部21のブラウザ210は、出力条件
設定手段215により、予め設定された出力条件を取得し、この出力条件に変更する。例
えば、オーディオコンテンツの場合、主コンテンツの音量を上げ、副コンテンツの音量を
下げる出力条件に変更する。
Next, the control section 21 of the client terminal 20 executes a process of changing the output condition of the main and sub contents (step S2-4). Specifically, the browser 210 of the control unit 21 acquires a preset output condition by the output condition setting means 215, and changes the output condition to this output condition. For example, in the case of audio content, the output condition is changed to increase the volume of the main content and decrease the volume of the sub-content.

次に、クライアント端末20の制御部21は、ダッキング終了かどうかについての判定
処理を実行する(ステップS2-5)。具体的には、制御部21のブラウザ210は、ダ
ッキング管理手段213により、複数のコンテンツが同時に出力されるイベントの終了を
待機する。
Next, the control unit 21 of the client terminal 20 executes determination processing as to whether or not the ducking is finished (step S2-5). Specifically, the browser 210 of the control unit 21 waits for the end of an event in which a plurality of contents are simultaneously output by the ducking management means 213 .

ダッキング終了でないと判定した場合(ステップS2-5において「NO」の場合)、
変更された出力条件を維持する。
一方、ダッキング終了と判定した場合(ステップS2-5において「YES」の場合)
、クライアント端末20の制御部21は、出力条件を元に戻す処理を実行する(ステップ
S2-6)。具体的には、制御部21のブラウザ210は、出力条件設定手段215は、
変更した出力条件を元に戻す。例えば、オーディオコンテンツにおいて、下げた音量を元
の音量に戻すように上げる。
If it is determined that ducking is not completed ("NO" in step S2-5),
Maintain modified output conditions.
On the other hand, if it is determined that the ducking is completed ("YES" in step S2-5)
, the control unit 21 of the client terminal 20 executes processing for restoring the output conditions (step S2-6). Specifically, the browser 210 of the control unit 21, the output condition setting means 215,
Undo the changed output conditions. For example, in audio content, a lowered volume is raised back to the original volume.

次に、図3、図4を用いて、クライアント端末20に対して、ファイル(マークアップ
言語ファイル)に含めて提供するコード(プログラム)の一例を説明する。ここでは、Ja
vaScript(登録商標)を用いて記述されたコードを提供する場合を想定する。このコード
例では、オーディオコンテンツにおいてダッキングを行なう場合を想定する。以下、この
コードを、2つの第1パート500(図3)、第2パート510(図4)に分けて説明す
る。
Next, an example of a code (program) included in a file (markup language file) and provided to the client terminal 20 will be described with reference to FIGS. 3 and 4. FIG. Here, Ja
Assume that a code written using JavaScript (registered trademark) is provided. This code example assumes that ducking is performed on audio content. This code is divided into two parts, a first part 500 (Fig. 3) and a second part 510 (Fig. 4).

図3に示す第1パート500においては、記述501~507を含む。
記述501では、オブジェクト「AudioScene」に基づいて、オブジェクト「scene」を
生成する。
The first part 500 shown in FIG. 3 includes descriptions 501-507.
In description 501, an object 'scene' is generated based on the object 'AudioScene'.

記述502では、オブジェクト「scene」において、シーンにおいて、環境音(「Envir
onmentSound-1」,「EnvironmentSound-2」)とキャラクターの音声(「Speech」)とを
追加する。
In the description 502, in the object "scene", the environmental sound ("Envir
onmentSound-1", "EnvironmentSound-2") and the character's voice ("Speech").

記述503では、環境音を再生する。
記述504では、キャラクターの音声を再生する。なお、キャラクターの音声を再生す
る場合には、後述するようにダッキングを行なう。
Description 503 reproduces environmental sounds.
At statement 504, the character's voice is played. When reproducing the voice of the character, ducking is performed as described later.

記述505では、小さい音量(出力条件)を戻り値として返す小音量決定関数が設定さ
れ、記述506では、大きな音量(出力条件)を戻り値として返す大音量決定関数が設定
される。
記述507では、記述502において、シーンに音を追加する関数が設定される。
Description 505 sets a low volume determination function that returns a low volume (output condition) as a return value, and description 506 sets a high volume determination function that returns a high volume (output condition) as a return value.
In description 507, in description 502, a function is set that adds sound to the scene.

図4に示す第2パート510においては、ダッキングのための記述511~515を含
む。
記述511では、プライマリの音(主音声)を決める。ここでは、主音声としてキャラ
クターの音声(「Speech」)を用いる。
The second part 510 shown in FIG. 4 contains descriptions 511-515 for ducking.
Description 511 determines the primary sound (main sound). Here, the voice of the character ("Speech") is used as the main voice.

記述512では、記述502に基づいて、シーンに含まれるすべての音を操作する。
記述513では、プライマリの音(主音声)を取得した場合には、主音声の長さに応じ
て、大きな音量を用いて、この音声を再生する。
Description 512 manipulates all sounds contained in the scene based on description 502 .
In description 513, when the primary sound (main sound) is acquired, this sound is played back using a large volume according to the length of the main sound.

記述514では、プライマリの音(主音声)の再生が終わったときにセカンダリ(副音
声)の音量を元に戻す。
一方、記述515では、プライマリ以外の音、すなわちセカンダリの音(副音声)につ
いては、小さな音量を用いて再生する。
In description 514, the volume of the secondary (auxiliary audio) is restored when the primary sound (main audio) finishes playing.
On the other hand, in description 515, sounds other than the primary sound, that is, the secondary sound (auxiliary sound) are reproduced using a low volume.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、ファイルに、ダッキング管理手段213を実現させるための記
述を含める。ダッキング管理手段213は、ファイルの再生において、複数のコンテンツ
を同時に出力するイベントを検知する。これにより、コンテンツの再生においてダッキン
グ処理を行なうことができる。
According to this embodiment, the following effects can be obtained.
(1) In this embodiment, the file includes a description for realizing the ducking management means 213 . The ducking management unit 213 detects an event of simultaneously outputting a plurality of contents during file reproduction. As a result, the ducking process can be performed in reproducing the content.

(2)本実施形態では、ファイルに、主副特定手段214、出力条件設定手段215を
実現させるための記述を含める。この主副特定手段214は、ファイル再生に利用する複
数のコンテンツについて、主コンテンツ又は副コンテンツを特定する。また、出力条件設
定手段215は、主コンテンツ、副コンテンツが同時に出力される場合の出力条件を設定
する。これにより、予め出力条件に応じた主コンテンツ及び副コンテンツを設定したコン
テンツ素材を用意する必要はなく、効率的にダッキング処理を行なうことができる。従っ
て、コンテンツの出力状態や再生時間が再生時に決まるアプリケーションにおいても、コ
ンテンツ素材を加工することなく、ダッキングを行なうことができる。
(2) In this embodiment, the file includes a description for realizing the main/sub specifying means 214 and the output condition setting means 215 . This main/sub-specifying means 214 specifies main contents or sub-contents for a plurality of contents to be used for file reproduction. Also, the output condition setting means 215 sets the output condition when the main content and the sub content are output at the same time. As a result, it is not necessary to prepare a content material in which the main content and the sub-content are set in advance according to the output conditions, and the ducking process can be performed efficiently. Therefore, even in an application in which the output state and playback time of content are determined at the time of playback, ducking can be performed without processing the content material.

<第2の実施形態>
次に、図5に従って、出力制御プログラムの第2の実施形態を説明する。第1の実施形
態では、ダッキング処理において、予め設定された出力条件を用いる。第2の実施形態に
おいては、ダッキング処理において、ファイル(コンテンツ)の再生環境に応じて出力条
件を決定する構成であり、同様の部分については説明を省略する。
<Second embodiment>
Next, according to FIG. 5, a second embodiment of the output control program will be described. In the first embodiment, preset output conditions are used in the ducking process. In the second embodiment, in the ducking process, the output conditions are determined according to the reproduction environment of the file (content), and the description of the same parts will be omitted.

この場合、出力制御プログラムによって機能させる出力条件設定手段215において、
再生環境情報を特定する。例えば、クライアント端末20に設けられたセンサ(マイクや
CCD等)を用いて、再生環境情報として周囲環境情報を取得する。この周囲環境情報は
、例えば、クライアント端末20が利用されている場所の騒音レベルや明るさに関する情
報である。そして、出力条件設定手段215は、周囲環境情報に対応して出力条件を決定
するための出力条件決定テーブルを保持させておく。この出力条件決定テーブルには、例
えば、騒音レベルに応じた出力条件(例えば、主副コンテンツの音量)が記録されている
。また、明るさレベルに応じた出力条件(例えば、主副コンテンツの明度やコントラスト
)が記録されている。
In this case, in the output condition setting means 215 operated by the output control program,
Identify playback environment information. For example, using a sensor (microphone, CCD, etc.) provided in the client terminal 20, ambient environment information is acquired as reproduction environment information. This ambient environment information is, for example, information about the noise level and brightness of the location where the client terminal 20 is used. The output condition setting means 215 holds an output condition determination table for determining output conditions corresponding to the ambient environment information. In this output condition determination table, for example, output conditions (for example, volume of main and sub contents) corresponding to noise levels are recorded. Also, output conditions (for example, brightness and contrast of main and sub-contents) according to the brightness level are recorded.

次に、図5を用いて、本実施形態におけるダッキング処理を説明する。
ここでは、クライアント端末20の制御部21は、ステップS2-1,S2-2と同様
に、イベント待機処理(ステップS3-1)、ダッキングが必要かどうかについての判定
処理(ステップS3-2)を実行する。
Next, referring to FIG. 5, ducking processing in this embodiment will be described.
Here, similarly to steps S2-1 and S2-2, the control unit 21 of the client terminal 20 performs event waiting processing (step S3-1) and determination processing as to whether or not ducking is necessary (step S3-2). Run.

ダッキングが必要でないと判定した場合(ステップS3-2において「NO」の場合)
、イベント待機処理(ステップS3-1)を継続する。
一方、ダッキングが必要と判定した場合(ステップS3-2において「YES」の場合
)、クライアント端末20の制御部21は、ステップS2-3と同様に、主副コンテンツ
の特定処理を実行する(ステップS3-3)。
If it is determined that ducking is not necessary ("NO" in step S3-2)
, the event standby process (step S3-1) is continued.
On the other hand, if it is determined that ducking is necessary ("YES" in step S3-2), the control unit 21 of the client terminal 20 executes the process of specifying the main and secondary content (step S2-3). S3-3).

次に、クライアント端末20の制御部21は、再生環境の特定処理を実行する(ステッ
プS3-4)。具体的には、制御部21のブラウザ210は、出力条件設定手段215に
より、コンテンツを再生するクライアント端末20の再生環境に関する情報を取得する。
Next, the control unit 21 of the client terminal 20 executes a reproduction environment specifying process (step S3-4). Specifically, the browser 210 of the control unit 21 acquires information about the reproduction environment of the client terminal 20 that reproduces the content by the output condition setting means 215 .

次に、クライアント端末20の制御部21は、再生環境に応じて、主副コンテンツの出
力条件の変更処理を実行する(ステップS3-5)。具体的には、制御部21のブラウザ
210は、出力条件設定手段215により、出力条件決定テーブルを用いて、再生環境に
対応した出力条件を特定する。そして、出力処理手段212における主副コンテンツの再
生の出力条件に変更する。
Next, the control section 21 of the client terminal 20 executes the process of changing the output conditions of the main and sub contents according to the reproduction environment (step S3-5). Specifically, the browser 210 of the control unit 21 uses the output condition determination table to specify the output condition corresponding to the reproduction environment by the output condition setting means 215 . Then, the output condition for reproducing the main and sub contents in the output processing means 212 is changed.

次に、クライアント端末20の制御部21は、ステップS2-5と同様に、ダッキング
終了かどうかについての判定処理を実行する(ステップS3-6)。ダッキング終了でな
いと判定した場合(ステップS3-6において「NO」の場合)、クライアント端末20
の制御部21は、変更された出力条件を維持する。
Next, the control unit 21 of the client terminal 20 executes determination processing as to whether or not ducking is finished (step S3-6), as in step S2-5. If it is determined that the ducking is not completed ("NO" in step S3-6), the client terminal 20
maintains the changed output conditions.

一方、ダッキング終了と判定した場合(ステップS3-6において「YES」の場合)
、ステップS2-6と同様に、クライアント端末20の制御部21は、出力条件を元に戻
す処理を実行する(ステップS3-7)。
On the other hand, if it is determined that the ducking is completed ("YES" in step S3-6)
As in step S2-6, the control unit 21 of the client terminal 20 executes processing for restoring the output conditions (step S3-7).

本実施形態では、図3に示すオブジェクト「AudioScene」において、記述505,50
6において再生環境に応じて音量を調整する。このために、オブジェクト「AudioScene」
において、再生環境に関する情報を取得するための記述を含める。そして、記述505に
おいて、再生環境情報を変数とする小音量決定関数を用いて、再生環境に応じた小さい音
量(出力条件)を戻り値として返す。また、記述506では、再生環境情報を変数とする
大音量決定関数を用いて、再生環境に応じた大きな音量(出力条件)を戻り値として返す
In this embodiment, the descriptions 505 and 50 in the object "AudioScene" shown in FIG.
At 6, the volume is adjusted according to the reproduction environment. For this, the object "AudioScene"
, include a description to obtain information about the playback environment. Then, in description 505, a low volume (output condition) corresponding to the reproduction environment is returned as a return value using a low volume decision function having reproduction environment information as a variable. Also, in the description 506, a large sound volume (output condition) corresponding to the reproduction environment is returned as a return value using a large sound volume determination function having the reproduction environment information as a variable.

本実施形態によれば、以下のような効果を得ることができる。
(3)本実施形態では、クライアント端末20の制御部21は、再生環境に応じて主副
コンテンツの出力条件の変更処理を実行する(ステップS3-5)。これにより、再生環
境に応じたダッキングを行なうことができる。
According to this embodiment, the following effects can be obtained.
(3) In the present embodiment, the control section 21 of the client terminal 20 executes the process of changing the output conditions of the main and sub contents according to the reproduction environment (step S3-5). As a result, ducking can be performed in accordance with the reproduction environment.

なお、上記実施形態は以下のように変更してもよい。
・上記各実施形態では、例えば、オーディオコンテンツを用いたが、コンテンツはオー
ディオに限定されるものではない。静止画コンテンツや動画コンテンツ等の多様なメディ
アコンテンツを用いることも可能である。この場合には、オブジェクト「AudioScene」に
代えて、例えば、オブジェクト「MediaScene」を用いる。そして、このオブジェクトでは
、画像の明度やコントラスト等の出力条件を変更する関数(例えば、「setOutputLevel」
)を実行する。例えば、ダッキング処理において、主コンテンツを明るくしたり、コント
ラストを強調したりする。
Note that the above embodiment may be modified as follows.
- In each of the above embodiments, for example, audio content is used, but the content is not limited to audio. It is also possible to use various media contents such as still image contents and moving image contents. In this case, instead of the object "AudioScene", for example, the object "MediaScene" is used. And in this object, functions that change the output conditions such as brightness and contrast of the image (for example, "setOutputLevel"
). For example, the ducking process brightens the main content or enhances the contrast.

・上記各実施形態では、ファイルには、ダッキング管理手段213、主副特定手段21
4、出力条件設定手段215を実現するための記述を含める。この記述は、ファイル内に
含める場合に限定されるものではない。ファイル内に取得先を設定しておき、この取得先
から記述を取得するようにしてもよい。
- In each of the above embodiments, the file contains the ducking management means 213, the main/sub identification means 21,
4. Include a description for realizing the output condition setting means 215 . This description is not limited to inclusion in the file. An acquisition destination may be set in the file, and the description may be acquired from this acquisition destination.

・上記各実施形態では、ファイルには、各コンテンツにおいて、主コンテンツ又は副コ
ンテンツのいずれかを特定するための主副設定情報を含める。この場合、主コンテンツ又
は副コンテンツは固定的である場合に限定されず、状況に応じて主コンテンツ、副コンテ
ンツを変更するようにしてもよい。この場合には、主副設定情報において、主コンテンツ
となる主副決定条件を設定しておく。この主副決定条件には、状況に関連付けて、主コン
テンツ、副コンテンツを決めるロジックを設定しておく。そして、イベントを検知した場
合、主副決定条件を用いて、主コンテンツ、副コンテンツを決定する。これにより、ファ
イルの再生時に主副の関係を決定することができる。
- In each of the above embodiments, the file includes main and sub setting information for specifying either the main content or the sub content in each content. In this case, the main content or sub-content is not limited to being fixed, and the main content or sub-content may be changed according to the situation. In this case, in the main/sub setting information, the main/sub determining condition for the main content is set. In this main/sub-determination condition, a logic for determining main content and sub-content is set in relation to the situation. Then, when an event is detected, the main content and the sub content are determined using the main and sub determination conditions. This makes it possible to determine the primary-secondary relationship during file playback.

・上記第2の実施形態では、出力条件設定手段215において、再生環境情報を特定す
る。例えば、クライアント端末20に設けられたセンサ(マイクやCCD等)を用いて周
囲環境情報(再生環境情報)を取得する。再生環境情報は、周囲環境情報に限定されるも
のではない。例えば、イベントが発生したファイル再生シーン(シナリオ上の場面)を、
再生環境情報として特定してもよい。この場合には、出力条件設定関数に、イベントが発
生したシーン情報に関連付けて出力条件を設定しておく。
- In the second embodiment, the output condition setting means 215 specifies the reproduction environment information. For example, surrounding environment information (playback environment information) is acquired using a sensor (microphone, CCD, etc.) provided in the client terminal 20 . The reproduction environment information is not limited to ambient environment information. For example, the file playback scene (scene in the scenario) where the event occurred,
It may be specified as reproduction environment information. In this case, the output condition is set in the output condition setting function in association with the scene information in which the event occurred.

また、クライアント端末20に実装されたハードウェア構成やソフトウェア構成の構成
情報を再生環境情報として利用することも可能である。この場合には、出力条件設定関数
に、ハードウェア構成やソフトウェア構成の構成情報に関連付けて出力条件を設定してお
く。そして、出力条件設定手段215は、ハードウェア構成やソフトウェア構成の構成情
報を取得し、この構成情報に基づいて出力条件を算出する。
It is also possible to use the configuration information of the hardware configuration and software configuration installed in the client terminal 20 as the reproduction environment information. In this case, the output condition is set in the output condition setting function in association with the configuration information of the hardware configuration and the software configuration. Then, the output condition setting means 215 acquires the configuration information of the hardware configuration and the software configuration, and calculates the output conditions based on this configuration information.

更に、コンテンツの再生頻度を再生環境情報として利用することも可能である。この場
合には、出力条件設定手段215に、コンテンツ毎に再生回数を記録しておく。そして、
出力条件設定関数に、再生回数に関連付けて出力条件を設定しておく。例えば、再生回数
が多くなった場合には、このコンテンツの音量を下げたり、コントラストを弱めたりする
等、出力レベルを下げる。これにより、繰り返しが多いコンテンツを調整することができ
る。
Furthermore, it is also possible to use the reproduction frequency of content as reproduction environment information. In this case, the number of reproduction times is recorded in the output condition setting means 215 for each content. and,
The output condition is set in advance in the output condition setting function in association with the number of playbacks. For example, when the number of playback times increases, the volume of the content is lowered, the contrast is lowered, or the output level is lowered. This makes it possible to adjust content that has many repetitions.

・上記第2の実施形態では、ダッキング終了でないと判定した場合(ステップS3-6
において「NO」の場合)、クライアント端末20の制御部21は、変更された出力条件
を維持する。これに代えて、ダッキング時の主副コンテンツの出力条件を、逐次変更する
ようにしてもよい。ここでは、ダッキング終了でないと判定した場合(ステップS3-6
において「NO」の場合)、クライアント端末20の制御部21は、再生環境の特定処理
(ステップS3-4)に戻る。これにより、出力条件を、時間経過に対して動的に変更す
ることができる。
・In the second embodiment, when it is determined that the ducking is not completed (step S3-6
3), the control unit 21 of the client terminal 20 maintains the changed output condition. Instead of this, the output conditions of the main and sub contents at the time of ducking may be sequentially changed. Here, if it is determined that the ducking is not finished (step S3-6
3), the control unit 21 of the client terminal 20 returns to the reproduction environment specifying process (step S3-4). This allows the output conditions to be dynamically changed over time.

・上記各実施形態では、クライアント端末20において、出力制御プログラムを実行さ
せることにより、制御部21を、ダッキング管理手段213、主副特定手段214、出力
条件設定手段215として機能させる。ここで、出力制御プログラムを実行する環境は、
クライアント端末20に限定されるものではない。例えば、コンテンツを出力するクライ
アント端末20に接続された管理サーバにおいて、出力制御プログラムを実行させてもよ
い。この場合には、管理サーバがクライアント端末20から、コンテンツの出力状況情報
や再生環境情報を取得し、これらの情報を用いてコンテンツの出力条件を決定する。そし
て、クライアント端末20においては、この出力条件に応じて、コンテンツを出力する。
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
〔1〕マークアップ言語で記述されたファイルに基づきウェブページを表示する出力制
御装置の制御部に、当該ファイルに関連付けられた複数の音声データを再生させるプログ
ラムであって、
前記制御部に、
前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定する
ための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて
、主音声及び副音声を特定するステップと、
前記ファイルに関連付けられた複数の音声データを取得するステップと、
前記ファイルに含まれる出力条件に基づき、前記主音声の音声データの音量を前記副音
声の音声データの音量よりも大きく設定するステップと、
前記主音声である音声データ及び前記副音声である音声データを、設定された音量で同
時に再生するステップと、を実行させる出力制御プログラム。
〔2〕前記主音声である音声データ及び前記副音声である音声データを同時に再生する
ステップが終了した場合には、前記主音声の音声データの音量又は前記副音声の音声デー
タの音量を元に戻すステップをさらに実行させる〔1〕に記載の出力制御プログラム。
〔3〕前記出力条件は、前記音声データの再生回数に応じて音量を調整することを含む
〔1〕又は〔2〕に記載の出力制御プログラム。
〔4〕前記主副設定情報は、前記主音声及び前記副音声を固定的に定める情報を含む〔
1〕~〔3〕のいずれか1項に記載の出力制御プログラム。
〔5〕前記主副設定情報は、再生状況に応じて前記主音声及び前記副音声を決定するた
めの主副決定条件を含む〔1〕~〔3〕のいずれか1項に記載の出力制御プログラム。
〔6〕前記出力条件は、前記ウェブページを表示させる前記出力制御装置の周囲環境情
報に基づいて音量を設定することを含む〔5〕に記載の出力制御プログラム。
〔7〕前記出力条件は、前記ウェブページを表示させる前記出力制御装置のハードウェ
ア構成の構成情報に基づいて音量を設定することを含む〔6〕に記載の出力制御プログラ
ム。
〔8〕前記出力条件は、前記ウェブページを表示させる前記出力制御装置のソフトウェ
ア構成の構成情報に基づいて音量を設定することを含む〔6〕に記載の出力制御プログラ
ム。
〔9〕前記主音声の音声データ及び前記副音声の音声データを同時に出力するシーンが
終了していない場合には、前記出力条件を新たに設定し、当該出力条件に基づき前記主音
声の音声データ及び前記副音声の音声データを再生する〔1〕~〔8〕のいずれか1項に
記載の出力制御プログラム。
〔10〕前記ファイルは、アプリケーションのシーンに対応するものであり、
前記主音声及び前記副音声を特定するステップは、前記ファイルに含まれる前記主副設
定情報に基づき、前記アプリケーションに登場するキャラクタの音声及び環境音について
、前記主音声及び前記副音声を特定するステップであり、
前記音声データの音量を設定するステップは、前記キャラクタの音声データの音量及び
前記環境音の音声データの音量を設定するステップである〔1〕~〔9〕のいずれか1項
に記載の出力制御プログラム。
〔11〕マークアップ言語で記述されたファイルに基づきウェブページを表示する制御
部が、当該ファイルに関連付けられた複数の音声データを再生させる出力制御装置であっ
て、
前記制御部が、
前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定する
ための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて
、主音声及び副音声を特定し、
前記ファイルに関連付けられた複数の音声データを取得し、
前記ファイルに含まれる出力条件に基づき、前記主音声の音声データの音量を前記副音
声の音声データの音量よりも大きく設定し、
前記主音声である音声データ及び前記副音声である音声データを、設定された音量で同
時に再生する出力制御装置。
〔12〕マークアップ言語で記述されたファイルに基づきウェブページを表示する出力
制御装置の制御部が、当該ファイルに関連付けられた複数の音声データを再生させる方法
であって、
前記制御部が、
前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定する
ための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて
、主音声及び副音声を特定するステップと、
前記ファイルに関連付けられた複数の音声データを取得するステップと、
前記ファイルに含まれる出力条件に基づき、前記主音声の音声データの音量を前記副音
声の音声データの音量よりも大きく設定するステップと、
前記主音声である音声データ及び前記副音声である音声データを、設定された音量で同
時に再生するステップと、を実行する出力制御方法。
- In each of the above-described embodiments, the output control program is executed in the client terminal 20 to cause the control section 21 to function as the ducking management means 213, the primary/secondary specifying means 214, and the output condition setting means 215. Here, the environment for executing the output control program is
It is not limited to the client terminal 20 . For example, an output control program may be executed in a management server connected to the client terminal 20 that outputs content. In this case, the management server acquires content output status information and reproduction environment information from the client terminal 20, and uses these information to determine the content output conditions. Then, the client terminal 20 outputs the content according to this output condition.
Next, technical ideas that can be grasped from the above embodiment and another example will be added below.
[1] A program that causes a control unit of an output control device that displays a web page based on a file described in a markup language to reproduce a plurality of audio data associated with the file,
to the control unit,
Main audio and secondary audio for a plurality of audio data associated with said file based on main and secondary setting information for specifying either main audio or secondary audio, which is information included in said file. a step of identifying;
obtaining a plurality of audio data associated with the file;
setting the volume of the audio data of the main audio to be higher than the volume of the audio data of the secondary audio based on the output conditions included in the file;
an output control program for executing a step of simultaneously reproducing the audio data that is the main audio and the audio data that is the secondary audio at a set volume.
[2] When the step of simultaneously reproducing the audio data as the main audio and the audio data as the secondary audio is completed, the audio data is reproduced based on the volume of the audio data of the primary audio or the volume of the audio data of the secondary audio. The output control program according to [1], further executing the returning step.
[3] The output control program according to [1] or [2], wherein the output condition includes adjusting volume according to the number of times the audio data is reproduced.
[4] The main/sub setting information includes information that fixedly defines the main audio and the sub audio[
1] The output control program according to any one of [3].
[5] The output control according to any one of [1] to [3], wherein the main/sub setting information includes a main/sub determination condition for determining the main sound and the sub sound according to the reproduction situation. program.
[6] The output control program according to [5], wherein the output condition includes setting volume based on ambient environment information of the output control device that displays the web page.
[7] The output control program according to [6], wherein the output condition includes setting volume based on configuration information of a hardware configuration of the output control device that displays the web page.
[8] The output control program according to [6], wherein the output condition includes setting volume based on configuration information of a software configuration of the output control device that displays the web page.
[9] If the scene in which the audio data of the main audio and the audio data of the sub-audio are output simultaneously has not ended, the output conditions are newly set, and the audio data of the main audio is output based on the output conditions. and the output control program according to any one of [1] to [8], which reproduces the audio data of the sub-audio.
[10] The file corresponds to a scene of the application;
The step of specifying the main audio and the secondary audio is a step of specifying the primary audio and the secondary audio for the voice and environmental sound of characters appearing in the application based on the primary and secondary setting information included in the file. and
The output control according to any one of [1] to [9], wherein the step of setting the volume of the voice data is a step of setting the volume of the voice data of the character and the volume of the voice data of the environmental sound. program.
[11] An output control device in which a control unit that displays a web page based on a file written in a markup language reproduces a plurality of audio data associated with the file,
The control unit
Main audio and secondary audio for a plurality of audio data associated with said file based on main and secondary setting information for specifying either main audio or secondary audio, which is information included in said file. identify,
obtaining a plurality of audio data associated with said file;
setting the volume of the audio data of the main audio to be higher than the volume of the audio data of the secondary audio based on the output conditions included in the file;
An output control device for simultaneously reproducing the audio data that is the main audio and the audio data that is the secondary audio at a set volume.
[12] A method in which a control unit of an output control device that displays a web page based on a file written in a markup language reproduces a plurality of audio data associated with the file,
The control unit
Main audio and secondary audio for a plurality of audio data associated with said file based on main and secondary setting information for specifying either main audio or secondary audio, which is information included in said file. a step of identifying;
obtaining a plurality of audio data associated with the file;
setting the volume of the audio data of the main audio to be higher than the volume of the audio data of the secondary audio based on the output conditions included in the file;
and a step of simultaneously reproducing the audio data that is the main audio and the audio data that is the secondary audio at a set volume.

10…サーバ、12…ファイル記憶部、20…クライアント端末、21…制御部、22
…端末記憶部、23…入出力部、211…ファイル取得手段、212…出力処理手段、2
13…ダッキング管理手段、214…主副特定手段、215…出力条件設定手段。
REFERENCE SIGNS LIST 10 server 12 file storage unit 20 client terminal 21 control unit 22
... terminal storage section, 23 ... input/output section, 211 ... file acquisition means, 212 ... output processing means, 2
13... Ducking management means, 214... Main/sub specification means, 215... Output condition setting means.

Claims (10)

マークアップ言語で記述されたファイルに基づきウェブページを表示する出力制御装置の制御部に、当該ファイルに関連付けられた複数の音声データを再生させるプログラムであって、
前記制御部に、
前記ファイルに関連付けられたキャラクタの音声データ及び環境音の音声データを取得するステップと、
前記ファイルに含まれる出力条件に基づき、前記キャラクタの音声データの音量前記環境音の音声データの音量より大きく設定するステップと、
前記キャラクタの音声データ及び前記環境音の音声データを、設定された音量で同時に再生するステップと、を実行させる、出力制御プログラム。
A program that causes a control unit of an output control device that displays a web page based on a file described in a markup language to reproduce a plurality of audio data associated with the file,
to the control unit,
obtaining character audio data and ambient sound audio data associated with the file;
setting the volume of the voice data of the character higher than the volume of the voice data of the environmental sound based on the output conditions included in the file;
and a step of simultaneously reproducing the voice data of the character and the voice data of the environmental sound at a set volume.
前記キャラクタの音声データ及び前記環境音の音声データを同時に再生するステップが終了した場合には、前記キャラクタの音声データの音量又は前記環境音の音声データの音量を元に戻すステップをさらに実行させる、請求項1に記載の出力制御プログラム。 When the step of simultaneously reproducing the voice data of the character and the voice data of the environmental sound is completed, further executing the step of restoring the volume of the voice data of the character or the volume of the voice data of the environmental sound. The output control program according to claim 1. 前記出力条件は、前記音声データの再生回数に応じて音量を調整することを含む、請求項1または2に記載の出力制御プログラム。 3. The output control program according to claim 1, wherein said output condition includes adjusting volume according to the number of times said audio data has been reproduced. 前記制御部に、前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定するための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて、キャラクタの音声を主音声として特定し、環境音を副音声として特定するステップを実行させる、請求項1乃至のいずれかに記載の出力制御プログラム。 Based on the information included in the file and the main/sub setting information for specifying whether it is the main sound or the sub sound, the control unit generates a character for a plurality of sound data associated with the file. 4. The output control program according to any one of claims 1 to 3 , causing execution of a step of specifying the sound of the sound as the main sound and specifying the environmental sound as the secondary sound. 前記主副設定情報は、前記主音声及び前記副音声を固定的に定める情報を含む、請求項に記載の出力制御プログラム。 5. The output control program according to claim 4 , wherein said main/sub setting information includes information fixedly defining said main sound and said sub sound. 前記出力条件は、前記ウェブページを表示させる前記出力制御装置の周囲環境情報に基づいて音量を設定することを含む、請求項1乃至のいずれかに記載の出力制御プログラム。 6. The output control program according to any one of claims 1 to 5 , wherein said output condition includes setting volume based on ambient environment information of said output control device for displaying said web page. 前記出力条件は、前記ウェブページを表示させる前記出力制御装置のハードウェア構成の構成情報に基づいて音量を設定することを含む、請求項1乃至のいずれかに記載の出力制御プログラム。 7. The output control program according to any one of claims 1 to 6 , wherein said output condition includes setting volume based on configuration information of a hardware configuration of said output control device for displaying said web page. 前記出力条件は、前記ウェブページを表示させる前記出力制御装置のソフトウェア構成の構成情報に基づいて音量を設定することを含む、請求項1乃至のいずれかに記載の出力制御プログラム。 8. The output control program according to any one of claims 1 to 7 , wherein said output condition includes setting volume based on configuration information of a software configuration of said output control device for displaying said web page. マークアップ言語で記述されたファイルに基づきウェブページを表示する出力制御装置の制御部に、当該ファイルに関連付けられた複数の音声データを再生させる方法であって、
前記制御部が、
前記ファイルに関連付けられたキャラクタの音声データ及び環境音の音声データを取得するステップと、
前記ファイルに含まれる出力条件に基づき、前記キャラクタの音声データの音量前記環境音の音声データの音量より大きく設定するステップと、
前記キャラクタの音声データ及び前記環境音の音声データを、設定された音量で同時に再生するステップと、を実行する、出力制御方法。
A method for causing a control unit of an output control device that displays a web page based on a file described in a markup language to reproduce a plurality of audio data associated with the file,
The control unit
obtaining character audio data and ambient sound audio data associated with the file;
setting the volume of the voice data of the character higher than the volume of the voice data of the environmental sound based on the output conditions included in the file;
and a step of simultaneously reproducing the voice data of the character and the voice data of the environmental sound at a set volume.
マークアップ言語で記述されたファイルに基づきウェブページを表示する制御部が、当該ファイルに関連付けられた複数の音声データを再生させる出力制御装置であって、
前記制御部が、
前記ファイルに関連付けられたキャラクタの音声データ及び環境音の音声データを取得し、
前記ファイルに含まれる出力条件に基づき、前記キャラクタの音声データの音量前記環境音の音声データの音量より大きく設定し、
前記キャラクタの音声データ及び前記環境音の音声データを、設定された音量で同時に再生する、出力制御装置。
A control unit that displays a web page based on a file written in a markup language is an output control device that reproduces a plurality of audio data associated with the file,
The control unit
Acquiring character audio data and environmental sound audio data associated with the file;
setting the volume of the voice data of the character to be higher than the volume of the voice data of the environmental sound based on the output conditions included in the file;
An output control device for simultaneously reproducing the voice data of the character and the voice data of the environmental sound at a set volume.
JP2021095793A 2019-11-07 2021-06-08 Output control program, information processing device, and output control method Active JP7162698B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021095793A JP7162698B2 (en) 2019-11-07 2021-06-08 Output control program, information processing device, and output control method
JP2022166990A JP7493827B2 (en) 2019-11-07 2022-10-18 OUTPUT CONTROL PROGRAM, INFORMATION PROCESSING APPARATUS, AND OUTPUT CONTROL METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019202323A JP6896828B2 (en) 2019-01-08 2019-11-07 Output control program, information processing device and output control method
JP2021095793A JP7162698B2 (en) 2019-11-07 2021-06-08 Output control program, information processing device, and output control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019202323A Division JP6896828B2 (en) 2019-01-08 2019-11-07 Output control program, information processing device and output control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022166990A Division JP7493827B2 (en) 2019-11-07 2022-10-18 OUTPUT CONTROL PROGRAM, INFORMATION PROCESSING APPARATUS, AND OUTPUT CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2021157813A JP2021157813A (en) 2021-10-07
JP7162698B2 true JP7162698B2 (en) 2022-10-28

Family

ID=77918657

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021095793A Active JP7162698B2 (en) 2019-11-07 2021-06-08 Output control program, information processing device, and output control method
JP2022166990A Active JP7493827B2 (en) 2019-11-07 2022-10-18 OUTPUT CONTROL PROGRAM, INFORMATION PROCESSING APPARATUS, AND OUTPUT CONTROL METHOD

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022166990A Active JP7493827B2 (en) 2019-11-07 2022-10-18 OUTPUT CONTROL PROGRAM, INFORMATION PROCESSING APPARATUS, AND OUTPUT CONTROL METHOD

Country Status (1)

Country Link
JP (2) JP7162698B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244811A (en) 1999-02-23 2000-09-08 Makino Denki:Kk Mixing method and mixing device
JP2001249664A (en) 2000-03-02 2001-09-14 Yamaha Corp Mobile phone
JP3122865U (en) 2006-03-20 2006-06-29 日出樹 重石 Broadcast receiver
JP2007094060A (en) 2005-09-29 2007-04-12 Yamaha Corp Content reproducing device, content reproducing method, and content reproducing program
JP2008003562A (en) 2006-05-23 2008-01-10 Alpine Electronics Inc Voice output apparatus
JP2008242740A (en) 2007-03-27 2008-10-09 Casio Hitachi Mobile Communications Co Ltd Terminal and computer program
JP2009094796A (en) 2007-10-09 2009-04-30 Canon Inc Television receiver
US20100317437A1 (en) 2009-06-15 2010-12-16 Wms Gaming, Inc. Controlling wagering game system audio
JP2012034295A (en) 2010-08-02 2012-02-16 Nippon Hoso Kyokai <Nhk> Sound signal conversion device and sound signal conversion program
JP2012070137A (en) 2010-09-22 2012-04-05 Axell Corp Speech processing device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3734932B2 (en) * 1997-07-23 2006-01-11 株式会社ナムコ GAME DEVICE AND INFORMATION STORAGE MEDIUM
US8170230B1 (en) * 2008-08-15 2012-05-01 Adobe Systems Incorporated Reducing audio masking

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244811A (en) 1999-02-23 2000-09-08 Makino Denki:Kk Mixing method and mixing device
JP2001249664A (en) 2000-03-02 2001-09-14 Yamaha Corp Mobile phone
JP2007094060A (en) 2005-09-29 2007-04-12 Yamaha Corp Content reproducing device, content reproducing method, and content reproducing program
JP3122865U (en) 2006-03-20 2006-06-29 日出樹 重石 Broadcast receiver
JP2008003562A (en) 2006-05-23 2008-01-10 Alpine Electronics Inc Voice output apparatus
JP2008242740A (en) 2007-03-27 2008-10-09 Casio Hitachi Mobile Communications Co Ltd Terminal and computer program
JP2009094796A (en) 2007-10-09 2009-04-30 Canon Inc Television receiver
US20100317437A1 (en) 2009-06-15 2010-12-16 Wms Gaming, Inc. Controlling wagering game system audio
JP2012034295A (en) 2010-08-02 2012-02-16 Nippon Hoso Kyokai <Nhk> Sound signal conversion device and sound signal conversion program
JP2012070137A (en) 2010-09-22 2012-04-05 Axell Corp Speech processing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
初版,CRI ADX2で作るゲームサウンド制作ガイド CRI ADX2公式ガイド,初版,株式会社翔泳社,2013年08月19日,320

Also Published As

Publication number Publication date
JP2022191428A (en) 2022-12-27
JP7493827B2 (en) 2024-06-03
JP2021157813A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
JP2007264792A (en) Voice browser program
JP4935658B2 (en) Browser program and information processing apparatus
JP2017523535A (en) Web content generation method and system
JP2002358281A (en) Method for selectively operating object with web browser, and web browser
JP2015510602A (en) Management of auxiliary information playback
JP2018517195A (en) Multimedia information processing method, apparatus and system, and computer storage medium
TWI571757B (en) A webpage edition system and the method thereof and a computer program product for storing a webpage edition program
JP2018142286A (en) Program for making electronic book
King et al. WebbIE: a web browser for visually impaired people
JP7162698B2 (en) Output control program, information processing device, and output control method
JP6466531B2 (en) Output control program, output control device, and output control method
JP4592719B2 (en) Digest content display device and program thereof
JP6896828B2 (en) Output control program, information processing device and output control method
JP6616531B2 (en) Output control program, output control device, and output control method
US20140067399A1 (en) Method and system for reproduction of digital content
JP6193901B2 (en) Output control program, output control device, and output control method
JP2011028779A (en) Portable terminal, method and program for controlling portable terminal
JP5902225B2 (en) Output control program, output control device, and output control method
JP2008197787A (en) Web content providing device, web content providing method, and program
JP2004072530A (en) Electronic equipment and program generation method
JP2005010992A (en) Method for explaining and advertising web page using synthesized voice
CN111045674A (en) Interactive method and device of player
US10606940B2 (en) Annotation sharing method, annotation sharing apparatus, and computer program product
JP2001014211A (en) Method and device for outputting data and recording medium recording processing program therefor
JP5646778B1 (en) Object acquisition program, object acquisition device, and object acquisition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221018

R150 Certificate of patent or registration of utility model

Ref document number: 7162698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150