JP2001014319A - Hypertext access device - Google Patents

Hypertext access device

Info

Publication number
JP2001014319A
JP2001014319A JP11181731A JP18173199A JP2001014319A JP 2001014319 A JP2001014319 A JP 2001014319A JP 11181731 A JP11181731 A JP 11181731A JP 18173199 A JP18173199 A JP 18173199A JP 2001014319 A JP2001014319 A JP 2001014319A
Authority
JP
Japan
Prior art keywords
link
voice
information
character string
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11181731A
Other languages
Japanese (ja)
Inventor
Hisanori Ohara
央徳 大原
Masayuki Takada
雅行 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP11181731A priority Critical patent/JP2001014319A/en
Publication of JP2001014319A publication Critical patent/JP2001014319A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly move to an intended link destination when HTML information is provided in voice. SOLUTION: A data input/output part 1 outputs an URL and inputs an HTML file. Its information is analyzed by a file analysis part 2. Consequently, character string information including a link key word is generated. A voice control part 3 extracts a character string from the character string information and outputs it to a voice reproduction part 30, which is made to synthesize a voice. When the extracted character string is a link key word, a link pointer is set to the link key word right before the extracted link key word for 1st voice reproduction and to the link key word itself for 2nd reproduction and later. When movement is instructed, a voice control part 3 outputs the RL corresponding to the link key word where the link pointer is set, so that access is gained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ウェブサーバに
アクセスしてハイパーテキスト情報を入力し、音声によ
る情報提供を行うハイパーテキストアクセス装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hypertext access apparatus which accesses a web server, inputs hypertext information, and provides information by voice.

【0002】[0002]

【従来の技術】インターネットでWWW(WORLD
WIDE WEB)と呼ばれるハイパーテキストによる
情報提供が行われている。WWW上の情報は一般にパー
ソナルコンピューター上で動作するWWWブラウザとい
うハイパーテキスト情報を表示する機能を持つソフトウ
ェアを用いて参照することができる。ハイパーテキスト
情報は、ディスプレイ上に表示され、視覚的に取得する
ことができる。またリンク先への移動を行う場合は、ボ
タンアイコンにカーソルを合せることによって行う。
2. Description of the Related Art WWW (World)
Information provision by hypertext called "WIDE WEB" is performed. In general, information on the WWW can be referred to using software having a function of displaying hypertext information called a WWW browser operating on a personal computer. Hypertext information is displayed on a display and can be obtained visually. When moving to a link destination, the cursor is moved to a button icon.

【0003】一方、表示画面に表示される視覚情報を用
いずに、WWWブラウザなどのハイパーテキスト情報を
扱うソフトウェアを使用する要求も存在する。例えば車
両で使用する場合は、運転中に、表示画面を見ることが
できないから、情報を音声で読み上げる機能が求められ
る。
On the other hand, there is a demand for using software that handles hypertext information, such as a WWW browser, without using visual information displayed on a display screen. For example, when used in a vehicle, a function to read out information by voice is required because the display screen cannot be seen during driving.

【0004】特開平10−78952号公報では、音声
によるハイパーテキスト情報の読み上げとリンク先の設
定方法が開示されている。ここでは、ハイパーテキスト
情報を音声により読み上げを行っているとき、リンクを
示す文字列(リンクキーワード)の場合は、そのリンク
キーワードに対応するリンク先情報を設定するようにな
っている。ハイパーテキスト情報を読み上げていると
き、リンク先への移動指示を与えれば、その直前に読み
上げられたリンクキーワードに対応するリンク先へ移動
しその情報が入力される。
Japanese Patent Laid-Open Publication No. Hei 10-78952 discloses a method of reading out hypertext information by voice and setting a link destination. Here, when the hypertext information is read aloud by voice, in the case of a character string (link keyword) indicating a link, link destination information corresponding to the link keyword is set. When the hypertext information is read aloud, if an instruction to move to a link destination is given, the hypertext information is moved to the link destination corresponding to the link keyword read immediately before and the information is input.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、リンク
先の移動を行うには、リンク先の内容についての理解が
必要であるため、初めて聞く文章に対してはリンク先へ
の移動指示が遅れることがある。この結果移動先は、次
に読み上げられているリンクキーワードのリンク先にな
ってしまうという問題がある。本発明は、上記の問題点
に鑑み、移動指示の遅れにより意図するリンク先とは異
なるリンク先へ移動してしまうことを防止できるハイパ
ーテキストアクセス装置を提供することを目的とする。
However, in order to move the link destination, it is necessary to understand the contents of the link destination, so that the instruction to move to the link destination may be delayed for a sentence to be heard for the first time. is there. As a result, there is a problem that the moving destination is the link destination of the link keyword read out next. The present invention has been made in view of the above circumstances, and has as its object to provide a hypertext access device that can prevent a user from moving to a link destination different from an intended link destination due to a delay in a movement instruction.

【0006】[0006]

【課題を解決するための手段】このため請求項1記載の
発明は、所定のウェブサーバにアクセスして、リンク先
情報に対応付けられている複数のリンクキーワードを含
む文字列情報からなるハイパーテキスト情報を入力する
データ入力手段と、前記入力されるハイパーテキスト情
報を解析し、リンクキーワードを検出するデータ解析手
段と、前記リンクキーワードを含む文字列情報を音声合
成して、音声再生する音声再生手段と、前記音声合成さ
れている文字列の位置に対応し、前記ハイパーテキスト
情報の音声再生回数に基づいてリンクキーワードを特定
するリンクキーワード特定手段と、ユーザーからリンク
先への移動指示を検出するユーザー入力手段とを有し、
該ユーザー入力手段が移動指示を検出した場合、前記リ
ンクキーワード特定手段は、特定したリンクキーワード
に対応するリンク先情報を前記データ入力手段に出力
し、アクセスさせるものとした。
According to the first aspect of the present invention, there is provided a hypertext comprising character string information including a plurality of link keywords associated with link destination information by accessing a predetermined web server. Data input means for inputting information, data analyzing means for analyzing the input hypertext information and detecting a link keyword, and voice reproducing means for voice-synthesizing character string information including the link keyword and reproducing the voice And link keyword specifying means for specifying a link keyword based on the number of times of voice reproduction of the hypertext information corresponding to the position of the character string subjected to the voice synthesis, and a user for detecting a movement instruction from the user to a link destination Input means,
When the user input means detects a movement instruction, the link keyword specifying means outputs link destination information corresponding to the specified link keyword to the data input means for access.

【0007】請求項2記載の発明は、前記リンクキーワ
ード特定手段がリンクキーワードにリンクポインタを設
定することによってリンクキーワードを特定するものと
した。
According to a second aspect of the present invention, the link keyword specifying means specifies a link keyword by setting a link pointer to the link keyword.

【0008】請求項3記載の発明は、前記リンクキーワ
ード特定手段が前記ハイパーテキスト情報の音声再生が
一回日の場合、現在音声合成されているリンクキーワー
ドより1つ前のリンクキーワードを特定し、2回目以降
は当該音声合成されているリンクキーワードを特定する
ものとした。
In the invention according to claim 3, the link keyword specifying means specifies a link keyword one prior to the link keyword currently being voice-synthesized, when the voice reproduction of the hypertext information is performed on one day. For the second and subsequent times, the link keyword that has been synthesized is specified.

【0009】請求項4記載の発明は、前記リンクキーワ
ード特定手段が、前記データ検出手段によって検出され
た前記リンクキーワードを含みハイパーテキスト情報を
音声合成する文字列リストを作成し、前記文字列リスト
から、所定の順序で文字列を抽出し、前記音声再生手段
に出力して音声合成させるとともに、前記抽出された文
字列がリンクキーワードの場合、前記ハイパーテキスト
情報の音声再生回数が一回日のとき、抽出されたリンク
キーワードより1つ前のリンクキーワードを特定し、前
記ハイパーテキスト情報の音声再生回数が2回目以降の
ときは、当該抽出されたリンクキーワードを特定するも
のとした。
According to a fourth aspect of the present invention, the link keyword specifying means creates a character string list for speech-synthesizing hypertext information including the link keyword detected by the data detecting means, and generates the character string list from the character string list. Extracting a character string in a predetermined order, outputting the character string to the sound reproducing means and synthesizing the sound, and when the extracted character string is a link keyword, when the number of times of sound reproduction of the hypertext information is one day, Then, a link keyword one before the extracted link keyword is specified, and when the number of times of voice reproduction of the hypertext information is the second or subsequent time, the extracted link keyword is specified.

【0010】請求項5記載の発明は、前記ユーザー入力
検出手段がマイクからの音声信号により移動指示を検出
するものとした。
According to a fifth aspect of the present invention, the user input detecting means detects a movement instruction based on a voice signal from a microphone.

【0011】請求項6記載の発明は、事両に搭載される
ハイパーテキストアクセス装置であって、前記データ入
力手段で入力されたハイパーテキスト情報を画像表示可
能な画像表示手段を備え、前記車両が走行中に前記音声
再生手段による音声合成が行われ、停車中には前記画像
表示手段による画像表示が行われるものとした。
According to a sixth aspect of the present invention, there is provided a hypertext access device mounted on a vehicle, comprising: an image display unit capable of displaying an image of hypertext information input by the data input unit. Speech synthesis is performed by the voice reproducing means during traveling, and image display is performed by the image display means during stopping.

【0012】[0012]

【発明の効果】請求項1記載の発明では、入力されるハ
イパーテキスト情報が解析され、リンクキーワードが検
出される。そのリンクキーワードを含む文字列情報が音
声再生されるとき、音声再生が行われている文字列情報
の位置に対応し、音声再生の回数に基づいたリンクキー
ワードが特定される。リンク先への移動指示があった場
合は、特定されるリンクキーワードに対応するリンク先
の情報が入力される。
According to the first aspect of the present invention, input hypertext information is analyzed, and a link keyword is detected. When the character string information including the link keyword is reproduced by voice, the link keyword corresponding to the position of the character string information on which the voice is reproduced is specified based on the number of times of the voice reproduction. When there is an instruction to move to a link destination, information on the link destination corresponding to the specified link keyword is input.

【0013】特定するリンクキーワードは音声再生の回
数と関連を持たせたことによって、音声再生の初期は、
直前に音声再生されたリンクキーワードより前のリンク
キーワードを特定し、再生回数を重ねると、当該音声再
生されたリンクキーワードを特定することができる。こ
の結果、リンク先への移動指示が遅れやすい音声再生の
初期でも、意図するリンク先への移動が可能になる。
[0013] The link keyword to be specified is associated with the number of times of voice reproduction, so that the initial stage of voice reproduction is as follows.
By specifying a link keyword preceding the link keyword that was reproduced immediately before and repeating the number of times of reproduction, it is possible to specify the link keyword that was reproduced by voice. As a result, it is possible to move to the intended link destination even in the early stage of voice reproduction in which the instruction to move to the link destination is likely to be delayed.

【0014】リンクキーワードを特定するには、リンク
キーワードにリンクポインタを設定することによって行
うことができる。
The link keyword can be specified by setting a link pointer to the link keyword.

【0015】請求項3記載の発明では、ハイパーテキス
ト情報の音声再生が一回日の場合、現在音声合成されて
いるリンクキーワードより1つ前のリンクキーワードを
特定し、2回目以降は当該音声合成されているリンクキ
ーワードを特定する。一回目は、次のリンクキーワード
が音声再生されて、現在のリンクキーワードのリンク先
内容を理解してから、リンク先への移動指示を与えるこ
とができる。2回目以降は、前回の音声再生を聞いて、
リンク先の内容を理解しているから、即時にリンク先へ
の移動指示を与えることができる。
According to the third aspect of the present invention, when the speech reproduction of the hypertext information is performed on the first day, the link keyword one prior to the link keyword currently being speech-synthesized is specified, and after the second time, the speech synthesis is performed. Identify the linked keyword that is being used. At the first time, the next link keyword is reproduced by voice, and after understanding the contents of the link destination of the current link keyword, an instruction to move to the link destination can be given. After the second time, listen to the previous audio playback,
Since the user understands the content of the link destination, it is possible to immediately give an instruction to move to the link destination.

【0016】請求項4記載の発明では、リンクキーワー
ドを含む文字列情報から音声合成するための文字列リス
トが作成される。文字列リストから、所定の順厚で文字
列を抽出して音声合成が行われる。抽出された文字列が
リンクキーワードの場合、ハイパーテキスト情報の音声
再生回数が一回目のとき、抽出されたリンクキーワード
より1つ前のリンクキーワードを特定し、ハイパーテキ
スト情報の音声再生回数が2回目以降のときは、当該抽
出されたリンクキーワードを特定する。
According to the present invention, a character string list for speech synthesis is created from character string information including a link keyword. A character string is extracted from the character string list in a predetermined order to perform voice synthesis. When the extracted character string is a link keyword, when the number of times of voice reproduction of the hypertext information is the first time, the link keyword one prior to the extracted link keyword is specified, and the number of times of voice reproduction of the hypertext information is the second time. In the following cases, the extracted link keyword is specified.

【0017】請求項5記載の発明では、ユーザー入力検
出手段がマイクからの音声信号により移動指示を検出す
るから、移動指示は音声で行うことができる。これによ
って、ハイパーテキスト情報を音声で取得し、リンク先
への移動も音声で実行させることができる。
According to the fifth aspect of the present invention, since the user input detecting means detects the movement instruction based on the voice signal from the microphone, the movement instruction can be performed by voice. Thereby, the hypertext information can be obtained by voice, and the movement to the link destination can also be executed by voice.

【0018】請求項6記載の発明では、車両に搭載され
るハイパーテキストアクセス装置に、データ入力手段で
入力されたハイパーテキスト情報を画像表示可能な画像
表示手段を設け、車両が走行中に音声再生手段による音
声合成を行い、停車中には画像表示手段による画像表示
を行うから、停車中に通常と同じように視覚でハイパー
テキスト情報を得ることができる。また走行中に音声で
ハイパーテキスト情報を得るから、車両操作に影響を与
えない。
According to the present invention, the hypertext access device mounted on the vehicle is provided with image display means capable of displaying the hypertext information input by the data input means as an image, and reproduces sound while the vehicle is running. Since the voice synthesis is performed by the means and the image is displayed by the image display means while the vehicle is stopped, the hypertext information can be obtained visually as usual while the vehicle is stopped. In addition, since the hypertext information is obtained by voice during traveling, the operation of the vehicle is not affected.

【0019】[0019]

【発明の実施の形態】次に、本発明の実施の形態を実施
例により説明する。 図1はハイパーテキストアクセス
装置の構成を示すブロック図である。なお、このハイパ
ーテキストアクセス装置は車両に塔載されて使用するも
のである。 ハイパーテキストアクセス装置は、通信制
御装置10とウェブブラウザ部20および音声再生部3
0から構成される。
Next, embodiments of the present invention will be described with reference to examples. FIG. 1 is a block diagram showing the configuration of the hypertext access device. The hypertext access device is used by being mounted on a vehicle. The hypertext access device includes a communication control device 10, a web browser unit 20, and a voice reproduction unit 3.
It consists of 0.

【0020】通信制御装置10は、図示しないウェブサ
ーバと接続し、指定されているURL情報をもとにウェ
ブサーバにアクセスして、HTMLファイルで作成され
た情報を入力する。その情報はウェブブラウザ部20に
出力される。
The communication control device 10 connects to a web server (not shown), accesses the web server based on the specified URL information, and inputs information created in an HTML file. The information is output to the web browser unit 20.

【0021】ウェブブラウザ部20は、データ入出力部
1とファイル解析部2と音声制御部3と表示制御部4と
表示部6およびユーザー入力部5から構成される。デー
タ入出力部1は、通信制御装置10にURL情報を出力
し、通信制御装置10がアクセスして受領したHTML
ファイルを入力する。ファイル解析部2は、入力される
HTMLファイル情報を格納するとともに、HTMLフ
ァイルの解析を行う。その結果画像ファイル等、さらに
入力すべきファイルが存在する場合は、入力すべきファ
イル名を特定し、データ入出力部1にリクエストする。
データ入出力部1は、通信制御装置10を介して再び、
ウェブサーバにアクセスし、ウェブサーバから関連する
HTMLファイルを入力する。
The web browser section 20 comprises a data input / output section 1, a file analysis section 2, a voice control section 3, a display control section 4, a display section 6, and a user input section 5. The data input / output unit 1 outputs the URL information to the communication control device 10, and the HTML received and accessed by the communication control device 10.
Enter the file. The file analysis unit 2 stores the input HTML file information and analyzes the HTML file. As a result, if there is a file to be further input such as an image file, the file name to be input is specified, and a request is made to the data input / output unit 1.
The data input / output unit 1 is again connected via the communication control device 10.
Access the web server and enter the relevant HTML file from the web server.

【0022】ファイル解析部2は入力されたHTMLフ
ァイルから、リンクキーワードを抽出するとともに、文
字情報を所定の文法でいくつかの文字列に切り分ける。
音声制御部3は、リンクキーワードを含む文字列に番号
を振り付け、リンクキーワードの位置を特定できる文字
列リストを作成する。この文字列リストから、現在音声
合成されている文字列と設定されたリンクキーワードお
よびリンクキーワードのリンク先情報が得られる。文字
列リストはデータテーブルとして用いられる。音声制御
部3はデータテーブルから順次に文字列を抽出して、音
声再生部30に出力する。音声再生部30は、文字列情
報を音声データに変換して音声合成する。
The file analysis unit 2 extracts a link keyword from the input HTML file and divides character information into several character strings according to a predetermined grammar.
The voice control unit 3 assigns a number to a character string including the link keyword, and creates a character string list that can specify the position of the link keyword. From this character string list, a character string that is currently subjected to speech synthesis, a set link keyword, and link destination information of the link keyword can be obtained. The string list is used as a data table. The voice control unit 3 sequentially extracts a character string from the data table and outputs it to the voice reproduction unit 30. The audio reproduction unit 30 converts the character string information into audio data and synthesizes the audio.

【0023】表示制御部4は、ファイル解析部2から、
HTMLファイルを入力し、表示部6で表示する画像デ
ータを作成する。表示部6は車両に取り付けられている
液晶モニタである。ユーザー入力部5は、キーボードと
マイクを備え、キーボードまたはマイクによって入力さ
れる移動指示によって、リンク先への移動を行わせる信
号を音声制御部3または表示制御部4に出力する。すな
わちユーザーは予め割り当てられるキーボード上のキー
を押すことによって、移動指示を与える。その移動指示
によってカーソルが当たっている場所に設定されている
リンク先情報を表示制御部4がファイル解析部2からデ
ータ入出力部1に出力する。
The display control unit 4 sends a message from the file analysis unit 2
An HTML file is input, and image data to be displayed on the display unit 6 is created. The display unit 6 is a liquid crystal monitor attached to the vehicle. The user input unit 5 includes a keyboard and a microphone, and outputs a signal for moving to a link destination to the voice control unit 3 or the display control unit 4 according to a movement instruction input by the keyboard or the microphone. That is, the user gives a movement instruction by pressing a key on the keyboard which is assigned in advance. The display control unit 4 outputs the link destination information set at the place where the cursor is hit by the movement instruction from the file analysis unit 2 to the data input / output unit 1.

【0024】またユーザーはマイクに移動指示を音声で
吹き込んだ場合は、ユーザー入力部5が移動を行う信号
を音声制御部3に出力する。音声制御部3は、設定され
ているリンクキーワードのリンク先情報をファイル解析
部2からデータ入出力部1に出力する。データ入出力部
1は、入力されたリンク先情報を通信制御装置10に出
力しアクセスさせる。
When the user instructs the microphone to move by voice, the user input unit 5 outputs a signal for moving to the voice control unit 3. The voice control unit 3 outputs the link destination information of the set link keyword from the file analysis unit 2 to the data input / output unit 1. The data input / output unit 1 outputs the input link destination information to the communication control device 10 for access.

【0025】音声制御部3と表示制御部4に車両側の車
速信号が入力され、車速が一定値以下の停車状態の場合
は表示制御部4が動作し、車速が一定値以上の走行状態
の場合は音声制御部3が動作するようになっている。こ
れによって、停車時にHTMLファイルの画像表示がで
き、走行時には、音声によるHTML情報を取得するこ
とができる。また走行時にはHTMLの画像表示が行わ
れないから、表示部6に例えばナービゲーションなど走
行時の情報を表示することもできる。
A vehicle speed signal on the vehicle side is input to the voice control unit 3 and the display control unit 4. When the vehicle speed is at a stop below a certain value, the display control unit 4 is operated, and when the vehicle is running at a vehicle speed above a certain value. In such a case, the voice control unit 3 operates. As a result, the image of the HTML file can be displayed when the vehicle is stopped, and the HTML information can be obtained by voice when the vehicle is running. In addition, since HTML images are not displayed during traveling, information on traveling, such as nervousness, can be displayed on the display unit 6.

【0026】図2は表示部6で表示される情報例であ
る。ここで、「ここ」、「ここも」、「ニュース」とい
うアングラインが引いてある文字はリンクキーワードで
ある。ファイル解析部2は、この画像を作成するHTM
L情報を表示制御部4に出力するとともに、リンクキー
ワードの抽出と文字情報を切り分ける作業を行う。これ
によってリンクキーワードを含む文字列情報が作られ
る。
FIG. 2 shows an example of information displayed on the display unit 6. Here, the characters with the anglines “here”, “here” and “news” are link keywords. The file analysis unit 2 creates an HTM
The L information is output to the display control unit 4, and a link keyword is extracted and character information is separated. As a result, character string information including the link keyword is created.

【0027】音声制御部3はその文字列情報を用いて、
文字列リストを作る。その文字列リストによって図3の
ようなデータテーブルが得られる。インデックスは、文
字列を音声合成する時の順序を示す番号である。リンク
ポインタはリンク先を設定するための番号である。各リ
ンクキーワードにリンク先情報URLが設けられてい
る。データテーブルにはさらに、文字列情報と無関係に
0、−1のリンクポインタが設けられている。それに対
応するリンク先情報はNULL(無)となっている。
The voice control unit 3 uses the character string information to
Make a string list. A data table as shown in FIG. 3 is obtained from the character string list. The index is a number indicating the order in which a character string is synthesized by speech. The link pointer is a number for setting a link destination. Link destination information URL is provided for each link keyword. The data table is further provided with link pointers 0 and -1 independently of the character string information. The corresponding link destination information is NULL.

【0028】次に、図4のフローチャートにしたがって
制御の流れを説明する。なお、このフローチャートで
は、車両が走行時の音声再生の流れのみを示している。
まずステップ100において、データ入出力部1は入力
されているURL情報を通信制御装置10に出力し、通
信制御装置10がアクセスして受信したHTMLファイ
ル(HTMLデータ)を入力する。
Next, the flow of control will be described with reference to the flowchart of FIG. Note that this flowchart shows only the flow of sound reproduction when the vehicle is running.
First, in step 100, the data input / output unit 1 outputs the input URL information to the communication control device 10, and inputs an HTML file (HTML data) accessed and received by the communication control device 10.

【0029】ステップ101において、ファイル解析部
2はHTMLファイルから更に受信すべきデータ(画像
ファイル等)があるかどうかを判断し、ある場合はデー
タ入出力部1に受信すべきデータを要求し、必要なデー
タのすべてを入力する。入力されたデータから、リンク
キーワードの抽出が行われるとともに、文字情報を切り
分けて、リンクキーワードを含む文字列情報が作成され
る。
In step 101, the file analysis unit 2 determines whether there is data (image file or the like) to be received from the HTML file, and if so, requests the data input / output unit 1 for data to be received. Enter all required data. A link keyword is extracted from the input data, and character information is cut out to create character string information including the link keyword.

【0030】ステップ102においては、音声制御部3
はファイル解析部2から文字列情報を入力し図3のよう
なデータテーブルを作成する。ステップ103におい
て、リンクポインタを−1に設定する。ステップ104
においては、インデックスを1に設定する。インデック
スを1に設定することによって、音声再生が最初の文字
列から始まる。
In step 102, the voice control unit 3
Inputs character string information from the file analysis unit 2 and creates a data table as shown in FIG. In step 103, the link pointer is set to -1. Step 104
In, the index is set to 1. By setting the index to 1, audio playback starts from the first character string.

【0031】ステップ105においては、音声制御部3
はデータテーブルから、インデックスが示す文字列情報
を音声再生部30に出力する。ステップ106におい
て、音声再生部30は入力された文字列情報を音声デー
タに変換して音声出力を行う。
In step 105, the voice control unit 3
Outputs the character string information indicated by the index from the data table to the audio reproducing unit 30. In step 106, the audio reproducing unit 30 converts the input character string information into audio data and outputs the audio data.

【0032】ステップ107において、音声制御部3は
音声再生部30に出力する文字列がリンクキーワードか
否かを判断する。リンクキーワードの場合ステップ10
8へ、そうでない場合はステップ109へ進む。ステッ
プ108においては、リンクポインタを1増加する。ス
テップ109において、音声制御部3は、ユーザー入力
部5からリンク先への移動指示があるか否かをチェック
する。移動指示がなかった場合は、ステップ111へ進
む。移動指示があった場合には、ステップ110におい
て、URLがNULLか否かをチェックする。リンクポ
インタが−1、0の場合は、NULLのため、リンク先
への移動がないものとして、ステップ111へ進む。
In step 107, the voice control unit 3 determines whether the character string output to the voice reproduction unit 30 is a link keyword. Step 10 for link keywords
Go to step 8; otherwise go to step 109. In step 108, the link pointer is incremented by one. In step 109, the voice control unit 3 checks whether there is an instruction to move to the link destination from the user input unit 5. If there is no movement instruction, the process proceeds to step 111. If there is a movement instruction, it is checked in step 110 whether the URL is NULL. If the link pointer is -1, 0, it means that there is no movement to the link destination because it is NULL, and the process proceeds to step 111.

【0033】ステップ111において、音声制御部3
は、データテーブルから次の文字列がある否かをチェッ
クする。次の文字列があった場合は、ステップ112に
おいて、インデックスを1増加して、ステップ105へ
戻る。一方ステップ111のチェックで次の文字列が無
かった場合には、一回日のHTMLファイルの音声再生
が終ったことにより、ステップ113において、リンク
ポインタを0に設定して、ステップ104へ戻る。
In step 111, the voice control unit 3
Checks whether the next character string exists from the data table. If there is the next character string, the index is incremented by 1 in step 112, and the process returns to step 105. On the other hand, if the next character string is not found in the check in step 111, the sound reproduction of the HTML file for one day has been completed, so the link pointer is set to 0 in step 113, and the process returns to step 104.

【0034】ステップ110のチェックで、URLがN
ULLでない場合は、音声制御部3が、リンクポインタ
が示すリンクキーワードのリンク先情報(アドレス)を
ファイル解析部2を介してデータ入出力部1に出力し、
アクセスさせて、ステップ100へ戻る。
In the check in step 110, the URL is N
If not, the voice control unit 3 outputs the link destination information (address) of the link keyword indicated by the link pointer to the data input / output unit 1 via the file analysis unit 2,
Access is made and the process returns to step 100.

【0035】次に、上記制御の流れに従って、図3に示
すデータテーブルの情報を用いてリンク先の設定を説明
する。HTMLファイルの音声再生が一回目の場合、最
初はリンクポインタが−1に設定されているから、イン
デックスが2となって、リンクキーワード「ここ」が音
声再生されたとき、リンクポインタが0に設定される。
インデックス6の「ここも」が音声再生されるまでは、
リンクポインタが0となっているから、この間、リンク
先への移動指示があっても、URLがNULLのため、
移動指示が無効になる。
Next, the setting of the link destination will be described using the information of the data table shown in FIG. 3 according to the above control flow. When the HTML file is played back for the first time, the link pointer is initially set to -1, so the index is set to 2 and the link pointer is set to 0 when the link keyword "here" is played back. Is done.
Until “here” of index 6 is played back,
Since the link pointer is 0, even if there is an instruction to move to the link destination during this time, since the URL is NULL,
The move instruction becomes invalid.

【0036】リンクキーワード「ここも」が音声再生さ
れたとき、リンクポインタが1に設定される。また、次
のリンクキーワード「ニュース」が音声合成されると
き、リンクポインタが2に設定されるから、音声再生さ
れたリンクキーワードより1つ前のリンクキーワードに
なり、文章の内容を理解してから、移動指示を与えるこ
とができ、指示の遅れにより、意図するリンク先とは異
なるリンク先へ移動することが防止される。
When the link keyword "here" is reproduced by sound, the link pointer is set to "1". When the next link keyword "news" is synthesized by speech, the link pointer is set to 2, so that the link keyword becomes one link before the link keyword reproduced by speech, and after understanding the contents of the sentence, A move instruction can be given, and a delay in the instruction prevents the user from moving to a link destination different from the intended link destination.

【0037】2回目からは、最初リンクポインタが1に
設定されるから、「ここ」、「ここも」、「ニュース」
などのリンクキーワードが音声再生されるとき、当該リ
ンクキーワードにリンクポインタが設定される。2回目
の音声再生時は、前回の再生を聞いて文章内容を理解し
ているから、即時リンク先への移動指示を与えることが
でき、再生されたリンクキーワードに対応するリンク先
へ移動することができる。このようにHTMLファイル
の音声による読み上げ回数によって、リンク先が変更さ
れることができるので、ユーザーが意図するリンク先へ
正しく移動させることができる。
From the second time, since the link pointer is initially set to 1, "here", "here", "news"
When a link keyword such as is reproduced by voice, a link pointer is set to the link keyword. At the time of the second voice reproduction, since the user has heard the previous reproduction and understood the contents of the sentence, the user can immediately give an instruction to move to the link destination, and move to the link destination corresponding to the reproduced link keyword. Can be. As described above, the link destination can be changed depending on the number of times the HTML file is read aloud by voice, so that the user can correctly move to the link destination intended by the user.

【0038】なお、走行中は音声で移動指示するように
したが、これに限らず、キー操作により移動指示しても
よい。また、本実施例では、車両に搭載した装置につい
て説明したが、視覚障害者用として用いることも可能で
ある。
Although the movement instruction is given by voice during traveling, the movement instruction is not limited to this, and the movement instruction may be given by key operation. Further, in the present embodiment, the device mounted on the vehicle has been described. However, the device can be used for visually impaired persons.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an embodiment.

【図2】画像で表示されるHTMLファイルの例であ
る。
FIG. 2 is an example of an HTML file displayed as an image.

【図3】データテーブルの構成を示す図である。FIG. 3 is a diagram showing a configuration of a data table.

【図4】制御の流れを示すフローチャートである。FIG. 4 is a flowchart showing a control flow.

【符号の説明】[Explanation of symbols]

1 データ入出力部(データ入力手段) 2 ファイル解析部(データ解析手段) 3 音声制御部(リンクキーワード特定手段) 4 表示制御部 5 ユーザー入力部(ユーザー入力検出手段) 6 表示部(画像表示手段) 10 通信制御装置 20 ウェブブラウザ 30 音声再生部(音声再生手段) Reference Signs List 1 data input / output unit (data input unit) 2 file analysis unit (data analysis unit) 3 voice control unit (link keyword specifying unit) 4 display control unit 5 user input unit (user input detection unit) 6 display unit (image display unit) 10) Communication control device 20 Web browser 30 Audio playback unit (audio playback means)

フロントページの続き Fターム(参考) 5B075 ND36 PP07 PQ02 5B082 EA00 EA01 5D045 AB01 9A001 HZ18 JJ25 JJ26 JJ72 Continuation of the front page F term (reference) 5B075 ND36 PP07 PQ02 5B082 EA00 EA01 5D045 AB01 9A001 HZ18 JJ25 JJ26 JJ72

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 所定のウェブサーバにアクセスして、リ
ンク先情報に対応付けられている複数のリンクキーワー
ドを含む文字列情報からなるハイパーテキスト情報を入
力するデータ入力手段と、前記入力されるハイパーテキ
スト情報を解析し、リンクキーワードを検出するデータ
解析手段と、前記リンクキーワードを含む文字列情報を
音声合成して、音声再生する音声再生手段と、前記音声
合成されている文字列の位置に対応し、前記ハイパーテ
キスト情報の音声再生回数に基づいてリンクキーワード
を特定するリンクキーワード特定手段と、ユーザーから
リンク先への移動指示を検出するユーザー入力検出手段
とを有し、該ユーザー入力手段が移動指示を検出した場
合、前記リンクキーワード特定手段は、特定したリンク
キーワードに対応するリンク先情報を前記データ入力手
段に出力し、アクセスさせることを特徴とするハイパー
テキストアクセス装置。
1. A data input means for accessing a predetermined web server and inputting hypertext information composed of character string information including a plurality of link keywords associated with link destination information, Data analysis means for analyzing text information and detecting a link keyword; voice reproduction means for voice-synthesizing character string information including the link keyword to reproduce voice; and corresponding to the position of the character string being voice-synthesized. A link keyword specifying unit that specifies a link keyword based on the number of times of reproduction of the hypertext information; and a user input detecting unit that detects a movement instruction from a user to a link destination, wherein the user input unit moves. When an instruction is detected, the link keyword specifying means corresponds to the specified link keyword. A hypertext access device for outputting link destination information to the data input means for access.
【請求項2】 前記リンクキーワード特定手段は、リン
クキーワードにリンクポインタを設定することによって
リンクキーワードを特定することを特徴とする請求項1
記載のハイパーテキストアクセス装置。
2. The link keyword specifying unit specifies a link keyword by setting a link pointer to the link keyword.
The hypertext access device as described.
【請求項3】 前記リンクキーワード特定手段は、前記
ハイパーテキスト情報の音声再生が一回日の場合、現在
音声合成されているリンクキーワードより1つ前のリン
クキーワードを特定し、2回目以降は当該音声合成され
ているリンクキーワードを特定することを特徴とする請
求項1または2記載のハイパーテキストアクセス装置。
3. The link keyword specifying means, when the reproduction of the hypertext information is performed on the first day, specifies a link keyword one prior to the link keyword currently being voice-synthesized, and the second or subsequent time. 3. The hypertext access device according to claim 1, wherein a link keyword that is synthesized by speech is specified.
【請求項4】 前記リンクキーワード特定手段は、前記
データ解析手段によって検出された前記リンクキーワー
ドを含む文字列情報を音声合成する文字列リストを作成
し、前記文字列リストから、所定の順序で文字列を抽出
し、前記音声再生手段に出力して音声合成させるととも
に、前記抽出された文字列がリンクキーワードの場合、
前記ハイパーテキスト情報の音声再生回数が一回日のと
き、抽出されたリンクキーワードより1つ前のリンクキ
ーワードを特定し、前記ハイパーテキスト情報の音声再
生回数が2回目以降のときは、当該抽出されたリンクキ
ーワードを特定することを特徴とする請求項1、2また
は3記載のハイパーテキストアクセス装置。
4. The link keyword specifying means creates a character string list for speech-synthesizing character string information including the link keyword detected by the data analysis means, and generates a character string list in a predetermined order from the character string list. A string is extracted, and is output to the voice reproducing means for voice synthesis, and when the extracted character string is a link keyword,
When the number of times of voice reproduction of the hypertext information is one day, a link keyword one prior to the extracted link keyword is specified, and when the number of times of voice reproduction of the hypertext information is the second or subsequent time, the extracted link keyword is specified. 4. The hypertext access device according to claim 1, wherein the specified link keyword is specified.
【請求項5】 前記ユーザー入力検出手段は、マイクを
備えマイクからの音声信号により移動指示を検出するこ
とを特徴とする請求項1、2、3または4記載のハイパ
ーテキストアクセス装置。
5. The hypertext access device according to claim 1, wherein said user input detecting means includes a microphone and detects a movement instruction based on a voice signal from the microphone.
【請求項6】 車両に搭載されるハイパーテキストアク
セス装置であって、前記データ入力手段で入力されたハ
イパーテキスト情報を画像表示可能な画像表示手段を備
え、前記車両が走行中に前記音声再生手段による音声合
成が行われ、停車中には前記画像表示手段による画像表
示が行われることを特徴とする請求項1、2、3、4ま
たは5記載のハイパーテキストアクセス装置。
6. A hypertext access device mounted on a vehicle, comprising: image display means capable of displaying hypertext information input by said data input means as an image, wherein said voice reproduction means is provided while said vehicle is running. 6. The hypertext access device according to claim 1, wherein voice synthesis is performed by the image display unit, and image display is performed by the image display unit while the vehicle is stopped.
JP11181731A 1999-06-28 1999-06-28 Hypertext access device Withdrawn JP2001014319A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11181731A JP2001014319A (en) 1999-06-28 1999-06-28 Hypertext access device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11181731A JP2001014319A (en) 1999-06-28 1999-06-28 Hypertext access device

Publications (1)

Publication Number Publication Date
JP2001014319A true JP2001014319A (en) 2001-01-19

Family

ID=16105909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11181731A Withdrawn JP2001014319A (en) 1999-06-28 1999-06-28 Hypertext access device

Country Status (1)

Country Link
JP (1) JP2001014319A (en)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229578A (en) * 2001-01-31 2002-08-16 Sharp Corp Device and method for voice synthesis, and computer- readable recording medium with recorded voice synthesizing program
JP2002342212A (en) * 2001-04-27 2002-11-29 Internatl Business Mach Corp <Ibm> Information accessing method, information access system and program thereof
US8368624B2 (en) 2007-04-14 2013-02-05 Chunghwa Picture Tubes, Ltd. Display method with interlacing reversal scan and device thereof
US8558781B2 (en) 2009-05-05 2013-10-15 Chunghwa Picture Tubes, Ltd. Color sequential display where each sub-frame is illuminated by a secondary color backlight followed by illumination with the complementary primary color backlight
JP2015528918A (en) * 2012-06-29 2015-10-01 アップル インコーポレイテッド Apparatus, method and user interface for voice activated navigation and browsing of documents
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification

Cited By (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229578A (en) * 2001-01-31 2002-08-16 Sharp Corp Device and method for voice synthesis, and computer- readable recording medium with recorded voice synthesizing program
JP2002342212A (en) * 2001-04-27 2002-11-29 Internatl Business Mach Corp <Ibm> Information accessing method, information access system and program thereof
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8368624B2 (en) 2007-04-14 2013-02-05 Chunghwa Picture Tubes, Ltd. Display method with interlacing reversal scan and device thereof
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US8558781B2 (en) 2009-05-05 2013-10-15 Chunghwa Picture Tubes, Ltd. Color sequential display where each sub-frame is illuminated by a secondary color backlight followed by illumination with the complementary primary color backlight
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
JP2015528918A (en) * 2012-06-29 2015-10-01 アップル インコーポレイテッド Apparatus, method and user interface for voice activated navigation and browsing of documents
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services

Similar Documents

Publication Publication Date Title
JP2001014319A (en) Hypertext access device
JP4225703B2 (en) Information access method, information access system and program
US8380516B2 (en) Retrieval and presentation of network service results for mobile device using a multimodal browser
KR100586766B1 (en) Method and system for synchronizing audio and visual presentation in a multi-modal content renderer
JP3864197B2 (en) Voice client terminal
US6181351B1 (en) Synchronizing the moveable mouths of animated characters with recorded speech
US6018710A (en) Web-based interactive radio environment: WIRE
US8555151B2 (en) Method and apparatus for coupling a visual browser to a voice browser
US6564186B1 (en) Method of displaying information to a user in multiple windows
US7194411B2 (en) Method of displaying web pages to enable user access to text information that the user has difficulty reading
US5899975A (en) Style sheets for speech-based presentation of web pages
JPH1078952A (en) Voice synthesizing method and device therefor and hypertext control method and controller
JP2002524806A (en) Interactive user interface for networks using speech recognition and natural language processing
JPH11353150A (en) Enhancement of mark-up language page for supporting viva voce inquiry
JP3789614B2 (en) Browser system, voice proxy server, link item reading method, and storage medium storing link item reading program
JP2004334409A (en) Data browsing support device, data browsing method, and data browsing program
JP3340581B2 (en) Text-to-speech device and window system
JP2005004100A (en) Listening system and voice synthesizer
JP3884951B2 (en) Information processing apparatus and method, and program
JP2004171111A (en) Web browser control method and device
JP2001296852A (en) Video display method
JP3270832B2 (en) Structure selection read-out processing method and recording medium recording a program therefor
KR20010017323A (en) Web browsing apparatus and method having language learning function
WO2002037310A2 (en) System and method for transcoding information for an audio or limited display user interface
KR100585711B1 (en) Method for audio and voice synthesizing

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905