KR20050045818A - Sequential multimodal input - Google Patents

Sequential multimodal input Download PDF

Info

Publication number
KR20050045818A
KR20050045818A KR1020040084562A KR20040084562A KR20050045818A KR 20050045818 A KR20050045818 A KR 20050045818A KR 1020040084562 A KR1020040084562 A KR 1020040084562A KR 20040084562 A KR20040084562 A KR 20040084562A KR 20050045818 A KR20050045818 A KR 20050045818A
Authority
KR
South Korea
Prior art keywords
phone
speech
server
data
web
Prior art date
Application number
KR1020040084562A
Other languages
Korean (ko)
Other versions
KR101109293B1 (en
Inventor
혼시아오-우웬
왕구안산
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20050045818A publication Critical patent/KR20050045818A/en
Application granted granted Critical
Publication of KR101109293B1 publication Critical patent/KR101109293B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4938Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals comprising a voice browser which renders and interprets, e.g. VoiceXML
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M7/00Arrangements for interconnection between switching centres
    • H04M7/0024Services and arrangements where telephone services are combined with data services
    • H04M7/0027Collaboration services where a computer is used for data transfer and the telephone is used for telephonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2207/00Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place
    • H04M2207/18Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place wireless networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법이 개시된다. 상기 2G 폰은 데이터 송신용의 데이터 채널과 스피치 송신용의 음성 채널을 구비한다. 본 방법은 상기 데이터 채널을 통해 애플리케이션에 따라서 웹서버로부터 웹페이지를 수신하여 상기 웹페이지를 상기 2G 폰에 렌더링하는 단계를 포함한다. 상기 웹페이지 상의 적어도 하나의 데이터 필드에 대응하는 사용자로부터 스피치가 수신된다. 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)가 확립된다. 상기 텔레포니 서버는 상기 2G 폰으로부터 원격지에 위치하며 스피치를 처리하도록 구성된다. 상기 텔레포니 서버는 상기 2G 폰에 제공된 상기 웹페이지에 대응하는 웹서버로부터 스피치 인에이블(speech-enabled) 웹페이지를 획득한다. 상기 스피치는 상기 2G 폰으로부터 상기 텔레포니 서버에 송신된다. 상기 스피치는 상기 스피치 인에이블 웹페이지에 따라서 처리되어 텍스트 데이터가 획득된다. 상기 텍스트 데이터는 상기 웹서버에 송신된다. 상기 2G 폰은 상기 데이터 채널을 통해 새로운 웹페이지를 획득하고 상기 텍스트 데이터를 갖는 상기 새로운 웹페이지를 렌더링한다.A method of interacting a 2G mobile phone and client / server architecture is disclosed. The 2G phone has a data channel for data transmission and a voice channel for speech transmission. The method includes receiving a web page from a web server in accordance with an application via the data channel and rendering the web page to the 2G phone. Speech is received from a user corresponding to at least one data field on the webpage. A call from the 2G phone to the telephony server is established over the voice channel. The telephony server is located remote from the 2G phone and is configured to handle speech. The telephony server obtains a speech-enabled web page from a web server corresponding to the web page provided to the 2G phone. The speech is transmitted from the 2G phone to the telephony server. The speech is processed according to the speech enable web page to obtain text data. The text data is sent to the web server. The 2G phone acquires a new webpage via the data channel and renders the new webpage with the text data.

Description

순차 멀티모드 입력{SEQUENTIAL MULTIMODAL INPUT}Sequential Multimode Input {SEQUENTIAL MULTIMODAL INPUT}

본 발명은 컴퓨터 시스템에서의 정보의 액세스 및 렌더링에 관한 것이다. 보다 구체적으로, 본 발명은 2세대("2G") 모바일폰 또는 셀룰러폰에서의 순차 멀티모드 입력에 관한 것이다.The present invention relates to access and rendering of information in a computer system. More specifically, the present invention relates to sequential multimode input in second generation (“2G”) mobile phones or cellular phones.

휴대폰이나 PIM(personal information managers)과 같은 소형 컴퓨팅 장치가 사람들의 일상 활동에서 점점 더 많이 이용되고 있다. 이들 장치를 동작시키는데 사용되는 마이크로프로세서의 처리 능력이 증대됨에 따라 이들 장치의 기능이 늘어나고 경우에 따라서는 이들이 합쳐지고 있다. 예를 들어, 특히 2G 폰을 포함하여 많은 휴대폰들은 현재 이를 사용하여 인터넷에 액세스 및 브라우즈할 수 있을뿐만 아니라, 어드레스, 폰번호 등의 개인정보를 저장하는데도 이용할 수 있다.Small computing devices such as cell phones and personal information managers (PIMs) are increasingly used in people's daily activities. As the processing power of microprocessors used to operate these devices increases, the functionality of these devices increases and, in some cases, they merge. For example, many mobile phones, including 2G phones in particular, can now be used to access and browse the Internet, as well as to store personal information such as addresses, phone numbers, and the like.

이들 컴퓨팅 장치들이 인터넷 브라우즈에 이용되고 있다는 점이나 다른 서버/클라이언트 아키텍처에 이용되고 있다는 점에서, 이들 컴퓨팅 장치에 정보를 입력하는 것이 필요하게 된다. 그러나 이들 장치의 휴대를 용이하게 하기 위해서는 이들 장치를 가능한 한 작게 유지해야 하므로, 상기한 컴퓨팅 장치의 하우징에서 이용가능한 표면적이 한정되어 모든 문자를 분리된 버튼으로서 구비하고 있는 통상의 키보드는 통상적으로 불가능하다. 따라서, 인터넷과 같은 클라이언트/서버 아키텍처를 내비게이트하기 위해 이러한 장치의 사용자는 웹페이지의 필요한 필드를 채울 텍스트 정보를 제공하거나 또는 명령을 제공하는 방식으로 한정된 키보드를 조작해야 한다. 이러한 방식의 입력은 이러한 구속하에 동작하는 웹기반 애플리케이션의 유용성을 제한하며, 이러한 장치를 이용한 인터넷 또는 다른 클라이언트/서버 시스템의 내비게이션은 눈에 띄는 성공을 이루지 못했다.In the sense that these computing devices are being used for Internet browsing or other server / client architectures, it is necessary to enter information into these computing devices. However, in order to facilitate the portability of these devices, they must be kept as small as possible, so that the surface area available in the housing of the computing device is limited and conventional keyboards with all characters as separate buttons are usually not possible. Do. Thus, in order to navigate a client / server architecture such as the Internet, the user of such a device has to manipulate a limited keyboard in such a way as to provide text information or commands to fill the required fields of the web page. Input in this manner limits the usefulness of web-based applications operating under this constraint, and navigation of the Internet or other client / server systems using such devices has not been noticeable.

최근에는 음성 포털이 SALT(Speech Application Language Tags) 또는 VoiceXML(voice extensible markup language) 등의 이용을 통해 단지 전화를 이용하여 인터넷 컨텐트에 액세스할 수 있도록 진화되었다. 이러한 아키텍처에서, 문서 서버(예컨대 웹서버)는 SALT/VoiceXML 번역기를 통해 클라이언트로부터의 요청을 처리하게 된다. 웹서버는 이에 응답하여 SALT/VoiceXML 번역기에 의해 처리되고 사용자의 청취가 가능하도록 렌더링된 SALT/VoiceXML 문서를 생성할 수 있게 된다. 사용자는 음성 인식을 통한 음성 명령을 이용하여 웹을 내비게이트할 수 있게 된다. 특히 웹서버로부터 획득한 정보가 청취가 가능하도록 렌더링되어야 하므로 사용자에게 렌더링되어 리턴되는 경우에는 이러한 인터넷 내비게이션 기술도 제한된다. 또한, 사용자는 인식 결과를 눈으로 확인하지 않고는 인식이 제대로 되었는지를 확신할 수 없다. 인식된 결과를 가청음으로써 확인시켜 줄 수는 있지만 이러한 확인에는 시간이 걸리며 따라서 사용자의 원활하고(streamlined) 효율적인 체험을 방해한다.Recently, voice portals have evolved to access Internet content using just a telephone, through the use of Speech Application Language Tags (SALT) or voice extensible markup language (VoiceXML). In this architecture, the document server (e.g., web server) will process the request from the client through the SALT / VoiceXML translator. In response, the web server can generate a SALT / VoiceXML document that is processed by the SALT / VoiceXML translator and rendered for user listening. The user can navigate the web using voice commands through voice recognition. In particular, since information obtained from a web server must be rendered to be audible, such internet navigation technology is limited when rendered to a user and returned. In addition, the user cannot be sure that the recognition is properly performed without visually confirming the recognition result. Although the perceived result can be confirmed by audible sound, this confirmation takes time and thus hinders the user's streamlined and efficient experience.

따라서 서버/클라이언트 아키텍처에서 특히 2G 폰과 같은 장치에 대한 서버 정보를 액세스하는데 이용하기 위한 아키텍처 및 방법을 개선할 필요가 있다.Thus, there is a need to improve the architecture and methodology in the server / client architecture, particularly for use in accessing server information for devices such as 2G phones.

2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법이 개시된다. 상기 2G 폰은 데이터 송신용의 데이터 채널과 스피치 송신용의 음성 채널을 구비한다. 본 방법은 상기 데이터 채널을 통해 애플리케이션에 따라서 웹서버로부터 웹페이지를 수신하여 상기 웹페이지를 상기 2G 폰에 렌더링하는 단계를 포함한다. 상기 웹페이지 상의 적어도 하나의 데이터 필드에 대응하는 사용자로부터 스피치가 수신된다. 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)가 확립된다. 상기 텔레포니 서버는 상기 2G 폰으로부터 원격지에 위치하며 스피치를 처리하도록 구성된다. 상기 텔레포니 서버는 상기 2G 폰에 제공된 상기 웹페이지에 대응하는 웹서버로부터 스피치 인에이블(speech-enabled) 웹페이지를 획득한다. 상기 스피치는 상기 2G 폰으로부터 상기 텔레포니 서버에 송신된다. 상기 스피치는 상기 스피치 인에이블 웹페이지에 따라서 처리되어 텍스트 데이터가 획득된다. 상기 텍스트 데이터는 상기 웹서버에 송신된다. 상기 2G 폰은 상기 데이터 채널을 통해 새로운 웹페이지를 획득하고 상기 텍스트 데이터를 갖는 상기 새로운 웹페이지를 렌더링한다.A method of interacting a 2G mobile phone and client / server architecture is disclosed. The 2G phone has a data channel for data transmission and a voice channel for speech transmission. The method includes receiving a web page from a web server in accordance with an application via the data channel and rendering the web page to the 2G phone. Speech is received from a user corresponding to at least one data field on the webpage. A call from the 2G phone to the telephony server is established over the voice channel. The telephony server is located remote from the 2G phone and is configured to handle speech. The telephony server obtains a speech-enabled web page from a web server corresponding to the web page provided to the 2G phone. The speech is transmitted from the 2G phone to the telephony server. The speech is processed according to the speech enable web page to obtain text data. The text data is sent to the web server. The 2G phone acquires a new webpage via the data channel and renders the new webpage with the text data.

본 발명의 또다른 태양으로서 상기한 2G 폰의 동작 관점에서 살펴보면, 본 방법은 상기 데이터 채널을 통해 애플리케이션에 따라서 웹서버로부터 웹페이지를 수신하여 상기 웹페이지를 상기 2G 폰에 렌더링하는 단계를 포함한다. 상기 웹페이지 상의 적어도 하나의 데이터 필드에 대응하는 사용자로부터 스피치가 수신된다. 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)가 확립되며, 상기 텔레포니 서버는 상기 2G 폰으로부터 원격지에 위치하며 스피치를 처리하도록 구성된다. 상기 스피치는 상기 2G 폰으로부터 상기 텔레포니 서버에 송신된다. 상기 데이터 채널을 통해 상기 2G 폰에 새로운 웹페이지가 획득되며 상기 스피치에 따른 텍스트 데이터를 갖는 상기 새로운 웹페이지가 렌더링된다.As another aspect of the present invention, in terms of the operation of the 2G phone described above, the method includes receiving a web page from a web server according to an application via the data channel and rendering the web page to the 2G phone. . Speech is received from a user corresponding to at least one data field on the webpage. A call from the 2G phone to a telephony server is established via the voice channel, the telephony server located remotely from the 2G phone and configured to handle speech. The speech is transmitted from the 2G phone to the telephony server. A new webpage is obtained on the 2G phone via the data channel and the new webpage with text data according to the speech is rendered.

〈실시예〉<Example>

본 발명의 일 태양은 스피치 인식이 구현된 멀티모드 입력을 2세대("2G") 폰에 제공하는 방법과 관련된다. 본 명세서에서 2G 폰은 공지된 바와 같이 음성 채널을 통해 음성 통화를 할 수 있으며 별도의 데이터 채널을 통해 디지털 데이터를 발신 및 수신할 수 있는 회로부를 포함하고 있다. 사용자는 폰의 키패드를 이용하여 클라이언트/서버 아키텍처 내의 웹사이트를 내비게이트하고 텍스트 데이터를 발신 및 수신함으로써 정보를 획득할 수 있다. 상기한 데이터는 작은 디스플레이 상에 렌더링된다. 본 발명의 일 태양에 따르면 사용자가 폰 입력의 한 형태로서 스피치를 제공할 수 있도록 함으로써 대응하는 텍스트를 입력하는 번거러운 작업을 회피하고 있다.One aspect of the present invention relates to a method for providing multimode input with speech recognition implemented on a second generation ("2G") phone. As is known herein, the 2G phone includes a circuit unit capable of making a voice call through a voice channel and transmitting and receiving digital data through a separate data channel. The user can use the keypad of the phone to obtain information by navigating a website within the client / server architecture and sending and receiving text data. The data described above is rendered on a small display. According to one aspect of the present invention, the user can provide speech as a form of phone input, thereby avoiding the cumbersome task of inputting corresponding text.

도 5를 참조하면 본 발명에 채용될 수 있는 웹기반 스피치 인식 아키텍처(200)가 도시되어 있다. 일반적으로 웹서버(202)에 저장된 정보의 액세스는 모바일 장치(30) - 본 명세서에서는 가청신호를 검출하는 마이크뿐만 아니라 표시화면을 구비한 다른 형태의 컴퓨팅 장치를 나타내기도 함 - 를 통해 수행되거나; 심플 폰(80)을 통해 수행되어 눌려진 키에 응답하여 폰(80)에서 발생된 톤(tone)을 통해 또는 청취 가능한 형태로 정보가 요청되며, 또한 웹서버(202)로부터의 정보가 사용자에게 단지 청취가 가능하도록 제공되거나; 또는 2G 폰(81)을 통해 수행되어 정보를 웹서버(202)로부터도 액세스할 수 있으며 상기 정보가 WAP(Wireless Application Protocol)을 통해 송신된 WML 또는 XHTML 페이지 등의 페이지로서 제공되게 된다. 전술한 바와 같이, 제한된 키보드 능력을 감안하면, 본 발명에서 채용하고 있는 상기한 아키텍처(200)는 2G 폰(81)의 유용성을 개량하기 위해 스피치 인식과 함께 사용할 수 있도록 하는 한편, 2G 폰의 비주얼 렌더링 능력을 이용하여 인식결과를 렌더링할 수 있다.Referring to FIG. 5, a web-based speech recognition architecture 200 that can be employed in the present invention is shown. In general, access to information stored in the web server 202 is performed through the mobile device 30, which herein represents not only a microphone for detecting an audible signal, but also another form of computing device having a display screen; Information is requested in audible form or via a tone generated in the phone 80 in response to a key pressed and performed through the simple phone 80, and the information from the web server 202 is only available to the user. Is provided to allow listening; Alternatively, the information may be accessed from the web server 202 by being performed through the 2G phone 81, and the information may be provided as a page such as a WML or XHTML page transmitted through a WAP (Wireless Application Protocol). As noted above, given the limited keyboard capabilities, the architecture 200 employed in the present invention can be used with speech recognition to improve the usability of the 2G phone 81, while visualizing the 2G phone. The rendering capability can be used to render the recognition result.

보다 중요한 것은, 스피치 인식을 이용하여 장치(30), 심플 폰(80) 또는 2G 폰(81)을 통해 정보가 획득된다는 점에서 상기한 아키텍처(200)는 일원화되어 있지만, 싱글 스피치 서버(204)가 각각의 동작 모드를 서포트할 수 있다는 점이다. 또한, 상기한 아키텍처(200)는 각종의(an extension of) 공지된 마크업 랭기지(예컨대, HTML, XHTML, cHTML, XML, WML 등)를 이용하여 동작한다. 따라서 웹서버(202)에 저장된 정보는 이들 마크업 랭기지에서 제공하는 공지의 GUI 방식을 이용하여 액세스될 수 있다. 각종의 공지된 마크업 랭기지를 이용함으로써 웹서버(202)에서의 프로그래밍(authoring)이 용이하게 되며 또한 음성 인식을 포함하도록 기존의 레거시(legacy) 애플리케이션을 용이하게 수정할 수 있다.More importantly, although the architecture 200 is unified in that information is obtained via the device 30, the simple phone 80, or the 2G phone 81 using speech recognition, the single speech server 204 is unified. Can support each mode of operation. In addition, the architecture 200 operates using a variety of known markup languages (eg, HTML, XHTML, cHTML, XML, WML, etc.). Therefore, the information stored in the web server 202 can be accessed using known GUI methods provided by these markup languages. By using a variety of known markup languages, authoring in the web server 202 can be facilitated, and existing legacy applications can be easily modified to include speech recognition.

웹기반 스피치 인식 아키텍처(200) 및 2G 폰(81)에서의 웹기반 스피치 인식의 구현 방법에 대한 설명에 앞서, 이러한 아키텍처(200)에서 동작하는 다른 컴퓨팅 장치에 대해 전반적으로 설명하기로 한다.Prior to describing the web-based speech recognition architecture 200 and how to implement web-based speech recognition in the 2G phone 81, other computing devices operating on this architecture 200 will be described in general.

도 1을 참조하면, 데이터 관리장치(PIM, PDA 등)의 일례를 30으로 도시하고 있다. 모바일 장치(30)는 하우징(32)을 포함하며 디스플레이(34)를 포함하는 사용자 인터페이스를 구비하며, 사용자 디스플레이는 스타일러스(33)와 연계한 접촉 감응식 표시화면을 사용한다. 스타일러스(33)를 사용하여 지정된 좌표에 있는 디스플레이(34)를 누르거나 접촉하게 되면 필드를 선택하거나 또는 커스의 시작위치를 선택적으로 이동시키거나 또는 커맨드 정보를 제공하게 된다. 다른 방법으로 또한 내비게이션을 위해 장치(30)에 하나 이상의 버튼(35)이 구비될 수도 있다. 또한 회전가능 휠, 롤러 등의 기타 입력 메커니즘이 구비될 수도 있다.Referring to Fig. 1, an example of a data management apparatus (PIM, PDA, etc.) is shown at 30. The mobile device 30 includes a housing 32 and has a user interface including a display 34, the user display using a touch-sensitive display screen associated with the stylus 33. Pressing or touching the display 34 at the specified coordinates using the stylus 33 selects a field, selectively moves the start position of the cursor, or provides command information. Alternatively, one or more buttons 35 may also be provided on the device 30 for navigation. Other input mechanisms, such as rotatable wheels and rollers, may also be provided.

도 2를 참조하면, 상기한 모바일 장치(30)를 구비한 기능 컴포넌트를 블록도로서 도시하고 있다. 중앙처리장치(CPU)(50)는 소프트웨어 제어 기능을 구현한다. CPU(50)는 디스플레이(34)에 연결되어 소프트웨어 제어에 따라 생성된 텍스트 및 그래픽 아이콘이 디스플레이(34)에 나타나게 된다. CPU(50)에는 통상적으로 디지털/아날로그 변환기(59)를 구비한 스피커(43)가 연결되어 가청 출력을 제공한다. 사용자에 의해 모바일 장치(30)에 다운로드 또는 입력된 데이터는 상기한 CPU(50)에 양방향으로 연결되어 있는 불활성 판독/기록 랜덤 액세스 메모리 저장부(54)에 저장된다. RAM(랜덤 액세스 메모리)(54)은 CPU(50)에 의해 실행되는 명령에 대한 활성 저장부를 제공하며 또한 레지스터값과 같은 임시 데이터에 대한 저장부를 제공한다. 설정 옵션을 위한 디폴트값 및 기타 변수는 판독 전용 메모리(ROM)(58)에 저장된다. ROM(58)은 또한 모바일 장치(30)의 기본 기능과 기타 오퍼레이팅 시스템 커넬 기능(예컨대, 소프트웨어 컴포넌트의 RAM(54)으로의 로딩)을 제어하는 상기한 장치용의 오퍼레이팅 시스템 소프트웨어를 저장하는데 이용된다. RAM(54)는 또한 애플리케이션 프로그램을 기록하는데 이용되는 PC 상의 하드드라이브 기능과 유사한 방식으로 코드에 대한 저장부로서 동작한다.Referring to FIG. 2, there is shown in block diagram a functional component with the mobile device 30 described above. Central processing unit (CPU) 50 implements a software control function. The CPU 50 is connected to the display 34 such that text and graphic icons generated under software control appear on the display 34. The CPU 50 is typically connected to a speaker 43 with a digital to analog converter 59 to provide an audible output. The data downloaded or input to the mobile device 30 by the user is stored in the inactive read / write random access memory storage 54 which is bidirectionally connected to the CPU 50. RAM (Random Access Memory) 54 provides active storage for instructions executed by CPU 50 and also provides storage for temporary data such as register values. Default values and other variables for setting options are stored in read-only memory (ROM) 58. ROM 58 is also used to store operating system software for such devices that controls the basic functions of mobile device 30 and other operating system kernel functions (e.g., loading of software components into RAM 54). . RAM 54 also acts as a storage for code in a manner similar to the hard drive function on a PC used to record application programs.

모바일 장치는 CPU(50)에 연결된 무선 트랜시버(52)를 통해 무선 신호를 송신/수신할 수 있다. 컴퓨터(예컨대 데스크톱 컴퓨터)로부터 직접 또는 원하는 경우 유선 네트워크를 통해 데이터를 다운로드하기 위해 옵션의 통신 인터페이스(60)가 구비될 수도 있다. 따라서, 인터페이스(60)는 적외선 링크, 모뎀, 네트워크 카드 등의 각종 형태의 통신장치를 구비할 수 있다.The mobile device may transmit / receive a wireless signal via a wireless transceiver 52 connected to the CPU 50. An optional communication interface 60 may be provided for downloading data directly from a computer (eg, a desktop computer) or via a wired network if desired. Accordingly, the interface 60 may include various types of communication devices such as an infrared link, a modem, a network card, and the like.

모바일폰(30)은 마이크(29), 아날로그/디지털(A/D) 변환기(37), 및 저장부(54)에 저장된 옵션의 스피치 인식 프로그램을 구비한다. 장치(30)의 사용자로부터의 가청 정보, 명령 또는 커맨드에 응답하여, 마이크(29)는 A/D 변환기(37)에 의해 디지털변환된 스피치 신호를 제공한다. 스피치 인식 프로그램은 디지털변환된 스피치 신호에 대해 정규화 및/또는 특징추출 기능을 수행하여 스피치 인식의 중간결과를 획득한다. 스피치 데이터는 무선 트랜시버(52) 또는 통신 인터페이스(60)를 이용하여 도 5의 아키텍처에 도시된 리모트 스피치 서버(204)[이에 대해서는 후술하기로 함]에 송신된다. 그런 다음, 인식 결과는 모바일 장치(30)에서의 렌더링(예컨대, 비주얼 및/또는 가청) 및 웹서버(202)로의 이벤트 송신을 위해 모바일 장치(30)에 리턴되며, 여기서 웹서버(202)와 모바일 장치(30)는 클라이언트/서버 관계로 동작한다.The mobile phone 30 has a microphone 29, an analog / digital (A / D) converter 37, and an optional speech recognition program stored in the storage 54. In response to audible information, commands or commands from the user of the device 30, the microphone 29 provides a speech signal digitally converted by the A / D converter 37. The speech recognition program performs normalization and / or feature extraction on the digitally converted speech signal to obtain an intermediate result of speech recognition. Speech data is transmitted using a wireless transceiver 52 or communication interface 60 to a remote speech server 204 (which will be described later) shown in the architecture of FIG. 5. The recognition result is then returned to the mobile device 30 for rendering on the mobile device 30 (eg, visual and / or audible) and for sending events to the web server 202, where the web server 202 and Mobile device 30 operates in a client / server relationship.

도 3은 2G 폰(81)의 실시예를 평면도로 나타낸 것이다. 폰(81)은 디스플레이(82) 및 키패드(84)를 구비한다. 일반적으로, 폰(81)은 음성 채널(87로 도시됨)을 통한 음성 통화를 행하고 데이터 채널(85로 도시됨)을 통한 디지털 데이터의 송신 및 수신을 행하기 위한 회로를 구비한다. 이러한 타입의 2G 폰은 수많은 제조사로부터 구입할 수 있으며 잘 정의되어 있는 표준 및 프로토콜에 따라서 동작한다. 상기한 회로의 동작과 관련한 상세에 대해서는 본 발명을 이해하는데 필요하지 않을 것으로 생각되므로 생략하기로 한다.3 shows an embodiment of a 2G phone 81 in plan view. Phone 81 has a display 82 and a keypad 84. In general, phone 81 has circuitry for making voice calls over voice channel (shown as 87) and for transmitting and receiving digital data over data channel (shown as 85). This type of 2G phone is available from many manufacturers and operates according to well-defined standards and protocols. Details related to the operation of the circuit described above will be omitted since they are not considered necessary to understand the present invention.

본 발명은 전술한 휴대용 또는 모바일 컴퓨팅 장치뿐만 아니라 범용 데스크톱 컴퓨터와 같은 수많은 다른 컴퓨팅 장치에서도 이용될 수 있다. 예를 들어, 문자 숫자 조합이 모두 구비된 키보드와 같은 다른 통상의 입력 장치로는 조작하기 힘든 경우에도, 상기한 아키텍처(200)는 육체적으로 능력이 제한된 사용자도 컴퓨터 또는 기타 컴퓨팅 장치에 텍스트를 입력할 수 있도록 한다.The invention can be used in many other computing devices such as general purpose desktop computers as well as the portable or mobile computing devices described above. For example, even if it is difficult to operate with other conventional input devices, such as a keyboard equipped with a combination of alphanumeric characters, the architecture 200 can input text to a computer or other computing device, even a physically limited user. Do it.

아래에서는 도 4에 도시된 범용 컴퓨터(120)에 대해 간략히 설명하기로 한다. 그러나, 컴퓨터(120)는 적절한 컴퓨팅 환경의 일례일 뿐이며 본 발명의 용도나 기능의 범위가 이에 국한되는 것은 아니다. 또한, 상기한 컴퓨터(120)는 예시된 컴포넌트들 중 임의의 하나 또는 조합에 관하여 종속되거나 필수조건인 것으로 해석되어서는 안된다. 또한, 퍼스널 컴퓨터(120)도 웹서버(202), 스피치 서버(204), 텔레포니 음성 브라우저(212) 등 - 이에 국한되지 않음 - 과 같은 아키텍처(200)의 다른 컴포넌트에 대한 적절한 오퍼레이팅 환경을 제공할 수 있다.Hereinafter, the general purpose computer 120 illustrated in FIG. 4 will be briefly described. However, computer 120 is only one example of a suitable computing environment and is not limited to the scope of use or functionality of the present invention. In addition, the computer 120 described above should not be construed as being dependent or essential with respect to any one or combination of the illustrated components. Personal computer 120 may also provide a suitable operating environment for other components of architecture 200, such as, but not limited to, web server 202, speech server 204, telephony voice browser 212, and the like. Can be.

본 발명은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 일반적인 의미의 컴퓨터 실행가능 명령으로 기술될 수 있다. 일반적으로, 프로그램 모듈은 특정 태스크를 수행하거나 특정 추상 데이터타입을 구현하는, 루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포함한다. 본 발명은 또한 복수의 태스크가 통신 네트워크를 통해 링크되어 있는 리모트 처리장치들에 의해 수행되는, 분산 컴퓨팅 환경에서 실시될 수도 있다. 분산 컴퓨팅 환경에서는 프로그램 모듈이 메모리 저장장치를 구비한 로컬 및 리모트 컴퓨터 저장매체에 위치할 수 있다. 프로그램 및 모듈에 의해 수행되는 태스크에 대해서는 도면을 참조하여 후술하기로 한다. 본 기술분야의 숙련된 자들이라면 상기한 설명 및 도면을 임의의 형태의 컴퓨터 판독가능 매체에 기록될 수 있는 프로세서 실행가능 명령으로서 구현할 수 있을 것이다.The invention may be described in terms of computer-executable instructions, such as program modules, being executed by a computer. Generally, program modules include routines, programs, objects, components, data structures, etc. that perform particular tasks or implement particular abstract data types. The invention may also be practiced in distributed computing environments where multiple tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote computer storage media including memory storage devices. Tasks performed by the program and the module will be described later with reference to the drawings. Those skilled in the art may implement the above description and drawings as processor executable instructions that may be recorded in any form of computer readable media.

도 4를 참조하면, 컴퓨터(120)의 컴포넌트는 이것에 국한되지는 않지만 처리부(140), 시스템 메모리(150) 및 시스템 버스(141)를 포함하며, 상기한 시스템 버스(141)는 시스템 메모리를 포함한 각종 시스템 컴포넌트를 처리부(140)에 연결시킨다. 시스템 버스(151)는 각종 버스 구조 중 임의의 것을 이용한 메모리 버스 또는 메모리 컨트롤러, 주변 버스, 및 로컬 버스를 포함한 수개의 버스 구조 중 임의의 것일 수 있다. 이것에 국한되지는 않지만 예를 들어, 이러한 구조에는 ISA(Industry Standard Architecture) 버스, USB(Universal Serial Bus), MCA(Micro Channel Architecture) 버스, EISA(Enhanced ISA) 버스, VESA(Video Electronics Standards Association) 로컬 버스 및 PCI(Peripheral Component Interconnect) 버스 - Mezzanine 버스로도 알려져 있음 - 를 포함한다. 컴퓨터(120)는 각종의 컴퓨터 판독가능 매체를 포함하는 것이 일반적이다. 컴퓨터 판독가능 매체는 컴퓨터(120)에 의한 액세스가 가능한 임의의 매체일 수 있으며, 활성 및 불활성 매체, 착탈식 및 비착탈식 매체를 포함한다. 이것에 국한되지는 않지만 예를 들어, 컴퓨터 판독가능 매체는 컴퓨터 저장매체 및 통신매체를 구비할 수 있다. 컴퓨터 저장매체는 컴퓨터 판독가능 명령, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하기 위한 임의의 방법 또는 기술에 의해 구현된 활성 및 불활성, 착탈식 및 비착탈식 매체를 포함한다. 컴퓨터 저장매체로는 이것에 국한되지는 않지만 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 테크놀로지, CD-ROM, DVD(digital versatile disk) 또는 기타 광디스크 스토리지, 마그네틱 카세트, 마그네틱 테이프, 마그네틱 디스크 스토리지 또는 기타 마그네틱 스토리지 장치, 또는 원하는 정보를 저장하고 또한 컴퓨터(120)에 의한 액세스가 가능한 임의의 다른 매체를 포함할 수 있다.Referring to FIG. 4, components of computer 120 include, but are not limited to, processor 140, system memory 150, and system bus 141, which system bus 141 includes system memory. Various system components, including various system components, are connected to the processor 140. The system bus 151 may be any of several bus structures including a memory bus or memory controller using any of a variety of bus structures, a peripheral bus, and a local bus. For example, but not limited to, these structures include Industry Standard Architecture (ISA) buses, Universal Serial Bus (USB), Micro Channel Architecture (MCA) buses, Enhanced ISA (EISA) buses, and Video Electronics Standards Association (VESA). Local bus and Peripheral Component Interconnect (PCI) bus, also known as the Mezzanine bus. Computer 120 typically includes a variety of computer readable media. Computer readable media can be any medium that can be accessed by computer 120 and includes active and inert media, removable and non-removable media. For example, but not limited to, computer readable media may comprise computer storage media and communication media. Computer storage media includes active and inert, removable and non-removable media implemented by any method or technology for storing information such as computer readable instructions, data structures, program modules or other data. Computer storage media includes, but is not limited to, RAM, ROM, EEPROM, flash memory, or other memory technology, CD-ROM, digital versatile disk (DVD) or other optical disk storage, magnetic cassettes, magnetic tape, magnetic disk storage, or other Magnetic storage device, or any other medium that stores desired information and is also accessible by computer 120.

통신매체는 일반적으로 컴퓨터 판독가능 명령, 데이터 구조, 프로그램 모듈, 또는 반송파나 기타 트랜스포트 메커니즘 등의 변조 데이터 신호인 기타 데이터를 구현하고 있으며 임의의 정보전달매체를 포함한다. 여기서, "변조 데이터 신호"는 하나 이상의 특징세트를 갖는 신호 또는 그 신호 내의 정보를 인코딩하는 방식으로 변경된 신호를 의미한다. 이것에 국한되지는 않지만 예를 들어, 통신매체는 유선 네트워크 또는 직접접속 네트워크 등의 유선매체와 어쿠스틱, FR, 적외 및 기타 무선매체 등의 무선매체를 포함한다. 상기한 것들의 임의의 조합도 컴퓨터 판독가능 매체의 범위에 포함될 수 있다.Communication media typically implement computer-readable instructions, data structures, program modules, or other data that is modulated data signals, such as carriers or other transport mechanisms, and includes any information transmission media. Here, "modulated data signal" means a signal that has one or more feature sets or a signal changed in such a manner as to encode information in the signal. For example, but not limited to, communication media includes wired media such as wired or direct access networks and wireless media such as acoustic, FR, infrared and other wireless media. Combinations of any of the above may also be included within the scope of computer readable media.

시스템 메모리(150)는 ROM(151) 및 RAM(152)와 같은 활성 및/또는 불활성 메모리 형태의 컴퓨터 저장매체를 포함한다. 상기한 ROM(151)에는 일반적으로 기동시 등에 컴퓨터(120) 내의 각 엘리먼트들 사이의 정보 교환을 도와주는 BIOS(basic input/output system)(153)가 저장되어 있다. RAM(152)은 일반적으로 처리부(140)에 의해 현재 동작되고 있는 및/또는 직접 액세스가 가능한 데이터 및/또는 프로그램 모듈을 저장하고 있다. 이것에 국한되지는 않지만 예를 들어, 도 4는 오퍼레이팅 시스템(54), 애플리케이션 프로그램(155), 기타 프로그램 모듈(156) 및 프로그램 데이터(157)를 도시하고 있다.System memory 150 includes computer storage media in the form of active and / or inactive memory, such as ROM 151 and RAM 152. The ROM 151 generally stores a basic input / output system (BIOS) 153 that assists in exchanging information between elements in the computer 120 at startup. RAM 152 generally stores data and / or program modules currently being operated by and / or directly accessible by processor 140. For example, but not limited to, FIG. 4 illustrates operating system 54, application program 155, other program module 156, and program data 157.

컴퓨터(120)는 기타 착탈식/비착탈식 활성/불활성 컴퓨터 저장매체를 포함할 수도 있다. 이것에 국한되지는 않지만 예를 들어, 도 4는 비착탈식 불활성 마그네틱 매체에의 판독 또는 기록을 수행하는 하드디스크 드라이브(161), 착탈식 불활성 마그네틱 디스크(172)에의 판독 또는 기록을 수행하는 마그네틱 디스크 드라이브(171), 및 착탈식 불활성 광디스크(176)(예컨대 CD-ROM, 또는 기타 광학 매체)에의 판독 또는 기록을 수행하는 광디스크 드라이브(175)를 도시하고 있다. 예시적 오퍼레이팅 환경에서 사용될 수 있는 다른 착탈식/비착탈식 활성/불활성 컴퓨터 저장매체로는 이것에 국한되지는 않지만 마그네틱 테이프 카세트, 플래시 메모리 카드, DVD, 디지털 비디오 테이프, 솔리드 스테이트 RAM, 솔리드 스테이트 ROM 등을 포하한다. 하드디스크 드라이브(161)는 일반적으로 인터페이스(160)와 같은 불활성 메모리 인터페이스를 통해 시스템 버스(141)에 접속되며, 마그네틱 디스크 드라이브(171) 및 광디스크 드라이브(175)는 일반적으로 인터페이스(170)와 같은 착탈식 메모리 인터페이스에 의해 시스템 버스(141)에 접속된다.Computer 120 may also include other removable / removable active / inactive computer storage media. For example, but not limited to, FIG. 4 shows a hard disk drive 161 that reads or writes to a non-removable inert magnetic medium, and a magnetic disk drive that reads or writes to a removable inert magnetic disk 172. 171, and an optical disc drive 175 that reads or writes to a removable inert optical disc 176 (e.g., CD-ROM, or other optical medium). Other removable / non-removable active / inactive computer storage media that may be used in the exemplary operating environment include, but are not limited to, magnetic tape cassettes, flash memory cards, DVDs, digital video tapes, solid state RAM, solid state ROM, and the like. Embrace it. Hard disk drive 161 is generally connected to system bus 141 through an inactive memory interface, such as interface 160, and magnetic disk drive 171 and optical disk drive 175 are generally such as interface 170. It is connected to the system bus 141 by a removable memory interface.

도 4에 도시된 상기한 드라이브 및 그 관련 컴퓨터 저장매체는 컴퓨터 판독가능 명령, 데이터 구조, 프로그램 모듈 및 컴퓨터(120)용의 기타 데이터에 대한 저장부를 제공한다. 도 4에서, 예를 들어 하드디스크 드라이브(161)는 오퍼레이팅 시스템(164), 애플리케이션 프로그램(165), 기타 프로그램 모듈(166) 및 프로그램 데이터(167)를 저장하고 있는 것으로 도시되어 있다. 여기서, 이들 컴포넌트들은 오퍼레이팅 시스템(154), 애플리케이션 프로그램(155), 기타 프로그램 모듈(156) 및 프로그램 데이터(157)와 동일할 수도 있고 상이한 것일 수도 있다. 오퍼레이팅 시스템(164), 애플리케이션 프로그램(165), 기타 프로그램 모듈(166) 및 프로그램 데이터(167)에 대해 다른 번호를 부여한 것은 이들이 상이한 카피일 수도 있음을 나타내기 위함이다.The drive and associated computer storage media shown in FIG. 4 provide storage for computer readable instructions, data structures, program modules and other data for the computer 120. In FIG. 4, for example, hard disk drive 161 is shown as storing operating system 164, application program 165, other program modules 166 and program data 167. Here, these components may be the same as or different from operating system 154, application program 155, other program module 156, and program data 157. The different numbering of operating system 164, application program 165, other program module 166, and program data 167 is intended to indicate that they may be different copies.

사용자는 키보드(182), 마이크(183) 및 지시장치(181)(예컨대, 마우스, 트랙볼 또는 터치패드 등)와 같은 입력장치를 통해 컴퓨터(120)에 커맨드 및 정보를 입력할 수 있다. 다른 입력장치(도시되지 않음)로는 조이스틱, 게임패드, 위성수신기, 스캐너 등을 포함한다. 이들 및 다른 입력장치는 일반적으로 시스템 버스에 연결된 사용자 입력 인터페이스(180)를 통해 처리부(140)에 연결되지만, 병렬포트, 게임포트 또는 USB와 같은 다른 인터페이스 및 버스구조에 연결될 수도 있다. 시스템 버스(141)에는 또한 비디오 인터페이스(185)와 같은 인터페이스를 통해 모니터(184) 또는 다른 타입의 표시장치가 연결되어 있다. 모니터 외에도, 컴퓨터는 스피커(187) 및 프린터(186)와 같은 다른 주변출력장치를 구비할 수 있으며, 상기한 주변출력장치는 출력 주변 인터페이스(188)를 통해 접속된다.A user may enter commands and information into the computer 120 through input devices such as a keyboard 182, a microphone 183, and a pointer 181 (eg, a mouse, trackball, or touchpad). Other input devices (not shown) include joysticks, game pads, satellite receivers, scanners, and the like. These and other input devices are generally connected to the processor 140 via a user input interface 180 connected to the system bus, but may also be connected to other interfaces and bus structures, such as parallel ports, game ports or USB. The system bus 141 is also connected to a monitor 184 or other type of display via an interface such as a video interface 185. In addition to the monitor, the computer may be provided with other peripheral output devices such as speakers 187 and printer 186, which are connected via an output peripheral interface 188.

컴퓨터(120)는 리모트 컴퓨터(194)와 같은 하나 이상의 리모트 컴퓨터와의 논리접속을 이용하는 네트워크 환경에서 동작할 수 있다. 리모트 컴퓨터(194)는 퍼스널 컴퓨터, 핸드헬드 장치, 서버, 라우터, 네트워크 PC, 피어 장치 또는 커먼(common) 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(120)와 관련하여 전술한 바 있는 다수 또는 모든 엘리먼트를 포함한다. 도 4에 도시된 논리 접속부는 LAN(191) 및 WAN(193)을 포함하며 다른 네트워크를 포함할 수도 있다. 이러한 네트워크 환경은 사무실, 거대 컴퓨터 네트워크, 인트라넷 및 인터넷에서 흔히 볼 수 있다.Computer 120 may operate in a network environment utilizing logical connections with one or more remote computers, such as remote computer 194. Remote computer 194 may be a personal computer, handheld device, server, router, network PC, peer device, or common network node, and generally, many or all of the elements described above with respect to computer 120. It includes. The logical connection shown in FIG. 4 includes a LAN 191 and a WAN 193 and may include other networks. Such network environments are commonplace in offices, large computer networks, intranets and the Internet.

LAN 네트워크 환경에서 사용하는 경우, 컴퓨터(120)는 네트워크 인터페이스 또는 어댑터(190)를 통해 LAN(191)에 연결된다. WAN 네트워크 환경에서 사용하는 경우, 컴퓨터(120)는 일반적으로 인터넷과 같은 WAN(193)을 통한 통신을 확립하기 위한 모뎀 또는 기타 수단을 포함한다. 내장형 또는 외장형의 모뎀(192)은 사용자 입력 인터페이스(180) 또는 기타 적절한 메커니즘을 통해 시스템 버스(141)에 연결된다. 네트워크 환경에서, 컴퓨터(120)와 관련하여 도시한 컴퓨터 모듈 또는 그 일부는 리모트 메모리 저장장치에 저장될 수 있다. 이것에 국한되지는 않지만 예를 들어, 도 4에서는 리모트 애플리케이션 프로그램(195)이 리모트 컴퓨터(194)에 위치하는 것으로 도시하고 있다. 여기서, 도시된 네트워크 접속부는 예시를 위한 것이며 컴퓨터들 사이에 통신을 확립하기 위한 다른 수단이 사용될 수도 있다.When used in a LAN network environment, the computer 120 is connected to the LAN 191 via a network interface or adapter 190. When used in a WAN network environment, computer 120 generally includes a modem or other means for establishing communications over WAN 193, such as the Internet. Internal or external modem 192 is coupled to system bus 141 via user input interface 180 or other suitable mechanism. In a networked environment, computer modules depicted relative to the computer 120, or portions thereof, may be stored in remote memory storage. For example, but not limited to this, the remote application program 195 is shown as being located in the remote computer 194. Here, the network connection shown is for illustration and other means for establishing communication between computers may be used.

도 5는 본 발명에 이용될 수 있는 웹기반 스피치 인식을 위한 아키텍처(200)를 도시한 것이다. 전술한 바와 같이, 웹서버(202)에 저장된 정보는 모바일폰(30), 심플 폰(80) 또는 2G 폰(81)을 통해 액세스될 수 있다. 상기한 아키텍처(200) 및 이것에 사용된 마크업 랭기지에 대해서는 미국특허출원 제2002-0169806호(2002.11.14)에 보다 상세히 설명되어 있다.5 illustrates an architecture 200 for web-based speech recognition that may be used in the present invention. As described above, the information stored in the web server 202 can be accessed through the mobile phone 30, the simple phone 80 or the 2G phone 81. The architecture 200 and the markup language used therein are described in more detail in US Patent Application 2002-0169806 (Nov. 14, 2002).

일반적으로, 장치(30)부터 살펴보면, 장치(30)는 웹서버(202)에 의해 제공된 HTML+ 스크립트 등을 실행한다. 음성 인식이 필요한 경우 전술한 바와 같이 장치(30)에 의해 전처리된 디지털변환된 오디오 신호일 수 있는 스피치 데이터 또는 스피치 특징이 스피치 인식 중에 사용할 문법 또는 랭기지 모델의 표시와 함께 스피치 서버(204)에 제공된다. 스피치 서버(204)의 구현은 다양한 형태를 취할 수 있지만 그 중의 하나만을 도시하고 있으며, 일반적으로 음성 인식기(211)를 포함한다. 스피치 인식의 결과는 필요한 경우 로컬 렌더링을 위해 상기한 장치(30)에 리턴되어 제공된다. 임의의 GUI(graphic user interface) - 사용된 경우 - 및 음성 인식을 통한 정보의 컴파일(compilation) 과정 중에, 장치(30)는 필요한 경우 추가의 처리 및 추가의 HTML 스크립트 수신을 위해 상기한 정보를 웹서버(202)에 송신한다.In general, referring to the device 30, the device 30 executes HTML + scripts or the like provided by the web server 202. If speech recognition is required, speech data or speech features, which may be digitally converted audio signals preprocessed by the device 30 as described above, are provided to the speech server 204 along with an indication of the grammar or language model to use during speech recognition. . The implementation of speech server 204 may take a variety of forms, but only one of which is shown, and generally includes a speech recognizer 211. The results of speech recognition are provided back to the device 30 for local rendering as needed. During any graphical user interface (GUI)-if used-and during the compilation process of the information via speech recognition, the device 30 provides the web with the above information for further processing and further HTML script reception, if necessary. Send to server 202.

도 5에 도시된 바와 같이, 장치(30), 2G 폰(81), 웹서버(202), 텔레포니 음성 브라우저(212) 및 스피치 서버(204)는 공통 연결되어 있으며 네트워크(205)를 통해 개별적으로 어드레스할 수 있다(상기한 네트워크는 도 5에서 인터넷과 같은 WAN임). 따라서 이들 장치가 서로 물리적으로 인접하여 배치될 필요는 없다. 특히 웹서버(202)가 스피치 서버(204)를 구비하고 있을 필요는 없다. 이와 같이, 웹서버(202)에서의 프로그래밍(authoring)에 있어서는, 프로그래머(author)가 스피치 서버(204)의 상세(intricacies)를 알고 있을 필요가 없으며 자신이 의도하는 애플리케이션에 프로그래밍(authoring)을 집중할 수 있다. 오히려, 스피치 서버(204)는 독립 설계가 가능하며 네트워크(205)에 독립적으로 연결될 수 있으며, 따라서 웹서버(202)에서의 추가 변경의 필요없이 업데이트 및 개량이 가능하게 된다. 또한 스피치 서버(204)는 다수의 클라이언트 장치(30), 폰(80 및 81) 및/또는 웹서버(202)를 서비스할 수 있다.As shown in FIG. 5, the device 30, the 2G phone 81, the web server 202, the telephony voice browser 212 and the speech server 204 are commonly connected and individually via the network 205. Addressable (the network is a WAN, such as the Internet in FIG. 5). Thus, these devices do not need to be physically adjacent to each other. In particular, the web server 202 need not be provided with the speech server 204. As such, in authoring in the web server 202, the author does not need to know the intricacies of the speech server 204 and concentrates the authoring on the intended application. Can be. Rather, the speech server 204 can be standalone design and can be connected independently to the network 205, thus allowing updates and improvements without the need for further changes in the web server 202. Speech server 204 may also service multiple client devices 30, phones 80 and 81, and / or web servers 202.

또다른 실시예에 있어서, 웹서버(202), 스피치 서버(204) 및 클라이언트(30)는 구현 머신의 능력에 따라서 결합 구성될 수 있다. 예를 들어, 클라이언트가 범용 컴퓨터, 예컨대 퍼스널 컴퓨터를 구비하고 있다면 클라이언트는 스피치 서버(204)를 포함하고 있을 것이다. 마찬가지로, 필요하다면 웹서버(202)와 스피치 서버(204)를 하나의 머신에 통합할 수도 있다.In another embodiment, web server 202, speech server 204 and client 30 may be combined in accordance with the capabilities of the implementation machine. For example, if the client had a general purpose computer, such as a personal computer, the client would include speech server 204. Similarly, web server 202 and speech server 204 may be integrated into a single machine if desired.

클라이언트 장치(30)에 관하여, 클라이언트/서버 시스템에서의 음성 인식 처리 방법은, 서버(202)로부터 클라이언트 장치의 사용자로부터 스피치 데이터를 획득하도록 설정된 확장자를 갖는 마크업 랭기지 페이지를 수신하는 단계; 마크업 랭기지 페이지를 클라이언트 장치에서 실행하는 단계; 클라이언트로부터 원격지에 있는 스피치 서버에 [사용자로부터 획득한 스피치를 나타내는] 스피치 데이터 및 관련 문법을 송신하는 단계; 및 스피치 서버로부터의 인식 결과를 클라이언트가 수신하는 단계를 포함한다. 클라이언트/서버 시스템 내의 클라이언트 장치에서의 실행을 위한 마크업 랭기지를 갖는 컴퓨터 판독가능 매체가 제공될 수 있으며, 상기한 마크업 랭기지는 클라이언트 장치를 통해 입력된 스피치와 연관될 문법을 지시하는 명령을 포함한다.Regarding the client device 30, a method of processing speech recognition in a client / server system includes receiving a markup language page with an extension configured to obtain speech data from a user of the client device from the server 202; Executing a markup language page on the client device; Transmitting speech data and associated grammars (representing speech obtained from a user) from a client to a speech server remote from the client; And the client receiving the recognition result from the speech server. A computer readable medium may be provided having a markup language for execution at a client device in a client / server system, wherein the markup language includes instructions for indicating a grammar to be associated with speech input through the client device. do.

폰(80)을 통한 웹서버(202)에의 액세스는, 폰(80)을 유선 또는 무선 전화 네트워크(208)에 연결하고 또한 폰(80)을 3rd 파티 게이트웨이(210)에 연결하는 것을 포함한다. 게이트웨이(210)는 폰(80)을 텔레포니 음성 브라우저(212)에 연결시킨다. 텔레포니 음성 브라우저(212)는 텔레포니 인터페이스 및 음성 브라우저(216)를 제공하는 미디어 서버(214)를 포함한다. 장치(30)와 마찬가지로, 텔레포니 음성 브라우저(212)는 웹서버(202)로부터 HTML 스크립트 등을 수신한다. 여기서 중요한 것은, HTML 스크립트가 장치(30)에 제공된 것과 유사한 형태로 되어 있다는 것이다. 이와 같이, 웹서버(202)는 장치(30) 및 폰(80)을 개별적으로 서포트하거나 표준 GUI 클라이언트를 개별적으로 서포트할 필요가 없다. 오히려, 커먼(common) 마크업 랭기지가 사용될 수 있다. 또한, 장치(30)와 마찬가지로, 폰(80)에 의해 송신된 가청 신호에 대한 음성 인식은 네트워크(205)를 통하거나 또는 예컨대 TCP/IP를 이용한 전용선(207)을 통해 음성 브라우저(216)로부터 스피치 서버(204)에 제공된다. 인식 결과 및 기타 정보는 텔레포니 음성 브라우저(212) 및 폰(80)을 통해 사용자에게 청취가능하도록 렌더링되어 리턴된다.Access to the web server 202 via the phone 80 includes connecting the phone 80 to a wired or wireless telephone network 208 and also connecting the phone 80 to a 3rd party gateway 210. Gateway 210 connects phone 80 to telephony voice browser 212. Telephony voice browser 212 includes a media server 214 that provides a telephony interface and voice browser 216. Similar to the device 30, the telephony voice browser 212 receives HTML scripts and the like from the web server 202. What is important here is that the HTML script is in a form similar to that provided in the device 30. As such, the web server 202 does not need to individually support the device 30 and the phone 80 or individually support a standard GUI client. Rather, common markup languages can be used. In addition, as with the device 30, voice recognition of the audible signal transmitted by the phone 80 may be received from the voice browser 216 via the network 205 or via a dedicated line 207 using, for example, TCP / IP. It is provided to the speech server 204. The recognition result and other information are rendered and returned to be audible to the user via the telephony voice browser 212 and the phone 80.

상기한 바와 같이, HTML, XHTML, cHTML, XML, WML, 또는 임의의 다른 SGML 파생 마크업과 같은 마크업 랭기지는 클라이언트/서버 아키텍처에서 스피치 인식을 제공하는 컨트롤 및/또는 오브젝트를 포함할 수 있다. 이와 같이, 프로그래머는 이러한 아키텍처에서 이용되는 지배적인 웹개발 플랫폼인 이들 마크업 랭기지에서의 모든 툴과 전문지식을 이용할 수 있게 된다.As noted above, markup languages such as HTML, XHTML, cHTML, XML, WML, or any other SGML derived markup may include controls and / or objects that provide speech recognition in a client / server architecture. As such, programmers will have access to all the tools and expertise at these markup languages, the dominant web development platform used in this architecture.

일반적으로, 컨트롤 및/또는 오브젝트에는 하기의 펑션 중 하나 이상을 포함한다: 인식기 설정, 실행 및/또는 후처리를 위한 인식기 컨트롤 및/또는 오브젝트; 합성기 설정 및 프롬프트 플레이를 위한 합성기 컨트롤 및/또는 오브젝트; 입력 문법 리소스 규정을 위한 문법 컨트롤 및/또는 오브젝트; 및 인식결과의 처리를 위한 바인딩 컨트롤 및/또는 오브젝트. 이러한 확장은 경량 마크업 레이어가 되도록 하기 위해 고안된 것으로, 기존의 마크업 랭기지에 스피치 인터페이스의 능력을 추가한 것이다. 따라서, 이러한 확장은 자신이 속한 하이레벨 페이지(예컨대 HTML); 상기 확장이 언어관련(linguistic) 리소스를 참조하는데 이용하는 로우레벨 포맷(예컨대 텍스트 투 스피치 및 문법 포맷); 및 스피치 서버(204)에서 이용하는 스피치 합성 플랫폼 및 상기한 인식의 개별 속성에 독립적으로 존재한다.In general, controls and / or objects include one or more of the following functions: recognizer controls and / or objects for identifier setup, execution, and / or post-processing; Synthesizer controls and / or objects for synthesizer setup and prompt play; Grammar controls and / or objects for defining input grammar resources; And binding controls and / or objects for processing recognition results. This extension is designed to be a lightweight markup layer, adding the capabilities of the speech interface to existing markup languages. Thus, such an extension may include a high level page (eg HTML) to which it belongs; A low level format (eg, text to speech and grammar format) that the extension uses to refer to linguistic resources; And the speech synthesis platform used by speech server 204 and the individual attributes of the foregoing recognition.

여기서 주목할 점은, 본 발명은 SALT(speech application language tags)와 같은 마크업 랭기지 확장자를 이용하여 구현될 수 있다는 것이다. SALT는 예를 들어 퍼스널 컴퓨터, 전화, 테블릿 PC 및 무선 모바일 장치로부터 정보, 애플리케이션 및 웹서버로의 액세스를 가능하게 하기 위한 개발 표준이다. SALT는 HTML, XHTML 및 XML 등의 기존 마크업 랭기지에도 확장된다. SALT 1.0 사양은 온라인(http://www.SALTforum.org)으로 찾을 수 있다.It should be noted here that the present invention can be implemented using markup language extensions such as speech application language tags (SALT). SALT is a development standard for enabling access to information, applications and web servers, for example, from personal computers, telephones, tablet PCs and wireless mobile devices. SALT extends existing markup languages such as HTML, XHTML, and XML. The SALT 1.0 specification can be found online at http://www.SALTforum.org.

전술한 바와 같이 아키텍쳐(200)에는 2G 폰(81)을 통한 멀티모드 인터렉션이 제공된다. 일반적으로, 멀티모드 인터렉션은 사용자의 희망에 따라 자연스런 방식으로 웹서버(202)로부터 정보의 액세스를 허용한다. 특히, 키패드 조작에 의한 텍스트 형태의 커맨트를 제공하고 그 결과를 비주얼 표시 텍스트로서 수신하는 것이 아니라, 사용자는 입력 매체로서 스피치를 제공하여 그 결과를 비주얼 또는 원하는 경우 합성된 스피치로서 수신할 것을 선택할 수 있다. 그러나, 2G 폰(81)과 같은 장치는 제한된 처리 능력과 잘 알려진 바와 같이 요구조건을 갖기 때문에, 인터넷과 같은 네트워크에의 연결을 위한 데이터 채널이 존재하고 통화를 행하기 위한 별도의 음성 채널을 구비되더라도, 이들 채널은 동시에 액세스될 수 없다. 그 결과, 데이터 및 음성 채널을 필요로 하는 멀티모드 인터렉션이 순차 멀티모드로서 알려진 바와 같이 순차적으로 수행되어야 한다. 그러나, 전술한 아키텍처(200) 및 후술하게 될 방법은 웹서버(202)와의 순차 멀티모드 인터렉션을 제공하는데 이용할 수 있다. 상기한 아키텍처에 2G 폰(81)을 통합하는 경우, 웹서버(202)에의 액세스가 장치(30) 또는 폰(80)과 같은 다른 장치와 일치(consistent)하므로, 장치(30) 및 폰(80)에 추가하여 2G 폰(81)을 서포트하기 위하여 웹서버(202) 및 여기서 동작하는 애플리케이션을 근본적으로(drastically) 변경할 필요없어 특히 유용하다. 이와 같이, 애플리케이션 개발자는 정보를 액세스할 수 있는 각각의 장치를 서포트하기 위하여 개별 애플리케이션을 제공해야 하는 부담을 덜 수 있을뿐만 아니라, 능력이 서로 다른 다수의 상이한 장치들을 서포트할 수 있는 보다 일원화된 코드를 제공할 수 있게 된다.As described above, the architecture 200 is provided with multimode interaction via the 2G phone 81. In general, multimode interactions allow access of information from web server 202 in a natural manner as desired by the user. In particular, rather than providing commands in the form of text by keypad operation and receiving the results as visual display text, the user may choose to provide speech as an input medium and receive the results as visual or synthesized speech if desired. have. However, devices such as 2G phones 81 have limited processing power and requirements as is well known, so that there is a data channel for connection to a network such as the Internet and a separate voice channel for making calls. Even if these channels cannot be accessed at the same time. As a result, multimode interactions requiring data and voice channels must be performed sequentially as known as sequential multimode. However, the architecture 200 described above and the methods described below may be used to provide sequential multimode interaction with the web server 202. Incorporating the 2G phone 81 into the architecture described above, since access to the web server 202 is consistent with other devices such as the device 30 or the phone 80, the device 30 and the phone 80 Is particularly useful as it does not need to drastically change the web server 202 and the application running therein to support the 2G phone 81. As such, application developers can not only relieve the burden of providing individual applications to support each device that can access the information, but also a more unified code that can support many different devices with different capabilities. Can be provided.

도 6은 2G 폰(81)에 적용될 수 있는 순차 멀티모드 시나리오를 나타낸 것으로, 스피치 인식 결과가 WML/XHTML 페이지를 이용하여 텍스트 형태로 WAP를 통해 제시된다.6 shows a sequential multimode scenario that can be applied to a 2G phone 81, where speech recognition results are presented via WAP in text form using WML / XHTML pages.

무선 애플리케이션 프로토콜(WAP)은 공개된 공지의 사용으로서, 이는 사용자로 하여금 모바일폰을 통해 정보를 액세스하고 모바일폰의 디스플레이(82)에 콘텐트 및 심플 그래픽을 표시할 수 있도록 한다. WAP는 음성에 의한 인터렉트 능력이 결여되어 있으며 또한 그 입력은 일반적으로 대부분의 모바일폰에서 12개의 키로 제한된다.Wireless Application Protocol (WAP) is a publicly known use that allows a user to access information through a mobile phone and display content and simple graphics on the display 82 of the mobile phone. WAP lacks voice interactive capability and its input is generally limited to 12 keys on most mobile phones.

알려진 바와 같이, 2G 폰(81)에서도 전세계에서 채용되고 있는 모바일 서비스인 SMS(단문 메시지 서비스)를 지원하며 이 서비스에 의해 무선장치에 문자 숫자 조합의 메시지를 송신할 수 있다.As is known, the 2G phone 81 also supports SMS (Short Message Service), which is a mobile service that is being adopted around the world, which can send a combination of alphanumeric messages to a wireless device.

도 7a 및 도 7b는 2G 폰(81)으로 순차 멀티모드 스피치 인식을 수행하기 위한 방법(300)의 예시적 단계들을 나타낸 것이다.7A and 7B illustrate exemplary steps of a method 300 for performing sequential multimode speech recognition with a 2G phone 81.

도시된 예에서, 단계 304에서는 항공 예약을 위한 애플리케이션에 액세스하기 위해 도 6의 화살표 302로 표시된 최초 요청이 웹서버(202)에 전달되는 것으로 가정한다.In the example shown, it is assumed in step 304 that the initial request, indicated by arrow 302 in FIG. 6, is forwarded to web server 202 to access an application for flight reservation.

단계 306에서 웹서버(202)는 2G 폰(81)에 소정의 페이지를 제공하며(화살표 307), 본 예에서는 상기 페이지는 출발 도시의 지정을 위한 텍스트박스 또는 데이터 필드 입력을 위한 다른 표시뿐만 아니라, 출발 주(state)의 지정을 위한 텍스트박스 또는 데이터 필드 입력을 위한 다른 표시를 포함한다. 이들 필드는 도 8에서 308 및 310으로 도시되어 있다. 상기한 웹페이지는 무선 WAP/SMS 데이터 채널(85)을 통해 웹서버로부터 2G 폰으로의 송신된다.In step 306 the web server 202 provides a predetermined page to the 2G phone 81 (arrow 307), which in this example is not only a textbox for specifying the departure city, but also another indication for data field entry. , A textbox for specifying the starting state or other marking for data field entry. These fields are shown at 308 and 310 in FIG. 8. The web page is transmitted from the web server to the 2G phone via the wireless WAP / SMS data channel 85.

종래의 2G 폰에서는 사용자가 상기한 각 텍스트박스 또는 데이터 필드(308, 310)에 텍스트를 입력하기 위한 옵션을 구비하고 있었다. 그러나, 2G 폰에서는 사용자가 이용할 수 있는 키패드(84) 상의 키가 12개로 제한되는 것이 일반적이므로, 각각의 커먼 문자 숫자 조합 심볼을 제공하기 위해 조작해야 한다.In a conventional 2G phone, a user has an option for inputting text into each of the text boxes or data fields 308 and 310 described above. However, in 2G phones it is common to limit the number of keys on the keypad 84 available to the user to twelve, so they must be manipulated to provide each common alphanumeric combination symbol.

본 발명에서는 사용자가 각 데이터 필드(308, 310)에 따른 스피치 입력을 제공할 수 있으므로 제한된 키패드(84)를 조작하는 번거로움을 배제할 수 있다.In the present invention, the user can provide speech input according to the respective data fields 308 and 310, thereby eliminating the trouble of manipulating the limited keypad 84.

단계 312에서 사용자는 스피치 입력을 제공할 것이라는 표시를 제공한다. 이 표시는 키패드(84) 중 하나의 키를 누르거나 2G 폰(81) 상의 특정 버튼(89)을 누르는 형태로 제공될 수 있다. 그러나, 다른 형태의 표시로서 2G 폰(81)내에서 처리 및 인식이 가능한 선정된 음성 커맨드를 포함할 수 있다.In step 312 the user provides an indication that he will provide speech input. This indication may be provided in the form of pressing one of the keypads 84 or pressing a particular button 89 on the 2G phone 81. However, other forms of display may include a predetermined voice command that can be processed and recognized within the 2G phone 81.

단계 314에서 2G 폰(81)은 도 6의 화살표 316으로 표시된 바와 같이 텔레포니 음성 브라우저(212)와 음성 통화를 시발한다. 단계 318에서 텔레포니 음성 브라우저(212)에 접속된 다음, 텔레포니 음성 브라우저(212)는 단계 306에서 이전에 송신된 웹페이지에 따라서 상기한 웹서버(202)로부터 음성 인식을 위한 태그 결합된 스피치-인이에블 웹페이지를 요청한다. 이는 화살표 320으로 표시되어 있다. 일 실시예에서, 화살표 323으로 표시된 바와 같이, 단계 321에서 텔레포니 음성 브라우저(212)에 제공되게 될 올바른 웹페이지는 웹서버(202)에 의해 2G 폰(81) 상의 상기한 페이지와 결합된 폰번호 또는 다른 심볼 식별자를 통해 확정되게 된다. 그러면, 웹서버(202)는 상기한 폰번호 또는 기타 식별자를 통해 데이터 채널(85)을 통해 2G 폰(81)에 직접 송신된 올바른 페이지들의 결합뿐만 아니라, 웹서버(202)와 텔레포니 음성 브라우저(212) 사이에 송신된 페이지들을 보유할 수 있게 된다. 웹서버(202)로부터 텔레포니 음성 브라우저(212)에 송신된 페이지는 단계 306의 웹페이지에 대해 2G 폰(81)에 송신된 데이터 필드의 스피치 인식에 필요한 모든 문법 또는 표시를 구비하게 된다.In step 314 the 2G phone 81 initiates a voice call with the telephony voice browser 212 as indicated by arrow 316 in FIG. After being connected to the telephony voice browser 212 at step 318, the telephony voice browser 212 is tagged-speech for speech recognition from the web server 202 described above according to the webpage previously sent at step 306. Request a web page. This is indicated by arrow 320. In one embodiment, as indicated by arrow 323, the correct web page to be provided to the telephony voice browser 212 in step 321 is the phone number associated with the page on the 2G phone 81 by the web server 202. Or via another symbol identifier. Then, the web server 202 may not only combine the correct pages sent directly to the 2G phone 81 via the data channel 85 via the phone number or other identifier, but also the web server 202 and the telephony voice browser ( It is possible to retain pages transmitted between 212). The page sent from the web server 202 to the telephony voice browser 212 will have all the grammar or indication necessary for speech recognition of the data field sent to the 2G phone 81 for the web page of step 306.

상기한 텔레포니 음성 브라우저(212)가 음성 채널(87)을 통해 사용자로부터의 스피치를 수신할 수 있는 경우에는, 단계 324에서 사용자는 상기한 필드에 대한 스피치를 제공한다. 여기서 주목할 점은, 일 실시예에서는 사용자의 스피킹 개시를 프롬프트하기 위하여 톤 또는 음성 커맨드와 같은 적절한 프롬프트가 텔레포니 음성 브라우저(212)에 의해 사용자에게 제공될 수 있다는 것이다. 텔레포니 음성 브라우저(212)는 웹서버(202)로부터 대응하는 스피치-인에이블 페이지를 수신한 대에 상기한 프롬프트를 시발할 수 있다. 그러나 다른 실시예에서는 텔레포니 음성 브라우저(212)가 상기한 스피치-인에이블 웹페이지의 수신 전에 상기한 프롬프트를 제공하고, 단계 312에서 사용자가 스피치의 제공을 표시한 때부터 단계 324에서 스피치를 실제로 제공할 때까지의 시간을 최소화하기 위하여, 수신한 스피치를 적절한 버퍼 또는 기타 저장 장치에 일시 저장하고 있다. If the telephony voice browser 212 can receive speech from the user via the voice channel 87, then at step 324 the user provides speech for the field. Note that, in one embodiment, a suitable prompt, such as a tone or voice command, may be provided to the user by the telephony voice browser 212 to prompt the user to initiate speaking. The telephony voice browser 212 may initiate the above prompt upon receiving the corresponding speech-enabled page from the web server 202. However, in another embodiment, the telephony voice browser 212 provides the prompt above prior to the reception of the speech-enabled webpage, and actually provides speech in step 324 since the user indicated the provision of speech in step 312. In order to minimize the time required to do so, the received speech is temporarily stored in an appropriate buffer or other storage device.

입력된 스피치는 스피치 서버(202)를 이용하여 폰(80)에 의한 동작과 관련하여 전술한 것과 대체적으로 동일한 방식으로 처리된다. 특히 텔레포니 음성 브라우저(212)는 화살표 328로 표시된 바와 같이 단계 326에서 입력된 스피치를 스피치 서버(204)에 제공한다. 스피치 서버(204)는 인식을 수행하고, 그 결과는 도 6의 화살표 332로 표시된 바와 같이 단계 330에서 웹서버(202)에 재송신된다.The input speech is processed using the speech server 202 in much the same manner as described above in connection with the operation by the phone 80. In particular, the telephony voice browser 212 provides the speech server 204 input in step 326 as indicated by arrow 328. Speech server 204 performs the recognition, and the result is retransmitted to web server 202 in step 330 as indicated by arrow 332 in FIG.

웹서버(202)는 2G 폰(81)과 연관된 폰번호 또는 기타 식별자에 따라서 인식된 결과를 수신한다. 단계 340에서 웹서버(202)는 도 6의 화살표 342로 표시된 바와 같이 데이터 채널(85)을 이용하여 SMS 메시지를 2G 폰(81)에 제공한다. 상기한 SMS 메시지가 인식 결과를 포함하고 있을 수도 있지만, 다른 실시예에서는 상기한 SMS 메시지가 웹페이지의 어드레스(예컨대 URL 링크)로 구성된다. SMS 메시지를 수신하게 되면, 단계 344에서 사용자 또는 사용자 에이전트는 데이터 채널을 분명하게 또는 불분명하게 이용하여, 화살표 346으로 표시된 바와 같이, 인식 결과를 포함하는 업데이트된 웹페이지를 검색하며, 텔레포니 음성 브라우저(212)에의 음성 통화는 차단된다. 또다른 실시예에서, 상기한 음성 채널의 차단은 텔레포니 서버가 음성 브라우저 페이지 상의 모든 필요한 정보를 수집한 후에 상기 텔레포니 서버에 의해 수행될 수 있다.The web server 202 receives the recognized result according to the phone number or other identifier associated with the 2G phone 81. In step 340 the web server 202 provides the SMS message to the 2G phone 81 using the data channel 85 as indicated by arrow 342 in FIG. Although the SMS message may contain a recognition result, in another embodiment, the SMS message consists of an address (eg, a URL link) of a web page. Upon receipt of the SMS message, in step 344 the user or user agent uses the data channel explicitly or unambiguously to retrieve the updated webpage containing the recognition results, as indicated by arrow 346, and then to the telephony voice browser ( The voice call to 212 is blocked. In another embodiment, the blocking of the voice channel may be performed by the telephony server after the telephony server has collected all the necessary information on the voice browser page.

다음으로, 단계 348에서 웹서버(202)는 화살표 350으로 표시된 바와 같이 인식 결과를 구비한 2G 폰(81)에 새로운 페이지를 제공한다. 도 9는 사용자가 제공한 스피치 입력에 기초하여 스피치 인식 결과가 추가된 텍스트박스(308 및 310)를 나타낸 것이다. Next, in step 348 the web server 202 presents a new page to the 2G phone 81 with the recognition result as indicated by arrow 350. 9 illustrates text boxes 308 and 310 to which a speech recognition result is added based on a speech input provided by a user.

이상 2G 폰에서의 스피치 입력을 제공하는 순차 멀티모드 동작을 설명하였다. 도 5에 도시된 아키텍쳐는 도 7a 및 도 7b에 도시된 방법의 각 동작을 반복 수행함으로써, 2G 폰(81)의 제한된 능력 하에서 효과적인 스피치 인터렉션을 제공하기 위하여 웹페이지에 연관된 다른 필드, 또는 다른 웹페이지에 연관된 필드들에 대한 스피치 입력을 제공할 수 있도록 한다.The sequential multimode operation of providing speech input in a 2G phone has been described above. The architecture shown in FIG. 5 repeats each operation of the method shown in FIGS. 7A and 7B, thereby providing other fields associated with a web page, or other web, to provide effective speech interaction under the limited capabilities of the 2G phone 81. Allows you to provide speech input for fields associated with the page.

이상, 본 발명을 특정 실시예에 관하여 설명하였지만, 본 기술분야의 숙련된 자들이라면 본 발명의 사상 및 범주를 일탈하지 않는 범위 내에서 그 형태나 상세에 있어서 각종의 변경이 가능함을 이해할 것이다.As mentioned above, although this invention was demonstrated with respect to the specific Example, those skilled in the art will understand that various changes are possible in the form and the detail within the range which does not deviate from the mind and range of this invention.

전술한 바와 같이, 본 발명에 따르면, 서버/클라이언트 아키텍처에서 특히 2G 폰과 같은 장치에 대한 서버 정보를 액세스하는데 유용한 아키텍처 및 방법이 제공된다.As noted above, the present invention provides an architecture and method that is useful in server / client architecture, particularly for accessing server information for devices such as 2G phones.

도 1은 컴퓨팅 장치의 오퍼레이팅 환경을 나타낸 평면도.1 is a plan view illustrating an operating environment of a computing device.

도 2는 도 1의 컴퓨팅 장치의 블록도. 2 is a block diagram of the computing device of FIG. 1.

도 3은 2G 휴대폰의 평면도.3 is a plan view of a 2G mobile phone.

도 4는 범용 컴퓨터의 블록도.4 is a block diagram of a general purpose computer.

도 5는 클라이언트/서버 시스템의 아키텍처를 나타낸 블록도.5 is a block diagram illustrating the architecture of a client / server system.

도 6은 순차 멀티모드 인터렉션을 제공하도록 도 5의 아키텍처의 구성요소들에 제공된 접속을 나타낸 블록도.6 is a block diagram illustrating a connection provided to the components of the architecture of FIG. 5 to provide sequential multimode interaction.

도 7a 및 도 7b는 순차 멀티모드 인터렉션을 제공하기 위한 방법의 일례를 설명하기 위한 흐름도.7A and 7B are flow charts illustrating an example of a method for providing sequential multimode interaction.

도 8은 2G 폰에 렌더링되는 텍스트 박스의 일례를 나타낸 도면.8 shows an example of a text box rendered on a 2G phone.

도 9는 2G 폰에 인식 결과가 렌더링된 텍스트 박스의 일례를 나타낸 도면.9 illustrates an example of a text box in which a recognition result is rendered in a 2G phone.

〈도면의 주요부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

30: 클라이언트30: Client

80: 심플 폰80: simple phone

81: 2G 폰81: 2G phone

202: 웹서버 202: web server

204: 스피치 서버204: Speech server

205: PSDN205: PSDN

206: 웹페이지206: webpage

210: 3rd 파티 VOIP 게이트웨이210: 3rd party VOIP gateway

212: 텔레포니 음성 브라우저212 telephony voice browser

214: 미디어 서버214: media server

216: 음성 브라우저216: voice browser

220: 랭기지 모델220: Langgigi model

220: 랭기지 모델220: Langgigi model

Claims (18)

2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법 - 상기 2G 폰은 데이터 송신용의 데이터 채널과 스피치 송신용의 음성 채널을 구비함 - 에 있어서,A method of interacting a 2G mobile phone with a client / server architecture, wherein the 2G phone has a data channel for data transmission and a voice channel for speech transmission. 상기 데이터 채널을 통해 애플리케이션에 따라서 웹서버로부터 웹페이지를 수신하여 상기 웹페이지를 상기 2G 폰에 렌더링하는 단계;Receiving a web page from a web server according to an application through the data channel and rendering the web page to the 2G phone; 상기 웹페이지 상의 적어도 하나의 데이터 필드에 대응하는 사용자로부터 스피치를 수신하는 단계;Receiving speech from a user corresponding to at least one data field on the webpage; 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)를 확립 - 상기 텔레포니 서버는 상기 2G 폰으로부터 원격지에 위치하며 스피치를 처리하도록 구성됨 - 하는 단계;Establishing a call from the 2G phone to a telephony server over the voice channel, the telephony server being located remotely from the 2G phone and configured to handle speech; 상기 2G 폰에 제공된 상기 웹페이지에 대응하는 웹서버로부터 스피치 인에이블(speech-enabled) 웹페이지를 획득하는 단계;Obtaining a speech-enabled web page from a web server corresponding to the web page provided to the 2G phone; 상기 스피치를 상기 2G 폰으로부터 상기 텔레포니 서버에 송신하는 단계;Transmitting the speech from the 2G phone to the telephony server; 상기 스피치 인에이블 웹페이지에 따라서 상기 스피치를 처리하여 상기 스피치에 따른 텍스트 데이터를 획득하는 단계;Processing the speech according to the speech enable web page to obtain text data according to the speech; 상기 텍스트 데이터를 상기 웹서버에 송신하는 단계; 및Transmitting the text data to the web server; And 상기 데이터 채널을 통해 상기 2G 폰에 새로운 웹페이지를 획득하고 상기 텍스트 데이터를 갖는 상기 새로운 웹페이지를 렌더링하는 단계Obtaining a new webpage on the 2G phone via the data channel and rendering the new webpage with the text data 를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Interactive method of the 2G mobile phone and client / server architecture comprising a. 제1항에 있어서,The method of claim 1, 상기 스피치 처리 단계는, 상기 수신된 스피치를 나타내는 데이터를 상기 텔레포니 서버로부터 원격지에 있는 스피치 서버에 송신 - 상기 스피치 서버는 상기 수신된 스피치를 나타내는 상기 데이터를 처리하여 상기 텍스트 데이터를 획득함 - 하는 단계를 포함하며, 상기 텍스트 데이터를 상기 웹서버에 송신하는 단계는 상기 스피치 서버가 상기 텍스트 데이터를 송신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.The speech processing step includes transmitting data indicative of the received speech to a speech server remote from the telephony server, wherein the speech server processes the data indicative of the received speech to obtain the text data. Wherein the transmitting of the text data to the web server comprises transmitting the text data by the speech server. 제1항에 있어서,The method of claim 1, 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)를 확립하는 단계는 상기 2G 폰에 연관된 식별자를 획득하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Establishing a call from the 2G phone to a telephony server over the voice channel comprises acquiring an identifier associated with the 2G phone. . 제3항에 있어서,The method of claim 3, 상기 2G 폰에 제공된 상기 웹페이지에 대응하는 웹서버로부터 스피치 인에이블(speech-enabled) 웹페이지를 획득하는 단계는 상기 2G 폰에 연관된 상기 식별자를 이용하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Acquiring a speech-enabled webpage from a web server corresponding to the webpage provided to the 2G phone includes using the identifier associated with the 2G phone; How to interact with the client / server architecture. 제4항에 있어서,The method of claim 4, wherein 상기 식별자를 획득하는 단계는 상기 2G 폰에 연관된 폰번호를 식별하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Obtaining the identifier comprises identifying a phone number associated with the 2G phone. 제1항에 있어서,The method of claim 1, 상기 웹서버로부터 새로운 웹페이지를 획득하는 단계에 앞서, 상기 웹서버로부터 새로운 페이지를 입수가능하다는 메시지를 상기 2G 폰에 송신하는 단계를 더 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Prior to acquiring a new web page from the web server, further comprising sending a message to the 2G phone that a new page is available from the web server. Interactive way. 제6항에 있어서,The method of claim 6, 상기 메시지의 송신 단계는 SMS 메시지를 송신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.And sending said message comprises sending an SMS message. 제6항에 있어서,The method of claim 6, 상기 메시지의 송신 단계는 상기 새로운 웹페이지의 어드레스에 속하는 정보를 송신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.And transmitting the message comprises transmitting information belonging to the address of the new web page. 제8항에 있어서,The method of claim 8, 상기 메시지의 송신 단계는 URL 링크를 송신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.And wherein said sending said message comprises transmitting a URL link. 제9항에 있어서,The method of claim 9, 상기 메시지의 송신 단계는 SMS 메시지를 송신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.And sending said message comprises sending an SMS message. 제6항에 있어서,The method of claim 6, 상기 텔레포니 서버가 상기 새로운 웹페이지를 획득하는 단계에 앞서, 상기 음성 채널을 차단(disconnect)하는 단계를 더 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Disconnecting the voice channel prior to the telephony server acquiring the new webpage. 2. The method of claim 2, further comprising disconnecting the voice channel. 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법 - 상기 2G 폰은 데이터 송신용의 데이터 채널과 스피치 송신용의 음성 채널을 구비함 - 에 있어서,A method of interacting a 2G mobile phone with a client / server architecture, wherein the 2G phone has a data channel for data transmission and a voice channel for speech transmission. 상기 데이터 채널을 통해 애플리케이션에 따라서 웹서버로부터 웹페이지를 수신하여 상기 웹페이지를 상기 2G 폰에 렌더링하는 단계;Receiving a web page from a web server according to an application through the data channel and rendering the web page to the 2G phone; 상기 웹페이지 상의 적어도 하나의 데이터 필드에 대응하는 사용자로부터 스피치를 수신하는 단계; Receiving speech from a user corresponding to at least one data field on the webpage; 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)를 확립 - 상기 텔레포니 서버는 상기 2G 폰으로부터 원격지에 위치하며 스피치를 처리하도록 구성됨 - 하는 단계;Establishing a call from the 2G phone to a telephony server over the voice channel, the telephony server being located remotely from the 2G phone and configured to handle speech; 상기 스피치를 상기 2G 폰으로부터 상기 텔레포니 서버에 송신하는 단계; 및Transmitting the speech from the 2G phone to the telephony server; And 상기 데이터 채널을 통해 상기 2G 폰에 새로운 웹페이지를 획득하고 상기 스피치에 따른 텍스트 데이터를 갖는 상기 새로운 웹페이지를 렌더링하는 단계Acquiring a new webpage on the 2G phone via the data channel and rendering the new webpage with text data according to the speech 를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Interactive method of the 2G mobile phone and client / server architecture comprising a. 제1항에 있어서,The method of claim 1, 상기 음성 채널을 통해 상기 2G 폰으로부터 텔레포니 서버로의 통화(call)를 확립하는 단계는 상기 2G 폰에 연관된 식별자를 송신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Establishing a call from the 2G phone to a telephony server over the voice channel comprises transmitting an identifier associated with the 2G phone. . 제13항에 있어서,The method of claim 13, 상기 식별자의 송신 단계는 상기 2G 폰에 연관된 폰번호를 식별하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Transmitting the identifier comprises identifying a phone number associated with the 2G phone. 제12항에 있어서, The method of claim 12, 상기 웹서버로부터 상기 새로운 웹페이지를 획득하는 단계에 앞서, 상기 웹서버로부터 새로운 페이지를 입수가능하다는 메시지를 수신하는 단계를 더 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.And prior to acquiring the new web page from the web server, receiving a message indicating that a new page is available from the web server. 제15항에 있어서,The method of claim 15, 상기 메시지의 수신 단계는 SMS 메시지를 수신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Receiving the message comprises receiving an SMS message. 2. The method of claim 2, wherein the receiving of the message comprises receiving an SMS message. 제15항에 있어서,The method of claim 15, 상기 메시지의 수신 단계는 상기 새로운 웹페이지의 어드레스에 속하는 정보를 수신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법.Receiving said message comprises receiving information pertaining to an address of said new web page. 제17항에 있어서,The method of claim 17, 상기 메시지의 수신 단계는 URL 링크를 수신하는 단계를 포함하는 것을 특징으로 하는 2G 모바일폰과 클라이언트/서버 아키텍처의 인터렉트 방법. Receiving the message comprises receiving a URL link.
KR1020040084562A 2003-11-11 2004-10-21 Sequential multimodal input KR101109293B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/705,155 US7158779B2 (en) 2003-11-11 2003-11-11 Sequential multimodal input
US10/705,155 2003-11-11

Publications (2)

Publication Number Publication Date
KR20050045818A true KR20050045818A (en) 2005-05-17
KR101109293B1 KR101109293B1 (en) 2012-02-06

Family

ID=34435602

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040084562A KR101109293B1 (en) 2003-11-11 2004-10-21 Sequential multimodal input

Country Status (10)

Country Link
US (1) US7158779B2 (en)
EP (1) EP1531607A3 (en)
JP (1) JP2005149484A (en)
KR (1) KR101109293B1 (en)
CN (1) CN1617558B (en)
AU (1) AU2004218693B2 (en)
BR (1) BRPI0404317A (en)
CA (1) CA2484247A1 (en)
MX (1) MXPA04010107A (en)
RU (1) RU2355044C2 (en)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7516190B2 (en) * 2000-02-04 2009-04-07 Parus Holdings, Inc. Personal voice-based information retrieval system
US7711570B2 (en) * 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
US8229753B2 (en) * 2001-10-21 2012-07-24 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting
US20030215068A1 (en) * 2002-03-22 2003-11-20 Stein Lawrence M. System and method for seamless audio retrieval and transmittal during wireless application protocol sessions
US7363228B2 (en) * 2003-09-18 2008-04-22 Interactive Intelligence, Inc. Speech recognition system and method
US7363027B2 (en) * 2003-11-11 2008-04-22 Microsoft Corporation Sequential multimodal input
US8160883B2 (en) * 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
GB0403971D0 (en) * 2004-02-24 2004-03-31 Koninkl Philips Electronics Nv Configuring a mobile telephone
EP1643739A1 (en) * 2004-10-04 2006-04-05 Alcatel Method for exchanging messages between end-user and textmessage server
US20060111917A1 (en) * 2004-11-19 2006-05-25 International Business Machines Corporation Method and system for transcribing speech on demand using a trascription portlet
WO2006113514A2 (en) * 2005-04-14 2006-10-26 Any Corner Llc Systems and methods for a multimedia communications system
US20060235694A1 (en) * 2005-04-14 2006-10-19 International Business Machines Corporation Integrating conversational speech into Web browsers
US8467506B2 (en) * 2005-04-21 2013-06-18 The Invention Science Fund I, Llc Systems and methods for structured voice interaction facilitated by data channel
US7756526B2 (en) 2005-09-19 2010-07-13 Silverbrook Research Pty Ltd Retrieving a web page via a coded surface
US7970435B2 (en) 2005-09-19 2011-06-28 Silverbrook Research Pty Ltd Printing an advertisement using a mobile device
US7438215B2 (en) 2005-09-19 2008-10-21 Silverbrook Research Pty Ltd Printing location-based information using a mobile device
US7637424B2 (en) 2005-09-19 2009-12-29 Silverbrook Research Pty Ltd Printing audio information using a mobile device
US7575172B2 (en) 2005-09-19 2009-08-18 Silverbrook Research Pty Ltd Printing a greeting card using a mobile device
US8072629B2 (en) 2005-09-19 2011-12-06 Silverbrook Research Pty Ltd Print subscribed content on a mobile device
US7672664B2 (en) 2005-09-19 2010-03-02 Silverbrook Research Pty Ltd Printing a reminder list using mobile device
US7428986B2 (en) 2005-09-19 2008-09-30 Silverbrook Research Pty Ltd Printing a health report using a mobile device
US7747280B2 (en) 2005-09-19 2010-06-29 Silverbrook Research Pty Ltd Retrieving a product via a coded surface
US7855805B2 (en) 2005-09-19 2010-12-21 Silverbrook Research Pty Ltd Printing a competition entry form using a mobile device
US7621442B2 (en) 2005-09-19 2009-11-24 Silverbrook Research Pty Ltd Printing a subscription using a mobile device
US7742755B2 (en) 2005-09-19 2010-06-22 Silverbrook Research Pty Ltd Retrieving a bill via a coded surface
US7380709B2 (en) 2005-09-19 2008-06-03 Silverbrook Research Pty Ltd Printing a trading card using a mobile device
US7407092B2 (en) 2005-09-19 2008-08-05 Silverbrook Research Pty Ltd Printing gaming information using a mobile device
AU2005336695B2 (en) * 2005-09-19 2010-02-25 Silverbrook Research Pty Ltd Print remotely to a mobile device
US7992213B2 (en) 2005-09-19 2011-08-02 Silverbrook Research Pty Ltd Gaining access via a coded surface
US7805162B2 (en) 2005-09-19 2010-09-28 Silverbrook Research Pty Ltd Print card with linked object
US20090124272A1 (en) * 2006-04-05 2009-05-14 Marc White Filtering transcriptions of utterances
US9436951B1 (en) 2007-08-22 2016-09-06 Amazon Technologies, Inc. Facilitating presentation by mobile device of additional content for a word or phrase upon utterance thereof
US8117268B2 (en) * 2006-04-05 2012-02-14 Jablokov Victor R Hosted voice recognition system for wireless devices
US8510109B2 (en) * 2007-08-22 2013-08-13 Canyon Ip Holdings Llc Continuous speech transcription performance indication
US9087507B2 (en) * 2006-09-15 2015-07-21 Yahoo! Inc. Aural skimming and scrolling
US8027839B2 (en) * 2006-12-19 2011-09-27 Nuance Communications, Inc. Using an automated speech application environment to automatically provide text exchange services
US8326636B2 (en) * 2008-01-16 2012-12-04 Canyon Ip Holdings Llc Using a physical phenomenon detector to control operation of a speech recognition engine
US9973450B2 (en) * 2007-09-17 2018-05-15 Amazon Technologies, Inc. Methods and systems for dynamically updating web service profile information by parsing transcribed message strings
US8352261B2 (en) * 2008-03-07 2013-01-08 Canyon IP Holdings, LLC Use of intermediate speech transcription results in editing final speech transcription results
US20090076917A1 (en) * 2007-08-22 2009-03-19 Victor Roditis Jablokov Facilitating presentation of ads relating to words of a message
US8352264B2 (en) * 2008-03-19 2013-01-08 Canyon IP Holdings, LLC Corrective feedback loop for automated speech recognition
US8611871B2 (en) 2007-12-25 2013-12-17 Canyon Ip Holdings Llc Validation of mobile advertising from derived information
US8862475B2 (en) * 2007-04-12 2014-10-14 Nuance Communications, Inc. Speech-enabled content navigation and control of a distributed multimodal browser
US8335830B2 (en) * 2007-08-22 2012-12-18 Canyon IP Holdings, LLC. Facilitating presentation by mobile device of additional content for a word or phrase upon utterance thereof
US9053489B2 (en) 2007-08-22 2015-06-09 Canyon Ip Holdings Llc Facilitating presentation of ads relating to words of a message
US8676577B2 (en) * 2008-03-31 2014-03-18 Canyon IP Holdings, LLC Use of metadata to post process speech recognition output
US20100042470A1 (en) * 2008-08-18 2010-02-18 Microsoft Corporation Context based advertisement filtration
US8301454B2 (en) 2008-08-22 2012-10-30 Canyon Ip Holdings Llc Methods, apparatuses, and systems for providing timely user cues pertaining to speech recognition
US8515762B2 (en) * 2009-01-22 2013-08-20 Microsoft Corporation Markup language-based selection and utilization of recognizers for utterance processing
WO2011004000A2 (en) * 2009-07-10 2011-01-13 Dialogs Unlimited B.V. Information distributing system with feedback mechanism
BR112013000215A2 (en) 2010-08-29 2019-09-24 Vascode Tech Ltd "multitasking mobile phone application access system, mobile clientless internment application server (cmi), and clientless mobile application access method"
US20120117510A1 (en) * 2010-11-05 2012-05-10 Xerox Corporation System and method for automatically establishing a concurrent data connection with respect to the voice dial features of a communications device
US8559606B2 (en) * 2010-12-07 2013-10-15 Microsoft Corporation Multimodal telephone calls
JP5710464B2 (en) * 2011-12-27 2015-04-30 株式会社東芝 Electronic device, display method, and program
JP2015528594A (en) * 2012-08-06 2015-09-28 コーニンクレッカ フィリップス エヌ ヴェ Audio activated modes and / or tools and / or audio activations of a running software application
US9690854B2 (en) 2013-11-27 2017-06-27 Nuance Communications, Inc. Voice-enabled dialog interaction with web pages
KR102225401B1 (en) * 2014-05-23 2021-03-09 삼성전자주식회사 System and method for providing voice-message call service
EP2947861B1 (en) 2014-05-23 2019-02-06 Samsung Electronics Co., Ltd System and method of providing voice-message call service
US9583105B2 (en) * 2014-06-06 2017-02-28 Microsoft Technology Licensing, Llc Modification of visual content to facilitate improved speech recognition
RU2646350C2 (en) * 2015-01-27 2018-03-02 Общество С Ограниченной Ответственностью "Яндекс" Method of entering data to electronic device, method of processing voice request, machine-readable media (options), electronic device, server and system
US9922648B2 (en) * 2016-03-01 2018-03-20 Google Llc Developer voice actions system
RU2642802C1 (en) * 2016-07-25 2018-01-26 Алексей Васильевич Глушков Method of making lists in programs by registration of voice messages by special device with following character recognition

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1494436A3 (en) * 2000-02-29 2005-01-19 Matsushita Electric Industrial Co., Ltd. Portable telephone with URL accessing function
FI20000735A (en) * 2000-03-30 2001-10-01 Nokia Corp A multimodal method for browsing graphical information displayed on a mobile device
US6654722B1 (en) * 2000-06-19 2003-11-25 International Business Machines Corporation Voice over IP protocol based speech system
KR100442550B1 (en) * 2000-11-21 2004-07-30 이동원 A method for utilizing resources on a client computer of a computer network, and a server thereof
US7072328B2 (en) * 2001-01-12 2006-07-04 Voicegenie Technologies Inc. Computer-implemented voice markup language-based server
US7561872B1 (en) * 2001-03-19 2009-07-14 At&T Intellectual Property I, L.P. Methods and systems for accessing communications services
US7506022B2 (en) * 2001-05-04 2009-03-17 Microsoft.Corporation Web enabled recognition architecture
JP3997459B2 (en) * 2001-10-02 2007-10-24 株式会社日立製作所 Voice input system, voice portal server, and voice input terminal
KR100393048B1 (en) * 2001-12-15 2003-07-28 (주)이지네고 A method for connecting on the wireless site by the phone number
US8799464B2 (en) * 2001-12-28 2014-08-05 Motorola Mobility Llc Multi-modal communication using a session specific proxy server
US20060168095A1 (en) * 2002-01-22 2006-07-27 Dipanshu Sharma Multi-modal information delivery system
US6807529B2 (en) * 2002-02-27 2004-10-19 Motorola, Inc. System and method for concurrent multimodal communication
US7522910B2 (en) * 2002-05-31 2009-04-21 Oracle International Corporation Method and apparatus for controlling data provided to a mobile device
WO2004066125A2 (en) * 2003-01-14 2004-08-05 V-Enable, Inc. Multi-modal information retrieval system
WO2004077798A2 (en) * 2003-02-26 2004-09-10 V.Enable, Inc. Automatic control of simultaneous multimodality and controlled multimodality on thin wireless devices
US20050021826A1 (en) * 2003-04-21 2005-01-27 Sunil Kumar Gateway controller for a multimodal system that provides inter-communication among different data and voice servers through various mobile devices, and interface for that controller
US7269562B2 (en) * 2003-04-29 2007-09-11 Intervoice Limited Partnership Web service call flow speech components
US7403898B2 (en) * 2004-08-20 2008-07-22 At&T Delaware Intellectual Property, Inc., Methods, systems, and storage mediums for implementing voice-commanded computer functions

Also Published As

Publication number Publication date
RU2004129631A (en) 2006-03-20
JP2005149484A (en) 2005-06-09
CN1617558B (en) 2011-03-02
CA2484247A1 (en) 2005-05-11
MXPA04010107A (en) 2005-05-13
RU2355044C2 (en) 2009-05-10
US7158779B2 (en) 2007-01-02
EP1531607A2 (en) 2005-05-18
BRPI0404317A (en) 2005-07-12
CN1617558A (en) 2005-05-18
AU2004218693A1 (en) 2005-05-26
EP1531607A3 (en) 2009-07-01
US20050101355A1 (en) 2005-05-12
KR101109293B1 (en) 2012-02-06
AU2004218693B2 (en) 2010-03-04

Similar Documents

Publication Publication Date Title
KR101109293B1 (en) Sequential multimodal input
US7363027B2 (en) Sequential multimodal input
EP2243095B1 (en) Methods and apparatus for implementing distributed multi-modal applications
US8566103B2 (en) Multi-modal web interaction over wireless network
US11749276B2 (en) Voice assistant-enabled web application or web page
US20020165719A1 (en) Servers for web enabled speech recognition
US20020178182A1 (en) Markup language extensions for web enabled recognition
AU2004202630A1 (en) Combining use of a stepwise markup language and an object oriented development tool
JP3733322B2 (en) Multimodal document receiving apparatus, multimodal document transmitting apparatus, multimodal document transmitting / receiving system, control method therefor, and program
US20070157194A1 (en) Post-deployment user interface update in a mobile device
US20070155426A1 (en) Application access to cellular telephone settings
KR100716147B1 (en) Server, method and system for providing menu navigation service for mobile communication terminal by using voice extensible markup language
JP2005038067A (en) Electronic form system providing form having voice input function
JP2010086459A (en) Information processor, control method and control program
JP2005339513A (en) Information processor, control method and program
JP2004246865A (en) Audio response web system and its input/output control method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee