KR20220059629A - 차량 및 그의 제어방법 - Google Patents
차량 및 그의 제어방법 Download PDFInfo
- Publication number
- KR20220059629A KR20220059629A KR1020200145026A KR20200145026A KR20220059629A KR 20220059629 A KR20220059629 A KR 20220059629A KR 1020200145026 A KR1020200145026 A KR 1020200145026A KR 20200145026 A KR20200145026 A KR 20200145026A KR 20220059629 A KR20220059629 A KR 20220059629A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- entity name
- domain
- vehicle
- answer text
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000004891 communication Methods 0.000 claims description 41
- 230000004913 activation Effects 0.000 claims description 29
- 238000010295 mobile communication Methods 0.000 claims description 28
- 239000003607 modifier Substances 0.000 claims description 24
- 230000004044 response Effects 0.000 abstract description 21
- 230000001755 vocal effect Effects 0.000 abstract 3
- 230000000875 corresponding effect Effects 0.000 description 64
- 230000001276 controlling effect Effects 0.000 description 18
- 230000015654 memory Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 239000000428 dust Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 235000012907 honey Nutrition 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Navigation (AREA)
Abstract
사용자의 발화 명령에 대하여 센스 있는 답변 음성을 출력할 수 있는 차량은, 사용자의 발화 명령을 텍스트 정보로 변환하고, 상기 텍스트 정보에 기초하여 상기 발화 명령에 대응되는 도메인과 개체명을 인식하는 음성 처리기; 상기 도메인과 상기 개체명에 대응되는 답변 텍스트를 저장하는 데이터 베이스; 스피커; 및 상기 도메인과 상기 개체명에 대응되는 정보를 수신하고, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하고, 상기 수정된 답변 텍스트를 출력하도록 상기 스피커를 제어하는 제어부;를 포함한다.
Description
본 개시는 사용자로부터 대화를 주고 받을 수 있는 차량 및 그의 제어방법에 관한 것으로, 보다 구체적으로 사용자의 발화 명령에 대하여 센스 있는 답변 음성을 출력할 수 있는 차량 및 그의 제어방법에 관한 것이다.
음성 인식 시스템은 사용자의 발화를 인식하고 인식된 발화에 대응되는 서비스를 제공할 수 있는 시스템이다.
최근에는 음성 인식 시스템을 이용한 다양한 종류의 대화 서비스가 제공되고 있으며, 특히 차량 내부의 탑승자가 차량의 각종 전자 장치를 제어하기 위한 명령을 발화하면 탑승자의 의도에 따라 차량의 각종 전자 장치를 제어할 수 있다.
또한, 탑승자의 발화 명령을 입력하면 차량은 발화 명령에 대한 답변 음성을 출력하여, 명령의 인지 여부를 탑승자에게 알린다.
그러나, 탑승자의 발화 명령에 대한 차량의 답변 음성은 각각의 명령어에 따라 데이터 베이스에 맵핑된 텍스트가 음성으로 변환 된 것으로, 탑승자에게 다소 뻔하고 진부한 느낌을 줄 수 있다.
사용자의 발화 명령에 대응하여 보다 센스 있는 답변 음성을 출력할 수 있는 차량 및 그의 제어방법을 제공하고자 한다.
상술한 목적을 달성하기 위한 일 실시예에 따른 차량은, 사용자의 발화 명령을 텍스트 정보로 변환하고, 상기 텍스트 정보에 기초하여 상기 발화 명령에 대응되는 도메인과 개체명을 인식하는 음성 처리기; 상기 도메인과 상기 개체명에 대응되는 답변 텍스트를 저장하는 데이터 베이스; 스피커; 및 상기 도메인과 상기 개체명에 대응되는 정보를 수신하고, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하고, 상기 수정된 답변 텍스트를 출력하도록 상기 스피커를 제어하는 제어부;를 포함할 수 있다.
또한, 상기 도메인이 내비게이션 장치이고 상기 개체명이 장소명인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는, 상기 개체명에 대한 목적지 설정 이력 정보, 상기 개체명의 카테고리 정보, 상기 개체명을 갖는 장소의 위치 정보, 차량의 위치 정보 및 현재 시간 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 개체명을 목적지로 설정한 시점과 상기 발화 명령의 입력 시점 사이의 기간에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정할 수 있다.
또한, 상기 제어부는, 상기 개체명의 카테고리 정보에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정할 수 있다.
또한, 상기 제어부는, 상기 차량이 제1 미리 설정된 장소로부터 미리 설정된 거리 이내에 위치하고 상기 개체명을 갖는 장소가 제2 미리 설정된 장소에 해당하면, 상기 제1 미리 설정된 장소와 상기 제2 미리 설정된 장소에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정할 수 있다.
또한, 상기 제어부는, 상기 현재 시간 정보에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정할 수 있다.
또한, 상기 도메인이 이동 통신 장치이고 상기 개체명이 가족을 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 상기 개체명을 수식하기 위한 복수 개의 수식어에 대한 정보를 포함하고, 상기 제어부는, 상기 복수 개의 수식어 중에서 어느 하나의 수식어가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정할 수 있다.
또한, 상기 도메인이 차량 제어 시스템이고 상기 개체명이 제어 대상 장치를 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 날씨 정보 및 차량 시스템의 활성화 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되지 않거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되지 않으면, 상기 날씨 정보에 대한 제1 문구 또는 상기 차량 시스템의 활성화 정보에 대한 제2 문구가 포함되는 의문형 문장으로 바뀌도록 상기 답변 텍스트를 수정할 수 있다.
또한, 상기 제어 대상 장치에게 제어 명령을 전달하는 통신부;를 더 포함하고, 상기 제어부는, 상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되는 경우에만 상기 제어 대상 장치에게 상기 발화 명령에 대응되는 제어 명령을 전달하도록 상기 통신부를 제어할 수 있다.
상술한 목적을 달성하기 위한 일 실시예에 따른 차량의 제어방법은, 사용자의 발화 명령을 텍스트 정보로 변환하고; 상기 텍스트 정보에 기초하여 상기 발화 명령에 대응되는 도메인과 개체명을 인식하고; 상기 도메인과 상기 개체명에 대응되는 정보를 수신하고; 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 데이터 베이스에 저장된 답변 텍스트를 수정하고; 상기 수정된 답변 텍스트를 출력하도록 스피커를 제어하는 것;을 포함할 수 있다.
또한, 상기 도메인이 내비게이션 장치이고 상기 개체명이 장소명인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는, 상기 개체명에 대한 목적지 설정 이력 정보, 상기 개체명의 카테고리 정보, 상기 개체명을 갖는 장소의 위치 정보, 차량의 위치 정보 및 현재 시간 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은, 상기 개체명을 목적지로 설정한 시점과 상기 발화 명령의 입력 시점 사이의 기간에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함할 수 있다.
또한, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은, 상기 개체명의 카테고리 정보에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함할 수 있다.
또한, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은, 상기 차량이 제1 미리 설정된 장소로부터 미리 설정된 거리 이내에 위치하고 상기 개체명을 갖는 장소가 제2 미리 설정된 장소에 해당하면, 상기 제1 미리 설정된 장소와 상기 제2 미리 설정된 장소에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함할 수 있다.
또한, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은, 상기 현재 시간 정보에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함할 수 있다.
또한, 상기 도메인이 이동 통신 장치이고 상기 개체명이 가족을 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 상기 개체명을 수식하기 위한 복수 개의 수식어에 대한 정보를 포함하고, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은, 상기 복수 개의 수식어 중에서 어느 하나의 수식어가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함할 수 있다.
또한, 상기 도메인이 차량 제어 시스템이고 상기 개체명이 제어 대상 장치를 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 날씨 정보 및 차량 시스템의 활성화 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은, 상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되지 않거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되지 않으면, 상기 날씨 정보에 대한 제1 문구 또는 상기 차량 시스템의 활성화 정보에 대한 제2 문구가 포함되는 의문형 문장으로 바뀌도록 상기 답변 텍스트를 수정하는 것;을 포함할 수 있다.
또한, 상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되는 경우에만 상기 제어 대상 장치에게 상기 발화 명령에 대응되는 제어 명령을 전달하는 것;을 더 포함할 수 있다.
개시된 발명에 따르면, 탑승자의 흥미로운 감정을 유발함으로써 음성 인식 시스템의 활용성을 향상시킬 수 있다.
또한, 탑승자의 발화 명령이 부적절한 경우 사용자의 발화 명령의 의사를 재확인할 수 있다.
도 1은 일 실시예에 따른 차량의 제어 블록도이다.
도 2는 일 실시예에 따른 차량의 제어방법의 순서도이다.
도 3은 사용자가 내비게이션 장치를 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 4는 사용자가 이동 통신 장치를 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 5는 사용자가 차량 제어 시스템을 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 2는 일 실시예에 따른 차량의 제어방법의 순서도이다.
도 3은 사용자가 내비게이션 장치를 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 4는 사용자가 이동 통신 장치를 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 5는 사용자가 차량 제어 시스템을 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
개시된 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법 및 장치는 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 개시된 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 개시된 실시예들은 개시된 발명의 개시가 완전하도록 하고, 개시된 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 개시된 발명은 청구항의 범주에 의해 정의될 뿐이다.
개시된 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 발명에 대해 구체적으로 설명하기로 한다.
개시된 발명에서 사용되는 용어는 개시된 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 개시된 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 개시된 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 포함하는 차량 및 그의 제어방법의 실시예에 대하여 개시된 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 개시된 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다. 또한, 도면에서 동일한 도면 부호는 동일한 구성요소를 나타내며, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 차량의 제어 블록도이다.
도 1을 참조하면, 일 실시예에 따른 차량(1)은 마이크(M), 음성 처리기(10), 제어부(20), 데이터 베이스(30), 스피커(S), 통신부(40), 내비게이션 장치(50) 및 차량 제어 시스템(60)을 포함할 수 있다.
마이크(M)는 사용자의 발화 명령을 수신하고, 발화 명령에 대응되는 전기적 신호를 생성할 수 있다.
이를 위한 마이크(M)는 차량(1) 내의 사용자의 음성을 수신하기 위해 차량(1)의 내부에 배치될 수 있으며, 모든 탑승자의 음성을 수신하기 위해 복수 개일 수도 있다.
마이크(M)는 사용자의 발화 명령을 전기적 신호로 변환하여 음성 처리기(10)에 전달할 수 있다.
음성 처리기(10)는 마이크(M)를 통해 입력되는 사용자의 발화 명령을 텍스트 정보로 변환하는STT(Speech to Text) 엔진과 텍스트를 분석하여 발화 명령에 포함된 사용자 의도를 판단하는 대화 관리기를 포함할 수 있다.
대화 관리기는 텍스트에 자연어 이해 기술(Natural Language Understanding)을 적용하여 발화 명령에 대응되는 사용자 의도를 파악할 수 있다.
구체적으로, 대화 관리기는 텍스트 형태의 발화 명령에 대해 형태소 분석을 수행하여 입력 문자열을 형태소열로 바꿔준다. 또한, 대화 관리기는 발화 명령으로부터 개체명을 식별할 수 있다. 개체명은 인명, 장소명, 조직명, 시간, 날짜, 화폐, 가족을 나타내는 명칭, 차량(1)의 각종 전자 장치의 명칭 등의 고유 명사로서, 개체명 인식은 문장에서 개체명을 식별하고 식별된 개체명의 종류를 결정하는 작업이다. 대화 관리기는 개체명 인식을 통해 문장에서 중요한 키워드를 추출하여 문장의 의미를 파악할 수 있다.
또한, 대화 관리기는 사용자의 발화 명령으로부터 도메인을 인식할 수 있다. 도메인은 사용자가 발화한 언어의 주제를 식별할 수 있는 것으로서, 예를 들어, 제어 대상인 기기의 종류가 도메인이 될 수 있다. 따라서, 내비게이션 장치(50), 차량 제어 시스템(60) 등의 차량의(1) 내부의 전자 장치와 사용자의 이동 통신 장치(100) 등이 도메인이 될 수 있다. 이 밖에도, 문자, 내비게이션, 일정, 날씨, 교통, 차량 제어 등의 다양한 주제를 포함하는 도메인이 데이터 베이스(30)에 저장되어 있을 수 있다.
내비게이션 장치(50)는 사용자로부터 목적지를 입력 받고 목적지에 도달하기 위한 경로를 탐색하여 사용자에게 최적의 주행 경로를 제공하기 위한 모든 장치를 의미할 수 있다.
일 예로, 내비게이션 장치(50)는 차량(1)의 AVN 장치를 의미할 수 있으며, 더 나아가 내비게이션 기능이 포함된 외부 단말 장치를 포함할 수 있다.
즉, 도 1에는 이동 통신 장치(100)와 내비게이션 장치(50)가 따로 도시되어 있지만, 이동 통신 장치(100)가 내비게이션 기능을 수행하며 차량(1)과 근거리 통신 및/또는 원거리 통신을 수행하는 경우, 이동 통신 장치(100)도 내비게이션 장치(50)의 일 예가 될 수 있다.
이동 통신 장치(100)는 차량(1)과 근거리 통신 및/또는 원거리 통신을 수행할 수 있는 모든 장치를 의미할 수 있다. 예를 들어, 이동 통신 장치(100)는 스마트 폰을 포함할 수 있다.
차량 제어 시스템(60)은 차량(1)의 각종 전자 장치를 구동할 수 있는 복수의 제어 장치를 의미할 수 있다. 예를 들어, 차량 제어 시스템(60)은 차량(1)의 에어컨을 구동시키기 위한 에어컨 제어 장치, 차량(1)의 창문을 개폐하기 위한 창문 제어 장치, 차량(1)의 선루프를 개폐하기 위한 선루프 제어 장치, 후석 대화 모드, 후석 취침 모드와 같은 차량 시스템을 활성화/비활성화 시키기 위한 모드 활성화 시스템 등을 포함할 수 있다.
후석 대화 모드는 차량(1)의 운전석에 마련된 마이크와 후석에 마련된 스피커를 이용해 운전자와 후석 탑승자가 소통하는 모드이고, 후석 취침 모드는 후석에 마련된 스피커를 오프시켜 후석 탑승자의 수면을 도모하는 모드이다.
대화 관리기는 사용자 발화가 갖는 화행을 분석할 수 있다. 화행 분석은 사용자 발화의 의도를 분석하는 작업으로, 사용자가 질문을 하는 것인지, 요청을 하는 것인지, 응답을 하는 것인지, 단순한 감정 표현을 하는 것인지 등의 발화의 의도를 파악하는 것이다.
대화 관리기는 사용자 발화가 갖는 화행을 분석할 수 있다. 화행 분석은 사용자 발화의 의도를 분석하는 작업으로, 사용자가 질문을 하는 것인지, 요청을 하는 것인지, 응답을 하는 것인지, 단순한 감정 표현을 하는 것인지 등의 발화의 의도를 파악하는 것이다.
대화 관리기는 사용자의 발화 명령에 대응되는 도메인, 개체명, 화행 등의 정보에 기초하여 사용자 의도를 파악하고, 사용자 의도에 대응되는 액션을 추출할 수 있다.
예를 들어, 파악된 사용자 의도가 [에어컨 실행]인 경우에 그에 대응되는 액션은 '에어컨(오브젝트)_ON(오퍼레이터)'으로 정의될 수 있으며, 파악된 사용자 의도가 [창문 개방]인 경우에 그에 대응되는 액션은 '창문(오브젝트)_OPEN(오퍼레이터)'으로 정의될 수 있다.
제어부(20)는 음성 처리기(10)로부터 수신한 각종 정보에 기초하여 통신부(40)를 통해 차량 제어 시스템(60)에 제어 신호를 송출하거나, 내비게이션 장치(50)에 제어 신호를 송출할 수 있다.
예를 들어, 제어부(20)가 음성 처리기(10)로부터 '에어컨 실행'이라는 액션 데이터를 수신하면, 제어부(20)는 에어컨 제어 장치에게 에어컨을 On시키는 제어 신호를 송출할 수 있다.
또한, 제어부(20)는 음성 처리기(10)로부터 수신한 도메인 데이터와 개체명 데이터에 기초하여 도메인과 개체명에 대응되는 답변 텍스트를 음성 신호로 변환하고, 답변 텍스트를 출력하도록 스피커(S)를 제어할 수 있다. 이를 위한 스피커(S)는 음성 신호에 기초하여 음성을 출력할 수 있는 모든 장치를 의미할 수 있으며, 차량(1) 내부의 탑승자가 출력되는 음성을 청취할 수 있는 위치에 개수의 제한이 없이 마련될 수 있다.
제어부(20)는 답변 텍스트를 음성 신호로 변환하기 위해 TTS(Text to Speech) 엔진을 포함할 수 있다. TTS 엔진은 답변 텍스트를 음성 신호로 변환할 수 있고, 제어부(20)는 스피커(S)에 음성 신호를 전달할 수 있다.
데이터 베이스(30)는 복수 개의 도메인과 복수 개의 개체명 각각 또는 이들의 조합에 대응되는 답변 텍스트를 저장할 수 있다.
예를 들어, 데이터 베이스(30)는 '내비게이션 장치(50)를 통한 경로 안내 요청'이라는 도메인과 '특정 장소명(예를 들어, A)'의 개체명에 대응되는 답변 텍스트로 "A로 안내할게요."라는 텍스트를 저장할 수 있다.
또 다른 예로, 데이터 베이스(30)는 '이동 통신 장치(100)를 통한 전화 요청'이라는 도메인과 '특정 인명(예를 들어, A)'의 개체명에 대응되는 답변 텍스트로 "A에게 전화할게요"라는 텍스트를 저장할 수 있다.
또 다른 예로, 데이터 베이스(30)는 '이동 통신 장치(100)를 통한 현재 위치 공유 요청'이라는 도메인과 '특정 인명(예를 들어, A)'의 개체명에 대응되는 답변 텍스트로 "A에게 내 차의 위치를 공유할게요."라는 텍스트를 저장할 수 있다.
또 다른 예로, 데이터 베이스(30)는 '차량 제어 시스템(60)을 통한 전자 장치의 실행'이라는 도메인과 '에어컨'이라는 개체명에 대응되는 답변 텍스트로 "에어컨을 켤게요."라는 텍스트를 저장할 수 있다.
또 다른 예로, 데이터 베이스(30)는 '차량 제어 시스템(60)을 통한 차량 시스템의 활성화'라는 도메인과 '후석 대화'라는 개체명에 대응되는 답변 텍스트로 "후석 대화 모드를 켤게요."라는 텍스트를 저장할 수 있다.
제어부(20)는 음성 처리기(10)로부터 도메인과 개체명을 수신하면, 통신부(40)를 통해 도메인과 개체명에 대응되는 정보를 요청할 수 있다.
도메인이 내비게이션 장치(50)이고 개체명이 장소명인 경우, 도메인과 개체명에 대응되는 정보는, 개체명에 대한 목적지 설정 이력 정보, 개체명의 카테고리 정보, 개체명을 갖는 장소의 위치 정보, 차량(1)의 위치 정보 및 현재 시간 정보 중 적어도 하나를 포함할 수 있다.
이 때, 제어부(20)는 통신부(40)를 통해 내비게이션 장치(50)로부터 상기 정보 중 적어도 하나의 정보를 수신할 수 있으며, 외부 서버를 통해 상기 정보 중 적어도 하나의 정보를 수신할 수도 있다.
또한, 도메인이 이동 통신 장치(100)이고 개체명이 가족을 나타내는 명칭인 경우, 도메인과 개체명에 대응되는 정보는 개체명을 수식하기 위한 복수 개의 수식어에 대한 정보를 포함할 수 있다.
이 때, 개체명을 수식하기 위한 복수 개의 수식어는 데이터 베이스(30)에 저장되어 있을 수 있으며, 제어부(20)는 데이터 베이스(30)로부터 복수 개의 수식어에 대한 정보를 수신할 수 있다.
또한, 도메인이 차량 제어 시스템(60)이고 개체명이 제어 대상 장치를 나타내는 명칭인 경우, 도메인과 개체명에 대응되는 정보는 날씨 정보 및 차량 시스템의 활성화 정보 중 적어도 하나를 포함할 수 있다.
이 때, 제어부(20)는 통신부(40)를 통해 차량 제어 시스템(60)으로부터 상기 정보 중 적어도 하나의 정보를 수신할 수 있으며, 외부 서버를 통해 상기 정보 중 적어도 하나의 정보를 수신할 수도 있다.
제어부(20)는 도메인과 개체명에 대응되는 정보를 수신하면, 도메인과 개체명에 대응되는 정보에 기초하여 데이터 베이스(30)에 저장된 답변 텍스트를 수정하고, 수정된 답변 텍스트를 출력하도록 스피커(S)를 제어할 수 있다.
일 실시예에 따른 차량(1)은 전술한 동작 및 후술하는 동작을 수행하는 프로그램 및 관련 데이터를 저장하는 적어도 하나의 메모리와 저장된 프로그램을 실행하는 적어도 하나의 프로세서를 포함할 수 있다.
음성 처리기(10) 및 제어부(20)가 각각 별도의 메모리와 프로세서를 사용하는 것도 가능하고, 이들 중 일부 또는 전부가 메모리와 프로세서를 공유하는 것도 가능하다.
또한, 제어부(20)의 TTS 엔진이 별도의 메모리와 프로세서를 사용하는 것도 가능하다.
또한, 데이터 베이스(30)는 ROM(Read Only Memory), EPROM(Erasable Programmable Read Only Memory), EEPROM(Electrically Erasable Programmable Read only Memory), 플래시 메모리 등과 같은 비휘발성 메모리를 포함할 수 있고, S-RAM (Static Random Access Memory), D-RAM(Dynamic Random Access Memory) 등의 휘발성 메모리를 더 포함할 수도 있다. 저장되는 정보의 종류에 따라 비휘발성 메모리에 저장될 수도 있고, 휘발성 메모리에 저장될 수도 있다.
일 실시예에 따른 통신부(40)는, 차량(1) 내의 각종 전자 장치와 통신하기 위한 차량 통신 네트워크 및/또는 이동 통신 장치(100)와 통신하기 위한 근거리 통신 모듈 및/또는 외부 서버 및/또는 이동 통신 장치(100)와 통신하기 위한 원거리 통신 모듈을 포함할 수 있다. 일 예로, 통신부(40)는 차량 통신 네트워크를 통해 내비게이션 장치(50) 및 차량 제어 시스템(60)과 각종 데이터/명령을 주고받을 수 있다.
차량 통신 네트워크는 이더넷(Ethernet), 모스트(MOST, Media Oriented Systems Transport), 플렉스레이(Flexray), 캔(CAN, Controller Area Network), 린(LIN, Local Interconnect Network) 등의 통신 방식을 채용할 수 있다.
원거리 통신 모듈은 와이파이(Wifi), 와이브로(Wireless broadband) 외에도, GSM(Global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(Universal Mobile Telecommunications System), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4세대 이동통신, 5세대 이동통신 등과 같은 무선 통신 방식으로 인터넷망과 연결될 수 있는 다양한 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 지그비(Zigbee) 통신 모듈, 지-웨이브(Z-Wave) 통신 모듈, 와이파이 다이렉트 통신모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다.
또한, 통신부(40)는 자유 공간으로 무선 신호를 송신하거나 자유 공간으로부터 무선 신호를 수신하는 안테나, 송신할 데이터를 변조하거나 수신된 무선 신호를 복조하는 변/복조기 등을 포함할 수 있다.
제어부(20)는 통신부(40)를 통하지 않고 직접적으로 내비게이션 장치(50)와 차량 제어 시스템(60)과 데이터/명령을 주고 받을 수도 있으며, 통신부(40)를 통해 스피커(S)와 데이터/명령을 주고 받을 수도 있음은 물론이다.
이상에서는 차량(1)의 각종 구성요소에 대하여 설명하였다. 이하에서는 도 2 내지 도 5를 참조하여 상술하여 설명한 차량(1)의 구성요소들을 활용한 차량(1)의 제어방법을 설명한다.
도 2는 일 실시예에 따른 차량의 제어방법의 순서도이다.
도 2를 참조하면, 마이크(M)는 사용자의 발화 명령을 수신하고 이를 전기적 신호로 변환하여 음성 처리기(10)로 전달할 수 있다. 즉, 음성 처리기(10)는 마이크(M)로부터 전기적 신호 형태의 사용자의 발화 명령을 수신할 수 있다(1000).
음성 처리기(10)는 사용자의 발화 명령을 텍스트 정보로 변환하고, 텍스트 정보에 기초하여 발화 명령에 대응되는 도메인과 개체명을 인식할 수 있다(1100).
예를 들어, 사용자의 발화 명령이 '강남역으로 안내해줘'인 경우, 음성 처리기(10)는 도메인으로서 '내비게이션 장치(50)'를 추출하고, 개체명으로서 '강남역'을 추출할 수 있다.
음성 처리기(10)는 도메인과 개체명에 대한 정보를 제어부(20)로 전달할 수 있으며, 제어부(20)는 차량(1)의 각종 전자 장치 또는 외부 서버에게 도메인과 개체명에 대한 정보를 요청할 수 있다.
이후, 제어부(20)는 도메인과 개체명에 대한 정보를 수신할 수 있으며(1200), 도메인과 개체명에 대응되는 정보에 기초하여 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수 있다(1300).
예를 들어, 제어부(20)는 데이터 베이스(30)에 저장된 답변 텍스트에 대하여 특정 문구를 추가하거나, 특정 문구를 삭제할 수 있으며, 더 나아가 답변 텍스트의 문장 형태를 수정할 수 있다. 일 예로, 제어부(20)는 경우에 따라 의문형이 아닌 답변 텍스트를 의문형의 문장으로 수정할 수 있다.
도메인과 개체명에 대응되는 정보에 대해서는 도 3 내지 도 5를 참조하여 자세하게 후술한다.
제어부(20)는 수정된 답변 텍스트를 음성 신호로 변환하고, 음성 신호를 스피커(S)로 전달할 수 있다. 즉, 제어부(20)는 수정된 답변 텍스트를 음성의 형태로 출력하도록 스피커(S)를 제어할 수 있다(1400).
이하에서는 제어부(20)가 답변 텍스트를 수정하는 다양한 실시예를 구체적으로 설명한다.
도 3은 사용자가 내비게이션 장치를 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 3을 참조하면, 음성 처리기(10)로부터 수신된 정보에 근거할 때 도메인이 내비게이션 장치(50)이고 개체명이 장소명에 대응되는 경우(2000의 예), 제어부(20)는 내비게이션 장치(50) 및/또는 외부 서버에게 개체명에 대한 목적지 설정 이력 정보(2100), 개체명의 카테고리 정보(2200), 개체명을 갖는 장소의 위치 정보와 차량(1)의 위치 정보(2300) 및 현재 시간 정보 중 적어도 하나를 요청할 수 있다.
일 예로, 음성 처리기(10)는 "강남역으로 안내해줘"라는 사용자의 발화 명령을 처리하여 '내비게이션 장치(50)'라는 도메인과 '강남역'이라는 개체명을 인식할 수 있다. 또 다른 예로, 음성 처리기(10)는 "우리집"이라는 사용자의 발화 명령을 처리하여 '내비게이션 장치(50)'라는 도메인과 '집'이라는 개체명을 인식할 수 있다.
목적지 설정 이력 정보란, 개체명에 대하여 목적지를 설정한 이력에 관한 정보로써, 개체명에 대하여 목적지를 설정한 시점 및/또는 횟수에 대한 정보를 포함할 수 있다.
카테고리 정보란, 개체명의 카테고리에 관한 정보로써, 개체명을 갖는 장소가 음식점, 카페, 카센터, 은행, 마트, 약국, 주유소, 카페, 편의점, 영화관, 놀이공원, 캠핑장, 지하철 역 등의 다양한 카테고리 중에서 어느 카테고리에 해당하는 지를 나타내는 정보를 의미할 수 있다.
예를 들어, 도메인이 내비게이션 장치(50)이고 개체명이 강남역인 경우, 제어부(20)는 내비게이션 장치(50) 및/또는 외부 서버에게 강남역에 대한 목적지 설정 이력 정보, 강남역의 카테고리 정보, 강남역의 위치 정보 및 현재 시간 정보 중 적어도 하나를 요청할 수 있다.
제어부(20)는 개체명에 대한 목적지 설정 이력이 존재하는 경우(2100의 예), 개체명을 목적지로 설정한 시점과 발화 명령의 입력 시점 사이의 기간에 대한 문구가 포함되도록 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수 있다(2150).
예를 들어, 개체명을 목적지로 설정한 시점이 2020/07/04이고 발화 명령의 입력 시점이 2020/09/07이면, 제어부(20)는 "2달 "이라는 문구가 포함되도록 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수 있다.
일 예로, 데이터 베이스(30)에 저장된 답변 텍스트가 "[개체명]으로 안내할게요"인 경우, 제어부(20)는 답변 텍스트를 "약 『2달』만에 가시는 군요, 바로 안내할게요"로 수정할 수 있다.
또 다른 예로, 개체명을 목적지로 설정한 횟수가 증가하는 추세에 있는 경우, 제어부(20)는 답변 텍스트를 "『요새』 [개체명]에 『자주』 가시네요. 바로 안내할게요"로 수정할 수 있다.
제어부(20)는 개체명에 대한 카테고리 정보가 존재하는 경우(2200의 예), 개체명의 카테고리 정보에 대한 문구가 포함되도록 데이터 베이스(30)에 저장된 상기 답변 텍스트를 수정할 수 있으며, 이 경우 현재 시간 정보를 반영하여 답변 텍스트를 수정할 수 있다(2250).
예를 들어, 개체명의 카테고리가 음식점인 경우, 제어부(20)는 음식점과 관련된 문구인 "맛집"이라는 문구가 포함되도록 답변 텍스트를 수정할 수 있다.
일 예로, 데이터 베이스(30)에 저장된 답변 텍스트가 "[개체명]으로 안내할게요"인 경우, 제어부(20)는 답변 텍스트를 "여기 나름 소문난 『맛집』이던데요? 바로 안내할게요"로 수정할 수 있다.
이 경우, 제어부(20)는 현재 시간 정보에 대응되는 미리 설정된 문구가 포함되도록 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수도 있다.
예를 들어, 현재 시간이 오전 11시에서 오후 3시 사이에 해당하면, 제어부(20)는 "점심"과 관련된 미리 설정된 문구가 포함되도록 답변 텍스트를 수정할 수 있다.
일 예로, 개체명의 카테고리가 음식점이고 현재 시간이 오전 11시에서 오후 3시 사이에 해당하면, 제어부(20)는 답변 텍스트를 "여기 나름 소문난 『맛집』이던데요? 맛있는 『점심』 식사 되세요."로 수정할 수 있다.
제어부(20)는 차량(1)이 제1 미리 설정된 장소로부터 미리 설정된 거리 이내에 위치하고, 개체명을 갖는 장소가 제2 미리 설정된 장소에 해당하면(2300의 예) 제1 미리 설정된 장소와 제2 미리 설정된 장소에 대응되는 미리 설정된 문구가 포함되도록 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수 있다(2350).
이 때, 제1 미리 설정된 장소와 제2 미리 설정된 장소는 사용자에 의해 내비게이션 장치(50)에 입력된 관심 장소를 포함할 수 있다.
예를 들어, 제1 미리 설정된 장소는 '직장'으로 설정될 수 있으며, 제2 미리 설정된 장소는 '집'으로 설정될 수 있으며, '직장'과 '집'에 대응되는 미리 설정된 문구로서 '수고하셨습니다', '고생하셨습니다' 등의 문구가 저장되어 있을 수 있다.
미리 설정된 거리는 약 1km 정도로 설정될 수 있으며, 차량(1)이 제1 미리 설정된 장소의 근처에 있을 것이라고 추측되는 합리적인 거리라면 제한 없이 채용될 수 있다.
일 예로, 제1 미리 설정된 장소가 회사이고 제2 미리 설정된 장소가 집으로 설정되어 있는 경우, 제어부(20)는 차량(1)이 '회사'로부터 1km 이내에 위치하고 개체명을 갖는 장소가 '집'에 해당하면 답변 텍스트를 "『고생하셨습니다.』얼른 집으로 안내할게요."로 수정할 수 있다.
제어부(20)는 앞서 설명한 바와 같이 수정된 답변 텍스트를 음성의 형태로 출력하도록 스피커(S)를 제어할 수 있다(2500).
앞서 설명한 예시에 해당되지 않는 경우, 제어부(20)는 데이터 베이스(30)에 저장된 답변 텍스트를 출력하도록 스피커(S)를 제어할 수 있다(2400).
본 개시의 일 실시예에 따르면, 사용자가 내비게이션 장치(50)에 대한 발화 명령을 입력하는 경우 다양한 상황에 따라 다양한 답변 음성을 제공 받을 수 있다.
도 4는 사용자가 이동 통신 장치를 제어하는 발화 명령을 입력한 경우의 차량(1)의 제어방법의 순서도이다.
도 4를 참조하면, 음성 처리기(10)로부터 수신된 정보에 근거할 때 도메인이 이동 통신 장치(100)이고 개체명이 가족을 나타내는 명칭에 대응되는 경우(3000의 예), 제어부(20)는 외부 서버 및/또는 데이터 베이스(30) 및/또는 이동 통신 장치(100)에게 개체명을 수식하기 위한 복수 개의 수식어에 대한 정보를 요청할 수 있다.
일 예로, 음성 처리기(10)는 "엄마에게 전화해줘."라는 사용자의 발화 명령을 처리하여 '이동 통신 장치(100)'라는 도메인과 '엄마'라는 개체명을 인식할 수 있다.
가족을 나타내는 명칭이란 "딸, 아들, 엄마, 아빠, 남편, 아내" 등의 형식적인 명칭을 포함할 수 있으며, "마나님, 공주, 왕자, 반쪽, 내 사랑, 허니, 이쁘니" 등의 비형식적인 명칭도 포함할 수 있다.
또한, 도메인이 이동 통신 장치(100)인 경우, 더 구체적인 도메인 분류로 "전화 기능, 문자 기능, 차 위치 공유 기능" 등의 도메인이 포함될 수 있다.
도메인이 전화 기능으로 분류되는 경우 데이터 베이스(30)에 저장된 답변 텍스트는 "[개체명]에게 전화할게요."일 수 있으며, 도메인이 문자 기능으로 분류되는 경우 데이터 베이스(30)에 저장된 답변 텍스트는 "[개체명]에게 문자할게요."일 수 있으며, 도메인이 차 위치 공유 기능인 경우 데이터 베이스(30)에 저장된 답변 텍스트는 "[개체명]에게 차 위치를 공유할게요."일 수 있다.
외부 서버 및/또는 이동 통신 장치(100) 및/또는 데이터 베이스(30)는 가족의 명칭 각각에 대응되는 복수 개의 수식어에 대한 정보를 제어부(20)로 전달할 수 있으며, 제어부(20)는 복수 개의 수식어에 대한 정보를 수신하고, 복수 개의 수식어 중에서 어느 하나의 수식어를 임의로 선택할 수 있다(3100).
예를 들어, "아내"에게 대응되는 복수 개의 수식어로는 '사랑하는', '평생의 반쪽' 등의 있을 수 있으며, 제어부(20)는 상기 복수 개의 수식어 중에서 어느 하나의 수식어를 임의로 선택할 수 있다.
또 다른 예로, "이쁘니"에게 대응되는 복수 개의 수식어로는 '나의', '보물 1호' 등이 있을 수 있으며, 제어부(20)는 상기 복수 개의 수식어 중에서 어느 하나의 수식어를 임의로 선택할 수 있다.
제어부(20)는 복수 개의 수식어 중에서 어느 하나의 수식어가 포함되도록 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수 있다(3200).
예를 들어, 개체명에 "아내"가 포함되고, 도메인이 "이동 통신 장치(100)를 통한 전화"로 판단되면, 제어부(20)는 답변 텍스트를 "『사랑하는』 아내에게 전화할게요."로 수정할 수 있다.
이후 제어부(20)는 수식어가 포함되도록 수정된 답변 텍스트를 음성의 형태로 출력하도록 스피커(S)를 제어할 수 있다(3300).
본 개시의 일 실시예에 따르면, 사용자가 이동 통신 장치(100)에 대한 발화 명령을 입력하는 경우 다양한 인명에 따라 다양한 답변 음성을 제공 받을 수 있다.
도 5는 사용자가 차량 제어 시스템을 제어하는 발화 명령을 입력한 경우의 차량의 제어방법의 순서도이다.
도 5를 참조하면, 음성 처리기(10)로부터 수신된 정보에 근거할 때 도메인이 차량 제어 시스템(60)이고 개체명이 제어 대상 장치를 나타내는 명칭에 대응되지 않으면(4000의 아니오), 제어부(20)는 데이터 베이스(30)에 저장되어 있는 발화 명령에 대응되는 답변 텍스트를 출력하도록 스피커(S)를 제어할 수 있다(4050).
또한, 제어 대상 장치의 동작 조건이 날씨 정보와 매칭되고(4100의 아니오), 차량 시스템의 활성화 정보와도 매칭되는 경우(4200의 아니오)에도, 제어부(20)는 데이터 베이스(30)에 저장되어 있는 발화 명령에 대응되는 답변 텍스트를 출력하도록 스피커(S)를 제어할 수 있다(4300).
음성 처리기(10)로부터 수신된 정보에 근거할 때 도메인이 차량 제어 시스템(60)이고 개체명이 제어 대상 장치를 나타내는 명칭에 대응되는 경우(4000의 예), 제어부(20)는 외부 서버 및/또는 차량 제어 시스템(60)에게 날씨 정보(4100) 및/또는 차량 시스템의 활성화 정보(4200) 중 적어도 하나를 정보를 요청할 수 있다.
일 예로, 음성 처리기(10)는 "창문 열어줘"라는 사용자의 발화 명령을 처리하여 '차량 제어 시스템(60)'이라는 도메인과 '창문'이라는 개체명을 인식할 수 있다.
앞서 설명한 바와 같이, 차량 제어 시스템(60)은 차량(1)의 각종 전자 장치를 제어하기 위한 전자 제어 장치를 의미할 수 있으며, 제어 대상 장치는 전자 제어 장치에 의해 제어되는 대상 장치를 의미할 수 있다.
일 예로, 차량 제어 시스템(60)은 창문을 개폐하기 위한 '창문 제어 장치' 또는 선루프를 개폐하기 위한 '선루프 제어 장치'일 수 있으며, 제어 대상 장치는 '창문' 또는 '선루프'일 수 있다.
날씨 정보는 현재 차량(1)의 위치의 날씨에 대한 정보를 의미할 수 있으며 미세먼지 정보, 습도 정보, 우천 정보 등의 각종 정보를 포함할 수 있다.
제어부(20)는 제어 대상 장치를 동작시키기 위한 조건과 날씨 정보가 매칭되지 않으면(4100의 예) 날씨 정보에 대한 제1 문구가 포함되도록 데이터 베이스(30)에 저장된 답변 텍스트를 수정할 수 있다(4150).
이 경우, 제어부(20)는 답변 텍스트를 의문형의 문장으로 수정할 수도 있다.
날씨 정보에 대한 제1 문구란, 현재 날씨 정보를 사용자에게 알려줄 수 있는 문구를 의미할 수 있다.
제어 대상 장치를 동작시키기 위한 조건은 데이터 베이스(30)에 저장되어 있을 수 있다.
일 예로, 데이터 베이스(30)에는 '창문 또는 선루프를 개방시키기 위한 조건'으로 '미세먼지가 보통 상태 또는 좋음 상태'라는 조건이 저장될 수 있다.
데이터 베이스(30)에는 "창문"이 포함되는 개체명과 "창문 제어 장치를 통한 창문 개방"이라는 도메인에 대응되는 답변 텍스트로서, "창문을 열게요."라는 텍스트가 저장되어 있을 수 있다.
날씨 정보에 포함된 미세먼지 상태가 나쁨 상태인 경우, 제어부(20)는 "창문"이 포함되는 개체명과 "창문 제어 장치를 통한 창문 개방"이라는 도메인에 대응되는 답변 텍스트를 "현재 『미세먼지』가 나쁨 상태에요. 그래도 『여시겠어요?』"로 수정할 수 있다.
제어부(20)는 제어 대상 장치의 동작 조건과 차량 시스템의 활성화 정보가 매칭되지 않으면(4200의 예), 차량 시스템의 활성화 정보에 대한 제2 문구가 포함되도록 답변 텍스트를 수정할 수 있다(4250).
이 경우, 제어부(20)는 답변 텍스트를 의문형의 문장으로 수정할 수도 있다.
차량 시스템의 활성화 정보란, 차량(1)에 구비된 각종 모드들의 활성화 여부에 대한 정보를 의미할 수 있다. 일 예로, 차량(1)에 구비된 각종 모드는 '후석 대화 모드', '후석 취침 모드', '내기 순환 모드', '외기 순환 모드'등의 각종 차량(1) 모드를 의미할 수 있다.
즉, 차량 시스템의 활성화 정보에는 현재 후석 대화 모드가 on 상태인지, 후석 취침 모드가 on 상태인지, 내기 순환 모드가 on 상태인지, 외기 순환 모드가 on 상태인지 등에 대한 정보가 포함될 수 있다.
차량 시스템의 활성화 정보에 대한 제2 문구란, 현재 차량 시스템의 활성화 정보를 사용자에게 알려줄 수 있는 문구를 의미할 수 있다.
제어 대상 장치를 동작시키기 위한 조건은 데이터 베이스(30)에 저장되어 있을 수 있다.
일 예로, 데이터 베이스(30)에는 '후석 대화 모드를 켜기 위한 조건'으로 '후석 취침 모드가 off 상태'라는 조건이 저장될 수 있다.
데이터 베이스(30)에는 "후석 대화"라는 단어가 포함되는 개체명과 "후석 대화 시스템의 동작"이라는 도메인에 대응되는 답변 텍스트로서, "후석 대화 시스템을 켤게요"라는 텍스트가 저장되어 있을 수 있다.
후석 취침 모드가 on 상태인 경우, 제어부(20)는 "후석 대화"가 포함되는 개체명과 "후석 대화 시스템"이라는 도메인에 대응되는 답변 텍스트를 "현재 『후석 취침 모드』가 켜져있어요. 그래도 후석 대화 모드로 『변경할까요?』"로 수정할 수 있다.
제어부(20)는 수정된 답변 텍스트가 음성 형태로 출력되도록 스피커(S)를 제어할 수 있다(4400).
더불어, 제어 대상 장치를 동작시키기 위한 조건과 날씨 정보가 매칭되거나, 제어 대상 장치를 동작시키기 위한 조건과 차량 시스템의 활성화 정보가 매칭되는 경우에만 제어 대상 장치에게 발화 명령에 대응되는 제어 명령을 송신하도록 통신부(40)를 제어할 수 있다.
예를 들어, 후석 취짐 모드가 on 상태인 경우, 제어부(20)는 후석 대화 모드를 켜달라는 사용자의 발화 명령에 대하여 후석 대화 시스템을 동작시키지 않을 수 있다.
즉, 제어부(20)는 제어 대상 장치의 동작이 부적절하다고 판단되는 경우에는 사용자에게 확실한 의사를 묻는 답변 텍스트를 음성 형태로 출력하고, 사용자의 확실한 의사를 수신하기 전 까지 발화 명령에 대응되는 제어 명령의 송신 여부를 보류할 수 있다.
또한, 제어부(20)는 날씨 정보와 차량 시스템의 활성화 정보를 모두 고려하여 제어 대상 장치의 동작 조건을 판단할 수도 있다. 일 예로, 데이터 베이스(30)에는 에어컨의 동작 조건으로 '습도가 80퍼센트 이상인 경우 내기 순환 모드가 on 상태'라는 조건이 저장되어 있을 수 있다.
습도가 80퍼센트 이상이며 외기 순환 모드가 on 상태인 상황에서 사용자가 "에어컨 켜줘"라는 발화 명령을 입력한 경우, 제어부(20)는 '에어컨을 켤게요'라는 답변 텍스트를 '현재 『습도』가 많이 높아요. 에어컨을 켜고 『내기 순환 모드』로 전환하는 건 어떠세요?'로 수정할 수 있다.
일 실시예에 따른 차량(1) 및 차량(1)의 제어방법에 의하면, 주변 환경을 고려한 다양한 답변 음성을 출력함으로써 사용자에게 편의와 흥미를 제공할 수 있다.
차량 및 그의 제어방법의 예는 이에 한정되는 것이 아니며 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이다. 그러므로 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1: 차량
10: 음성 처리기
20: 제어부 30: 데이터 베이스
40: 통신부 50: 내비게이션 장치
60: 차량 제어 시스템 100: 이동 통신 장치
M : 마이크 S: 스피커
20: 제어부 30: 데이터 베이스
40: 통신부 50: 내비게이션 장치
60: 차량 제어 시스템 100: 이동 통신 장치
M : 마이크 S: 스피커
Claims (20)
- 사용자의 발화 명령을 텍스트 정보로 변환하고, 상기 텍스트 정보에 기초하여 상기 발화 명령에 대응되는 도메인과 개체명을 인식하는 음성 처리기;
상기 도메인과 상기 개체명에 대응되는 답변 텍스트를 저장하는 데이터 베이스;
스피커; 및
상기 도메인과 상기 개체명에 대응되는 정보를 수신하고, 상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하고, 상기 수정된 답변 텍스트를 출력하도록 상기 스피커를 제어하는 제어부;를 포함하는 차량. - 제1항에 있어서,
상기 도메인이 내비게이션 장치이고 상기 개체명이 장소명인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는,
상기 개체명에 대한 목적지 설정 이력 정보, 상기 개체명의 카테고리 정보, 상기 개체명을 갖는 장소의 위치 정보, 차량의 위치 정보 및 현재 시간 정보 중 적어도 하나를 포함하는 차량. - 제2항에 있어서,
상기 제어부는,
상기 개체명을 목적지로 설정한 시점과 상기 발화 명령의 입력 시점 사이의 기간에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 차량. - 제2항에 있어서,
상기 제어부는,
상기 개체명의 카테고리 정보에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 차량. - 제2항에 있어서,
상기 제어부는,
상기 차량이 제1 미리 설정된 장소로부터 미리 설정된 거리 이내에 위치하고 상기 개체명을 갖는 장소가 제2 미리 설정된 장소에 해당하면, 상기 제1 미리 설정된 장소와 상기 제2 미리 설정된 장소에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 차량. - 제2항에 있어서,
상기 제어부는,
상기 현재 시간 정보에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 차량. - 제1항에 있어서,
상기 도메인이 이동 통신 장치이고 상기 개체명이 가족을 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 상기 개체명을 수식하기 위한 복수 개의 수식어에 대한 정보를 포함하고,
상기 제어부는,
상기 복수 개의 수식어 중에서 어느 하나의 수식어가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 차량. - 제1항에 있어서,
상기 도메인이 차량 제어 시스템이고 상기 개체명이 제어 대상 장치를 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 날씨 정보 및 차량 시스템의 활성화 정보 중 적어도 하나를 포함하는 차량. - 제8항에 있어서,
상기 제어부는,
상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되지 않거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되지 않으면, 상기 날씨 정보에 대한 제1 문구 또는 상기 차량 시스템의 활성화 정보에 대한 제2 문구가 포함되는 의문형 문장으로 바뀌도록 상기 답변 텍스트를 수정하는 차량. - 제8항에 있어서,
상기 제어 대상 장치에게 제어 명령을 전달하는 통신부;를 더 포함하고,
상기 제어부는,
상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되는 경우에만 상기 제어 대상 장치에게 상기 발화 명령에 대응되는 제어 명령을 전달하도록 상기 통신부를 제어하는 차량. - 사용자의 발화 명령을 텍스트 정보로 변환하고;
상기 텍스트 정보에 기초하여 상기 발화 명령에 대응되는 도메인과 개체명을 인식하고;
상기 도메인과 상기 개체명에 대응되는 정보를 수신하고;
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 데이터 베이스에 저장된 답변 텍스트를 수정하고;
상기 수정된 답변 텍스트를 출력하도록 스피커를 제어하는 것;을 포함하는 차량의 제어방법. - 제11항에 있어서,
상기 도메인이 내비게이션 장치이고 상기 개체명이 장소명인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는,
상기 개체명에 대한 목적지 설정 이력 정보, 상기 개체명의 카테고리 정보, 상기 개체명을 갖는 장소의 위치 정보, 차량의 위치 정보 및 현재 시간 정보 중 적어도 하나를 포함하는 차량의 제어방법. - 제12항에 있어서,
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은,
상기 개체명을 목적지로 설정한 시점과 상기 발화 명령의 입력 시점 사이의 기간에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함하는 차량의 제어방법. - 제12항에 있어서,
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은,
상기 개체명의 카테고리 정보에 대한 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함하는 차량의 제어방법. - 제12항에 있어서,
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은,
상기 차량이 제1 미리 설정된 장소로부터 미리 설정된 거리 이내에 위치하고 상기 개체명을 갖는 장소가 제2 미리 설정된 장소에 해당하면, 상기 제1 미리 설정된 장소와 상기 제2 미리 설정된 장소에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함하는 차량의 제어방법. - 제12항에 있어서,
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은,
상기 현재 시간 정보에 대응되는 미리 설정된 문구가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함하는 차량의 제어방법. - 제11항에 있어서,
상기 도메인이 이동 통신 장치이고 상기 개체명이 가족을 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 상기 개체명을 수식하기 위한 복수 개의 수식어에 대한 정보를 포함하고,
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은,
상기 복수 개의 수식어 중에서 어느 하나의 수식어가 포함되도록 상기 데이터 베이스에 저장된 상기 답변 텍스트를 수정하는 것;을 포함하는 차량의 제어방법. - 제11항에 있어서,
상기 도메인이 차량 제어 시스템이고 상기 개체명이 제어 대상 장치를 나타내는 명칭인 경우, 상기 도메인과 상기 개체명에 대응되는 정보는 날씨 정보 및 차량 시스템의 활성화 정보 중 적어도 하나를 포함하는 차량의 제어방법. - 제18항에 있어서,
상기 도메인과 상기 개체명에 대응되는 정보에 기초하여 상기 데이터 베이스에 저장된 답변 텍스트를 수정하는 것은,
상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되지 않거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되지 않으면, 상기 날씨 정보에 대한 제1 문구 또는 상기 차량 시스템의 활성화 정보에 대한 제2 문구가 포함되는 의문형 문장으로 바뀌도록 상기 답변 텍스트를 수정하는 것;을 포함하는 차량의 제어방법. - 제18항에 있어서,
상기 제어 대상 장치를 동작시키기 위한 조건과 상기 날씨 정보가 매칭되거나 상기 조건과 상기 차량 시스템의 활성화 정보가 매칭되는 경우에만 상기 제어 대상 장치에게 상기 발화 명령에 대응되는 제어 명령을 전달하는 것;을 더 포함하는 차량의 제어방법.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145026A KR20220059629A (ko) | 2020-11-03 | 2020-11-03 | 차량 및 그의 제어방법 |
US17/517,466 US20220139390A1 (en) | 2020-11-03 | 2021-11-02 | Vehicle and method of controlling the same |
CN202111288088.8A CN114530149A (zh) | 2020-11-03 | 2021-11-02 | 车辆及其控制方法 |
DE102021212375.9A DE102021212375A1 (de) | 2020-11-03 | 2021-11-03 | Fahrzeug und verfahren zur steuerung desselben |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145026A KR20220059629A (ko) | 2020-11-03 | 2020-11-03 | 차량 및 그의 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220059629A true KR20220059629A (ko) | 2022-05-10 |
Family
ID=81184225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200145026A KR20220059629A (ko) | 2020-11-03 | 2020-11-03 | 차량 및 그의 제어방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220139390A1 (ko) |
KR (1) | KR20220059629A (ko) |
CN (1) | CN114530149A (ko) |
DE (1) | DE102021212375A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240082632A (ko) | 2022-12-02 | 2024-06-11 | 김소연 | Ai기능이 적용된 2d 및 3d 웹툰 파츠 플랫폼 |
Family Cites Families (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5055939A (en) * | 1987-12-15 | 1991-10-08 | Karamon John J | Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track |
US5925090A (en) * | 1996-08-16 | 1999-07-20 | Alpine Electronics, Inc. | Sign text display method and apparatus for vehicle navigation system |
US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
US6567775B1 (en) * | 2000-04-26 | 2003-05-20 | International Business Machines Corporation | Fusion of audio and video based speaker identification for multimedia information access |
JP4584434B2 (ja) * | 2000-10-03 | 2010-11-24 | 株式会社東海理化電機製作所 | 音声ガイダンス切替装置 |
JP4348852B2 (ja) * | 2000-10-31 | 2009-10-21 | ソニー株式会社 | ナビゲーション装置 |
US6571169B2 (en) * | 2001-03-16 | 2003-05-27 | Alpine Electronics, Inc. | Destination input method in navigation system and navigation system |
JP4993648B2 (ja) * | 2001-03-30 | 2012-08-08 | アイシン・エィ・ダブリュ株式会社 | 経路情報配信システム |
JP3902483B2 (ja) * | 2002-02-13 | 2007-04-04 | 三菱電機株式会社 | 音声処理装置及び音声処理方法 |
US7472063B2 (en) * | 2002-12-19 | 2008-12-30 | Intel Corporation | Audio-visual feature fusion and support vector machine useful for continuous speech recognition |
US20040220705A1 (en) * | 2003-03-13 | 2004-11-04 | Otman Basir | Visual classification and posture estimation of multiple vehicle occupants |
EP1743323B1 (en) * | 2004-04-28 | 2013-07-10 | Koninklijke Philips Electronics N.V. | Adaptive beamformer, sidelobe canceller, handsfree speech communication device |
CA2583458C (en) * | 2004-10-01 | 2016-02-23 | Networks In Motion, Inc. | Method and system for enabling an off board navigation solution |
JP5134876B2 (ja) * | 2007-07-11 | 2013-01-30 | 株式会社日立製作所 | 音声通信装置及び音声通信方法並びにプログラム |
US20090055180A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method for optimizing speech recognition in a vehicle |
JP4926916B2 (ja) * | 2007-11-07 | 2012-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびコンピュータプログラム |
US8219387B2 (en) * | 2007-12-10 | 2012-07-10 | Microsoft Corporation | Identifying far-end sound |
CN101983316A (zh) * | 2008-05-29 | 2011-03-02 | 通腾科技股份有限公司 | 用于更改与可听信息相关的地图信息的导航装置和方法 |
KR101001846B1 (ko) * | 2008-07-02 | 2010-12-17 | 팅크웨어(주) | 음소거 제어 방법 및 장치 |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
CN102117221A (zh) * | 2009-12-31 | 2011-07-06 | 上海博泰悦臻电子设备制造有限公司 | 音频应用冲突的管理方法和管理器 |
US8374791B2 (en) * | 2010-01-27 | 2013-02-12 | Navteq B.V. | Method of operating a navigation system to provide route guidance |
JP2011186351A (ja) * | 2010-03-11 | 2011-09-22 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
US9183560B2 (en) * | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
US9396385B2 (en) * | 2010-08-26 | 2016-07-19 | Blast Motion Inc. | Integrated sensor and video motion analysis method |
US8700392B1 (en) * | 2010-09-10 | 2014-04-15 | Amazon Technologies, Inc. | Speech-inclusive device interfaces |
US20130030811A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | Natural query interface for connected car |
WO2013093565A1 (en) * | 2011-12-22 | 2013-06-27 | Nokia Corporation | Spatial audio processing apparatus |
JP5928606B2 (ja) * | 2011-12-26 | 2016-06-01 | インテル・コーポレーション | 搭乗者の聴覚視覚入力の乗り物ベースの決定 |
US9432633B2 (en) * | 2011-12-28 | 2016-08-30 | Pelco, Inc. | Visual command processing |
US8913103B1 (en) * | 2012-02-01 | 2014-12-16 | Google Inc. | Method and apparatus for focus-of-attention control |
US9922646B1 (en) * | 2012-09-21 | 2018-03-20 | Amazon Technologies, Inc. | Identifying a location of a voice-input device |
US9008641B2 (en) * | 2012-12-27 | 2015-04-14 | Intel Corporation | Detecting a user-to-wireless device association in a vehicle |
US9747898B2 (en) * | 2013-03-15 | 2017-08-29 | Honda Motor Co., Ltd. | Interpretation of ambiguous vehicle instructions |
DE102013004444A1 (de) * | 2013-03-16 | 2014-09-18 | Rainer Schader | Navigationssystem |
KR20140146965A (ko) * | 2013-06-18 | 2014-12-29 | 삼성전자주식회사 | 디스플레이 장치, 서버를 포함하는 변환 시스템 및 디스플레이 장치의 제어 방법 |
US9680934B2 (en) * | 2013-07-17 | 2017-06-13 | Ford Global Technologies, Llc | Vehicle communication channel management |
US9892745B2 (en) * | 2013-08-23 | 2018-02-13 | At&T Intellectual Property I, L.P. | Augmented multi-tier classifier for multi-modal voice activity detection |
US20150112593A1 (en) * | 2013-10-23 | 2015-04-23 | Apple Inc. | Humanized Navigation Instructions for Mapping Applications |
JP6148163B2 (ja) * | 2013-11-29 | 2017-06-14 | 本田技研工業株式会社 | 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム |
US9582246B2 (en) * | 2014-03-04 | 2017-02-28 | Microsoft Technology Licensing, Llc | Voice-command suggestions based on computer context |
KR102216048B1 (ko) * | 2014-05-20 | 2021-02-15 | 삼성전자주식회사 | 음성 명령 인식 장치 및 방법 |
JP6464449B2 (ja) * | 2014-08-29 | 2019-02-06 | 本田技研工業株式会社 | 音源分離装置、及び音源分離方法 |
US20160061617A1 (en) * | 2014-09-02 | 2016-03-03 | Microsoft Corporation | Providing in-navigation search results that reduce route disruption |
US20160100092A1 (en) * | 2014-10-01 | 2016-04-07 | Fortemedia, Inc. | Object tracking device and tracking method thereof |
US9881610B2 (en) * | 2014-11-13 | 2018-01-30 | International Business Machines Corporation | Speech recognition system adaptation based on non-acoustic attributes and face selection based on mouth motion using pixel intensities |
US9741342B2 (en) * | 2014-11-26 | 2017-08-22 | Panasonic Intellectual Property Corporation Of America | Method and apparatus for recognizing speech by lip reading |
DE102015210430A1 (de) * | 2015-06-08 | 2016-12-08 | Robert Bosch Gmbh | Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren |
WO2017003452A1 (en) * | 2015-06-30 | 2017-01-05 | Nuance Communications, Inc. | Method and apparatus for processing user input |
US9764694B2 (en) * | 2015-10-27 | 2017-09-19 | Thunder Power Hong Kong Ltd. | Intelligent rear-view mirror system |
US9832583B2 (en) * | 2015-11-10 | 2017-11-28 | Avaya Inc. | Enhancement of audio captured by multiple microphones at unspecified positions |
US9973887B2 (en) * | 2016-01-21 | 2018-05-15 | Google Llc | Sharing navigation data among co-located computing devices |
US11437020B2 (en) * | 2016-02-10 | 2022-09-06 | Cerence Operating Company | Techniques for spatially selective wake-up word recognition and related systems and methods |
ES2713685T3 (es) * | 2016-04-26 | 2019-05-23 | Nokia Technologies Oy | Métodos, aparatos y programas informáticos relativos a la modificación de una característica asociada a una señal de audio separada |
US10089071B2 (en) * | 2016-06-02 | 2018-10-02 | Microsoft Technology Licensing, Llc | Automatic audio attenuation on immersive display devices |
US10152969B2 (en) * | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10482899B2 (en) * | 2016-08-01 | 2019-11-19 | Apple Inc. | Coordination of beamformers for noise estimation and noise suppression |
JP6631445B2 (ja) * | 2016-09-09 | 2020-01-15 | トヨタ自動車株式会社 | 車両用情報提示装置 |
US10403279B2 (en) * | 2016-12-21 | 2019-09-03 | Avnera Corporation | Low-power, always-listening, voice command detection and capture |
CN110114825A (zh) * | 2016-12-30 | 2019-08-09 | 哈曼国际工业有限公司 | 语音识别*** |
US20180190282A1 (en) * | 2016-12-30 | 2018-07-05 | Qualcomm Incorporated | In-vehicle voice command control |
WO2018147687A1 (en) * | 2017-02-10 | 2018-08-16 | Samsung Electronics Co., Ltd. | Method and apparatus for managing voice-based interaction in internet of things network system |
US10332515B2 (en) * | 2017-03-14 | 2019-06-25 | Google Llc | Query endpointing based on lip detection |
EP3602544A4 (en) * | 2017-03-23 | 2020-02-05 | Joyson Safety Systems Acquisition LLC | SYSTEM AND METHOD FOR CORRELATION OF MOUTH IMAGES WITH INPUT COMMANDS |
US20190037363A1 (en) * | 2017-07-31 | 2019-01-31 | GM Global Technology Operations LLC | Vehicle based acoustic zoning system for smartphones |
JP6827629B2 (ja) * | 2017-08-10 | 2021-02-10 | トヨタ自動車株式会社 | 情報提供装置、情報提供システム |
US10374816B1 (en) * | 2017-12-13 | 2019-08-06 | Amazon Technologies, Inc. | Network conference management and arbitration via voice-capturing devices |
US20190237067A1 (en) * | 2018-01-31 | 2019-08-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-channel voice recognition for a vehicle environment |
US20190355352A1 (en) * | 2018-05-18 | 2019-11-21 | Honda Motor Co., Ltd. | Voice and conversation recognition system |
US20210318125A1 (en) * | 2018-06-11 | 2021-10-14 | King Abdullah University Of Science And Technology | Millimeter-wave radar-based autonomous navigation system |
KR102569372B1 (ko) * | 2018-06-26 | 2023-08-22 | 구글 엘엘씨 | 디지털 어시스턴트 애플리케이션과 내비게이션 애플리케이션 간의 인터페이싱 |
EP3797262A1 (en) * | 2018-09-06 | 2021-03-31 | Google LLC | Navigation directions with a familiar location as an intermediate destination |
US11105648B2 (en) * | 2018-12-12 | 2021-08-31 | Verizon Patent And Licensing Inc. | Geospatial navigation methods and systems for automatically suspending navigational guidance provided to a user of a mobile navigation device |
US10949886B2 (en) * | 2019-03-12 | 2021-03-16 | Xevo Inc. | System and method for providing content to a user based on a predicted route identified from audio or images |
KR102226132B1 (ko) * | 2019-07-23 | 2021-03-09 | 엘지전자 주식회사 | 헤드셋 및 그의 구동 방법 |
US11789457B1 (en) * | 2019-12-11 | 2023-10-17 | Amazon Technologies, Inc. | System for collision detection in autonomous mobile device |
WO2021178731A1 (en) * | 2020-03-04 | 2021-09-10 | Karl Denninghoff | Neurological movement detection to rapidly draw user attention to search results |
US11796334B2 (en) * | 2020-05-15 | 2023-10-24 | Apple Inc. | User interfaces for providing navigation directions |
-
2020
- 2020-11-03 KR KR1020200145026A patent/KR20220059629A/ko unknown
-
2021
- 2021-11-02 CN CN202111288088.8A patent/CN114530149A/zh active Pending
- 2021-11-02 US US17/517,466 patent/US20220139390A1/en active Pending
- 2021-11-03 DE DE102021212375.9A patent/DE102021212375A1/de active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240082632A (ko) | 2022-12-02 | 2024-06-11 | 김소연 | Ai기능이 적용된 2d 및 3d 웹툰 파츠 플랫폼 |
Also Published As
Publication number | Publication date |
---|---|
CN114530149A (zh) | 2022-05-24 |
DE102021212375A1 (de) | 2022-05-05 |
US20220139390A1 (en) | 2022-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10380992B2 (en) | Natural language generation based on user speech style | |
KR102562227B1 (ko) | 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법 | |
CN110232912B (zh) | 语音识别仲裁逻辑 | |
CN106816149B (zh) | 车辆自动语音识别***的优先化内容加载 | |
KR102518543B1 (ko) | 사용자의 발화 에러 보정 장치 및 그 방법 | |
CN110491414B (zh) | 使用动态可调监听超时的自动语音识别 | |
CN111095400A (zh) | 选择***和方法 | |
US20140324429A1 (en) | Computer-implemented method for automatic training of a dialogue system, and dialogue system for generating semantic annotations | |
JP7340940B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2009530666A (ja) | 外部ユーザの自動音声認識、口述、録音および再生を提供する方法 | |
US11189274B2 (en) | Dialog processing system, vehicle having the same, dialog processing method | |
KR20200000155A (ko) | 대화 시스템 및 이를 이용한 차량 | |
KR20220055213A (ko) | 차량 및 그 제어 방법 | |
US11996099B2 (en) | Dialogue system, vehicle, and method of controlling dialogue system | |
US20220139390A1 (en) | Vehicle and method of controlling the same | |
US11518398B2 (en) | Agent system, agent server, method of controlling agent server, and storage medium | |
US20200319634A1 (en) | Agent device, method of controlling agent device, and storage medium | |
KR20190037470A (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법 | |
US20230206916A1 (en) | Service management system and service management method for a vehicle | |
KR102485339B1 (ko) | 차량의 음성 명령 처리 장치 및 방법 | |
JP7252029B2 (ja) | サーバ装置、情報提供方法、およびプログラム | |
JP2020152298A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
KR102441066B1 (ko) | 차량의 음성생성 시스템 및 방법 | |
CN111824174B (zh) | 智能体装置、智能体装置的控制方法及存储介质 | |
KR20230135396A (ko) | 대화 관리 방법, 사용자 단말 및 컴퓨터로 판독 가능한 기록 매체 |