WO2019124142A1 - ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム - Google Patents

ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム Download PDF

Info

Publication number
WO2019124142A1
WO2019124142A1 PCT/JP2018/045296 JP2018045296W WO2019124142A1 WO 2019124142 A1 WO2019124142 A1 WO 2019124142A1 JP 2018045296 W JP2018045296 W JP 2018045296W WO 2019124142 A1 WO2019124142 A1 WO 2019124142A1
Authority
WO
WIPO (PCT)
Prior art keywords
route
user
unit
route analysis
current position
Prior art date
Application number
PCT/JP2018/045296
Other languages
English (en)
French (fr)
Inventor
義信 岡田
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2019124142A1 publication Critical patent/WO2019124142A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Definitions

  • the present invention relates to a navigation device, a navigation method, and a computer program.
  • a navigation device mounted on a vehicle searches for a route to a point designated as a destination by the user, displays the search result together with a map around the vehicle position, and the user easily aims the vehicle with certainty It can help to get the vehicle to the ground.
  • a navigation device it is possible to input a destination by key operation provided on an input device such as a remote controller or using a voice recognition function.
  • the preference information of the passenger is recorded, the passenger is recognized, and the facility to be the destination desired by the passenger is estimated from the content of the normal conversation of the passenger in the passenger compartment and the preference information of the passenger,
  • Patent Document 1 proposes an estimated destination based on the estimation result.
  • the navigation device presents to the user the shortest route from the current position to the destination designated by the user or a route meeting the various conditions.
  • Patent Document 1 The technology described in Patent Document 1 described above is to estimate a facility or the like that matches the preference of the user, using the speech-recognized word as a clue, set it as a destination, and search for a route.
  • the present invention solves the above-mentioned problems, that is, provides a navigation device and a navigation method, and a computer program, capable of route search of a route aimed by a user from a word including ambiguity I assume.
  • a navigation device includes a current position information acquisition unit that acquires a current position of a vehicle, and an input control unit that controls an input device and takes in a command from a user. And a determination unit that determines whether a relative phrase is included in the user's command fetched by the input control unit, a determination result by the determination unit, and the current position of the vehicle acquired by the current position information acquisition unit. Based on the above, it is characterized in that it comprises a route analysis unit that estimates a destination and analyzes a route, and an output control unit that controls an output of an analysis result by the route analysis unit.
  • a navigation method comprises: acquiring a current position information acquiring step of acquiring a current position of a vehicle; an input control step of controlling an input device and fetching a command from a user; Based on the determination step of determining whether the relative user's command includes a relative phrase, the determination result of the processing of the determination step, and the current position of the vehicle acquired by the processing of the current position information acquisition step,
  • the method is characterized by including a route analysis step of estimating a destination and analyzing a route, and an output control step of controlling an output of an analysis result by the processing of the route analysis step.
  • a computer program includes, in a computer mounted on a vehicle, a current position information acquiring step of acquiring a current position of the vehicle, and an input control step of controlling an input device to fetch an instruction from a user. And a determination step of determining whether a relative phrase is included in the user's command fetched in the input control step, a determination result by the process of the determination step, and a process of acquiring the current position information
  • a process is performed that includes a route analysis step of estimating a destination based on the current position of the vehicle and analyzing a route, and an output control step of controlling an output of an analysis result by the process of the route analysis step.
  • FIG. FIG. 6 is a diagram for describing information registered in a relative word / phrase database 31.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity.
  • FIG. 7 is a diagram for describing an example of route analysis when an instruction from a user includes an ambiguity. It is a flowchart for demonstrating a navigation process. It is a flowchart for demonstrating relative phrase corresponding
  • FIGS. 1 to 12 An information transmitting and receiving system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 12.
  • the functional configuration of the navigation device 1 according to an embodiment of the present invention will be described with reference to FIG.
  • the navigation device 1 is mounted on a vehicle such as a car, searches for a route to a point aimed by the user based on an operation input of the user such as a driver, and displays a search result along with a map around the vehicle position. , Helps the user to easily and reliably arrive at the destination.
  • the navigation device 1 is set, for example, as a place designated by an address, a predetermined facility, a place designated by the user operating an input device such as a touch panel, or voice analysis of the contents uttered by the user. And the route to the destination can be retrieved and presented to the user.
  • this navigation device 1 is, for example, a term including ambiguity such as "right ahead of the corner ", "this end of the florist ", ie, not absolute but relative Voice analysis of the user's speech including words and phrases indicating a certain positional relationship is carried out to assist the user to cause the vehicle to arrive at the destination.
  • the navigation device 1 includes a current position information acquisition unit 11, a travel history recording unit 12, a touch panel 13, an operation input unit 14, an input control unit 15, a microphone 16, a voice data acquisition unit 17, a voice analysis processing unit 18, a map database 19,
  • the text database 20, the ambiguity determination unit 21, the route analysis unit 22, the audio data output control unit 23, the speaker 24, and the display control unit 25 are provided.
  • the text database 20 also includes a relative word / phrase database 31.
  • the current position information acquisition unit 11 acquires current position information of the vehicle using a GNSS (Global Navigation Satellite System / Global Positioning Satellite System) or the like, and supplies the current position information to the travel history recording unit 12 and the route analysis unit 22.
  • GNSS Global Navigation Satellite System / Global Positioning Satellite System
  • the traveling history recording unit 12 refers to the map registered in the map database 19 and records the traveling history of the vehicle based on the current position information of the vehicle supplied from the current position information acquiring unit 11.
  • the touch panel 13 is a combination of a display device such as a liquid crystal panel and a position input device such as a touch pad.
  • the touch panel 13 displays various information based on the control of the display control unit 25 described later. Further, the touch panel 13 allows an operation input when the user touches the screen with a fingertip or the like, and supplies information corresponding to the user's operation input to the input control unit 15.
  • the operation input unit 14 is configured by, for example, various input devices such as a button, a key, a remote controller, and a receiving unit that receives a signal from the remote controller.
  • the operation input unit 14 receives an operation input from the user, and supplies information corresponding to the user's operation input to the input control unit 15.
  • the input control unit 15 controls the touch panel 13 and the operation input unit 14 to capture a user's command input, and supplies information corresponding to the user's operation input to the ambiguity determination unit 21 described later.
  • the microphone 16 is an audio input device that collects surrounding audio.
  • the microphone 16 supplies the input audio data to the audio data acquisition unit 17.
  • the audio data acquisition unit 17 acquires audio data collected by the microphone 16 and supplies the audio data to the audio analysis processing unit 18.
  • the voice data acquisition unit 17 also constitutes part of the “input control unit” described in the claims together with the input control unit 15.
  • the voice analysis processing unit 18 receives the voice data acquired by the voice data acquisition unit 17 and performs voice analysis processing.
  • the voice analysis processing unit 18 supplies the voice analysis result to the ambiguity determination unit 21 described later.
  • the map database 19 is a database storing the recording of the travel history by the travel history recording unit 12 and the map data used for route analysis by the route analysis unit 22.
  • the map information stored in the map database 19 is associated with names, attributes, addresses, telephone numbers and the like of each facility such as a store, a school, a hospital, and other public facilities.
  • the user can search for a route by the name of the destination, an address, a telephone number, and the like.
  • the user can also search for a route by searching for a destination with a definition or abbreviation that is wider than the store name, such as "Convenience Store (Convenience Store)" or "Bank".
  • the map information stored in the map database 19 can be updated by, for example, downloading the latest map information from a predetermined site as needed by a communication processing unit (not shown).
  • the text database 20 stores text data for recognizing the user's utterance content, for use in the processing of the ambiguity determination unit 21 and the route analysis unit 22.
  • the text database 20 also includes a relative phrase database 31 in which relative phrases are registered.
  • the relative word / phrase database 31 is used by the ambiguity determination unit 21 to determine whether or not the user's speech includes an ambiguity, and the route analysis unit 22 to analyze the route for the user's command including the ambiguity.
  • the relative word / phrase database 31 is used by the ambiguity determination unit 21 to determine whether or not the user's speech includes an ambiguity, and the route analysis unit 22 to analyze the route for the user's command including the ambiguity.
  • the relative word / phrase database 31 for example, as shown in FIG. 2, as the relative word / phrase, a plurality of words such as "previously”, “before”, “now”, “passed over”, “overpassed” and “around” are Information regarding the position, the search direction, and the search condition, which is registered and which becomes a search criterion when performing a search, is registered for each word / phrase. For example, for the relative phrase “passed by,” “current position” is registered as a search criterion, “travel history” is registered as a search direction, and “past B meters” is registered as a search condition. There is.
  • words representing relatively past time and route such as “previously”, “before”, “now”, “passed over” and “overdue”.
  • words such as “ ⁇ ⁇ m ago” and “ ⁇ o minutes ago” are also different from the absolute point designation (eg, bank, intersection, etc.), and the relative distance from a certain point or a certain point It is a relative or ambiguity phrase that indicates the relative time from when you were traveling.
  • this (at the present location)”, “(at the current location)”, “near xxx”, “ear of xx”, “early of xx”, etc. are absolute It is preferable that a word indicating relative positional relationship from a certain point is included instead of designation of the point. It goes without saying that information other than that shown in FIG. 2 may be registered in the relative word / phrase database 31.
  • the ambiguity determination unit 21 determines whether or not the information corresponding to the user's command supplied from the input control unit 15 and the speech analysis processing unit 18 includes an ambiguity. The ambiguity determination unit 21 determines whether the user's command includes an ambiguity based on whether the relative term registered in the relative term database 31 is included. The ambiguity determination unit 21 supplies the determination result to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 receives the supply of the information indicating the current position of the vehicle acquired by the current position information acquisition unit 11, and based on the determination result of the ambiguity supplied from the ambiguity determination unit 21, to the user's command.
  • the corresponding route is analyzed from the map registered in the map database 19.
  • the route analysis unit 22 executes route analysis in the same manner as in the prior art when no ambiguity is included in the instruction from the user. Then, when the instruction from the user includes an ambiguity, the route analysis unit 22 is recorded in the travel history recording unit 12 as necessary based on the information registered in the relative word / phrase database 31.
  • the route analysis is performed by referring to the travel history and estimating the destination from the user's command containing the relative phrase.
  • the route analysis unit 22 supplies the analysis result of the route to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and causes the speaker 24 to output audio data.
  • the audio data output control unit 23 corresponds to an output control unit.
  • the speaker 24 outputs audio data corresponding to the route analysis result based on the control of the audio data output control unit 23.
  • the display control unit 25 controls the touch panel 13 to display and output the route analysis result supplied from the route analysis unit 22 and the current position of the vehicle.
  • the display control unit 25 corresponds to an output control unit.
  • each function structure was demonstrated as what one navigation apparatus 1 has, these may be comprised by several apparatus.
  • the touch panel 13, the speaker 24, the operation input unit 14, or the microphone 16 may be configured as an apparatus independent of the other components, and each may be capable of exchanging information.
  • the navigation device 1 controls the current position information acquisition unit 11 for acquiring the current position of the vehicle, and the input control for controlling the input device (the touch panel 13, the operation input unit 14, the microphone 16) and capturing the instruction from the user.
  • a ambiguity determination unit 21 that determines whether a relative word is included in the user's command captured by the input control unit 15; a determination result by the ambiguity determination unit 21;
  • a route analysis unit 22 that estimates a destination based on the current position of the vehicle acquired by the current position information acquisition unit 11 and analyzes the route, and voice data output control that controls the output of the analysis result by the route analysis unit
  • the configuration includes a unit 23 and a display control unit 25. As a result, the navigation device 1 can estimate the route that the user intends from the words and phrases including the ambiguity, perform route search, and present the result to the user.
  • the user's speech “return to 100 m before the intersection where it was last” is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 responds to the user's command supplied from the speech analysis processing unit 18 based on whether or not the relative phrase registered in the relative phrase database 31 is included. It is determined whether or not “return to 100 m before the intersection” includes ambiguity. "Return to 100 m before the intersection you have made” includes the relative phrases “preceding", "100 m before” and "return”.
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 executes route analysis based on the information registered in the relative word / phrase database 31 when the command from the user contains an ambiguity. That is, the word “preceding” indicates a past time, and when the ambiguity determination unit 21 extracts a word indicating such a past time, the route analysis unit 22 causes the travel history recording unit 12 to Route analysis is performed with reference to the recorded travel history. Moreover, words and phrases such as "passed over" indicate a past route, and when the ambiguity judgment unit 21 extracts words and phrases indicating such a past time, the route analysis unit 22 similarly calculates the travel history. The route analysis is performed with reference to the travel history recorded in the recording unit 12.
  • the route analysis unit 22 refers to the travel history recorded in the travel history recording unit 12 and extracts the extraction point A which is a “preceding intersection”. Then, the route analysis unit 22 refers to the traveling history recorded in the traveling history recording unit 12 to detect the traveling direction when the vehicle is traveling at the extraction point A, and returns 100 m from the extraction point A, that is, The extraction point B moved 100 m from the extraction point A to the opposite side of the traveling direction is recognized as the user's destination, and the route to the extraction point B is analyzed.
  • the route analysis unit 22 supplies the analysis result of the route to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to control the display output of the route analysis result supplied from the route analysis unit 22.
  • the traveling direction recorded when the vehicle is traveling at a point can be detected by referring to the traveling history recorded in the traveling history recording unit 12. Even when the relative phrase including the ambiguity of "return" is included, search for the optimal route to the destination intended by the user, instead of giving an instruction to return the traveled route as it is It becomes possible.
  • the user's speech “a supermarket around turning the corner of the next convenience store right” is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 corresponds to the user's command supplied from the voice analysis processing unit 18 based on whether or not the relative phrase registered in the relative phrase database 31 is included. It is determined whether or not an ambiguity is included in the "super" around the right of the corner of the convenience store. "The supermarket near the corner of the next convenience store" has a relative phrase of "per".
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 is recorded in the travel history recording unit 12 as needed based on the information registered in the relative word / phrase database 31 when the instruction from the user includes an ambiguity. Perform route analysis with reference to travel history.
  • the route analysis unit 22 extracts the extraction point A which is the "next convenience store” which does not include the ambiguity by the normal route analysis method. Then, the route analysis unit 22 extracts the extraction point B which is a “turn right” “corner” which does not include an ambiguity by a normal route analysis method. Then, with reference to the relative word / phrase database 31, the route analysis unit 22 registers in the map database 19 whether or not there is a "super" within a predetermined range in the turning direction based on the extraction point B. Refer to the map you are searching for. Then, the route analysis unit 22 recognizes the extraction point C obtained as the search result as the destination of the user, and analyzes the route to the extraction point C.
  • the route analysis unit 22 supplies the analysis result of the route to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to control the display output of the route analysis result supplied from the route analysis unit 22.
  • the navigation device 1 can search for a route to a destination intended by the user, even when both absolute and relative phrases are included.
  • the user's speech “return to the corner before the convenience store that has passed” is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 responds to the user's command supplied from the voice analysis processing unit 18 based on whether or not the relative phrase registered in the relative phrase database 31 is included. It is determined whether or not "return to the corner before the convenience store” includes ambiguity. "Return to the corner in front of the convenience store that has passed” includes relative phrases of "passed over”, “in front of xx", and "return”.
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 is recorded in the travel history recording unit 12 as needed based on the information registered in the relative word / phrase database 31 when the instruction from the user includes an ambiguity. Perform route analysis with reference to travel history.
  • the route analysis unit 22 refers to the travel history recorded in the travel history recording unit 12 and extracts the extraction point A1 and the extraction point A2 which are "convenient convenience stores” within the predetermined range traveled in the past. Do. Then, the route analysis unit 22 refers to the travel history recorded in the travel history recording unit 12 and detects the traveling direction when the vehicle is traveling at the extraction point A1 and the extraction point A2, respectively, and the extraction point A1 And return to the corner before extraction point A2, that is, extraction point B1 and extraction point B2, which are the nearest corners on the opposite side of the traveling direction from extraction point A1 and extraction point A2, are recognized as the user's destination. Then, the route analysis unit 22 analyzes the routes to the extraction point B1 and the extraction point B2, respectively.
  • the route analysis unit 22 supplies the analysis result of the two routes to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to control the display output of the route analysis result (shown as route analysis result (1) and route analysis result (2) in FIG. 5) supplied from the route analysis unit 22. Do.
  • the display control unit 25 may control the touch panel 13 to preferentially display the route analysis result (1) searched based on the extraction point A1, which is a convenience store that has passed most recently, The user may be notified that there is a candidate for
  • the audio data output control unit 23 also causes the speaker 24 to perform audio output for notifying the user of the route analysis result (1), which is searched based on the extraction point A1 which is a convenience store that has passed most recently. Alternatively, the user may be notified that there are a plurality of candidates.
  • the speech of the user “right at the intersection one before” is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 receives the “previous one” corresponding to the user's command supplied from the voice analysis processing unit 18 based on whether or not the relative phrase registered in the relative phrase database 31 is included. It is determined whether an ambiguity is included in the “right intersection of”. The phrase "right one intersection ahead" includes the relative phrase "before".
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 is recorded in the travel history recording unit 12 as needed based on the information registered in the relative word / phrase database 31 when the instruction from the user includes an ambiguity. Perform route analysis with reference to travel history.
  • the route analysis unit 22 refers to the travel history recorded in the travel history recording unit 12 and extracts the extraction point A which is “one intersection ahead”. Then, the route analysis unit 22 refers to the traveling history recorded in the traveling history recording unit 12 and detects the traveling direction when the vehicle is traveling at the extraction point A, and turns to the right at the extraction point A The case extraction point B is recognized as the user's destination, and the route to the extraction point B is analyzed.
  • the route analysis unit 22 can arrive early from the current position on the route when going straight ahead "right one intersection” with reference to the traveling history recorded in the traveling history recording unit 12 without mistake Search for the existence of a point.
  • the route analysis unit 22 extracts the extraction point C The route to the extraction point C is analyzed, recognizing it as one of the user's destination candidates.
  • the route analysis unit 22 supplies the analysis result of the two routes to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to display and output the route analysis result supplied from the route analysis unit 22.
  • the destination of the user when the route is searched by including the ambiguous word / phrase, the destination of the user is not only the extraction point B indicated by the command which includes the ambiguous word / phrase, without mistake.
  • the extraction points C ahead of the route when going straight ahead one intersection to the left, it is possible to search for the optimal route and present it to the user.
  • the user's speech “the corner of the bank around this is left” is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 is supplied from the voice analysis processing unit 18 based on whether or not the relative phrase registered in the relative phrase database 31 is included in the navigation instruction from the user. It is determined whether or not an ambiguity is included in "left corner of the bank” corresponding to the user's command.
  • the "left bank corner” includes the relative phrase "around”.
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 executes route analysis based on the information registered in the relative word / phrase database 31 when the command from the user contains an ambiguity. That is, the phrase “in this case” indicates a relative positional relationship, and when the ambiguity determination unit 21 extracts a phrase that indicates such a relative positional relationship, the route analysis unit 22 determines that the map database Refer to and perform route analysis.
  • the route analysis unit 22 searches for “a bank in this” within a predetermined range based on the current position. As a result, the route analysis unit 22 extracts an extraction point A1 and an extraction point A2 which are "banks around this". Then, since the extraction point B1, which is the “corner” of the bank extracted as the extraction point A1, exists in the current traveling direction, the route analysis unit 22 uses the normal route analysis method to left the extraction point B1. The extraction point C1 is detected, and the route is analyzed with the extraction point C1 as one of the user's destination candidates.
  • the route analysis unit 22 Detects the direction of travel when traveling through the extraction point B2, and the user moves the extraction point C2 to the left of the extraction point B2, that is, the left corner of the traveling direction from the extraction point B2 Recognizing the other as the candidate, the route to the extraction point C2 is analyzed.
  • the route analysis unit 22 determines that the extraction point C1 and the extraction point C2 have no points on the route ahead ahead in the direction, because there is no point where they can arrive early from the current position. Route analysis is performed with two locations as user destination candidates.
  • the route analysis unit 22 supplies the analysis result of the two routes to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to display and output the route analysis result (shown as route analysis result (1) and route analysis result (2) in FIG. 7) supplied from the route analysis unit 22.
  • the navigation device 1 even when a relative phrase including “a passing place and a place existing in the traveling direction” is included, the route to the destination intended by the user. It becomes possible to search for Further, in the navigation device 1, when the object extracted in the range indicated by “in this case” is present at the passing place, the traveling history recorded in the traveling history recording unit 12 is referred to, Since it is possible to detect the traveling direction when the vehicle is traveling at a certain point, it becomes possible to search for a route to a destination intended by the user.
  • the user's speech "the tip of the nearby flower shop is left" is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 determines that “nearby” corresponding to the user's command supplied from the voice analysis processing unit 18 based on whether the relative phrase registered in the relative phrase database 31 is included. It is determined whether an ambiguity is included in "the left corner of the flower shop”.
  • the phrase “close to the tip of the nearby florist” includes relative phrases “near” and “next to xx”.
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 is recorded in the travel history recording unit 12 as needed based on the information registered in the relative word / phrase database 31 when the instruction from the user includes an ambiguity. Perform route analysis with reference to travel history.
  • the route analysis unit 22 sets "a nearby flower shop" within a radius D meter shown in FIG.
  • the search direction is searched around the current position with the search condition as the search condition.
  • the route analysis unit 22 may set the search condition as “the one or more candidate locations closest to the current location” and present the user with a plurality of nearest candidate locations, for example, three candidates as the search criteria. It is also good.
  • the route analysis unit 22 extracts an extraction point A1 and an extraction point A2 which are "near florists".
  • the florist extracted as the extraction point A1 is a portion included in the travel history recorded in the travel history recording unit 12.
  • the route analysis unit 22 detects the traveling direction when the vehicle is traveling at the extraction point A1, and the extraction point that is the next corner of the extraction point A1, that is, the nearest corner from the extraction point A1 to the traveling direction
  • the extraction point C1 with B1 turned to the left is recognized as one of the user's destination candidates, and the route to the extraction point C1 is analyzed.
  • the florist extracted as the extraction point A2 is not included in the travel history recorded in the travel history recording unit 12, but exists around the current position. That is, when the florist extracted as the extraction point A2 is set as a target, the user may have mistaken the route. Therefore, when the vehicle travels the extraction point A2 the fastest from any position in the travel history (when A2 indicated by the solid line arrow in FIG.
  • the extraction point 8 is the extraction point), the route analysis unit 22 Of the provisional route), and the extraction point C2 is obtained by bending the extraction point B2, which is the closest corner of the provisional route provisional traveling direction from the extraction point A2, to the left. Recognize it as the other destination candidate of.
  • the tip of the nearby florist on the left also shows only the traveling direction from the predetermined point, as in the case described with reference to Figs. 6 and 7. If the extraction point C1 is the destination of the user, there is no extraction point that can arrive early from the current position on the path ahead in the direction going in that direction. However, if the extraction point C2 is the destination of the user, there is an extraction point D2 that can arrive early from the current position on the route ahead in the direction that the user travels. Therefore, in addition to the extraction point C1 and the extraction point C2, the route analysis unit 22 executes the route analysis in which three places of the extraction point D2 are candidates for the destination of the user.
  • the route analysis unit 22 supplies the analysis result of the three routes to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to display and output the route analysis result (shown as route analysis result (1) and route analysis result (2) in FIG. 8) supplied from the route analysis unit 22.
  • the navigation device 1 when the extraction point which is not the destination of the current traveling direction and is not included in the travel history is searched within the range corresponding to the relative phrase “this part”. Since the user can detect the temporary traveling direction when the vehicle is traveling toward the target without mistake by referring to the traveling history recorded in the traveling history recording unit 12, the user can Even when traveling by mistake, it is possible to search for a route to a destination intended by the user.
  • the speech of the user “left at the previous intersection” is collected by the microphone 16, acquired by the audio data acquisition unit 17, and supplied to the audio analysis processing unit 18.
  • the voice analysis processing unit 18 performs voice analysis processing on the supplied voice data, and supplies the analysis result to the ambiguity determination unit 21.
  • the ambiguity determination unit 21 responds to the user's command supplied from the speech analysis processing unit 18 based on whether or not the relative phrase registered in the relative phrase database 31 is included. It is determined whether an ambiguity is included on the left of the intersection. The "left at the intersection" contains the relative phrase "before".
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • the route analysis unit 22 is recorded in the travel history recording unit 12 as needed based on the information registered in the relative word / phrase database 31 when the instruction from the user includes an ambiguity. Perform route analysis with reference to travel history.
  • the route analysis unit 22 refers to the travel history recorded in the travel history recording unit 12 and extracts the extraction points A1 and A2 that are “the previous intersection” within a predetermined range from the current position. Unlike in the case of the “pre-crossed intersection” described with reference to FIG. 3, there are a plurality of “pre-intersections” within a predetermined range.
  • the route analysis unit 22 refers to the travel history recorded in the travel history recording unit 12 and detects the traveling direction when the vehicle enters the intersection indicated by the extraction point A1 and the extraction point A2, and the extraction point In each of A1 and extraction point A2, the extraction point B1 and extraction point B2 in the case of turning left from the traveling direction are respectively recognized as the destination of the user, and the route is analyzed.
  • the route analysis unit 22 extracts the extraction point B1 and the extraction point B2 because there is no extraction point that can arrive early from the current position on the route ahead in the direction.
  • the route analysis is performed with two points as the destination candidate of the user.
  • the route analysis unit 22 supplies the analysis result of the route to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to display and output the route analysis result (shown as route analysis result (1) and route analysis result (2) in FIG. 9) supplied from the route analysis unit 22.
  • a plurality of “first corner” can be extracted within a predetermined range, and the traveling history recorded in the traveling history recording unit 12 is referred to, and the vehicle travels at a point Since it is possible to detect the direction of travel of each hour, search for a route to the destination intended by the user, even when the relative phrase including the ambiguity "Saki" is included. Is possible.
  • step S ⁇ b> 1 the current position information acquisition unit 11 acquires current position information of the vehicle and supplies it to the travel history recording unit 12 and the route analysis unit 22.
  • the traveling history recording unit 12 refers to the map registered in the map database 19 and records the traveling history of the vehicle based on the current position information of the vehicle supplied from the current position information acquiring unit 11.
  • step S2 based on the information supplied from the input control unit 15 or the voice analysis processing unit 18, the ambiguity determination unit 21 determines whether or not a navigation instruction has been received from the user. If it is determined in step S2 that the navigation instruction has not been received, the process returns to step S1.
  • the ambiguity determination unit 21 refers to the relative word / phrase database 31 in step S3 and the navigation instruction from the user includes the ambiguity. Determine if it is or not.
  • the ambiguity determination unit 21 supplies the determination result of the ambiguity to the route analysis unit 22 together with the information corresponding to the user's command.
  • step S4 the route analysis unit 22 executes a normal route analysis process, and the process proceeds to step S6.
  • step S2 If it is determined in step S2 that an ambiguity is included, a relative phrase corresponding route analysis process described later with reference to FIGS. 11 and 12 is performed in step S5, and the process proceeds to step S6.
  • step S6 the route analysis unit 22 supplies the analysis result of the route to the audio data output control unit 23 and the display control unit 25.
  • the audio data output control unit 23 converts the route analysis result supplied from the route analysis unit 22 into audio data, and controls the output of the audio data from the speaker 24.
  • the display control unit 25 controls the touch panel 13 to display and output the route analysis result supplied from the route analysis unit 22, and ends the process.
  • step S21 the route analysis unit 22 extracts, from the information corresponding to the user's command supplied from the ambiguity determination unit 21, the word / phrase group capable of determining the extraction point. For example, if the information corresponding to the user's command is "super around the corner of the next convenience store" described with reference to FIG. 4, the route analysis unit 22 first selects "next convenience store". Extract. For example, if the information corresponding to the user's command is "return to the corner before the passing convenience store" described using FIG. 5, the route analysis unit 22 first extracts "the passing convenience store”. .
  • the route analysis unit 22 refers to the relative word / phrase database 31 and determines whether the word / phrase group extracted in step S21 includes a relative word / phrase. For example, in the case where the information corresponding to the user's command is "super around the corner of the next convenience store" described with reference to FIG. 4, relative to the "next convenience store" extracted first It is a word that does not contain the target word and can search for the extraction point by the conventional method. For example, if the information corresponding to the user's command is “return to the corner before the passing convenience store” described with reference to FIG. The relative words registered in the database 31 are included.
  • step S22 If it is determined in step S22 that a relative phrase is not included, the route analysis unit 22 detects an extraction point corresponding to the extracted phrase from the map with reference to the map database 19 in step S23. The process proceeds to step S30 described later.
  • step S24 the route analysis unit 22 refers to the relative phrase database 31 and detects the corresponding phrase.
  • step S25 the route analysis unit 22 extracts, from the relative word / phrase database 31, the search criteria, the search direction, and the search range corresponding to the extracted word / phrase.
  • step S26 the route analysis unit 22 determines whether the travel history is used to search for the extraction point.
  • step S26 when it is determined that the travel history is not used, in step S27, the route analysis unit 22 detects the extraction point from the map based on the search criteria, the search direction, and the search range corresponding to the extracted word. Then, the process proceeds to step S30 described later.
  • step S26 If it is determined in step S26 that the travel history is to be used, the route analysis unit 22 reads the travel history recorded in the travel history recording unit 12 in step S28.
  • step S29 the route analysis unit 22 detects an extraction point from the map based on the search criteria, the search direction, the search range, and the travel history corresponding to the extracted word / phrase.
  • step S30 the route analysis unit 22 selects a plurality of candidates for the extraction points obtained in the process of step S23, step S27, or step S29. Determine if there is. If it is determined in step S30 that there is not a plurality of candidates, the process proceeds to step S32 described later.
  • step S31 the route analysis unit 22 determines whether or not the detection of the extraction point has ended for all the plurality of candidates. If it is determined in step S31 that the extraction point detection has not been completed for all of the plurality of candidates, the process returns to step S22, and the subsequent processes are repeated.
  • step S30 determines in step S30 that there is not a plurality of candidates, or if it is determined in step S31 that the extraction point detection has ended for all of the plurality of candidates, the route analysis unit 22 determines in step S32 It is determined whether the processing has been completed for all of the terms included in the information corresponding to the user's command. If it is determined in step S32 that the process has not been completed for all of the words, the process returns to step S21, the next word group is extracted, and the subsequent processes are repeated.
  • step S33 the route analysis unit 22 executes route analysis processing up to the last extraction point.
  • step S34 when the route analysis unit 22 proceeds in the direction of travel from the last extraction point, as in the case described with reference to FIG. Whether or not there is a suitable route. If it is determined in step S34 that a suitable route does not exist even in the case of proceeding in the traveling direction from the last extraction point, the process proceeds to step S6 in FIG.
  • step S35 the route analysis unit 22 proceeds in the traveling direction from the last extraction point The analysis process is performed, and the process proceeds to step S6 in FIG.
  • the route search can be performed corresponding to the relative word / phrase, the user makes a mistake in the route, the memory of the route is ambiguous, and the passing again Even if the user wants to go back, it is possible to estimate the route for which the user is aiming and perform route search.
  • the above-described technology includes, as hardware, a function of acquiring a current position, such as a personal computer, a cellular phone, or a smartphone, a display unit, an operation input unit, and an audio / image output unit.
  • a current position such as a personal computer, a cellular phone, or a smartphone
  • a display unit such as a liquid crystal display, or a liquid crystal display, or a liquid crystal display, or a liquid crystal display, or a display unit, or a display unit, an operation input unit, and an audio / image output unit.
  • the present invention can also be applied to other devices.
  • the series of processes described above can be performed by hardware or software.
  • a computer program that constitutes the software executes various functions by installing a computer incorporated in dedicated hardware or various programs.
  • a computer program recording medium is installed from, for example, a general-purpose personal computer or a smartphone from a computer program recording medium.
  • the program executed by the computer may be a computer program that performs processing in chronological order according to the order described in this specification, or in parallel, or when necessary, such as when a call is made.
  • the computer program may be a computer program that performs processing.
  • the navigation device 1 may have a function of editing the relative word / phrase database 31 shown in FIG.
  • the search condition is set to A meter for the relative word / phrase “Saki”, but the feeling may differ depending on the user.
  • the relative word / phrase database 31 by making search conditions set for each word / phrase editable, the relative word / phrase database 31 can be optimized for each user. Further, by enabling registration of new words in the relative word / phrase database 31, it becomes possible to realize designation of destinations by relative words / words corresponding to dialects or foreign languages.
  • the navigation device 1 may have a function of optimizing the relative word / phrase database 31 for each user by learning. For example, when the intersection searched for the word “the intersection of the previous time” and guided to the user is different from the user's intention, the user performs an operation such as canceling the search result or performing the search again.
  • the navigation apparatus 1 recognizes that the search condition corresponding to the phrase “Saki” is different from the user's intention when the user receives an operation input such as cancellation of the search result or re-execution of the search.
  • the relative phrase database 31 can be optimized for each user by changing the search condition registered in the relative phrase database 31.
  • the relative word / phrase database 31 by linking the registered word / phrase with the facility genre, it is about 30 m from the current location in the case of the “first intersection” and about 100 m from the current location in the “first convenience store”.
  • the search condition for each word may be changed depending on the facility to be used.
  • the relative word / phrase database 31 may be provided for each of the facility genres, instead of linking the registered words and the facility genres.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • Automation & Control Theory (AREA)
  • Educational Administration (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Instructional Devices (AREA)

Abstract

あいまいさを含む語句からユーザが目的とする進路をルート検索するナビゲーション装置を提供する。本発明のナビゲーション装置は、車両の現在位置を取得する現在位置情報取得部と、入力機器を制御してユーザからの指令を取り込む入力制御部と、取り込んだユーザの指令に相対的な語句が含まれているかを判定する判定部と、判定部による判定結果、および、現在位置情報取得部により取得された現在位置に基づいて、目的地を推定し、ルートを解析するルート解析部と、ルート解析部による解析結果の出力を制御する出力制御部とを備える。

Description

ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム
 本発明は、ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラムに関する。
 自動車等の車両に搭載されるナビゲーション装置は、ユーザが目的地として指定した地点までの経路を探索し、探索結果を車両位置周辺の地図と共に表示して、ユーザが、容易に確実に車両を目的地へ車両を到着させることを補助することができる。これらのナビゲーション装置には、リモートコントローラなどの入力デバイスに備えられているキー操作により、または、音声認識機能を用いて、目的地を入力することが可能である。
 従来、搭乗者の嗜好情報を記録し、搭乗者を認識し、車室内での搭乗者の通常の会話の内容と搭乗者の嗜好情報から、搭乗者の希望する行き先となる施設を推定し、その推定結果にもとづいて推定目的地を提案する技術がある(例えば、特許文献1)。
特開2006-195637号公報
 ナビゲーション装置は、現在の位置から、ユーザが指定する目的地までの最短経路、または、各種条件に合致した経路をユーザに提示するものである。
 上述した特許文献1に記載の技術は、音声認識した言葉を手がかりに、ユーザの嗜好に合致した施設等を推定し、それを目的地として設定し、ルートを検索するものである。
 しかしながら、実際の運転中には、経路を間違えたり、経路の記憶があいまいであったり、通り過ぎたところにもう一度戻りたい場合などがある。その場合、ユーザの自然な発話は、例えば、「さっきの角、右に曲がるんだった」「たしか、このあたりに花屋があって、その先の角を曲がる」「さっき、交差点から100mぐらい前にかわいいお店があったから戻りたい」など、具体的な目的地を指定しないものである。このような場合、ユーザは、目的地を明確にナビゲーション装置に指令することが困難である。また、上述した特許文献1を用いても、これらの発話から、目的地を推定することは困難である。
 そこで、本発明は、上記課題を解決すること、すなわち、あいまいさを含む語句からユーザが目的とする進路をルート検索することができる、ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラムを提供することを目的とする。
 上記課題を解決するために、本発明の第一の側面に係るナビゲーション装置は、車両の現在位置を取得する現在位置情報取得部と、入力機器を制御してユーザからの指令を取り込む入力制御部と、入力制御部が取り込んだユーザの指令に相対的な語句が含まれているかを判定する判定部と、判定部による判定結果、および、現在位置情報取得部により取得された車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析部と、ルート解析部による解析結果の出力を制御する出力制御部とを備えることを特徴とする。
 本発明の第二の側面に係るナビゲーション方法は、車両の現在位置を取得する現在位置情報取得ステップと、入力機器を制御してユーザからの指令を取り込む入力制御ステップと、入力制御ステップで取り込まれたユーザの指令に相対的な語句が含まれているかを判定する判定ステップと、判定ステップの処理による判定結果、および、現在位置情報取得ステップの処理により取得された車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析ステップと、ルート解析ステップの処理による解析結果の出力を制御する出力制御ステップとを含むことを特徴とする。
 本発明の第三の側面に係るコンピュータプログラムは、車両に搭載されるコンピュータに、車両の現在位置を取得する現在位置情報取得ステップと、入力機器を制御してユーザからの指令を取り込む入力制御ステップと、入力制御ステップで取り込まれたユーザの指令に相対的な語句が含まれているかを判定する判定ステップと、判定ステップの処理による判定結果、および、現在位置情報取得ステップの処理により取得された車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析ステップと、ルート解析ステップの処理による解析結果の出力を制御する出力制御ステップとを含む処理を実行させることを特徴とする。
 本発明によれば、あいまいさを含む語句からユーザが目的とする進路をルート検索することができる。
ナビゲーション装置1の機能構成について説明するための図である。 相対的語句データベース31に登録されている情報について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ユーザからの指令にあいまいさが含まれている場合のルート解析の例について説明するための図である。 ナビゲーション処理について説明するためのフローチャートである。 相対的語句対応ルート解析処理について説明するためのフローチャートである。 相対的語句対応ルート解析処理について説明するためのフローチャートである。
 以下、本発明の一実施の形態の情報送受信システムについて、図1~図12を参照しながら説明する。図1を参照して、本発明の一実施例であるナビゲーション装置1の機能構成について説明する。
 ナビゲーション装置1は、自動車等の車両に搭載され、運転者等のユーザの操作入力に基づいて、ユーザが目的とする地点までの経路を探索し、探索結果を車両位置周辺の地図と共に表示して、ユーザが、容易に確実に車両を目的地へ到着させることを補助するものである。ナビゲーション装置1は、例えば、住所で指定される場所や、所定の施設、ユーザがタッチパネル等の入力デバイスを操作したり、ユーザが発話した内容を音声解析することにより指定された場所を目的として設定し、目的地までの経路を検索して、ユーザに提示可能である。また、このナビゲーション装置1は、例えば、「さっきの角を右へ・・・」「このあたりの花屋の先を・・・」などの、あいまいさを含む語句、すなわち、絶対的ではなく相対的な位置関係を示す語句を含むユーザの発話を音声解析し、ユーザが、車両を目的地へ到着させることを補助するものである。
 ナビゲーション装置1は、現在位置情報取得部11、走行履歴記録部12、タッチパネル13、操作入力部14、入力制御部15、マイク16、音声データ取得部17、音声解析処理部18、地図データベース19、テキストデータベース20、あいまいさ判定部21、ルート解析部22、音声データ出力制御部23、スピーカー24、および、表示制御部25の各機能を有している。また、テキストデータベース20には、相対的語句データベース31が含まれている。
 現在位置情報取得部11は、GNSS(Global Navigation Satellite System/全球測位衛星システム)などを用いて、車両の現在位置情報を取得し、走行履歴記録部12およびルート解析部22に供給する。
 走行履歴記録部12は、地図データベース19に登録されている地図を参照し、現在位置情報取得部11から供給された車両の現在位置情報に基づいて、車両の走行履歴を記録する。
 タッチパネル13は、液晶パネル等の表示装置とタッチパッド等の位置入力装置を組み合わせたものである。タッチパネル13は、後述する表示制御部25の制御に基づいて各種情報を表示する。また、タッチパネル13は、ユーザが指先等で画面に触れることにより、操作入力が可能であり、ユーザの操作入力に対応する情報を、入力制御部15に供給する。
 操作入力部14は、例えば、ボタン、キー、リモートコントローラおよびリモートコントローラからの信号を受信する受信部などの各種入力デバイスにより構成されるものである。操作入力部14は、ユーザの操作入力を受け、ユーザの操作入力に対応する情報を、入力制御部15に供給する。
 入力制御部15は、タッチパネル13および操作入力部14を制御してユーザの指令入力を取り込み、ユーザの操作入力に対応する情報を、後述するあいまいさ判定部21に供給する。
 マイク16は、周囲の音声を集音する音声入力デバイスである。マイク16は、入力された音声データを、音声データ取得部17に供給する。
 音声データ取得部17は、マイク16により集音された音声データを取得し、音声解析処理部18に供給する。音声データ取得部17も、入力制御部15と共に、特許請求の範囲に記載の「入力制御部」の一部を構成する。
 音声解析処理部18は、音声データ取得部17により取得された音声データの供給を受け、音声解析処理を行う。音声解析処理部18は、音声解析結果を、後述するあいまいさ判定部21に供給する。
 地図データベース19は、走行履歴記録部12による走行履歴の記録、および、ルート解析部22によるルート解析のために用いられる地図データを記憶しているデータベースである。地図データベース19に記憶される地図情報には、店舗や学校、病院、その他の公共施設等の各施設の名称、属性、住所、電話番号などが対応付けられている。ユーザは、目的地の名称、住所、電話番号などで、ルートを検索することが可能である。また、ユーザは、「コンビニ(コンビニエンスストア)」や「銀行」などといった、店舗名称より広い定義や略称等で目的地を検索し、ルートを検索することも可能である。また、地図データベース19に記憶される地図情報は、例えば、図示しない通信処理部により、適宜、最新の地図情報を所定のサイトからダウンロードし、更新可能であると好適である。
 テキストデータベース20は、あいまいさ判定部21およびルート解析部22の処理に用いるために、ユーザの発話内容を認識するためのテキストデータを記憶している。また、テキストデータベース20には、相対的語句が登録されている相対的語句データベース31が含まれている。相対的語句データベース31は、あいまいさ判定部21によるユーザの発話にあいまいさが含まれているか否かの判定、および、ルート解析部22によるあいまいさを含んだユーザの指令に対するルートの解析に用いられる。相対的語句データベース31には、例えば、図2に示されるように、相対的語句と、それらの語句が入力された場合の検索基準、検索方向、および、検索条件に関する情報が登録されている。
 相対的語句データベース31には、例えば、図2に示されるように、相対的語句として、「さっき」「前」「今」「通り過ぎた」「行き過ぎた」「このあたり」などの複数の語句が登録され、それぞれの語句に対して、検索を行う場合の検索基準となる位置、検索方向、検索条件に関する情報が登録されている。例えば、相対的語句である「通り過ぎた」に対しては、検索基準として「現在位置」が登録され、検索方向として「走行履歴」が登録され、検索条件として「過去Bメートル」が登録されている。すなわち、相対的語句である「通り過ぎた」に対しては、車両の現在位置を基準として、走行履歴を参照して求められる検索方向に過去Bメートルの範囲内が検索されることが登録されている。検索条件となる「過去Bメートル」の範囲については、例えば、「さっき」であれば過去100メートル、「通り過ぎた」であれば過去500メートルなど、語句によって適切と思われる数値が適用される。
 図2に示される相対的語句データベース31には、例えば、「さっき」「前」「今」「通り過ぎた」「行き過ぎた」などの、絶対的ではなく相対的に過去の時間や経路を表す語句が含まれていると好適である。例えば、「○○m前」「○○分前」などの語句も、絶対的な地点の指定(例えば、銀行、交差点など)とは異なり、ある地点からの相対的な距離や、ある地点を走行していた時からの相対的な時刻を示す、相対的な、すなわち、あいまいさを有する語句である。また、相対的語句データベース31には、例えば、「この(現在地の)あたり」「(現在地の)ちかく」「○○の近く」「××の先」「××の手前」など、絶対的な地点の指定ではなく、ある地点からの相対的な位置関係を示す語句が含まれていると好適である。相対的語句データベース31には、図2に示される以外の情報が登録されていてもよいことは言うまでもない。
 あいまいさ判定部21は、入力制御部15および音声解析処理部18から供給された、ユーザの指令に対応する情報にあいまいさが含まれるか否かを判定する。あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、ユーザの指令にあいまいさが含まれるか否かを判定する。あいまいさ判定部21は、ユーザの指令に対応する情報とともに、判定結果をルート解析部22に供給する。
 ルート解析部22は、現在位置情報取得部11により取得された車両の現在地を示す情報の供給を受け、あいまいさ判定部21から供給された、あいまいさの判定結果に基づいて、ユーザの指令に対応するルートを、地図データベース19に登録されている地図から解析する。ルート解析部22は、ユーザからの指令にあいまいさが含まれていない場合、従来と同様な方法で、ルート解析を実行する。そして、ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、必要に応じて、走行履歴記録部12に記録されている走行履歴を参照し、相対的な語句が含まれているユーザの指令から目的地を推定して、ルート解析を実行する。ルート解析部22は、ルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。
 ルート解析部22による、ユーザからの指令にあいまいさが含まれている場合のルート解析の具体的な例については、図3~図9を用いて後述する。
 音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24から音声データを出力させる。音声データ出力制御部23は、出力制御部に対応する。
 スピーカー24は、音声データ出力制御部23の制御に基づいて、ルート解析結果に対応する音声データを出力する。
 表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果、および、車両の現在位置を表示出力させる。表示制御部25は、出力制御部に対応する。
 なお、図1においては、各機能構成を、一つのナビゲーション装置1が有するものとして説明したが、これらは、複数の装置によって構成されていてもよい。例えば、タッチパネル13、スピーカー24、操作入力部14、または、マイク16などが、他の構成要素と独立した装置として構成され、それぞれ、情報を授受可能なものとしてもよい。
 このように、ナビゲーション装置1は、車両の現在位置を取得する現在位置情報取得部11と、入力機器(タッチパネル13、操作入力部14、マイク16)を制御してユーザからの指令を取り込む入力制御部15および音声データ取得部17と、入力制御部15が取り込んだユーザの指令に相対的な語句が含まれているかを判定するあいまいさ判定部21と、あいまいさ判定部21による判定結果、および、現在位置情報取得部11により取得された車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析部22と、ルート解析部による解析結果の出力を制御する音声データ出力制御部23および表示制御部25とを含む構成を有する。これにより、ナビゲーション装置1は、あいまいさを含む語句から、ユーザが目的とする進路を推定し、ルート検索して、その結果をユーザに提示することができる。
 次に、図3~図9を参照し、ユーザからの指令にあいまいさが含まれている場合のルート解析の具体的な例について説明する。
 例えば、ナビゲーション装置1を搭載する車両が図3のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「さっきまがった交差点の100m前まで戻る」と発話した場合について説明する。
 ユーザの発話「さっきまがった交差点の100m前まで戻る」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「さっきまがった交差点の100m前まで戻る」にあいまいさが含まれるか否かを判定する。「さっきまがった交差点の100m前まで戻る」には、「さっき」「100m前」「戻る」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、ルート解析を実行する。すなわち、「さっき」の語句は過去の時間を示しており、あいまいさ判定部21が、このような過去の時間を示す語句を抽出した場合に、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。また、「通り過ぎた」などの語句は過去の経路を示しており、あいまいさ判定部21が、このような過去の時間を示す語句を抽出した場合に、ルート解析部22は、同様に走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。
 すなわち、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、「さっきまがった交差点」である抽出ポイントAを抽出する。そして、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、車両が抽出ポイントAを走行していた時の進行方向を検出し、抽出ポイントAから100m戻る、すなわち、抽出ポイントAから進行方向の逆側に100m移動した抽出ポイントBをユーザの目的地と認識して、抽出ポイントBへのルートを解析する。
 ルート解析部22は、ルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果の表示出力を制御する。
 このように、ナビゲーション装置1においては、走行履歴記録部12に記録されている走行履歴を参照し、車両がある地点を走行していた時の進行方向を検出することができるようにしたので、「戻る」というあいまいさを含む相対的な語句が含まれている場合においても、走行した経路をそのまま戻るような指示を行うのではなく、ユーザが意図する目的地への最適なルートを検索することが可能となる。
 次に、例えば、ナビゲーション装置1を搭載する車両が図4のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「次のコンビニの角を右折したあたりのスーパー」と発話した場合について説明する。
 ユーザの発話「次のコンビニの角を右折したあたりのスーパー」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「次のコンビニの角を右折したあたりのスーパー」にあいまいさが含まれるか否かを判定する。「次のコンビニの角を右折したあたりのスーパー」には、「あたり」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、必要に応じて、走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。
 すなわち、ルート解析部22は、通常のルート解析方法で、あいまいさが含まれていない、「次のコンビニ」である抽出ポイントAを抽出する。そして、ルート解析部22は、通常のルート解析方法で、あいまいさが含まれていない、「右折する」「角」である抽出ポイントBを抽出する。そして、ルート解析部22は、相対的語句データベース31を参照して、抽出ポイントBを基準として、右折した方向の所定の範囲内に「スーパー」があるか否かを、地図データベース19に登録されている地図を参照して検索する。そして、ルート解析部22は、検索結果得られた抽出ポイントCをユーザの目的地と認識して、抽出ポイントCへのルートを解析する。
 ルート解析部22は、ルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果の表示出力を制御する。
 このように、ナビゲーション装置1は、絶対的な語句と相対的な語句のいずれもが含まれている場合においても、ユーザが意図する目的地へのルートを検索することが可能となる。
 次に、例えば、ナビゲーション装置1を搭載する車両が図5のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「通り過ぎたコンビニの手前の角まで戻る」と発話した場合について説明する。
 ユーザの発話「通り過ぎたコンビニの手前の角まで戻る」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「通り過ぎたコンビニの手前の角まで戻る」にあいまいさが含まれるか否かを判定する。「通り過ぎたコンビニの手前の角まで戻る」には、「通り過ぎた」「××の手前」「戻る」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、必要に応じて、走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。
 すなわち、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、過去に走行した所定の範囲内に、「通り過ぎたコンビニ」である抽出ポイントA1および抽出ポイントA2を抽出する。そして、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、車両が抽出ポイントA1および抽出ポイントA2を走行していた時の進行方向をそれぞれ検出し、抽出ポイントA1および抽出ポイントA2の手前の角まで戻る、すなわち、抽出ポイントA1および抽出ポイントA2から進行方向の逆側の直近の角である抽出ポイントB1および抽出ポイントB2をユーザの目的地と認識する。そして、ルート解析部22は、抽出ポイントB1および抽出ポイントB2へのルートを、それぞれ解析する。
 ルート解析部22は、2つのルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果(図5において、ルート解析結果(1)およびルート解析結果(2)と示す)の表示出力を制御する。このとき、表示制御部25は、タッチパネル13を制御して、直近に通り過ぎたコンビニである抽出ポイントA1を基に検索されるルート解析結果(1)を優先して表示させるものとしてもよく、複数の候補があることをユーザに通知させるようにしてもよい。また、音声データ出力制御部23も、直近に通り過ぎたコンビニである抽出ポイントA1を基に検索されるルート解析結果(1)を優先してユーザに通知する音声出力を、スピーカー24から行わせるものとしてもよく、複数の候補があることをユーザに通知させるようにしてもよい。
 このように、ナビゲーション装置1においては、あいまいさを含む相対的な語句が含まれている場合のルート解析結果を複数求めることが可能となる。
 次に、例えば、ナビゲーション装置1を搭載する車両が図6のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「ひとつ前の交差点を右」と発話した場合について説明する。
 ユーザの発話「ひとつ前の交差点を右」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「ひとつ前の交差点を右」にあいまいさが含まれるか否かを判定する。「ひとつ前の交差点を右」には、「前」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、必要に応じて、走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。
 すなわち、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、「ひとつ前の交差点」である抽出ポイントAを抽出する。そして、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、車両が抽出ポイントAを走行していた時の進行方向を検出し、抽出ポイントAで右に曲がった場合の抽出ポイントBをユーザの目的地と認識して、抽出ポイントBへのルートを解析する。
 このようなあいまいな語句を含んでルートを検索した場合、特に、「ひとつ前の交差点を右」のように、所定の地点からの進行方向だけが示された場合には、ユーザの目的地は、抽出ポイントBであるのか、間違えずに「ひとつ前の交差点を右」に直進した場合の進路の先にあるのかを判断することは困難である。そこで、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、間違えずに「ひとつ前の交差点を右」に直進した場合の進路に、現在位置から早く到着可能な地点が存在するか否かを検索する。この場合、間違えずに「ひとつ前の交差点を右」に曲がった後直進した場合の進路に、現在位置から早く到着可能な抽出ポイントCが存在するので、ルート解析部22は、抽出ポイントCをユーザの目的地候補の一つと認識して、抽出ポイントCへのルートを解析する。
 ルート解析部22は、2つのルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果を表示出力させる。
 このように、ナビゲーション装置1においては、あいまいな語句を含んでルートを検索した場合に、ユーザの目的地が、あいまいな語句を含んだ指令により示される抽出ポイントBのみならず、間違えずに「ひとつ前の交差点を左」に直進した場合の進路の先にある抽出ポイントCのいずれである場合も、最適なルートを検索して、ユーザに提示することが可能となる。
 次に、例えば、ナビゲーション装置1を搭載する車両が図7のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「このあたりの銀行の角を左」と発話した場合について説明する。
 ユーザの発話「このあたりの銀行の角を左」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、ユーザからのナビゲーションの指令の中に相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「このあたりの銀行の角を左」にあいまいさが含まれるか否かを判定する。「このあたりの銀行の角を左」には、「このあたり」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、ルート解析を実行する。すなわち、「このあたり」の語句は相対的な位置関係を示しており、あいまいさ判定部21がこのような相対的な位置関係を示す語句を抽出した場合に、ルート解析部22は、地図データベースを参照し、ルート解析を実行する。
 すなわち、ルート解析部22は、相対的語句データベース31に登録されている内容に基づいて、「このあたりの銀行」を、現在位置を基準として、所定範囲内で検索する。その結果、ルート解析部22は、「このあたりの銀行」である抽出ポイントA1および抽出ポイントA2を抽出する。そして、抽出ポイントA1として抽出された銀行の「角」である抽出ポイントB1は、現在の進行方向に存在するので、ルート解析部22は、通常のルート解析方法を用いて、抽出ポイントB1を左に曲がった抽出ポイントC1を検出し、抽出ポイントC1を、ユーザの目的地候補の一方として、ルートを解析する。また、そして、抽出ポイントA2として抽出された銀行の「角」である抽出ポイントB2は、走行履歴記録部12に記録されている走行履歴に含まれる部分であるので、ルート解析部22は、車両が抽出ポイントB2を走行していた時の進行方向を検出し、抽出ポイントB2の先の角、すなわち、抽出ポイントB2から進行方向の直近の角を左に曲がった抽出ポイントC2をユーザの目的地候補の他方と認識して、抽出ポイントC2へのルートを解析する。
 なお、「このあたりの銀行の角を左」も、図6を用いて説明した場合と同様に、所定の地点からの進行方向だけが示されているが、抽出ポイントC1と抽出ポイントC2とのいずれがユーザの目的地であった場合においても、その方向に直進した先の進路に、現在位置から早く到着可能な地点が存在しないため、ルート解析部22は、抽出ポイントC1および抽出ポイントC2の2か所をユーザの目的地候補としたルート解析を実行する。
 ルート解析部22は、2つのルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果(図7において、ルート解析結果(1)およびルート解析結果(2)と示す)を表示出力させる。
 このように、ナビゲーション装置1においては、「このあたり」という、通り過ぎた場所も進行方向に存在する場所も含む相対的な語句が含まれている場合においても、ユーザが意図する目的地へのルートを検索することが可能となる。また、ナビゲーション装置1においては、「このあたり」で示される範囲内で抽出された対象物が通り過ぎた場所に存在した場合においては、走行履歴記録部12に記録されている走行履歴を参照し、車両がある地点を走行していた時の進行方向を検出することができるようにしたので、ユーザが意図する目的地へのルートを検索することが可能となる。
 次に、例えば、ナビゲーション装置1を搭載する車両が図8のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「近くの花屋の先の角を左」と発話した場合について説明する。
 ユーザの発話「近くの花屋の先の角を左」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「近くの花屋の先の角を左」にあいまいさが含まれるか否かを判定する。「近くの花屋の先の角を左」には、「近く」「××の先」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、必要に応じて、走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。
 すなわち、ルート解析部22は、相対的語句データベース31に登録されている内容に基づいて、「近くの花屋」を、現在位置を検索基準として、図2に示す半径Dメートル以内、たとえば半径500m圏内を検索条件とし、検索方向を現在位置周辺として検索する。または、ルート解析部22は、検索条件を現在地から「最寄りの1つまたは複数の候補地」としてもよく、最寄りの複数の候補地、たとえば3軒の候補をユーザに提示することを検索条件としてもよい。その結果、ルート解析部22は、「近くの花屋」である抽出ポイントA1および抽出ポイントA2を抽出する。そして、抽出ポイントA1として抽出された花屋は、走行履歴記録部12に記録されている走行履歴に含まれる部分である。そこで、ルート解析部22は、車両が抽出ポイントA1を走行していた時の進行方向を検出し、抽出ポイントA1の先の角、すなわち、抽出ポイントA1から進行方向の直近の角である抽出ポイントB1を左に曲がった抽出ポイントC1をユーザの目的地候補の一方と認識して、抽出ポイントC1へのルートを解析する。そして、抽出ポイントA2として抽出された花屋は、走行履歴記録部12に記録されている走行履歴に含まれないが、現在の位置周辺に存在する。すなわち、抽出ポイントA2として抽出された花屋を目標物としていた場合、ユーザは、ルートを間違えてしまっていた可能性がある。したがって、ルート解析部22は、車両が、走行履歴のいずれかの位置から最も早く抽出ポイントA2の前を走行していた場合(図8中、実線矢印で示される、A2が抽出ポイントであるときの仮ルート)における仮進行方向を検出し、抽出ポイントA2の先の角、すなわち、抽出ポイントA2から仮ルート仮進行方向の直近の角である抽出ポイントB2を左に曲がった抽出ポイントC2をユーザの目的地候補の他方と認識する。
 また、「近くの花屋の先の角を左」も、図6および図7を用いて説明した場合と同様に、所定の地点からの進行方向だけが示されている。抽出ポイントC1がユーザの目的地であった場合、その方向に直進した先の進路に、現在位置から早く到着可能な抽出ポイントは存在しない。しかしながら、抽出ポイントC2がユーザの目的地であった場合、その方向に直進した先の進路に、現在位置から早く到着可能な抽出ポイントD2が存在する。したがって、ルート解析部22は、抽出ポイントC1および抽出ポイントC2に加えて、抽出ポイントD2の3か所をユーザの目的地候補としたルート解析を実行する。
 ルート解析部22は、3つのルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果(図8において、ルート解析結果(1)およびルート解析結果(2)と示す)を表示出力させる。
 このように、ナビゲーション装置1においては、「このあたり」という相対的な語句に対応する範囲内に、現在の進行方向の先ではなく、また、走行履歴に含まれていない抽出ポイントを検索した場合、走行履歴記録部12に記録されている走行履歴を参照し、車両が、間違わずに目標物に向かって走行していた場合の仮進行方向を検出することができるようにしたので、ユーザがルートを間違えて走行していた場合においても、ユーザが意図する目的地へのルートを検索することが可能となる。
 次に、例えば、ナビゲーション装置1を搭載する車両が図9のXに示される位置であり、車両の走行履歴が点線で示される状態である場合に、ユーザが、「さっきの交差点を左」と発話した場合について説明する。
 ユーザの発話「さっきの交差点を左」は、マイク16により集音され、音声データ取得部17により取得され、音声解析処理部18に供給される。音声解析処理部18は、供給された音声データに対する音声解析処理を行い、解析結果をあいまいさ判定部21に供給する。
 あいまいさ判定部21は、相対的語句データベース31に登録されている相対的語句が含まれているか否かに基づいて、音声解析処理部18から供給された、ユーザの指令に対応する「さっきの交差点を左」にあいまいさが含まれるか否かを判定する。「さっきの交差点を左」には、「さっき」の相対的語句が含まれている。
 あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。ルート解析部22は、ユーザからの指令にあいまいさが含まれている場合、相対的語句データベース31に登録されている情報に基づいて、必要に応じて、走行履歴記録部12に記録されている走行履歴を参照し、ルート解析を実行する。
 ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、現在位置から所定範囲内に、「さっきの交差点」である抽出ポイントA1およびA2を抽出する。図3を用いて説明した「さっきまがった交差点」の場合と異なり、「さっきの交差点」は、所定範囲内に複数存在する。
 そして、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を参照し、車両が抽出ポイントA1および抽出ポイントA2に示される交差点に進入した場合の進行方向を検出し、抽出ポイントA1および抽出ポイントA2のそれぞれにおいて、進行方向から左折した場合の抽出ポイントB1および抽出ポイントB2をそれぞれユーザの目的地と認識してルートを解析する。
 なお、「さっきの交差点を左」も、図6~図8を用いて説明した場合と同様に、所定の地点からの進行方向だけが示されているが、抽出ポイントB1と抽出ポイントB2とのいずれがユーザの目的地であった場合においても、その方向に直進した先の進路に、現在位置から早く到着可能な抽出ポイントが存在しないため、ルート解析部22は、抽出ポイントB1および抽出ポイントB2の2か所をユーザの目的地候補としたルート解析を実行する。
 ルート解析部22は、ルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果(図9において、ルート解析結果(1)およびルート解析結果(2)と示す)を表示出力させる。
 このように、ナビゲーション装置1においては、「さっきの角」を所定範囲内で複数抽出可能とし、走行履歴記録部12に記録されている走行履歴を参照し、車両がある地点を走行していた時の進行方向をそれぞれ検出することができるようにしたので、「さっき」というあいまいさを含む相対的な語句が含まれている場合においても、ユーザが意図する目的地へのルートを検索することが可能となる。
 次に、図10のフローチャートを参照し、ナビゲーション装置1が実行するナビゲーション処理について説明する。
 ステップS1において、現在位置情報取得部11は、車両の現在位置情報を取得し、走行履歴記録部12およびルート解析部22に供給する。走行履歴記録部12は、地図データベース19に登録されている地図を参照し、現在位置情報取得部11から供給された車両の現在位置情報に基づいて、車両の走行履歴を記録する。
 ステップS2において、あいまいさ判定部21は、入力制御部15または音声解析処理部18から供給される情報に基づいて、ユーザから、ナビゲーションの指示を受けたか否かを判断する。ステップS2において、ナビゲーションの指示を受けていないと判断された場合、処理はステップS1に戻る。
 ステップS2において、ナビゲーションの指示を受けたと判断された場合、ステップS3において、あいまいさ判定部21は、相対的語句データベース31を参照して、ユーザからのナビゲーションの指令には、あいまいさが含まれるか否かを判断する。あいまいさ判定部21は、ユーザの指令に対応する情報とともに、あいまいさの判定結果をルート解析部22に供給する。
 ステップS2において、あいまいさが含まれないと判断された場合、ステップS4において、ルート解析部22は、通常のルート解析処理を実行し、処理は、ステップS6に進む。
 ステップS2において、あいまいさが含まれると判断された場合、ステップS5において、図11および図12を用いて後述する相対的語句対応ルート解析処理が実行され、処理は、ステップS6に進む。
 ステップS6において、ルート解析部22は、ルートの解析結果を、音声データ出力制御部23および表示制御部25に供給する。音声データ出力制御部23は、ルート解析部22から供給されたルート解析結果を音声データに変換し、スピーカー24からの音声データの出力を制御する。表示制御部25は、タッチパネル13を制御して、ルート解析部22から供給されたルート解析結果を表示出力させ、処理を終了する。
 次に、図11および図12のフローチャートを参照して、図10のステップS5において実行される相対的語句対応ルート解析処理について説明する。
 ステップS21において、ルート解析部22は、あいまいさ判定部21から供給された、ユーザの指令に対応する情報から、抽出ポイントを決定可能な語句群を抽出する。例えば、ユーザの指令に対応する情報が、図4を用いて説明した「次のコンビニの角を右折したあたりのスーパー」であった場合、ルート解析部22は、まず、「次のコンビニ」を抽出する。例えば、ユーザの指令に対応する情報が、図5を用いて説明した「通り過ぎたコンビニの手前の角まで戻る」であった場合、ルート解析部22は、まず、「通り過ぎたコンビニ」を抽出する。
 ステップS22において、ルート解析部22は、相対的語句データベース31を参照して、ステップS21において抽出した語句群には、相対的語句が含まれるか否かを判断する。例えば、ユーザの指令に対応する情報が、図4を用いて説明した「次のコンビニの角を右折したあたりのスーパー」であった場合、最初に抽出された「次のコンビニ」には、相対的語句が含まれておらず、従来の方法にて抽出ポイントの検索が可能な語句である。例えば、ユーザの指令に対応する情報が、図5を用いて説明した「通り過ぎたコンビニの手前の角まで戻る」であった場合、最初に抽出された「通り過ぎたコンビニ」には、相対的語句データベース31に登録されている相対的語句が含まれている。
 ステップS22において、相対的語句が含まれていないと判断された場合、ステップS23において、ルート解析部22は、地図データベース19を参照して、抽出された語句に対応する抽出ポイントを地図から検出し、処理は、後述するステップS30に進む。
 ステップS22において、相対的語句が含まれていないと判断された場合、ステップS24において、ルート解析部22は、相対的語句データベース31を参照し、対応する語句を検出する。
 ステップS25において、ルート解析部22は、相対的語句データベース31から、抽出された語句に対応する、検索基準、検索方向、検索範囲を抽出する。
 ステップS26において、ルート解析部22は、抽出ポイントの検索には、走行履歴が利用されるか否かを判断する。
 ステップS26において、走行履歴が利用されないと判断された場合、ステップS27において、ルート解析部22は、抽出された語句に対応する検索基準、検索方向、検索範囲に基づいて、抽出ポイントを地図から検出し、後述するステップS30に進む。
 ステップS26において、走行履歴が利用されると判断された場合、ステップS28において、ルート解析部22は、走行履歴記録部12に記録されている走行履歴を読み込む。
 ステップS29において、ルート解析部22は、抽出された語句に対応する検索基準、検索方向、検索範囲、および、走行履歴に基づいて、抽出ポイントを地図から検出する
 ステップS23、ステップS27、または、ステップS29の処理の終了後、ステップS30において、ルート解析部22は、ステップS23、ステップS27、または、ステップS29の処理において求められた抽出ポイントには、複数の候補があるか否かを判断する。ステップS30において、複数の候補がないと判断された場合、処理は、後述するステップS32に進む。
 ステップS30において、複数の候補があると判断された場合、ステップS31において、ルート解析部22は、複数候補すべてに対して抽出ポイントの検出が終了したか否かを判断する。ステップS31において、複数候補すべてに対して抽出ポイントの検出が終了していないと判断された場合、処理は、ステップS22に戻り、それ以降の処理が繰り返される。
 ステップS30において、複数の候補がないと判断された場合、または、ステップS31において、複数候補すべてに対して抽出ポイントの検出が終了したと判断された場合、ステップS32において、ルート解析部22は、ユーザの指令に対応する情報に含まれる語句の全てに対して処理が終了したか否かを判断する。ステップS32において、語句の全てに対して処理が終了していないと判断された場合、処理は、ステップS21に戻り、次の語句群が抽出されて、それ以降の処理が繰り返される。
 ステップS32において、語句の全てに対して処理が終了したと判断された場合、ステップS33において、ルート解析部22は、最後の抽出ポイントまでのルート解析処理を実行する。
 ステップS34において、ルート解析部22は、例えば、図6または図8を用いて説明した場合のように、最後の抽出ポイントから進行方向に進んだ場合、現在位置から早く到着可能な個所が存在するか、すなわち、適したルートが存在するか否かを判断する。ステップS34において、最後の抽出ポイントから進行方向に進んだ場合にも適したルートが存在しないと判断された場合、処理は、図10のステップS6に進む。
 ステップS34において、最後の抽出ポイントから進行方向に進んだ場合に適したルートが存在すると判断された場合、ステップS35において、ルート解析部22は、最後の抽出ポイントから進行方向に進んだ場合のルート解析処理を実行し、処理は、図10のステップS6に進む。
 このような処理により、ナビゲーション装置1においては、相対的な語句に対応してルート検索することができるので、ユーザが、経路を間違えたり、経路の記憶があいまいであったり、通り過ぎたところにもう一度戻りたい場合などであっても、ユーザが目的とする進路を推定して、ルート検索を実行することができる。
 上述した技術は、ハードウェアとしては、例えば、パーソナルコンピュータ、携帯電話機、または、スマートフォンなどの、現在位置を取得する手段、表示部、操作入力部、および、音声や画像の出力部の機能を備えた装置においても適用することができる。
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するコンピュータプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータやスマートフォンなどに、コンピュータプログラム記録媒体からインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるコンピュータプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるコンピュータプログラムであっても良い。
 また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、ナビゲーション装置1において、図2に示した相対的語句データベース31を編集する機能を備えてもよい。図2の相対的語句データベース31では、相対的語句「さっき」について検索条件をAメートルとしているが、この条件はユーザによって感覚が異なる場合がある。相対的語句データベース31において、語句ごとに設定される検索条件を編集可能とすることにより、相対的語句データベース31をユーザごとに最適化することができる。また、相対的語句データベース31に、新たな語句の登録を可能とすることで、方言や外国語に対応した相対的語句による行き先の指定を実現することが可能となる。
 また、ナビゲーション装置1においては、相対的語句データベース31を、学習によりユーザごとに最適化する機能を備えてもよい。例えば、「さっきの交差点」という語句に対して検索されてユーザに案内された交差点が、ユーザの意図と異なった場合、ユーザは、検索結果を取り消したり、検索をやり直すなどの操作を行う。ナビゲーション装置1は、ユーザにより、検索結果が取り消されたり、検索がやり直されるなどの操作入力を受けた場合、語句「さっき」に対応する検索条件がユーザ意図と異なることを認識する。このような場合、ナビゲーション装置1においては、相対的語句データベース31に登録されている検索条件を変更することで、相対的語句データベース31をユーザごとに最適化することが可能となる。
 また、相対的語句データベース31においては、登録語句と施設ジャンルをひも付けすることなどにより、「さっきの交差点」であれば現在地から30m程度、「さっきのコンビニ」なら現在地から100m程度など、目的とする施設によって語句ごとの検索条件を変更するものとしてもよい。また、この場合、登録語句と施設ジャンルをひも付けするのではなく、施設ジャンルごとに相対的語句データベース31を備えるものとしてもよい。
 1…ナビゲーション装置、 11…現在位置情報取得部、 12…走行履歴記録部、 13…タッチパネル、 14…操作入力部、15…入力制御部、 16…マイク、 17…音声データ取得部(入力制御部)、 18…音声解析処理部、 19…地図データベース、 20…テキストデータベース、 21…あいまいさ判定部(判定部)、 22…ルート解析部、 23…音声データ出力制御部(出力制御部)、 24…スピーカー、 25…表示制御部(出力制御部)、 31…相対的語句データベース

 

Claims (8)

  1.  現在位置を取得する現在位置情報取得部と、
     入力機器を制御してユーザからの指令を取り込む入力制御部と、
     前記入力制御部が取り込んだユーザの指令に相対的な語句が含まれているかを判定する判定部と、
     前記判定部による判定結果、および、前記現在位置情報取得部により取得された前記車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析部と、
     前記ルート解析部による解析結果の出力を制御する出力制御部と
     を備えることを特徴とするナビゲーション装置。
  2.  請求項1に記載のナビゲーション装置であって、
     前記車両の走行履歴を記録する走行履歴記録部をさらに備え、
     前記ルート解析部は、前記ユーザの指令に前記相対的な語句が含まれている場合、前記走行履歴記録部に記録されている前記走行履歴を参照して前記目的地を推定する
     ことを特徴とするナビゲーション装置。
  3.  請求項1または請求項2に記載のナビゲーション装置であって、
     前記ルート解析部は、前記ユーザの指令を語句群に分割して、それぞれの語句群に対応する抽出ポイントを導き出し、前記抽出ポイントが複数である場合、複数のルートを解析する
     ことを特徴とするナビゲーション装置。
  4.  請求項1~請求項3のいずれかに記載のナビゲーション装置であって、
     前記ルート解析部は、前記ユーザの指令に前記相対的な語句が含まれている場合、前記相対的な語句にごとに設定した検索基準、検索方向、または、検索条件の少なくともいずれかを用いてルートを解析する
     ことを特徴とするナビゲーション装置。
  5.  請求項1~請求項4のいずれかに記載のナビゲーション装置であって、
     前記ルート解析部は、前記ユーザの指令から、相対的に過去の時間や経路を示す語句を抽出し、抽出された語句に基づいて目的地を推定し、ルートを解析する
     ことを特徴とするナビゲーション装置。
  6.  請求項1~請求項5のいずれかに記載のナビゲーション装置であって、
     前記ルート解析部は、前記ユーザの指令から、ある地点からの相対的な位置関係を示す語句を抽出し、抽出された語句に基づいて目的地を推定し、ルートを解析する
     ことを特徴とするナビゲーション装置。
  7.  ナビゲーション装置が実行するナビゲーション方法であって、
     車両の現在位置を取得する現在位置情報取得ステップと、
     入力機器を制御してユーザからの指令を取り込む入力制御ステップと、
     前記入力制御ステップで取り込まれたユーザの指令に相対的な語句が含まれているかを判定する判定ステップと、
     前記判定ステップの処理による判定結果、および、前記現在位置情報取得ステップの処理により取得された前記車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析ステップと、
     前記ルート解析ステップの処理による解析結果の出力を制御する出力制御ステップと
     を含むことを特徴とするナビゲーション方法。
  8.  ナビゲーション装置に搭載されるコンピュータに、
     現在位置を取得する現在位置情報取得ステップと、
     入力機器を制御してユーザからの指令を取り込む入力制御ステップと、
     前記入力制御ステップの処理で取り込まれたユーザの指令に相対的な語句が含まれているかを判定する判定ステップと、
     前記判定ステップの処理による判定結果、および、前記現在位置情報取得ステップの処理により取得された前記車両の現在位置に基づいて、目的地を推定し、ルートを解析するルート解析ステップと、
     前記ルート解析ステップの処理による解析結果の出力を制御する出力制御ステップと
     を含む処理を実行させるコンピュータプログラム。

     
PCT/JP2018/045296 2017-12-18 2018-12-10 ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム WO2019124142A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017241549A JP2019109657A (ja) 2017-12-18 2017-12-18 ナビゲーション装置およびナビゲーション方法、ならびにプログラム
JP2017-241549 2017-12-18

Publications (1)

Publication Number Publication Date
WO2019124142A1 true WO2019124142A1 (ja) 2019-06-27

Family

ID=66994790

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045296 WO2019124142A1 (ja) 2017-12-18 2018-12-10 ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2019109657A (ja)
WO (1) WO2019124142A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6810492B1 (ja) * 2020-05-12 2021-01-06 株式会社Luup 運用支援システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013931A (ja) * 2005-05-30 2007-01-18 Denso Corp 車載通信装置および車載通信装置用プログラム
JP2008014818A (ja) * 2006-07-06 2008-01-24 Denso Corp 作動制御装置、プログラム
JP2010277200A (ja) * 2009-05-26 2010-12-09 Ntt Comware Corp 対象物検索装置及びその処理方法とプログラム
JP2011185666A (ja) * 2010-03-05 2011-09-22 Clarion Co Ltd ナビゲーション装置とそのナビゲーション方法
JP2017194850A (ja) * 2016-04-21 2017-10-26 クラリオン株式会社 情報提供システム、情報提供装置および情報提供方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013931A (ja) * 2005-05-30 2007-01-18 Denso Corp 車載通信装置および車載通信装置用プログラム
JP2008014818A (ja) * 2006-07-06 2008-01-24 Denso Corp 作動制御装置、プログラム
JP2010277200A (ja) * 2009-05-26 2010-12-09 Ntt Comware Corp 対象物検索装置及びその処理方法とプログラム
JP2011185666A (ja) * 2010-03-05 2011-09-22 Clarion Co Ltd ナビゲーション装置とそのナビゲーション方法
JP2017194850A (ja) * 2016-04-21 2017-10-26 クラリオン株式会社 情報提供システム、情報提供装置および情報提供方法

Also Published As

Publication number Publication date
JP2019109657A (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
US8209177B2 (en) Voice recognition system having articulated talk-back feature
US8965697B2 (en) Navigation device and method
US8521539B1 (en) Method for chinese point-of-interest search
US9188456B2 (en) System and method of fixing mistakes by going back in an electronic device
US20080059199A1 (en) In-vehicle apparatus
US20140100847A1 (en) Voice recognition device and navigation device
JP5340418B2 (ja) ナビゲーション装置
WO2013069060A1 (ja) ナビゲーション装置および方法
JP4466379B2 (ja) 車載音声認識装置
JP4997796B2 (ja) 音声認識装置、及びナビゲーションシステム
EP2660562A1 (en) Route Guidance Apparatus and Method with Voice Recognition
JP6214297B2 (ja) ナビゲーション装置および方法
KR101063607B1 (ko) 음성인식을 이용한 명칭 검색 기능을 가지는 네비게이션시스템 및 그 방법
JP5217838B2 (ja) 車載機器の操作装置及び車載機器の操作方法
JP5218459B2 (ja) 車両用情報端末及びプログラム
JP4914632B2 (ja) ナビゲーション装置
WO2019124142A1 (ja) ナビゲーション装置およびナビゲーション方法、ならびにコンピュータプログラム
JP2002350163A (ja) ナビゲーション装置
JP4637793B2 (ja) 施設検索装置
JPWO2006028171A1 (ja) データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
US20150192425A1 (en) Facility search apparatus and facility search method
WO2011030404A1 (ja) オペレーティングシステム及びオペレーティング方法
JP2010038751A (ja) ナビゲーション装置
JP4758277B2 (ja) ナビゲーション装置
JP2005215474A (ja) 音声認識装置、プログラム、記憶媒体及びナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18891886

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18891886

Country of ref document: EP

Kind code of ref document: A1