WO2010032282A1 - サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法 - Google Patents

サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法 Download PDF

Info

Publication number
WO2010032282A1
WO2010032282A1 PCT/JP2008/066628 JP2008066628W WO2010032282A1 WO 2010032282 A1 WO2010032282 A1 WO 2010032282A1 JP 2008066628 W JP2008066628 W JP 2008066628W WO 2010032282 A1 WO2010032282 A1 WO 2010032282A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
intersection
image
shooting
server device
Prior art date
Application number
PCT/JP2008/066628
Other languages
English (en)
French (fr)
Inventor
雄一 田村
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2008/066628 priority Critical patent/WO2010032282A1/ja
Priority to US12/988,591 priority patent/US20110032359A1/en
Priority to CN200880130821XA priority patent/CN102132334A/zh
Priority to JP2010529516A priority patent/JPWO2010032282A1/ja
Publication of WO2010032282A1 publication Critical patent/WO2010032282A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Definitions

  • the present invention relates to a server device, a mobile terminal device, an intersection guidance system, and an intersection guidance method.
  • navigation devices mounted on moving bodies such as vehicles have been widely used.
  • the technology of navigation devices has been remarkably developed, and many functions are provided for easier understanding and guidance for users.
  • One of the basic functions of these functions is route guidance at intersections. And when performing route guidance at intersections, if the route guidance using the live-action image of the intersection can be done, it is easier to understand for the user than the route guidance that does not use the live-action image using texture mapping etc. It becomes. Therefore, in order to provide route guidance at intersections using live-action images, a navigation device having a camera function and using real-action images taken by a camera has been proposed (see Patent Documents 1 and 2). : Hereinafter referred to as “conventional examples 1 and 2”).
  • the frame data in the video data obtained by shooting includes frame data having the same shooting position
  • the extra frame data is deleted and the same shooting is performed.
  • One frame data of the position is assumed.
  • guidance using live-action video is performed while suppressing an increase in the total amount of data serving as the basis of video presented at the time of guidance.
  • a still image taken at every predetermined distance is converted into a landscape video, and a video to be presented at the time of guidance is created.
  • the frame progress in the guide video data is different from the frame progress in the video when passing through an actual intersection. For this reason, since the frame data corresponding to the vehicle position is reproduced and displayed every time the vehicle position is detected, after all, the guidance image cannot be used as a frame-advance video of a still image. As a result, despite the fact that live-action images are used, it is difficult to provide realistic intersection guidance. Further, in the technique of Conventional Example 2 described above, a video to be presented at the time of guidance is created based on still images at predetermined distances. It's hard to say that it can be used as a feed video, and it is possible to guide the intersection full of reality.
  • the present invention has been made in view of the above circumstances, and provides a new intersection guidance system and intersection guidance method that can efficiently use storage resources and improve user convenience. Objective.
  • the present invention is a server device that is communicable with at least one mobile terminal device, and the imaging reported from the mobile terminal device receiving the imaging request when passing at least one predetermined intersection
  • a collecting means for collecting images and information at the time of photographing
  • a generating means for generating standard image information to be photographed when passing through the predetermined intersection satisfying a predetermined speed change condition based on a collection result by the collecting means
  • Storage means for storing the standard image information; issuing an acquisition request for image information corresponding to the acquisition request in the standard image information when an acquisition request for an image at the time of passage of one of the predetermined intersections is received
  • a standard image reporting means for reporting to the mobile terminal device.
  • the present invention is a mobile terminal device that moves with a mobile body and can communicate with the server device according to any one of claims 1 to 5, comprising: a display unit that displays an image; An acquisition means for making an acquisition request to the server apparatus and acquiring image information at the time of passing an intersection corresponding to the acquisition request from the server apparatus; to the display means for an image based on an acquisition result by the acquisition means; A display control means for performing display control of the mobile terminal device.
  • the present invention comprises the server device according to any one of claims 1 to 5; and at least one mobile terminal device capable of communicating with the server device, wherein the mobile terminal device Display means for displaying an image; acquisition means for making an acquisition request to the server apparatus and acquiring image information at the time of passing an intersection corresponding to the acquisition request from the server apparatus; acquisition by the acquisition means
  • An intersection guidance system comprising: display control means for controlling display of an image on the display means based on a result.
  • the present invention is an intersection guidance method that is performed in cooperation between at least one mobile terminal device and a server device that can communicate with the mobile terminal device.
  • a collecting step of collecting a photographed image and photographing time information reported from a mobile terminal device receiving a photographing request at the time of passing through a predetermined intersection; and the server device based on a collection result in the collecting step A generation step of generating standard image information to be photographed when passing through an intersection satisfying a predetermined speed change condition; and when the server device receives an acquisition image of one passage image at the predetermined intersection, A standard image reporting step of reporting an image corresponding to the acquisition request in the standard image information to a mobile terminal device that has issued the acquisition request; and issuing the acquisition request
  • a intersection guidance method characterized by comprising a; mobile terminal device, and a display step for displaying based on the image information corresponding to the acquisition request.
  • FIG. (1) for demonstrating the example of the predetermined speed change conditions in 1st Example.
  • FIG. (2) for demonstrating the example of the predetermined speed change conditions in 1st Example.
  • FIG. 10 It is a block diagram for demonstrating the structure of the navigation apparatus of FIG. It is a sequence diagram for demonstrating the production
  • IMB picked-up image information
  • FIG. 1 shows a schematic configuration of an intersection guidance system 700 according to an embodiment.
  • the server device 710 is arranged at a fixed position.
  • the mobile terminal apparatus 720 p is mounted on a moving body MV p, and moves together with the moving body MV p.
  • the server device 710 and the mobile terminal device 720 p can perform data communication via the network system NWS. Detailed information exchange between the devices will be described later. Here, it is assumed that information exchange between the devices is performed via the network system NWS.
  • the server device 710 includes a storage unit 711, a collection unit 712, a generation unit 713, and a standard image report unit 714.
  • the storage means 711 stores standard image information at a predetermined intersection.
  • the “standard image information” is image information of a predetermined intersection photographed by the mobile terminal device 720 p when the mobile object MV P passes through the predetermined intersection satisfying a predetermined speed change condition.
  • the captured images at the time of passing through the predetermined intersections are classified for each predetermined intersection by at least one environmental element at the time of shooting of the shooting date and time and the weather at the time of shooting, and stored in the storage unit 711.
  • the standard image information also includes a predetermined speed change condition for each predetermined intersection.
  • the storage unit 711 stores not only standard image information but also various information.
  • the collection means 712 sends a photographing request when passing a predetermined intersection to the mobile terminal device 720 p .
  • a shooting start point and a shooting end point at a predetermined intersection are designated.
  • the collecting means 712 passes the desired intersection in the movement range. You can send a photo request.
  • the mobile if it is reported planned travel route from the mobile terminal apparatus 720 p is the collection means 712, for the desired intersections of the planned travel on the route, the imaging request during passage, which reported the travel route It can also be sent to the terminal device 720 p .
  • collection means 712 when receiving the location information of the periodically moving body MV p from the mobile terminal device 720 p, the desired of the intersection from the change in the position information, to pass the estimated It is also possible to send a shooting request at the time of passing the intersection to the mobile terminal device 720 p estimated to pass the intersection.
  • the collecting unit 712 collects the captured image and the shooting time information.
  • the collection result by the collection unit 712 is sent to the generation unit 713.
  • the "shooting information” when the mobile MV p passes through the predetermined intersection, that is to be included in information of environmental factors such as weather conditions during running information and the image capturing of the moving body MV p it can.
  • Said generating means 713 on the basis of the photographic image and the photographing time information is collected results by collecting means 712, a standard image mobile MV p is captured when passing through meet the predetermined speed change conditions prescribed intersection Generate information.
  • a standard image mobile MV p is captured when passing through meet the predetermined speed change conditions prescribed intersection Generate information.
  • the position condition may be, for example, to be mobile MV p at a predetermined speed change condition is positioned substantially the same position for each predetermined time interval at the time which has passed through the predetermined intersection.
  • the travel information in the shooting time information includes the mobile terminal device 720 p receiving the shooting request.
  • the speed change information when the moving body MV p that moves with the vehicle passes through the predetermined intersection is included.
  • the generation unit 713 creates standard image information when the speed change information included in the shooting time information satisfies a predetermined speed change condition.
  • the running information in the shooting time information includes shooting position information for each image frame in the shot image.
  • the generation unit 713 employs an image frame of a captured image whose shooting position information included in the shooting time information satisfies the position condition when generating the standard image information.
  • the standard image reporting means 714 receives an image acquisition request at the time of passing a predetermined intersection from the mobile terminal device 720 p . Upon receiving this acquisition request, the standard image reporting unit 714 reads from the storage unit 711 image information at the time of passing through a predetermined intersection corresponding to the acquisition request. Then, the standard image reporting unit 714 reports the reading result to the mobile terminal device 720 p that has issued the acquisition request. As will be described later, this acquisition request may include information on the environmental elements at the time of shooting at least one of shooting date and time and shooting weather in addition to designation of a predetermined intersection.
  • the mobile terminal device 720 p includes an acquisition unit 724, a display control unit 725, and a display unit 726.
  • the imaging unit 721 captures the periphery of the moving object MV p under the control of the imaging information reporting unit 723. The result of photographing by the photographing unit 721 is sent to the photographing information reporting unit 723.
  • the travel time information acquisition unit 722 acquires the travel time information of the moving body MV p under the control of the imaging information report unit 723.
  • the “running time information” is determined in advance so as to be information relating to the speed of the moving body MV p when referring to an actual speed change when generating the standard image information described above. .
  • “running time information” is adapted to be predetermined such that the information on the position of the moving body MV p.
  • the travel information may include information on environmental elements at the time of shooting at least one of shooting date and time and shooting weather. The acquisition result by the travel time information acquisition unit 722 is sent to the photographing information report unit 723.
  • the above-described shooting information reporting unit 723 receives a shooting request from the server device 710 when passing a predetermined intersection. Upon receipt of this shooting request, the shooting information reporting means 723 issues a shooting command to the shooting means 721 between the shooting start point specified by the shooting request and the shooting end point, and information on running time is provided. The acquisition result by the acquisition means 722 is received. The shooting information reporting unit 723 acquires the shooting result by the shooting unit 721 when passing the predetermined intersection for which the shooting request has been received, and the shooting at the time of passing the predetermined intersection based on the acquisition result by the travel time information acquisition unit 722. Generate time information. Subsequently, the photographing information reporting unit 723 reports the photographed image and the photographing time information as the photographing result to the server device 710 at a predetermined timing.
  • the acquisition unit 724 sends an acquisition request for image information when passing the intersection to the server device 710. And the acquisition means 724 acquires the image information at the time of passage of the intersection corresponding to the said acquisition request from the server apparatus 710 as a response with respect to this acquisition request.
  • the acquisition request may include information on environmental elements at the time of shooting at least one of shooting date / time and shooting weather when the server device 710 can respond. it can.
  • the display control means 725 controls the image display means 726 based on the result acquired by the acquisition means 724.
  • the display control unit 725 Upon control of the the display unit 726, the display control unit 725, when the moving body MV p passes the predetermined intersection, with reference to the intersection passage aspects of the mobile MV p, based on the acquisition result by the obtaining means 724 You may make it perform control to the display means 726 of an image.
  • the “intersection passing mode” refers to a difference in mode when passing through an intersection, such as a higher speed and a lower speed than a mode satisfying a predetermined speed change condition.
  • the display means 726 displays an image based on the acquisition result by the acquisition means 724 under the control of the display control means 725.
  • intersection guidance method executed in the intersection guidance system 700 configured as described above will be described.
  • the imaging information reporting unit 723 controls the imaging unit 721 and the travel time information acquisition unit 722. Then, the shooting information reporting unit 723 is generated based on the shot image that is the shooting result by the shooting unit 721 from the shooting start point to the shooting end point specified by the shooting request and the acquisition result by the travel time information acquisition unit 722. The shooting time information is sent to the server device 710.
  • the collecting unit 712 collects and generates the captured image and the shooting time information. Send to means 713.
  • the generation unit 713 that receives the captured image and the shooting time information generates standard image information that is captured when the vehicle passes through a predetermined intersection satisfying a predetermined speed change condition.
  • the generation unit 713 When the actual speed change is referred to in the generation process of the standard image information, the generation unit 713 includes a predetermined intersection having the same environmental element at the time of shooting in the standard image information recorded in the storage unit 711. It is determined whether or not a captured image exists. Then, when there is no photographed image at the predetermined intersection, the generation unit 713 generates standard image information based on the photographed image and the photographing time information that are the collection results. On the other hand, when there is a photographed image at the predetermined intersection, the generation unit 713 compares the photographing time information in the read photographed image with newly collected photographing time information.
  • the generation unit 713 updates the standard image information when the newly collected shooting time information is closer to the predetermined speed change condition, and the read shooting time information is the predetermined speed. When the change condition is close, the standard image information is not updated.
  • the generation unit 713 determines whether the shooting position of the image frame satisfies the position condition for each image frame of the collected shooting image. Judging. Subsequently, when the shooting position of the image frame satisfies the position condition, the generation unit 713 has the same shooting position in the standard image information stored in the storage unit 711 and at the time of shooting. It is determined whether an image frame having the same environmental element exists. If the same image frame does not exist, the generation unit 711 employs the collected image frame of the captured image as part of the standard image information.
  • the generation unit 713 determines whether or not a continuous smooth image is obtained when the image frame of the collected captured image is adopted as the standard image information. When it is determined that the image is smooth, the image frame of the collected captured image is updated to be used as part of the standard image information.
  • continuous smooth image means that when the image frame of the collected captured image is adopted as the standard image information, the movement of the elements in the whole changes greatly when reproduced as the standard image (for example, An image that does not shift the building position in the image.
  • the standard image information is generated in the server device 710 in the same manner as described above. Processing is performed.
  • the acquisition means 724 of the mobile terminal device 720 p When approaching a predetermined intersection to be guided by a live-action video, the acquisition means 724 of the mobile terminal device 720 p sends a request for acquisition of image information when passing the intersection to the server device 710.
  • the “intersection to be guided by the live-action video” can be designated in advance by the user.
  • the standard image reporting unit 714 reads from the storage unit 711 image information at the time of passing through a predetermined intersection corresponding to the acquisition request. Then, the standard image reporting means 714 sends the reading result to the mobile terminal device 720 p that issued the acquisition request.
  • the acquisition unit 724 of the mobile terminal device 720 p acquires a captured image at the time of passing through the predetermined intersection as a response to the acquired acquisition request.
  • the display control unit 725 controls the image display unit 726 based on the result acquired by the acquisition unit 724.
  • the display control unit 725 refers to the intersection passage aspects of the mobile MV p, it may perform control to display unit 726 of an image based on the obtained result by obtaining unit 724.
  • a vehicle etc. can be mentioned, for example.
  • a mobile terminal device when a mobile body is a vehicle, a car navigation device etc. can be mentioned.
  • intersection guidance system 700 of the embodiment is configured to include two or more computers as calculation means, and the functions of the above-described means other than the storage means 711, the photographing means 721, and the display means 726 are executed as a program.
  • These programs may be acquired in the form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in the form of delivery via a network such as the Internet. Can do.
  • intersection guidance system of the present invention will be described with reference to FIGS.
  • the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.
  • FIG. 2 shows a schematic configuration of the intersection guidance system 100A according to the first embodiment.
  • the intersection guidance system 100A is an aspect of the intersection guidance system 700 (see FIG. 1) of the above-described embodiment.
  • the server apparatus 200A is arranged at a fixed position in a predetermined building, for example.
  • the navigation device 300A p is mounted on a vehicle CR p as a moving body MV p, and moves together with the vehicle CR p.
  • server device 200A via the network system 500, and can communicate with the navigation device 300A p.
  • Server device 200A is, the contents of data to be exchanged between the navigation device 300A p will be described later.
  • the aforementioned navigation device 300A p the vehicle speed sensor 390 p that is provided on the vehicle CR p is connected. Further, the navigation device 300 ⁇ / b> A p performs data communication with the server device 200 ⁇ / b> A via the network system 500.
  • the navigation device 300A p is the contents of data to be exchanged between the vehicle speed sensor 390 p and the server device 200A will be described later.
  • the server device 200A has a standard image information generation function and a photographed image report function in the standard image information. As shown in FIG. 3, the server device 200A having these functions includes a storage device 210A as a storage unit 711, a transmission / reception unit 220, and a processing control unit 230A.
  • the storage device 210A is composed of a hard disk device or the like that is a nonvolatile storage device.
  • the storage device 210A stores various data such as standard image information (SIA).
  • the storage control unit 230A can access the storage device 210A.
  • the individual standard image information CSA j at a predetermined intersection of the T-junction shown in FIG. 5 will be described.
  • the individual standard image information CSA j includes a shooting start point (SRP), a shooting end point (SPP), a speed change condition (ASA), The captured image information (IMA) classified for each environmental element information (EEI) at the time of shooting is included.
  • the environmental element information at the time of photographing is “season”, “time zone”, and “weather”.
  • season is classified into “spring”, “summer”, “autumn”, and “winter”, and “time zone” is classified into “day” and “night”. It is like that.
  • weather is classified into “sunny”, “cloudy”, and “rain”.
  • the speed change condition is a condition related to the speed change of the vehicle CR p when passing through a predetermined intersection.
  • Figure 7A is at the intersection shown in FIG. 5, the vehicle CR p travels toward from P1 to P2, examples of speed change of the vehicle CR p which assumed to have the time of turn left the intersection is shown .
  • FIG. 7B in the intersection, the vehicle CR p travels toward from P1 to P3, examples of speed change of the vehicle CR p which is assumed at the time of right turn the intersection is shown.
  • the speed change condition varies depending on the traveling direction of the vehicle CR p such as a right turn or a left turn.
  • the speed change condition described above is determined in advance by experiment, simulation, experience, and the like.
  • the captured image information includes a captured image that is a captured result and speed change information of the vehicle CR p when the captured image is acquired.
  • the transmission / reception unit 220 performs communication control with the network system 500.
  • the transmission / reception unit 220 transmits the data received from the network system 500 to the processing control unit 230A.
  • the transmission / reception unit 220 sends the data received from the processing control unit 230 ⁇ / b> A to the network system 500.
  • the server device 200A (more specifically, the processing control unit 230A) is adapted to be able to perform communication with the navigation device 300A p.
  • the above-described processing control unit 230A performs overall control of the entire server device 200A.
  • the processing control unit 230A includes a central processing unit (CPU) and its peripheral circuits.
  • CPU central processing unit
  • the various functions described above are realized by the processing control unit 230A executing various programs. These functions include functions as the collection unit 712, the generation unit 713, and the standard image report unit 714 in the above-described embodiment.
  • the processing control unit 230A includes, in the first embodiment, through the transceiver unit 220 receives the planned travel route from the navigation device 300A p, is adapted to transmit the imaging request to the navigation device 300A p. More particularly, in the first embodiment receives a planned travel route from the navigation device 300A p, searches whether a predetermined intersection should register a photographed image in the storage device 210A on the planned travel route exists. Then, if there is a predetermined intersection on the predetermined traveling route, the processing control section 230A includes an imaging request during the passage of the predetermined intersection, and transmits to the navigation device 300A p that reported the travel route.
  • the processing control unit 230A via the transmitting and receiving unit 220, when collecting the captured image and the photographing time information from the navigation device 300A p undergoing imaging request, with reference to the actual speed change information, the speed change condition Standard image information that is captured when the vehicle CR p passes a predetermined intersection is generated in a manner that satisfies the above condition.
  • this shooting information as described below, the rate change information of the vehicle CR p and, include environmental element information of "season", “time zone”, “weather” It is.
  • the processing control unit 230A accesses the storage device 210A, and the course form such as straight, right turn, left turn is the same in the individual standard image information of a predetermined intersection corresponding to the collected photographed image. In addition, it is determined whether there is a captured image having the same environmental elements of “season”, “time”, and “weather”. Then, when the captured image does not exist, the processing control unit 230A generates individual standard image information of the predetermined intersection based on the collected captured image and the captured time information.
  • the processing control section 230A includes a speed change information at the time of acquisition of the captured image that is registered in the individual standard image information, and the speed change information collected from the navigation device 300A p And which of the two is closer to the speed change condition is determined. Then, the processing control unit 230A, when people speed change information collected from the navigation device 300A p is close to the speed change condition, updates the contents of the individual standard image information, speed changes registered in the individual standard image information When the information is closer to the speed change condition, the standard image information is not updated.
  • an algorithm used for determining the closeness between the actual speed change information and the speed change condition by the processing control unit 230A is determined in advance based on experiments, simulations, experiences, and the like.
  • the processing control unit 230A via the transceiver unit 220 receives the acquisition request of the passage when the image of the predetermined intersection from the navigation device 300A p.
  • the processing control unit 230A accesses the storage device 210A and reads the captured image information when passing through a predetermined intersection corresponding to the acquisition request. Then, the processing control unit 230A sends the captured image information to the navigation device 300A p that issued the acquisition request.
  • the acquisition request includes designation of “season”, “time zone”, and “weather” as environmental elements in addition to designation of a desired intersection.
  • the navigation device 300A p includes a sound output unit 340, a display unit 350 as the display means 726, and an operation input unit 360.
  • the navigation device 300A p includes a travel information acquisition unit 370 as a part of the travel time information acquisition unit 722, a GPS (Global Positioning System) reception unit 375 as a part of the travel time information acquisition unit 722, and an imaging unit. And a camera unit 380 as 721.
  • Additional control unit 310A the overall control of the navigation device 300A p.
  • the control unit 310A will be described later.
  • the storage device 320 is composed of a hard disk device or the like that is a nonvolatile storage device.
  • the storage device 320 stores various data such as navigation information (NVI).
  • NVI navigation information
  • the storage unit 320 can be accessed by the control unit 310A.
  • various data used for navigation such as map data, POI (Point Of Interests) data, background data, and the like are stored. These data are read by the control unit 310A.
  • the above-described wireless communication unit 330 includes an antenna (not shown).
  • the wireless communication unit 330 processes a received signal from a base station prepared in the network system 500 received by the antenna, and converts it into a digital data signal that can be processed by the control unit 310A.
  • the wireless communication unit 330 processes the transmission signal from the control unit 310A and sends it to the network system 500 (more specifically, a base station) via the antenna in the form of a wireless signal.
  • the navigation device 300A p (more specifically, the control unit 310A) can communicate with the server device 200A.
  • a weather information acquisition request specifying a position is sent to a weather information server (not shown), so that weather information at a specified date and time at the specified position can be acquired.
  • the weather information acquired in this way is sent to the control unit 310A.
  • the sound output unit 340 includes a speaker and outputs sound corresponding to the sound data received from the control unit 310A. This sound output unit 340 outputs guidance voices such as the traveling direction of the vehicle CR p , the traveling situation, and the traffic situation regarding the navigation processing under the control of the control unit 310A.
  • the display unit 350 includes a display device such as a liquid crystal panel, and displays an image corresponding to the display data received from the control unit 310A. Under the control of the control unit 310A, the display unit 350 displays an image of live-action video, map information, route information, guidance information, and the like when passing a predetermined intersection during navigation processing.
  • a display device such as a liquid crystal panel
  • a key part provided in the main body part a touch panel provided in a display device of the display unit 350 can be used.
  • it can replace with the structure which has a key part, or can also employ
  • this operation input unit 360 by the user to operate, configure and operation command operation contents of the navigation device 300A p it is performed.
  • the user uses the operation input unit 360 to set a destination or the like related to a route search described later in the navigation process.
  • Such input contents are sent from the operation input unit 360 to the control unit 310A as operation input data.
  • the traveling information acquisition unit 370 includes an acceleration sensor, an angular velocity sensor, and the like, and detects acceleration and angular velocity acting on the vehicle. Further, the travel information acquisition unit 370 acquires a navigation device 300A p, is utilized for data transfer between the vehicle speed sensor 390 p mounted on the vehicle CR p, the velocity data is detected result by the vehicle speed sensor 390 p To do. Each data obtained in this way is sent to the control unit 310A as travel data.
  • the GPS receiving unit 375 calculates the current position of the vehicle CR p based on reception results of radio waves from a plurality of GPS satellites.
  • the GPS receiving unit 375 measures the current time based on the date / time information transmitted from the GPS satellite. Information on these current position and current time is sent to the control unit 310A as GPS data.
  • the camera unit 380 includes an in-vehicle camera (not shown) and a data processing unit.
  • the in-vehicle camera is disposed on the back side of the room mirror, for example.
  • the in-vehicle camera then captures a moving image of a peripheral image in the traveling direction of the vehicle that is close to the driver's normal line of sight.
  • the data processing unit converts the photographing result obtained by the in-vehicle camera into digital image data. Digital image data of the surrounding image of the vehicle thus photographed is sent to the control unit 310A as a photographed image.
  • the control unit 310A includes a central processing unit (CPU) and its peripheral circuits.
  • CPU central processing unit
  • the various functions described above are realized by the control unit 310A executing various programs. These functions include the functions of the shooting status reporting unit 723, the acquisition unit 724, and the display control unit 725 in the above-described embodiment.
  • the control unit 310A in response to the route search command to the specified destination or the like by the user, by using the navigation information stored in the storage device 320, planned travel route to a destination of the vehicle CR p Explore.
  • the route search command specifying the destination or the like by the user is notified to the control unit 310A as operation input data from the operation input unit 360.
  • the planned travel route searched in this way is sent to the server device 200A via the wireless communication unit 330.
  • control unit 310A periodically acquires travel data from the travel information acquisition unit 370 and GPS data from the GPS reception unit 375.
  • the control unit 310A detects the current position of the vehicle CR p and detects the current date and time based on the time measurement result in the GPS data and the time measurement result of the internal timer.
  • control unit 310A receives an imaging request when passing through a predetermined intersection from the server device 200A via the wireless communication unit 330.
  • the control unit 310A receives this shooting request, the control unit 310A generates a shooting command from the shooting start point specified by the shooting request to the shooting end point, and sends the command to the camera unit 380.
  • the control unit 310A acquires weather information when passing the intersection via the wireless communication unit 330.
  • the control unit 310A acquires a captured image from the camera unit 380 and generates travel time information based on the travel data, GPS data, and weather information.
  • the traveling time information includes speed change information of the vehicle CR p and environmental element information of “season”, “time zone”, and “weather”.
  • the control unit 310A sends the captured image and the shooting time information to the server device 200A via the wireless communication unit 330.
  • control unit 310A sends an image information acquisition request for a predetermined intersection on the planned travel route based on the route search result to the server device 200A via the wireless communication unit 330. Then, the control unit 310A acquires the image information of the intersection corresponding to the acquisition request from the server device 200A as a response to the acquisition request.
  • control unit 310A processes the image information acquired from the server device 200A, generates display data corresponding to the image information, and sends the display data to the display unit 350. In this process, the control unit 310A controls the display unit 350 based on the travel time information included in the image information and the travel data so that the display image matches the passing mode at the intersection of the vehicle.
  • intersection guidance system 100A configured as described above will be described mainly focusing on the standard image information generation process.
  • Standard image information generation process ⁇ Standard image information generation process >> First, standard image information (SIA) generation processing in the storage device 210A of the server device 200A will be described.
  • SIA image information
  • route search is performed, planned travel route is the search result is assumed to be reported to the server device 200A. Then, the server device 200A searches for the predetermined intersection to be registered in the storage device 210A on the planned traveling route, and when the predetermined intersection exists on the planned traveling route, It is assumed that the report towards the navigation device 300A p that reported the planned travel route.
  • the navigation device 300A p is, when passing through the predetermined intersection that received imaging request, as well as capturing an image of the predetermined intersection , Get shooting information.
  • the navigation device 300A p when photographing the predetermined intersections is completed, at a predetermined timing, the photographed image (IMD) and shooting information (SHA), and transmits to the server device 200A.
  • IMD photographed image
  • SHA shooting information
  • step S12 When the server apparatus 200A receives the captured image (IMD) and the shooting time information (SHA), in step S12, standard image information generation processing is performed.
  • step S22 the processing control unit 230A accesses the storage device 210A, the course form is the same in the individual standard image information of the predetermined intersection corresponding to the collected captured image, and “season” ”,“ Time ”, and“ weather ”are determined whether there is a captured image having the same environmental element. If the result of this determination is negative (step S22: N), the process proceeds to step S23.
  • step S23 the processing control unit 230A generates individual standard image information based on the captured image and the shooting time information, and registers it in the storage device 210A. When this registration is finished, the standard image information generation process in step S12 is finished.
  • step S22 determines whether or not the speed change condition is close. If the result of this determination is negative (step S24: N), the standard image information generation process in step S12 ends.
  • step S24 determines whether the result of the determination in step S24 is affirmative (step S24: Y).
  • the process proceeds to step S25.
  • step S25 the processing control unit 230A updates the individual standard image information based on the photographed image and the photographing time information, and registers it in the storage device 210A. When this registration is finished, the standard image information generation process in step S12 is finished.
  • intersection guidance processing Next, the intersection guidance process by the intersection guidance system 100A will be described.
  • the route search is performed in the control unit 310A, planned travel route is derived.
  • the scheduled travel route is transmitted to the server device 200A via the wireless communication unit 330.
  • an image information acquisition request for a predetermined intersection existing on the planned travel route is automatically transmitted to the server device 200A.
  • the processing control section 230A is, when receiving the acquisition request for scheduled running route and the image information from the navigation device 300A p, it accesses the storage device 210A, whether a predetermined intersection on the traveling route exists Search for. If a predetermined intersection exists on the travel route, the processing control unit 230A reads image information at the time of passing through the predetermined intersection corresponding to the acquisition request from the storage device 210A. Subsequently, the processing control section 230A includes the image information, via the transceiver unit 220 transmits to the navigation device 300A p that has issued the acquisition request.
  • the control unit 310A acquires image information at the time of passing a desired intersection from the server device 200A. Then, the control unit 310A, upon the vehicle CR p passes through the intersection, with reference to the intersection passage aspects of the vehicle CR p, and displays the captured image on the display unit 350.
  • the server device 200A is, when collecting the captured image and the photographing time information from the navigation device 300A p undergoing imaging request, the processing control section 230A of the server device 200A, the standard The image information generation process is started.
  • the processing control unit 230A determines whether or not a captured image of a predetermined intersection having the same course form and the same environmental element exists. Then, when the captured image does not exist, the processing control unit 230A generates standard image information based on the captured image and the shooting time information. On the other hand, when the captured image exists, the processing control unit 230A updates the content of the standard image information when the newly collected captured image is more suitable for the speed change condition.
  • the control unit 310A of the navigation device 300A p is in accordance with the passage of the intersection of the vehicle CR p, the vehicle CR An image based on the image information is displayed on the display unit 350 with reference to the intersection passing mode of p .
  • FIG. 11 shows a schematic configuration of an intersection guidance system 100B according to the second embodiment.
  • the intersection guidance system 100B is an aspect of the intersection guidance system 700 according to the embodiment described above, similarly to the intersection guidance system 100A according to the first example.
  • the description will be given mainly focusing on these differences.
  • the server device 200B includes a storage device 210B instead of the storage device 210A, and a processing control unit 230B instead of the processing control unit 230A, as compared with the server device 200A described above.
  • the point to prepare is different.
  • the storage device 210B is composed of a hard disk device or the like that is a nonvolatile storage device, similar to the storage device 210A described above. This storage device 210B is different from the storage device 210A in that it stores standard image information (SIB) instead of standard image information (SIA).
  • SIB standard image information
  • SIA standard image information
  • the position condition (ASB) is derived from the speed change condition described above.
  • the position condition (ASB) is that the position is substantially the same as the position at every predetermined time interval when the vehicle CR p passes a predetermined intersection under the speed change condition. This is a condition regarding the shooting position.
  • FIG. 14 shows an image frame shooting position when the vehicle CR p travels from P1 to P2 and turns left at the intersection as an example of the position condition. As described above, when the vehicle turns to the left, the vehicle decelerates, so that the interval between the photographing positions is narrowed.
  • image frame data associated with a shooting position is recorded for each frame in the shooting image information (IMB).
  • the processing control unit 230B is configured to include a central processing unit (CPU) and its peripheral circuits and execute various programs in the same manner as the processing control unit 230A described above. .
  • the processing control unit 230B is different in function of the generation unit 713 from the processing control unit 230A described above.
  • the processing control unit 230B collects the captured image and the shooting time information from the navigation device 300B p that has received the shooting request via the transmission / reception unit 220, the vehicle CR p passes through the predetermined intersection in a manner that satisfies the position condition. Standard image information to be photographed at the time of shooting is generated.
  • the shooting time information includes shooting position information associated with an image frame and environmental elements such as “season”, “time zone”, and “weather”, as will be described later. Contains information.
  • the processing control unit 230B determines, for each image frame of the collected captured image, whether the capturing position of the image frame satisfies the position condition. Subsequently, when the shooting position of the image frame satisfies the position condition, the processing control unit 230B accesses the storage device 210B and includes the path in the individual standard image information of the predetermined intersection corresponding to the collected shot image. It is determined whether or not an image frame having the same shooting position exists in a shot image having the same form and having the same environmental elements of “season”, “time”, and “weather”. Then, when there is no image frame having the same shooting position, the processing control unit 230B employs the collected image frame of the shot image as a part of the individual standard image information.
  • continuous smooth image means that when the image frame of the collected captured image is adopted as the standard image information, it is compared with the image frames corresponding to before and after stored in the storage device 210B. This means an image in which the movement of the element is not significantly changed (for example, the position of the image is shifted, a car suddenly appears, etc.).
  • control unit 310B The navigation device 300B p is configured in the same manner as the navigation device 300A p described above except that the function of the photographing information reporting unit 723 is different in the control unit. For this reason, in the following description, the control unit in the navigation device 300B p is referred to as “control unit 310B”.
  • the control unit 310B acquires a captured image from the camera unit 380 and generates travel time information based on the travel data, GPS data, and weather information.
  • the traveling time information includes shooting position information associated with the image frame and environmental element information of “season”, “time zone”, and “weather”. Yes. Then, the control unit 310B sends the captured image and the shooting time information to the server device 200B via the wireless communication unit 330.
  • intersection guidance system 100B configured as described above will be described mainly focusing on the standard image information generation process.
  • Standard image information generation process First, standard image information (SIB) generation processing in the storage device 210B of the server device 200B will be described.
  • the navigation device 300B p performs a route search and reports a planned travel route as a search result to the server device 200B. Then, the server device 200B searches whether there is a predetermined intersection to be registered in the storage device 210B on the planned travel route, and when there is a predetermined intersection on the planned travel route, It is assumed that the planned travel route is reported to the navigation device 300B p that has reported the planned travel route.
  • the navigation device 300B p is, when passing through the predetermined intersection that received imaging request, as well as capturing an image of the predetermined intersection , Get shooting information.
  • the navigation device 300B p when photographing the predetermined intersections is completed, at a predetermined timing, the photographed image (IMD) and shooting information (SHB), and transmits to the server device 200B.
  • IMD photographed image
  • SHB shooting information
  • step S32 When the server apparatus 200B receives the captured image (IMD) and the shooting time information (SHB), in step S32, standard image information generation processing is performed.
  • step S42 the process control unit 230B selects the first frame of the collected captured image. Thereafter, the process proceeds to step S43.
  • step S43 the process control unit 230B determines whether or not the shooting position of the frame satisfies the position condition.
  • whether or not the shooting position satisfies the position condition is determined by whether or not the shooting position is within the allowable range shown in FIG. This allowable range depends on the speed of the vehicle CR, and becomes wider as the speed of the vehicle CR is higher, and becomes narrower as the speed is lower. If the result of this determination is negative (step S43: N), the process proceeds to step S47 described later.
  • step S43 determines whether the result of the determination in step S43 is affirmative (step S43: Y). If the result of the determination in step S43 is affirmative (step S43: Y), the process proceeds to step S44.
  • step S44 the processing control unit 230B determines whether there are image frames having the same course form and environmental elements. If the result of this determination is negative (step S44: N), the process proceeds to step S45.
  • step S45 the processing control unit 230B adopts the collected image frame of the captured image as a part of the individual standard image information. Thereafter, the process proceeds to step S47.
  • step S44 determines whether the result of the determination in step S44 is affirmative (step S44: Y). If the result of the determination in step S44 is affirmative (step S44: Y), the process proceeds to step S46.
  • step S46 the processing control unit 230B determines whether or not to update the standard image information in which the image frame of the collected captured image is part of the individual standard image information.
  • whether or not to update the individual standard image information is determined as to whether or not a continuous smooth image is obtained when the image frame of the collected captured image is adopted as the standard image information. If the result of this determination is affirmative (step S46: Y), the process returns to step S45.
  • step S46: N the process proceeds to step S47.
  • step S47 the process control unit 230B determines whether or not the processes in steps S43 to S46 described above have been performed for all image frames. If the result of this determination is negative (step S47: N), the process proceeds to step S48.
  • step S48 the processing control unit 230B selects the next image frame.
  • the process control unit 230B performs the processes of steps S43 to S46 described above.
  • step S32 ends.
  • intersection guidance processing The intersection guidance process by the intersection guidance system 100B is performed in the same manner as the intersection guidance process by the intersection guidance system 100A in the first embodiment described above.
  • the server device 200B is, when collecting the captured image and the photographing time information from the navigation device 300B p undergoing imaging request, the processing controller 230B of the server 200B, standard The image information generation process is started.
  • the processing control unit 230B extracts, for each image frame of the collected captured image, a shooting position associated with the image frame, and determines whether or not the position condition derived from the speed change condition is satisfied. Judging.
  • the image frame of the collected photographed image is used for updating the standard image information.
  • the control unit 310B of the navigation device 300B p is in accordance with the passage of the intersection of the vehicle CR p, the vehicle CR An image based on the image information is displayed on the display unit 350 with reference to the intersection passing mode of p .
  • the navigation device has a function of transmitting the captured image and the acquired shooting time information to the server device and acquiring image information of a desired intersection from the server device. It was decided.
  • some of the navigation devices in the intersection guidance system have a function of acquiring image information of a desired intersection from the server device.
  • the navigation device is mounted on the vehicle CR p .
  • the function of the control unit in the navigation device is separated from the main body portion of the navigation device, and the main body portion is separated.
  • the portable device may transmit the acquired photographed image and photographing information to the server device via the personal computer. Further, the portable device may receive a photographing request from the server device via a personal computer.
  • the navigation device searches for a planned travel route to the destination of the vehicle.
  • the server device may search for the planned travel route.
  • the server device transmits the planned travel route to the navigation device.
  • the environmental element information at the time of shooting is “season”, “time zone”, and “weather”, but the combination of environmental element information is arbitrary, Other environmental elements may be added.
  • the classification of each environmental element can be arbitrarily performed, for example, by classifying “weather” into “sunny”, “cloudy”, “rain”, and “snow”.
  • the server device when the planned travel route is reported from the navigation device, the server device issues a shooting request at the time of passage for a desired intersection on the planned travel route.
  • the travel route was sent to the reported navigation device.
  • the server device can send an imaging request when passing through a desired intersection in the movement range.
  • the photographing request at the time of passage of a desired intersection among the intersections estimated to pass from the change of the position information is It can also be sent to a navigation device estimated to pass an intersection.
  • control unit controls the display unit to display an image based on the image information of a desired intersection. Further, highlighting with highlight processing or the like may be performed. In addition, the control unit may perform overlay display using an arrow display on the image for route guidance at a desired intersection, and may also use sound output from the sound output unit in combination. .
  • the functions of the respective means other than the storage means, the photographing means, and the display means are realized by execution of a program by a computer. However, all or one of these respective means is realized.
  • the unit may be configured by hardware using a dedicated LSI (Large Scale Integrated Circuit) or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

 サーバ装置710では、複数の移動端末装置720p(p=1,2,…)のいずれかからの撮影画像及び撮影時情報を受けるたびに、生成手段713が、当該撮影画像及び撮影時情報に基づいて、標準画像情報の生成処理を開始する。かかる標準画像情報の生成に際して、生成手段713は、所定の速度変化条件を満たす態様で、移動体MVpが所定交差点を通過したときに撮影されている標準画像情報を生成する。そして、移動端末装置720pでは、取得手段724が、所望の交差点を指定してサーバ装置710から画像情報を取得し、移動体MVpが所定交差点を通過する際に、表示制御手段725が、移動体MVpの交差点通過態様を参照して、当該画像情報に基づく画像の表示手段726への制御を行う。この結果、記憶資源を効率良く使用するとともに、利用者の利便性を向上させることができる。

Description

サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法
 本発明は、サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法に関する。
 従来から、車両等の移動体に搭載されるナビゲーション装置が広く普及している。そして、近年におけるナビゲーション装置の技術の発展は目覚しく、利用者に対するより分り易い案内や誘導を目指して多くの機能が備えられている。
 こうした機能のうちの基幹機能の一つとして、交差点での進路案内がある。そして、交差点での進路案内を行うに際して、交差点の実写映像を利用した進路案内ができれば、テクスチャーマッピング等を使用した実写映像を利用しない進路案内よりも、利用者にとって分りやすく、リアリティに溢れたものとなる。そこで、実写映像を利用した交差点での進路案内を行うために、ナビゲーション装置がカメラ機能を有する構成とし、カメラにより撮影された実写映像を利用するものが提案されている(特許文献1,2参照:以下、「従来例1,2」と呼ぶ)。
 ここで、従来例1の技術では、撮影により得られた映像データの中のフレームデータについて、撮影位置が同一のフレームデータが含まれている場合には、余分なフレームデータを削除し、同一撮影位置のフレームデータを1つとする。こうして、案内時に提示する映像の基礎となるデータの総量の増加を抑制しつつ、実写映像による案内が行われる。また、従来例2の技術では、所定距離ごとに撮影した静止画を風景動画に変換して、案内時に提示する映像を作成している。
特開2002-269592号公報 特開2004-212232号公報
 ところで、車両が交差点へ侵入し、交差点から退出するときには、特に、右折、左折をする際には、減速、加速を行う。このため、車両の実際の交差点通過時における速度変化の態様に合わせて、実写映像を利用した進路案内を行うことが好ましい。
 しかしながら、上述した従来例1の技術では、案内用映像データにおけるフレーム進行は、実際の交差点の通過時の映像におけるフレーム進行とは異なることになる。このため、車両位置に対応するフレームデータを、車両位置を検出するたびに再生表示することになるので、結局のところ、案内用画像は、静止画のコマ送り映像としかなりえない。この結果、実写映像を利用しているにもかかわらず、リアリティに溢れた交差点案内ができるとはいい難い。また、上述した従来例2の技術では、所定距離ごとの静止画に基づいて案内時に提示する映像を作成するので、従来例1の技術の場合と同様に、案内用画像が、静止画のコマ送り映像としかなりえず、リアリティに溢れた交差点案内ができるとはいい難い。
 このため、交差点での進路案内に際して、リアリティ溢れる進路案内を行うことのできる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つに挙げられる。
 本発明は、上記の事情を鑑みてなされたものであり、記憶資源を効率良く使用するとともに、利用者の利便性を向上させることができる新たな交差点案内システム及び交差点案内方法を提供することを目的とする。
 本発明は、第1の観点からすると、少なくとも1つの移動端末装置と通信可能なサーバ装置であって、少なくとも1つの所定交差点の通過時における撮影依頼を受けている移動端末装置から報告された撮影画像及び撮影時情報を収集する収集手段と;前記収集手段による収集結果に基づいて、前記所定交差点を所定の速度変化条件を満たして通過した場合に撮影される標準画像情報を生成する生成手段と;前記標準画像情報を記憶する記憶手段と;前記所定交差点の1つの通過時画像の取得要求を受けた場合に、前記標準画像情報における前記取得要求に対応する画像情報を、前記取得要求を発行した移動端末装置に報告する標準画像報告手段と;を備えることを特徴とするサーバ装置である。
 本発明は、第2の観点からすると、移動体とともに移動し、請求項1~5のいずれか一項に記載のサーバ装置と通信可能な移動端末装置であって、画像を表示する表示手段と;前記サーバ装置に対して取得要求を行い、前記サーバ装置から前記取得要求に対応する交差点の通過時の画像情報を取得する取得手段と;前記取得手段による取得結果に基づく画像の前記表示手段への表示制御を行う表示制御手段と;を備えることを特徴とする移動端末装置である。
 本発明は、第3の観点からすると、請求項1~5のいずれか一項に記載のサーバ装置と;前記サーバ装置と通信可能な少なくとも1つの移動端末装置と;を備え、前記移動端末装置は、画像を表示する表示手段と;前記サーバ装置に対して取得要求を行い、前記サーバ装置から前記取得要求に対応する交差点の通過時の画像情報を取得する取得手段と;前記取得手段による取得結果に基づく画像の前記表示手段への表示制御を行う表示制御手段と;を備える、ことを特徴とする交差点案内システムである。
 本発明は、第4の観点からすると、少なくとも1つの移動端末装置と、前記移動端末装置と通信可能なサーバ装置とが協働して行う交差点案内方法であって、前記サーバ装置が、少なくとも1つの所定交差点の通過時における撮影依頼を受けている移動端末装置から報告された撮影画像及び撮影時情報を収集する収集工程と;前記サーバ装置が、前記収集工程における収集結果に基づいて、前記所定交差点を所定の速度変化条件を満たして通過した場合に撮影される標準画像情報を生成する生成工程と;前記サーバ装置が、前記所定交差点の1つの通過時画像の取得要求を受けた場合に、前記標準画像情報における前記取得要求に対応する画像を、前記取得要求を発行した移動端末装置に報告する標準画像報告工程と;前記取得要求を発行した移動端末装置が、前記取得要求に対応する画像情報に基づく表示を行う表示工程と;を備えることを特徴とする交差点案内方法である。
本発明の一実施形態に係る交差点案内システムの構成を説明するためのブロック図である。 本発明の第1実施例に係る交差点案内システムの構成を説明するためのブロック図である。 図2のサーバ装置の構成を説明するためのブロック図である。 図3の標準画像情報(SIA)の構成を説明するための図である。 所定交差点の例を説明するための図である。 図4の個別標準画像情報(CSAj)の内容を説明するための図である。 第1実施例における所定の速度変化条件の例を説明するための図(その1)である。 第1実施例における所定の速度変化条件の例を説明するための図(その2)である。 図2のナビゲーション装置の構成を説明するためのブロック図である。 第1実施例における標準画像情報(SIA)の生成処理を説明するためのシーケンス図である。 図9の標準画像生成処理を説明するためのフローチャートである。 本発明の第2実施例に係る交差点案内システムの構成を説明するためのブロック図である。 図11のサーバ装置の構成を説明するためのブロック図である。 第2実施例における個別標準画像情報(CSBj)の内容を説明するための図である。 第2実施例における所定の速度変化条件から導かれた位置条件の例を説明するための図である。 図13の撮影画像情報(IMB)の内容を説明するための図である。 第2実施例における標準画像情報(SIB)の生成処理を説明するためのシーケンス図である。 図16の標準画像生成処理を説明するためのフローチャートである。 位置条件を満たす撮影位置と当該撮影位置の許容範囲を説明するための図である。
 以下、本発明の一実施形態を、図1を参照して説明する。なお、以下の説明においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
 [構成]
 図1には、一実施形態に係る交差点案内システム700の概略的な構成が示されている。
 この図1に示されるように、交差点案内システム700は、サーバ装置710と、移動端末装置720p(p=1,2,…)とを備えている。ここで、サーバ装置710は、固定的な位置に配置されている。また、移動端末装置720pは、移動体MVpに搭載されており、移動体MVpとともに移動するようになっている。そして、サーバ装置710と、移動端末装置720pとは、ネットワークシステムNWSを介して、データ通信を行うことができるようになっている。なお、各装置間の詳細な情報のやり取りについては後述する。ここで、各装置間の情報のやり取りは、ネットワークシステムNWSを介して行われるものとして説明する。
 <サーバ装置710の構成>
 上記のサーバ装置710は、記憶手段711と、収集手段712と、生成手段713と、標準画像報告手段714とを備えている。
 上記の記憶手段711は、所定交差点の標準画像情報を記憶する。ここで、「標準画像情報」とは、移動体MVPが所定交差点を所定の速度変化条件を満たして通過した場合に、移動端末装置720pにより、撮影される所定交差点の画像情報である。そして、この標準画像情報には、所定交差点の通過時の撮影画像が、各所定交差点について、撮影日時及び撮影時天気の少なくとも1つの撮影時における環境要素ごとに分類されて、記憶手段711に記憶されている。また、この標準画像情報には、各所定交差点についての所定の速度変化条件も含まれている。なお、この記憶手段711には、標準画像情報に限らず、様々な情報が記憶される。
 上記の収集手段712は、所定交差点の通過時における撮影依頼を、移動端末装置720pへ送る。ここで、「撮影依頼」では、所定交差点の撮影開始地点及び撮影終了地点が指定されるようになっている。
 かかる撮影依頼を移動端末装置720pへ送るに際して、例えば、移動体MVPの通常の移動範囲が分かっているような場合には、収集手段712は、当該移動範囲における所望の交差点の通過時における撮影依頼を送るようにすることができる。また、移動端末装置720pから予定走行ルートが報告されている場合には、収集手段712は、当該予定走行ルート上における所望の交差点について、通過時における撮影依頼を、当該走行ルートを報告した移動端末装置720pへ送るようにすることもできる。また、収集手段712は、移動端末装置720pから定期的に移動体MVpの位置情報を受けている場合には、当該位置情報の変化から、通過することが推定される交差点の内の所望の交差点の通過時における撮影依頼を、当該交差点を通過すると推定される移動端末装置720pへ送るようにすることもできる。
 収集手段712は、撮影依頼を受けている移動端末装置720pから撮影画像及び撮影時情報が報告されると、当該撮影画像及び撮影時情報を収集する。収集手段712による収集結果は、生成手段713へ送られる。ここで、「撮影時情報」には、移動体MVpが所定交差点を通過する際の、移動体MVpの走行情報及び撮影時における天候等の環境要素の情報が含まれるようにすることができる。
 上記の生成手段713は、収集手段712による収集結果である撮影画像及び撮影時情報に基づいて、移動体MVpが所定交差点を所定の速度変化条件を満たして通過した場合に撮影される標準画像情報を生成する。こうした標準画像情報の生成にあたっては、所定交差点を通過する際の移動体MVpの速度変化が、所定の速度変化条件を満たす場合の連続的な撮影結果をそのまま採用するようにすることができる。
 また、標準画像情報の生成にあたっては、所定の速度変化条件から導かれる位置条件を満たす撮影位置における撮影結果を採用するようにすることもできる。ここで、当該位置条件は、例えば、所定の速度変化条件で移動体MVpが所定交差点を通過した際における所定時間間隔ごとの位置と略同一の位置であることとすることができる。
 標準画像情報の生成に際して、所定交差点を通過する際の移動体MVpの実際の速度変化を参照する場合には、撮影時情報における走行情報には、撮影依頼を受けている移動端末装置720pとともに移動する移動体MVpが所定交差点を通過する際の速度変化情報が含まれる。そして、生成手段713は、撮影時情報に含まれる速度変化情報が所定の速度変化条件を満たす場合に、標準画像情報を作成する。
 また、標準画像情報の生成に際して、実際の撮影位置を参照する場合には、撮影時情報における走行情報には、撮影画像における画像フレームごとの撮影位置情報が含まる。そして、生成手段713は、撮影時情報に含まれる撮影位置情報が、位置条件を満たす撮影画像の画像フレームを、標準画像情報の生成に際して採用する。
 上記の標準画像報告手段714は、移動端末装置720pからの所定交差点の通過時画像の取得要求を受ける。この取得要求を受けると、標準画像報告手段714は、当該取得要求に対応する所定交差点の通過時の画像情報を記憶手段711から読み取る。そして、標準画像報告手段714は、読み取り結果を、取得要求を発行した移動端末装置720pに報告する。なお、この取得要求には、後述するように、所定交差点の指定に加え、撮影日時及び撮影時天気の少なくとも1つの撮影時における環境要素の情報が含まれるようにすることもできる。
 <移動端末装置720pの構成>
 上記の移動端末装置720p(p=1,2,…)は、撮影手段721と、走行時情報取得手段722と、撮影情報報告手段723とを備えている。また、移動端末装置720pは、取得手段724と、表示制御手段725と、表示手段726とを備えている。
 上記の撮影手段721は、撮影情報報告手段723による制御のもとで、移動体MVpの周辺を撮影する。撮影手段721による撮影結果は、撮影情報報告手段723へ送られる。
 上記の走行時情報取得手段722は、撮影情報報告手段723による制御のもとで、移動体MVpの走行時情報を取得する。ここで、「走行時情報」は、上述した標準画像情報の生成に際して、実際の速度変化を参照する場合には、移動体MVpの速度に関する情報となるように予め定められるようになっている。また、標準画像情報の生成に際して、実際の撮影位置を参照する場合には、「走行時情報」は、移動体MVpの位置に関する情報となるように予め定められるようになっている。なお、走行情報には、撮影日時及び撮影時天気の少なくとも1つの撮影時における環境要素の情報が含まれるようにすることができる。走行時情報取得手段722による取得結果は、撮影情報報告手段723へ送られる。
 上記の撮影情報報告手段723は、サーバ装置710からの所定交差点の通過時における撮影依頼を受ける。この撮影依頼を受けると、撮影情報報告手段723は、当該撮影依頼により指定されている撮影開始地点から撮影終了地点までの間において、撮影手段721に対して撮影指令を発行するとともに、走行時情報取得手段722による取得結果を受ける。そして、撮影情報報告手段723は、撮影依頼を受けた所定交差点の通過時における撮影手段721による撮影結果を取得するとともに、走行時情報取得手段722による取得結果に基づいて所定交差点の通過時における撮影時情報を生成する。引き続き、撮影情報報告手段723は、所定のタイミングで、当該撮影結果である撮影画像及び撮影時情報を、サーバ装置710に報告する。
 上記の取得手段724は、交差点の通過時の画像情報の取得要求を、サーバ装置710へ送る。そして、取得手段724は、この取得要求に対する応答として、サーバ装置710から当該取得要求に対応する交差点の通過時の画像情報を取得する。なお、この取得要求には、所定交差点の指定に加え、サーバ装置710が対応可能となるときには、撮影日時及び撮影時天気の少なくとも1つの撮影時における環境要素の情報が含まれるようにすることもできる。
 上記の表示制御手段725は、取得手段724による取得結果に基づく画像の表示手段726への制御を行う。かかる表示手段726への制御に際して、表示制御手段725は、移動体MVpが所定交差点を通過する際には、移動体MVpの交差点通過態様を参照して、取得手段724による取得結果に基づく画像の表示手段726への制御を行うようにしてもよい。ここで、「交差点通過態様」とは、所定の速度変化条件を満たす態様よりも速い速度、遅い速度等の、交差点を通過する際の態様の違いをいう。
 上記の表示手段726は、表示制御手段725による制御のもとで、取得手段724による取得結果に基づく画像を表示する。
 [動作]
 上記のように構成された交差点案内システム700において実行される交差点案内方法について、説明する。
 <標準画像情報の生成処理>
 まず、交差点案内システム700による標準画像情報の生成処理について説明する。なお、サーバ装置710の収集手段712は、所定交差点の通過時における撮影依頼を、移動端末装置720p(p=1,2,…)へ送っているものとする。
 サーバ装置710からの撮影依頼を受けた移動端末装置720pでは、撮影情報報告手段723が、撮影手段721及び走行時情報取得手段722を制御する。そして、撮影情報報告手段723は、撮影依頼により指定された撮影開始地点から撮影終了地点までの撮影手段721による撮影結果である撮影画像と、走行時情報取得手段722による取得結果に基づいて生成した撮影時情報とを、サーバ装置710へ送る。
 移動端末装置720p(p=1,2,…)のいずれかからの撮影画像及び撮影時情報を受けたサーバ装置710では、収集手段712が、当該撮影画像及び撮影時情報を収集し、生成手段713へ送る。この撮影画像及び撮影時情報を受けた生成手段713は、所定交差点を所定の速度変化条件を満たして通過した場合に撮影される標準画像情報を生成する。
 かかる標準画像情報の生成処理に際して、実際の速度変化を参照する場合には、生成手段713は、記憶手段711に記録されている標準画像情報の中に、撮影時における環境要素が同一の所定交差点の撮影画像が存在するかを判断する。そして、当該所定交差点の撮影画像が存在しない場合には、生成手段713は、収集結果である撮影画像及び撮影時情報に基づき、標準画像情報を生成する。一方、当該所定交差点の撮影画像が存在する場合には、生成手段713は、読み取られた撮影画像における撮影時情報と、新たに収集した撮影時情報とを比較する。そして、生成手段713は、比較の結果、新たに収集した撮影時情報の方が所定の速度変化条件に近いときは、標準画像情報を更新し、読み取られた撮影時情報の方が所定の速度変化条件に近いとき、標準画像情報の更新を行わない。
 また、かかる標準画像情報を生成するに際して、実際の撮影位置を参照する場合には、生成手段713は、収集した撮影画像の画像フレームごとに、当該画像フレームの撮影位置が、位置条件を満たすかを判断する。引き続き、当該画像フレームの撮影位置が当該位置条件を満たす場合には、生成手段713は、記憶手段711に記憶されている標準画像情報の中に、撮影位置が同一であり、かつ、撮影時における環境要素が同一の画像フレームが存在するかを判断する。そして、当該同一の画像フレームが存在しない場合には、生成手段711は、収集した撮影画像の画像フレームを、標準画像情報の一部として採用する。一方、当該同一の画像フレームが存在する場合には、生成手段713は、収集した撮影画像の画像フレームを標準画像情報として採用した場合に、連続した円滑な画像となるかを判断し、連続した円滑な画像となると判断した場合には、収集した撮影画像の画像フレームを、標準画像情報の一部として採用する更新を行う。
 ここで、「連続した円滑な画像」とは、収集した撮影画像の画像フレームを標準画像情報として採用した場合に、標準画像として再生したときに、全体の中の要素の移動が大きく変化(例えば、画像における建物の位置がずれる等)しない画像をいう。
 以後、移動端末装置720p(p=1,2,…)のいずれかからの新たな撮影画像及び撮影時情報を受けるごとに、上記と同様にして、サーバ装置710において、標準画像情報の生成処理が行われる。
 <交差点案内処理>
 次に、交差点案内システム700による所定交差点における案内処理について説明する。
 実写映像による案内を受けるべき所定交差点に近づくと、移動端末装置720pの取得手段724が、交差点の通過時の画像情報の取得要求を、サーバ装置710へ送る。ここで、「実写映像による案内を受けるべき交差点」は、利用者が予め指定するようにすることができる。
 移動端末装置720pからの取得要求を受けたサーバ装置710では、標準画像報告手段714が、当該取得要求に対応する所定交差点の通過時の画像情報を記憶手段711から読み取る。そして、標準画像報告手段714は、読み取り結果を、取得要求を発行した移動端末装置720pに送る。
 そして、移動端末装置720pの取得手段724が、送信した取得要求に対する応答として、所定交差点の通過時における撮影画像を取得する。引き続き、表示制御手段725が、取得手段724による取得結果に基づく画像の表示手段726への制御を行う。かかる制御に際して、表示制御手段725は、移動体MVpの交差点通過態様を参照して、取得手段724による取得結果に基づく画像の表示手段726への制御を行うようにしてもよい。
 以上説明したように、本発明の実施形態によれば、交差点での進路案内において、利用者の利便性を向上させることができる。
 なお、上記の実施形態における移動体としては、例えば、車両等を挙げることができる。そして、移動端末装置としては、移動体が車両である場合にはカーナビゲーション装置等を挙げることができる。
 また、実施形態の交差点案内システム700を、演算手段としての2以上のコンピュータを備えて構成し、記憶手段711、撮影手段721及び表示手段726を除く上述した各手段の機能を、プログラムを実行することにより実現するようにすることができる。これらのプログラムは、CD-ROM,DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにすることができる。
 以下、本発明の交差点案内システムの実施例を、図2~図18を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素については同一の符号を付し、重複する説明を省略する。
 [第1実施例]
 まず、本発明の第1実施例を、図2~図10を主に参照して説明する。
 図2には、第1実施例に係る交差点案内システム100Aの概略的な構成が示されている。なお、交差点案内システム100Aは、上述した一実施形態の交差点案内システム700(図1参照)の一態様となっている。
 <構成>
 図2に示されるように、交差点案内システム100Aは、サーバ装置710としてのサーバ装置200Aと、移動端末装置720p(p=1,2,…)としてのナビゲーション装置300Apとを備えている。
 ここで、サーバ装置200Aは、例えば、所定の建物内の固定的な位置に配置されている。また、ナビゲーション装置300Apは、移動体MVpとしての車両CRpに搭載されており、車両CRpとともに移動するようになっている。
 上記のサーバ装置200Aは、ネットワークシステム500を介して、ナビゲーション装置300Apと通信可能となっている。サーバ装置200Aが、ナビゲーション装置300Apとの間で授受するデータの内容については、後述する。
 上記のナビゲーション装置300Apには、車両CRpに装備された車速センサ390pが接続されている。また、ナビゲーション装置300Apは、ネットワークシステム500を介して、サーバ装置200Aとデータ通信を行うようになっている。ナビゲーション装置300Apが、車速センサ390p及びサーバ装置200Aとの間で授受するデータの内容については、後述する。
 《サーバ装置200Aの構成》
 上記のサーバ装置200Aは、標準画像情報の生成機能、標準画像情報における撮影画像の報告機能を有している。これらの機能を有するサーバ装置200Aは、図3に示されるように、記憶手段711としての記憶装置210Aと、送受信部220と、処理制御部230Aとを備えている。
 上記の記憶装置210Aは、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶装置210Aは、標準画像情報(SIA)等の様々なデータを記憶する。この記憶装置210Aには、処理制御部230Aがアクセスできるようになっている。
 上記の標準画像情報(SIA)には、図4に示されるように、所定交差点ごとの個別標準画像情報CSAj(j=1,2,…)が登録されている。ここでは、図5に示されるT字路の所定交差点の個別標準画像情報CSAjについて説明する。個別標準画像情報CSAjは、図6に示されるように、所定交差点における右折、左折等の進路形態ごとの撮影開始地点(SRP)、撮影終了地点(SPP)、速度変化条件(ASA)、及び、撮影時における環境要素情報(EEI)ごとに分類された撮影画像情報(IMA)を含んでいる。
 ここで、当該所定交差点における進路形態は、図5に示される交差点がT字路であることから、6通りとなる。また、撮影時における環境要素情報は、「季節」、「時間帯」、「天気」となっている。なお、本第1実施例では、「季節」については「春」、「夏」、「秋」、「冬」に分類され、「時間帯」については「昼」、「夜」に分類されるようになっている。また、「天気」については、「晴」、「曇」、「雨」に分類されるようになっている。
 また、本第1実施例では、速度変化条件(ASA)は、所定交差点を通過する際の車両CRpの速度変化に関する条件となっている。図7Aには、図5に示される交差点において、車両CRpがP1からP2へ向けて走行し、当該交差点を左折した際の想定している車両CRpの速度変化の例が示されている。また、図7Bには、当該交差点において、車両CRpがP1からP3へ向けて走行し、当該交差点を右折した際の想定している車両CRpの速度変化の例が示されている。このように、速度変化条件は、右折、左折等の車両CRpの進行方向によって異なってくる。
 なお、上述した速度変化条件は、実験、シミュレーション、経験等により予め定められる。
 また、本第1実施例では、撮影画像情報(IMA)には、撮影結果である撮影画像と、当該撮影画像の取得時における車両CRpの速度変化情報とを含んでいる。
 図3に戻り、上記の送受信部220は、ネットワークシステム500との通信制御を行う。この送受信部220は、ネットワークシステム500から受信したデータを処理制御部230Aへ送る。また、送受信部220は、処理制御部230Aから受信したデータをネットワークシステム500へ送る。送受信部220を利用することにより、サーバ装置200A(より詳しくは、処理制御部230A)は、ナビゲーション装置300Apとの間で通信を行うことができるようになっている。
 上記の処理制御部230Aは、サーバ装置200Aの全体を統括制御する。この処理制御部230Aは、中央処理装置(CPU)及びその周辺回路を備えて構成されている。処理制御部230Aが様々なプログラムを実行することにより、上記の各種機能が実現されるようになっている。こうした機能の中には、上述した一実施形態における収集手段712、生成手段713、標準画像報告手段714としての機能も含まれている。
 この処理制御部230Aは、本第1実施例では、送受信部220を介して、ナビゲーション装置300Apから予定走行ルートを受けて、撮影依頼をナビゲーション装置300Apへ送信するようになっている。より詳細には、本第1実施例では、ナビゲーション装置300Apから予定走行ルートを受けると、当該予定走行ルート上に記憶装置210Aに撮影画像を登録すべき所定交差点が存在するかを検索する。そして、当該予定走行ルート上に所定交差点が存在する場合には、処理制御部230Aは、当該所定交差点の通過時における撮影依頼を、当該走行ルートを報告したナビゲーション装置300Apへ送信する。
 また、処理制御部230Aは、送受信部220を介して、撮影依頼を受けているナビゲーション装置300Apから撮影画像及び撮影時情報を収集すると、実際の速度変化情報を参照して、速度変化条件を満たす態様で、車両CRpが所定交差点を通過したときに撮影される標準画像情報を生成する。なお、本第1実施例においては、この撮影時情報には、後述するように、車両CRpの速度変化情報、及び、「季節」、「時間帯」、「天気」の環境要素情報が含まれている。
 かかる標準画像情報を生成するに際して、処理制御部230Aは、記憶装置210Aにアクセスし、収集した撮影画像に対応する所定交差点の個別標準画像情報の中に、直進、右折、左折といった進路形態が同一であり、かつ、「季節」、「時間」、「天気」の各環境要素が同一である撮影画像が存在するかを判断する。そして、処理制御部230Aは、当該撮影画像が存在しない場合には、収集した撮影画像及び撮影時情報に基づき、当該所定交差点の個別標準画像情報を生成する。
 一方、当該撮影画像が存在する場合には、処理制御部230Aは、個別標準画像情報に登録されている当該撮影画像の取得時における速度変化情報と、ナビゲーション装置300Apから収集した速度変化情報とを比較し、両者のうち、どちらの方が速度変化条件に近いかを判断する。そして、処理制御部230Aは、ナビゲーション装置300Apから収集した速度変化情報の方が速度変化条件に近いときは、個別標準画像情報の内容を更新し、個別標準画像情報に登録されている速度変化情報の方が速度変化条件に近いときは、標準画像情報の更新を行わない。
 なお、処理制御部230Aによる実際の速度変化情報と速度変化条件との近さの判断に利用されるアルゴリズムは、実験、シミュレーション、経験等に基づいて、予め定められる。
 また、処理制御部230Aは、送受信部220を介して、ナビゲーション装置300Apからの所定交差点の通過時画像の取得要求を受ける。処理制御部230Aは、この取得要求を受けると、記憶装置210Aにアクセスして、当該取得要求に対応する所定交差点の通過時の撮影画像情報を読み取る。そして、処理制御部230Aは、当該撮影画像情報を、取得要求を発行したナビゲーション装置300Apへ送る。
 なお、本第1実施例においては、取得要求には、所望する交差点の指定に加えて、環境要素として「季節」、「時間帯」、「天気」の指定が含まれている。
 《ナビゲーション装置300Apの構成》
 上記のナビゲーション装置300Ap(p=1,2,…)は、周辺画像の撮影機能、走行時情報の取得機能、周辺画像及び走行時情報の報告機能、撮影画像情報の取得機能、撮影画像の表示制御機能を有している。これらの機能を有するナビゲーション装置300Apは、図8に示されるように、制御ユニット310Aと、記憶装置320と、走行時情報取得手段722の一部としての無線通信ユニット330とを備えている。また、ナビゲーション装置300Apは、音出力ユニット340と、表示手段726としての表示ユニット350と、操作入力ユニット360とを備えている。さらに、ナビゲーション装置300Apは、走行時情報取得手段722の一部としての走行情報取得ユニット370と、走行時情報取得手段722の一部としてのGPS(Global Positioning System)受信ユニット375と、撮影手段721としてのカメラユニット380とを備えている。
 上記の制御ユニット310Aは、ナビゲーション装置300Apの全体を統括制御する。この制御ユニット310Aについては、後述する。
 上記の記憶装置320は、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶装置320は、ナビゲーション用情報(NVI)等の様々なデータを記憶する。この記憶装置320には、制御ユニット310Aがアクセスできるようになっている。
 上記のナビゲーション用情報には、地図データ、POI(Point Of Interests)データ、背景データ等のナビゲーションのために利用される様々なデータが記憶されている。これらのデータは、制御ユニット310Aによって読み取られるようになっている。
 上記の無線通信ユニット330は、不図示のアンテナ等を備えて構成されている。この無線通信ユニット330は、当該アンテナにより受信したネットワークシステム500において用意された基地局からの受信信号を処理して、制御ユニット310Aで処理可能なデジタルデータ信号に変換する。また、無線通信ユニット330は、制御ユニット310Aからの送信信号を処理し、当該アンテナを介して、無線信号の態様でネットワークシステム500(より詳しくは、基地局)へ送る。
 この無線通信ユニット330を利用することにより、ナビゲーション装置300Ap(より詳しくは、制御ユニット310A)が、サーバ装置200Aとの間で通信を行うことができるようになっている。
 また、この無線通信ユニット330を利用し、位置を指定した天気情報の取得要求を不図示の天気情報サーバへ送ることにより、指定した位置の所望の日時における天気情報を取得することができる。こうして取得された天気情報は、制御ユニット310Aへ送られる。
 上記の音出力ユニット340は、スピーカを備えて構成され、制御ユニット310Aから受信した音声データに対応する音声を出力する。この音出力ユニット340は、制御ユニット310Aによる制御のもとで、ナビゲーション処理に関する車両CRpの進行方向、走行状況、交通状況等の案内音声を出力する。
 上記の表示ユニット350は、液晶パネル等の表示デバイスを備えて構成され、制御ユニット310Aから受信した表示データに対応する画像を表示する。この表示ユニット350は、制御ユニット310Aによる制御のもとで、ナビゲーション処理に際して、所定交差点の通過時における実写映像、地図情報、ルート情報等の画像、ガイダンス情報等を表示する。
 上記の操作入力ユニット360は、ナビゲーション装置300Apの本体部に設けられたキー部、及び/又はキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット350の表示デバイスに設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、又は併用して音声認識技術を利用して音声にて入力する構成を採用することもできる。
 この操作入力ユニット360を利用者が操作することにより、ナビゲーション装置300Apの動作内容の設定や動作指令が行われる。例えば、ナビゲーション処理における後述するルート探索に関する目的地等の設定を、利用者が操作入力ユニット360を利用して行う。こうした入力内容は、操作入力データとして、操作入力ユニット360から制御ユニット310Aへ向けて送られる。
 上記の走行情報取得ユニット370は、加速度センサ、角速度センサ等を備えて構成されており、車両に作用している加速度、角速度を検出する。また、走行情報取得ユニット370は、ナビゲーション装置300Apと、車両CRpに搭載されている車速センサ390pとの間におけるデータ授受に関して利用され、車速センサ390pによる検出結果である速度データを取得する。こうして得られた各データは、走行データとして制御ユニット310Aへ送られる。
 上記のGPS受信ユニット375は、複数のGPS衛星からの電波の受信結果に基づいて、車両CRpの現在位置を算出する。また、GPS受信ユニット375は、GPS衛星から送出された日時情報に基づいて、現在時刻を計時する。これらの現在位置および現在時刻に関する情報は、GPSデータとして制御ユニット310Aへ送られる。
 上記のカメラユニット380は、不図示の車載カメラと、データ処理部とを備えて構成されている。車載カメラは、例えば、ルームミラーの裏側に配置される。そして、車載カメラは、運転者の通常の目線に近い、車両の進行方向の周辺画像を動画で撮影する。データ処理部は、車載カメラによる撮影結果をデジタル画像データに変換する。こうして撮影された車両の周辺画像のデジタル画像データは、撮影画像として、制御ユニット310Aへ向けて送られる。
 次に、上記の制御ユニット310Aについて説明する。この制御ユニット310Aは、中央処理装置(CPU)及びその周辺回路を備えて構成されている。制御ユニット310Aが様々なプログラムを実行することにより、上記の各種機能が実現されるようになっている。こうした機能の中には、上述した一実施形態における撮影状況報告手段723、取得手段724、表示制御手段725としての機能も含まれている。
 この制御ユニット310Aは、利用者による目的地等を指定したルート探索指令に応答して、記憶装置320に記憶されているナビゲーション用情報を利用して、車両CRpの目的地までの予定走行ルートを探索する。ここで、利用者による目的地等を指定したルート探索指令は、操作入力ユニット360からの操作入力データとして、制御ユニット310Aに通知される。こうして探索された予定走行ルートは、無線通信ユニット330を介して、サーバ装置200Aへ送られる。
 また、制御ユニット310Aは、定期的に、走行情報取得ユニット370からの走行データ、及び、GPS受信ユニット375からのGPSデータを取得する。そして、制御ユニット310Aは、車両CRpの現在位置を検出するとともに、GPSデータにおける計時結果及び内部タイマの計時結果に基づいて、現在日時を検出する。
 また、制御ユニット310Aは、無線通信ユニット330を介して、サーバ装置200Aからの所定交差点の通過時における撮影依頼を受ける。制御ユニット310Aは、この撮影依頼を受けると、当該撮影依頼により指定されている撮影開始地点から撮影終了地点までの間において撮影指令を生成し、当該指令をカメラユニット380へ送る。また、制御ユニット310Aは、無線通信ユニット330を介して、交差点通過時における天気情報を取得する。
 そして、制御ユニット310Aは、カメラユニット380からの撮影画像を取得するとともに、走行データ、GPSデータ、及び天気情報に基づき、走行時情報を生成する。ここで、走行時情報には、本第1実施例においては、車両CRpの速度変化情報、及び、「季節」、「時間帯」、「天気」の環境要素情報が含まれている。引き続き、制御ユニット310Aは、当該撮影画像及び撮影時情報を、無線通信ユニット330を介して、サーバ装置200Aへ送る。
 また、制御ユニット310Aは、ルート探索結果に基づく予定走行ルート上における所定交差点の画像情報の取得要求を、無線通信ユニット330を介して、サーバ装置200Aへ送る。そして、制御ユニット310Aは、この取得要求に対する応答として、サーバ装置200Aから当該取得要求に対応する交差点の画像情報を取得する。
 また、制御ユニット310Aは、サーバ装置200Aから取得した画像情報を処理して、当該画像情報に対応する表示データを生成し、表示ユニット350へ送る。かかる処理に際して、制御ユニット310Aは、画像情報に含まれる走行時情報と、走行データとに基づき、表示画像が車両の交差点での通過態様と合うように、表示ユニット350を制御する。
 <動作>
 以上のようにして構成された交差点案内システム100Aの動作について、標準画像情報の生成処理に主に着目して説明する。
 《標準画像情報の生成処理》
 まず、サーバ装置200Aの記憶装置210A内の標準画像情報(SIA)の生成処理について説明する。
 なお、ナビゲーション装置300Apでは、ルート探索が行われ、探索結果である予定走行ルートがサーバ装置200Aに報告されているものとする。そして、サーバ装置200Aでは、当該予定走行ルート上に、記憶装置210Aに登録すべき所定交差点が存在するかを検索し、当該予定走行ルート上に所定交差点が存在する場合には、撮影依頼を、当該予定走行ルートを報告したナビゲーション装置300Apへ向けて報告しているものとする。
 かかる標準画像情報の生成処理に際しては、図9に示されるように、ステップS11において、ナビゲーション装置300Apが、撮影依頼を受けた所定交差点を通過する際に、当該所定交差点の映像を撮影するとともに、撮影時情報を取得する。ナビゲーション装置300Apは、当該所定交差点の撮影が完了すると、所定のタイミングで、撮影画像(IMD)及び撮影時情報(SHA)を、サーバ装置200Aへ送信する。
 サーバ装置200Aが、当該撮影画像(IMD)及び撮影時情報(SHA)を受けると、ステップS12において、標準画像情報の生成処理が行われる。このステップS12では、図10に示されるように、まず、ステップS21において、送受信部220を介して、ナビゲーション装置300Ap(p=1,2,…)のいずれかからの撮影画像及び撮影時情報を受けると、処理制御部230Aが、当該撮影画像及び撮影時情報を収集する。
 次に、ステップS22において、処理制御部230Aは、記憶装置210Aにアクセスして、収集した撮影画像に対応する所定交差点の個別標準画像情報の中に、進路形態が同一であり、かつ、「季節」、「時間」、「天気」の各環境要素が同一である撮影画像が存在するか否かを判定する。この判定の結果が否定的であった場合(ステップS22:N)には、処理はステップS23へ進む。
 このステップS23では、処理制御部230Aが、当該撮影画像及び撮影時情報に基づき、個別標準画像情報を生成し、記憶装置210Aに登録する。この登録が終了すると、ステップS12における標準画像情報の生成処理が終了する。
 一方、ステップS22における判定の結果が肯定的であった場合(ステップS22:Y)には、処理はステップS24へ進む。このステップS24では、処理制御部230Aが、収集した速度変化情報と、個別標準画像情報に登録されている撮影画像の取得時における速度変化情報とを比較し、収集した速度変化情報の方が、速度変化条件に近いか否かを判定する。この判定の結果が否定的であった場合(ステップS24:N)には、ステップS12における標準画像情報の生成処理が終了する。
 一方、ステップS24における判定の結果が肯定的であった場合(ステップS24:Y)には、処理はステップS25へ進む。ステップS25では、処理制御部230Aが、当該撮影画像及び撮影時情報に基づき、個別標準画像情報を更新し、記憶装置210Aに登録する。この登録が終了すると、ステップS12における標準画像情報の生成処理が終了する。
 《交差点案内処理》
 次に、交差点案内システム100Aによる交差点案内処理について説明する。
 ナビゲーション装置300Apにおいて利用者による目的地等を指定したルート探索指令が操作入力ユニット360に入力されると、制御ユニット310Aにおいてルート探索が行われ、予定走行ルートが導出される。当該予定走行ルートは、無線通信ユニット330を介して、サーバ装置200Aへ送信される。また、当該予定走行ルートとともに、自動的に、当該予定走行ルート上に存在する所定交差点の画像情報の取得要求が、サーバ装置200Aへ送信されるようになっている。
 サーバ装置200Aでは、処理制御部230Aが、ナビゲーション装置300Apからの予定走行ルートと画像情報の取得要求を受けると、記憶装置210Aにアクセスして、当該走行ルート上に所定交差点が存在するかを検索する。そして、当該走行ルート上に所定交差点が存在する場合には、処理制御部230Aは、当該取得要求に対応する所定交差点の通過時の画像情報を記憶装置210Aから読み取る。引き続き、処理制御部230Aは、当該画像情報を、送受信部220を介して、取得要求を発行したナビゲーション装置300Apへ送信する。
 取得要求を発行したナビゲーション装置300Apでは、制御ユニット310Aが、サーバ装置200Aから、所望する交差点の通過時における画像情報を取得する。そして、制御ユニット310Aは、車両CRpが当該交差点を通過するのに際して、車両CRpの交差点通過態様を参照して、当該撮影画像を表示ユニット350に表示させる。
 以上説明したように、本第1実施例では、サーバ装置200Aが、撮影依頼を受けているナビゲーション装置300Apから撮影画像及び撮影時情報を収集すると、サーバ装置200Aの処理制御部230Aが、標準画像情報の生成処理を開始する。かかる標準画像情報の生成に際して、処理制御部230Aは、進路形態が同一であり、かつ、各環境要素が同一の所定交差点の撮影画像が存在するかを判断する。そして、処理制御部230Aは、当該撮影画像が存在しない場合には、撮影画像及び撮影時情報に基づき、標準画像情報を生成する。一方、当該撮影画像が存在する場合には、処理制御部230Aは、新たに収集した撮影画像の方が、速度変化条件により適合する場合には、標準画像情報の内容を更新する。
 また、ナビゲーション装置300Apでは、所望の交差点を指定して、サーバ装置200Aから画像情報を取得すると、ナビゲーション装置300Apの制御ユニット310Aが、車両CRpの当該交差点の通過に合わせて、車両CRpの交差点通過態様を参照して、当該画像情報に基づく画像を表示ユニット350に表示させる。
 したがって、本第1実施例によれば、記憶資源を効率良く使用するとともに、利用者の利便性を向上させることができる。
 [第2実施例]
 次に、本発明の第2実施例を、図11~図18を主に参照して説明する。
 図11には、第2実施例に係る交差点案内システム100Bの概略的な構成が示されている。なお、交差点案内システム100Bは、第1実施例に係る交差点案内システム100Aと同様に、上述した一実施形態の交差点案内システム700の一態様となっている。
 <構成>
 図11に示されるように、交差点案内システム100Bは、サーバ装置710としてのサーバ装置200Bと、移動端末装置720p(p=1,2,…)としてのナビゲーション装置300Bpとを備えている。すなわち、交差点案内システム100Bは、上述した第1実施例の交差点案内システム100Aと比べて、サーバ装置200Aに代えてサーバ装置200Bを備えるとともに、ナビゲーション装置300Apに代えてナビゲーション装置300Bpを備えている。以下、これらの相違点に主に着目して、説明を行う。
 《サーバ装置200Bの構成》
 上記のサーバ装置200Bは、図12に示されるように、上述したサーバ装置200Aと比べて、記憶装置210Aに代えて記憶装置210Bを備える点と、処理制御部230Aに代えて処理制御部230Bを備える点が異なっている。
 上記の記憶装置210Bは、上述した記憶装置210Aと同様に、不揮発性の記憶装置であるハードディスク装置等から構成される。この記憶装置210Bは、記憶装置210Aと比べて、標準画像情報(SIA)に代えて標準画像情報(SIB)を記憶している点が異なっている。
 上記の標準画像情報(SIB)には、図13に示される内容の所定交差点ごとの個別標準画像情報CSBj(j=1,2,…)が登録されている。この個別標準画像情報CSBjは、所定交差点における進路形態ごとの撮影開始地点(SRP)、撮影終了地点(SPP)、位置条件(ASB)、及び、撮影時における環境要素情報(EEI)ごとに分類された撮影画像情報(IMB)を含んでおり、上述した個別標準画像情報CSAjと比べて、速度変化条件に代えて位置条件を記憶している点及び撮影画像情報の内容が異なっている。
 位置条件(ASB)は、上述した速度変化条件から導かれる。本第2実施形態では、当該位置条件(ASB)は、速度変化条件で車両CRpが所定交差点を通過した際における所定時間間隔ごとの位置と略同一の位置であることであり、画像フレームの撮影位置に関する条件となっている。図14には、位置条件の例として、車両CRpがP1からP2へ向けて走行し、当該交差点を左折した際の画像フレームの撮影位置が示されている。このように、左折時には、車両が減速することから、撮影位置の間隔が狭くなっている。
 なお、上述した位置条件は、実験、シミュレーション、経験等により予め定められる。
 また、本第2実施例では、撮影画像情報(IMB)には、図15に示されるように、フレームごとに、撮影位置と対応付けられた画像フレームデータが記録されている。
 図12に戻り、上記の処理制御部230Bは、上述した処理制御部230Aと同様に、中央処理装置(CPU)及びその周辺回路を備えて構成され、様々なプログラムを実行するようになっている。この処理制御部230Bは、上述した処理制御部230Aと比べて、生成手段713の機能が異なっている。
 この処理制御部230Bは、送受信部220を介して、撮影依頼を受けているナビゲーション装置300Bpから撮影画像及び撮影時情報を収集すると、位置条件を満たす態様で、車両CRpが所定交差点を通過したときに撮影される標準画像情報を生成する。なお、本第2実施例においては、この撮影時情報には、後述するように、画像フレームと対応付けられた撮影位置情報、及び、「季節」、「時間帯」、「天気」の環境要素情報が含まれている。
 かかる標準画像情報を生成するに際して、処理制御部230Bは、収集した撮影画像の画像フレームごとに、当該画像フレームの撮影位置が、位置条件を満たすかを判断する。引き続き、当該画像フレームの撮影位置が位置条件を満たす場合には、処理制御部230Bは、記憶装置210Bにアクセスして、収集した撮影画像に対応する所定交差点の個別標準画像情報の中に、進路形態が同一であり、かつ、「季節」、「時間」、「天気」の各環境要素が同一である撮影画像に、撮影位置が同一の画像フレームが存在するかを判断する。そして、当該撮影位置が同一の画像フレームが存在しない場合には、処理制御部230Bは、収集した撮影画像の画像フレームを、個別標準画像情報の一部として採用する。
 一方、当該撮影位置が同一の画像フレームが存在する場合には、収集した撮影画像の画像フレームを個別標準画像情報として採用した場合に、連続した円滑な画像になるかを判断する。そして、円滑になると判断した場合は収集した撮影画像の画像フレームを個別標準画像情報として採用し、円滑にならないと判断した場合は収集した撮影画像の画像フレームを個別標準画像情報として採用しない。
 ここで、「連続した円滑な画像」とは、収集した撮影画像の画像フレームを標準画像情報として採用した場合に、記憶装置210Bに記憶されている前後に当たる画像フレームと比較して、全体の中の要素の移動が大きく変化(例えば、画像の位置がずれている、突然車が現れる、等)していない画像をいう。
 《ナビゲーション300Bpの構成》
 上記のナビゲーション装置300Bpは、上述したナビゲーション装置300Apと比べて、制御ユニットにおいて撮影情報報告手段723の機能が異なる点を除いて、同様に構成されている。このため、以下の説明においては、ナビゲーション装置300Bpにおける制御ユニットを、「制御ユニット310B」と記すものとする。
 上記の制御ユニット310Bは、カメラユニット380からの撮影画像を取得するとともに、走行データ、GPSデータ、及び天気情報に基づき、走行時情報を生成する。ここで、走行時情報には、本第2実施例においては、画像フレームと対応付けられた撮影位置情報、及び、「季節」、「時間帯」、「天気」の環境要素情報が含まれている。そして、制御ユニット310Bは、当該撮影画像及び撮影時情報を、無線通信ユニット330を介して、サーバ装置200Bへ送る。
 <動作>
 以上のようにして構成された交差点案内システム100Bの動作について、標準画像情報の生成処理に主に着目して説明する。
 《標準画像情報の生成処理》
 まず、サーバ装置200Bの記憶装置210B内の標準画像情報(SIB)の生成処理について説明する。
 なお、第1実施例の場合と同様に、ナビゲーション装置300Bpでは、ルート探索が行われ、探索結果である予定走行ルートがサーバ装置200Bに報告されているものとする。そして、サーバ装置200Bでは、当該予定走行ルート上に、記憶装置210Bに登録すべき所定交差点が存在するかを検索し、当該予定走行ルート上に所定交差点が存在する場合には、撮影依頼を、当該予定走行ルートを報告したナビゲーション装置300Bpへ向けて報告しているものとする。
 かかる標準画像情報の生成処理に際しては、図16に示されるように、ステップS31において、ナビゲーション装置300Bpが、撮影依頼を受けた所定交差点を通過する際に、当該所定交差点の映像を撮影するとともに、撮影時情報を取得する。ナビゲーション装置300Bpは、当該所定交差点の撮影が完了すると、所定のタイミングで、撮影画像(IMD)及び撮影時情報(SHB)を、サーバ装置200Bへ送信する。
 サーバ装置200Bが、当該撮影画像(IMD)及び撮影時情報(SHB)を受けると、ステップS32において、標準画像情報の生成処理が行われる。このステップS32では、図17に示されるように、まず、ステップS41において、送受信部220を介して、ナビゲーション装置300Bp(p=1,2,…)のいずれかからの撮影画像及び撮影時情報を受けると、処理制御部230Bが、当該撮影画像及び撮影時情報を収集する。
 次に、ステップS42において、処理制御部230Bは、収集した撮影画像の最初のフレームを選択する。この後、処理はステップS43へ進む。
 このステップS43では、処理制御部230Bが、当該フレームの撮影位置が、位置条件を満たすか否かを判定する。ここで、撮影位置が当該位置条件を満たすか否かは、撮影位置が、図18に示される許容範囲内にあるか否かで判定する。この許容範囲は、車両CRの速度に依存し、車両CRの速度が速いほど広くなり、速度が遅いほど狭くなる。この判定の結果が否定的であった場合(ステップS43:N)には、処理は後述するステップS47へ進む。
 一方、ステップS43における判定の結果が肯定的であった場合(ステップS43:Y)には、処理はステップS44へ進む。
 ステップS44では、処理制御部230Bが、進路形態、環境要素が同一である画像フレームが存在するか否かを判定する。この判定の結果が否定的であった場合(ステップS44:N)には、処理はステップS45へ進む。
 このステップS45では、処理制御部230Bが、収集した撮影画像の画像フレームを個別標準画像情報の一部として採用する。この後、処理はステップS47へ進む。
 一方、ステップS44における判定の結果が肯定的であった場合(ステップS44:Y)には、処理はステップS46へ進む。
 このステップS46では、処理制御部230Bが、収集した撮影画像の画像フレームを個別標準画像情報の一部とする標準画像情報の更新を行うか否かを判定する。ここで、個別標準画像情報の更新を行うか否かは、収集した撮影画像の画像フレームを標準画像情報として採用した場合に、連続した円滑な画像になるかを判断する。この判定の結果が肯定的であった場合(ステップS46:Y)には、処理はステップS45へ戻る。
 一方、ステップS46における判定の結果が否定的であった場合(ステップS46:N)には、処理はステップS47へ進む。
 ステップS47では、処理制御部230Bが、全ての画像フレームについて、上述したステップS43~S46の処理を行ったか否かを判定する。この判定の結果が否定的であった場合(ステップS47:N)には、処理はステップS48へ進む。
 このステップS48では、処理制御部230Bが、次の画像フレームを選択する。こうして、次の画像フレームを選択した後は、処理制御部230Bは、上述したステップS43~S46の処理を実施する。
 一方、全ての画像フレームについてステップS43~S46の処理を実施して、ステップS47における判定の結果が肯定的になると(ステップS47:Y)、ステップS32における標準画像情報の生成処理が終了する。
 《交差点案内処理》
 交差点案内システム100Bによる交差点案内処理は、上述した第1実施例における交差点案内システム100Aによる交差点案内処理と同様に行われる。
 以上説明したように、本第2実施例では、サーバ装置200Bが、撮影依頼を受けているナビゲーション装置300Bpから撮影画像及び撮影時情報を収集すると、サーバ装置200Bの処理制御部230Bが、標準画像情報の生成処理を開始する。かかる標準画像情報の生成に際して、処理制御部230Bは、収集した撮影画像の画像フレームごとに、画像フレームと対応付けられた撮影位置を取り出して、速度変化条件から導かれる位置条件を満たすか否かを判断する。そして、新たに収集した撮影画像における撮影位置が、当該条件を満たすときには、収集した撮影画像の画像フレームを標準画像情報の更新に活用する。
 また、ナビゲーション装置300Bpでは、所望の交差点を指定して、サーバ装置200Bから画像情報を取得すると、ナビゲーション装置300Bpの制御ユニット310Bが、車両CRpの当該交差点の通過に合わせて、車両CRpの交差点通過態様を参照して、当該画像情報に基づく画像を表示ユニット350に表示させる。
 したがって、本第2実施例によれば、上述した第1実施例と同様に、記憶資源を効率良く使用するとともに、利用者の利便性を向上させることができる。
 [実施例の変形]
 本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。
 例えば、上記の第1及び第2実施例では、ナビゲーション装置は、撮影した撮影画像及び取得した撮影時情報をサーバ装置へ送信するとともに、所望の交差点の画像情報をサーバ装置から取得する機能を有することとした。これに対して、上記の機能を有するナビゲーション装置が存在することを前提として、交差点案内システムにおけるナビゲーション装置の中には、所望の交差点の画像情報をサーバ装置から取得する機能を有するが、撮影画像及び撮影時情報を取得、送信する機能を有さないものがあってもよい。
 また、上記の第1及び第2実施例では、ナビゲーション装置は車両CRpに搭載される構成としたが、ナビゲーション装置における制御ユニットの機能を、ナビゲーション装置の本体部と切り離して、当該本体部に装着可能であるとともに、例えば、家庭内に配置されたパーソナルコンピュータと装着可能な可搬型装置が担う構成を採用することもできる。この場合においては、可搬型装置がパーソナルコンピュータを介して、取得した撮影画像及び撮影時情報を、サーバ装置に送信するようにしてもよい。また、可搬型装置がパーソナルコンピュータを介して、撮影依頼をサーバ装置から受信するようにしてもよい。
 また、上記の第1及び第2実施例では、ナビゲーション装置が車両の目的地までの予定走行ルートを探索することとしたが、サーバ装置が予定走行ルートの探索を行うようにしてもよい。この場合は、サーバ装置が、予定走行ルートをナビゲーション装置へ送信することになる。
 また、上記の第1及び第2実施例では、撮影時における環境要素情報は、「季節」、「時間帯」、「天気」としたが、環境要素情報の組み合わせについては、任意であって、他の環境要素を加えるものであってもよい。さらに、各環境要素の分類についても、例えば、「天気」について「晴」、「曇」、「雨」、「雪」に分類する等、任意に行うようにすることができる。
 また、上記の第1及び第2実施例では、サーバ装置は、ナビゲーション装置から予定走行ルートが報告されている場合に、当該予定走行ルート上における所望の交差点について、通過時における撮影依頼を、当該走行ルートを報告したナビゲーション装置へ送るようにした。これに対して、サーバ装置は、車両の通常の移動範囲が分かっているような場合には、当該移動範囲における所望の交差点の通過時における撮影依頼を送るようにすることができる。また、ナビゲーション装置から定期的に車両の位置情報を受けている場合には、当該位置情報の変化から、通過することが推定される交差点の内の所望の交差点の通過時における撮影依頼を、当該交差点を通過すると推定されるナビゲーション装置へ送るようにすることもできる。
 また、上記の第1及び第2実施例では、制御ユニットは、表示ユニットを制御して、所望の交差点の画像情報に基づく画像を表示することとしたが、制御ユニットは、当該画像に対して、ハイライト処理等を施した強調表示を行うようにしてもよい。また、制御ユニットは、所望の交差点の進路案内に際して、当該画像に矢印表示を用いたオーバーレイ表示を行うようにしてもよいし、さらに、音出力ユニットからの音声出力を併用するようにしてもよい。
 また、上記の第1及び第2実施例では、コンピュータによるプログラムの実行により、記憶手段、撮影手段及び表示手段を除く各手段の機能を実現するようにしたが、これらの各手段の全部又は一部を、専用のLSI(Large Scale Integrated circuit)等を用いたハードウェアにより構成するようにしてもよい。

Claims (13)

  1.  少なくとも1つの移動端末装置と通信可能なサーバ装置であって、
     少なくとも1つの所定交差点の通過時における撮影依頼を受けている移動端末装置から報告された撮影画像及び撮影時情報を収集する収集手段と;
     前記収集手段による収集結果に基づいて、前記所定交差点を所定の速度変化条件を満たして通過した場合に撮影される標準画像情報を生成する生成手段と;
     前記標準画像情報を記憶する記憶手段と;
     前記所定交差点の1つの通過時画像の取得要求を受けた場合に、前記標準画像情報における前記取得要求に対応する画像情報を、前記取得要求を発行した移動端末装置に報告する標準画像報告手段と;
     を備えることを特徴とするサーバ装置。
  2.  前記収集手段は、撮影開始地点及び撮影終了地点を指定して、前記撮影依頼を発行する、ことを特徴とする請求項1に記載のサーバ装置。
  3.  前記撮影時情報には、撮影日時及び撮影時天気の少なくとも1つの撮影時における環境要素の情報が含まれ、
     前記標準画像情報は、前記環境要素ごとに分類されて前記記憶手段に記憶され、
     前記取得要求には、前記環境要素の指定が含まれる、
     ことを特徴とする請求項1に記載のサーバ装置。
  4.  前記撮影時情報には、前記撮影依頼を受けている移動端末装置とともに移動する移動体が前記所定交差点を通過する際の速度変化情報が含まれ、
     前記生成手段は、前記速度変化情報が前記所定の速度変化条件を満たす場合に、前記標準画像情報を生成する、
     ことを特徴とする請求項1~3のいずれか一項に記載のサーバ装置。
  5.  前記撮影時情報には、前記撮影画像における画像フレームごとの撮影位置情報が含まれ、
     前記生成手段は、前記撮影位置情報が、前記所定の速度変化条件から導かれる位置条件を満たす前記撮影画像の画像フレームを、前記標準画像情報の生成に際して採用する、
     ことを特徴とする請求項1~3のいずれか一項に記載のサーバ装置。
  6.  移動体とともに移動し、請求項1~5のいずれか一項に記載のサーバ装置と通信可能な移動端末装置であって、
     画像を表示する表示手段と;
     前記サーバ装置に対して取得要求を行い、前記サーバ装置から前記取得要求に対応する交差点の通過時の画像情報を取得する取得手段と;
     前記取得手段による取得結果に基づく画像の前記表示手段への表示制御を行う表示制御手段と;
     を備えることを特徴とする移動端末装置。
  7.  前記表示制御手段は、前記移動体の交差点通過態様を参照して、前記取得結果に基づく画像の前記表示手段への表示を制御する、ことを特徴とする請求項6に記載の移動端末装置。
  8.  前記移動体の周辺を撮影する撮影手段と;
     前記移動体の走行時情報を取得する走行時情報取得手段と;
     撮影依頼を受けた少なくとも1つの所定交差点の通過時における前記撮影手段による撮影結果と、前記走行時情報取得手段による取得結果に基づいて生成した前記少なくとも1つの所定交差点の通過時における撮影時情報とを前記サーバ装置に報告する撮影情報報告手段と;
     を更に備えることを特徴とする請求項6又は7に記載の移動端末装置。
  9.  前記走行時情報には、前記移動体の現在位置及び前記移動体の速度の少なくとも一方が含まれる、ことを特徴とする請求項8に記載の移動端末装置。
  10.  前記走行時情報には、日時及び天気の少なくとも1つの環境要素が更に含まれる、ことを特徴とする請求項9に記載の移動端末装置。
  11.  請求項1~5のいずれか一項に記載のサーバ装置と;
     前記サーバ装置と通信可能な少なくとも1つの移動端末装置と;を備え、
     前記移動端末装置は、
      画像を表示する表示手段と;
      前記サーバ装置に対して取得要求を行い、前記サーバ装置から前記取得要求に対応する交差点の通過時の画像情報を取得する取得手段と;
      前記取得手段による取得結果に基づく画像の前記表示手段への表示制御を行う表示制御手段と;を備える、
     ことを特徴とする交差点案内システム。
  12.  前記移動端末装置は、
      前記移動体の周辺を撮影する撮影手段と;
      前記移動体の走行時情報を取得する走行時情報取得手段と;
      撮影依頼を受けた少なくとも1つの所定交差点の通過時における前記撮影手段による撮影結果と、前記走行時情報取得手段による取得結果に基づいて生成した前記少なくとも1つの所定交差点の通過時における撮影時情報とを前記サーバ装置に報告する撮影情報報告手段と;
     を更に備えることを特徴とする請求項11に記載の交差点案内システム。
  13.  少なくとも1つの移動端末装置と、前記移動端末装置と通信可能なサーバ装置とが協働して行う交差点案内方法であって、
     前記サーバ装置が、少なくとも1つの所定交差点の通過時における撮影依頼を受けている移動端末装置から報告された撮影画像及び撮影時情報を収集する収集工程と;
     前記サーバ装置が、前記収集工程における収集結果に基づいて、前記所定交差点を所定の速度変化条件を満たして通過した場合に撮影される標準画像情報を生成する生成工程と;
     前記サーバ装置が、前記所定交差点の1つの通過時画像の取得要求を受けた場合に、前記標準画像情報における前記取得要求に対応する画像を、前記取得要求を発行した移動端末装置に報告する標準画像報告工程と;
     前記取得要求を発行した移動端末装置が、前記取得要求に対応する画像情報に基づく表示を行う表示工程と;
     を備えることを特徴とする交差点案内方法。
PCT/JP2008/066628 2008-09-16 2008-09-16 サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法 WO2010032282A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2008/066628 WO2010032282A1 (ja) 2008-09-16 2008-09-16 サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法
US12/988,591 US20110032359A1 (en) 2008-09-16 2008-09-16 Server device, mobile terminal, road junction guidance system, and road junction guidance method
CN200880130821XA CN102132334A (zh) 2008-09-16 2008-09-16 服务器设备、移动终端、路口引导***以及路口引导方法
JP2010529516A JPWO2010032282A1 (ja) 2008-09-16 2008-09-16 サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/066628 WO2010032282A1 (ja) 2008-09-16 2008-09-16 サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法

Publications (1)

Publication Number Publication Date
WO2010032282A1 true WO2010032282A1 (ja) 2010-03-25

Family

ID=42039136

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/066628 WO2010032282A1 (ja) 2008-09-16 2008-09-16 サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法

Country Status (4)

Country Link
US (1) US20110032359A1 (ja)
JP (1) JPWO2010032282A1 (ja)
CN (1) CN102132334A (ja)
WO (1) WO2010032282A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169411A (ja) * 2018-07-30 2018-11-01 パイオニア株式会社 画像送信システム、端末、画像送信方法および画像送信プログラム
JP2020115135A (ja) * 2020-03-02 2020-07-30 パイオニア株式会社 画像送信システム、端末、画像送信方法および画像送信プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5929034B2 (ja) * 2011-08-09 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109996062B (zh) * 2019-04-04 2020-08-11 广东省安心加科技有限公司 视频图像质量检测方法、装置、计算机设备和存储介质
CN113038018B (zh) * 2019-10-30 2022-06-28 支付宝(杭州)信息技术有限公司 辅助用户拍摄车辆视频的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078654A (ja) * 2001-02-19 2003-03-14 Hitachi Kokusai Electric Inc 緊急情報通報システムおよび緊急情報通報システムを利用する装置およびその方法、および移動物体
JP2004212232A (ja) * 2003-01-06 2004-07-29 Alpine Electronics Inc 風景動画表示ナビゲーション装置
JP2005004480A (ja) * 2003-06-12 2005-01-06 Hitachi Ltd 端末装置及び画像情報サーバ
WO2005093688A1 (ja) * 2004-03-25 2005-10-06 Xanavi Informatics Corporation ナビゲーション装置の交通情報収集システム
JP2008065516A (ja) * 2006-09-06 2008-03-21 Japan Radio Co Ltd 道路情報収集・提供方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1233387A2 (en) * 2001-02-19 2002-08-21 Hitachi Kokusai Electric Inc. Vehicle emergency reporting system and method
JP3432212B2 (ja) * 2001-03-07 2003-08-04 キヤノン株式会社 画像処理装置及び方法
JP2003046969A (ja) * 2001-07-30 2003-02-14 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
EP1324274A3 (en) * 2001-12-28 2005-11-02 Matsushita Electric Industrial Co., Ltd. Vehicle information recording system
JP2005026738A (ja) * 2003-06-30 2005-01-27 Kyocera Corp 移動通信装置
JP4942411B2 (ja) * 2006-07-18 2012-05-30 クラリオン株式会社 ナビゲーション装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078654A (ja) * 2001-02-19 2003-03-14 Hitachi Kokusai Electric Inc 緊急情報通報システムおよび緊急情報通報システムを利用する装置およびその方法、および移動物体
JP2004212232A (ja) * 2003-01-06 2004-07-29 Alpine Electronics Inc 風景動画表示ナビゲーション装置
JP2005004480A (ja) * 2003-06-12 2005-01-06 Hitachi Ltd 端末装置及び画像情報サーバ
WO2005093688A1 (ja) * 2004-03-25 2005-10-06 Xanavi Informatics Corporation ナビゲーション装置の交通情報収集システム
JP2008065516A (ja) * 2006-09-06 2008-03-21 Japan Radio Co Ltd 道路情報収集・提供方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169411A (ja) * 2018-07-30 2018-11-01 パイオニア株式会社 画像送信システム、端末、画像送信方法および画像送信プログラム
JP2020115135A (ja) * 2020-03-02 2020-07-30 パイオニア株式会社 画像送信システム、端末、画像送信方法および画像送信プログラム
JP2022075762A (ja) * 2020-03-02 2022-05-18 パイオニア株式会社 画像送信システム、端末、画像送信方法および画像送信プログラム

Also Published As

Publication number Publication date
JPWO2010032282A1 (ja) 2012-02-02
CN102132334A (zh) 2011-07-20
US20110032359A1 (en) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5908125B2 (ja) 移動支援装置および移動支援方法
JP6333245B2 (ja) 代替経路の生成
JP4483027B2 (ja) サーバ装置、データ送受信方法及び記録媒体
TW201022637A (en) A method of creating map data
JP2015076078A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2015076077A (ja) 交通量推定システム、端末装置、交通量推定方法および交通量推定プログラム
WO2010032282A1 (ja) サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法
JP2022538097A (ja) ナビゲート可能なネットワークに関するユーザ提供データの収集
WO2015019917A1 (ja) ユーザの位置を基準にローカルな観光情報を検索する方法
JP2020030870A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
WO2020220198A1 (en) Timestamp and metadata processing for video compression in autonomous driving vehicles
JP2018169411A (ja) 画像送信システム、端末、画像送信方法および画像送信プログラム
JP6234047B2 (ja) ナビゲーション装置、サーバ、および、道幅情報更新方法
WO2020220199A1 (en) Multiple sensor data storage with compressed video stream in autonomous driving vehicles
WO2020052272A1 (en) Methods and systems for generating picture set from video
JP2023043957A (ja) 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法
JP2018106762A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2022023863A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2001005994A (ja) 画像処理装置および画像処理方法
JPH10267683A (ja) ナビゲーション装置
WO2014174648A1 (ja) 情報記録システム、情報取得装置、情報処理方法および情報処理プログラム
JP2019211484A (ja) 画像処理装置、画像処理管理装置、端末装置及び画像処理方法
US11538218B2 (en) System and method for three-dimensional reproduction of an off-road vehicle
JP2018109631A (ja) 画像処理装置、画像処理管理装置、端末装置及び画像処理方法
KR20180129033A (ko) 증강현실을 이용한 여행정보 서비스 제공 장치 및 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880130821.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08810679

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010529516

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12988591

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08810679

Country of ref document: EP

Kind code of ref document: A1