WO2020255628A1 - 画像処理装置及び画像処理用プログラム - Google Patents

画像処理装置及び画像処理用プログラム Download PDF

Info

Publication number
WO2020255628A1
WO2020255628A1 PCT/JP2020/020388 JP2020020388W WO2020255628A1 WO 2020255628 A1 WO2020255628 A1 WO 2020255628A1 JP 2020020388 W JP2020020388 W JP 2020020388W WO 2020255628 A1 WO2020255628 A1 WO 2020255628A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured
image processing
photographed
vehicle
Prior art date
Application number
PCT/JP2020/020388
Other languages
English (en)
French (fr)
Inventor
章智 田中
大輔 井下
Original Assignee
矢崎総業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 矢崎総業株式会社 filed Critical 矢崎総業株式会社
Publication of WO2020255628A1 publication Critical patent/WO2020255628A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation

Definitions

  • the present invention relates to an image processing device and an image processing program that collects captured images that are photographed by cameras mounted on a plurality of vehicles and are given a captured position, and processes the collected captured images.
  • Patent Document 1 A technique for detecting cracks (predetermined object) on the road surface from an image taken by a camera mounted on a vehicle has been proposed (Patent Document 1).
  • Patent Document 1 is based on the premise that a camera is mounted on a dedicated vehicle owned by a road administrator, and all images taken while the dedicated vehicle is running are captured in an information processing device to detect cracks. ..
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus and an image processing program capable of accurately detecting an object and accurately knowing the state of the object. To do.
  • the image processing apparatus and the image processing program according to the present invention are characterized by the following [1] to [6].
  • [1] An image processing device that collects captured images taken by cameras mounted on a plurality of vehicles and given shooting positions, and processes the collected captured images.
  • a determination means for determining whether or not a predetermined target is captured in the captured image captured by the camera mounted on one of the plurality of vehicles. When it is determined by the determination means that the predetermined object has been photographed, it is said that the predetermined object has been photographed by the determination means from the photographed image taken by the camera mounted on the other vehicle.
  • An extraction means for extracting an image taken at the same shooting position as the determined shot image is provided. Must be an image processing device.
  • the image processing apparatus is a crack or a hole on the road surface.
  • the determination means makes the determination based on a comparison between the reference image of the normal road surface without cracks or holes and the captured image captured by the camera mounted on one of the plurality of vehicles. Do, do Must be an image processing device.
  • the image processing apparatus is a crack or a hole on the road surface. Further provided with a synthesizing means for synthesizing the photographed image determined by the determination means to have photographed the crack or the hole and the photographed image extracted by the extraction means. Must be an image processing device. [4] The image processing apparatus according to [1].
  • the predetermined target is a dangerous vehicle
  • the determination means makes the determination based on a comparison between a reference image of a dangerous vehicle approaching the own vehicle and the captured image captured by the camera mounted on one of the plurality of vehicles. Do, do Must be an image processing device.
  • the predetermined target is a dangerous vehicle
  • the extraction means determines that the dangerous vehicle is being photographed by the determination means
  • the determination means determines the predetermined image taken by the camera mounted on the other vehicle. Extracting images taken at the same shooting position and at the same shooting time as the shot image determined to have been shot.
  • the extraction means is mounted on another vehicle when it is determined by the determination means that a predetermined target is being photographed. From the captured image captured by the camera, an image captured at the same shooting position as the captured image determined by the determination means to capture a predetermined object is extracted. As a result, it is possible to easily extract a captured image of a predetermined target captured by cameras mounted on a plurality of vehicles. Then, the target can be detected accurately and the state of the target can be accurately known based on the plurality of captured images of the predetermined target.
  • cracks or holes on the road surface can be easily determined based on the comparison between the reference image and the captured image.
  • the compositing means synthesizes a plurality of captured images in which a predetermined target is captured, so that the target can be detected more accurately and the target can be accurately detected. You can know the state.
  • the image processing device having the configuration of [4] above, it is possible to easily determine a dangerous vehicle based on the comparison between the reference image and the captured image.
  • the extraction means determines that a dangerous vehicle is being photographed by the determination means
  • the extraction means is taken from the captured image taken by a camera mounted on another vehicle.
  • the image taken at the same shooting position and the same shooting time as the shot image determined by the determination means to be shot the dangerous vehicle is extracted. Based on these extracted captured images, the dangerous vehicle can be detected accurately, and the state of the dangerous vehicle can be accurately known.
  • an image processing device and an image processing program capable of accurately detecting an object and accurately knowing the state of the object.
  • FIG. 1 is a configuration diagram showing an information providing system incorporating a server device as an image processing device of the present invention in the first embodiment.
  • FIG. 2 is an electrical configuration diagram of the drive recorder shown in FIG.
  • FIG. 3 is an electrical configuration diagram of the server device shown in FIG.
  • FIG. 4 is a flowchart showing a crack or hole detection processing procedure executed by the server device shown in FIG.
  • FIG. 5 is an explanatory diagram for explaining a procedure for detecting a crack or a hole shown in FIG.
  • FIG. 6 is a flowchart showing a dangerous vehicle detection processing procedure executed by the server device shown in FIG.
  • FIG. 7 is a diagram showing an example of a reference image used in the dangerous vehicle detection processing procedure shown in FIG.
  • FIG. 8 is an explanatory diagram for explaining a procedure for detecting a dangerous vehicle shown in FIG.
  • FIG. 9 is a configuration diagram showing an information providing system incorporating a server device as an image processing device of the present invention in the second embodiment.
  • FIG. 1 is a configuration diagram showing an information providing system 1 incorporating a server device 5 as an image processing device of the present invention in the first embodiment.
  • the information providing system 1 of the present embodiment is a system that collects captured images taken by the drive recorder 2 mounted on the vehicle 7 and provides the user with the result of analyzing and processing the collected captured images.
  • the server device 5 of the present embodiment collects all the captured images captured by the drive recorder 2 mounted on the vehicle 7. Then, the server device 5 extracts a photographed image in which the same crack or hole on the road surface is photographed from the photographed image photographed by the drive recorders 2 mounted on the plurality of vehicles 7. The server device 5 analyzes and processes the extracted captured image, and provides the result to a road manager (user) who manages the road such as the national government or a local public body. Further, the server device 5 extracts a photographed image of the same dangerous vehicle from the photographed images taken by the drive recorders 2 mounted on the plurality of vehicles 7. The server device 5 analyzes and processes the extracted captured image, and provides the result to the police (user).
  • the information providing system 1 includes a drive recorder 2 mounted on the vehicle 7, a server device 5 that analyzes and processes captured images collected from the drive recorder 2, and an analysis of captured images by the server device 5.
  • the user terminal 6 is provided with the processing result.
  • the drive recorder 2 and the server device 5, and the server device 5 and the user terminal 6 are configured to be able to communicate with each other via the Internet communication network 8.
  • the drive recorder 2 is mounted on the vehicle 7.
  • the drive recorder 2 may be owned by the owner of the mounted vehicle 7, or may be leased by the information providing company that operates the information providing system 1.
  • the drive recorder 2 transmits to the server device 5 all the captured images around the vehicle captured by the camera 3 mounted on the vehicle 7.
  • the drive recorder 2 includes a camera 3 and a recorder main body 4.
  • the camera 3 is mounted on the vehicle 7 and photographs the surroundings of the vehicle.
  • the number of cameras 3 may be one or a plurality.
  • the recorder main body 4 is connected to the camera 3 and has a recording unit 41, a communication unit 42, a GPS receiving unit 43, and a control unit 44.
  • the recording unit 41 saves the image taken by the camera 3.
  • a memory card containing a non-volatile semiconductor memory is assumed.
  • the communication unit 42 is composed of a circuit, an antenna, and the like for wirelessly connecting to the Internet communication network 8.
  • the GPS receiving unit 43 receives radio waves transmitted from a plurality of GPS (Global Positioning System) satellites, obtains a current position, and outputs the current position to a control unit 44 described later.
  • GPS Global Positioning System
  • the control unit 44 is composed of a CPU (Central Processing Unit) having a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory), and controls the entire drive recorder 2.
  • the control unit 44 adds the position information and the time information received from the GPS receiving unit 43 to the captured image captured by the camera 3 as the photographing position and the photographing time, records the image in the recording unit 41, and transmits the image to the server device 5. ..
  • the server device 5 is owned by the information providing company that operates the information providing system 1. As shown in FIG. 3, the server device 5 has a communication unit 51, a database (hereinafter, DB) 52, and a control unit 53.
  • the communication unit 51 is composed of a circuit or the like for connecting to the Internet communication network 8.
  • the DB 52 stores a photographed image photographed by the drive recorder 2 mounted on each of the plurality of vehicles 7, the result of analyzing and processing the photographed image, and the like.
  • the control unit 44 is composed of a CPU having a memory such as a RAM or a ROM, and controls the entire server device 5.
  • the control unit 44 functions as a determination means, and a crack or a hole in the road surface, which is a predetermined target, or a dangerous vehicle is photographed in the photographed image taken by the drive recorder 2 mounted on one of the plurality of vehicles 7. Judge whether or not.
  • the control unit 44 functions as an extraction means, and is taken at the same shooting position as the shot image determined to have cracks or holes from the shot images taken by the camera 3 mounted on the other vehicle 7. Extract the image. The same cracks or holes are photographed in the extracted photographed image and the photographed image determined that the cracks or holes are photographed.
  • control unit 44 functions as an extraction means, and from the captured images taken by the camera 3 mounted on the other vehicle 7, the same shooting at the same shooting position as the shot image determined that the dangerous vehicle was shot. Extract the captured image captured at the position. The same dangerous vehicle is photographed in the extracted photographed image and the photographed image determined that the dangerous vehicle is photographed. Further, the control unit 44 analyzes and processes the captured image determined that the predetermined target has been captured and the extracted captured image, and registers (stores) them in the DB 52.
  • the user terminal 6 is a terminal owned by the user.
  • the user terminal 6 is composed of a CPU having a memory such as a RAM or a ROM, a tablet terminal 61 such as a smartphone having a display unit and an operation unit (not shown), and a personal computer (PC) 62.
  • the user terminal 6 can access the DB 52 of the server device 5 via the Internet communication network 8.
  • the control unit 44 of the drive recorder 2 (hereinafter, may be simply abbreviated as “drive recorder 2”) starts shooting with the camera 3 when the ignition is turned on.
  • the drive recorder 2 adds the position information and the time information received from the GPS receiving unit 43 to the photographed image captured by the camera 3 as the photographing position and the photographing time, and stores the photographed image in the recording unit 41.
  • the drive recorder 2 transmits a captured image to which the above-mentioned shooting position and shooting time are assigned to the server device 5.
  • the captured image to be transmitted to the server device 5 may be a still image captured periodically, a moving image for a predetermined time photographed periodically, or captured during the ignition on. It may be a video.
  • the captured image captured by the drive recorders 2 mounted on the plurality of vehicles 7 is transmitted to the server device 5.
  • the image processing program for the processing shown in FIG. 4 is stored in a storage medium (not shown).
  • the processing is realized by executing these image processing programs by the control unit 53 of the server device 5 (hereinafter, may be simply abbreviated as "server device 5").
  • server device 5" the control unit 53 of the server device 5 executes the crack or hole detection process shown in FIG. 4 at predetermined intervals.
  • the server device 5 selects one of the plurality of vehicles 7 that have taken the captured images stored in the DB 52 during the predetermined period, and extracts the captured images captured by the selected vehicle 7 during the predetermined period.
  • the vehicle 7 to be selected for example, a vehicle traveling on a road managed by a road management company, which is a user, may be selected. Further, any one of the vehicles 7 in which the photographed image stored in the DB 52 is photographed may be selected.
  • the server device 5 extracts an image taken at the same shooting position as the shot image extracted in step S1 from the reference image of the road surface in which the cracks or holes are not taken in advance stored in the DB 52 (step S2). ). After that, the server device 5 compares the captured image extracted in step S1 with the reference image extracted in step S2 (step S3).
  • the server device 5 determines that no crack or hole has been photographed if there is no part (change point) that does not match the photographed image and the reference image (N in step S4), and immediately ends the process. .. On the other hand, if there is a change point between the captured image and the reference image (Y in step S4), the server device 5 determines that a crack or a hole has been captured, and proceeds to the next step S5.
  • step S5 the server device 5 extracts an image taken at the same shooting position as the shot image extracted in step S1 from the shot images taken by the other vehicle 7.
  • the photographed image taken by the vehicle 71 in step S1 is extracted, and when the hole 9 is photographed in the photographed image, the other vehicles 72 to 74 traveling in the photographed position are photographed. It is possible to extract a photographed image of the hole 9 having a different angle.
  • the server device 5 synthesizes the captured image extracted in step S1 and the captured image extracted in step S5 (step S6).
  • image synthesis technique in step S6 Japanese Patent Application Laid-Open No. 2014-86826, Japanese Patent Application Laid-Open No. 2018-170712, and Japanese Patent Application Laid-Open No. It is conceivable to use Japanese Patent Publication No. 2018-207279.
  • the server device 5 processes the combined captured image to detect cracks or holes (step S7).
  • a shadow region is detected from the synthesized captured image, and a feature point (edge) is detected, and the detected feature point cloud is detected. It is conceivable to detect that a crack or a hole is photographed based on a group of feature points from which the edge of the shadow region is removed. Further, it is conceivable to use a classifier such as a neural network machine-learned to discriminate the presence or absence of an object in the image using a known image in which a crack or a hole is photographed as teacher data.
  • the server device 5 If the server device 5 cannot detect a crack or a hole based on the synthesized captured image (N in step S8), the server device 5 immediately ends the process. On the other hand, when the server device 5 detects a crack or a hole based on the synthesized captured image (Y in step S8), the server device 5 assigns a captured position to the composited captured image and registers it in the DB (step S9). End the process.
  • the user terminal 6 owned by the road administrator can access the DB 52 in which the composite image in which the cracks or holes of the road surface are photographed is registered.
  • the server device 5 determines that the crack or hole is photographed in the photographed image taken by one vehicle 7. At this time, the server device 5 extracts from the captured images captured by the camera 3 mounted on the other vehicle 7 those captured at the same shooting position as the captured image determined to have cracks or holes. .. As a result, it is possible to easily extract captured images of cracks or holes taken by cameras 3 mounted on a plurality of vehicles 7. Then, the cracks or holes can be detected with high accuracy by further detecting (determining) the cracks or holes based on the plurality of captured images in which the cracks or holes are photographed.
  • the crack or hole can be easily and accurately determined based on the comparison between the reference image and the captured image.
  • the server device 5 synthesizes the extracted plurality of captured images, so that the crack or hole can be detected more accurately and the state of the crack or hole can be detected. You can know.
  • the server device 5 executes the detection process of the dangerous vehicle shown in FIG. 6 at predetermined intervals.
  • the server device 5 selects one of the plurality of vehicles 7 that have captured the captured images stored in the DB 52 during the predetermined period, and extracts the captured images captured by the selected vehicle 7 during the predetermined period. (Step S11).
  • the vehicle 7 to be selected any one of the vehicles 7 in which the photographed image stored in the DB 52 is photographed may be selected.
  • the server device 5 compares the captured image extracted in step S11 with the reference image captured in the DB 52 of a dangerous vehicle approaching the own vehicle as shown in FIG. 5 (step S12). ..
  • the reference image shown in FIG. 5 is an image in which the road is not reflected between the own vehicle 71 and the following dangerous vehicle 72, and is an image of the dangerous vehicle 72 approaching the own vehicle 71.
  • the server device 5 determines that there is no dangerous vehicle if there are few similar parts between the captured image and the reference image (N in step S13), and immediately ends the process. On the other hand, if the captured image and the reference image have many similar parts, the server device 5 determines that there is a dangerous vehicle (Y in step S13), and proceeds to the next step S14.
  • step S14 the server device 5 extracts from the captured images taken by the other vehicle 7 what was captured at the same shooting position and at the same shooting time as the captured image extracted in step S1.
  • the photographed image taken by the own vehicle 71 in step S1 is extracted.
  • the photographed image of the dangerous vehicle 72 of another angle photographed by the other vehicles 73 and 74 traveling at the same shooting position at the same shooting time can be extracted. it can.
  • the dangerous vehicle 72 is analyzed from the captured image of the extracted dangerous vehicle 72 (step S15).
  • the server device 5 extracts, for example, a license plate from a photographed image of the extracted dangerous vehicle 72. Further, from the data of the dangerous vehicle registered (stored) in the DB 52, the history of dangerous driving (driving, etc.) of the dangerous vehicle 72 having the same license plate is examined. Further, the server device 5 analyzes the presence or absence of sudden steering, sudden braking, etc. from the captured image of the extracted dangerous vehicle 72.
  • the server device 5 maps (associates) the analysis result analyzed in step S15 with the captured image extracted in step S14, registers it in the DB 52, and ends the process (step S16).
  • the user terminal 6 owned by the police can access the DB 52 in which the photographed image of the dangerous vehicle is registered.
  • the server device 5 determines that the dangerous vehicle is photographed in the photographed image taken by one vehicle 7, the camera mounted on the other vehicle 7 is mounted. From the captured image taken in step 3, an image taken at the same shooting position and at the same shooting time as the shot image determined that the dangerous vehicle was shot is extracted. As a result, it is possible to easily extract captured images of dangerous vehicles taken by cameras 3 mounted on a plurality of vehicles 7. Then, based on these extracted captured images, the state of the dangerous vehicle can be accurately known.
  • the dangerous vehicle can be easily and accurately determined based on the comparison between the reference image and the captured image.
  • the targets are cracks or holes in the road surface and dangerous vehicles, but the targets are not limited to these.
  • the target may be other than the above, or may be any one of a crack or a hole in the road surface and a dangerous vehicle.
  • the extracted captured images are combined, but the present invention is not limited to this.
  • the 3D dimensions of cracks or holes may be measured from the extracted captured image. This also allows us to know the depth of cracks or holes.
  • FIG. 6 is a configuration diagram showing an information providing system 1 incorporating the server devices 5, 101, and 102 of the present invention in the second embodiment.
  • the difference in the first embodiment is that the server devices 101 and 102 owned by the user are provided.
  • the server devices 101 and 102 are devices owned by the user, respectively.
  • the server device 5 owned by the information providing company transmits the captured image recorded in the DB 52 to the server devices 101 and 102 via the Internet communication network 8.
  • the server device 5 may transmit the captured image transmitted from the drive recorder 2 to the server devices 101 and 102 as it is, or the server device 101 analyzes and processes the captured image transmitted from the drive recorder 2. , 102 may be transmitted.
  • the user terminal 6 accesses the server device 5 owned by the information providing company, but in the second embodiment, the user terminal 6 accesses the server devices 101 and 102 owned by the user, respectively.
  • the image registered in the DB can be obtained.
  • the server device 5 directly transmits the captured image transmitted from the drive recorder 2 to the server devices 101 and 102
  • the server devices 101 and 102 function as the image processing device of the present invention
  • FIGS. 4 and 6 show the images. Execute the indicated process.
  • the present invention is not limited to the above-described embodiment, and can be appropriately modified, improved, and the like.
  • the material, shape, size, number, arrangement location, etc. of each component in the above-described embodiment are arbitrary and are not limited as long as the present invention can be achieved.
  • An image processing device (5) that collects captured images taken by cameras (3) mounted on a plurality of vehicles (7) and assigned shooting positions, and processes the collected captured images.
  • a determination means (53) for determining whether or not a predetermined object is captured in the captured image captured by the camera (3) mounted on one of the plurality of vehicles (7). When it is determined by the determination means (53) that the predetermined object has been photographed, the determination means is based on a photographed image taken by the camera (3) mounted on the other vehicle (7).
  • the image processing apparatus (5) is provided with an extraction means (53) for extracting an image taken at the same shooting position as the shot image determined to be shot by the predetermined target.
  • Image processing device (5) [2] The image processing apparatus (5) according to [1].
  • the predetermined object is a crack or a hole on the road surface.
  • the determination means (53) is based on a comparison between the reference image of a normal road surface without cracks or holes and the captured image captured by the camera mounted on one of the plurality of vehicles. Make the above judgment Image processing device (5).
  • the predetermined object is a crack or a hole on the road surface.
  • a synthesis means (53) for synthesizing the photographed image determined by the determination means (53) to have photographed the cracks or holes and the photographed image extracted by the extraction means (53) is further provided.
  • the predetermined target is a dangerous vehicle
  • the determination means (53) includes a reference image of a dangerous vehicle approaching the own vehicle, and the captured image captured by the camera (3) mounted on one of the plurality of vehicles (7). The determination is made based on the comparison of Image processing device (5).
  • the predetermined target is a dangerous vehicle
  • the extraction means (53) determines that the dangerous vehicle is being photographed by the determination means (53)
  • the photographed image taken by the camera mounted on the other vehicle (7).
  • Image processing program To make the computer (53) function as each of the means provided in the image processing apparatus according to [1] to [5].
  • the present invention it is possible to provide an image processing device and an image processing program capable of accurately detecting an object and accurately knowing the state of the object.
  • the present invention that exhibits this effect is useful for an image processing apparatus and an image processing program.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

サーバ装置(5)は、複数の車両(7)に各々搭載されたカメラ(3)により撮影された撮影画像を収集する。サーバ装置(5)は、複数の車両(7)のうち1台に搭載されたカメラ(3)により撮影された撮影画像にひび割れ又は穴、危険車両が撮影されているか否かを判定する。サーバ装置(5)は、ひび割れ又は穴、危険車両が撮影されていると判定されたとき、他の車両(7)に搭載されたカメラ(3)により撮影された撮影画像から、ひび割れ又は穴が撮影されたと判定された撮影画像と同じ撮影位置で撮影されたものを抽出し、危険車両が撮影されたと判定された撮影画像と同じ撮影位置で同じ撮影時間に撮影されたものを抽出する。

Description

画像処理装置及び画像処理用プログラム
 本発明は、複数の車両に各々搭載されたカメラにより撮影され、撮影位置が付与された撮影画像を収集し、収集した前記撮影画像を処理する画像処理装置及び画像処理用プログラム、に関する。
 車両に搭載されたカメラにより撮影された画像から路面のひび割れ(所定の対象)などを検出する技術が提案されている(特許文献1)。特許文献1では、道路管理者が所有する専用車にカメラを搭載し、その専用車が走行中に撮影した全ての画像を情報処理装置に取り込んで、ひび割れを検出することが前提となっている。
日本国特許第6294529号公報
 しかしながら、1台の専用車により撮影した画像だけでは対象の検出精度が良くない、また、正確に対象の状態を知ることができない、という問題があった。
 本発明は、上述した事情に鑑みてなされたものであり、その目的は、精度よく対象を検出できる、また、正確に対象の状態を知ることができる、画像処理装置及び画像処理用プログラムを提供することにある。
 前述した目的を達成するために、本発明に係る画像処理装置及び画像処理用プログラムは、下記[1]~[6]を特徴としている。
[1]
 複数の車両に各々搭載されたカメラにより撮影され、撮影位置が付与された撮影画像を収集し、収集した前記撮影画像を処理する画像処理装置であって、
 前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像に所定の対象が撮影されているか否かを判定する判定手段と、
 前記判定手段により前記所定の対象が撮影されていると判定されたときに、他の前記車両に搭載された前記カメラにより撮影された撮影画像から、前記判定手段により前記所定の対象が撮影されたと判定された前記撮影画像と同じ撮影位置で撮影されたものを抽出する抽出手段と、を備えた、
 画像処理装置であること。
[2]
 [1]に記載の画像処理装置であって、
 前記所定の対象は、路面上のひび割れ又は穴であって、
 前記判定手段は、前記ひび割れ又は穴のない正常な路面の基準画像と、前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像と、の比較に基づいて前記判定を行う、
 画像処理装置であること。
[3]
 [1]に記載の画像処理装置であって、
 前記所定の対象は、路面上のひび割れ又は穴であって、
 前記判定手段により前記ひび割れ又は穴が撮影されたと判定された前記撮影画像と、前記抽出手段により抽出した前記撮影画像と、を合成する合成手段をさらに備えた、
 画像処理装置であること。
[4]
 [1]に記載の画像処理装置であって、
 前記所定の対象は、危険車両であり、
 前記判定手段は、自車両に接近している危険車両の基準画像と、前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像と、の比較に基づいて前記判定を行う、
 画像処理装置であること。
[5]
 [1]に記載の画像処理装置であって、
 前記撮影画像には、撮影時間が付与され、
 前記所定の対象は、危険車両であり、
 前記抽出手段が、前記判定手段により前記危険車両が撮影されていると判定されたときに、他の前記車両に搭載された前記カメラにより撮影された前記撮影画像から、前記判定手段により前記所定の対象が撮影されたと判定された前記撮影画像と同じ撮影位置で、かつ、同じ撮影時間に撮影されたものを抽出する、
 画像処理装置であること。
[6]
 コンピュータを[1]~[5]に記載の前記画像処理装置が備える各前記手段として機能させるための、
 画像処理用プログラムであること。
 上記[1]及び[6]の構成の画像処理装置及び画像処理用プログラムによれば、抽出手段が、判定手段により所定の対象が撮影されていると判定されたときに、他の車両に搭載されたカメラにより撮影された撮影画像から、判定手段により所定の対象が撮影されたと判定された撮影画像と同じ撮影位置で撮影されたものを抽出する。これにより、簡単に、複数の車両に搭載されたカメラで撮影された所定の対象の撮影画像を抽出することができる。そして、これら所定の対象が撮影された複数の撮影画像に基づいて、精度よく対象を検出できる、また、正確に対象の状態を知ることができる。
 上記[2]の構成の画像処理装置によれば、基準画像と撮影画像との比較に基づいて容易に路面上のひび割れ又は穴を判定することができる。
 上記[3]の構成の画像処理装置によれば、合成手段が、所定の対象が撮影された複数の撮影画像を合成するので、より一層、精度よく対象を検出できる、また、正確に対象の状態を知ることができる。
 上記[4]の構成の画像処理装置によれば、基準画像と撮影画像との比較に基づいて容易に危険車両を判定することができる。
 上記[5]の構成の画像処理装置によれば、抽出手段が、判定手段により危険車両が撮影されていると判定されたときに、他の車両に搭載されたカメラにより撮影された撮影画像から、判定手段により危険車両が撮影されていると判定された撮影画像と同じ撮影位置で、同じ撮影時間に撮影されたものを抽出する。これら抽出した撮影画像に基づいて、精度よく危険車両を検出できる、また、正確に危険車両の状態を知ることができる。
 本発明によれば、精度よく対象を検出できる、また、正確に対象の状態を知ることができる、画像処理装置及び画像処理用プログラムを提供できる。
 以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
図1は、第1実施形態における本発明の画像処理装置としてのサーバ装置を組み込んだ情報提供システムを示す構成図である。 図2は、図1に示すドライブレコーダの電気構成図である。 図3は、図1に示すサーバ装置の電気構成図である。 図4は、図1に示すサーバ装置が実行するひび割れ又は穴の検出処理手順を示すフローチャートである。 図5は、図4に示すひび割れ又は穴の検出処理手順を説明するための説明図である。 図6は、図1に示すサーバ装置が実行する危険車両の検出処理手順を示すフローチャートである。 図7は、図6に示す危険車両の検出処理手順で用いる基準画像の一例を示す図である。 図8は、図6に示す危険車両の検出処理手順を説明するための説明図である。 図9は、第2実施形態における本発明の画像処理装置としてのサーバ装置を組み込んだ情報提供システムを示す構成図である。
 本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。
(第1実施形態)
 図1は、第1実施形態における本発明の画像処理装置としてのサーバ装置5を組み込んだ情報提供システム1を示す構成図である。本実施形態の情報提供システム1は、車両7に搭載されたドライブレコーダ2により撮影された撮影画像を収集し、収集した撮影画像を解析・加工した結果をユーザに提供するシステムである。
 より具体的に説明すると、本実施形態のサーバ装置5は、車両7に搭載されたドライブレコーダ2により撮影された全ての撮影画像を収集する。そして、サーバ装置5は、複数の車両7に搭載されたドライブレコーダ2により撮影された撮影画像から、路面の同一のひび割れ又は穴が撮影された撮影画像を抽出する。サーバ装置5は、抽出した撮影画像を解析・加工し、その結果を国や地方公共団体などの道路を管理する道路管理者(ユーザ)に提供する。また、サーバ装置5は、複数の車両7に搭載されたドライブレコーダ2により撮影された撮影画像から、同一の危険車両を撮影した撮影画像を抽出する。サーバ装置5は、抽出した撮影画像を解析・加工し、その結果を、警察(ユーザ)に提供する。
 図1に示すように、情報提供システム1は、車両7に搭載されたドライブレコーダ2と、ドライブレコーダ2から収集した撮影画像を解析・加工するサーバ装置5と、サーバ装置5による撮影画像の解析・加工結果が提供されるユーザ端末6と、を備えている。上記ドライブレコーダ2及びサーバ装置5間、サーバ装置5及びユーザ端末6間は、インターネット通信網8を介して互いに通信可能に構成されている。
 ドライブレコーダ2は、車両7に搭載されている。ドライブレコーダ2は、搭載された車両7の所有者が所有するものであってもよいし、この情報提供システム1を運営する情報提供会社が所有するものをリースしたものであってもよい。ドライブレコーダ2は、車両7に搭載されたカメラ3が撮影した車両周辺の撮影画像を全てサーバ装置5に送信する。
 ドライブレコーダ2は、図1に示すように、カメラ3と、レコーダ本体4と、を備えている。カメラ3は、車両7に搭載され、車両周辺を撮影する。カメラ3は、1台であってもよいし、複数台であってもよい。レコーダ本体4は、図2に示すように、カメラ3に接続され、記録部41と、通信部42と、GPS受信部43と、制御部44と、を有している。
 記録部41は、カメラ3が撮影した画像を保存する。記録部41の代表例としては、不揮発性の半導体メモリを内蔵したメモリカードなどが想定される。通信部42は、インターネット通信網8に無線接続するための回路やアンテナ等から構成されている。GPS受信部43は、周知のように複数のGPS(Global Positioning System)衛星から発信される電波を受信して、現在位置を求めて後述する制御部44に出力する。
 制御部44は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、ドライブレコーダ2全体の制御を司る。制御部44は、カメラ3が撮影した撮影画像にGPS受信部43から受信した位置情報及び時刻情報を撮影位置及び撮影時間として付与して、記録部41に記録するとともに、サーバ装置5に送信する。
 サーバ装置5は、この情報提供システム1を運営する情報提供会社が所有する。サーバ装置5は、図3に示すように、通信部51と、データベース(以下、DB)52と、制御部53と、を有している。通信部51は、インターネット通信網8に接続するための回路などで構成されている。DB52は、複数の車両7各々に搭載されたドライブレコーダ2により撮影された撮影画像、該撮影画像を解析、加工した結果などが記憶される。制御部44は、例えばRAMやROMなどのメモリを備えたCPUで構成され、サーバ装置5全体の制御を司る。
 制御部44は、判定手段として機能し、複数の車両7のうち1台に搭載されたドライブレコーダ2が撮影した撮影画像に、所定の対象である路面のひび割れ又は穴、危険車両が撮影されているか否かを判定する。
 制御部44は、抽出手段として機能し、他の車両7に搭載されたカメラ3により撮影された撮影画像から、ひび割れ又は穴が撮影されたと判定された撮影画像と同じ撮影位置で撮影された撮影画像を抽出する。上記抽出した撮影画像と、上記ひび割れ又は穴が撮影されたと判定された撮影画像と、には、同一のひび割れ又は穴が撮影されている。
 また、制御部44は、抽出手段として機能し、他の車両7に搭載されたカメラ3により撮影された撮影画像から、危険車両が撮影されたと判定された撮影画像と同じ撮影位置で、同じ撮影位置に撮影された撮影画像を抽出する。上記抽出した撮影画像と、上記危険車両が撮影されたと判定された撮影画像と、には、同一の危険車両が撮影されている。さらに、制御部44は、所定の対象が撮影されたと判定された撮影画像と、抽出した撮影画像と、を解析、加工して、DB52に登録(格納)する。
 ユーザ端末6は、図1に示すように、ユーザが所有する端末である。ユーザ端末6は、RAMやROMなどのメモリを備えたCPUや、表示部、操作部(図示せず)を備えたスマートフォンなどのタブレット端末61や、パーソナルコンピュータ(PC)62から構成されている。ユーザ端末6は、インターネット通信網8を介してサーバ装置5のDB52にアクセスすることができる。
 次に、上述した構成の情報提供システム1の動作について説明する。まず、ドライブレコーダ2の動作について説明する。ドライブレコーダ2の制御部44(以下、単に「ドライブレコーダ2」と略記することもある)は、イグニッションのオンに応じてカメラ3による撮影を開始する。ドライブレコーダ2は、カメラ3により撮影した撮影画像にGPS受信部43から受信した位置情報及び時刻情報を撮影位置及び撮影時刻として付与し、記録部41に記憶させる。
 また、ドライブレコーダ2は、上記撮影位置及び撮影時刻が付与された撮影画像をサーバ装置5に送信する。サーバ装置5に送信する撮影画像としては、定期的に撮影された静止画であってもよいし、定期的に撮影された所定時間分の動画であってもよいし、イグニッションオンの間撮影された動画であってもよい。これにより、サーバ装置5には、複数の車両7に搭載されたドライブレコーダ2により撮影された撮影画像が送信される。
 次に、サーバ装置5の動作について図4~図7を参照して説明する。図4に示す処理の画像処理用プログラムは、図示しない記憶媒体に記憶されている。これら画像処理用プログラムをサーバ装置5の制御部53(以下、単に「サーバ装置5」と略記することもある)が実行することにより処理が実現する。まず、サーバ装置5の制御部53は、所定期間毎に図4に示すひび割れ又は穴の検出処理を実行する。
 次に、サーバ装置5は、所定期間中にDB52に格納された撮影画像を撮影した複数の車両7のうち1台を選択し、当該選択した車両7が所定期間中に撮影した撮影画像を抽出する(ステップS1)。ここで、選択する車両7としては、例えば、ユーザである道路管理会社が管理する道路上を走行した車両を選択するようにしてもよい。また、DB52に格納された撮影画像を撮影した車両7のうち任意の1つを選択するようにしてもよい。
 次に、サーバ装置5は、DB52に予め格納されたひび割れ又は穴が撮影されていない路面の基準画像から、ステップS1で抽出した撮影画像と同じ撮影位置で撮影されたものを抽出する(ステップS2)。その後、サーバ装置5は、ステップS1で抽出した撮影画像と、ステップS2で抽出した基準画像と、を比較する(ステップS3)。
 次に、サーバ装置5は、撮影画像と基準画像とに一致しない箇所(変化点)がなければ(ステップS4でN)、ひび割れ又は穴が撮影されていないと判定して、直ちに処理を終了する。一方、サーバ装置5は、撮影画像と基準画像とに変化点があれば(ステップS4でY)、ひび割れ又は穴が撮影されていると判定して、次のステップS5に進む。
 ステップS5においてサーバ装置5は、他の車両7が撮影した撮影画像から、ステップS1で抽出した撮影画像と同じ撮影位置で撮影されたものを抽出する。これにより、図5に示すように、ステップS1で車両71が撮影した撮影画像が抽出され、撮影画像に穴9が撮影されていた場合、その撮影位置を走行した他の車両72~74が撮影した別アングルの穴9の撮影画像を抽出することができる。
 次に、サーバ装置5は、ステップS1で抽出した撮影画像と、ステップS5で抽出した撮影画像と、を合成する(ステップS6)。ステップS6における画像合成技術としては、複数枚の撮影画像のうち特徴点が一致する重複部分をつなぎ合わせる日本国特開2014-86826号公報、日本国特開2018-170712号公報、日本国特開2018-207279号公報を用いることが考えられる。
 その後、サーバ装置5は、合成した撮影画像を画像処理してひび割れ又は穴を検出する(ステップS7)。ひび割れ又は穴の検出としては、日本国特開2019-20956号に記載されたように、合成した撮影画像から影領域を検出するとともに、特徴点(エッジ)を検出し、検出された特徴点群から影領域のエッジを除去した特徴点群に基づいてひび割れ又は穴が撮影されていることを検出することが考えられる。また、ひび割れ又穴が撮影された既知の画像を教師データとして画像における対象の有無を識別するように機械学習されたニューラルネットワークのような識別器を用いることが考えられる。
 サーバ装置5は、合成した撮影画像に基づいてひび割れ又は穴を検出することができなければ(ステップS8でN)、直ちに処理を終了する。一方、サーバ装置5は、合成した撮影画像に基づいてひび割れ又は穴が検出されると(ステップS8でY)、合成した撮影画像に撮影位置を付与してDBに登録して(ステップS9)、処理を終了する。
 道路管理者が所有するユーザ端末6は、上記路面のひび割れ又は穴が撮影された合成画像が登録されたDB52にアクセスすることができる。
 上述したひび割れ又は穴の検出処理によれば、サーバ装置5が、1台の車両7により撮影された撮影画像にひび割れ又は穴が撮影されていると判定する。このとき、サーバ装置5は、他の車両7に搭載されたカメラ3により撮影された撮影画像から、ひび割れ又は穴が撮影されたと判定された撮影画像と同じ撮影位置で撮影されたものを抽出する。これにより、簡単に、複数の車両7に搭載されたカメラ3で撮影されたひび割れ又は穴の撮影画像を抽出することができる。そして、これらひび割れ又は穴が撮影された複数の撮影画像に基づいて、さらにひび割れ又は穴の検出(判定)を行うことにより、精度よくひび割れ又は穴を検出できる。
 上述したひび割れ又は穴の検出処理によれば、基準画像と撮影画像との比較に基づいて容易に精度よくひび割れ又は穴を判定することができる。
 また、上述したひび割れ又は穴の検出処理によれば、サーバ装置5が、抽出した複数の撮影画像を合成するので、より一層、精度よく、ひび割れ又は穴を検出できるとともに、ひび割れ又は穴の状態を知ることができる。
 また、サーバ装置5は、所定期間毎に図6に示す危険車両の検出処理を実行する。まず、サーバ装置5は、所定期間中にDB52に格納された撮影画像を撮影した複数の車両7のうち1台を選択し、当該選択した車両7が所定期間中に撮影した撮影画像を抽出する(ステップS11)。ここで、選択する車両7としては、DB52に格納された撮影画像を撮影した車両7のうち任意の1つを選択するようにしてもよい。
 次に、サーバ装置5は、ステップS11で抽出した撮影画像と、DB52に格納された図5に示すような自車両に接近する危険車両が撮影された基準画像と、を比較する(ステップS12)。図5に示す基準画像は、自車両71と後続の危険車両72との間に道路が映っていない画像であり、自車両71に危険車両72が接近している様子を撮影した画像である。
 次に、サーバ装置5は、撮影画像と基準画像とに類似箇所が少なければ危険車両がないと判定して(ステップS13でN)、直ちに処理を終了する。一方、サーバ装置5は、撮影画像と基準画像とに類似箇所が多ければ危険車両があると判定して(ステップS13でY)、次のステップS14に進む。
 ステップS14においてサーバ装置5は、他の車両7が撮影した撮影画像から、ステップS1で抽出した撮影画像と同じ撮影位置で同じ撮影時間に撮影されたものを抽出する。これにより、図8に示すように、ステップS1で自車両71が撮影した撮影画像が抽出される。この抽出された撮影画像に危険車両72が撮影されていた場合、その撮影位置を同じ撮影時間に走行した他の車両73、74が撮影した別アングルの危険車両72の撮影画像を抽出することができる。
 その後、抽出した危険車両72が撮影された撮影画像から危険車両72の解析を行う(ステップS15)。危険車両72の解析として、サーバ装置5は、例えば、抽出した危険車両72が撮影された撮影画像からナンバープレートを抽出する。また、DB52に登録(格納)された危険車両のデータから、同一のナンバープレートの危険車両72の危険運転(あおり運転など)の履歴を調べる。また、サーバ装置5は、抽出した危険車両72が撮影された撮影画像から急ハンドル、急ブレーキの有無などを解析する。
 次に、サーバ装置5は、ステップS14で抽出した撮影画像にステップS15で解析した解析結果をマッピング(対応付け)した後、DB52に登録して処理を終了する(ステップS16)。
 警察が所有するユーザ端末6は、上記危険車両が撮影された撮影画像が登録されたDB52にアクセスすることができる。
 上述した危険車両の検出処理によれば、サーバ装置5が、1台の車両7により撮影された撮影画像に危険車両が撮影されていると判定したときに、他の車両7に搭載されたカメラ3により撮影された撮影画像から、危険車両が撮影されたと判定された撮影画像と同じ撮影位置で同じ撮影時間に撮影されたものを抽出する。これにより、簡単に、複数の車両7に搭載されたカメラ3で撮影された危険車両の撮影画像を抽出することができる。そして、これら抽出した撮影画像に基づいて、正確に危険車両の状態を知ることができる。
 上述した危険車両の検出処理によれば、基準画像と撮影画像との比較に基づいて容易に精度よく危険車両を判定することができる。
 上述した実施形態によれば、対象としては、路面のひび割れ又は穴、危険車両であったが、これに限ったものではない。対象としては、上記以外であってもよいし、路面のひび割れ又は穴及び危険車両の何れか1つであってもよい。
 また、上述した実施形態によれば、ひび割れ又は穴を検出する処理においては、抽出された撮影画像を合成していたが、これに限ったものではない。抽出した撮影画像からひび割れ又は穴の3D寸法を測定するようにしてもよい。これにより、ひび割れ又は穴の深さも知ることができる。
(第2実施形態)
 次に、第2実施形態について図6を参照して説明する。図6は、第2実施形態における本発明のサーバ装置5、101、102を組み込んだ情報提供システム1を示す構成図である。
 同図において、第1実施形態で異なる点は、ユーザが所有するサーバ装置101、102を備える点である。サーバ装置101、102は、ユーザがそれぞれ所有する装置である。情報提供会社が所有するサーバ装置5は、インターネット通信網8を介してDB52に記録された撮影画像をサーバ装置101、102に送信する。サーバ装置5は、ドライブレコーダ2から送信された撮影画像をそのままサーバ装置101、102に送信するようにしてもよいし、ドライブレコーダ2から送信された撮影画像を解析・加工したものをサーバ装置101、102に送信するようにしてもよい。
 第1実施形態では、ユーザ端末6は、情報提供会社が所有するサーバ装置5にアクセスしていたが、第2実施形態では、ユーザ端末6は、ユーザが所有するサーバ装置101、102にそれぞれアクセスしてDBに登録された画像を得ることができる。また、サーバ装置5が、ドライブレコーダ2から送信された撮影画像をそのままサーバ装置101、102に送信した場合、サーバ装置101、102が本発明の画像処理装置として機能し、図4及び図6に示す処理を実行する。
 なお、本発明は、上述した実施形態に限定されるものではなく、適宜、変形、改良、等が可能である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数、配置箇所、等は本発明を達成できるものであれば任意であり、限定されない。
 ここで、上述した本発明に係る画像処理装置の実施形態の特徴をそれぞれ以下[1]~[6]に簡潔に纏めて列記する。
[1]
 複数の車両(7)に各々搭載されたカメラ(3)により撮影され、撮影位置が付与された撮影画像を収集し、収集した前記撮影画像を処理する画像処理装置(5)であって、
 前記複数の車両(7)のうち1台に搭載された前記カメラ(3)により撮影された前記撮影画像に所定の対象が撮影されているか否かを判定する判定手段(53)と、
 前記判定手段(53)により前記所定の対象が撮影されていると判定されたときに、他の前記車両(7)に搭載された前記カメラ(3)により撮影された撮影画像から、前記判定手段(53)により前記所定の対象が撮影されたと判定された前記撮影画像と同じ撮影位置で撮影されたものを抽出する抽出手段(53)と、を備えた、
 画像処理装置(5)。
[2]
 [1]に記載の画像処理装置(5)であって、
 前記所定の対象は、路面上のひび割れ又は穴であって、
 前記判定手段(53)は、前記ひび割れ又は穴のない正常な路面の基準画像と、前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像と、の比較に基づいて前記判定を行う、
 画像処理装置(5)。
[3]
 [1]に記載の画像処理装置(5)であって、
 前記所定の対象は、路面上のひび割れ又は穴であって、
 前記判定手段(53)により前記ひび割れ又は穴が撮影されたと判定された前記撮影画像と、前記抽出手段(53)により抽出した前記撮影画像と、を合成する合成手段(53)をさらに備えた、
 画像処理装置(5)。
[4]
 [1]に記載の画像処理装置(5)であって、
 前記所定の対象は、危険車両であり、
 前記判定手段(53)は、自車両に接近している危険車両の基準画像と、前記複数の車両(7)のうち1台に搭載された前記カメラ(3)により撮影された前記撮影画像と、の比較に基づいて前記判定を行う、
 画像処理装置(5)。
[5]
 [1]に記載の画像処理装置(5)であって、
 前記撮影画像には、撮影時間が付与され、
 前記所定の対象は、危険車両であり、
 前記抽出手段(53)が、前記判定手段(53)により前記危険車両が撮影されていると判定されたときに、他の前記車両(7)に搭載された前記カメラにより撮影された前記撮影画像から、前記判定手段により前記所定の対象が撮影されたと判定された前記撮影画像と同じ撮影位置で、かつ、同じ撮影時間に撮影されたものを抽出する、
 画像処理装置(5)。
[6]
 コンピュータ(53)を[1]~[5]に記載の前記画像処理装置が備える各前記手段として機能させるための、
 画像処理用プログラム。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2019年6月20日出願の日本特許出願(特願2019-114883)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、精度よく対象を検出できる、また、正確に対象の状態を知ることができる、画像処理装置及び画像処理用プログラムを提供できる。この効果を奏する本発明は、画像処理装置及び画像処理用プログラムに関して有用である。
 3 カメラ
 5 サーバ装置(画像処理装置)
 7 車両
 71~74 車両
 53 制御部(判定手段、抽出手段、合成手段、コンピュータ)

Claims (6)

  1.  複数の車両に各々搭載されたカメラにより撮影され、撮影位置が付与された撮影画像を収集し、収集した前記撮影画像を処理する画像処理装置であって、
     前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像に所定の対象が撮影されているか否かを判定する判定手段と、
     前記判定手段により前記所定の対象が撮影されていると判定されたときに、他の前記車両に搭載された前記カメラにより撮影された撮影画像から、前記判定手段により前記所定の対象が撮影されたと判定された前記撮影画像と同じ撮影位置で撮影されたものを抽出する抽出手段と、を備えた、
     画像処理装置。
  2.  請求項1に記載の画像処理装置であって、
     前記所定の対象は、路面上のひび割れ又は穴であって、
     前記判定手段は、前記ひび割れ又は穴のない正常な路面の基準画像と、前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像と、の比較に基づいて前記判定を行う、
     画像処理装置。
  3.  請求項1に記載の画像処理装置であって、
     前記所定の対象は、路面上のひび割れ又は穴であって、
     前記判定手段により前記ひび割れ又は穴が撮影されたと判定された前記撮影画像と、前記抽出手段により抽出した前記撮影画像と、を合成する合成手段をさらに備えた、
     画像処理装置。
  4.  請求項1に記載の画像処理装置であって、
     前記所定の対象は、危険車両であり、
     前記判定手段は、自車両に接近している危険車両の基準画像と、前記複数の車両のうち1台に搭載された前記カメラにより撮影された前記撮影画像と、の比較に基づいて前記判定を行う、
     画像処理装置。
  5.  請求項1に記載の画像処理装置であって、
     前記撮影画像には、撮影時間が付与され、
     前記所定の対象は、危険車両であり、
     前記抽出手段が、前記判定手段により前記危険車両が撮影されていると判定されたときに、他の前記車両に搭載された前記カメラにより撮影された前記撮影画像から、前記判定手段により前記所定の対象が撮影されたと判定された前記撮影画像と同じ撮影位置で、かつ、同じ撮影時間に撮影されたものを抽出する、
     画像処理装置。
  6.  コンピュータを請求項1~5のいずれか1項に記載の前記画像処理装置が備える各前記手段として機能させるための、
     画像処理用プログラム。
PCT/JP2020/020388 2019-06-20 2020-05-22 画像処理装置及び画像処理用プログラム WO2020255628A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019114883A JP2021002162A (ja) 2019-06-20 2019-06-20 画像処理装置及び画像処理用プログラム
JP2019-114883 2019-06-20

Publications (1)

Publication Number Publication Date
WO2020255628A1 true WO2020255628A1 (ja) 2020-12-24

Family

ID=73995182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020388 WO2020255628A1 (ja) 2019-06-20 2020-05-22 画像処理装置及び画像処理用プログラム

Country Status (2)

Country Link
JP (1) JP2021002162A (ja)
WO (1) WO2020255628A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955295B1 (ja) * 2021-02-16 2021-10-27 株式会社アーバンエックステクノロジーズ 識別装置、識別プログラム、および識別方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228239A1 (ja) * 2022-05-23 2023-11-30 三菱電機株式会社 道路状態検出装置および道路状態検出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059132A (ja) * 2007-08-31 2009-03-19 Daihatsu Motor Co Ltd 物体認識装置
JP2012155660A (ja) * 2011-01-28 2012-08-16 Denso Corp 地図データ生成装置および走行支援装置
WO2018179392A1 (ja) * 2017-03-31 2018-10-04 本田技研工業株式会社 車載装置、情報管理システム、情報管理サーバ、および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059132A (ja) * 2007-08-31 2009-03-19 Daihatsu Motor Co Ltd 物体認識装置
JP2012155660A (ja) * 2011-01-28 2012-08-16 Denso Corp 地図データ生成装置および走行支援装置
WO2018179392A1 (ja) * 2017-03-31 2018-10-04 本田技研工業株式会社 車載装置、情報管理システム、情報管理サーバ、および方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955295B1 (ja) * 2021-02-16 2021-10-27 株式会社アーバンエックステクノロジーズ 識別装置、識別プログラム、および識別方法
JP2022124663A (ja) * 2021-02-16 2022-08-26 株式会社アーバンエックステクノロジーズ 識別装置、識別プログラム、および識別方法

Also Published As

Publication number Publication date
JP2021002162A (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
Grassi et al. Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments
JP7218535B2 (ja) 交通違反車両識別システム及びサーバ
US11080869B2 (en) Search assist system, search assist apparatus, and search assist method
CN104103030B (zh) 图像分析方法、照相机装置、控制装置及控制方法
WO2020255628A1 (ja) 画像処理装置及び画像処理用プログラム
WO2020255626A1 (ja) ドライブレコーダ
WO2016207899A1 (en) System and method for secured capturing and authenticating of video clips
JP2008118643A (ja) イメージファイル管理装置および方法
KR102029128B1 (ko) 운전자간 블랙박스 사고영상을 상호교환하기 위한 iot 플랫폼 및 그 구현 방법
CN102447886A (zh) 在现有静止图像内可视化视频
CN111444798A (zh) 电动自行车驾驶行为的识别方法、装置和计算机设备
CN111199180A (zh) 信息处理***、程序和信息处理方法
US10984254B2 (en) Investigation assist system and investigation assist method
US9799123B2 (en) Information identification system, method of identifying information, and program for identifying information
US11512969B2 (en) Method for ascertaining in a backend, and providing for a vehicle, a data record, describing a landmark, for the vehicle to determine its own position
US20190143926A1 (en) Vehicle management system, inspection information transmission system, information management system, vehicle management program, inspection information transmission program, and information management program
WO2020255629A1 (ja) 画像処理装置及び画像処理用プログラム
JP2004151523A (ja) 地図データ更新装置
KR101527003B1 (ko) 블랙박스시스템
CN110310387A (zh) 一种基于yolo物象识别的智能行车记录仪、***及车辆
KR20160127526A (ko) 이벤트 발생 지점의 영상 정보를 수집하는 방법, 서버 및 시스템
JP2018170712A (ja) 監視システム、監視制御装置、監視方法およびプログラム
WO2022097260A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ読み取り可能な記憶媒体
US11302182B2 (en) Systems and methods for vehicle identification
US11393222B2 (en) Vehicle management system, vehicle-mounted device, vehicle management method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20826512

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20826512

Country of ref document: EP

Kind code of ref document: A1