JP2016167174A - Warning device, warning method, and warning program - Google Patents

Warning device, warning method, and warning program Download PDF

Info

Publication number
JP2016167174A
JP2016167174A JP2015046585A JP2015046585A JP2016167174A JP 2016167174 A JP2016167174 A JP 2016167174A JP 2015046585 A JP2015046585 A JP 2015046585A JP 2015046585 A JP2015046585 A JP 2015046585A JP 2016167174 A JP2016167174 A JP 2016167174A
Authority
JP
Japan
Prior art keywords
image
warning
image group
images
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015046585A
Other languages
Japanese (ja)
Other versions
JP6387869B2 (en
Inventor
覚 齋部
Satoshi Inbe
覚 齋部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015046585A priority Critical patent/JP6387869B2/en
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to PCT/JP2016/001136 priority patent/WO2016143306A1/en
Priority to CN201680013013.XA priority patent/CN107408288B/en
Priority to EP16761282.9A priority patent/EP3270352B1/en
Priority to EP23151554.5A priority patent/EP4187524A1/en
Publication of JP2016167174A publication Critical patent/JP2016167174A/en
Priority to US15/698,099 priority patent/US10474910B2/en
Application granted granted Critical
Publication of JP6387869B2 publication Critical patent/JP6387869B2/en
Priority to US16/591,537 priority patent/US11423664B2/en
Priority to US17/866,371 priority patent/US11749112B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly issue a warning while maintaining the accuracy in detecting travel of an object even when it is difficult to determine an external environment of a moving body.SOLUTION: A warning device according to the present invention comprises: image acquisition means that acquires an image group constituted of a plurality of images that are continuously photographed; detection means that performs detection of an object on the respective images in the image group; determination means that compares results of the detection of the object in the image group in chronological order to determine the level of travel of the object; and warning means that issues a warning according to the determined level of travel. The image acquisition means acquires a plurality of image groups based on a plurality of respective filter characteristics.SELECTED DRAWING: Figure 1

Description

本発明は、警告装置、警告方法及び警告プログラムに関する。   The present invention relates to a warning device, a warning method, and a warning program.

デジタルカメラ等の撮影装置は、一般に、特定の波長の光を通過させるフィルタを用いて撮影対象の領域を撮影する。そして、撮影装置は、撮影対象の領域の光量等に適したフィルタを用いることで、撮影画像の画質を向上させることができる。そのため、可視光の量が多い昼間には、可視光領域をより多く通過させる昼間用のフィルタを適用したカメラを用いる。一方、可視光の量が少ない夜間には、赤外線領域をより多く通過させる夜間用のフィルタを適用した赤外線カメラを用いる。   An imaging device such as a digital camera generally images an area to be imaged using a filter that allows light of a specific wavelength to pass through. The image capturing apparatus can improve the image quality of the captured image by using a filter suitable for the amount of light in the region to be imaged. Therefore, during the daytime when the amount of visible light is large, a camera to which a daytime filter that passes more visible light region is applied is used. On the other hand, at night when the amount of visible light is small, an infrared camera to which a night filter that allows more infrared region to pass is applied.

特許文献1には、赤外線センサと赤外線カメラとを備える監視装置に関する技術が開示されている。特許文献1にかかる監視装置は、赤外線センサで監視するエリアを赤外線カメラにより撮影し、監視カメラによる撮影画像に基づき監視エリアの変化を検出する。そして、検出した変化と赤外線センサの出力とに基づいて異常状態を判定するものである。   Patent Document 1 discloses a technique related to a monitoring device including an infrared sensor and an infrared camera. The monitoring apparatus according to Patent Document 1 captures an area monitored by an infrared sensor using an infrared camera, and detects a change in the monitored area based on a captured image captured by the monitoring camera. Then, the abnormal state is determined based on the detected change and the output of the infrared sensor.

近年、車載カメラを用いて車両の周辺を撮影し、撮影された画像を画像認識して画像内の対象物として人物や車等を検出し、運転者に警告するような警告装置が開発されている。そして、特許文献2には、撮影画像から人物を検出するための人物検出装置に関する技術が開示されている。特許文献2にかかる人物検出装置は、画像センサから取得した画像に基づいて対象物の外観を検出し、検出された対象物の外観に関するパラメータと人物に関する比較用パラメータとが一致するか否かを判定し、一致する度合いに応じて、対象物が人物である確率を表す人物確率を演算し、人物確率が予め設定された人物閾値以上である場合に対象物が人物であると判定する。   In recent years, warning devices have been developed that take pictures of the surroundings of a vehicle using an in-vehicle camera, recognize the photographed image, detect a person or car as an object in the image, and warn the driver. Yes. Patent Document 2 discloses a technique related to a person detection device for detecting a person from a captured image. The person detection device according to Patent Document 2 detects the appearance of an object based on an image acquired from an image sensor, and determines whether or not a parameter relating to the appearance of the detected object matches a comparison parameter relating to a person. A person probability representing the probability that the object is a person is calculated according to the degree of coincidence. If the person probability is equal to or higher than a preset person threshold, the object is determined to be a person.

特開2007−158820号公報JP 2007-158820 A 特開2011−146049号公報JP 2011-146049 A

ここで、上述した警告装置では、車両の走行方向に対象物が存在する場合、衝突する可能性があるために運転者に警告を行う必要がある。衝突の可能性は、車両の走行中に連続して撮影された画像の解析結果から、対象物の相対的な移動速度や移動方向等を予測することで求めることができる。しかしながら、車両の外部環境の判別が困難な状況では、対象物の移動の検出精度が低下する可能性があり、適切な警告が困難な場合があるという問題点がある。ここで、車両の外部環境の判別が困難な状況とは、例えば、天候が変化する場合や、トンネルに入る前後で周辺の明るさが急激に変化する場合などである。   Here, in the warning device described above, when there is an object in the traveling direction of the vehicle, there is a possibility of collision, so it is necessary to warn the driver. The possibility of a collision can be obtained by predicting the relative moving speed, moving direction, etc. of an object from the analysis result of images taken continuously while the vehicle is running. However, in a situation where it is difficult to determine the external environment of the vehicle, there is a possibility that the detection accuracy of the movement of the object may be lowered, and there is a problem that an appropriate warning may be difficult. Here, the situation where it is difficult to determine the external environment of the vehicle is, for example, when the weather changes or when the brightness of the surroundings changes abruptly before and after entering the tunnel.

尚、特許文献1にかかる監視装置では、監視エリアが施設内の特定領域であり、外部環境の判別が困難な状況を想定したものではない。また、特許文献2にかかる人物検出装置は、解析対象が単一の画像である。それ故、例えば、外部環境の判別が困難な状況なために、適切なフィルタを用いることができなかった場合には、画質が低下してしまう。そして、解析対象の画像の画質が低い場合には、車両の走行を妨げ得る対象物の移動の検出精度が低下し得る。そのため、適切な警告が行えないこととなる。さらに、このような問題は、車両に限らず、移動体全般に搭載される警告装置においても生じる。   In the monitoring apparatus according to Patent Document 1, it is not assumed that the monitoring area is a specific area in the facility and it is difficult to determine the external environment. Moreover, the person detection apparatus according to Patent Document 2 has a single analysis target. Therefore, for example, when it is difficult to discriminate the external environment, if an appropriate filter cannot be used, the image quality deteriorates. And when the image quality of the image to be analyzed is low, the detection accuracy of the movement of the object that may hinder the traveling of the vehicle may be lowered. Therefore, an appropriate warning cannot be performed. Furthermore, such a problem occurs not only in the vehicle but also in a warning device mounted on the entire mobile body.

本発明は、上述の課題に鑑みてなされたものであり、移動体の外部環境の判別が困難な状況であっても対象物の移動の検出精度を維持して警告を適切に行なうための警告装置、警告方法及び警告プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a warning for appropriately performing a warning while maintaining the detection accuracy of the movement of an object even in a situation where it is difficult to determine the external environment of the moving body. An object is to provide a device, a warning method, and a warning program.

本発明の第1の態様は、連続して撮影される複数の画像から構成される画像群を取得する画像取得手段と、前記画像群内の画像のそれぞれに対して、対象物の検出を行う検出手段と、前記画像群における前記対象物の検出結果を時系列に沿って比較して、前記対象物の移動の度合いを判定する判定手段と、前記判定された移動の度合いに応じて警告を行う警告手段とを備え、前記画像取得手段は、複数のフィルタ特性それぞれに基づく複数の画像群を取得することを特徴とする警告装置を提供する。   According to a first aspect of the present invention, an object is detected for each of an image acquisition unit that acquires an image group composed of a plurality of images photographed in succession, and an image in the image group. A detection means, a detection means for comparing the detection results of the object in the image group along a time series, determining a degree of movement of the object, and a warning according to the determined degree of movement. A warning device for performing a warning, wherein the image acquisition unit acquires a plurality of image groups based on each of a plurality of filter characteristics.

本発明の第2の態様は、連続して撮影される複数の画像から構成される画像群を取得する画像取得ステップと、前記画像群内の画像のそれぞれに対して、対象物の検出を行う検出ステップと、前記画像群における前記対象物の検出結果を時系列に沿って比較して、前記対象物の移動の度合いを判定する判定ステップと、前記判定された移動の度合いに応じて警告を行う警告ステップとを有し、前記画像取得ステップは、複数のフィルタ特性それぞれに基づく複数の画像群を取得することを特徴とする警告方法を提供する。   According to a second aspect of the present invention, an image acquisition step for acquiring an image group composed of a plurality of images photographed in succession, and detection of an object for each of the images in the image group. A detection step, a determination step for determining the degree of movement of the object by comparing the detection results of the object in the image group along a time series, and a warning according to the determined degree of movement A warning step to be performed, wherein the image acquisition step acquires a plurality of image groups based on each of the plurality of filter characteristics.

本発明の第3の態様は、連続して撮影される複数の画像から構成される画像群を取得する画像取得ステップと、前記画像群内の画像のそれぞれに対して、対象物の検出を行う検出ステップと、前記画像群における前記対象物の検出結果を時系列に沿って比較して、前記対象物の移動の度合いを判定する判定ステップと、前記判定された移動の度合いに応じて警告を行う警告ステップとをコンピュータに実行させ、前記画像取得ステップは、複数のフィルタ特性それぞれに基づく複数の画像群を取得することを特徴とする警告プログラムを提供する。   According to a third aspect of the present invention, an image acquisition step of acquiring an image group composed of a plurality of images that are continuously captured, and an object is detected for each of the images in the image group. A detection step, a determination step for determining the degree of movement of the object by comparing the detection results of the object in the image group along a time series, and a warning according to the determined degree of movement A warning program to be executed by the computer, wherein the image acquisition step acquires a plurality of image groups based on each of the plurality of filter characteristics.

本発明により、移動体の外部環境の判別が困難な状況であっても対象物の移動の検出精度を維持して警告を適切に行なうための警告装置、警告方法及び警告プログラムを提供することができる。   According to the present invention, it is possible to provide a warning device, a warning method, and a warning program for appropriately performing a warning while maintaining the detection accuracy of the movement of an object even in a situation where it is difficult to determine the external environment of the moving body. it can.

本実施の形態1にかかる警告装置を搭載した移動体の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the moving body carrying the warning device concerning this Embodiment 1. FIG. 本実施の形態1にかかる警告装置のハードウェア構成を示すブロック図である。1 is a block diagram showing a hardware configuration of a warning device according to a first embodiment. 本実施の形態1にかかる撮影から警告までの処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process from imaging | photography to warning concerning this Embodiment 1. FIG. 本実施の形態1の実施例1における詳細な処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a detailed process in Example 1 of this Embodiment 1. FIG. 本実施の形態1の実施例1における処理の概念を説明するための図である。It is a figure for demonstrating the concept of the process in Example 1 of this Embodiment 1. FIG. 本実施の形態1の実施例1において対象物の位置を強調して画面に表示する例を示す図である。It is a figure which shows the example which emphasizes the position of a target object and displays on a screen in Example 1 of this Embodiment 1. FIG. 本実施の形態1の実施例2における詳細な処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a detailed process in Example 2 of this Embodiment 1. FIG. 本実施の形態1の実施例2における処理の概念を説明するための図である。It is a figure for demonstrating the concept of the process in Example 2 of this Embodiment 1. FIG. 本実施の形態1の実施例3における詳細な処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a detailed process in Example 3 of this Embodiment 1. FIG. 本実施の形態1の実施例3における処理の概念を説明するための図である。It is a figure for demonstrating the concept of the process in Example 3 of this Embodiment 1. FIG. 本実施の形態2にかかる警告装置の構成を示すブロック図である。It is a block diagram which shows the structure of the warning device concerning this Embodiment 2.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description will be omitted as necessary for the sake of clarity.

<発明の実施の形態1>
図1は、本実施の形態1にかかる警告装置10を搭載した移動体1の全体構成を示すブロック図である。移動体1は、警告装置10、表示装置21及びスピーカ22等を搭載し、運転者の操作により走行を行う。移動体1は、例えば、自動車等の車両である。警告装置10は、移動体1の走行中に撮影された画像を解析することで、移動体1と衝突等のおそれのある周辺の対象物を検出し、表示装置21又はスピーカ22等を通じて運転者に警告を行う装置である。なお、表示装置は、例えば、有機EL(electro-luminescence)ディスプレイやプラズマディスプレイである。
<Embodiment 1 of the Invention>
FIG. 1 is a block diagram showing an overall configuration of a moving body 1 equipped with a warning device 10 according to the first embodiment. The moving body 1 is equipped with a warning device 10, a display device 21, a speaker 22, and the like, and travels by a driver's operation. The moving body 1 is, for example, a vehicle such as an automobile. The warning device 10 detects an object around the mobile body 1 that may collide with the mobile body 1 by analyzing an image taken while the mobile body 1 is traveling, and the driver through the display device 21 or the speaker 22 or the like. This is a device that gives a warning. The display device is, for example, an organic EL (electro-luminescence) display or a plasma display.

警告装置10は、画像取得手段11と、検出手段12と、判定手段13と、警告手段14とを備える。画像取得手段11は、移動体1の走行中に、移動体1の周辺領域を異なる複数のフィルタ特性により連続して並列に撮影する。そして、画像取得手段11は、撮影した複数の画像を、フィルタ特性ごとに時系列に沿った複数の画像群として取得する。言い換えると、画像取得手段11は、連続して撮影される複数の画像から構成される画像群を取得する。そして、画像取得手段11は、複数のフィルタ特性それぞれに基づく複数の画像群を取得する。画像取得手段11は、撮影装置111及び112を有する。撮影装置111及び112は、複数のフィルタ特性のそれぞれに対応する。そして、撮影装置111及び112のそれぞれは、対応するフィルタ特性により撮影を行なう。尚、画像取得手段11が備える撮影装置は2つに限定されない。例えば、画像取得手段11は、3つ以上のフィルタ特性のそれぞれに対応する3つ以上の撮影装置を有していても良い。また、撮影装置は、例えば、カメラである。   The warning device 10 includes an image acquisition unit 11, a detection unit 12, a determination unit 13, and a warning unit 14. The image acquisition unit 11 continuously captures the surrounding area of the moving body 1 in parallel with a plurality of different filter characteristics while the moving body 1 is traveling. And the image acquisition means 11 acquires the some image | photographed image as a some image group along a time series for every filter characteristic. In other words, the image acquisition unit 11 acquires an image group composed of a plurality of images that are continuously captured. The image acquisition unit 11 acquires a plurality of image groups based on each of the plurality of filter characteristics. The image acquisition unit 11 includes photographing devices 111 and 112. The imaging devices 111 and 112 correspond to each of a plurality of filter characteristics. Then, each of the photographing devices 111 and 112 performs photographing with a corresponding filter characteristic. In addition, the imaging device with which the image acquisition means 11 is provided is not limited to two. For example, the image acquisition unit 11 may include three or more imaging devices corresponding to three or more filter characteristics. The photographing apparatus is, for example, a camera.

検出手段12は、複数の画像群内の画像のそれぞれに対して、所定の対象物の検出を行う。ここで、対象物の検出とは、画像認識により対象物の外観の検出を試みる処理である。そして、検出手段12は、画像ごとに検出結果を生成する。   The detection means 12 detects a predetermined target object for each of the images in the plurality of image groups. Here, the detection of the object is a process of trying to detect the appearance of the object by image recognition. And the detection means 12 produces | generates a detection result for every image.

例えば、車両の走行方向のカメラによる撮影画像には、道路の形状と共に道路の横断者が映されている場合がある。このような場合には、横断者の外観の領域が検出され得る。検出手段12は、このときの検出結果を指標値として生成する。また、検出手段12は、特許文献2に示すように、対象物の外観に関するパラメータを検出し、比較用パラメータと検出したパラメータとの一致する度合いを検出結果として生成してもよい。尚、各画像から対象物を検出する際に検出結果を生成する処理はこれに限定されない。また、対象物は、人間に限定されず、動物や他の車両等の移動体1の走行の妨げとなり得る移動体を含む。または、対象物は、移動体である必要はなく、路上で立ち止まっている人物等か、停車している車両か、通行止めを示す看板、路上に放置された障害物等であってもよい。なお、外観に関するパラメータとしては、例えば、輝度、彩度、エッジまたはこれらの組み合わせが挙げられる。   For example, there may be a case where a crossing person of a road is shown together with the shape of the road in an image taken by a camera in the traveling direction of the vehicle. In such a case, a region of the crosser's appearance can be detected. The detection means 12 generates the detection result at this time as an index value. Further, as shown in Patent Document 2, the detection unit 12 may detect a parameter related to the appearance of the object and generate a degree of coincidence between the comparison parameter and the detected parameter as a detection result. In addition, the process which produces | generates a detection result when detecting a target object from each image is not limited to this. The target object is not limited to a human being, but includes a moving object that can hinder the traveling of the moving object 1 such as an animal or another vehicle. Alternatively, the object does not need to be a moving body, and may be a person or the like stopped on the road, a stopped vehicle, a signboard indicating a closed road, an obstacle left on the road, or the like. In addition, as a parameter regarding an external appearance, a brightness | luminance, saturation, an edge, or these combination is mentioned, for example.

判定手段13は、複数の画像群における対象物の検出結果を時系列に沿って比較して、対象物の移動の度合いを判定する。ここで、「検出結果を時系列に沿って比較」するとは、例えば、撮影時刻が隣接する画像同士の検出結果を比較することを示す。このとき、画像群ごとに比較を行っても良く、異なる画像群に属する画像同士の検出結果を比較してもよい。または、同じ撮影時刻における異なる画像群に属する画像同士の検出結果を比較してもよい。さらに、ある撮影時刻における異なる画像群に属する画像同士の検出結果の平均値を算出し、隣接する撮影時刻における平均値を比較してもよい。   The determination unit 13 compares the detection results of the objects in the plurality of image groups along the time series, and determines the degree of movement of the objects. Here, “comparison of detection results in time series” indicates, for example, that detection results of images having adjacent shooting times are compared. At this time, comparison may be performed for each image group, or detection results of images belonging to different image groups may be compared. Alternatively, detection results of images belonging to different image groups at the same shooting time may be compared. Furthermore, an average value of detection results of images belonging to different image groups at a certain shooting time may be calculated, and the average values at adjacent shooting times may be compared.

また、「移動の度合い」とは、例えば、対象物が移動体1に近付いているか、遠ざかっているかの度合い、つまり、対象物の移動体1への接近度合い又は接近速度や、対象物の移動速度や移動方向等を含む。また、「対象物の移動の度合いを判定」するとは、例えば、接近速度等が基準値と比べて速いか否か等を判定することを含む。または、対象物が道路を横切って移動している場合には、移動方向や移動速度と、移動体1の走行方向と走行速度とから対象物と移動体1との衝突確率を算出し、衝突確率が基準値を超えているか否か等を判定してもよい。   The “degree of movement” refers to, for example, the degree of whether the object is approaching or moving away from the moving body 1, that is, the degree of approach or speed of the object to the moving body 1, or the movement of the object Including speed and moving direction. Further, “determining the degree of movement of the object” includes, for example, determining whether or not the approach speed is faster than the reference value. Alternatively, when the object is moving across the road, the collision probability between the object and the moving object 1 is calculated from the moving direction and moving speed, and the moving direction and moving speed of the moving object 1, and the collision It may be determined whether or not the probability exceeds a reference value.

警告手段14は、判定された移動の度合いに応じて警告を行う。例えば、移動の度合いにより対象物が移動体1に近付いている場合には、警告を行う。特に、接近度合いが基準値を超えている場合には、警告度合いを大きくする。また、上述したように衝突確率が基準値を超えている場合にも、警告度合いを大きくする。   The warning unit 14 issues a warning according to the determined degree of movement. For example, a warning is given when an object approaches the moving body 1 depending on the degree of movement. In particular, when the approach degree exceeds the reference value, the warning degree is increased. Also, as described above, the degree of warning is also increased when the collision probability exceeds the reference value.

図2は、本実施の形態1にかかる警告装置10のハードウェア構成を示すブロック図である。警告装置10は、プロセッサ110、IF(InterFace)部120、撮影装置131及び132、並びに、記憶部140を備える。   FIG. 2 is a block diagram of a hardware configuration of the warning device 10 according to the first embodiment. The warning device 10 includes a processor 110, an IF (InterFace) unit 120, imaging devices 131 and 132, and a storage unit 140.

プロセッサ110は、CPU(Central Processing Unit)等の制御装置である。IF部120は、警告装置10の外部との入出力を行うインタフェースである。特に、IF部120は、プロセッサ110の制御により、警告を示す情報を表示装置21又はスピーカ22へ出力する。   The processor 110 is a control device such as a CPU (Central Processing Unit). The IF unit 120 is an interface that performs input / output with the outside of the warning device 10. In particular, the IF unit 120 outputs information indicating a warning to the display device 21 or the speaker 22 under the control of the processor 110.

撮影装置131及び132は、上述した撮影装置111及び112に対応する。撮影装置131は、第1のフィルタ1311及び第1の撮像素子1312を有する。第1のフィルタ1311は、第1の撮像素子1312に入射する光の波長を選択する処理を行う。つまり、第1のフィルタ1311は、撮影装置131の撮影時に適用されるフィルタである。第1のフィルタ1311は、例えば、近赤外領域を遮断して、可視光領域を通過させるフィルタ特性を有するものである。第1のフィルタ1311は、少なくとも昼間等、移動体1の周辺領域が明るい場合に適したフィルタであるものとする。第1の撮像素子1312は、第1のフィルタ1311を通過した光の強度を電気信号に変換する素子である。   The photographing devices 131 and 132 correspond to the photographing devices 111 and 112 described above. The imaging device 131 includes a first filter 1311 and a first image sensor 1312. The first filter 1311 performs a process of selecting the wavelength of light incident on the first image sensor 1312. That is, the first filter 1311 is a filter that is applied when the photographing apparatus 131 is photographing. The first filter 1311 has, for example, a filter characteristic that blocks the near-infrared region and passes the visible light region. It is assumed that the first filter 1311 is a filter suitable when the peripheral area of the moving body 1 is bright, such as at least during the daytime. The first imaging element 1312 is an element that converts the intensity of light that has passed through the first filter 1311 into an electrical signal.

撮影装置132は、第2のフィルタ1321及び第2の撮像素子1322を有する。第2のフィルタ1321は、第2の撮像素子1322に入射する光の波長を選択する処理を行う。つまり、第2のフィルタ1321は、撮影装置132の撮影時に適用されるフィルタである。第2のフィルタ1321は、例えば、近赤外領域を遮断して、可視光領域を通過させるフィルタ特性を有するものである。第2のフィルタ1321は、少なくとも夜間等、移動体1の周辺領域が暗い場合に適したフィルタであるものとする。第2の撮像素子1322は、第2のフィルタ1321を通過した光の強度を電気信号に変換する素子である。   The imaging device 132 includes a second filter 1321 and a second imaging element 1322. The second filter 1321 performs processing for selecting the wavelength of light incident on the second image sensor 1322. That is, the second filter 1321 is a filter that is applied when the image capturing apparatus 132 captures an image. The second filter 1321 has, for example, a filter characteristic that blocks the near infrared region and passes the visible light region. The second filter 1321 is a filter suitable for a case where the peripheral area of the moving body 1 is dark, such as at night. The second imaging element 1322 is an element that converts the intensity of light that has passed through the second filter 1321 into an electrical signal.

記憶部140は、メモリ等の記憶装置である。記憶部140は、警告プログラム141、第1の画像群1421及び第2の画像群1422、検出結果143及び接近速度144を記憶する。警告プログラム141は、本実施の形態にかかる警告装置10の処理すなわち警告方法が実装されたコンピュータプログラムである。   The storage unit 140 is a storage device such as a memory. The storage unit 140 stores a warning program 141, a first image group 1421 and a second image group 1422, a detection result 143, and an approach speed 144. The warning program 141 is a computer program in which the processing of the warning device 10 according to the present embodiment, that is, a warning method is implemented.

第1の画像群1421は、移動体1の走行中に、移動体1の周辺領域が第1のフィルタ特性により連続して撮影された複数の撮影画像14211、14212・・・の時系列に沿った集合である。例えば、撮影画像14211、14212、・・・は、この順序に連続して撮影されたものとする。また、第2の画像群1422は、第1の画像群1421の撮影と並行して、移動体1の周辺領域が第2のフィルタ特性により連続して撮影された複数の撮影画像14221、14222・・・の時系列に沿った集合である。例えば、撮影画像14221、14222、・・・は、この順序に連続して撮影されたものとする。つまり、撮影画像14211と14221とは、撮影時刻が対応し、撮影画像14212と14222とは、撮影時刻が対応する。   The first image group 1421 follows a time series of a plurality of captured images 14211, 14212, ... in which the peripheral area of the mobile body 1 is continuously captured by the first filter characteristic while the mobile body 1 is traveling. It is a set. For example, it is assumed that the captured images 14211, 14212,... Are continuously captured in this order. In addition, the second image group 1422 includes a plurality of captured images 14221, 14222... In which the peripheral area of the moving body 1 is continuously captured by the second filter characteristics in parallel with the capturing of the first image group 1421.・ ・ A set along the time series. For example, it is assumed that the captured images 14221, 14222,... Are continuously captured in this order. In other words, the shooting images 14211 and 14221 correspond to shooting times, and the shooting images 14212 and 14222 correspond to shooting times.

検出結果143は、各撮影画像に対して対象物の検出を試みた結果である。検出結果143は、撮影画像ごとに存在するものとする。接近速度144は、対象物の移動体1への接近度合いの一例であり、移動体1に対する対象物の相対的な移動速度である。接近速度144は、撮影時刻のことから複数の画像の検出結果等から算出される。   The detection result 143 is a result of an attempt to detect an object for each captured image. It is assumed that the detection result 143 exists for each captured image. The approach speed 144 is an example of the degree of approach of the object to the moving body 1 and is a relative moving speed of the object with respect to the moving body 1. The approach speed 144 is calculated from detection results of a plurality of images from the shooting time.

プロセッサ110は、記憶部140から警告プログラム141を読み込み、実行する。これにより、警告装置10は、IF部120、撮影装置131及び132を適宜用いて本実施の形態にかかる画像取得手段11、検出手段12、判定手段13及び警告手段14等として動作する。   The processor 110 reads the warning program 141 from the storage unit 140 and executes it. Thus, the warning device 10 operates as the image acquisition unit 11, the detection unit 12, the determination unit 13, the warning unit 14, and the like according to the present embodiment using the IF unit 120 and the imaging devices 131 and 132 as appropriate.

図3は、本実施の形態1にかかる撮影から警告までの処理の流れを説明するためのフローチャートである。まず、撮影装置111は、移動体1の走行中に、移動体1の周辺領域を第1のフィルタ特性により連続して撮影する(S11)。そして、画像取得手段11は、撮影画像を第1の画像群として取得する(S12)。具体的には、画像取得手段11は、撮影するごとに撮影画像を記憶部140内の第1の画像群1421に対応付けて保存する。そして、検出手段12は、第1の画像群の各画像に対して所定の対象物の検出を行う(S13)。具体的には、検出手段12は、記憶部140に保存された第1の画像群1421に対応付けられた撮影画像14211等を読み出し、画像ごとに検出処理を行い、検出結果を記憶部140に保存する。   FIG. 3 is a flowchart for explaining the flow of processing from photographing to warning according to the first embodiment. First, the photographing device 111 continuously photographs the peripheral area of the moving body 1 with the first filter characteristic while the moving body 1 is traveling (S11). And the image acquisition means 11 acquires a picked-up image as a 1st image group (S12). Specifically, the image acquisition unit 11 stores a captured image in association with the first image group 1421 in the storage unit 140 every time it is captured. And the detection means 12 detects a predetermined target object for each image of the first image group (S13). Specifically, the detection unit 12 reads the captured image 14211 and the like associated with the first image group 1421 stored in the storage unit 140, performs detection processing for each image, and stores the detection result in the storage unit 140. save.

また、撮影装置112は、ステップS11と並行して、移動体1の走行中に、移動体1の周辺領域を第2のフィルタ特性により連続して撮影する(S14)。そして、画像取得手段11は、撮影画像を第2の画像群として取得する(S15)。具体的には、画像取得手段11は、撮影するごとに撮影画像を記憶部140内の第2の画像群1422に対応付けて保存する。そして、検出手段12は、第2の画像群の各画像に対して所定の対象物の検出を行う(S16)。具体的には、検出手段12は、記憶部140に保存された第2の画像群1422に対応付けられた撮影画像14221等を読み出し、画像ごとに検出処理を行い、検出結果を記憶部140に保存する。   In parallel with step S11, the photographing device 112 continuously photographs the peripheral area of the moving body 1 with the second filter characteristic while the moving body 1 is traveling (S14). And the image acquisition means 11 acquires a picked-up image as a 2nd image group (S15). Specifically, the image acquisition unit 11 stores a captured image in association with the second image group 1422 in the storage unit 140 every time it is captured. Then, the detection unit 12 detects a predetermined object for each image in the second image group (S16). Specifically, the detection unit 12 reads the captured image 14221 associated with the second image group 1422 stored in the storage unit 140, performs detection processing for each image, and stores the detection result in the storage unit 140. save.

尚、検出手段12は、撮影装置111及び112により撮影されるごとにステップS13及びS16の検出処理を行っても構わない。   Note that the detection unit 12 may perform the detection processing in steps S13 and S16 each time the photographing apparatuses 111 and 112 photograph.

その後、判定手段13は、第1の画像群及び第2の画像群における検出結果を時系列に沿って比較して、対象物の移動の度合いを判定する(S17)。例えば、判定手段13は、検出結果に基づいて対象物における移動体1への接近速度を算出し、接近速度を用いて対象物の移動の度合いを判定する。そして、警告手段14は、判定された移動の度合いに応じて警告を行う(S18)。   Thereafter, the determination unit 13 compares the detection results in the first image group and the second image group in time series to determine the degree of movement of the object (S17). For example, the determination unit 13 calculates the approach speed of the object to the moving body 1 based on the detection result, and determines the degree of movement of the object using the approach speed. Then, the warning unit 14 issues a warning according to the determined degree of movement (S18).

このように、本実施の形態1では、移動体1の走行中に移動体1の周辺を連続して撮影する際に、複数のフィルタ特性により並列して行う。このとき、撮影画像をフィルタ特性ごとの異なる画像群に時系列に沿って分類しておく。ここで、複数のフィルタ特性による撮影画像は、移動体1の外部環境の判別が困難な状況であっても、各時間帯で少なくともいずれかのフィルタ特性により撮影された画像の画質が、適切なフィルタ特性による撮影画像に相当する画質を維持している確率が高い。そのため、各画像に対する対象物の検出結果を、時系列に沿って比較することで、対象物の移動の度合いを判定できる。それ故、対象物の移動の度合いに応じて、運転者に適切に警告することができる。よって、安全性を高めることもできる。   As described above, in the first embodiment, when the periphery of the moving body 1 is continuously photographed while the moving body 1 is traveling, the plurality of filter characteristics are used in parallel. At this time, the captured images are classified in time series into different image groups for each filter characteristic. Here, even if it is difficult to discriminate the external environment of the moving body 1, the image quality of an image captured with at least one of the filter characteristics is appropriate for each captured image with a plurality of filter characteristics. There is a high probability that the image quality corresponding to the captured image by the filter characteristics is maintained. Therefore, the degree of movement of the object can be determined by comparing the detection results of the object for each image along a time series. Therefore, it is possible to appropriately warn the driver according to the degree of movement of the object. Therefore, safety can be improved.

特に、接近速度を用いて移動の度合いを判定することで、衝突の危険性についてより直接的に判定できるため、警告の精度も向上できる。   In particular, by determining the degree of movement using the approach speed, the risk of collision can be determined more directly, so that the accuracy of warning can be improved.

次に、上述した図3のステップS17及びS18の詳細な処理を示す実施例1〜3を以下に示す。   Next, Examples 1 to 3 showing detailed processing of Steps S17 and S18 of FIG. 3 described above are shown below.

<実施例1>
本実施例1は、画像群ごとに接近速度を算出し、接近速度がより速い画像群に基づいて警告を行うものである。以下では、実施例1の処理を図4に基づいて説明し、適宜、図5を参照する。図4は、本実施の形態1の実施例1における詳細な処理の流れを説明するためのフローチャートである。また、図5は、本実施の形態1の実施例1における処理の概念を説明するための図である。
<Example 1>
In the first embodiment, an approach speed is calculated for each image group, and a warning is given based on an image group having a faster approach speed. Below, the process of Example 1 is demonstrated based on FIG. 4, and FIG. 5 is referred suitably. FIG. 4 is a flowchart for explaining a detailed processing flow in example 1 of the first embodiment. FIG. 5 is a diagram for explaining the concept of processing in Example 1 of the first embodiment.

まず、判定手段13は、第1の画像群の中の画像間で時系列に沿って比較して、接近速度を算出する(S21)。図5の例では、判定手段13は、第1の画像群31に属する撮影画像311と撮影画像312との検出結果を比較し、また、撮影画像312と撮影画像313との検出結果を比較することで、対象物の移動距離を求める。そして、判定手段13は、移動距離と時刻t1から時刻t3の時間とに基づいて第1の画像群31における対象物の接近速度を算出する。   First, the determination unit 13 compares the images in the first image group in time series to calculate the approach speed (S21). In the example of FIG. 5, the determination unit 13 compares the detection results of the captured image 311 and the captured image 312 belonging to the first image group 31, and also compares the detection results of the captured image 312 and the captured image 313. Thus, the moving distance of the object is obtained. Then, the determination unit 13 calculates the approach speed of the object in the first image group 31 based on the moving distance and the time from time t1 to time t3.

同様に、判定手段13は、第2の画像群の中の画像間で時系列に沿って比較して、接近速度を算出する(S22)。図5の例では、判定手段13は、第2の画像群32に属する撮影画像321と撮影画像322との検出結果を比較し、また、撮影画像322と撮影画像323との検出結果を比較することで、対象物の移動距離を求める。そして、判定手段13は、移動距離と時刻t1から時刻t3の時間とに基づいて第2の画像群32における対象物の接近速度を算出する。尚、ステップS21及びS22は、並列実行する必要はない。つまり、判定手段13は、画像群ごとに接近速度を算出すればよい。   Similarly, the determination unit 13 compares the images in the second image group in time series to calculate the approach speed (S22). In the example of FIG. 5, the determination unit 13 compares the detection results of the captured image 321 and the captured image 322 belonging to the second image group 32, and also compares the detection results of the captured image 322 and the captured image 323. Thus, the moving distance of the object is obtained. Then, the determination unit 13 calculates the approach speed of the object in the second image group 32 based on the moving distance and the time from time t1 to time t3. Note that steps S21 and S22 need not be executed in parallel. That is, the determination unit 13 may calculate the approach speed for each image group.

次に、判定手段13は、複数の画像群の中で接近速度がより速い画像群を選択する(S23)。つまり、判定手段13は、ステップS21及びS22で算出した接近速度を比較して、接近速度がより速い画像群が第1の画像群31と第2の画像群32のいずれであるかを判定して選択する。そして、判定手段13は、選択した画像群における接近速度を用いて対象物の移動の度合いを判定する(S24)。例えば、判定手段13は、選択した接近速度が所定の基準値以上か否かを判定し、基準値以上である場合には、対象物が移動体1により速く接近していると判定する。   Next, the determination unit 13 selects an image group having a faster approach speed from the plurality of image groups (S23). That is, the determination unit 13 compares the approach speeds calculated in steps S21 and S22 to determine whether the image group having the faster approach speed is the first image group 31 or the second image group 32. To select. And the determination means 13 determines the degree of movement of a target object using the approach speed in the selected image group (S24). For example, the determination unit 13 determines whether or not the selected approach speed is equal to or higher than a predetermined reference value. If the selected approach speed is equal to or higher than the reference value, the determination unit 13 determines that the object is approaching the moving body 1 faster.

その後、警告手段14は、選択された画像群を用いて接近速度に応じた警告を行う(S25)。例えば、警告手段14は、接近速度が基準値以上である場合には、接近速度が基準値未満である場合よりも警告の度合いを高くする。ここで警告の度合いが高いものについて説明する。例えば、警告手段14は、選択された画像群に属する画像について、画像に含まれる対象物が強調される表示に加工して、表示装置21へ出力してもよい。なお、強調される表示とは、例えば、対象物を四角の線により囲むことや、対象物又は対象物の上方にマークを付すること、対象物の色彩を変更することなどがある。   Thereafter, the warning means 14 issues a warning according to the approach speed using the selected image group (S25). For example, when the approach speed is equal to or higher than the reference value, the warning unit 14 makes the degree of warning higher than when the approach speed is less than the reference value. Here, what has a high degree of warning is demonstrated. For example, the warning unit 14 may process the images belonging to the selected image group into a display in which an object included in the images is emphasized, and output the display to the display device 21. The highlighted display includes, for example, surrounding the object with a square line, attaching a mark above the object or the object, changing the color of the object, and the like.

図6は、本実施の形態1の実施例1において対象物の位置を強調して画面に表示する例を示す図である。ここでは、表示画面41に、強調表示領域42が表示されていることを示す。尚、警告の度合いを高くする処理はこれに限定されず、例えば、警告手段14がスピーカ22を介して警告音を出力してもよい。   FIG. 6 is a diagram illustrating an example in which the position of an object is emphasized and displayed on a screen in Example 1 of the first embodiment. Here, it is shown that the highlight area 42 is displayed on the display screen 41. Note that the process of increasing the degree of warning is not limited to this, and for example, the warning unit 14 may output a warning sound via the speaker 22.

一方で、一例として、警告の度合いが上記として比較して高くない場合(例えば、接近速度が基準値未満である場合)についても説明する。この場合では、選択された画像群に属する画像を表示装置21へ出力し、画面に表示させる。このとき、警告手段14は、選択された画像群に属する画像を加工せず表示装置21に表示させることや、表示装置21に画像を加工して表示させる場合には、警告度合いが高い場合と比較して対象物を囲む線を細くすることや、対象物の上方に付すマークを異ならせることや、変更させる対象物の色彩を異ならせることなどの処理を行う。また、警告手段14がスピーカ22を介して警告音を出力する場合には、警告度合いが高い場合と比較して音量を異ならせること、警告音を変更することなどの処理を行う。   On the other hand, as an example, a case where the degree of warning is not as high as the above (for example, the approach speed is less than the reference value) will be described. In this case, images belonging to the selected image group are output to the display device 21 and displayed on the screen. At this time, the warning means 14 displays the image belonging to the selected image group on the display device 21 without processing, or processes the image on the display device 21 to display the image when the warning level is high. In comparison, processing such as thinning a line surrounding the object, changing a mark attached above the object, or changing the color of the object to be changed is performed. Further, when the warning means 14 outputs a warning sound through the speaker 22, processing such as changing the volume and changing the warning sound is performed as compared with the case where the warning level is high.

このように、本実施の形態1の実施例1では、一定の期間の外部環境において、より適切なフィルタによる撮影画像群を用いて対象物の移動度合いを判定するため、検出精度がより高い画像を用いて適切な警告を行うことができる。   As described above, in Example 1 of the first embodiment, since the degree of movement of the object is determined using a group of captured images by a more appropriate filter in the external environment for a certain period, an image with higher detection accuracy. Can be used to give appropriate warnings.

ここで、適切なフィルタによる撮影画像群に属する各画像は、対象物の検出精度が高いため、時系列で隣接する画像間の対象物の位置の差異が明確となる。つまり、対象物の移動が明確に把握できる。一方、不適切なフィルタにより撮影画像群に属する各画像は、対象物の検出精度が低いため、時系列で隣接する画像間の対象物の位置の差異は不明確となる。つまり、対象物が移動しているか否かの判別がしにくい。そのため、前者は後者に比べて接近速度が相対的に速く算出される。よって、接近速度がより速く算出された画像群では、フィルタによる検出精度も相対的に高いといえる。そして、検出精度の高い画像群を用いて画面に出力等することで、運転者に危険を的確に把握させることができる。   Here, each image belonging to the group of captured images obtained by an appropriate filter has high detection accuracy of the object, and therefore, the difference in the position of the object between the adjacent images in time series becomes clear. That is, the movement of the object can be clearly grasped. On the other hand, each image belonging to the photographed image group due to an inappropriate filter has low detection accuracy of the object, and thus the difference in the position of the object between the adjacent images in time series becomes unclear. That is, it is difficult to determine whether or not the object is moving. Therefore, the former is calculated with a relatively fast approach speed compared to the latter. Therefore, it can be said that the detection accuracy by the filter is relatively high in the image group in which the approach speed is calculated faster. And a driver | operator can be made to grasp | ascertain a danger exactly by outputting on a screen using an image group with high detection accuracy.

また、例えば、接近速度が基準値を超えていた場合には、緊急性が高いため、警告の度合いをより高くすることで、運転者に適切に警告することができる。逆に、ある時刻の撮影画像に対象物が検出されても、以降の時刻の撮影画像には対象物が検出されなかった場合、対象物が誤検出であったか、対象物が移動体1から離れた可能性が高い。このような場合には、警告の対象外と判定することで過剰な警告を避けることができる。   Further, for example, when the approach speed exceeds the reference value, the urgency is high, so that the driver can be warned appropriately by increasing the degree of warning. On the other hand, if a target object is detected in a captured image at a certain time, but the target object is not detected in a captured image at a later time, the target object is erroneously detected or the target is separated from the moving body 1. There is a high possibility. In such a case, it is possible to avoid an excessive warning by determining that it is not a warning target.

<実施例2>
次に、本実施例2は、外部環境の急激な変化に対応するために、時間帯ごとに検出精度の高い画像を選択するものである。以下では、実施例2の処理を図7に基づいて説明し、適宜、図8を参照する。図7は、本実施の形態1の実施例2における詳細な処理の流れを説明するためのフローチャートである。また、図8は、本実施の形態1の実施例2における処理の概念を説明するための図である。
<Example 2>
Next, in the second embodiment, an image with high detection accuracy is selected for each time zone in order to cope with a sudden change in the external environment. Below, the process of Example 2 is demonstrated based on FIG. 7, and FIG. 8 is referred suitably. FIG. 7 is a flowchart for explaining a detailed processing flow in example 2 of the first embodiment. FIG. 8 is a diagram for explaining the concept of processing in Example 2 of the first embodiment.

まず、判定手段13は、時刻t1に対応する画像同士を比較して検出精度の高い画像を選択する(S31)。例えば、時刻に対応する画像同士の検出精度の比較は、上述した検出結果の際に用いる外観に関するパラメータと比較用パラメータとを用いて、パターンマッチング手法等により一致する度合いを検出し、その結果を比較してもよい。続いて、判定手段13は、時刻t2に対応する画像同士を比較して検出精度の高い画像を選択する(S32)。同様に、判定手段13は、時刻t3に対応する画像同士を比較して検出精度の高い画像を選択する(S33)。尚、ステップS31〜S33の実行順序は、これに限定されない。   First, the determination unit 13 compares images corresponding to the time t1 and selects an image with high detection accuracy (S31). For example, in the comparison of detection accuracy between images corresponding to time, the degree of matching is detected by a pattern matching method or the like using the parameters relating to the appearance and the comparison parameters used in the detection result described above, and the result is You may compare. Subsequently, the determination unit 13 compares the images corresponding to the time t2 and selects an image with high detection accuracy (S32). Similarly, the determination unit 13 compares images corresponding to the time t3 and selects an image with high detection accuracy (S33). Note that the execution order of steps S31 to S33 is not limited to this.

図8の例では、判定手段13は、時刻t1に対応する撮影画像311と撮影画像321との検出結果を比較して、検出精度がより高い撮影画像311を選択したことを示す。同様に、判定手段13は、時刻t2に対応する撮影画像312と撮影画像322との検出結果を比較して、検出精度がより高い撮影画像322を選択したことを示す。そして、判定手段13は、時刻t3に対応する撮影画像313撮影画像323との検出結果を比較して、検出精度がより高い撮影画像313を選択したことを示す。   In the example of FIG. 8, the determination unit 13 compares the detection results of the captured image 311 and the captured image 321 corresponding to the time t1, and indicates that the captured image 311 with higher detection accuracy has been selected. Similarly, the determination unit 13 compares the detection results of the captured image 312 and the captured image 322 corresponding to the time t2, and indicates that the captured image 322 with higher detection accuracy has been selected. Then, the determination unit 13 compares the detection result with the captured image 313 corresponding to the time t3 and indicates that the captured image 313 with higher detection accuracy is selected.

その後、判定手段13は、時刻t1〜t3の選択画像間で、時系列に沿って比較して、接近速度を算出する(S34)。図8の例では、判定手段13は、撮影画像311、撮影画像322及び撮影画像313を一つの画像群として接近速度を算出する。   Thereafter, the determination unit 13 compares the selected images at times t1 to t3 in time series to calculate an approach speed (S34). In the example of FIG. 8, the determination unit 13 calculates the approach speed using the captured image 311, the captured image 322, and the captured image 313 as one image group.

そして、判定手段13は、算出した接近速度を用いて対象物の移動の度合いを判定する(S35)。その後、警告手段14は、選択された各画像を用いて接近速度に応じた警告を行う(S36)。尚、ステップS35及びS36は、接近速度が基準値以上である場合に、図6のように警告の度合いを高くしてもよい。   Then, the determination unit 13 determines the degree of movement of the object using the calculated approach speed (S35). Thereafter, the warning means 14 issues a warning according to the approach speed using each selected image (S36). Steps S35 and S36 may increase the degree of warning as shown in FIG. 6 when the approach speed is equal to or higher than the reference value.

このように、本実施の形態1の実施例2では、一定の期間内で外部環境の変化が激しい場合において、対象物の移動度合いを適切に判定し、適切な警告ができる。一定の期間内で外部環境の変化が激しい場合とは、例えば、トンネルに入る前後、又は、トンネルから出る前後や、急激な雲の動きにより天候が急変した場合等、周辺の明るさが急激に変化した場合が該当する。このような場合、時系列のある時点までは、第1のフィルタ特性により撮影された第1の画像群の検出精度が高いが、途中からは第1の画像群の検出精度が低下し、逆に、第2のフィルタ特性により撮影された第2の画像群の検出精度が高くなり得る。また、夕日と雲の関係で明るさが安定しないような場合には、図8のように検出精度の高い画像群が交互になり得る。   As described above, in Example 2 of the first embodiment, when the external environment changes drastically within a certain period, it is possible to appropriately determine the degree of movement of the object and provide an appropriate warning. When the external environment changes drastically within a certain period of time, the brightness of the surroundings suddenly changes, for example, before or after entering the tunnel, before or after exiting the tunnel, or when the weather changes suddenly due to sudden cloud movements. Applicable when changed. In such a case, the detection accuracy of the first image group captured by the first filter characteristic is high until a certain point in time series, but the detection accuracy of the first image group decreases from the middle, and conversely In addition, the detection accuracy of the second image group captured by the second filter characteristic can be increased. Further, when the brightness is not stable due to the relationship between the sunset and the clouds, image groups with high detection accuracy can be alternated as shown in FIG.

そこで、本実施例2では、撮影時刻ごとに検出精度を比較しているため、撮影時刻ごとの明るさに対して適切なフィルタ特性で撮影された画像を選択し、選択画像の集合により検出精度の高い画像群を構成できる。そのため、信頼性の高い接近速度を算出でき、適切な警告を行うことができる。   Therefore, in the second embodiment, since the detection accuracy is compared at each photographing time, an image photographed with an appropriate filter characteristic with respect to the brightness at each photographing time is selected, and the detection accuracy is obtained by a set of selected images. High image groups can be constructed. Therefore, a reliable approach speed can be calculated and an appropriate warning can be given.

<実施例3>
続いて、本実施例3は、複数のフィルタ特性のうち外部環境に対して適切なフィルタ特性の判別が困難な場合に、各フィルタ特性により撮影された画像を総合して検出精度を高めるものである。以下では、実施例3の処理を図9に基づいて説明し、適宜、図10を参照する。図9は、本実施の形態1の実施例3における詳細な処理の流れを説明するためのフローチャートである。図10は、本実施の形態1の実施例3における処理の概念を説明するための図である。
<Example 3>
Subsequently, in the third embodiment, when it is difficult to determine an appropriate filter characteristic for the external environment among a plurality of filter characteristics, the images captured by the respective filter characteristics are combined to improve detection accuracy. is there. Below, the process of Example 3 is demonstrated based on FIG. 9, and FIG. 10 is referred suitably. FIG. 9 is a flowchart for explaining a detailed processing flow in example 3 of the first embodiment. FIG. 10 is a diagram for explaining the concept of processing in example 3 of the first embodiment.

まず、判定手段13は、時刻t1に対応する画像同士を比較して対象物の画像内の位置を特定する(S41)。次に、判定手段13は、時刻t2に対応する画像同士を比較して対象物の画像内の位置を特定する(S42)。同様に。判定手段13は、時刻t3に対応する画像同士を比較して対象物の画像内の位置を特定する(S43)。尚、位置を特定する処理は、比較対象画像内の対象物の位置の平均値を算出してもよい。また、比較対象画像同士を合成してもよい。尚、ステップS41〜S43の実行順序は、これに限定されない。   First, the determination unit 13 compares the images corresponding to the time t1 and specifies the position of the target object in the image (S41). Next, the determination unit 13 compares the images corresponding to the time t2 and specifies the position of the target object in the image (S42). Similarly. The determination unit 13 compares the images corresponding to the time t3 and specifies the position of the object in the image (S43). In the process of specifying the position, an average value of the positions of the objects in the comparison target image may be calculated. Further, the comparison target images may be combined. Note that the execution order of steps S41 to S43 is not limited to this.

図10の例では、判定手段13は、時刻t1に対応する撮影画像311と撮影画像321とから、対象物の位置をこれらの中間程度として特定したことを示す。同様に、判定手段13は、時刻t2に対応する撮影画像312と撮影画像322とを比較し、時刻t3に対応する撮影画像313と撮影画像323とを比較し、それぞれ対象物の位置をこれらの中間程度として特定したことを示す。   In the example of FIG. 10, the determination unit 13 indicates that the position of the object is specified as an intermediate level from the captured image 311 and the captured image 321 corresponding to the time t1. Similarly, the determination unit 13 compares the captured image 312 and the captured image 322 corresponding to the time t2, compares the captured image 313 and the captured image 323 corresponding to the time t3, and sets the positions of the objects respectively. Indicates that it was specified as an intermediate level.

その後、判定手段13は、特定した位置を時系列に沿って比較して、接近速度を算出する(S44)。図10の例では、判定手段13は、画像331、332及び333を一つの画像群として接近速度を算出する。   Thereafter, the determination unit 13 compares the specified positions along a time series to calculate an approach speed (S44). In the example of FIG. 10, the determination unit 13 calculates the approach speed using the images 331, 332, and 333 as one image group.

そして、判定手段13は、算出した接近速度を用いて対象物の移動の度合いを判定する(S45)。その後、警告手段14は、各時間帯の特定された対象物の位置を用いて接近速度に応じた警告を行う(S46)。尚、ステップS45及びS46は、接近速度が基準値以上である場合に、図6のように警告の度合いを高くしてもよい。   Then, the determination unit 13 determines the degree of movement of the object using the calculated approach speed (S45). Thereafter, the warning means 14 issues a warning according to the approach speed using the position of the specified object in each time zone (S46). In steps S45 and S46, when the approach speed is equal to or higher than the reference value, the degree of warning may be increased as shown in FIG.

このように、本実施の形態1の実施例3では、各画像群の検出結果から平均等を取るため、誤判定の影響を抑制できる。また、例えば、夕方の場合、移動体1の周辺の明るさが昼間と夜間の間であるため、第1のフィルタ特性と第2のフィルタ特性のいずれが適切かの判断が困難な場合がある。そのような場合であっても、双方の検出結果の中間を取ることで、対象物の位置をある程度妥当な精度で特定できる。そのため、複数の画像群を総合的に用いて、対象物の検出精度を維持できる。   As described above, in Example 3 of Embodiment 1, since the average and the like are obtained from the detection results of the respective image groups, the influence of erroneous determination can be suppressed. Further, for example, in the evening, since the brightness around the moving body 1 is between daytime and nighttime, it may be difficult to determine which of the first filter characteristic and the second filter characteristic is appropriate. . Even in such a case, the position of the object can be specified with a certain degree of accuracy by taking the middle of both detection results. Therefore, the detection accuracy of the object can be maintained by using a plurality of image groups comprehensively.

<発明の実施の形態2>
本実施の形態2は、上述した実施の形態1の変形例である。上述した実施の形態1では、画像取得手段11は、2つの撮影装置を有するものであったが、本実施の形態2にかかる画像取得手段11は、1つの撮影装置を有するものである。
<Embodiment 2 of the Invention>
The second embodiment is a modification of the first embodiment described above. In the first embodiment described above, the image acquisition unit 11 has two imaging devices. However, the image acquisition unit 11 according to the second embodiment has one imaging device.

図10は、本実施の形態2にかかる画像取得手段11aの構成を示すブロック図である。画像取得手段11aは、1つの撮影装置113を有する。撮影装置113は、複数のフィルタ特性を定期的に切り替えて撮影を行なう。撮影装置113は、フィルタ1131、撮像素子1132及び切替手段1133を備える。フィルタ1131は、撮像素子1132に入射する光の波長を選択する処理を行う。例えば、フィルタ1131は、可視光領域や近赤外領域を選択して光を通過させ、撮像素子1132へ入射する。尚、フィルタ1131には、赤外領域カットフィルタ(IRフィルタ)、ハイパスフィルタ、バンドパスフィルタ等を含めることができる。つまり、フィルタ1131は、複数種類のフィルタ特性のうち選択されたものを実現できる。撮像素子1132は、フィルタ1131を通過した光の強度を電気信号に変換する素子である。切替手段1133は、フィルタ1131に対して選択したフィルタ特性を設定するものである。そして、切替手段1133は、定期的にフィルタ特性の選択を切り替える。尚、切替手段1133は、複数のフィルタ特性により複数の撮影装置が同時に同一の対象を撮影する場合と、実質的に同等となるような速さで、フィルタ特性を切り替えるものとする。なお、切替手段がクロックを有するか、またクロックによる信号を受信することにより、定期的に切り替え撮影を行う。   FIG. 10 is a block diagram illustrating a configuration of the image acquisition unit 11a according to the second embodiment. The image acquisition unit 11a includes one photographing device 113. The imaging device 113 performs imaging by periodically switching a plurality of filter characteristics. The photographing apparatus 113 includes a filter 1131, an image sensor 1132, and a switching unit 1133. The filter 1131 performs a process of selecting the wavelength of light incident on the image sensor 1132. For example, the filter 1131 selects a visible light region or a near-infrared region, passes light, and enters the image sensor 1132. The filter 1131 can include an infrared region cut filter (IR filter), a high pass filter, a band pass filter, and the like. That is, the filter 1131 can realize one selected from a plurality of types of filter characteristics. The imaging element 1132 is an element that converts the intensity of light that has passed through the filter 1131 into an electrical signal. The switching unit 1133 sets the selected filter characteristic for the filter 1131. Then, the switching unit 1133 periodically switches the selection of the filter characteristics. Note that the switching unit 1133 switches the filter characteristics at a speed that is substantially the same as when a plurality of imaging devices simultaneously capture the same object using a plurality of filter characteristics. Note that switching photography is performed periodically by whether the switching means has a clock or receives a signal based on the clock.

このように、本実施の形態2によっても、上述した実施の形態1と同等の効果を奏することができる。また、本実施の形態2には、上述した実施例1〜3のいずれも適用することができる。   As described above, according to the second embodiment, the same effects as those of the first embodiment can be obtained. In addition, any of the first to third embodiments described above can be applied to the second embodiment.

<その他の発明の実施の形態>
以上、本発明を上記実施の形態に即して説明したが、本発明は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。
<Other embodiments of the invention>
Although the present invention has been described with reference to the above embodiment, the present invention is not limited only to the configuration of the above embodiment, and within the scope of the invention of the claims of the present application. It goes without saying that various modifications, corrections, and combinations that can be made by a trader are included.

尚、上記判定手段は、前記検出結果を、各画像群の中の画像間で前記時系列に沿って比較して、前記画像群ごとに前記対象物への接近速度を算出し、前記複数の画像群の中で前記接近速度が最も速い画像群を選択し、前記選択した画像群における前記対象物の移動の度合いを判定するようにしてもよい。   The determination means compares the detection results between the images in each image group along the time series, calculates an approach speed to the object for each image group, and An image group having the fastest approach speed may be selected from among the image groups, and the degree of movement of the object in the selected image group may be determined.

また、上述の車載装置の任意の処理は、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Further, the arbitrary processing of the above-described in-vehicle device can be realized by causing a CPU (Central Processing Unit) to execute a computer program. In this case, the computer program can be stored using various types of non-transitory computer readable media and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。   In addition to the case where the function of the above-described embodiment is realized by the computer executing the program that realizes the function of the above-described embodiment, this program is not limited to the OS ( A case where the functions of the above-described embodiment are realized in cooperation with an operating system or application software is also included in the embodiment of the present invention. Furthermore, the present invention is also applicable to the case where the functions of the above-described embodiment are realized by performing all or part of the processing of the program by a function expansion board inserted into the computer or a function expansion unit connected to the computer. It is included in the embodiment.

1 移動体
10 警告装置
10a 警告装置
11 画像取得手段
11a 画像取得手段
111 撮影装置
112 撮影装置
113 撮影装置
1131 フィルタ
1132 撮像素子
1133 切替手段
12 検出手段
13 判定手段
14 警告手段
21 表示装置
22 スピーカ
110 プロセッサ
120 IF部
131 撮影装置
1311 第1のフィルタ
1312 第1の撮像素子
132 撮影装置
1321 第2のフィルタ
1322 第2の撮像素子
140 記憶部
141 警告プログラム
1421 第1の画像群
14211 撮影画像
14212 撮影画像
1422 第2の画像群
14221 撮影画像
14222 撮影画像
143 検出結果
144 接近速度
31 第1の画像群
311 撮影画像
312 撮影画像
313 撮影画像
32 第2の画像群
321 撮影画像
322 撮影画像
323 撮影画像
331 画像
332 画像
333 画像
t1 時刻
t2 時刻
t3 時刻
41 表示画面
42 強調表示領域
DESCRIPTION OF SYMBOLS 1 Mobile body 10 Warning device 10a Warning device 11 Image acquisition means 11a Image acquisition means 111 Imaging device 112 Imaging device 113 Imaging device 1131 Filter 1132 Imaging element 1133 Switching means 12 Detection means 13 Determination means 14 Warning means 21 Display device 22 Speaker 110 Processor 120 IF section 131 imaging device 1311 first filter 1312 first imaging device 132 imaging device 1321 second filter 1322 second imaging device 140 storage unit 141 warning program 1421 first image group 14211 captured image 14212 captured image 1422 Second image group 14221 Captured image 14222 Captured image 143 Detection result 144 Approach speed 31 First image group 311 Captured image 312 Captured image 313 Captured image 32 Second image group 321 Captured image 322 Captured image 323 Captured image 331 Image 332 Image 333 Image t1 Time t2 Time t3 Time 41 Display screen 42 Highlight display area

Claims (7)

連続して撮影される複数の画像から構成される画像群を取得する画像取得手段と、
前記画像群内の画像のそれぞれに対して、対象物の検出を行う検出手段と、
前記画像群における前記対象物の検出結果を時系列に沿って比較して、前記対象物の移動の度合いを判定する判定手段と、
前記判定された移動の度合いに応じて警告を行う警告手段と
を備え、
前記画像取得手段は、複数のフィルタ特性それぞれに基づく複数の画像群を取得することを特徴とする警告装置。
Image acquisition means for acquiring an image group composed of a plurality of images photographed in succession;
Detecting means for detecting an object for each of the images in the image group;
A determination means for comparing the detection results of the object in the image group along a time series and determining a degree of movement of the object;
Warning means for giving a warning according to the determined degree of movement,
The warning device characterized in that the image acquisition means acquires a plurality of image groups based on a plurality of filter characteristics.
前記判定手段は、
前記複数の画像群の間で対応する画像同士を比較して、時間帯ごとに前記検出の精度が高い画像を選択し、
前記選択された各画像を前記時系列に沿って比較して、前記対象物の移動の度合いを判定する
ことを特徴とする請求項1に記載の警告装置。
The determination means includes
Compare the corresponding images between the plurality of image groups, select an image with high detection accuracy for each time zone,
The warning device according to claim 1, wherein the degree of movement of the object is determined by comparing the selected images along the time series.
前記判定手段は、
前記複数の画像群の間で対応する画像同士を比較して、時間帯ごとに前記対象物の画像内の位置を特定し、
前記特定した位置を前記時系列に沿って比較して、前記対象物の移動の度合いを判定する
ことを特徴とする請求項1に記載の警告装置。
The determination means includes
Compare the corresponding images among the plurality of image groups, identify the position in the image of the object for each time zone,
The warning device according to claim 1, wherein the degree of movement of the object is determined by comparing the specified positions along the time series.
前記判定手段は、
前記検出結果を、各画像群の中の画像間で前記時系列に沿って比較して、前記画像群ごとに前記対象物への接近速度を算出し、
前記複数の画像群の中で前記接近速度が最も速い画像群を選択し、
前記選択した画像群における前記対象物の移動の度合いを判定する
ことを特徴とする請求項1に記載の警告装置。
The determination means includes
The detection results are compared along the time series between images in each image group, and the approach speed to the object is calculated for each image group,
Selecting the image group having the fastest approach speed among the plurality of image groups;
The warning device according to claim 1, wherein a degree of movement of the object in the selected image group is determined.
前記判定手段は、
前記検出結果を、各画像群の中の画像間で前記時系列に沿って比較して、前記画像群ごとに前記対象物への接近速度を算出し、
前記接近速度が基準値以上か否かを判定し、
前記警告手段は、
前記接近速度が所定の基準値以上である場合には、前記接近速度が基準値未満である場合よりも警告の度合いを高くする
請求項1〜3のいずれか1項に記載の警告装置。
The determination means includes
The detection results are compared along the time series between images in each image group, and the approach speed to the object is calculated for each image group,
Determine whether the approach speed is greater than or equal to a reference value;
The warning means is
The warning device according to any one of claims 1 to 3, wherein when the approach speed is equal to or higher than a predetermined reference value, the degree of warning is set higher than when the approach speed is less than a reference value.
連続して撮影される複数の画像から構成される画像群を取得する画像取得ステップと、
前記画像群内の画像のそれぞれに対して、対象物の検出を行う検出ステップと、
前記画像群における前記対象物の検出結果を時系列に沿って比較して、前記対象物の移動の度合いを判定する判定ステップと、
前記判定された移動の度合いに応じて警告を行う警告ステップと
を有し、
前記画像取得ステップは、複数のフィルタ特性それぞれに基づく複数の画像群を取得することを特徴とする警告方法。
An image acquisition step of acquiring an image group composed of a plurality of images photographed in succession;
A detection step of detecting an object for each of the images in the image group;
A determination step of comparing the detection results of the object in the image group along a time series and determining a degree of movement of the object;
A warning step for giving a warning according to the determined degree of movement,
The image acquisition step includes acquiring a plurality of image groups based on each of a plurality of filter characteristics.
連続して撮影される複数の画像から構成される画像群を取得する画像取得ステップと、
前記画像群内の画像のそれぞれに対して、対象物の検出を行う検出ステップと、
前記画像群における前記対象物の検出結果を時系列に沿って比較して、前記対象物の移動の度合いを判定する判定ステップと、
前記判定された移動の度合いに応じて警告を行う警告ステップと
をコンピュータに実行させ、
前記画像取得ステップは、複数のフィルタ特性それぞれに基づく複数の画像群を取得することを特徴とする警告プログラム。
An image acquisition step of acquiring an image group composed of a plurality of images photographed in succession;
A detection step of detecting an object for each of the images in the image group;
A determination step of comparing the detection results of the object in the image group along a time series and determining a degree of movement of the object;
Causing the computer to execute a warning step of giving a warning according to the determined degree of movement,
The image acquisition step acquires a plurality of image groups based on each of a plurality of filter characteristics.
JP2015046585A 2015-03-10 2015-03-10 Warning device, warning method and warning program Active JP6387869B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2015046585A JP6387869B2 (en) 2015-03-10 2015-03-10 Warning device, warning method and warning program
CN201680013013.XA CN107408288B (en) 2015-03-10 2016-03-02 Warning device, warning method, and warning program
EP16761282.9A EP3270352B1 (en) 2015-03-10 2016-03-02 Alert device, alert method, and alert program
EP23151554.5A EP4187524A1 (en) 2015-03-10 2016-03-02 Alert device, alert method, and alert program
PCT/JP2016/001136 WO2016143306A1 (en) 2015-03-10 2016-03-02 Alert device, alert method, and alert program
US15/698,099 US10474910B2 (en) 2015-03-10 2017-09-07 Warning device, warning method, and warning program
US16/591,537 US11423664B2 (en) 2015-03-10 2019-10-02 Warning device, warning method, and warning program
US17/866,371 US11749112B2 (en) 2015-03-10 2022-07-15 Warning device, warning method, and warning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015046585A JP6387869B2 (en) 2015-03-10 2015-03-10 Warning device, warning method and warning program

Publications (2)

Publication Number Publication Date
JP2016167174A true JP2016167174A (en) 2016-09-15
JP6387869B2 JP6387869B2 (en) 2018-09-12

Family

ID=56898558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015046585A Active JP6387869B2 (en) 2015-03-10 2015-03-10 Warning device, warning method and warning program

Country Status (1)

Country Link
JP (1) JP6387869B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020016950A (en) * 2018-07-23 2020-01-30 株式会社デンソーテン Collision determination device and collision determination method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055553A (en) * 2007-08-29 2009-03-12 Fujifilm Corp Imaging apparatus mounting a plurality of image sensors
JP2012203884A (en) * 2011-03-28 2012-10-22 Toyota Central R&D Labs Inc Jumping-out pedestrian determining device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055553A (en) * 2007-08-29 2009-03-12 Fujifilm Corp Imaging apparatus mounting a plurality of image sensors
JP2012203884A (en) * 2011-03-28 2012-10-22 Toyota Central R&D Labs Inc Jumping-out pedestrian determining device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020016950A (en) * 2018-07-23 2020-01-30 株式会社デンソーテン Collision determination device and collision determination method

Also Published As

Publication number Publication date
JP6387869B2 (en) 2018-09-12

Similar Documents

Publication Publication Date Title
WO2016143306A1 (en) Alert device, alert method, and alert program
JP6888950B2 (en) Image processing device, external world recognition device
JP5577398B2 (en) Vehicle periphery monitoring device
US9424462B2 (en) Object detection device and object detection method
US20210192239A1 (en) Method for recognizing indication information of an indicator light, electronic apparatus and storage medium
JP5937832B2 (en) In-vehicle camera exposure control system
JP2016170663A (en) Vehicle monitoring device, vehicle monitoring method, and vehicle monitoring program
JP2018097515A (en) Drive assisting device, drive assisting method, and program thereof
JP2012185684A (en) Object detection device and object detection method
JP2016116137A (en) Image processing device, image processing method, and program
JP6387869B2 (en) Warning device, warning method and warning program
JP2017167608A (en) Object recognition device, object recognition method, and object recognition program
JP2011191859A (en) Apparatus for monitoring surroundings of vehicle
KR101960741B1 (en) Method for Setting Event Rule According to Interested Boundary and Apparatus for Monitoring Event Using The Method
JP6313999B2 (en) Object detection device and object detection system
JP6299630B2 (en) Warning device, warning method and warning program
JP5587068B2 (en) Driving support apparatus and method
JP6405765B2 (en) Imaging apparatus and determination method
JP2015097089A (en) Object detection device and object detection method
JP6405141B2 (en) Imaging apparatus and determination method
JPWO2015098107A1 (en) Image processing device, alarm device, and image processing method
KR101970129B1 (en) Method for Setting Event Rule and Apparatus for Monitoring Event Using The Method
KR20170075523A (en) Apparatus and method for monitoring environment of vehicle
JP2017084019A (en) Object detection device, object detection method, and, object detection program
JP5804155B1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180730

R150 Certificate of patent or registration of utility model

Ref document number: 6387869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150