JP5948465B1 - Video processing system and video processing method - Google Patents
Video processing system and video processing method Download PDFInfo
- Publication number
- JP5948465B1 JP5948465B1 JP2015114126A JP2015114126A JP5948465B1 JP 5948465 B1 JP5948465 B1 JP 5948465B1 JP 2015114126 A JP2015114126 A JP 2015114126A JP 2015114126 A JP2015114126 A JP 2015114126A JP 5948465 B1 JP5948465 B1 JP 5948465B1
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- unit
- image
- video
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 144
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003384 imaging method Methods 0.000 claims abstract description 198
- 230000001360 synchronised effect Effects 0.000 claims abstract description 4
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 22
- 238000001514 detection method Methods 0.000 description 15
- 230000007613 environmental effect Effects 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 239000010426 asphalt Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000011946 reduction process Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】複数のカメラの撮像画像を正確に同期表示することができる映像処理システムを提供すること。【解決手段】映像処理システムは、複数の映像処理装置と、前記複数の映像処理装置の各々から得られる画像フレームを同期表示する制御部とを備える。前記複数の映像処理装置の各々は、少なくとも撮像時刻を含む複数の撮像環境に関する情報を取得する撮像環境情報取得部と、被写体を結像する光学系および撮像素子を有する撮像部の出力信号に基づいて、複数の画像フレームを含む映像データを生成する映像データ生成部と、前記映像データに対して、画像フレームごとに前記撮像環境情報取得部で取得した情報を付加し、記憶媒体に記憶する記憶部と、を有する。前記制御部は前記同期表示をする際に前記撮像環境に関する情報を使用する。【選択図】 図1A video processing system capable of accurately and synchronously displaying captured images of a plurality of cameras is provided. A video processing system includes a plurality of video processing devices and a control unit that synchronously displays an image frame obtained from each of the plurality of video processing devices. Each of the plurality of video processing devices is based on an output signal of an imaging environment information acquisition unit that acquires information about a plurality of imaging environments including at least imaging time, an optical system that forms an image of an object, and an imaging unit. A video data generation unit that generates video data including a plurality of image frames, and a storage that adds the information acquired by the imaging environment information acquisition unit for each image frame to the video data and stores the information in a storage medium Part. The control unit uses information regarding the imaging environment when performing the synchronous display. [Selection] Figure 1
Description
本発明は、映像処理システム及び映像処理方法に関する。 The present invention relates to a video processing system and a video processing method.
従来、路面に関連する路面構造物や路面の周辺に設置された付属構造物等を含む道路構造物を点検する場合、点検用車両に搭載したカメラ等によって撮像した映像を点検者が確認している。
特許文献1には、車両にCCDカメラを搭載し、当該CCDカメラが車両走行中に取得した路面映像をもとに路面のひびわれを検出する路面ひびわれ検出装置が開示されている。この路面ひびわれ検出装置は、1/30秒毎に路面画像(画像フレーム)を取得すると共に、当該路面画像の取得タイミングで車両の走行距離データと時刻とを取得する。特許文献1において、上記時刻は、走行距離データの計測開始時刻を基準とする相対時刻(経過時間)である。
特許文献2には、2台のカメラを使用して走行中の撮像画像を蓄積して、自車位置を推定する装置が開示されている。
Conventionally, when inspecting road structures including road surface structures related to the road surface and attached structures installed around the road surface, the inspector confirms images captured by a camera mounted on the vehicle for inspection. Yes.
Patent Document 2 discloses a device that accumulates captured images during traveling using two cameras and estimates the vehicle position.
カメラ等で撮像された映像をもとに点検対象となる物体の状態を確認する場合、例えば、特定の時刻に撮像されたフレームを取り出して確認することができると、点検作業効率が一段と向上する。
しかしながら、特許文献1に記載の技術にあっては、各フレームの時刻情報は、計測開始時刻からの経過時間のみにより管理されている。そのため、映像からフレームを取り出す場合、「計測開始から何分何秒後のフレーム」という指定をすることしかできない。つまり、特定の時刻を指定してフレームを取り出すことができないため、映像を効率的に確認することができない。
When checking the state of an object to be inspected based on an image captured by a camera or the like, for example, if the frame captured at a specific time can be taken out and confirmed, the inspection work efficiency is further improved. .
However, in the technique described in
特許文献2の装置でも、撮像された映像のフレーム毎に時刻データが記録されていないので、特定の時刻を指定して所望のフレームを取り出すことができない。従って、2台のカメラの撮像画像を正確に同期表示することはできない。
本発明は、上記した従来技術に鑑み考案されたもので、複数のカメラの撮像画像を正確に同期表示することができる映像処理システム及び映像処理方法を提供することを目的とする。
Even in the device of Patent Document 2, since time data is not recorded for each frame of a captured image, a desired frame cannot be extracted by designating a specific time. Therefore, the images captured by the two cameras cannot be displayed accurately and synchronously.
The present invention has been devised in view of the above-described prior art, and an object thereof is to provide a video processing system and a video processing method capable of accurately and synchronously displaying captured images of a plurality of cameras.
本発明に係る映像処理システムの一態様は、複数の映像処理装置と、前記複数の映像処理装置の各々から得られる画像フレームを同期表示する制御部とを備え、前記複数の映像処理装置の各々は、少なくとも撮像時刻を含む複数の撮像環境に関する情報を取得する撮像環境情報取得部と、被写体を結像する光学系および撮像素子を有する撮像部の出力信号に基づいて、複数の画像フレームを含む映像データを生成する映像データ生成部と、前記映像データに対して、画像フレームごとに前記撮像環境情報取得部で取得した情報を付加し、記憶媒体に記憶する記憶部と、を有し、前記制御部は前記同期表示をする際に前記撮像環境に関する情報を使用する。 One aspect of the video processing system according to the present invention includes a plurality of video processing devices and a control unit that synchronously displays an image frame obtained from each of the plurality of video processing devices, and each of the plurality of video processing devices. Includes a plurality of image frames based on output signals of an imaging environment information acquisition unit that acquires information about a plurality of imaging environments including at least imaging times, and an imaging system that forms an image of a subject and an imaging element. A video data generation unit that generates video data; and a storage unit that adds information acquired by the imaging environment information acquisition unit for each image frame to the video data and stores the information in a storage medium, and The control unit uses information regarding the imaging environment when performing the synchronous display.
各映像処理装置は、各画像フレームと撮像時刻等の撮像環境に関する情報とを直接的に関連付けて記録する。従って、制御部は、例えば、特定の時刻を指定して各映像処理装置から同時刻の画像フレームを取り出すことができる。同時刻の画像フレームを用いれば、各映像処理装置が撮像した映像を正確に同期表示することができる。
上記撮像環境情報取得部は、上記撮像環境に関する情報として、上記撮像時刻と、撮像位置および撮像姿勢の少なくとも1つとに関する情報を取得してもよい。これにより、特定の位置を指定して画像フレームを取り出したり、特定の姿勢を指定して画像フレームを取り出したりすることができる。
Each video processing apparatus directly records each image frame and information related to the imaging environment such as the imaging time. Therefore, for example, the control unit can designate a specific time and take out an image frame at the same time from each video processing device. If the image frames at the same time are used, the images captured by the respective image processing devices can be accurately and synchronously displayed.
The imaging environment information acquisition unit may acquire information regarding the imaging time and at least one of an imaging position and an imaging posture as information regarding the imaging environment. Accordingly, it is possible to take out an image frame by designating a specific position or take out an image frame by designating a specific posture.
上記撮像環境情報取得部は、標準電波から得られる標準時刻情報を、上記撮像時刻に関する情報として取得してもよい。これにより、正確な撮像時刻を各画像フレームに関連付けることができる。
上記撮像環境情報取得部は、測位衛星から送信される衛星信号から得られる測位情報を、上記撮像位置に関する情報として取得してもよい。これにより、正確な撮像位置を各画像フレームに関連付けることができる。
上記撮像環境情報取得部は、3軸加速度センサおよび3軸ジャイロセンサの少なくとも一方で検出した情報を、上記撮像姿勢に関する情報として取得してもよい。これにより、加速度情報や角速度情報を撮像姿勢に関する情報として各画像フレームに関連付けることができる。
The imaging environment information acquisition unit may acquire standard time information obtained from a standard radio wave as information related to the imaging time. Thereby, an accurate imaging time can be associated with each image frame.
The imaging environment information acquisition unit may acquire positioning information obtained from a satellite signal transmitted from a positioning satellite as information relating to the imaging position. Thereby, an accurate imaging position can be associated with each image frame.
The imaging environment information acquisition unit may acquire information detected by at least one of a triaxial acceleration sensor and a triaxial gyro sensor as information related to the imaging posture. Thereby, acceleration information and angular velocity information can be associated with each image frame as information on the imaging posture.
上記記憶部で記憶した映像データに基づいて、画像フレームと当該画像フレームに対応する撮像環境に関する情報とを重畳させて表示部に表示する第一の表示制御部をさらに備えもよい。このように、映像データと撮像環境に関する情報とを1画面に表示することで、撮像環境の把握が容易となる。
ユーザが指定した上記撮像環境に関する情報を取得する指定情報取得部と、上記記憶部で記憶した映像データから、上記指定情報取得部で取得した情報が付加された画像フレームを検索する画像検索部と、当該画像検索部で検索した画像フレームを表示部に表示する第二の表示制御部と、を備えてもよい。これにより、ユーザは、自身が指定した撮像環境に対応する画像フレームを容易に確認することができる。
A first display control unit that superimposes an image frame and information related to an imaging environment corresponding to the image frame on the display unit based on the video data stored in the storage unit may be further provided. As described above, by displaying the video data and the information about the imaging environment on one screen, it is easy to grasp the imaging environment.
A designation information acquisition unit that acquires information on the imaging environment specified by the user, an image search unit that searches for image frames to which the information acquired by the specification information acquisition unit is added, from video data stored in the storage unit; A second display control unit that displays the image frame searched by the image search unit on the display unit. Thereby, the user can easily confirm an image frame corresponding to the imaging environment designated by the user.
本発明によれば、各映像処理装置が、映像データに対して、画像フレームごとに少なくとも撮像時刻を含む撮像環境情報を付加するので、特定の時刻を指定して各映像処理装置から同時刻の画像フレームを取り出すことができる。同時刻の画像フレームを用いれば、各映像処理装置が撮像した映像を正確に同期表示することができる。 According to the present invention, since each video processing device adds imaging environment information including at least the imaging time for each image frame to the video data, a specific time is designated and the video processing device has the same time. The image frame can be taken out. If the image frames at the same time are used, the images captured by the respective image processing devices can be accurately and synchronously displayed.
以下、本発明の実施の形態を図面に基づいて説明する。
(第1の実施形態)
図1は、本実施形態における映像処理システム100の一例を示す概略構成図である。
図1に示すように、映像処理システム100は、例えば車両200に搭載可能である。車両200は、例えば、高速道路をはじめとする各種道路において、毎日もしくは数日おきに行われる日常点検を実施するための点検用車両である。映像処理システム100は、3つの撮像装置10a、10b、10cと、3つの画像処理装置20a、20b、20cと、1つの同期制御部30とを備える。3つの撮像装置10a、10b、10cは同じ構造を有する。3つの画像処理装置20a、20b、20cも、同じ構造を有する。撮像装置10aは画像処理装置20aに接続され、撮像装置10bは画像処理装置20bに接続され、撮像装置10cは画像処理装置20cに接続されている。そして、画像処理装置20a、20b、20cは同期制御部30に接続されている。同期制御部30は表示装置35に接続されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic configuration diagram illustrating an example of a
As shown in FIG. 1, the
撮像装置10a、10b、10cは、車両200のルーフに取り付けられる。撮像装置10a、10b、10cは、それぞれ約60度の画角(視野角)のデジタルビデオカメラである。撮像装置10bは、車両200の長手方向正面(進行方向)に向けられて設置されており、当該方向の左右30度ずつ(合計60度)の範囲で車両200の周辺を撮像する。撮像装置10aは、撮像装置10bの左60度の範囲で車両200の周辺を撮像する。撮像装置10cは、撮像装置10bの右60度の範囲で車両200の周辺を撮像する。従って、撮像装置10a、10b、10cは、合計で180度の撮像範囲を有することになる。なお、図示の都合上、図1では撮像装置10a、10b、10cが車両200の長手方向に並んで配置されているように描かれているが、撮像装置10a、10b、10cは、車両200の幅方向に配置されてよい。撮像装置10a、10b、10cは、同じ構造を有するので、以下の説明では、撮像装置10aを説明する。
The
撮像装置10aは、例えば、アスペクト比16:9の横長のハイビジョン映像を撮像するハイビジョンカメラである。これにより、アスペクト比4:3の映像に対し、人の視野に近い状態で映像を撮像することができる。撮像装置10aは、例えば車両200が所定の点検対象道路を走行しているとき、若しくは車両200が停車しているときに、当該車両200の周辺の映像を撮像する。
画像処理装置20a、20b、20cは、例えば、車両200の内部に設けられる。画像処理装置20a、20b、20cは同じ構造を有するので、以下の説明では画像処理装置20aを説明する。
画像処理装置20aは、撮像装置10aから映像ファイルを取得し、映像の表示制御を行う。この画像処理装置20aは、例えばノート型パーソナルコンピュータ(ノートPC)により構成される。画像処理装置20aは、撮像装置10aと通信可能に有線または無線で接続されている。なお、画像処理装置20aは、ノートPCに限定されるものではなく、例えば、スマートフォンやタブレット端末などの携帯端末であってもよい。また、画像処理装置20aは、例えば、撮像装置10aに内蔵されていてもよい。さらに、画像処理装置20aは、例えば、撮像装置10aとネットワーク等を介して接続されたサーバ装置であってもよい。
The
The
The
以下、撮像装置10aの構成について具体的に説明する。
図2に示すように、撮像装置10aは、撮像部11と、信号処理部12と、記録部13と、時刻情報取得部14と、位置情報取得部15と、姿勢情報取得部16と、を備える。
撮像部11は、レンズ11aや撮像素子11b等を含んで構成される。レンズ11aは、被写体を結像するための光学系である。撮像素子11bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等である。撮像部11は、レンズ11aで集めた光を撮像素子11bに結像させ、結像された光像を光電変換により電気信号に変換し、これを撮像部11の出力信号として信号処理部12に出力する。
Hereinafter, the configuration of the
As illustrated in FIG. 2, the
The
信号処理部12は、撮像部11から得られた電気信号に所定の信号処理を施し、複数のフレーム(画像フレーム)を含む映像データを生成する。本実施形態では、撮像時刻、撮像位置、撮像時の姿勢(撮像姿勢)などの撮像環境に関する情報(以下、「環境情報」と称す。)を、各フレームに対応付けて映像データを生成する。この映像データの生成方法については後述する。また、信号処理部12は、エンコーダを介して映像データを圧縮処理するなどにより映像ファイルを生成する。ここでの圧縮方式は、例えば、H.264、MPEG4(Moving Picture Experts Group phase4)、MJPEG(Motion-JPEG)などの規格に基づく。記録部13は、信号処理部12で生成した映像ファイルを、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気テープ等の磁気記録媒体、光ディスクや光磁気ディスク等の光/光磁気記憶媒体等の記録媒体に記録する。
The
時刻情報取得部14は、例えば、電波時計等に用いられる標準電波を受信する受信機を備え、当該受信機で受信した標準電波から得られる標準時刻情報を、撮像時刻を示す情報として信号処理部12に出力する。ここで、標準電波としては、日本のJJY、米国のWWVB、英国のMSF、及び、独国のDCF77などがある。なお、インターネットを通じて時刻情報を提供する時刻情報提供サービスや放送の時報を利用して時刻情報を取得してもよいし、パソコンに内蔵された時計(例えば、画像処理装置20aに内蔵された時計)を利用して時刻情報を取得してもよい。
The time
位置情報取得部15は、例えば、GNSS(Global Navigation Satellite System)衛星から送信される信号を受信するGNSS受信機を含んで構成される。位置情報取得部15は、受信した信号から撮像装置10aの位置(車両200の位置)を示す位置情報を取得し、その位置情報を、撮像位置を示す情報として信号処理部12に出力する。なお、GNSSとは、GPS(米国)、GALILEO(欧州)、CLONASS(ロシア)、準天頂衛星(日本)などの測位衛星の総称である。
The position
姿勢情報取得部16は、例えば、3軸加速度センサ、3軸ジャイロセンサ等の3軸センサにより構成される。姿勢情報取得部16は、撮像装置10a(車両200)の加速度情報や角速度情報を取得し、取得した情報を、撮像姿勢を示す情報として信号処理部12に出力する。
なお、時刻情報取得部14、位置情報取得部15及び姿勢情報取得部16は、それぞれ時刻情報、位置情報及び姿勢情報を取得可能な構成であれば、上記の構成に限定されない。また、時刻情報取得部14、位置情報取得部15及び姿勢情報取得部16は、それぞれ撮像装置10aに内蔵してもよいし、車両200に設置してもよい。例えば、姿勢情報取得部16を車両200のサスペンションによって車体の揺れが緩衝されない位置(例えば、車輪近傍)に設置した場合、路面の僅かな変動による揺れを検出することができる。
The posture
Note that the time
信号処理部12は、時刻情報取得部14、位置情報取得部15及び姿勢情報取得部16から時刻情報、位置情報及び姿勢情報を入力し、これらの撮像情報が書き込まれた映像ファイルを生成する。
図3は、映像ファイルの一例を示している。図3に示すように、映像ファイル40は、ヘッダ部41と映像データ部42とを含んで構成されている。ヘッダ部41には、映像ファイル40のファイル名、ファイルの種類、ファイルサイズ等、映像ファイル40の構造を示すヘッダ情報(H)が含まれる。また、映像データ部42には、フレーム単位(1F,2F,…)の映像データが含まれる。映像データ部42内におけるフレームとフレームとの間には、環境情報43が、例えば数値データとして書き込まれる。環境情報43は、例えば、対応するフレームの直前に書き込む。すなわち、第2フレーム(2F)の環境情報43は、第1フレーム(1F)と第2フレーム(2F)との間に書き込む。なお、環境情報43とそれに対応するフレームとの対応付けがされていれば、環境情報43を書き込む位置は上記に限定されない。また、環境情報43は、映像データの全フレームに対して書き込んでもよいし、所定間隔で書き込んでもよい。
The
FIG. 3 shows an example of a video file. As shown in FIG. 3, the
本実施形態においては、信号処理部12は、環境情報43を、映像データの再生に影響しない形で書き込む。例えば、環境情報43は、フレームごとに設けられたヘッダ(フレームヘッダ)内に格納してもよいし、フレームごとのメタデータとして格納してもよい。また、映像再生時に環境情報43が読み飛ばされるような制御コードを付加して環境情報43を書き込んでもよい。なお、映像再生時に環境情報43がコメントアウトされる形で環境情報43を書き込んでもよい。環境情報43の書き込み方法は、映像処理システム100のユーザ(例えば、車両200の乗員)が適宜設定することができる。
このように、信号処理部12は、各フレームに関連する環境情報43を書き込みながらフレーム単位で映像データ部42を順次生成していく。そして、信号処理部12は、映像データ部42の生成が完了すると、映像データ部42に対応するヘッダ部41を生成し、映像ファイル40を生成する。信号処理部12は、生成した映像ファイル40を記録部13に記録する。
In the present embodiment, the
In this manner, the
次に、画像処理装置20aの構成について具体的に説明する。
図4に示すように、画像処理装置20aは、画像取得部21と、パラメータ取得部22と、画像処理部23と、表示制御部24と、を備える。
画像取得部21は、撮像装置10aから映像ファイル40を取得し、これを画像処理部23に出力する。パラメータ取得部22は、ユーザが所定の操作部(例えば、キーボードやマウス等のポインティングデバイス)を操作して入力した、後述する画像処理に関するパラメータを取得する。画像処理部23は、映像ファイル40に対して、必要に応じてパラメータ取得部22が取得したパラメータをもとに画像処理を施し、その結果を表示制御部24に出力する。表示制御部24は、画像処理部23の画像処理結果を液晶ディスプレイ(LCD)等のモニタで構成される表示部71(図5)に表示する。例えば、画像処理部20aがノート型パーソナルコンピュータやタブレット等である場合、表示部71はノート型パーソナルコンピュータの表示部である。
Next, the configuration of the
As illustrated in FIG. 4, the
The
本実施形態では、上記画像処理として、例えば画像検索処理を実施する。すなわち、画像処理部23は、ユーザが上記パラメータとして検索条件を入力している場合、入力された検索条件を充足する画像(フレーム)を映像ファイル40から検索する画像検索処理を実施する。
例えば、画像処理部23は、ユーザが検索条件として時刻を指定している場合、映像データ内の環境情報43を読み出し、ユーザが指定した時刻と同一の時刻に撮像されたフレームを検索する。また、ユーザが検索条件として位置を指定している場合には、映像データ部42内の環境情報43を読み出し、ユーザが指定した位置と同一の位置で撮像されたフレームを検索する。ここで、ユーザによる位置の指定は、例えば、緯度及び経度を入力することで実行されてもよいし、表示部等に表示されたマップ上の位置をポインティングデバイスで指示することで実行されてもよい。さらに、ユーザが検索条件として撮像姿勢を指定している場合には、映像データ部42内の環境情報43を読み出し、ユーザが指定した撮像姿勢で撮像されたフレームを検索する。
In the present embodiment, for example, an image search process is performed as the image process. That is, when the user inputs a search condition as the parameter, the
For example, when the user specifies time as a search condition, the
上記の画像検索処理は、映像データ部42から環境情報43を抜き出す(検出する)処理を行うプログラムを実行することで実現可能である。ここで、環境情報43に制御コードが付加されている場合には、当該制御コードをピックアップする処理を行うプログラムを実行することで、環境情報43以外の付加情報と区別して検索処理を実現可能である。
画像処理部23は、当該画像検索処理によって検索されたフレームを、画像検索結果として表示制御部24に出力する。これにより、表示制御部24は、画像処理部23によって検索されたフレームを表示部に表示することができる。また、画像処理部23は、画像検索処理によって検索されたフレームを、再生開始位置として表示制御部24に出力することもできる。この場合、表示制御部24は、画像処理部23によって検索されたフレームから映像データを再生する。映像データの再生は、静止画でもよいし、動画でもよい。
The image search process described above can be realized by executing a program that performs a process of extracting (detecting) the
The
図5は、画像検索結果の表示画面の一例を示す図である。この図5に示すように、表示部71は、撮像部11により取得した映像データ(画像フレーム)を表示する映像表示領域72と、環境情報43を表示する環境情報表示領域73とを有する。また、表示部71は、映像データの再生や一時停止、停止、巻戻し、早送り等を指示可能なボタン74等を表示することができる。環境情報表示領域73には、映像表示領域72に表示したフレームの撮像時刻、撮像位置、撮像姿勢を、例えば数値データで表示することができる。図5の例では、撮像時刻として西暦20XX年XX月XX日のXX時XX分が表示され、撮像位置として北緯(N)XX度XX分、東経(E)XX度XX分が表示され、3軸加速度センサの値(G)として、X.XXX(cm/s2)が表示されている。尚、撮像位置は地図で表示してもよいし、撮像姿勢は波形で表示してもよい。環境情報の表示方法は適宜設定可能である。また、ユーザが環境情報の表示方法を切替可能な構成であってもよい。
このように、映像データの中からユーザが指定した撮像時刻や撮像位置の画像(フレーム)を容易に検索し、車両200付近の映像に撮像時刻等を重畳して表示することができる。所望の時刻を指定して画像を表示することができるので、巻戻しや早送りの操作が不要である。
FIG. 5 is a diagram illustrating an example of an image search result display screen. As shown in FIG. 5, the
In this way, it is possible to easily search for an image (frame) at the imaging time or imaging position designated by the user from the video data, and display the imaging time or the like superimposed on the video near the
以上の構成により、本実施形態では、ユーザが撮像装置10aの電源を投入すると、撮像装置10aは車両周辺の撮像を開始する。撮像装置10aは、車両200の走行中及び停車中のいずれであっても撮像可能である。このとき、撮像装置10aは、所定のフレームレートで撮像処理を実行して各フレームの映像データを生成しながら、各フレームに関連する撮像時刻、撮像位置、撮像姿勢等に関する情報を環境情報43として画像データに書き込み、映像ファイル40を生成する。ここで、フレームレートは、例えば、24fps、30fps、60fps、120fpsなどを採用することができる。撮像装置10aによる撮像処理が終了すると、画像処理装置20aは、撮像装置10aから映像ファイル40を取り込み、ユーザが指定した検索条件を充足する画像(フレーム)を検索し、表示する。なお、ユーザが指定した時刻の前後の所定時間を含む時間帯の画像(フレーム)を検索し、例えば、当該指定時刻を含む数分間の画像を表示してもよい。
With the above configuration, in this embodiment, when the user turns on the power of the
このように、本実施形態では、映像データの各フレームに環境情報43を数値データとして書き込むので、特定の時刻や位置等を指定することで、映像ファイル40の映像データ部42から容易に対応するフレームを検索、表示することができる。また、環境情報43は、映像再生時に影響のない形式で書き込むため、不具合を発生させることなく適切に映像データを再生することができる。尚、所定時間の間、動画で映像を再生したい場合、再生開始時刻と再生終了時刻を指定すればよい。また、図5の環境情報表示領域73に表示する内容は、ユーザが適宜決定することができる。例えば、ユーザが加速度センサの計測値を表示する必要がないと考えるならば、時刻情報と位置情報のみを環境情報表示領域73に表示してもよい。
As described above, in the present embodiment, the
映像データの各フレームと時刻情報とを関連付ける方法としては、例えば、映像データに変換した時刻情報をフレームごとに画像合成して記録する方法がある。しかしながら、この場合、映像の再生画面上では各フレームの撮像時刻を確認することはできるが、特定の時刻のフレームを検索するためには、ユーザが映像を巻戻したり早送りしたりする必要がある。
また、映像データの各フレームには、LTC(Longitudinal TimeCode)などに代表される時間.分.秒.フレーム番号からなるタイムコードが付与されている。しかしながら、例えば日本や米国等で採用されているNTSC(National Television System Committee)方式の場合、フレーム数が29.97フレーム/秒であるため、実時間に対して、タイムコードの歩進が僅かにずれる。このずれを長時間において解消するための補正モードとしてドロップフレームがあるが、フレーム1枚1枚に正確な時刻を関連付けることは困難である。
As a method of associating each frame of the video data with the time information, for example, there is a method of recording the time information converted into the video data by combining the images for each frame. However, in this case, the imaging time of each frame can be confirmed on the video playback screen, but in order to search for a frame at a specific time, the user needs to rewind or fast-forward the video. .
Each frame of video data has a time represented by LTC (Longitudinal TimeCode). Min. Seconds. A time code consisting of a frame number is assigned. However, in the case of the NTSC (National Television System Committee) system adopted in, for example, Japan and the United States, the number of frames is 29.97 frames / second, so the time code step is slightly less than the actual time. Shift. Although there is a drop frame as a correction mode for eliminating this shift over a long period of time, it is difficult to associate an accurate time with each frame.
これに対して、本実施形態では、各フレームに時刻情報取得部14によって取得した時刻情報をそれぞれ関連付けることができる。また、時刻情報取得部14によって取得する時刻情報として、電波時計情報を用いるので、正確な撮像時刻を各フレームに関連付けることができる。
また、撮像時刻と共に、撮像位置や撮像姿勢(加速度、角速度等)といった撮像環境に関する情報を各フレームに付加し、各フレームとこれらの撮像環境に関する情報とを直接的に関連付けることができる。
On the other hand, in this embodiment, the time information acquired by the time
In addition to the imaging time, information on the imaging environment such as the imaging position and the imaging posture (acceleration, angular velocity, etc.) can be added to each frame, and each frame can be directly associated with the information on the imaging environment.
従来、各フレームに関連する情報は、映像データとは別に記録媒体等に記録されており、各フレームと各フレームに関連する情報とのリンクは、映像撮像時のタイムコード等を双方に付与することによりなされていた。しかしながら、この場合、映像データを処理する際に、記録媒体等からタイムコードを介して対応する情報を読み出さなければならない。このように、各フレームとそれに対応する各情報とが間接的に関連付けられた構成であると、映像データとは別に上記情報を記録、管理する必要があり不便であると共に、必要な情報の抽出や表示が非効率であるとの問題があった。これに対して、本実施形態では、各フレームとそれに対応する撮像環境に関する情報とを直接的に関連付けることができるので、上記のような問題がない。 Conventionally, information related to each frame is recorded on a recording medium or the like separately from the video data, and a link between each frame and information related to each frame gives both a time code at the time of video imaging and the like. It was done by that. However, in this case, when processing the video data, the corresponding information must be read from the recording medium or the like via the time code. As described above, when each frame and each corresponding information are indirectly associated with each other, it is inconvenient to record and manage the above information separately from the video data, and extraction of necessary information is possible. And there is a problem that the display is inefficient. On the other hand, in this embodiment, since each frame can be directly associated with information related to the imaging environment, there is no problem as described above.
さらに、本実施形態では、撮像装置10aにおいて、撮像部11から得られる信号をもとに映像データを生成する際に、撮像時刻等の環境情報43を一緒に書き込む。すなわち、ビデオカメラが出力した映像ファイルを加工して撮像情報を書き込む構成ではない。そのため、映像データと撮像情報との関連付けを行うために、ビデオカメラに映像ファイルの加工を行うための装置を接続する必要がない。したがって、システム内の機器数を削減することができる。また、機器間の接続不具合に起因して撮像情報の書き込み不具合が発生することを抑制することができる。
環境情報43を用いて検索したフレームは、例えば、車両200周辺の状態確認に用いることができる。例えば、ユーザが検索条件として時刻情報を指定した場合、指定した時刻に車両200が走行していた場所及びその周辺の状態を確認することができる。
Furthermore, in the present embodiment, when the image data is generated based on the signal obtained from the
The frame searched using the
また、ユーザが検索条件として点検の対象となる物体の設置位置を示す位置情報を指定した場合には、点検の対象となる物体が撮像されたフレームを検索、表示することができ、当該物体の異常等の確認が可能となる。ここで、点検の対象となる物体としては、例えば、車両200が走行可能な道路、トンネル、橋などに関する構造物がある。例えば、舗装やジョイント部、道路区画線(白線)、マンホール、排水溝、中央分離帯、標識、看板、電柱、支柱、照明灯、街路灯、防音壁、ケーブル、ワイヤ、信号機、反射鏡、ガードレール、縁石、横断歩道橋、電話ボックス等は、上記構造物に含まれる。
In addition, when the user specifies position information indicating the installation position of the object to be inspected as a search condition, a frame in which the object to be inspected is imaged can be searched and displayed. Check for abnormalities. Here, examples of the object to be inspected include structures related to roads, tunnels, bridges, and the like on which the
さらに、ユーザが検索条件として撮像姿勢の許容値を指定した場合、車両200に許容値を超える大きさの振動が発生した場所を撮像したフレームを検索、表示することができ、その場所の路面の状態を確認することができる。これにより、例えば、上記振動が発生した原因が路面の劣化である場合には、これを適切に把握することができる。また、上記振動が発生した場所が道路のジョイント部75である場合には、当該ジョイント部の状態を確認することもできる。
Further, when the user designates an allowable value of the imaging posture as a search condition, it is possible to search and display a frame in which a place where vibration of a magnitude exceeding the allowable value has occurred in the
また、例えば図5に示すように、環境情報43を道路の映像と共に1つの画面に表示するので、点検者は映像の撮像時刻、撮像位置及び撮像姿勢等を容易に把握することができる。したがって、例えば、映像データをもとに、点検者が目視で、もしくは画像処理により自動で上述した構造物等の異常を検出した場合には、異常を検出したフレームの撮像時刻や撮像位置等を容易に把握することができる。その結果、異常を検出した構造物の設置場所に、詳細点検や修理の作業員を向かわせるなどの適正な対応が可能となる。
尚、表示部71は、映像表示領域72と環境情報表示領域73とを有するとしたが、環境情報表示領域73を設けなくてもよい。即ち、環境情報43を表示部71において表示するかは、ユーザが適宜決定してよい。
このようにして、撮像装置10a、10b、10cは3つの撮像方向の画像を撮像することができ、撮像装置10a、10b、10cに接続された3つの画像処理装置20a、20b、20cは、3つの撮像方向の画像をそれぞれの表示部71に表示することができる。また、画像処理装置20a、20b、20cは、各画像のフレーム毎に撮像時刻等の情報を格納する。
Further, for example, as shown in FIG. 5, the
Although the
In this way, the
撮像装置10a、10b、10cの3つの撮像画像を同期表示したい場合には、同期制御部30と表示装置35を使用する。例えば、ユーザは、同期制御部30に画像表示開始時刻と画像表示終了時刻を入力する。例えば、撮像した日が平成27年5月20日15時〜16時であれば、ユーザは画像表示開始時刻として平成27年5月20日15:10:00を入力し、画像表示終了時刻として平成27年5月20日15:50:00を入力する。画像表示開始時刻と画像表示終了時刻が入力されると、同期制御部30は画像処理装置20a、20b、20cから、前記入力された開始時刻から終了時刻までの動画を取得し、当該動画を表示装置35に表示する。同期制御部30は、その際、各画像フレームに記録されている撮像時刻を使用する。
When the three captured images of the
図6は、3つの画像処理装置20a、20b、20cから取得した3つの画像72A、72B、72Cが表示装置35に表示されている様子を示している。画像72Aは画像処理装置20aから取得した画像であり、画像72Bは画像処理装置20bから取得した画像であり、画像72Cは画像処理装置20cから取得した画像である。表示装置35は、画像72Cの下に環境情報73Aを表示している。また、表示装置35は、画像72Aの下に映像データの再生や一時停止、停止、巻戻し、早送り等を指示可能なボタン74を表示している。
FIG. 6 shows a state where three
図6に示した表示装置35は、同期制御部30の制御の下、3つの画像72A、72B、72Cを同時に再生する。即ち、同期制御部30は、各画像に記録されている撮像時刻を用いて、3つの画像72A、72B、72Cの再生が正確に同期して行われるように、表示装置35に動画再生を実行させる。
従って、本実施形態によれば、3つのカメラ(撮像装置10a、10b、10c)で撮像した画像を、正確に同期表示することができる。
The
Therefore, according to the present embodiment, images captured by the three cameras (
なお、上記した実施形態では、撮像装置10a、10b、10cは車両200の前方の映像を撮像するとしたが、3つの撮像装置10a、10b、10cの全てまたは一部を車両の200の後方の撮像に使用してもよい。また、撮像装置の数は3に限定されない。撮像装置の数は、映像処理システム100の用途等に応じて増減され得る。さらに、各撮像装置の視野角は60度に限定されない。例えば、図6の72Aと72Bが所定量だけオーバーラップするようにするために、撮像装置10aと10bの視野角は60数度にしてよい。また、90度の視野角のカメラを使用する場合には、撮像装置の数を2つにしてもよい。
In the above-described embodiment, the
図6の説明では、動画を表示装置35に表示するとしたが、表示装置35に表示される画像は静止画像でもよい。例えば、ユーザが特定の時刻の3つの画像72A、72B、73Cを見たいときには、表示装置35に当該時刻を入力して、当該時刻の静止画像72A、72B,72Cを見ることができる。
上記した実施形態では、表示装置35は映像処理システム100に含まれていないが、表示装置35を映像処理システム100に含めてもよい。
In the description of FIG. 6, the moving image is displayed on the
In the above-described embodiment, the
(第2の実施形態)
第1の実施形態において、振動が発生した場所が道路のジョイント部75である場合には、当該ジョイント部75の状態を確認することができるとした。撮像画像中において横方向に延びる物体が道路のジョイント部75であるか否かの判断は、撮像した画像を用いて行ってもよいし、撮像した画像に画像処理を施した後の画像を用いて行ってもよい。後者の場合に採用される画像処理を、第2の実施形態として説明する。なお、以下の記載では、第1の実施形態との相違点のみを説明する。
第2の実施形態では、道路のジョイント部75の検出を、以下のような特異点抽出に基づいて行う。図7は、第2の実施形態で採用する画像処理のフローチャートである。
この画像処理は、例えば画像処理装置20aの電源が投入されたタイミングで実行開始することができる。
(Second Embodiment)
In the first embodiment, when the place where the vibration is generated is the
In the second embodiment, the detection of the
This image processing can be started at the timing when the
先ずステップS1で、画像取得部21は、撮像部11から撮影画像を取得し、ステップS2に移行する。なお、このステップS1では、撮影画像に対して種々の補正処理を行ってもよい。例えば、撮影画像に対してワイドダイナミックレンジ(WDR)処理を行うことで、逆光が強いシーンや明暗の差が大きいシーンを撮影した画像の高品位化を図ることができる。
ステップS2では、画像処理部23は、ステップS1で取得した画像データに対して所定の二値化閾値を用いて二値化処理を施す。
First, in step S1, the
In step S2, the
この二値化閾値は、検出対象である道路のジョイント部75を検出可能な値に設定する。一般に、路面にはアスファルト舗装が施されており、撮影画像において、当該アスファルト路面部分に対応する画素の輝度値(以下、「画素値」ともいう)は黒色の輝度値「0」に近い値となる。これに対して、ジョイント部75では、路面上に金属製の継手部材や後打コンクリートが露出しており、撮影画像において、当該ジョイント部75に対応する領域の画素値は、上記のアスファルト路面部分に対応する領域の画素値よりも白色の輝度値「255」に近い値となる。
したがって、道路構造物としてジョイント部75を検出する場合には、二値化閾値をジョイント部75に対応する領域の画素値の下限値と同等、若しくはそれよりも所定のマージン分だけ小さく(黒色の輝度値に近く)設定する。これにより、二値化処理の結果、ジョイント部に対応する画素は白、アスファルト路面に対応する画素は黒となる。
This binarization threshold value is set to a value at which the
Therefore, when the
次にステップS3で、画像処理部23は、二値化画像から特異点を抽出し、ステップS4に移行する。ここで、特異点とは、二値化画像内において予め設定した注目画素値を有する画素である。注目画素値は、検出対象の道路構造物(ジョイント部75)の二値化処理後の画素値に設定しておく。検出対象の道路構造物がジョイント部75である場合、注目画素値は、二値化処理後の白色の輝度値「1」となる。なお、このステップS3では、特異点を抽出する前に、二値化画像に対して孤立点除去や膨張処理、収縮処理等を行ってノイズを除去するようにしてもよい。
Next, in step S3, the
ステップS4では、画像処理部23は、ステップS3で抽出した特異点の連続性を判定する。具体的には、画像処理部23は、先ず二値化画像に対してラベリング処理を施し、ジョイント部75の候補となる領域(点群)を識別する。次に画像処理部23は、各領域について、二値化画像の車両200の幅方向に対応する方向(X方向)で連続する特異点の数Nxと、車両200の進行方向に対応する方向(Y方向)で連続する特異点の数Nyとを計測する。そして、これら特異点数Nx,Nyがそれぞれ予め設定した判定範囲内であるか否かを判定することで、ジョイント部75の有無を判定する。
In step S4, the
上記判定範囲は、検出対象であるジョイント部75の撮影画像内での大きさをもとに設定する。ジョイント部75は、道路の幅方向に沿って道路幅に相当する長さを有すると共に、車両の進行方向に沿って所定の幅(例えば、500mm程度)を有する。したがって、検出対象がジョイント部75である場合、特異点数Nxの判定範囲は、ジョイント部75の長さ(道路幅)に相当する画素数に基づいて設定し、特異点数Nyの判定範囲は、ジョイント部75の幅に相当する画素数に基づいて設定する。このように、抽出した特異点の点群の数に基づいて、ジョイント部75の有無を判定する。なお、判定範囲の設定ファイルは、予め記憶部13に記憶しておき、ユーザが適宜調整可能である。
The determination range is set based on the size of the
ステップS5では、画像処理部23は、ステップS4の判定の結果、ジョイント部75があると判断した場合にはステップS6に移行し、ジョイント部75がないと判断した場合には後述するステップS8に移行する。
ステップS6では、画像処理部23は、ステップS1で取得した撮影画像に対して環境情報43を各画像フレーム(1F、2F、3F、・・・)に付加する。
ステップS7では、画像処理部23と表示制御部24は、上記環境情報付きの撮影画像を記録部13に保存すると共に、画像処理後のジョイント部75の画像を表示部71(映像表示領域72)に表示することができる。
ステップS8では、画像処理部23は、ジョイント部75の検出処理を終了するか否かを判定する。例えば、車両200の乗員が画像処理装置20aに設けられた処理終了ボタンを押すなどにより、画像処理部23が道路構造物の検出処理を終了するための指示を受信した場合に、当該検出処理を終了する。
In step S5, the
In step S6, the
In step S7, the
In step S <b> 8, the
このように、ジョイント部75の検出に際し、撮影画像から特異点を抽出し、当該特異点の連続性を判断する。すなわち、ジョイント部75の撮影画像内における輝度が路面の輝度とは異なることを利用し、路面の輝度値とは異なる輝度値を有する画素を特異点として抽出する。そして、画像内において所定の方向に連続する特異点の数が所定の判定範囲内にあると判断した場合に、当該特異点の点群に対応する領域をジョイント部75として検出する。そのため、検出対象のジョイント部75の撮影画像内における大きさ及び姿勢に概ね一致する大きさ及び姿勢を有する特異点の点群を、ジョイント部75として検出することができる。したがって、複雑な処理を必要とすることなく、適切にジョイント部75の検出が可能となる。また、ジョイント部75と同等の輝度値を有する構造物が存在する場合であっても、ジョイント部75とは大きさや姿勢が異なる構造物は検出対象から除外することができる。したがって、ジョイント部75を適切に検出することができる。本実施形態では、ジョイント部75の輝度値を有する画素を特異点として抽出し、当該特異点の点群に基づいてジョイント部75を検出するので、検出対象であるジョイント部75とは輝度値の異なる影は検出対象から除外することができる。そして、特異点抽出に基づく画像処理を施した画像を表示部71の映像表示領域72に表示することができる。
Thus, when detecting the
さらに、撮影画像に対して二値化処理を施すことで特異点を抽出するので、比較的簡易な処理で特異点を抽出することができる。また、二値化処理で用いる二値化閾値は外部記憶媒体等に記憶し、検出対象の道路構造物の輝度値に応じて調整可能である。換言すると、上記二値化閾値を変更することで、検出可能となる道路構造物を変更することができる。したがって、非検出としたい道路構造物がある場合には、その道路構造物が検出されないように上記二値化閾値を設定することができる。
また、上記判定範囲は外部記憶媒体等に記憶し、検出対象とする道路構造物に応じて調整可能である。そのため、上述した二値化閾値と同様に、上記判定範囲を変更することで、検出可能となる道路構造物を変更することができる。このように、解析に必要な道路構造物のみを検出するような設定とすることができるので、作業性を向上させることができる。
Furthermore, since a singular point is extracted by performing binarization processing on the captured image, the singular point can be extracted by a relatively simple process. The binarization threshold used in the binarization process is stored in an external storage medium or the like, and can be adjusted according to the luminance value of the road structure to be detected. In other words, the road structure that can be detected can be changed by changing the binarization threshold. Therefore, when there is a road structure that is not desired to be detected, the binarization threshold can be set so that the road structure is not detected.
The determination range is stored in an external storage medium or the like, and can be adjusted according to the road structure to be detected. Therefore, similarly to the above-described binarization threshold, the road structure that can be detected can be changed by changing the determination range. Thus, since it can be set as the detection of only a road structure required for an analysis, workability | operativity can be improved.
本実施形態の画像処理では、特異点を抽出する方法により道路構造物を検出するので、さまざまな道路構造物を検出対象とすることができる。すなわち、道路構造物はジョイント部75に限定されず、撮影画像における道路構造物に対応する画素が特異点として抽出できれば、当該道路構造物の自動検出が可能である。路面に関連する路面構造物の場合、アスファルト路面とは異なる輝度値を有する構造物であれば、いずれも検出対象とすることができる。例えば、このような路面構造物としては、道路区画線(白線等)、轍、路面上の落下物、路面の損傷による穴などが挙げられる。また、路面周辺の付属構造物の場合にも同様に、周囲とは異なる輝度値を有する構造物であれば、いずれも検出対象とすることができる。例えば、このような付属構造物としては、標識、標識の文字、他車両のナンバープレートの文字、照明灯、防音壁やトンネル等の損傷部(亀裂、ボルト抜け部等)などが挙げられる。
In the image processing of the present embodiment, road structures are detected by a method of extracting singular points, so that various road structures can be detected. That is, the road structure is not limited to the
道路構造物を検出した撮影画像は、道路構造物の状態確認に用いることができる。すなわち、点検者は、当該撮影画像から道路構造物の異常の有無を判断することができる。また、トンネル内の照明や破線状の白線等、通常は等間隔で配列している道路構造物について、点検者は、照明切れや白線切れの有無を判断することもできる。
このようにして、各画像処理装置20a、20b、20cは二値化した画像を作成することができる。そして、これら画像を同期表示したい場合には、第1の実施形態と同じように、同期制御装置30と表示装置35を使用する。なお、3つの画像処理装置20a、20b、20cの1つまたは2つについてのみ、撮影画像に二値化処理を実行してもよい。
The photographed image in which the road structure is detected can be used for checking the state of the road structure. That is, the inspector can determine whether there is an abnormality in the road structure from the captured image. In addition, the inspector can also determine whether or not there is a light outage or a white line outage for road structures that are usually arranged at regular intervals, such as lighting in a tunnel or white lines in broken lines.
In this way, each of the
また、上記実施形態においては、特異点の抽出に際し、撮影画像を二値化処理する場合について説明したが、撮影画像を多値化処理し、多値化処理後の画像から、道路構造物の当該多値化処理後の輝度値を有する画素を特異点として抽出してもよい。
さらに、特異点の抽出に際し、撮像画像に対して減色処理を施し、減色処理後の画像から特異点を抽出してもよい。例えば、フルカラーの撮像画像を、256色や16色等に減色した画像に変換し、減色処理後の画像から検出対象の物体の色に対応する画素を選出し、これを特異点として抽出することができる。例えば、検出対象の物体が道路標識である場合、道路標識に主に用いられる色(赤、緑、青、黄など)に対応する画素を特異点として抽出する。また、例えば、検出対象の物体が錆である場合、錆の色(茶色、茶褐色など)に対応する画素を特異点として抽出する。これにより、より高精度に検出対象の物体を検出することができる。この検出方法は、検出対象の物体の色が既知である場合に有効である。
Further, in the above-described embodiment, the case where the captured image is binarized when the singular point is extracted has been described. However, the captured image is subjected to multi-value processing, and from the image after multi-value processing, the road structure You may extract the pixel which has the luminance value after the said multi-value process as a singular point.
Further, when extracting the singularity, a color reduction process may be performed on the captured image, and the singularity may be extracted from the image after the color reduction process. For example, converting a full-color captured image into an image reduced to 256 colors or 16 colors, selecting a pixel corresponding to the color of the object to be detected from the image after the color reduction process, and extracting this as a singular point Can do. For example, when the object to be detected is a road sign, pixels corresponding to colors (red, green, blue, yellow, etc.) mainly used for the road sign are extracted as singular points. For example, when the object to be detected is rust, pixels corresponding to the color of rust (brown, brown, etc.) are extracted as singular points. As a result, the object to be detected can be detected with higher accuracy. This detection method is effective when the color of the object to be detected is known.
(変形例)
上記実施形態においては、撮像環境に関する情報として、撮像時刻、撮像位置および撮像姿勢を取得する場合について説明したが、少なくとも撮像時刻を含んでいればよく、例えば撮像時の速度に関する情報や、撮像時の音に関する情報などを含んでもよい。また、撮像時の音(音声データ)は、各フレーム1F、2F、3Fに含まれてもよい。各フレーム1F、2F、3Fは映像フレームと称してもよい。
上記実施形態では、表示装置35を設けたが、表示装置35は省略してもよい。その場合、同期制御装部35は3つの画像処理装置20a、20b、20cの表示部71に表示される画像(映像)を同期表示する。つまり、3つの表示部71を用いて、これら3つの表示部71の画像を同期表示するようにしてもよい。
(Modification)
In the above-described embodiment, the case where the imaging time, the imaging position, and the imaging posture are acquired as the information about the imaging environment has been described. However, at least the imaging time only needs to be included. Information on the sound of the sound may be included. In addition, sound (audio data) at the time of imaging may be included in each
In the above embodiment, the
また、上記実施形態においては、撮像装置10a、10b、10cを車両200に設置する場合について説明したが、本発明はこのような構成に限定されない。例えば、車両以外の移動体(ラジコン、ドローン(無人航空機)、ヘリコプターなど)に撮像装置10a、10b、10cを設置してもよいし、路肩等に撮像装置10a、10b、10cを固定してもよい。さらに、撮像装置10a、10b、10cは、店舗や施設等に設置することもできる。この場合、映像処理システム100は、店舗や施設内を監視する監視システムとして機能させることができる。また、撮像装置10a、10b、10cは、人が携帯してもよい。
Moreover, in the said embodiment, although the case where
上記実施形態においては、画像処理装置20a、20b、20cにおいて、画像検索処理で検索したフレームを表示部に表示する場合について説明したが、検索したフレームを記録媒体に記録したり、サーバ装置へ転送したりするようにしてもよい。
なお、上記実施形態における画像処理装置20a、20b、20cで実行されるプログラムは、インストール可能なファイル形式または実行可能なファイル形式で、コンピュータが読み取り可能な記憶媒体に記憶されて提供されてもよい。また、上記実施形態における画像処理装置20a、20b、20cで実行されるプログラムは、インターネット等のネットワーク経由で提供されてもよい。
以上、本発明の実施形態について詳細に説明したが、上述した実施形態は、本発明を実施するにあたっての一例を示したにすぎず、本発明の技術的範囲は、上述した実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の修正又は変更が可能である。
In the above-described embodiment, the case has been described in which the frame searched by the image search process is displayed on the display unit in the
Note that the program executed by the
As mentioned above, although embodiment of this invention was described in detail, embodiment mentioned above showed only an example in implementing this invention, and the technical scope of this invention is limited to embodiment mentioned above. It is not something. The present invention can be variously modified or changed without departing from the spirit of the present invention.
10a、10b、10c…撮像装置、11…撮像部、12…信号処理部、13…記録部、14…時刻情報取得部、15…位置情報取得部、16…姿勢情報取得部、20a、20b、20c…画像処理装置、21…画像取得部、22…パラメータ取得部、23…画像処理部、24…表示制御部、30…同期制御部、40…映像データ、41…ヘッダ部、42…映像データ部、43…環境情報、71…表示部、72…映像表示領域、73…環境情報表示領域、74…ボタン、100…映像処理システム、200…車両
10a, 10b, 10c ... imaging device, 11 ... imaging unit, 12 ... signal processing unit, 13 ... recording unit, 14 ... time information acquisition unit, 15 ... position information acquisition unit, 16 ... posture information acquisition unit, 20a, 20b, 20c ... Image processing device, 21 ... Image acquisition unit, 22 ... Parameter acquisition unit, 23 ... Image processing unit, 24 ... Display control unit, 30 ... Synchronization control unit, 40 ... Video data, 41 ... Header unit, 42 ...
Claims (13)
前記複数の撮像装置の各々から得られる画像フレームを同期表示する制御装置と、を備える映像処理システムであって、
前記複数の撮像装置の各々は、
車両へ取り付け可能であり、前記車両が走行する道路上の道路構造物を撮像して撮像された映像データを前記制御装置へ供給する撮像装置であって、
前記道路構造物を撮像する撮像部と、
前記撮像部の撮像時刻を取得する時刻取得部と、
前記撮像部の撮像位置を取得する位置取得部と、
前記撮像部の出力信号に基づいて、複数の画像フレームを含む映像データを順次生成する映像データ生成部と、
生成された前記映像データをエンコーダを介して圧縮処理するなどにより生成された映像ファイルを記憶媒体に記憶する記憶部と、を有し、
前記複数の撮像装置の各々の前記映像データ生成部は、
前記映像データを生成する際に、前記映像データの前記画像フレームごとに、前記撮像時刻及び前記撮像位置を含む撮像環境情報を、映像再生に影響のない形式で、対応する画像フレームに書き込み、
前記制御装置は前記同期表示をする際に、前記複数の撮像装置の各々が取得した前記撮像時刻を使用することを特徴とする映像処理システム。 A plurality of imaging devices;
A control device that synchronously displays an image frame obtained from each of the plurality of imaging devices, and a video processing system comprising:
Each of the plurality of imaging devices is
An imaging device that is attachable to a vehicle, images a road structure on a road on which the vehicle travels, and supplies image data captured to the control device,
An imaging unit for imaging the road structure;
A time acquisition unit for acquiring an imaging time of the imaging unit;
A position acquisition unit for acquiring an imaging position of the imaging unit;
A video data generation unit that sequentially generates video data including a plurality of image frames based on an output signal of the imaging unit;
A storage unit that stores a video file generated by, for example, compressing the generated video data via an encoder in a storage medium;
The video data generation unit of each of the plurality of imaging devices is
When generating the video data, for each image frame of the video data, the imaging environment information including the imaging time and the imaging position is written in a corresponding image frame in a format that does not affect video reproduction,
The video processing system, wherein the control device uses the imaging time acquired by each of the plurality of imaging devices when performing the synchronous display.
前記処理部は、設定された前記二値化閾値又は多値化閾値を用いて、取得された前記映像データを二値化処理又は多値化処理し、当該二値化処理又は多値化処理後の映像データに対して特異点抽出処理を施すことを特徴とする請求項7に記載の映像処理システム。 The control device includes a threshold setting unit that sets a binarization threshold or a multi-value threshold corresponding to a luminance value of a pixel of a road structure to be detected;
The processing unit uses the set binarization threshold or multi-value threshold to binarize or multi-value the acquired video data, and the binarization or multi-value processing 8. The video processing system according to claim 7, wherein singularity extraction processing is performed on the subsequent video data.
前記記憶部で記憶した前記映像データから、前記指定情報取得部で取得した情報が書き込まれた画像フレームを検索する画像検索部と、
前記画像検索部で検索した画像フレームを前記表示部に表示する第二の表示制御部と、を備えることを特徴とする請求項6に記載の映像処理システム。 The control device includes a designation information acquisition unit that acquires the imaging environment information designated by a user;
An image search unit for searching for an image frame in which the information acquired by the specified information acquisition unit is written from the video data stored in the storage unit;
The video processing system according to claim 6 , further comprising: a second display control unit that displays an image frame searched by the image search unit on the display unit.
前記複数の撮像装置の各々が、前記車両が走行する道路上の道路構造物を撮像するステップと、
前記複数の撮像装置の各々が、当該撮像装置の撮像時刻を取得するステップと、
前記複数の撮像装置の各々が、当該撮像装置の撮像位置を取得するステップと、
前記複数の撮像装置の各々が、当該撮像装置の出力信号に基づいて、複数の画像フレームを含む映像データを順次生成する映像データ生成ステップと、
前記複数の撮像装置の各々が、生成された前記映像データをエンコーダを介して圧縮処理するなどにより生成された映像ファイルを記憶媒体に記憶するステップと、
前記制御装置が、前記複数の撮像装置の各々から得られる画像フレームを同期表示するステップと、を含み、
前記複数の撮像装置の各々の前記映像データ生成ステップは、
前記映像データを生成する際に、前記映像データの前記画像フレームごとに、前記撮像時刻及び前記撮像位置を含む撮像環境情報を、映像再生に影響のない形式で、対応する画像フレームに書き込むステップを含み、
前記制御装置が、同期表示するステップを行う際に、前記複数の撮像装置の各々が取得した前記撮像時刻を使用することを特徴とする映像処理方法。 A video processing method for synchronously displaying an image frame obtained from each of a plurality of imaging devices attachable to a vehicle by a control device,
Each of the plurality of imaging devices imaging a road structure on a road on which the vehicle travels;
Each of the plurality of imaging devices acquires an imaging time of the imaging device; and
Each of the plurality of imaging devices acquires an imaging position of the imaging device;
A video data generation step in which each of the plurality of imaging devices sequentially generates video data including a plurality of image frames based on an output signal of the imaging device;
Each of the plurality of imaging devices stores a video file generated by, for example, compressing the generated video data via an encoder in a storage medium;
The control device synchronously displaying an image frame obtained from each of the plurality of imaging devices,
The video data generation step of each of the plurality of imaging devices includes:
When generating the video data, for each image frame of the video data, writing imaging environment information including the imaging time and the imaging position in a corresponding image frame in a format that does not affect video playback. Including
An image processing method using the imaging time acquired by each of the plurality of imaging devices when the control device performs a step of synchronous display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015114126A JP5948465B1 (en) | 2015-06-04 | 2015-06-04 | Video processing system and video processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015114126A JP5948465B1 (en) | 2015-06-04 | 2015-06-04 | Video processing system and video processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5948465B1 true JP5948465B1 (en) | 2016-07-06 |
JP2017005300A JP2017005300A (en) | 2017-01-05 |
Family
ID=56329550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015114126A Active JP5948465B1 (en) | 2015-06-04 | 2015-06-04 | Video processing system and video processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5948465B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018011113A (en) * | 2016-07-11 | 2018-01-18 | 三菱電機株式会社 | Video recording and playback system |
JP2018148369A (en) * | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | Image processing device and control method of same |
CN109451283A (en) * | 2018-12-21 | 2019-03-08 | 核动力运行研究所 | A kind of steam generator water chamber ambient image acquisition system |
JP2021509237A (en) * | 2017-12-29 | 2021-03-18 | ウェイモ エルエルシー | High-speed image readout and processing |
US11917281B2 (en) | 2017-12-28 | 2024-02-27 | Waymo Llc | Camera system, method and instructions using images captured by a first mage sensor and a second image sensor to generate a third image corresponding to a simulated lens having an intermediate focal length |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3833004A1 (en) | 2015-07-10 | 2021-06-09 | Panasonic Intellectual Property Management Co., Ltd. | Imaging device |
JP7108856B2 (en) | 2017-01-25 | 2022-07-29 | パナソニックIpマネジメント株式会社 | Operation control system and operation control method |
JP6947316B2 (en) * | 2019-01-30 | 2021-10-13 | 日本電気株式会社 | Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program |
JP7103975B2 (en) * | 2019-02-27 | 2022-07-20 | エヌ・ティ・ティ・コムウェア株式会社 | Structure detection device, structure detection method and structure detection program |
JP7274917B2 (en) * | 2019-04-09 | 2023-05-17 | 株式会社デンソーテン | Video playback device and video playback method |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002341755A (en) * | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | Video display device |
JP2003335197A (en) * | 2002-03-14 | 2003-11-25 | Yamauchi Jimu Service:Kk | Information management equipment for automobile live information, monitoring device, filing device, monitoring method, filing method and information management method for automobile live information |
JP2004312295A (en) * | 2003-04-04 | 2004-11-04 | Victor Co Of Japan Ltd | Image data storage system |
JP2005175554A (en) * | 2003-12-08 | 2005-06-30 | Ikuo Kondo | Video image output unit and its program |
JP2005205930A (en) * | 2004-01-20 | 2005-08-04 | Clarion Co Ltd | Drive recorder device |
JP2008193598A (en) * | 2007-02-07 | 2008-08-21 | Mitsubishi Electric Corp | Video recording and reproducing apparatus |
JP2011243164A (en) * | 2010-05-21 | 2011-12-01 | Mitsubishi Electric Engineering Co Ltd | Image recording management device |
JP2012098907A (en) * | 2010-11-02 | 2012-05-24 | Clarion Co Ltd | Drive recorder, drive record management device and drive recorder system |
JP2012129853A (en) * | 2010-12-16 | 2012-07-05 | Mitsubishi Electric Corp | Synchronous display device for a plurality of videos and synchronous display method thereof |
JP2012253609A (en) * | 2011-06-03 | 2012-12-20 | Fujitsu Ten Ltd | Drive information recording device and vehicle periphery image reproduction system |
JP2013156784A (en) * | 2012-01-28 | 2013-08-15 | Yasuaki Iwai | Image collection system, image pickup device and image storage device |
JP2013210942A (en) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | Detection device and detection method |
-
2015
- 2015-06-04 JP JP2015114126A patent/JP5948465B1/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002341755A (en) * | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | Video display device |
JP2003335197A (en) * | 2002-03-14 | 2003-11-25 | Yamauchi Jimu Service:Kk | Information management equipment for automobile live information, monitoring device, filing device, monitoring method, filing method and information management method for automobile live information |
JP2004312295A (en) * | 2003-04-04 | 2004-11-04 | Victor Co Of Japan Ltd | Image data storage system |
JP2005175554A (en) * | 2003-12-08 | 2005-06-30 | Ikuo Kondo | Video image output unit and its program |
JP2005205930A (en) * | 2004-01-20 | 2005-08-04 | Clarion Co Ltd | Drive recorder device |
JP2008193598A (en) * | 2007-02-07 | 2008-08-21 | Mitsubishi Electric Corp | Video recording and reproducing apparatus |
JP2011243164A (en) * | 2010-05-21 | 2011-12-01 | Mitsubishi Electric Engineering Co Ltd | Image recording management device |
JP2012098907A (en) * | 2010-11-02 | 2012-05-24 | Clarion Co Ltd | Drive recorder, drive record management device and drive recorder system |
JP2012129853A (en) * | 2010-12-16 | 2012-07-05 | Mitsubishi Electric Corp | Synchronous display device for a plurality of videos and synchronous display method thereof |
JP2012253609A (en) * | 2011-06-03 | 2012-12-20 | Fujitsu Ten Ltd | Drive information recording device and vehicle periphery image reproduction system |
JP2013156784A (en) * | 2012-01-28 | 2013-08-15 | Yasuaki Iwai | Image collection system, image pickup device and image storage device |
JP2013210942A (en) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | Detection device and detection method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018011113A (en) * | 2016-07-11 | 2018-01-18 | 三菱電機株式会社 | Video recording and playback system |
JP2018148369A (en) * | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | Image processing device and control method of same |
JP7002846B2 (en) | 2017-03-03 | 2022-01-20 | キヤノン株式会社 | Image processing device and its control method |
US11917281B2 (en) | 2017-12-28 | 2024-02-27 | Waymo Llc | Camera system, method and instructions using images captured by a first mage sensor and a second image sensor to generate a third image corresponding to a simulated lens having an intermediate focal length |
JP2021509237A (en) * | 2017-12-29 | 2021-03-18 | ウェイモ エルエルシー | High-speed image readout and processing |
JP7080977B2 (en) | 2017-12-29 | 2022-06-06 | ウェイモ エルエルシー | High-speed image readout and processing |
CN109451283A (en) * | 2018-12-21 | 2019-03-08 | 核动力运行研究所 | A kind of steam generator water chamber ambient image acquisition system |
Also Published As
Publication number | Publication date |
---|---|
JP2017005300A (en) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5948465B1 (en) | Video processing system and video processing method | |
JP5901825B1 (en) | Video processing apparatus and video processing method | |
JP6494103B2 (en) | Train position detection system using image processing and train position and environment change detection system using image processing | |
WO2012011226A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP3225434B2 (en) | Video presentation system | |
JP5803723B2 (en) | Structure inspection support method, structure inspection support program, and structure inspection support device | |
CN106998434A (en) | A kind of method of mobile video track in electronic map with video playback simultaneous display | |
US20120075409A1 (en) | Image segmentation system and method thereof | |
CN102447886A (en) | Visualizing video within existing still images | |
JP3466169B2 (en) | Management system for roads and surrounding facilities | |
US20160320203A1 (en) | Information processing apparatus, information processing method, program, and recording medium | |
WO2008116376A8 (en) | A portable digital photographing system | |
JPWO2014103731A1 (en) | Image processing apparatus and method, and program | |
JP6647171B2 (en) | Information processing apparatus, information processing method, and program | |
JP7035272B2 (en) | Shooting system | |
US20200177935A1 (en) | Smart camera, image processing apparatus, and data communication method | |
JP3544703B2 (en) | Tour inspection apparatus and display method for tour inspection | |
JP6731667B1 (en) | How to search the driving route | |
Carmichael et al. | Dataset and benchmark: Novel sensors for autonomous vehicle perception | |
KR101118926B1 (en) | System for observation moving objects | |
JP6721915B1 (en) | Video processing apparatus and video processing method | |
JP7067852B1 (en) | Calculation method of road surface damage position | |
CN114863690B (en) | Method, device, medium and electronic equipment for identifying solid line lane change | |
JP7089364B2 (en) | Shooting system | |
JP7048357B2 (en) | Pre-confirmation system for captured images and pre-confirmation method for captured images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5948465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |