JP2019212970A - 動画処理装置、動画処理システム、動画処理方法及びプログラム - Google Patents

動画処理装置、動画処理システム、動画処理方法及びプログラム Download PDF

Info

Publication number
JP2019212970A
JP2019212970A JP2018104975A JP2018104975A JP2019212970A JP 2019212970 A JP2019212970 A JP 2019212970A JP 2018104975 A JP2018104975 A JP 2018104975A JP 2018104975 A JP2018104975 A JP 2018104975A JP 2019212970 A JP2019212970 A JP 2019212970A
Authority
JP
Japan
Prior art keywords
luminance
image data
value
addition
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104975A
Other languages
English (en)
Other versions
JP6524398B1 (ja
Inventor
隆 野呂
Takashi Noro
隆 野呂
俊幸 常本
Toshiyuki Tsunemoto
俊幸 常本
甲一 佐藤
Koichi Sato
甲一 佐藤
山本智也
Tomoya Yamamoto
智也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ibex Tech Co Ltd
IBEX TECHNOLOGY CO Ltd
Japan Digital Laboratory Co Ltd
Original Assignee
Ibex Tech Co Ltd
IBEX TECHNOLOGY CO Ltd
Japan Digital Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ibex Tech Co Ltd, IBEX TECHNOLOGY CO Ltd, Japan Digital Laboratory Co Ltd filed Critical Ibex Tech Co Ltd
Priority to JP2018104975A priority Critical patent/JP6524398B1/ja
Application granted granted Critical
Publication of JP6524398B1 publication Critical patent/JP6524398B1/ja
Publication of JP2019212970A publication Critical patent/JP2019212970A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】動画の画像停止、黒画面などの放送事故の検出を行なうための動画処理システム、動画処理方法、動画処理プログラムを提供する。【解決手段】放送事故検出部500は、動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、所定の時間間隔で抽出した2つの画像データについて、横方向、縦方向、斜め方向などの異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出手段とを備え、前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する手段を備える。【選択図】図2−1

Description

本発明は、動画処理装置、動画処理システム、動画処理方法及びプログラムに関する。
従来、動画像のフリーズ(停止)や黒画面等の判定では、あるフレームの画像を記録するフレームメモリと次のフレームの画像を記録するフレームメモリを用意した上で、動画フレームの全ての画素の情報を、前後で比較して、差分がどの程度かを考慮して、フリーズ(停止)や黒画面になっていないかを判断していた。
このため、大規模なフレームメモリや、大量の情報を一定時間内に高速に処理して判定処理を行なうためのハードウェア処理が必要となるなど、コストが掛かっていた。
特開2013−197927号公報 特開2016−039508号公報
そこで、より少ない情報で、フリーズ(停止)や黒画面になっていないかを判断できるように、縦方向や横方向などの画素(輝度)の加算値などを比較することで判定する試みがなされていた。
例えば、特許文献1では、複数のラインのデータにおける画素の差分を算出し、差分値が予め定めた閾値以下であった場合は異常と判定するようにしたので、映像静止状態の検出を簡便な回路で達成することができるものであった(実施例1)。あるいは、ライン単位で輝度の加算値を比較することで(実施例2)、比較対象データを少量に抑え、メモリ容量やCPUパワーの削減を可能としていた。
しかし、特許文献1の実施例1では、どのラインを選択するかで判定精度が大きく異なり、判定精度を上げるためには多くのラインの画素の比較を必要とするため、結局、大量の演算が必要となるなどの課題があった。他方、特許文献1の実施例2では、一方向の加算結果(画像データが720×480ドットで構成される場合において、720画素を1ラインとして、480本のラインの加算結果)だけの画素比較では、たまたま、その一方向の変化を打ち消すような画像データが来た場合には、判定できない可能性があったが、複数方向の加算結果を利用すること、およびその場合の各方向の加算値の変化傾向をどのように判定するかについては示唆も検討もされていなかった。
また、前後の比較を、その差分である交差が0であることにより判定していたが、完全に画像が停止するような場合には、前後のフレームで全く差分が生じないため、交差が0でも判定可能だが、上下や左右に振動するような停止モード(画面ブレ)などでは交差が0とはならず、ある程度の交差の幅を持たせた判定を行なう必要があり、特許文献1の技術では対応できなかった。
また、特許文献2では、フレーム毎に「識別情報」を付加し、その識別情報を比較することでフレームが更新されたかどうかを検出するアイデアが提案されている。
しかし、画像自体がフリーズ(停止)しているにも拘わらず、フレーム毎に、正しく、別々の「識別情報」が振られた場合は、故障モードの検出はできないという不都合があった。その回避策として、第4実施形態では、画素の総和を算出して比較する方法を取り入れているが、画素の総和は変化しないフリーズモードになっている場合、例えば、縦方向や横方向にフレームずれの繰り返し(画面ブレ)を起こした画像に対しては、故障モードの検出が困難であるという課題があった。
そこで本願では、抽出するラインの方向性に工夫をして、より少ないメモリ、より少ないCPUパワーで、画面ブレ等のフリーズモードを含む映像フリーズ(停止)の検出を行なうことを目的とする。
また、特許文献1、及び特許文献2いずれの文献でも、画素の総和を算出して前後で比較する方式を採用する場合、特定の場所で加算方向に変化して、別の場所で減算方向に変化した場合には全体の変化が相殺されてしまい検出が困難となる可能性があった。
そこで本願では、画素の総和を算出する方向や判定辞書を工夫して、画素の総和の変化が相殺されないようにして、少ない情報で高い検出精度を達成することを目的とする。
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、動画の状態を判定するシステムであって、動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出手段とを備え、前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理システムである。
第2の発明は、第1の発明に記載の動画処理システムにおいて、前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割する手段と、当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算手段と、前記の部分領域画像データ輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出手段と、前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理システムである。
第3の発明は、水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整することが可能となる第1の又は第2の発明に記載の動画処理システムである。
第4の発明は、動画の状態を判定するシステムであって、動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、を備え、前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、画像データに対し次元削減された輝度加算値ベクトルデータを生成し、当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習手段とを備え、前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理システムである。
第5の発明は、所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させることで、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする第4の発明に記載の動画処理システムである。

第6の発明は、第1〜5の発明のいずれかに1つに記載の動画処理システムにおいて、所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算する手段を備え、偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、を特徴とする動画処理システムである。

第7の発明は、動画の状態を判定する方法であって、動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出ステップとを備え、前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理方法である。
第8の発明は、第7の発明に記載の動画処理方法において、前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割するステップと、当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算ステップと、前記の部分領域画像データ輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出ステップと、前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理方法である。
第9の発明は、第7又は第8の発明に記載の動画処理方法において、水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整する動画処理方法である。
第10の発明は、動画の状態を判定する方法であって、動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、を備え、前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、画像データに対し次元削減された輝度加算値ベクトルデータを生成し、当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習ステップとを備え、前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理方法である。
第11の発明は、所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させるステップをさらに備え、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする第10の発明に記載の動画処理方法である。

第12の発明は、第7〜11の発明のいずれかに1つに記載の動画処理方法において、所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算するステップを備え、偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、を特徴とする動画処理方法である。

第13の発明は、コンピュータシステムにおいて、第7から第12の発明の動画処理方法を実行するプログラムである。
本発明によれば、画面フリーズ、黒画面などを含む放送事故の判定を行なう動画処理システム、動画処理方法及び動画処理プログラムを提供することができる。
全体構成を示す図である。 辞書とアルゴリズムを利用する放送事故検出部の機能ブロックを示す図である。 辞書とアルゴリズムを利用する放送事故検出部の機能ブロックを示す図である。 分割領域毎に輝度の加算値を利用する場合の様子を示す図である。 画素の数ビット分、バイトやワード等の纏まった単位で輝度を加算する場合の概念図であって、縦方向に輝度を加算する場合の例である。 画素の数ビット分、バイトやワード等の纏まった単位で輝度を加算する場合の概念図であって、横方向に輝度を加算する場合の例である。 機械学習を利用する放送事故検出部の機能ブロックを示す図である。 機械学習を利用する放送事故検出部の機能ブロックを示す図である。 判定処理全体を表すフローチャートを示す図である。 横方向の加算と差分値の算出を表すフローチャートを示す図である。 縦方向の加算と差分値の算出を表すフローチャートを示す図である。 斜め方向の加算と差分値の算出を表すフローチャートを示す図である。 判定処理を表すフローチャートを示す図である。 各方向の1ラインの差分値の平均値を判定する場合の判定辞書を示す図である。 各方向の1ラインの差分値をそのまま使って、差分値のパターンがどういう傾向を示すかによって判定する場合の判定辞書を示す図である。 各方向の1ラインの差分値をそのまま使って判定する場合において、2方向の輝度の加算値を利用する場合の判定辞書を示す図である。 画面を分割して判定する場合の判定辞書である。 水平方向検出結果の検出状況(結果)を目視化した例を説明するための図である。 垂直方向検出結果の検出状況(結果)を目視化した例を説明するための図である。 水平垂直方向検出結果の検出状況(結果)を目視化した例を説明するための図である。 所定の画像が横/縦に動いたときに横方向や縦方向の輝度の加算値では検出できないことを示す図である。 斜め方向の輝度の加算値を利用すると画像が縦/横に動いたときでも検出できることを示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
まず、本発明の全体構成を示す機能ブロック図(図1)を元に、システム全体構成の概要を説明する。
撮影機器(動画像生成部(撮影装置)100)は、撮影対象から、動画像データを生成して出力し、放送機器200の動画処理部300に入力される。放送事故検出部500は、この動画像データから適宜画像データを抽出して、画面フリーズや黒画面(ブラックアウト)などの放送事故の要因となる状態を検出して、動画処理部300などに通知する。
放送事故検出部500は、大きく分けて、辞書とアルゴリズムを利用する実施形態(図2−1および図2−2参照)と、機械学習を利用する実施形態(図3−1および図3−2)の2つがある。
(実施形態1)
本発明の実施の一形態である、辞書とアルゴリズムを利用した実施形態(実施形態1)の機能概略について、図2−1および図2−2の放送事故検出部500の機能ブロック図を元に説明する。
ここで、図2−1および図2−2は、辞書とアルゴリズムを利用する放送事故検出部の機能ブロックを示す図である。機能ブロック図の各部は、システムを制御するCPU(中央処理装置)と、記憶部(図示せず)に記憶されているOS(オペレーティングシステム)やアプリケーションプログラムを適宜読み出して実行することにより、ハードウェアと協働し、各種機能を実行する。
動画像生成部(撮影装置)100から出力された動画の画像データは、一例として、1秒間に30枚、60枚、120枚といった単位で、時系列に出力されている。
画像データ抽出部510は、この時系列の画像データの1枚を適宜、時間間隔(Δt)をおいて抽出し、例えば、画像データ(t)とΔt時間だけ進んだ、画像データ(t+Δt)を得て、横方向加算値生成部、縦方向加算値生成部および必要に応じて斜め方向加算値生成部などで構成されるライン値加算部520に入力する。
ここで、画像データ(t+Δt)は、画像データ(t)の1フレーム後の連続した画像データであっても良く、数フレーム後の画像データであっても良い。
ライン値加算部520は、画像データ(t)と画像データ(t+Δt)から、それぞれ、横方向に1ドットずつ画素の輝度を加算していき、横方向の加算値を求めて、一ライン分のデータを生成する。
同様に、縦方向、斜め方向の輝度の加算値を求めて、それぞれ一ライン分のデータを生成する。
斜め方向に加算する場合は、図2−2などで示したように、画像データの左上から右下方向に加算する場合の他、右上から左下方向に加算するようにしてもよい。また、斜め方向に加算する場合は、図2−2などでは45度の角度で加算していく例を示したが、これに限られず、30度、40度、50度、60度・・・などを自由に選択することができる。この場合において、0度の角度で加算する場合が横方向の加算に相当し、90度の角度で加算する場合が縦方向の加算に相当する。このように、本発明では、異なる方向の輝度の加算値を2以上組み合わせて用いることで、画面停止を含む放送事故の判定を効率的に行なうことができる。
なお、実施例では、主に、1ドットずつ画素の輝度を加算していく処理を基本パターンとして記載するが、これに限られるわけではなく、画素の数ビット単位、8ビット単位(バイト単位)、16ビット単位(ワード単位)、32ビット単位(ロングワード単位)など、ある程度のビットを纏めて輝度を加算するようにしても良い(図2−4−1ないし図2−4−2を参照)。そうすることで、より少ないデータで画面停止などの判定をすることができることになる。
図2−4−1は、画素の数ビット分、バイトやワード等の纏まった単位で輝度を加算する場合の概念図であって、縦方向に輝度を加算する場合の例である。同様に、図2−4−2は、画素の数ビット分、バイトやワード等の纏まった単位で輝度を加算する場合の概念図であって、横方向に輝度を加算する場合の例である。
より具体的には、まず、(イ)縦方向の輝度の加算に際しては、まず、最上段の数ビット分の輝度を加算して、輝度の加算値を得て、次いで、1段下の数ビット分の輝度を加算して、最上段の輝度の加算値にさらに加算する、・・・をくり返して、最下段の数ビット分の輝度の加算値の総和である総加算値を求める。これを1画面分行なって、縦方向の輝度の加算値を得る。このようにして得た縦方向の輝度の加算値は、1画素毎に輝度を加算した情報と比べて、かなり小さい情報になっていることが分かる。
同様に、(ロ)横方向の輝度の加算についても、数ビット分又はバイトやワード等の纏まった単位で輝度の加算値を算出することができる。
次に、再度、図2−1および図2−2の放送事故検出部500の機能ブロック図に戻って、基本パターンである、1ドットずつ画素の輝度を加算していく処理の説明を続ける。
算出した1ライン分の加算値は、それぞれ記憶部のラインバッファ(図示せず)などに一時記憶しておいても良い。
ここで、輝度とは、1画素のRGBの数値から、所定の計算式を用いて算出される数値である。例えば、輝度=0.299×R+0.587×G+0.114×Bなどで表される。より具体的には、RGBの値として、0〜255の値を取った場合、RGB=(255、255、0)の輝度は227となる。
なお、横方向、縦方向、斜め方向の3つの方向の加算値全てが必要なわけではなく、少なくとも2方向の輝度の加算値を利用すれば足りる。例えば、斜め方向は利用せずとも、後述する判定待ち時間の調整(数秒とか数十秒などの、ある程度長い待ち時間に設定する等)や、判定部の処理の調整により、十分な判定精度が得られる。
次に、横方向加算値差分検出部、縦方向加算値差分検出部、および必要に応じて斜め方向加算値差分検出部で構成される差分検出部530が、画像データ(t)と画像データ(t+Δt)の各方向のライン値の加算結果の差分を算出する。
判定部540は、横方向、縦方向、斜め方向の各方向のライン毎に算出した輝度の加算結果を、判定辞書及び判定アルゴリズムを参照して時間差で抽出した画像データ毎の加算値の変化が、所定の幅に収まっているかを判定して、一定時間所定の幅に収まっていれば、画面フリーズ(停止)や黒画面(ブラックアウト)などの放送事故の要因となる状態であると判定して、判定結果を出力する。
例えば、輝度の加算結果に一定時間、閾値を超える変化がなければ画面フリーズ(停止)と判断できるし、輝度の加算結果に大きな変化があり、その後もその状態を維持していれば黒画面(ブラックアウト)のように判断できる。なお、本事例では主に放送事故を例に説明しているが、後述のように、動画処理全般に適用可能であり、監視カメラで動きがあるかどうかなど画面の変化を検出することにも利用できる。
図2−2は、辞書とアルゴリズムを利用する放送事故検出部の機能ブロックを示す図である。図2−2は、図2−1の放送事故検出部500の機能ブロック図を、具体的な画像データを用いてイメージ的に理解しやすく記載した図であり、各ブロックの機能については、図2−1と同様である。また、図2−1と同様に、横方向、縦方向、斜め方向の3つの方向の加算値全てが必要なわけではなく、少なくとも2方向の輝度の加算値を利用すれば足りる。
すなわち、本発明によれば、異なる方向の輝度の加算値を2以上組み合わせて用いることで、画面停止を含む放送事故の判定を効率的に行なうことができる。
図2−2では、ライン値加算部520によって、画像データから、各方向の輝度の加算値を算出する様子を図示化している。
例えば、4K動画(横3840×縦2160)を例にとって、横方向に加算する場合には、まず、画像の1番上のライン(3840ドット)について、1ドットずつ輝度を加算していき、1ライン分の合計加算値を算出する。これを、縦方向に2160ライン分順次実行し、合計で2160個の加算値を算出して、横方向の1ライン分の加算値を得る。
同様に、横方向に2160ライン分順次実行し、合計で2160個の加算値を算出して、縦方向の1ライン分の加算値を得る。また、斜め方向に2160ライン分順次実行し、合計で2160個の加算値を算出して、斜め方向の1ライン分の加算値を得ることができる。
ここで、斜め方向に輝度を加算していくとは、図2−2の下部の図に示したように、1ドット右下方向に次々と輝度を加算することをいう。なお、実施例では、右下方向としたが、右上方向や左下方向、左上方向など、様々な角度に加算しても構わない。
各方向の輝度の加算値は、少なくとも2方向で一定の検出性能を確保できるが、3方向を用いることでより精度向上を図ることが可能となる。
例えば、実際には停止していないにも拘わらず、たまたま、2方向(例えば縦方向や横方向)の変化が相殺されて、輝度の加算値が変化しないため、停止していると判定してしまう場合がある。
このような場合に、もう一方の方向(例えば斜め方向)の輝度の加算値を用いることで、3方向のいずれも、たまたま相殺されるということは殆ど無いことから、画像が停止していないことを正確に検出できるので、誤判定を防止することができるという効果を奏する。
これを図10−1、図10−2を用いて、具体的に説明する。
図10−1は、所定の画像が横/縦に動いたときに横方向や縦方向の輝度の加算値では検出できないことを示す図である。
図10−2は、斜め方向の輝度の加算値を利用すると画像が縦/横に動いたときでも検出できることを示す図である。
図10−1に示すように、白と黒(0と1)をビット単位あるいは所定の矩形領域単位で、交互にくり返すような画像の場合には、画像が横や上にスライドするように動いた場合、左の画像データが、右の画像データのように変化するが、縦方向の輝度の加算値も、横方向の輝度の加算値も、いずれも変化しておらず、縦方向や横方向の輝度の加算値では、誤って画面停止しているものとして判定されてしまうことが分かる。
例えば、図10−1の(t)の画像データがある場合に、横(右または左)に1画素動いたときは横方向及び縦方向の加算値のいずれも「3」になり、横に画素情報が変化したことを検出できない。しかし、横方向及び縦方向の加算値を奇数ビット毎と偶数ビット毎に分けて加算値を算出した場合は、(t)の画像データの加算値が奇数ビットの加算値「0」、偶数ビットの加算値「3」に対し、(t+Δt)の画像データの加算値が奇数ビットの加算値「3」、偶数ビットの加算値「0」となり、奇数ビットの加算値が「0」→「3」、偶数ビットの加算値が「3」→「0」に変化しており、画像情報が変化したことを検出できる。
ここで、奇数ビットと偶数ビットとは、画像データの各ピクセル(画素)の並びを見た場合に、横方向であれば、1画素目、3画素目、5画素目・・・を奇数ビットと定義し、2画素目、4画素目、6画素目・・・を偶数ビットと、画素の位置に対応する形で定義したものである。縦方向、斜め方向も、画素の位置に対応するように奇数ビットと偶数ビットを定義する点は同様である。
また、縦(上または下)に1画素動いたときも横方向及び縦方向の加算値のいずれも「3」になり、横に画素が動いたことを検出できません。しかし、横方向及び縦方向の加算値を奇数ビット毎と偶数ビット毎に分けて加算値を算出した場合は、(t)の画像データの加算値が奇数ビットの加算値「0」、偶数ビットの加算値「3」に対し、(t+Δt)の画像データの加算値が奇数ビットの加算値「3」、偶数ビットの加算値「0」となり、奇数ビットの加算値が「0」→「3」、偶数ビットの加算値が「3」→「0」に変化しており、画像情報が変化したことを検出できる。
よって、図10−1では横方向全体や縦方向全体の輝度の加算値では検出できないが、横方向全体や縦方向全体で加算するのではなく、奇数ビット毎の加算値と偶数ビット毎の加算値を算出し、比較することで奇数ビットと偶数ビットの輝度加算値が変化していることが分かるので、上記斜め方向の輝度の加算値の検出と同様に誤判定を回避できる。斜め方向についても輝度の加算値で誤判定を回避できない時は、横方向や縦方向と同様に斜め方向全体ではなく、奇数ビット毎と偶数ビット毎に加算値を算出して比較することで、同様に誤判定を回避することができる。
他方、図10−2に示すように、斜め方向の輝度の加算値を用いると、白と黒(0と1)をビット単位あるいは所定の矩形領域単位で、交互にくり返すような画像が縦や横に移動するような場合でも、輝度の加算値が変化していることがわかる。例えば、図10−2の破線で囲った領域の斜め方向の輝度の加算値は、左側の画像では「3」だったに対し、画像が移動した後の右側では「0」になっており、変化として表われている。このため、斜め方向の輝度の加算値を用いると、例示した所定の画像の場合でも、画面停止しているといった誤判定を回避できることが分かる。
すなわち、画像パターンによっては、縦方向や横方向の輝度の加算値では画面停止しているかどうか分からないのを、斜め方向の輝度の加算値を利用することで判定できるようになることが分かる。
なお、図10−1、図10−2に例示した、白と黒をビット単位あるいは所定の矩形領域単位で、交互にくり返すような画像は典型例であって、これに限定されるわけではなく、似たような画像パターンが連続するような場合や、通常の画像でも偶然に縦方向や横方向の輝度の加算では変化を打ち消すような画像パターンになった場合には、斜め方向の輝度の加算値を利用することで、画像停止か否かを確実に判定することが可能となる。
このように、4K動画(横3840×縦2160)の各フレームの画像(829万4400ドット分)をそのまま記録して判定する従来の方式に比べて、横方向(2160ドット分)、縦方向(3840ドット分)、斜め方向(3840ドット分)の3つのライン分のデータ量(合計で9840ドット分)で済むため、約830分の1のメモリで足り、高速なフレームメモリを用意しないで済むという効果がある。
また、小さなデータ量を演算すれば良いので、FPGAなどの高価なハードウェアを用いずとも、システムに通常搭載するCPUとRAMなどのワークメモリによる処理で、一定時間内に済ますことができる。
なお、このように、元の情報量の大きな画像データから、画面フリーズ(停止)や黒画面(ブラックアウト)などの判定するために必要最小限のデータにすることを、以後、次元削減と呼ぶことにする。
図4は、本発明の画面フリーズ(停止)や黒画面(ブラックアウト)などの放送事故の要因となる状態であると判定する処理のフローチャートである。
まず、画像データ抽出部510により、所定の時間間隔(Δt)をおいて、画像データ(t)および画像データ(t+Δt)を取得する(ステップS4−1)。
次に、ライン値加算部520が、情報量を削減するために、次元削減処理を行なう。前述のように、次元削減処理の一例として、一定の時間間隔(Δt)をおいて取得した画像データ(t)および画像データ(t+Δt)に対して、画像データの輝度の値を、縦方向、横方向、斜め方向にそれぞれ加算した結果を算出する。なお、加算値の算出については、各方向全体の輝度の加算値でもよいし、各方向の奇数ビット毎、偶数ビット毎の輝度の加算値でもよい。
この場合、奇数ビットの(t)と(t+Δt)の輝度の加算値を比較した結果(イ)と、偶数ビットの(t)と(t+Δt)の輝度の加算値を比較した結果(ロ)のいずれかを判定することとしても良い(この場合は、より少ない演算で済む)。
また、(イ)と(ロ)の両方を加味して判断することでより精度を向上させることもできる。例えば、比較した結果(イ)が変化していなくても、比較した結果(ロ)が一定の閾値を超えて変化していれば、画面停止とは判断しない等である。
各方向の輝度の加算値は、ラインバッファに保存するようにしても良い。次に、各方向の輝度の加算値を用いて、差分検出部530が、ラインバッファに保存した画像(t)と画像(t+Δt)の各方向のライン値の加算結果の差分値を算出する。(ステップS4−2)。
ステップS4−2により算出した加算結果の差分値を判定部540に入力し(ステップS4−3)、判定部540で後述する判定処理を行なう(ステップS4−4)。
判定部540では、各方向のライン値の加算結果の差分値が一定の範囲にあるかどうかを、一定の時間間隔毎に判定し続け、1秒以内とか、数秒〜数十秒等の所定の待ち時間が経過したかどうかで放送事故かどうか判定する(ステップS4−5)。所定の待ち時間が経過していない場合はS4−1に戻る(ステップS4−5No)。所定の待ち時間が経過している場合はS4−6に進む(ステップS4−5Yes)。
一定の時間間隔で取得した各方向のライン値の加算結果の差分値が、所定の待ち時間内で、一定の範囲内にあると判定した場合には、画面フリーズ(停止)や黒画面(ブラックアウト)などの放送事故であると判定し、それ以外は正常動作であると判定する。
放送事故と判断した場合は、判定結果を通知する(ステップS4−6)。
図5−1は、横方向の加算と差分値の算出処理のフローチャートである。
画像の横方向ラインの端から1ピクセル毎に輝度値に変換しながら累積加算し、画像毎の横方向ラインの累積加算値を累積加算値保存部に保存する(ステップS5−1−1)。ステップS5−1−1で累積加算処理を行なった横方向ラインと累積加算値保存部から読み出した前画像の同横方向ラインを比較し(ステップS5−1−2)、差分値を出力する(ステップS5−1−3)。
図5−2は、縦方向の加算と差分値の算出処理のフローチャートである。
画像の縦方向ラインの端から1ピクセル毎に輝度値に変換しながら累積加算し、画像毎の縦方向ラインの累積加算値を累積加算値保存部に保存する(ステップS5−2−1)。ステップS5−2−1で累積加算処理を行なった縦方向ラインと累積加算値保存部から読み出した前画像の同縦方向ラインを比較し(ステップS5−2−2)、差分値を出力する(ステップS5−2−3)。
図5−3は、斜め方向の加算と差分値の算出処理のフローチャートである。
画像の斜め方向ラインの端から1ピクセル毎に輝度値に変換しながら累積加算し、画像毎の斜め方向ラインの累積加算値を累積加算値保存部に保存する(ステップS5−3−1)。ステップS5−3−1で累積加算処理を行なった斜め方向ラインと累積加算値保存部から読み出した前画像の同斜め方向ラインを比較し(ステップS5−3−2)、差分値を出力する(ステップS5−3−3)。
なお、各方向の加算値の算出及び差分値の算出処理は、3方向全て使う場合の判定精度が最も高いが、いずれかの方向のうち少なくとも2つの方向を用いれば、実用レベルの判定精度を出すことができる。すなわち、異なる方向の輝度の加算値を2以上組み合わせて用いることで、画面停止を含む放送事故の判定を効率的に行なうことができる。
図6は画面フリーズ(停止)や黒画面(ブラックアウト)などの放送事故かどうかを判定する判定処理のフローチャートである。
放送事故の判定は、縦方向、横方向、斜め方向の各ラインの差分値が一定の範囲内にあるかどうかを、1秒以内とか、数秒〜数十秒等の所定の待ち時間の間、監視することで行なう。
各ラインの差分値が一定の範囲内にあるかどうかは、後述する判定辞書を読み出し、縦方向、横方向、斜め方向の各ラインの差分値を判定辞書の閾値と比較することで行い、一定の短い時間間隔で取得した画像について、その短い時間間隔での画像停止の可能性を判定する(ステップS6−1)。
判定辞書の閾値と比較処理は、(1)各ラインの平均値が一定の閾値以内かどうかや、(2)各ラインの数値の分布が、一定のパターンに合致しているかを判定する。各ラインの数値の分布が、一定のパターンに合致しているかの例として、例えば、各ラインの差分値はそれなりにあるが、縦方向はこういう数値の分布だけど、横方向や斜め方向の分布はこういう数値で分布する場合は、画面停止の可能性有り、というのを学習辞書として登録しておき、学習辞書と比較する等の方法により判定を行う。
ステップS6−1により判定した結果が画像停止の可能性が高いかを判定し(ステップS6−2)、画像停止の可能性が低い場合にはステップS6−3へ進み、画像停止の可能性が中以上の場合はステップS6−4に進む。
ステップS6−2で画像停止の可能性が低い場合は、放送事故未発生と判定する(ステップS6−3)。
また、画像停止の可能性が中以上の場合は放送事故の可能性があるので、この状態がどのくらい継続するのかを測定するために時間計測を開始する(ステップS6−4)。
放送事故の可能性中以上が一定時間継続しているかを監視し(ステップS6−5)、放送事故の可能性中以上が一定時間継続している場合は、放送事故発生と判定する(ステップS6−7)。
放送事故の可能性中以上が一定時間継続しなかった場合は、時間計測をクリアし(ステップS6−6)、放送事故未発生と判定する(ステップS6−3)。
図7−1、図7−3は各方向の1ラインの差分値の平均値を判定する場合の画像停止の可能性を判定するための検出閾値及び判定辞書で、図7−1は3方向で判定する場合で、図7−3は2方向で判定する場合の例である。レベルの数値が大きいほど、輝度の加算値の差が小さくなる(判定の検出閾値が厳しくなる)方向にセットされている。各方向の1ラインの差分値の平均値とは、各方向の1ラインの差分値((t)と(t+Δt)の輝度の加算値の差分)を一定時間計測したものの平均値である。なお、1ラインの加算値ではなく、奇数ビット毎、偶数ビット毎に加算値を算出する場合には奇数ビット、偶数ビットのうち輝度の加算値の大きい方を差分値として判定に利用してもよいし、平均値ではなく、奇数ビットの差分値の平均値と偶数ビットの差分値を算出し、奇数ビットの差分値と偶数ビットの差分値の合計を判定に利用してもよい。例えば、図10−1の場合だと、1ラインの加算値で画像停止の判定を行った場合は、実際には画像停止していても差分値が0のままで、検出できないケースがでてくるが、奇数ビットと偶数ビットに加算値を分けて行う場合は、奇数ビットの差分値と偶数ビットの差分値を別々に算出し、その合計値を一定時間計測し平均値を求めることで、画像停止の判定を検出することができる。このように奇数ビット、偶数ビットの加算値をうまく検出に利用することで、図7−3のように2方法の判定でも画像停止の判定を高精度に行うことができる。
検出閾値及び判定辞書は、「ある方向の輝度の加算値の差分が大きい場合でも、別の方向の差分が所定の範囲内に収まっているような場合には、画像が停止している可能性がある等」、各方向の輝度の加算値の差分の傾向に一定のパターンがあるので、これを辞書化したものである。
具体的には、縦方向、横方向、斜め方向の各方向の検出閾値のレベル(0、1、2、3等の数値)を総合的に判断できるように、どのような検出閾値のパターンになれば、画像停止の可能性が中以上と判定できるかといった、検出閾値のレベルのパターン(全ての方向でレベル2以上、1方向がレベル3以上かつ2方向がレベル1以上、2方向がレベル1以上かつ1方向がレベル5以上等のレベルパターン)を登録している。
なお、画像停止の可能性の判定は、3方向で判定する場合の他、2方向のみで判断することもできる。その場合、図7−1の判定辞書の項番2は、図7−3の項番2のように「1方向がレベル1以上(かなり変化)、かつ1方向がレベル4以上(殆ど変化せず)」と置き替えることになる。
詳細には、項番1が「全ての方向の差分がある程度小さい場合(輝度の加算値の差が5以下)」であり、項番2が「2方向の差分はそれなりに大きいが(輝度の加算値の差が7以下)、1方向の差分がかなり小さい場合(輝度の加算値の差が3以下)」であり、項番3が「1方向の差分はかなり大きいが(輝度の加算値の差が7以下)、1方向の差分がある程度小さく(輝度の加算値の差が5以下)で、1方向の差分がかなり小さい場合(輝度の加算値の差が3以下)」のいずれかに該当すれば、画像が停止している可能性が中程度であると判定する内容となっている。
なお、画像停止の判定辞書のパターンおよび各方向の検出閾値は一例であって、学習によって最適値が決定される。
このように、本発明によれば、従来技術(特許文献1の実施例2)のように、1方向の輝度の加算値の差分(交差)が0となるような場合に限定して、画像停止の可能性を判定できるに留まらず、縦、横、斜め方向の輝度の加算値の差分を総合的に判定することや、輝度の加算値の差分にも一定の幅を許容した上で、そのパターンを総合的に判定して、画像停止の可能性を判定できるようにした。
このため、例えば、画像が完全に停止したような場合だけでなく、画像が上下や左右に振動するような停止モード(画面ブレ)なども放送事故として判定することができる。
画面が上下方向に振動する停止モードの場合、縦方向の輝度の加算値は、前後のフレームで殆ど変動しないのに対し、横方向の輝度の加算値は、上下に数ドット程度ずれて、また元に戻るような動きをくり返すので、かなり変動することになる。このため、縦方向と横方向の少なくとも2方向の輝度の加算値を比較することで検出可能となり、その際の画像停止の判定辞書の項番2などで画像停止している可能性が中程度以上と判定することができる。
検出閾値と判定辞書は、学習によって更新することができる。例えば、大量の学習データ(所定の時間間隔をおいた画像データのペア)と放送事故発生の有無に関する情報とのセットを得て、検出閾値と放送事故発生の頻度情報と紐付けたり、判定辞書の所定の画面停止の可能性のパターンが使われた際のパターンと放送事故発生の頻度情報とを紐付けておき、一定の頻度以上になったときに、検出閾値や判定辞書の所定の画面停止の可能性のパターンを更新することで学習処理を行なうことができる。
そして、この学習処理は、撮影装置100で大量の画像データ(ビッグデータ)を出力させて学習データと放送事故発生の有無に関する情報とのセットを得ることができるので、判定の精度を益々向上させることができる。
図7−2は各方向の1ラインの差分値をそのまま使って、差分値のパターンがどういう傾向を示すかによって判定する場合の、画像停止の可能性を判定するための判定辞書である。
例えば、横方向の差分値(横)が小さな値を示していても、縦方向の差分値(縦)において一部にやや大きな変化傾向を示しており、斜め方向の差分値(斜)でも均一にある程度の変化がある場合には、横方向の差分値(横)が、たまたま画像パターンの性質によって、差分が小さくなるように相殺される画像データであると判定し、画像が停止している可能性が低いと判定するような辞書が登録されている。
なお、図7−2のパターンがどういう傾向を示すかによって判定する判定辞書は、差分の値の変化傾向や変化の幅を示すような、差分の値をそのまま各方向分のラインについて辞書にしたものであってもよいし、各方向の差分の値を機械学習して、各方向の差分値がある変化傾向を示す場合に画面停止の可能性を出力する機械学習モデルであってもよい。
検出結果の出力は、動画の画像データ上に、検出結果である画像の変化(輝度の差分)の値を表示するようにすることもできる。図9−1から図9−3は、人が体操をする様子を撮影した動画に対し、動きのある部分を画像の変化として検出して、輝度の加算値の差分値を表示した様子を示す図である。
図9−1は検出状況(結果)のうち水平方向検出結果を目視化した例である。
同様に、図9−2は検出状況(結果)のうち垂直方向(縦方向)検出結果を目視化した例であり、図9−3は検出状況(結果)のうち水平方向と垂直方向(縦方向)を合わせて水平垂直方向の検出結果を目視化した例である。
図9−1によれば、肩や腕を振る動きなど、動画の画像データで動きの大きい部分に対し、水平方向の差分値の大きさを示すラインが表示されていることが分かる。同様に、図9−2によれば、体軸を傾ける動きなど、動きの大きい部分に対して垂直方向の差分値の大きさを示すラインが表示されていることが分かる。また、図9−3によれば、水平方向および垂直方向(縦方向)を合わせて、動画の画像データで動きの大きい部分に対し、それぞれの差分値の大きさを示すラインが示されていることが分かる。
なお、ラインが太く見える箇所は、差分を示すラインが多く集中していることを示しており、(動きの大きさに相当する)差分値がそれだけ大きいことを示しており、視覚的に動きが大きい箇所を見える化している。
また、差分値の値に応じて、ラインの太さを変えるほか、ある一定以上の差分値でないとラインを表示しないようにしても良い。この差分値の閾値を変えることで、実際の動画で画像が停止している場合などの実例と、判定処理における差分値の検出結果との対応関係を検証することができ、差分値の判定辞書を更新することにより、判定の精度を向上させていくことができる。
さらに、例えば、検出閾値のレベルをボリューム(UI)などで可変できるようにして、ボリューム(UI)に連動させて、図7−1の判定辞書のレベルに任意に可変し、実際の動画を見ながら、対応する判定辞書の検出閾値を、丁度良い判定レベルに調整するようにしても良い。
(実施形態1の変形例)分割領域毎の各方向の輝度の加算値の利用
以上、1画面の全体について各方向の輝度の加算値を算出する例を説明したが、1画面を複数の部分領域に分割して、部分領域毎に各方向の輝度を算出するようにしても良い。
例えば、図2−3は、分割領域毎に輝度の加算値を利用する場合の様子を示す図である。
図2−3では、1画面を9個の部分領域に分割した例を示している。
B1、B2、B3、・・・とそれぞれの分割領域毎に、縦方向、横方向、斜め方向の輝度の加算値を生成して、部分領域毎の輝度の加算値の差分の傾向を考慮して、画面停止の可能性の判断を行なう。
図8は画面を分割して判定する場合の判定辞書である。
画面停止の可能性の判断は、例えば、図8のように、画面を分割して判定する場合の判定辞書を用いて行なう。分割領域のいずれか1個が図7−1又は図7−3のいずれかの項番に該当する場合(例えば、B1が図7−3の項番1に該当する等)には、画面停止の可能性が低いと判断するものの、分割領域のいずれか2個が図7−1又は図7−3のいずれかの項番に該当する場合(例えば、B1とB3が図7−3の項番1に該当する等)には、画面停止の可能性が中程度と判断する。
あるいは、図示しないが、分割領域の複数が図7−1又は図7−3のいずれかの項番に該当する場合において、その分割領域どうしの位置関係に応じて、画面停止の可能性を判定するようにしても良い。
例えば、隣り合う分割領域どうしが図7−1又は図7−3のいずれかの項番に該当する場合には、画面停止の可能性が低くなる方向に判断したり、逆に、離れた分割領域どうしが図7−1又は図7−3のいずれかの項番に該当する場合には、画面停止の可能性が高くなる方向に判断する等である。
このように、分割領域毎に、画面停止の可能性を判断するようにすれば、きめ細かい判断が可能となる。
(実施形態2)
以上、辞書とアルゴリズムを利用した実施形態(実施形態1)について説明したが、放送事故検出部500は、機械学習を利用する実施形態(図3−1および図3−2)を採用することができる。
なお、図2−3で示したように、部分領域毎に、各方向の輝度の加算値を利用するようにしてもよいし、図2−4−1ないし図2−4−2で示したように、数ビットとかバイト毎等に纏めて加算して、さらなる次元圧縮を行なうようにしても良い点は、実施形態1と同様である。
機械学習を利用した放送事故検出部500の機能概略について、図3−1および図3−2の放送事故検出部500の機能ブロック図を元に説明する。
図3−1および図3−2は、機械学習を利用する放送事故検出部の機能ブロックを示す図である。図2−1と図2−2が辞書とアルゴリズムを利用する放送事故検出部500の機能ブロックを示す図であるのを、機械学習に置き換えたものである。
まず、画像データ抽出部510により、動画から、一定の短い時間間隔(t、t+Δt)で取得した画像を用いる点、および、横方向加算値生成部、縦方向加算値生成部、および必要に応じて用意される斜め方向加算値生成部により構成されるライン値加算部520により、各画像の各方向の輝度の加算値を算出して用いるところまでは、辞書とアルゴリズムを利用する実施形態1と同様である。
実施形態2で実施形態1と異なるのは、輝度の加算値から、一定の時間間隔(t、t+Δt)の差分を算出せずに、各方向の輝度の加算値をそのまま、学習器(機械学習モデル)に入力する点である。
すなわち実施形態2においては、ベクトルデータ生成部532により、一定の時間間隔(t、t+Δt)について算出した各方向の輝度の加算値をそのまま並べたベクトル形式のベクトルデータを生成し、判定部(機械学習モデル)542の学習器に入力する。
図3−2の機能ブロック図は、図5−1の機能ブロック図のうち、ライン値加算部520の処理内容および、ベクトルデータ生成部532の処理内容を具体的に記載したものである。
図3−2によれば、ライン値加算部520により、個々の画像データから、各方向の輝度の加算値を算出する部分は、図2−2と同様である。
これにより、例えば、4K動画(横3840×縦2160)の場合、横方向に加算して、まず、2160ドットの1ライン分の画像データ(t)のベクトルデータを得る。同様に、画像データ(t+Δt)の横方向の加算値のベクトルデータを得て、それを一列に並べて、2160×2=4320次元の横方向の輝度の加算値のベクトルデータを生成する。
以降、縦方向、必要に応じて斜め方向について、それぞれベクトルデータを生成し、それらを全て一列に並べたベクトルデータを生成する。
4K画像の場合で3方向全ての輝度の加算値を利用する場合は、横方向(2160×2)+縦方向(3840×2)+斜め方向(3840×2)=19680次元のベクトルデータが生成される。
ここで、仮に、4K動画(横3840×縦2160)の各フレーム毎の画像(829万4400ドット分)をそのまま機械学習モデルに入力する場合には、機械学習モデルの入力層で、829万4400次元の人工ニューロンを配置しなければならず、中間層で次元削減するような仕組み、例えばCNN(畳み込みニューラルネットワーク)を用いたとしても、相当な規模の機械学習モデルが必要となり、膨大な学習データ、学習時間を必要としたり、結果を判定するのにFPGAなどのハードウェアを必要とする。
これに対し、本願発明のように、4K画像の場合で3方向全ての輝度の加算値を利用する場合でも、19680次元に次元削減されたデータで済むので、小規模な機械学習モデルで済み、学習データや学習時間も少なくて済み、結果を判定する際にも、CPU処理で実用になるという効果がある。
生成したベクトルデータ(学習データ)は、判定部(機械学習モデル)に、その学習データがどういう状態であるかの正解値(画面停止の可能性が低いのか/中以上なのかといった状態、あるいは画面停止/正常といった状態、その他の画面停止の可能性に関する状態)を示す教師データ(ラベルともいう)とセットで入力し、学習処理が行なわれる。
ここで、判定部(機械学習モデル)としては、ニューラルネットワーク、ディープニューラルネットワーク(深層学習モデル)、サポートベクターマシン(SVM)、クラスタリングなどが考えられるが、何らかの機械学習モデルであれば足り、限定されない。
説明の便宜のため、以下、主に、ニューラルネットワークないしその一類型であるディープニューラルネットワーク(深層学習モデル)を利用した場合について説明する。
ニューラルネットワークにおいても、コンピュータを所定の入力に対する出力を演算する演算部として機能させる点は、辞書やアルゴリズムを利用した場合と同様であり、CPUおよびメモリなどのハードウェア資源を用いて実現される。
ニューラルネットワークは、多くの実例(学習データと正解値である教師データのセット)を学習させることによって、予め多数の事例を解析した上で、人手で設計した特徴辞書を用いなくても、画面フリーズや黒画面(ブラックアウト)などの放送事故の要因となる状態(輝度の加算値の変化傾向)の特徴を、学習データから自動的に抽出して、精度の高い放送事故の判定を行うことができる。
深層学習モデルでは、図3−2の右側に図示したように、○印で示した人工ニューロンを、入力層、中間層(2層以上のものをディープニューラルネットワークという)、出力層にそれぞれ配置して、人の脳の構造を模した、人工ニューロン間の接続の重み付け(パラメータ)を学習によって更新していく仕組みを採用している。
人工ニューロン間の重み付け(パラメータ)は、学習する前の段階では、初期値として一定の幅を持つ乱数がセットされるが、学習データに対して機械学習モデルが出力した値と、その学習データに対する正解値である教師データとの差分を少なくするように学習させることで、次第に、輝度の加算値の変化傾向の特徴を把握できるように、更新されていき、画像が停止しているかどうか等の判断結果を正確に出力できるようになっていく。
このように、ニューラルネットワークにおける各層の人工ニューロン間の重み付け(パラメータ)は、輝度の加算値の変化傾向の特徴を、各層毎に表現したものとなり、ニューラルネットワーク全体として、輝度の加算値の変化傾向の特徴抽出および放送事故の判定結果出力用のニューラルネットワークとして機能させることができる。
なお、ニューラルネットワークの構成としてCNN(畳み込みニューラルネットワーク)を用いた場合には、人工ニューロン間の接続の重み付け(パラメータ)は、畳み込みフィルタの値に置き換えられる。
学習データと対になる教師データが豊富にあれば、人工ニューロン間の接続の重み付け(ないし特徴抽出用のフィルタの重み付け等)の精度が向上し、次第に、与えられたデータに対する判定精度が向上する性質を有している。
なお、ある層の人工ニューロンと、次の層の人工ニューロンとは、全部が接続された態様(全結合)と疎に結合された態様(疎結合)とがあるが、各層の役割に応じて柔軟に選択可能である。実験では、入力層から中間層の間および中間層どうしの間をCNN(疎結合の一種)で接続し、最後の中間層と出力層の間を全結合として、有効な判定結果を出力可能な深層学習モデルを構築している。
前の層の複数の人工ニューロンからの出力は、それぞれ適当な重み付けとバイアス(パラメータ)を付与した上で積和演算した上で、次の層の人工ニューロンに入力する。次の層の人工ニューロンでは、それらの積和演算の結果に対し、さらに伝達関数と呼ばれる関数で演算した結果を出力する。
伝達関数としては、非リニアな特性を有するシグモイド関数(1/(1+exp(-x)))やリニアな特性を有するランプ関数(ReLU)などを用いることができる。
なお、入力層〜中間層全て〜出力層までの全層を用いた学習処理の前に、教師無し学習の一種である自己符号化器(オートエンコーダ)と呼ばれる構成を利用して、(初期値が乱数である)重み付け等のパラメータをある程度学習させるためのプレトレーニング(事前学習)を行なうこともできるが、伝達関数としてランプ関数(ReLU)を用いた場合には、重み付け等のパラメータの更新が、出力層に近い中間層ではうまくいくが、入力層に近いところまでうまく伝搬されないという、全層学習での(各層での偏微分をベースとした)逆誤差伝搬法(バックプロパゲーション法)を用いた場合の勾配消失問題は発生しないので、自己符号化器を用いても用いなくても良い。
なお、伝達関数としてシグモイド関数を用いる場合には、全層学習での教師有り学習の一種である(各層での偏微分をベースとした)逆誤差伝搬法(バックプロパゲーション法)を用いた場合、勾配消失問題が発生するので、これを解消するために自己符号化器を用いることが多い。
ここで、CNNにおいては、数種から数十種の畳み込みフィルタ(3×3〜5×5ビット等の構成を用いることが多いがこれに限定されない)を用いて、様々な特徴パターンを抽出できるようにしており、学習処理では、この畳み込みフィルタの値(重み付けの値)を学習するようにしてもよい。
深層学習モデルを利用した場合、学習処理のアルゴリズムは、種々考えられるが、生成したベクトルデータ(学習データ)を学習器に入力して得られた出力と、正解値である教師データとの差分を、一定の関数(誤差関数と呼ぶ)で表現して、誤差関数を最小化するような学習処理が考えられる。
誤差関数は、二乗平均誤差を算出する関数を用いるがこれに限られない。
誤差関数を最小化するような学習処理としては、前述のような誤差逆伝搬法(バックプロパゲーション法)を用いるが、これに限定されず、勾配降下法など各種の学習アルゴリズムを用いることができる。
学習データとしては、撮影装置100で撮影した大量の動画(画像データが連続したもの)を用いることができる。
また、所定の時間間隔(Δt)をおいた画像データ同士の関係が、「正常」あるいは「画像停止や黒画面」などの放送事故に関する事象に関連するかどうかの教師データ(ラベルや正解値ともいう)も、動画を確認しながら、容易に得ることができる。
このため、大量の学習データ(所定の時間間隔をおいた画像データのペア)と放送事故発生の有無に関する教師データとのセットを得ることができ、いわゆるビッグデータを活用した学習処理を行なうことができる。
学習処理が進むと、人工ニューロンどうしの間の接続の度合いを決める「重み付けの値」(パラメータ)が更新されていき、次第に、深層学習モデルが出力する判定結果と、正解である教師データとの差分(誤差関数)が小さくなった時点で学習を終了させる。
本発明の学習済み機械モデルは、一例として、上記のようなニューラルネットワークに対して次元削減した学習データを用いた学習処理によって構築されるため、予め特徴辞書を設計する必要がない。
また本発明によれば、画像データに対し大幅に次元削減した学習データを用いることで、比較的小さな機械学習モデルで済み、引いては、少ない学習データ(と教師データのセット)、及び少ない学習時間で構築することができ、放送事故の要因となる状態(輝度の加算値の変化)の検出を的確に分析することができる学習済み機械モデルを提供することができる。
また、画像データに対し大幅に次元削減した学習データをベクトル化して用いることで、ニューラルネットワークを始め、サポートベクターマシン(SVM)、クラスタリングなどの様々な機械学習モデルを利用して、放送事故の判定を精度良く行なうことができる。
このように、図3−1や図3−2に示すような深層学習モデルなどの機械学習モデルを用いることで、学習データと教師データのセットが豊富にあれば、いちいち辞書を作成しないで済み、むしろ、人が気がつかないような、各方向の輝度の加算値の変化傾向のパターンの特徴が、機械学習モデルの重み付け(パラメータ)として刻み込まれ、相当に練られた辞書やアルゴリズムと同等以上の判定処理を行なうことが可能となる。
すなわち、上記のようなビッグデータを活用した学習によって、放送事故に関する判定部(機械学習モデル)542が益々賢くなり、放送事故に関する判断基準を、学習した大量の動画の性質に応じて最適化するように変化させることが可能になる。
機械学習モデルの判定器の出力は、所定の時間間隔(t、t+Δt)で取得した画像データを用いた判定結果であるので、所定の時間間隔における画像停止の可能性の判定(図6のステップS6−1〜S6−2)に相当するものとして利用することができる。なお、機械学習モデルを利用する場合、図6のステップS6−1で利用している判定辞書が不要となる点は前述したとおりである。
なお、機械学習モデルを利用する場合には、動画の画像データを学習データとして抽出しながら、所定の時間間隔(Δt)で取得した画像データのペアに対応する教師データの作成する際に、図9−1〜図9−3の仕組みを利用することができる。
すなわち、その時の差分値の値に応じて表示されたラインを見ながら、適宜、明らかに画像停止している場合や、目視で判断が微妙な場合など、様々なパターンの画像データについて、その際の画像データを取得すると共に、教師データとして、画像停止している可能性を入力するという利用も可能である。
(実施形態3)
以上、画像停止を含む放送事故の判定を例に説明したが、本発明の画面停止等の判定処理は、動画処理全般に適用可能である。例えば、テレビ放送の他、動画のネット配信サービス、ビデオ・オン・デマンドにも適用できる。
また、リアルタイムないしインタラクティブ(対話または双方向)なアニメやゲーム画面の画面停止等の判定、あるいはゲームの開発過程におけるデバッグ作業にも用いることができる。
特に、サーバー上で、大量のユーザー同士がインタラクティブにゲームを進行させる場合に、本発明のように、少ない処理量で画面停止等の判定が可能な技術は、サーバーの負荷を低減させることができる点で有用である。
(実施形態4)
また本発明は、監視カメラで動きがあるかどうかを判定するのにも用いることができる。例えば、図6のフローチャートでは、画面停止の可能性を判定するステップがあるが(ステップS6−2)、動きがあるかどうかを判定する場合には、画面が動いたかどうかを判定するステップに置き換えることで、本発明を監視カメラにも適用することができる。
この場合において、ステップS6−4およびステップS6−6では、画面が停止している可能性がある場合に(ステップS6−4)、一定時間待つ処理(ステップS6−5、S6−6)を行なっているが、監視カメラで動きがある場合を検出する際には、これらのステップを、画像の動きがあるかどうか(所定の方向の輝度の加算値の差分が一定の閾値を超えたかどうか)を判定するステップに置き換えることで対応させることができる。
また、監視カメラの用途では、本発明の部分領域毎の判定で、静止している部分を判定して、静止部分を除外した領域を抽出して拡大ズーム等した上で、当該領域の画像データを提示して、オペレータに確認させたり、警告するような用途にも適用することができる。
100 撮影装置
200 放送機器
300 動画処理部
400 放送部
500 放送事故検出部
510 画像データ抽出部
520 ライン値加算部
530 差分検出部
532 ベクトルデータ生成部
540 判定部
542 判定部(機械学習モデル)

Claims (13)

  1. 動画の状態を判定するシステムであって、
    動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、
    所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、
    輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出手段とを備え、
    前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
    を特徴とする動画処理システム。
  2. 請求項1に記載の動画処理システムにおいて、
    前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割する手段と、
    当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算手段と、
    前記の部分領域画像データ輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出手段と、
    前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
    を特徴とする動画処理システム。
  3. 水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整することが可能となる請求項1または請求項2のいずれか1つに記載の動画処理システム。
  4. 動画の状態を判定するシステムであって、
    動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、
    所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、を備え、
    前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、抽出した画像データに対し次元削減された輝度加算値ベクトルデータを生成し、
    当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習手段とを備え、
    前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定することを特徴とする動画処理システム。
  5. 所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させることで、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする請求項4に記載の動画処理システム。
  6. 請求項1〜5のいずれかに1つに記載の動画処理システムにおいて、
    所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算する手段を備え、
    偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
    を特徴とする動画処理システム。
  7. 動画の状態を判定する方法であって、
    動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、
    所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、
    輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出ステップとを備え、
    前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
    を特徴とする動画処理方法。
  8. 請求項7に記載の動画処理方法において、
    前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割するステップと、
    当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算ステップと、
    前記の部分領域画像データ輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出ステップと、
    前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
    を特徴とする動画処理方法。
  9. 請求項7又は請求項8のいずれかに1つに記載の動画処理方法において、水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整する動画処理方法。
  10. 動画の状態を判定する方法であって、
    動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、
    所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、を備え、
    前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、抽出した画像データに対し次元削減された輝度加算値ベクトルデータを生成し、
    当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習ステップとを備え、
    前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定することを特徴とする動画処理方法。
  11. 所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させるステップをさらに備え、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする請求項10に記載の動画処理方法。
  12. 請求項7〜11のいずれかに1つに記載の動画処理方法において、
    所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算するステップを備え、
    偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
    を特徴とする動画処理方法。
  13. コンピュータシステムにおいて、請求項7から12の動画処理方法を実行するプログラム。

JP2018104975A 2018-05-31 2018-05-31 動画処理装置、動画処理システム、動画処理方法及びプログラム Active JP6524398B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104975A JP6524398B1 (ja) 2018-05-31 2018-05-31 動画処理装置、動画処理システム、動画処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104975A JP6524398B1 (ja) 2018-05-31 2018-05-31 動画処理装置、動画処理システム、動画処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6524398B1 JP6524398B1 (ja) 2019-06-05
JP2019212970A true JP2019212970A (ja) 2019-12-12

Family

ID=66730726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104975A Active JP6524398B1 (ja) 2018-05-31 2018-05-31 動画処理装置、動画処理システム、動画処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6524398B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024095366A1 (ja) * 2022-11-01 2024-05-10 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197479A (ja) * 2000-01-13 2001-07-19 Victor Co Of Japan Ltd 差分画像処理方法および差分画像処理装置
JP2016039508A (ja) * 2014-08-07 2016-03-22 株式会社デンソー 表示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197479A (ja) * 2000-01-13 2001-07-19 Victor Co Of Japan Ltd 差分画像処理方法および差分画像処理装置
JP2016039508A (ja) * 2014-08-07 2016-03-22 株式会社デンソー 表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024095366A1 (ja) * 2022-11-01 2024-05-10 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP6524398B1 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
JP4203736B2 (ja) 画像の動き検出装置及びコンピュータプログラム
CN104966304B (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
CN104240235B (zh) 一种检测摄像头被遮挡的方法及***
EP3104327B1 (en) Anomalous pixel detection
US20060092274A1 (en) Image sensor annotation method and apparatus
US20110135158A1 (en) Image processing device, image processing method and program
JP7124743B2 (ja) 線状体の異常検出装置及び異常検出方法
CN102123235B (zh) 视频插值帧的生成方法及其装置
WO2021181749A1 (ja) 学習装置、画像検査装置、学習済みパラメータ、学習方法、および画像検査方法
JP6758834B2 (ja) 表示装置、表示方法及びプログラム
CN110210530A (zh) 基于机器视觉的智能监控方法、装置、设备、***和存储介质
JP5006479B1 (ja) 動き画像領域判定装置またはその方法
JP2019212970A (ja) 動画処理装置、動画処理システム、動画処理方法及びプログラム
CN113449656B (zh) 一种基于改进的卷积神经网络的驾驶员状态识别方法
KR102547768B1 (ko) 영상 감시 시스템에서의 실시간 이상 상황 탐지 방법 및 장치
CN112907433B (zh) 数字水印嵌入方法、提取方法、装置、设备及介质
JP2015158796A (ja) 物体検出装置
JP5710230B2 (ja) 監視システムおよび監視方法
CN115871679A (zh) 驾驶员疲劳检测方法、装置、电子设备及介质
Ma et al. Weakening the detecting capability of CNN-based steganalysis
CN114596245A (zh) 一种图像重构模型的生成方法和计算机设备
CN115273128A (zh) 皮带机上人的检测方法、装置、电子设备及存储介质
CN113449588A (zh) 烟火检测方法
CN112949490A (zh) 设备动作检测方法、装置、电子设备及可读存储介质
CN117853491B (zh) 基于多场景任务下的少样本工业产品异常检测方法及***

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180906

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180927

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6524398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150