JP2019212970A - 動画処理装置、動画処理システム、動画処理方法及びプログラム - Google Patents
動画処理装置、動画処理システム、動画処理方法及びプログラム Download PDFInfo
- Publication number
- JP2019212970A JP2019212970A JP2018104975A JP2018104975A JP2019212970A JP 2019212970 A JP2019212970 A JP 2019212970A JP 2018104975 A JP2018104975 A JP 2018104975A JP 2018104975 A JP2018104975 A JP 2018104975A JP 2019212970 A JP2019212970 A JP 2019212970A
- Authority
- JP
- Japan
- Prior art keywords
- luminance
- image data
- value
- addition
- predetermined time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
このため、大規模なフレームメモリや、大量の情報を一定時間内に高速に処理して判定処理を行なうためのハードウェア処理が必要となるなど、コストが掛かっていた。
例えば、特許文献1では、複数のラインのデータにおける画素の差分を算出し、差分値が予め定めた閾値以下であった場合は異常と判定するようにしたので、映像静止状態の検出を簡便な回路で達成することができるものであった(実施例1)。あるいは、ライン単位で輝度の加算値を比較することで(実施例2)、比較対象データを少量に抑え、メモリ容量やCPUパワーの削減を可能としていた。
しかし、画像自体がフリーズ(停止)しているにも拘わらず、フレーム毎に、正しく、別々の「識別情報」が振られた場合は、故障モードの検出はできないという不都合があった。その回避策として、第4実施形態では、画素の総和を算出して比較する方法を取り入れているが、画素の総和は変化しないフリーズモードになっている場合、例えば、縦方向や横方向にフレームずれの繰り返し(画面ブレ)を起こした画像に対しては、故障モードの検出が困難であるという課題があった。
そこで本願では、抽出するラインの方向性に工夫をして、より少ないメモリ、より少ないCPUパワーで、画面ブレ等のフリーズモードを含む映像フリーズ(停止)の検出を行なうことを目的とする。
そこで本願では、画素の総和を算出する方向や判定辞書を工夫して、画素の総和の変化が相殺されないようにして、少ない情報で高い検出精度を達成することを目的とする。
第1の発明は、動画の状態を判定するシステムであって、動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出手段とを備え、前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理システムである。
第2の発明は、第1の発明に記載の動画処理システムにおいて、前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割する手段と、当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算手段と、前記の部分領域画像データ輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出手段と、前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理システムである。
第3の発明は、水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整することが可能となる第1の又は第2の発明に記載の動画処理システムである。
第4の発明は、動画の状態を判定するシステムであって、動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、を備え、前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、画像データに対し次元削減された輝度加算値ベクトルデータを生成し、当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習手段とを備え、前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理システムである。
第5の発明は、所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させることで、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする第4の発明に記載の動画処理システムである。
第6の発明は、第1〜5の発明のいずれかに1つに記載の動画処理システムにおいて、所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算する手段を備え、偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、を特徴とする動画処理システムである。
第7の発明は、動画の状態を判定する方法であって、動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出ステップとを備え、前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理方法である。
第8の発明は、第7の発明に記載の動画処理方法において、前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割するステップと、当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算ステップと、前記の部分領域画像データ輝度加算手段によって得た各方向の輝度を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出ステップと、前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理方法である。
第9の発明は、第7又は第8の発明に記載の動画処理方法において、水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整する動画処理方法である。
第10の発明は、動画の状態を判定する方法であって、動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、を備え、前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、画像データに対し次元削減された輝度加算値ベクトルデータを生成し、当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習ステップとを備え、前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定する動画処理方法である。
第11の発明は、所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させるステップをさらに備え、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする第10の発明に記載の動画処理方法である。
第12の発明は、第7〜11の発明のいずれかに1つに記載の動画処理方法において、所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算するステップを備え、偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、を特徴とする動画処理方法である。
第13の発明は、コンピュータシステムにおいて、第7から第12の発明の動画処理方法を実行するプログラムである。
まず、本発明の全体構成を示す機能ブロック図(図1)を元に、システム全体構成の概要を説明する。
撮影機器(動画像生成部(撮影装置)100)は、撮影対象から、動画像データを生成して出力し、放送機器200の動画処理部300に入力される。放送事故検出部500は、この動画像データから適宜画像データを抽出して、画面フリーズや黒画面(ブラックアウト)などの放送事故の要因となる状態を検出して、動画処理部300などに通知する。
本発明の実施の一形態である、辞書とアルゴリズムを利用した実施形態(実施形態1)の機能概略について、図2−1および図2−2の放送事故検出部500の機能ブロック図を元に説明する。
ここで、図2−1および図2−2は、辞書とアルゴリズムを利用する放送事故検出部の機能ブロックを示す図である。機能ブロック図の各部は、システムを制御するCPU(中央処理装置)と、記憶部(図示せず)に記憶されているOS(オペレーティングシステム)やアプリケーションプログラムを適宜読み出して実行することにより、ハードウェアと協働し、各種機能を実行する。
画像データ抽出部510は、この時系列の画像データの1枚を適宜、時間間隔(Δt)をおいて抽出し、例えば、画像データ(t)とΔt時間だけ進んだ、画像データ(t+Δt)を得て、横方向加算値生成部、縦方向加算値生成部および必要に応じて斜め方向加算値生成部などで構成されるライン値加算部520に入力する。
ここで、画像データ(t+Δt)は、画像データ(t)の1フレーム後の連続した画像データであっても良く、数フレーム後の画像データであっても良い。
同様に、縦方向、斜め方向の輝度の加算値を求めて、それぞれ一ライン分のデータを生成する。
斜め方向に加算する場合は、図2−2などで示したように、画像データの左上から右下方向に加算する場合の他、右上から左下方向に加算するようにしてもよい。また、斜め方向に加算する場合は、図2−2などでは45度の角度で加算していく例を示したが、これに限られず、30度、40度、50度、60度・・・などを自由に選択することができる。この場合において、0度の角度で加算する場合が横方向の加算に相当し、90度の角度で加算する場合が縦方向の加算に相当する。このように、本発明では、異なる方向の輝度の加算値を2以上組み合わせて用いることで、画面停止を含む放送事故の判定を効率的に行なうことができる。
なお、実施例では、主に、1ドットずつ画素の輝度を加算していく処理を基本パターンとして記載するが、これに限られるわけではなく、画素の数ビット単位、8ビット単位(バイト単位)、16ビット単位(ワード単位)、32ビット単位(ロングワード単位)など、ある程度のビットを纏めて輝度を加算するようにしても良い(図2−4−1ないし図2−4−2を参照)。そうすることで、より少ないデータで画面停止などの判定をすることができることになる。
より具体的には、まず、(イ)縦方向の輝度の加算に際しては、まず、最上段の数ビット分の輝度を加算して、輝度の加算値を得て、次いで、1段下の数ビット分の輝度を加算して、最上段の輝度の加算値にさらに加算する、・・・をくり返して、最下段の数ビット分の輝度の加算値の総和である総加算値を求める。これを1画面分行なって、縦方向の輝度の加算値を得る。このようにして得た縦方向の輝度の加算値は、1画素毎に輝度を加算した情報と比べて、かなり小さい情報になっていることが分かる。
次に、再度、図2−1および図2−2の放送事故検出部500の機能ブロック図に戻って、基本パターンである、1ドットずつ画素の輝度を加算していく処理の説明を続ける。
ここで、輝度とは、1画素のRGBの数値から、所定の計算式を用いて算出される数値である。例えば、輝度=0.299×R+0.587×G+0.114×Bなどで表される。より具体的には、RGBの値として、0〜255の値を取った場合、RGB=(255、255、0)の輝度は227となる。
なお、横方向、縦方向、斜め方向の3つの方向の加算値全てが必要なわけではなく、少なくとも2方向の輝度の加算値を利用すれば足りる。例えば、斜め方向は利用せずとも、後述する判定待ち時間の調整(数秒とか数十秒などの、ある程度長い待ち時間に設定する等)や、判定部の処理の調整により、十分な判定精度が得られる。
例えば、輝度の加算結果に一定時間、閾値を超える変化がなければ画面フリーズ(停止)と判断できるし、輝度の加算結果に大きな変化があり、その後もその状態を維持していれば黒画面(ブラックアウト)のように判断できる。なお、本事例では主に放送事故を例に説明しているが、後述のように、動画処理全般に適用可能であり、監視カメラで動きがあるかどうかなど画面の変化を検出することにも利用できる。
すなわち、本発明によれば、異なる方向の輝度の加算値を2以上組み合わせて用いることで、画面停止を含む放送事故の判定を効率的に行なうことができる。
例えば、4K動画(横3840×縦2160)を例にとって、横方向に加算する場合には、まず、画像の1番上のライン(3840ドット)について、1ドットずつ輝度を加算していき、1ライン分の合計加算値を算出する。これを、縦方向に2160ライン分順次実行し、合計で2160個の加算値を算出して、横方向の1ライン分の加算値を得る。
各方向の輝度の加算値は、少なくとも2方向で一定の検出性能を確保できるが、3方向を用いることでより精度向上を図ることが可能となる。
例えば、実際には停止していないにも拘わらず、たまたま、2方向(例えば縦方向や横方向)の変化が相殺されて、輝度の加算値が変化しないため、停止していると判定してしまう場合がある。
このような場合に、もう一方の方向(例えば斜め方向)の輝度の加算値を用いることで、3方向のいずれも、たまたま相殺されるということは殆ど無いことから、画像が停止していないことを正確に検出できるので、誤判定を防止することができるという効果を奏する。
図10−1は、所定の画像が横/縦に動いたときに横方向や縦方向の輝度の加算値では検出できないことを示す図である。
図10−2は、斜め方向の輝度の加算値を利用すると画像が縦/横に動いたときでも検出できることを示す図である。
図10−1に示すように、白と黒(0と1)をビット単位あるいは所定の矩形領域単位で、交互にくり返すような画像の場合には、画像が横や上にスライドするように動いた場合、左の画像データが、右の画像データのように変化するが、縦方向の輝度の加算値も、横方向の輝度の加算値も、いずれも変化しておらず、縦方向や横方向の輝度の加算値では、誤って画面停止しているものとして判定されてしまうことが分かる。
例えば、図10−1の(t)の画像データがある場合に、横(右または左)に1画素動いたときは横方向及び縦方向の加算値のいずれも「3」になり、横に画素情報が変化したことを検出できない。しかし、横方向及び縦方向の加算値を奇数ビット毎と偶数ビット毎に分けて加算値を算出した場合は、(t)の画像データの加算値が奇数ビットの加算値「0」、偶数ビットの加算値「3」に対し、(t+Δt)の画像データの加算値が奇数ビットの加算値「3」、偶数ビットの加算値「0」となり、奇数ビットの加算値が「0」→「3」、偶数ビットの加算値が「3」→「0」に変化しており、画像情報が変化したことを検出できる。
ここで、奇数ビットと偶数ビットとは、画像データの各ピクセル(画素)の並びを見た場合に、横方向であれば、1画素目、3画素目、5画素目・・・を奇数ビットと定義し、2画素目、4画素目、6画素目・・・を偶数ビットと、画素の位置に対応する形で定義したものである。縦方向、斜め方向も、画素の位置に対応するように奇数ビットと偶数ビットを定義する点は同様である。
また、縦(上または下)に1画素動いたときも横方向及び縦方向の加算値のいずれも「3」になり、横に画素が動いたことを検出できません。しかし、横方向及び縦方向の加算値を奇数ビット毎と偶数ビット毎に分けて加算値を算出した場合は、(t)の画像データの加算値が奇数ビットの加算値「0」、偶数ビットの加算値「3」に対し、(t+Δt)の画像データの加算値が奇数ビットの加算値「3」、偶数ビットの加算値「0」となり、奇数ビットの加算値が「0」→「3」、偶数ビットの加算値が「3」→「0」に変化しており、画像情報が変化したことを検出できる。
よって、図10−1では横方向全体や縦方向全体の輝度の加算値では検出できないが、横方向全体や縦方向全体で加算するのではなく、奇数ビット毎の加算値と偶数ビット毎の加算値を算出し、比較することで奇数ビットと偶数ビットの輝度加算値が変化していることが分かるので、上記斜め方向の輝度の加算値の検出と同様に誤判定を回避できる。斜め方向についても輝度の加算値で誤判定を回避できない時は、横方向や縦方向と同様に斜め方向全体ではなく、奇数ビット毎と偶数ビット毎に加算値を算出して比較することで、同様に誤判定を回避することができる。
他方、図10−2に示すように、斜め方向の輝度の加算値を用いると、白と黒(0と1)をビット単位あるいは所定の矩形領域単位で、交互にくり返すような画像が縦や横に移動するような場合でも、輝度の加算値が変化していることがわかる。例えば、図10−2の破線で囲った領域の斜め方向の輝度の加算値は、左側の画像では「3」だったに対し、画像が移動した後の右側では「0」になっており、変化として表われている。このため、斜め方向の輝度の加算値を用いると、例示した所定の画像の場合でも、画面停止しているといった誤判定を回避できることが分かる。
すなわち、画像パターンによっては、縦方向や横方向の輝度の加算値では画面停止しているかどうか分からないのを、斜め方向の輝度の加算値を利用することで判定できるようになることが分かる。
なお、図10−1、図10−2に例示した、白と黒をビット単位あるいは所定の矩形領域単位で、交互にくり返すような画像は典型例であって、これに限定されるわけではなく、似たような画像パターンが連続するような場合や、通常の画像でも偶然に縦方向や横方向の輝度の加算では変化を打ち消すような画像パターンになった場合には、斜め方向の輝度の加算値を利用することで、画像停止か否かを確実に判定することが可能となる。
また、小さなデータ量を演算すれば良いので、FPGAなどの高価なハードウェアを用いずとも、システムに通常搭載するCPUとRAMなどのワークメモリによる処理で、一定時間内に済ますことができる。
なお、このように、元の情報量の大きな画像データから、画面フリーズ(停止)や黒画面(ブラックアウト)などの判定するために必要最小限のデータにすることを、以後、次元削減と呼ぶことにする。
まず、画像データ抽出部510により、所定の時間間隔(Δt)をおいて、画像データ(t)および画像データ(t+Δt)を取得する(ステップS4−1)。
次に、ライン値加算部520が、情報量を削減するために、次元削減処理を行なう。前述のように、次元削減処理の一例として、一定の時間間隔(Δt)をおいて取得した画像データ(t)および画像データ(t+Δt)に対して、画像データの輝度の値を、縦方向、横方向、斜め方向にそれぞれ加算した結果を算出する。なお、加算値の算出については、各方向全体の輝度の加算値でもよいし、各方向の奇数ビット毎、偶数ビット毎の輝度の加算値でもよい。
この場合、奇数ビットの(t)と(t+Δt)の輝度の加算値を比較した結果(イ)と、偶数ビットの(t)と(t+Δt)の輝度の加算値を比較した結果(ロ)のいずれかを判定することとしても良い(この場合は、より少ない演算で済む)。
また、(イ)と(ロ)の両方を加味して判断することでより精度を向上させることもできる。例えば、比較した結果(イ)が変化していなくても、比較した結果(ロ)が一定の閾値を超えて変化していれば、画面停止とは判断しない等である。
各方向の輝度の加算値は、ラインバッファに保存するようにしても良い。次に、各方向の輝度の加算値を用いて、差分検出部530が、ラインバッファに保存した画像(t)と画像(t+Δt)の各方向のライン値の加算結果の差分値を算出する。(ステップS4−2)。
判定部540では、各方向のライン値の加算結果の差分値が一定の範囲にあるかどうかを、一定の時間間隔毎に判定し続け、1秒以内とか、数秒〜数十秒等の所定の待ち時間が経過したかどうかで放送事故かどうか判定する(ステップS4−5)。所定の待ち時間が経過していない場合はS4−1に戻る(ステップS4−5No)。所定の待ち時間が経過している場合はS4−6に進む(ステップS4−5Yes)。
一定の時間間隔で取得した各方向のライン値の加算結果の差分値が、所定の待ち時間内で、一定の範囲内にあると判定した場合には、画面フリーズ(停止)や黒画面(ブラックアウト)などの放送事故であると判定し、それ以外は正常動作であると判定する。
放送事故と判断した場合は、判定結果を通知する(ステップS4−6)。
画像の横方向ラインの端から1ピクセル毎に輝度値に変換しながら累積加算し、画像毎の横方向ラインの累積加算値を累積加算値保存部に保存する(ステップS5−1−1)。ステップS5−1−1で累積加算処理を行なった横方向ラインと累積加算値保存部から読み出した前画像の同横方向ラインを比較し(ステップS5−1−2)、差分値を出力する(ステップS5−1−3)。
画像の縦方向ラインの端から1ピクセル毎に輝度値に変換しながら累積加算し、画像毎の縦方向ラインの累積加算値を累積加算値保存部に保存する(ステップS5−2−1)。ステップS5−2−1で累積加算処理を行なった縦方向ラインと累積加算値保存部から読み出した前画像の同縦方向ラインを比較し(ステップS5−2−2)、差分値を出力する(ステップS5−2−3)。
画像の斜め方向ラインの端から1ピクセル毎に輝度値に変換しながら累積加算し、画像毎の斜め方向ラインの累積加算値を累積加算値保存部に保存する(ステップS5−3−1)。ステップS5−3−1で累積加算処理を行なった斜め方向ラインと累積加算値保存部から読み出した前画像の同斜め方向ラインを比較し(ステップS5−3−2)、差分値を出力する(ステップS5−3−3)。
なお、各方向の加算値の算出及び差分値の算出処理は、3方向全て使う場合の判定精度が最も高いが、いずれかの方向のうち少なくとも2つの方向を用いれば、実用レベルの判定精度を出すことができる。すなわち、異なる方向の輝度の加算値を2以上組み合わせて用いることで、画面停止を含む放送事故の判定を効率的に行なうことができる。
放送事故の判定は、縦方向、横方向、斜め方向の各ラインの差分値が一定の範囲内にあるかどうかを、1秒以内とか、数秒〜数十秒等の所定の待ち時間の間、監視することで行なう。
各ラインの差分値が一定の範囲内にあるかどうかは、後述する判定辞書を読み出し、縦方向、横方向、斜め方向の各ラインの差分値を判定辞書の閾値と比較することで行い、一定の短い時間間隔で取得した画像について、その短い時間間隔での画像停止の可能性を判定する(ステップS6−1)。
ステップS6−2で画像停止の可能性が低い場合は、放送事故未発生と判定する(ステップS6−3)。
また、画像停止の可能性が中以上の場合は放送事故の可能性があるので、この状態がどのくらい継続するのかを測定するために時間計測を開始する(ステップS6−4)。
放送事故の可能性中以上が一定時間継続しなかった場合は、時間計測をクリアし(ステップS6−6)、放送事故未発生と判定する(ステップS6−3)。
検出閾値及び判定辞書は、「ある方向の輝度の加算値の差分が大きい場合でも、別の方向の差分が所定の範囲内に収まっているような場合には、画像が停止している可能性がある等」、各方向の輝度の加算値の差分の傾向に一定のパターンがあるので、これを辞書化したものである。
このように、本発明によれば、従来技術(特許文献1の実施例2)のように、1方向の輝度の加算値の差分(交差)が0となるような場合に限定して、画像停止の可能性を判定できるに留まらず、縦、横、斜め方向の輝度の加算値の差分を総合的に判定することや、輝度の加算値の差分にも一定の幅を許容した上で、そのパターンを総合的に判定して、画像停止の可能性を判定できるようにした。
画面が上下方向に振動する停止モードの場合、縦方向の輝度の加算値は、前後のフレームで殆ど変動しないのに対し、横方向の輝度の加算値は、上下に数ドット程度ずれて、また元に戻るような動きをくり返すので、かなり変動することになる。このため、縦方向と横方向の少なくとも2方向の輝度の加算値を比較することで検出可能となり、その際の画像停止の判定辞書の項番2などで画像停止している可能性が中程度以上と判定することができる。
そして、この学習処理は、撮影装置100で大量の画像データ(ビッグデータ)を出力させて学習データと放送事故発生の有無に関する情報とのセットを得ることができるので、判定の精度を益々向上させることができる。
例えば、横方向の差分値(横)が小さな値を示していても、縦方向の差分値(縦)において一部にやや大きな変化傾向を示しており、斜め方向の差分値(斜)でも均一にある程度の変化がある場合には、横方向の差分値(横)が、たまたま画像パターンの性質によって、差分が小さくなるように相殺される画像データであると判定し、画像が停止している可能性が低いと判定するような辞書が登録されている。
図9−1は検出状況(結果)のうち水平方向検出結果を目視化した例である。
同様に、図9−2は検出状況(結果)のうち垂直方向(縦方向)検出結果を目視化した例であり、図9−3は検出状況(結果)のうち水平方向と垂直方向(縦方向)を合わせて水平垂直方向の検出結果を目視化した例である。
なお、ラインが太く見える箇所は、差分を示すラインが多く集中していることを示しており、(動きの大きさに相当する)差分値がそれだけ大きいことを示しており、視覚的に動きが大きい箇所を見える化している。
以上、1画面の全体について各方向の輝度の加算値を算出する例を説明したが、1画面を複数の部分領域に分割して、部分領域毎に各方向の輝度を算出するようにしても良い。
図2−3では、1画面を9個の部分領域に分割した例を示している。
B1、B2、B3、・・・とそれぞれの分割領域毎に、縦方向、横方向、斜め方向の輝度の加算値を生成して、部分領域毎の輝度の加算値の差分の傾向を考慮して、画面停止の可能性の判断を行なう。
画面停止の可能性の判断は、例えば、図8のように、画面を分割して判定する場合の判定辞書を用いて行なう。分割領域のいずれか1個が図7−1又は図7−3のいずれかの項番に該当する場合(例えば、B1が図7−3の項番1に該当する等)には、画面停止の可能性が低いと判断するものの、分割領域のいずれか2個が図7−1又は図7−3のいずれかの項番に該当する場合(例えば、B1とB3が図7−3の項番1に該当する等)には、画面停止の可能性が中程度と判断する。
例えば、隣り合う分割領域どうしが図7−1又は図7−3のいずれかの項番に該当する場合には、画面停止の可能性が低くなる方向に判断したり、逆に、離れた分割領域どうしが図7−1又は図7−3のいずれかの項番に該当する場合には、画面停止の可能性が高くなる方向に判断する等である。
このように、分割領域毎に、画面停止の可能性を判断するようにすれば、きめ細かい判断が可能となる。
以上、辞書とアルゴリズムを利用した実施形態(実施形態1)について説明したが、放送事故検出部500は、機械学習を利用する実施形態(図3−1および図3−2)を採用することができる。
なお、図2−3で示したように、部分領域毎に、各方向の輝度の加算値を利用するようにしてもよいし、図2−4−1ないし図2−4−2で示したように、数ビットとかバイト毎等に纏めて加算して、さらなる次元圧縮を行なうようにしても良い点は、実施形態1と同様である。
機械学習を利用した放送事故検出部500の機能概略について、図3−1および図3−2の放送事故検出部500の機能ブロック図を元に説明する。
まず、画像データ抽出部510により、動画から、一定の短い時間間隔(t、t+Δt)で取得した画像を用いる点、および、横方向加算値生成部、縦方向加算値生成部、および必要に応じて用意される斜め方向加算値生成部により構成されるライン値加算部520により、各画像の各方向の輝度の加算値を算出して用いるところまでは、辞書とアルゴリズムを利用する実施形態1と同様である。
すなわち実施形態2においては、ベクトルデータ生成部532により、一定の時間間隔(t、t+Δt)について算出した各方向の輝度の加算値をそのまま並べたベクトル形式のベクトルデータを生成し、判定部(機械学習モデル)542の学習器に入力する。
これにより、例えば、4K動画(横3840×縦2160)の場合、横方向に加算して、まず、2160ドットの1ライン分の画像データ(t)のベクトルデータを得る。同様に、画像データ(t+Δt)の横方向の加算値のベクトルデータを得て、それを一列に並べて、2160×2=4320次元の横方向の輝度の加算値のベクトルデータを生成する。
4K画像の場合で3方向全ての輝度の加算値を利用する場合は、横方向(2160×2)+縦方向(3840×2)+斜め方向(3840×2)=19680次元のベクトルデータが生成される。
説明の便宜のため、以下、主に、ニューラルネットワークないしその一類型であるディープニューラルネットワーク(深層学習モデル)を利用した場合について説明する。
ニューラルネットワークにおいても、コンピュータを所定の入力に対する出力を演算する演算部として機能させる点は、辞書やアルゴリズムを利用した場合と同様であり、CPUおよびメモリなどのハードウェア資源を用いて実現される。
ニューラルネットワークは、多くの実例(学習データと正解値である教師データのセット)を学習させることによって、予め多数の事例を解析した上で、人手で設計した特徴辞書を用いなくても、画面フリーズや黒画面(ブラックアウト)などの放送事故の要因となる状態(輝度の加算値の変化傾向)の特徴を、学習データから自動的に抽出して、精度の高い放送事故の判定を行うことができる。
人工ニューロン間の重み付け(パラメータ)は、学習する前の段階では、初期値として一定の幅を持つ乱数がセットされるが、学習データに対して機械学習モデルが出力した値と、その学習データに対する正解値である教師データとの差分を少なくするように学習させることで、次第に、輝度の加算値の変化傾向の特徴を把握できるように、更新されていき、画像が停止しているかどうか等の判断結果を正確に出力できるようになっていく。
このように、ニューラルネットワークにおける各層の人工ニューロン間の重み付け(パラメータ)は、輝度の加算値の変化傾向の特徴を、各層毎に表現したものとなり、ニューラルネットワーク全体として、輝度の加算値の変化傾向の特徴抽出および放送事故の判定結果出力用のニューラルネットワークとして機能させることができる。
なお、ニューラルネットワークの構成としてCNN(畳み込みニューラルネットワーク)を用いた場合には、人工ニューロン間の接続の重み付け(パラメータ)は、畳み込みフィルタの値に置き換えられる。
学習データと対になる教師データが豊富にあれば、人工ニューロン間の接続の重み付け(ないし特徴抽出用のフィルタの重み付け等)の精度が向上し、次第に、与えられたデータに対する判定精度が向上する性質を有している。
前の層の複数の人工ニューロンからの出力は、それぞれ適当な重み付けとバイアス(パラメータ)を付与した上で積和演算した上で、次の層の人工ニューロンに入力する。次の層の人工ニューロンでは、それらの積和演算の結果に対し、さらに伝達関数と呼ばれる関数で演算した結果を出力する。
伝達関数としては、非リニアな特性を有するシグモイド関数(1/(1+exp(-x)))やリニアな特性を有するランプ関数(ReLU)などを用いることができる。
なお、入力層〜中間層全て〜出力層までの全層を用いた学習処理の前に、教師無し学習の一種である自己符号化器(オートエンコーダ)と呼ばれる構成を利用して、(初期値が乱数である)重み付け等のパラメータをある程度学習させるためのプレトレーニング(事前学習)を行なうこともできるが、伝達関数としてランプ関数(ReLU)を用いた場合には、重み付け等のパラメータの更新が、出力層に近い中間層ではうまくいくが、入力層に近いところまでうまく伝搬されないという、全層学習での(各層での偏微分をベースとした)逆誤差伝搬法(バックプロパゲーション法)を用いた場合の勾配消失問題は発生しないので、自己符号化器を用いても用いなくても良い。
なお、伝達関数としてシグモイド関数を用いる場合には、全層学習での教師有り学習の一種である(各層での偏微分をベースとした)逆誤差伝搬法(バックプロパゲーション法)を用いた場合、勾配消失問題が発生するので、これを解消するために自己符号化器を用いることが多い。
誤差関数を最小化するような学習処理としては、前述のような誤差逆伝搬法(バックプロパゲーション法)を用いるが、これに限定されず、勾配降下法など各種の学習アルゴリズムを用いることができる。
また、所定の時間間隔(Δt)をおいた画像データ同士の関係が、「正常」あるいは「画像停止や黒画面」などの放送事故に関する事象に関連するかどうかの教師データ(ラベルや正解値ともいう)も、動画を確認しながら、容易に得ることができる。
このため、大量の学習データ(所定の時間間隔をおいた画像データのペア)と放送事故発生の有無に関する教師データとのセットを得ることができ、いわゆるビッグデータを活用した学習処理を行なうことができる。
本発明の学習済み機械モデルは、一例として、上記のようなニューラルネットワークに対して次元削減した学習データを用いた学習処理によって構築されるため、予め特徴辞書を設計する必要がない。
また本発明によれば、画像データに対し大幅に次元削減した学習データを用いることで、比較的小さな機械学習モデルで済み、引いては、少ない学習データ(と教師データのセット)、及び少ない学習時間で構築することができ、放送事故の要因となる状態(輝度の加算値の変化)の検出を的確に分析することができる学習済み機械モデルを提供することができる。
また、画像データに対し大幅に次元削減した学習データをベクトル化して用いることで、ニューラルネットワークを始め、サポートベクターマシン(SVM)、クラスタリングなどの様々な機械学習モデルを利用して、放送事故の判定を精度良く行なうことができる。
すなわち、その時の差分値の値に応じて表示されたラインを見ながら、適宜、明らかに画像停止している場合や、目視で判断が微妙な場合など、様々なパターンの画像データについて、その際の画像データを取得すると共に、教師データとして、画像停止している可能性を入力するという利用も可能である。
以上、画像停止を含む放送事故の判定を例に説明したが、本発明の画面停止等の判定処理は、動画処理全般に適用可能である。例えば、テレビ放送の他、動画のネット配信サービス、ビデオ・オン・デマンドにも適用できる。
また、リアルタイムないしインタラクティブ(対話または双方向)なアニメやゲーム画面の画面停止等の判定、あるいはゲームの開発過程におけるデバッグ作業にも用いることができる。
特に、サーバー上で、大量のユーザー同士がインタラクティブにゲームを進行させる場合に、本発明のように、少ない処理量で画面停止等の判定が可能な技術は、サーバーの負荷を低減させることができる点で有用である。
また本発明は、監視カメラで動きがあるかどうかを判定するのにも用いることができる。例えば、図6のフローチャートでは、画面停止の可能性を判定するステップがあるが(ステップS6−2)、動きがあるかどうかを判定する場合には、画面が動いたかどうかを判定するステップに置き換えることで、本発明を監視カメラにも適用することができる。
この場合において、ステップS6−4およびステップS6−6では、画面が停止している可能性がある場合に(ステップS6−4)、一定時間待つ処理(ステップS6−5、S6−6)を行なっているが、監視カメラで動きがある場合を検出する際には、これらのステップを、画像の動きがあるかどうか(所定の方向の輝度の加算値の差分が一定の閾値を超えたかどうか)を判定するステップに置き換えることで対応させることができる。
200 放送機器
300 動画処理部
400 放送部
500 放送事故検出部
510 画像データ抽出部
520 ライン値加算部
530 差分検出部
532 ベクトルデータ生成部
540 判定部
542 判定部(機械学習モデル)
Claims (13)
- 動画の状態を判定するシステムであって、
動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、
所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、
輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出手段とを備え、
前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
を特徴とする動画処理システム。 - 請求項1に記載の動画処理システムにおいて、
前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割する手段と、
当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算手段と、
前記の部分領域画像データ輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出手段と、
前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
を特徴とする動画処理システム。 - 水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整することが可能となる請求項1または請求項2のいずれか1つに記載の動画処理システム。
- 動画の状態を判定するシステムであって、
動画から所定の時間間隔で画像データを抽出する画像データ抽出手段と、
所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算手段と、を備え、
前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、抽出した画像データに対し次元削減された輝度加算値ベクトルデータを生成し、
当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習手段とを備え、
前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定することを特徴とする動画処理システム。 - 所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させることで、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする請求項4に記載の動画処理システム。
- 請求項1〜5のいずれかに1つに記載の動画処理システムにおいて、
所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算する手段を備え、
偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
を特徴とする動画処理システム。
- 動画の状態を判定する方法であって、
動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、
所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、
輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する加算値差分検出ステップとを備え、
前記加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
を特徴とする動画処理方法。 - 請求項7に記載の動画処理方法において、
前記画像データ手段で抽出した画像データを複数の部分領域画像データに分割するステップと、
当該部分領域画像データについて、異なる2以上の方向について、それぞれ輝度を加算する部分領域画像データ輝度加算ステップと、
前記の部分領域画像データ輝度加算手段によって得た各方向の輝度の加算値を、所定の時間間隔で抽出した2つの画像データどうしの間で比較して差分値を算出する部分領域画像データ加算値差分検出ステップと、
前記部分領域画像データ加算値差分検出手段によって算出した前記差分値および所定の閾値辞書に基づいて画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
を特徴とする動画処理方法。 - 請求項7又は請求項8のいずれかに1つに記載の動画処理方法において、水平又は及び垂直方向に検出した輝度の加算値の変化を画面上に表示することによって検出の感度を視覚的に確認及び調整する動画処理方法。
- 動画の状態を判定する方法であって、
動画から所定の時間間隔で画像データを抽出する画像データ抽出ステップと、
所定の時間間隔で抽出した2つの画像データについて、異なる2以上の方向について、それぞれ輝度を加算する輝度加算ステップと、を備え、
前記輝度加算手段によって生成した、所定の時間間隔で抽出した2つの画像データに係る各方向の輝度に基づいて、抽出した画像データに対し次元削減された輝度加算値ベクトルデータを生成し、
当該輝度加算値ベクトルデータを学習データとして機械学習モデルに入力し、当該学習データに対応する画面停止の可能性に関する教師データに基づいて学習する機械学習ステップとを備え、
前記機械学習手段によって学習した学習済みの機械学習モデルを用いて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定することを特徴とする動画処理方法。 - 所定の時間間隔をおいた画像データのペアからなる学習データと、画面停止や黒画面を含む放送事故発生の有無に関する教師データとのセットを反復して学習させるステップをさらに備え、画面停止を含む異常状態の発生又は画像に動きがあるかどうかの判定精度を向上させることを特徴とする請求項10に記載の動画処理方法。
- 請求項7〜11のいずれかに1つに記載の動画処理方法において、
所定の時間間隔で抽出した2つの画像データについて、横方向又は縦方向について、それぞれ輝度を加算する場合において、前記輝度加算手段が、偶数ビットおよび奇数ビットを分けて輝度を加算するステップを備え、
偶数ビットの輝度の加算値と、奇数ビットの輝度の加算値とに基づいて、画面停止を含む異常状態の発生又は画像に動きがあるかどうかを判定すること、
を特徴とする動画処理方法。 - コンピュータシステムにおいて、請求項7から12の動画処理方法を実行するプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104975A JP6524398B1 (ja) | 2018-05-31 | 2018-05-31 | 動画処理装置、動画処理システム、動画処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104975A JP6524398B1 (ja) | 2018-05-31 | 2018-05-31 | 動画処理装置、動画処理システム、動画処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6524398B1 JP6524398B1 (ja) | 2019-06-05 |
JP2019212970A true JP2019212970A (ja) | 2019-12-12 |
Family
ID=66730726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104975A Active JP6524398B1 (ja) | 2018-05-31 | 2018-05-31 | 動画処理装置、動画処理システム、動画処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6524398B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024095366A1 (ja) * | 2022-11-01 | 2024-05-10 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法、及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001197479A (ja) * | 2000-01-13 | 2001-07-19 | Victor Co Of Japan Ltd | 差分画像処理方法および差分画像処理装置 |
JP2016039508A (ja) * | 2014-08-07 | 2016-03-22 | 株式会社デンソー | 表示装置 |
-
2018
- 2018-05-31 JP JP2018104975A patent/JP6524398B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001197479A (ja) * | 2000-01-13 | 2001-07-19 | Victor Co Of Japan Ltd | 差分画像処理方法および差分画像処理装置 |
JP2016039508A (ja) * | 2014-08-07 | 2016-03-22 | 株式会社デンソー | 表示装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024095366A1 (ja) * | 2022-11-01 | 2024-05-10 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6524398B1 (ja) | 2019-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4203736B2 (ja) | 画像の動き検出装置及びコンピュータプログラム | |
CN104966304B (zh) | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 | |
CN104240235B (zh) | 一种检测摄像头被遮挡的方法及*** | |
EP3104327B1 (en) | Anomalous pixel detection | |
US20060092274A1 (en) | Image sensor annotation method and apparatus | |
US20110135158A1 (en) | Image processing device, image processing method and program | |
JP7124743B2 (ja) | 線状体の異常検出装置及び異常検出方法 | |
CN102123235B (zh) | 视频插值帧的生成方法及其装置 | |
WO2021181749A1 (ja) | 学習装置、画像検査装置、学習済みパラメータ、学習方法、および画像検査方法 | |
JP6758834B2 (ja) | 表示装置、表示方法及びプログラム | |
CN110210530A (zh) | 基于机器视觉的智能监控方法、装置、设备、***和存储介质 | |
JP5006479B1 (ja) | 動き画像領域判定装置またはその方法 | |
JP2019212970A (ja) | 動画処理装置、動画処理システム、動画処理方法及びプログラム | |
CN113449656B (zh) | 一种基于改进的卷积神经网络的驾驶员状态识别方法 | |
KR102547768B1 (ko) | 영상 감시 시스템에서의 실시간 이상 상황 탐지 방법 및 장치 | |
CN112907433B (zh) | 数字水印嵌入方法、提取方法、装置、设备及介质 | |
JP2015158796A (ja) | 物体検出装置 | |
JP5710230B2 (ja) | 監視システムおよび監視方法 | |
CN115871679A (zh) | 驾驶员疲劳检测方法、装置、电子设备及介质 | |
Ma et al. | Weakening the detecting capability of CNN-based steganalysis | |
CN114596245A (zh) | 一种图像重构模型的生成方法和计算机设备 | |
CN115273128A (zh) | 皮带机上人的检测方法、装置、电子设备及存储介质 | |
CN113449588A (zh) | 烟火检测方法 | |
CN112949490A (zh) | 设备动作检测方法、装置、电子设备及可读存储介质 | |
CN117853491B (zh) | 基于多场景任务下的少样本工业产品异常检测方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180906 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180927 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6524398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |