JPH0759108A - Cut pattern detection method for motion picture - Google Patents

Cut pattern detection method for motion picture

Info

Publication number
JPH0759108A
JPH0759108A JP5216895A JP21689593A JPH0759108A JP H0759108 A JPH0759108 A JP H0759108A JP 5216895 A JP5216895 A JP 5216895A JP 21689593 A JP21689593 A JP 21689593A JP H0759108 A JPH0759108 A JP H0759108A
Authority
JP
Japan
Prior art keywords
screen
cut
moving image
frame
reduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5216895A
Other languages
Japanese (ja)
Other versions
JP2978039B2 (en
Inventor
Yasuyuki Nakajima
康之 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
Kokusai Denshin Denwa KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Denshin Denwa KK filed Critical Kokusai Denshin Denwa KK
Priority to JP5216895A priority Critical patent/JP2978039B2/en
Publication of JPH0759108A publication Critical patent/JPH0759108A/en
Priority to US08/714,786 priority patent/US5719643A/en
Application granted granted Critical
Publication of JP2978039B2 publication Critical patent/JP2978039B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PURPOSE:To detect a cut pattern at a high speed with high accuracy by using a change in a luminance component and a color difference component through the use of a reduced motion picture in a hierarchical way. CONSTITUTION:An input pattern and a reference pattern inputted to reduced picture processing sections 3, 4 are converted into reduced patterns each comprising means values of blocks of the patterns. An inter-frame difference section 5 obtains an inter-frame difference Dn between a reference picture and an input picture and its timewise change DELTADn from the reduced patterns. A 1st decision section 6 classifies the patterns into three kinds of patterns being a non-cut pattern, a cut pattern and a cut candidate pattern. When a pattern is decided to be a cut pattern, an output section 7 provides the output of the cut pattern and the processing is transited to the processing of a succeeding input pattern. A color difference histogram correlation section 8 calculates a correlation value rho of color distribution of a histogram of the color difference from the cut object pattern by using the reduced pattern of the color difference signal. A 2nd decision section 9 judges the detection of a cut pattern through overall judgement of the inter-frame difference Dn, the timewise change DELTADn and the correlation value rho.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は動画像のカット画面検
出方法に関し、特に、符号化されていない元のままの動
画像情報あるいは符号化された動画像情報からなる動画
像のシーンの切り替わりを高速で検出できるようにした
カット画面検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting a cut screen of a moving image, and more particularly, to switching a scene of a moving image composed of unencoded original moving image information or encoded moving image information. The present invention relates to a cut screen detection method capable of high-speed detection.

【0002】[0002]

【従来の技術】現在、ビデオカメラは広く普及してお
り、旅行、運動会、結婚式などの各種の催しで広く利用
されている。ビデオカメラによる撮影は、通常思いつく
ままに撮られる場合が多く、撮影後に、使えるカットと
使えないカットに切り分けて、使えるカットを適当に繋
ぎ合わせ、一つの作品に仕上げるユーザが多数存在して
いる。また、通常のテレビ放送の中において、シーンの
切り替わりを検出し、再編集するユーザもでてきてい
る。
2. Description of the Related Art At present, video cameras are widely used and widely used in various events such as travel, athletic meet and wedding ceremony. In many cases, shooting with a video camera is done just as you think of it. After shooting, there are many users who divide into usable cuts and unusable cuts and connect the usable cuts appropriately to finish one work. Also, in normal television broadcasting, some users have detected scene changes and re-edited.

【0003】従来から、このようなユーザの映像に対す
る編集活動を支援する編集装置あるいは編集方式の提案
がなされている。これらの提案の一つに、動画像の自動
カット検出に関する技術がある。この技術の概要を図7
を参照して簡単に説明する。
Hitherto, an editing apparatus or an editing method for supporting such a user's video editing activity has been proposed. One of these proposals is a technique related to automatic cut detection of moving images. Figure 7 shows an overview of this technology.
A brief explanation will be given with reference to.

【0004】いま、図7(a) および(c) に示されている
ような参照画面と入力画面があったとすると、各画面は
8画素×6画素のブロックに分割され、同図(b) および
(c)に示されているようにブロックごとのカラーヒスト
グラムが求められる。このカラーヒストグラムは、横軸
に色が取られ、縦軸に頻度が取られている。1ブロック
は48個の画素から構成されているので、各画素が16
色のどれに属するか決定され、カラーヒストグラムとし
て表現される。次いで、参照画面(r) と入力画面(i) の
ブロック(j) ごとに、16色のカラーについてカラーヒ
ストグラムhr,j,c とhi,j,c との類似度Sj が、次式
により求められる。
Now, assuming that there is a reference screen and an input screen as shown in FIGS. 7 (a) and 7 (c), each screen is divided into blocks of 8 pixels × 6 pixels. and
A color histogram for each block is obtained as shown in (c). In this color histogram, the horizontal axis represents color and the vertical axis represents frequency. Since one block consists of 48 pixels, each pixel has 16
It is determined which of the colors it belongs to and is represented as a color histogram. Next, for each block (j) of the reference screen (r) and the input screen (i), the similarity Sj between the color histograms hr, j, c and hi, j, c for 16 colors is calculated by the following equation. To be

【0005】[0005]

【数1】 続いて、該類似度Sj がしきい値以上のブロック数をフ
レーム間相関値として、各フレームの類似度を測定す
る。続いて、該類似度の時間差分をしきい値判定して、
カット検出を行っている。
[Equation 1] Subsequently, the similarity of each frame is measured using the number of blocks whose similarity Sj is equal to or more than a threshold value as an inter-frame correlation value. Then, the time difference of the similarity is judged by a threshold value,
Cut detection is performed.

【0006】上記した技術と関係する技術を開示した文
献として、例えば、上田他、「認識技術を応用した対話
型映像編集方式の提案」、電子情報通信学会論文誌 D-I
I, Vol.J75-D-II, No.2, pp.216-225, 1992 などがあ
る。
As a document disclosing a technique related to the above-mentioned technique, for example, Ueda et al., “Proposal of Interactive Video Editing Method Applying Recognition Technology”, IEICE Transactions DI
I, Vol.J75-D-II, No.2, pp.216-225, 1992.

【0007】なお、上記した技術を用いて、圧縮符号化
された動画像を認識し検索する場合には、一度画像を完
全に復号化して、元の画像に戻してから、上記認識検索
作業を行うことになる。
In the case of recognizing and retrieving a compression-encoded moving image using the above technique, the image is completely decoded once to restore the original image, and then the above-described recognition retrieval work is performed. Will be done.

【0008】[0008]

【発明が解決しようとする課題】上述した従来技術で
は、高精度な検出を行うために、フレーム内のすべての
画像データを8画素×6画素のブロックに分割して、各
フレームの類似度を測定、比較してカット検出を行うよ
うにしている。例えば、テレビ方式のNTSC方式の場合に
は、1秒間のフレーム数30フレームすべてについて、
各フレームの類似度を測定、比較してカット検出を行う
ようにしている。このため、処理を行うために必要なハ
ードウェア負荷が大きくなるという問題があった。ま
た、報告されている処理時間は、ワークステーションを
用いた場合、約8フレーム/秒かかり、リアルタイムの
約4倍の時間を要しているため、高速検出は困難なもの
となっている。
In the above-mentioned prior art, in order to perform highly accurate detection, all image data in a frame is divided into blocks of 8 pixels × 6 pixels and the similarity of each frame is calculated. Cut detection is performed by measuring and comparing. For example, in the case of the TV system NTSC system, for all 30 frames per second,
Cut detection is performed by measuring and comparing the similarity of each frame. Therefore, there is a problem that the hardware load necessary for performing the processing increases. Further, the reported processing time is about 8 frames / second when a workstation is used, which is about 4 times as long as that in real time, which makes high-speed detection difficult.

【0009】また、従来技術では、圧縮符号化された動
画像をカット検出する場合、画像を完全に復元してから
カット検出処理を開始するため、動画再生時間とカット
検出時間とを合わせた時間が必要となり、大量の動画像
データベースなどの検出には、実用上大きな制約を受け
ることとなる。
Further, in the prior art, when the compression-encoded moving image is cut-detected, the cut detection process is started after the image is completely restored. Therefore, the detection of a large amount of moving image database is subject to a large practical limitation.

【0010】本発明の目的は、前記した従来技術に鑑
み、検出精度を下げることなく、上記従来方法の欠点で
ある検出処理時間の短縮化を図ることができる動画像の
カット画面検出方法を提供することにある。
In view of the above-mentioned conventional technique, an object of the present invention is to provide a moving image cut screen detecting method capable of shortening the detection processing time, which is a drawback of the conventional method, without lowering the detection accuracy. To do.

【0011】[0011]

【課題を解決するための手段】前述目的を達成するため
に、請求項1の発明は、入力画面および該入力画面から
時間的に1フレームまたは複数フレーム離れた参照画面
の各々をブロック分割し、各々の画面の各ブロックの輝
度信号の平均値から、各々の画面の縮小画面を作成し、
両画面の縮小画面から、輝度信号のフレーム間差分量お
よびフレーム間差分の時間変化を求め、該輝度信号のフ
レーム間差分量および差分の時間変化に基づいて、カッ
ト画面、非カット画面を選別するようにした点に特徴が
ある。
In order to achieve the above-mentioned object, the invention of claim 1 divides each of an input screen and a reference screen temporally separated from the input screen by one frame or a plurality of frames. Create a reduced screen of each screen from the average value of the luminance signal of each block of each screen,
From the reduced screens of both screens, the inter-frame difference amount of the luminance signal and the temporal change of the inter-frame difference are obtained, and the cut screen and the non-cut screen are selected based on the inter-frame difference amount of the luminance signal and the temporal change of the difference. There is a feature in doing so.

【0012】また、請求項3の発明は、請求項1の処理
によって得られたカット候補画面に対して、参照画面と
入力画面の縮小画面の色差成分のヒストグラム相関をと
り、該色差成分のヒストグラム相関値、前記輝度信号の
差分量、および該時間変化によりカット画面、非カット
画面に選別するようにした点に特徴がある。
Further, in the invention of claim 3, with respect to the cut candidate screen obtained by the processing of claim 1, the histogram correlation of the color difference components of the reduced screen of the reference screen and the input screen is obtained, and the histogram of the color difference component is obtained. It is characterized in that a cut screen and a non-cut screen are selected according to the correlation value, the difference amount of the luminance signal, and the time change.

【0013】[0013]

【作用】請求項1の発明では、入力画面および入力画面
から時間的に1フレームまたは複数フレーム離れた参照
画面をブロック分割し、各ブロックの平均値を用いて構
成された縮小画像での輝度信号の差分量および差分の時
間変化により、カット画面、および非カット画面の選別
を行う。
According to the invention of claim 1, the input screen and the reference screen temporally separated from the input screen by one frame or a plurality of frames are divided into blocks, and the luminance signal in the reduced image is constructed by using the average value of each block. The cut screen and the non-cut screen are selected according to the difference amount and the time change of the difference.

【0014】請求項3の発明では、カット候補画面に対
して、縮小画像の色差成分の色分布のヒストグラムをと
り、ヒストグラムの相関値、輝度信号の差分量および差
分の時間変化より、カット画面および非カット画面に選
別する。
According to the third aspect of the present invention, a histogram of the color distribution of the color difference components of the reduced image is taken for the cut candidate screen, and the cut screen and the difference value of the luminance signal and the time change of the difference are used to determine the cut screen and the cut screen. Select a non-cut screen.

【0015】[0015]

【実施例】以下に、図面を参照して、本発明を詳細に説
明する。図1は本発明の一実施例を示すブロック図であ
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of the present invention.

【0016】図において、1は入力画面の画像入力部、
2は参照画面の画像入力部である。該参照画面として
は、入力画面に対して時間的に1フレーム又は複数フレ
ーム(例えば、2〜15フレーム)離れた画面を用いる
ことができる。3および4は、前記画像入力部1、2に
入力された入力画面および参照画面を縮小し、輝度信号
と色差信号の縮小画面を作成する縮小画面処理部であ
る。5は前記縮小画面処理部3、4から輝度信号の縮小
画面を得、これらから、入力画像と参照画像とのフレー
ム間差分Dn と、その時間的変化ΔDn とを求めるフレ
ーム間差分部である。6はこれらの値Dn とΔDn をも
とに、前記入力画面を、非カット画面、カット画面およ
びカット候補画面の3種類に分類する第1判定部であ
る。7は、カット画面であると判定された入力画面、あ
るいはそれを示すデータ(画面番号など)などを出力す
る出力部である。
In the figure, 1 is an image input section of the input screen,
Reference numeral 2 is an image input unit of the reference screen. As the reference screen, a screen that is one frame or a plurality of frames (for example, 2 to 15 frames) apart from the input screen in time can be used. Reference numerals 3 and 4 denote reduction screen processing units that reduce the input screen and the reference screen input to the image input units 1 and 2 to create reduction screens of luminance signals and color difference signals. Reference numeral 5 denotes an inter-frame difference unit that obtains a reduced screen of luminance signals from the reduced screen processing units 3 and 4 and obtains an inter-frame difference Dn between the input image and the reference image and a temporal change ΔDn thereof from these. Reference numeral 6 denotes a first determination unit that classifies the input screen into three types, a non-cut screen, a cut screen, and a cut candidate screen, based on these values Dn and ΔDn. An output unit 7 outputs an input screen determined to be a cut screen or data indicating the input screen (screen number, etc.).

【0017】次に、8は前記第1判定部6にてカット候
補画面と判定された画面に対して色差ヒストグラムの相
関を求める色差ヒストグラム相関部である。該色差ヒス
トグラム相関部8は、縮小画面処理部3で求められた色
差信号の縮小画面を用いて、色差のヒストグラムの色分
布を求め、色分布の相関値ρを計算する。
Next, 8 is a color difference histogram correlating unit for obtaining the correlation of the color difference histogram with respect to the screen judged as the cut candidate screen by the first judging unit 6. The color difference histogram correlation unit 8 obtains the color distribution of the color difference histogram using the reduced screen of the color difference signal obtained by the reduced screen processing unit 3, and calculates the correlation value ρ of the color distribution.

【0018】9は第2判定部である。該第2判定部9で
は、フレーム間差分Dn 、時間的変化△Dn 、および相
関値ρを総合的に判断して、カット検出の判定を行う。
そして、カット画面であると判定された時には、出力部
7から、カット画面であると判定された入力画面、ある
いはそれを示すデータなどを出力する。なお、前記第
1、第2判定部6、9において、カット画面と判定され
て前記入力画面等が出力部7から出力された後、あるい
は非カット画面と判定された時には、次の入力画面の処
理に移る。
Reference numeral 9 is a second determination unit. The second determination unit 9 comprehensively determines the inter-frame difference Dn, the temporal change ΔDn, and the correlation value ρ, and determines the cut detection.
When it is determined to be the cut screen, the output unit 7 outputs the input screen determined to be the cut screen, data indicating the input screen, or the like. In addition, after the first and second determination units 6 and 9 determine that the screen is a cut screen and the input screen or the like is output from the output unit 7, or when it is determined that the screen is a non-cut screen, the next input screen is displayed. Move on to processing.

【0019】次に、前記実施例の動作を詳細に説明す
る。まず、前記縮小画像処理部3、4の動作を図2を参
照して説明する。
Next, the operation of the above embodiment will be described in detail. First, the operation of the reduced image processing units 3 and 4 will be described with reference to FIG.

【0020】いま、同図(a) および(d) に示されている
ような入力画面と参照画面とがあったとすると、前記縮
小画像処理部3、4はこれらを例えば8画素×8画素の
ブロックに分割し、各ブロックに対して、輝度Yおよび
色差U、Vの平均値を求める。この平均値の求め方の一
例としては、各ブロック内の輝度および色差データの総
和を求め、これをデータ数で割る方法を取ることができ
る。前記縮小画像処理部3、4は、次いで、これらの平
均値をもとに、輝度および色差の縮小画面を作成する。
すなわち、縮小画面処理部3は同図(b) 、(c) に示され
ているような、それぞれ元の入力画面の1/64のデー
タからなる輝度および色差信号の縮小画面を作成する。
同様に、縮小画面処理部4は同図(e) 、(f) に示されて
いるような、それぞれ元の参照画面の1/64のデータ
からなる輝度および色差信号の縮小画面を作成する。
Now, assuming that there are an input screen and a reference screen as shown in FIGS. 3A and 3D, the reduced image processing units 3 and 4 store these as, for example, 8 pixels × 8 pixels. It is divided into blocks, and the average value of the luminance Y and the color differences U and V is obtained for each block. As an example of how to obtain this average value, a method of obtaining the sum of luminance and color difference data in each block and dividing this by the number of data can be used. The reduced image processing units 3 and 4 then create a reduced screen of luminance and color difference based on these average values.
That is, the reduced screen processing unit 3 creates reduced screens of the luminance and color difference signals each consisting of 1/64 of the data of the original input screen, as shown in FIGS.
Similarly, the reduced screen processing unit 4 creates reduced screens of luminance and color difference signals, each of which is composed of 1/64 of the data of the original reference screen, as shown in (e) and (f) of FIG.

【0021】次に、フレーム間差分部5の動作を説明す
る。フレーム間差分部5では、参照画像と入力画像の輝
度Yの縮小画像を用いてフレーム間差分Dn が求められ
る。フレーム間差分Dn は例えば次式を用いて求めるこ
とができる。
Next, the operation of the interframe difference section 5 will be described. The inter-frame difference unit 5 obtains the inter-frame difference Dn using the reduced image of the brightness Y of the reference image and the input image. The inter-frame difference Dn can be obtained using, for example, the following equation.

【0022】[0022]

【数2】 ただし、DYは輝度のブロック平均値を示す。また、T
は総ブロック数、i はブロック番号、n,n-1 はフレーム
番号で、ここではそれぞれ、n は入力画面、n-1は参照
画面を示す。以下の説明では、前記DYは8ビット(2
56段階)で表わされているものとして説明するが、本
発明はこれに限定されるものではない。
[Equation 2] However, DY indicates a block average value of luminance. Also, T
Is the total number of blocks, i is the block number, and n and n-1 are the frame numbers, where n is the input screen and n-1 is the reference screen, respectively. In the following description, the DY is 8 bits (2
However, the present invention is not limited to this.

【0023】また、フレーム間差分の時間変化△Dn
は、Dn の時間変化として以下の式で求めることが可能
である。 △Dn =Dn −Dn-1 (2) ここで、Dn-1 はフレームn-1 とフレームn-2 の間のフ
レーム間差分である。
Further, the temporal change of the inter-frame difference ΔDn
Can be calculated as the time change of Dn by the following formula. ΔDn = Dn-Dn-1 (2) Here, Dn-1 is an interframe difference between the frame n-1 and the frame n-2.

【0024】次に、前記第1判定部6では、前記輝度Y
のフレーム間差分Dn およびフレーム間差分の時間変化
△Dn などを用いて、入力画面を非カット画面、カット
画面、カット候補画面の3つの種類に分類する。この処
理の詳細を、図3のフローチャートを参照して説明す
る。
Next, in the first judging section 6, the luminance Y
The input screen is classified into three types of a non-cut screen, a cut screen, and a cut candidate screen by using the inter-frame difference Dn and the temporal change ΔDn of the inter-frame difference. Details of this processing will be described with reference to the flowchart in FIG.

【0025】まず、ステップS1にて、フレーム間差分
Dn が次の条件式(3)を満足するか否かを判定し、満
足する場合には非カット画面とし、それ以外の場合には
カット画面候補としてステップS2の処理をする。 Dn <TH1 (3) ここで、TH1は第1のしきい値である。一般に、シー
ンの切り替りがなく静止画が連続している場合には、前
記フレーム間差分Dn は非常に小さいため、(3)式が
成立することとなる。
First, in step S1, it is determined whether or not the inter-frame difference Dn satisfies the following conditional expression (3). If it is satisfied, the non-cut screen is displayed. Otherwise, the cut screen is displayed. The process of step S2 is performed as a candidate. Dn <TH1 (3) where TH1 is the first threshold value. In general, when the scenes are not switched and the still images are continuous, the inter-frame difference Dn is very small, and therefore the expression (3) is established.

【0026】次に、ステップS2にて、ステップS1で
カット候補となった画面について、フレーム間差分Dn-
1 が次の条件式(4)を満足するか否かを判定し、満足
する場合にはカット画面とし、それ以外の場合にはカッ
ト画面候補としてステップS3の処理をする。 Dn-1 <TH2 (4) ここで、TH2は第2のしきい値である。(4)式が満
足された場合にカット画面と判定する理由は、静止画が
連続した後にカット画面となる場合は、n番目のフレー
ム間差分Dn は大きいものの、その前のフレーム間差分
Dn-1 は小さいためである。
Next, in step S2, the inter-frame difference Dn- for the screens that were cut candidates in step S1.
It is determined whether or not 1 satisfies the following conditional expression (4). If the condition is satisfied, the cut screen is selected. If not, the process of step S3 is performed as a cut screen candidate. Dn-1 <TH2 (4) Here, TH2 is the second threshold value. When the expression (4) is satisfied, the reason why the cut screen is determined is that, when the cut screen is displayed after the continuous still images, the n-th interframe difference Dn is large, but the previous interframe difference Dn- This is because 1 is small.

【0027】ステップS3では、ステップS2でカット
候補となった画面について、フレーム間差分Dn および
Dn-1 、ならびにフレーム間差分の時間的変化ΔDn お
よびΔDn-1 が次の条件式(5)を満足するか否かを判
定し、満足する場合にはカット画面とし、それ以外の場
合にはカット画面候補としてステップS4の処理をす
る。 α|△Dn-1 |<△Dn かつβDn-1 <Dn (5) ここで、α、βは定数である。(5)式が満足された場
合にカット画面と判定する理由は、パニングなどの緩や
かな動きの後にカット画面となる場合には、n番目のフ
レーム間差分Dn およびフレーム間差分の時間変化△D
n は、それぞれn−1番目のDn-1 および△Dn-1 に比
べて大きいからである。
In step S3, the inter-frame differences Dn and Dn-1 and the temporal changes ΔDn and ΔDn-1 in the inter-frame differences of the screens selected as cut candidates in step S2 satisfy the following conditional expression (5). Whether or not to do so is determined, and if satisfied, the cut screen is set, and otherwise, the process of step S4 is performed as a cut screen candidate. α | ΔDn-1 | <ΔDn and βDn-1 <Dn (5) where α and β are constants. The reason why the cut screen is determined when the expression (5) is satisfied is that the n-th inter-frame difference Dn and the temporal change ΔD of the inter-frame difference are displayed when the cut screen is displayed after a gradual movement such as panning.
This is because n is larger than n-1th Dn-1 and .DELTA.Dn-1 respectively.

【0028】次に、やや激しい動きの後にカット画面と
なる場合には、前記n−1番目のフレーム間差分Dn-1
は大きいもののn番目のフレーム間差分Dn はこれに比
べてさらに大きいため、ステップS4では、フレーム間
差分Dn およびDn-1 が次の条件式(6)を満足するか
否かを判定し、満足する場合にはカット画面とし、それ
以外の場合にはカット画面候補とする。 γDn-1 <Dn (6) ここで、γは定数である。
Next, when a cut screen is displayed after a slightly violent movement, the n-1th inter-frame difference Dn-1.
Is large, but the n-th inter-frame difference Dn is larger than this, so in step S4 it is determined whether or not the inter-frame differences Dn and Dn-1 satisfy the following conditional expression (6). If it is, the cut screen is selected. In other cases, the cut screen is selected. γDn-1 <Dn (6) where γ is a constant.

【0029】なお、前記(3)〜(6)式中のTH1、
TH2、α、βおよびγとして、次の値を用いることが
できる。なお、Tは1フレーム画面の総ブロック数であ
る。
TH1 in the above equations (3) to (6),
The following values can be used as TH2, α, β and γ. Note that T is the total number of blocks in one frame screen.

【0030】TH1=4T、TH2=10T、α=4、
β=2およびγ=4。
TH1 = 4T, TH2 = 10T, α = 4,
β = 2 and γ = 4.

【0031】以上のように、本実施例によれば、前記縮
小画像処理部3および4にて1/64に縮小された輝度
信号の縮小画像を用いて、カット画面、非カット画面お
よびカット画面候補と判定することができる。なお、前
記ステップS4の処理後のカット画面候補は、非カット
画面と判定するようにしても良い。
As described above, according to the present embodiment, the cut screen, the non-cut screen, and the cut screen are created using the reduced image of the luminance signal reduced to 1/64 by the reduced image processing units 3 and 4. It can be determined as a candidate. The cut screen candidate after the processing in step S4 may be determined as a non-cut screen.

【0032】したがって、本実施例によれば、動画像の
カット画面の検出処理時間の短縮化を、検出精度を下げ
ることなく図ることができる効果がある。
Therefore, according to the present embodiment, there is an effect that the detection processing time of the cut screen of the moving image can be shortened without lowering the detection accuracy.

【0033】次に、本発明の第2実施例の動作を説明す
る。この第2実施例は、前記第1実施例においてカット
画面候補と判定された入力画面に対して、さらに色差信
号U、Vの縮小画面を用いて、カット画面と非カット画
面の判定をするようにしたものである。
Next, the operation of the second embodiment of the present invention will be described. In the second embodiment, the cut screen and the non-cut screen are determined using the reduced screen of the color difference signals U and V for the input screen determined as the cut screen candidate in the first embodiment. It is the one.

【0034】前記縮小画面処理部3、4で求められた色
差信号U, Vの縮小画面の各要素データが例えば8ビッ
トで構成されているとすると、色差ヒストグラム相関部
8では、第1実施例でカット画面候補となった画面に対
し、色差信号U, Vの縮小画面においてU, V=128
を中心に±θ範囲を8分割し、ヒストグラムHn,j,kを
とる。ここで、n はフレーム番号、j=1...8 、k=1...8
はそれぞれU, Vの領域番号である。すなわち、8ビッ
トで構成される要素データの最大値は255であるの
で、図4に示されているように、その最大値の半分の1
28を中心に±θ範囲を8分割する。ここに、θは予め
定められた定数であり、例えばθ=32とすることがで
きる。次いで、該8分割されたU, Vの領域番号をそれ
ぞれj およびk とする。そして、ヒストグラムHn,j,k
を定義する。
Assuming that each element data of the reduced screen of the color difference signals U and V obtained by the reduced screen processing units 3 and 4 is composed of, for example, 8 bits, the color difference histogram correlation unit 8 uses the first embodiment. In the reduced screen of the color difference signals U and V, U and V = 128 for the screen that became the cut screen candidate in
The ± θ range is divided into eight with the center at and the histogram Hn, j, k is taken. Where n is the frame number, j = 1 ... 8, k = 1 ... 8
Are the area numbers of U and V, respectively. That is, since the maximum value of the element data composed of 8 bits is 255, as shown in FIG.
The ± θ range is divided into eight with 28 as the center. Here, θ is a predetermined constant, and can be set to θ = 32, for example. Next, the area numbers of the U and V divided into eight are set to j and k, respectively. Then, the histogram Hn, j, k
Is defined.

【0035】例えばj=1,k=1 の場合、Hn,1,1 は、128
- θ ≦DU< 128 - 3θ/4 かつ128 -θ ≦DV<
128 - 3θ/4となる要素データの個数を示す。ただし、
DU, DVは色差の要素データの個数である。このよう
にして求められたHn,j,k は、図5に示されているよう
に、8 x 8 の色差ヒストグラム行列になる。色差ヒスト
グラム行列の相関ρは、下記の(7)式を用いて計算す
る。 ρ=CCn /(ACn x ACn-1 )1/2 (7) ただし
For example, when j = 1, k = 1, Hn, 1,1 is 128
-θ ≤ DU <128 -3 θ / 4 and 128 -θ ≤ DV <
Indicates the number of element data that becomes 128-3θ / 4. However,
DU and DV are the numbers of color difference element data. The Hn, j, k thus obtained becomes an 8 × 8 color difference histogram matrix, as shown in FIG. The correlation ρ of the color difference histogram matrix is calculated using the following equation (7). ρ = CCn / (ACn x ACn-1) 1/2 (7)

【0036】[0036]

【数3】 第2判定部9ではフレーム間差分Dn ((1) 式参照)、
時間的変化△Dn ((2) 式参照)、および相関値ρ(上
記(7) 式)などを総合的に判断することにより、カット
画面検出の判定を行う。以下に、前記第2判定部9の動
作を、図6のフローチャートを参照して詳細に説明す
る。
[Equation 3] In the second determination unit 9, the inter-frame difference Dn (see the equation (1)),
The cut screen detection is determined by comprehensively determining the temporal change ΔDn (see the equation (2)) and the correlation value ρ (the above equation (7)). The operation of the second determination unit 9 will be described in detail below with reference to the flowchart of FIG.

【0037】ステップS11はカメラアングルが異なる
ようなカット画面の場合の判定を示す。すなわち、カメ
ラアングルが異なるようなカット画面においては、類似
した色分布が多く、色差ヒストグラム行列の相関ρは比
較的大きな値をもち、かつフレーム間差分Dn 、時間的
変化△Dn も大きくなる。このため、下記の条件式(1
0)を満足する場合、カット画面とし、それ以外をカッ
ト候補として、ステップS12の処理を行う。 ζ≦ρ<δ かつ Dn > TH3 かつ |△Dn-1
|>TH4 かつ △Dn >TH5 (10) 次に、色分布が大きく異なる場合には、前記ACn とA
Cn-1 は大きく異なるため、ステップS12では、条件
式(11)を満足する場合カット画面とし、それ以外を
カット候補として、ステップS13の処理を行う。 max (ACn, ACn-1 )>ε min(ACn, ACn-1
) (11) 次に、上記の条件に該当しないようなカット画面につい
ては、色差ヒストグラム行列の相関値ρが大きい場合の
みカット画面とし、すなわち式(12)を満足する場合
にカット画面とし、それ以外を非カット画面として、次
の入力画面の処理へ移る。 ρ>ζ (12) 以上の処理において、前記第2判定部9でカット画面と
決定された場合、前記出力部7にて、カット画面やその
画面のフレーム番号などを出力し、次の入力画面の処理
に進む。また、非カット画面と決定された場合には、そ
のまま、次の入力画面の処理に進む。
Step S11 shows the determination in the case of a cut screen with different camera angles. That is, in a cut screen with different camera angles, there are many similar color distributions, the correlation ρ of the color difference histogram matrix has a relatively large value, and the inter-frame difference Dn and the temporal change ΔDn also become large. Therefore, the following conditional expression (1
If 0) is satisfied, the cut screen is set, and the other screens are set as cut candidates, and the process of step S12 is performed. ζ ≦ ρ <δ and Dn > TH3 and | △ Dn-1
|> TH4 and ΔDn> TH5 (10) Next, when the color distributions are greatly different, the ACn and A
Since Cn-1 is greatly different, in step S12, the process of step S13 is performed using the cut screen when the conditional expression (11) is satisfied and the other cut screens. max (ACn, ACn-1)> ε min (ACn, ACn-1
(11) Next, for the cut screen that does not meet the above condition, the cut screen is set only when the correlation value ρ of the color difference histogram matrix is large, that is, the cut screen is set when the expression (12) is satisfied. Other than the non-cut screen, move to the process of the next input screen. ρ> ζ (12) In the above process, when the second determination unit 9 determines that the screen is a cut screen, the output unit 7 outputs the cut screen and the frame number of the screen, and the next input screen. Go to processing. If the non-cut screen is determined, the process directly proceeds to the processing of the next input screen.

【0038】なお、前記(7)〜(12)式中のTH
3、TH4、TH5、δ、ε、ζおよびθとして、次の
値を用いることができる。 TH3=23T、TH4=4T、TH5=11T、δ=
0.9、ε=8、ζ=0.75およびθ=32。
It should be noted that TH in the above equations (7) to (12)
The following values can be used as 3, TH4, TH5, δ, ε, ζ, and θ. TH3 = 23T, TH4 = 4T, TH5 = 11T, δ =
0.9, ε = 8, ζ = 0.75 and θ = 32.

【0039】以上のように、前記第2実施例において
は、第1実施例においてカット画面候補と判定された入
力画面に対して、さらに色差信号U、Vの縮小画面を用
いて、カット画面と非カット画面の判定をするようにし
たので、動画像のカット画面の検出精度を向上させるこ
とができると共に、検出処理時間の短縮化を図ることが
できるという効果がある。
As described above, in the second embodiment, the input screen determined as the cut screen candidate in the first embodiment is further processed by using the reduced screen of the color difference signals U and V to form the cut screen. Since the non-cut screen is determined, there is an effect that the detection accuracy of the cut screen of the moving image can be improved and the detection processing time can be shortened.

【0040】次に、本発明の第3実施例について説明す
る。この実施例は、図1における入力画面と参照画面
が、DCT(離散コサイン変換)等で圧縮符号化された
符号化情報の場合である。この場合には、画像入力部1
と2に符号化された画像情報が入力される。縮小画像処
理部3および4では、該当ブロックの平均値成分を符号
化情報から抽出して平均値を求め、これらの平均値を用
いて縮小画面を構成する。
Next, a third embodiment of the present invention will be described. In this embodiment, the input screen and the reference screen in FIG. 1 are coded information that is compression-coded by DCT (discrete cosine transform) or the like. In this case, the image input unit 1
And the image information encoded in 2 is input. In the reduced image processing units 3 and 4, the average value component of the corresponding block is extracted from the coded information to obtain the average value, and the reduced image is configured using these average values.

【0041】縮小画像処理部3および4は、入力してき
た符号化情報が、例えば8×8(画素)の2次元DCT
である場合には、該2次元DCT変換後の(0,0)成
分、すなわち直流成分を8で割り、この値を各ブロック
ごとに集めて、縮小画面を構成する。前記フレーム間差
分部5以降の処理については、前記第1あるいは第2実
施例と同様であるので、説明を省略する。
In the reduced image processing units 3 and 4, the input coding information is, for example, a two-dimensional DCT of 8 × 8 (pixels).
If it is, the (0,0) component after the two-dimensional DCT conversion, that is, the DC component is divided by 8, and this value is collected for each block to form a reduced screen. The processing after the inter-frame difference section 5 is the same as that in the first or second embodiment, and therefore the description thereof is omitted.

【0042】この第3実施例においては、従来の方式の
ように、入力してきた符号化情報を一旦元の画像に復元
する必要がなく、符号化データからの平均値成分の抽出
のみで処理が可能であるため、非常に高速にカット画面
の抽出を行うことができる。
In the third embodiment, unlike the conventional method, it is not necessary to restore the input coded information to the original image once, and the process can be performed only by extracting the average value component from the coded data. Since it is possible, the cut screen can be extracted very quickly.

【0043】本発明の実施にあたっては種々の変形が可
能である。例えば縮小画面を求める際の平均値計算につ
いては8画素×8ラインのブロックに限らずに16画素
×16ラインや4画素×4ラインなど種々のサイズが適
応可能である。
Various modifications are possible in carrying out the present invention. For example, the average value calculation for obtaining the reduced screen is not limited to the block of 8 pixels × 8 lines, and various sizes such as 16 pixels × 16 lines and 4 pixels × 4 lines can be applied.

【0044】また、検出精度を向上させるために、第1
判定部6や第2判定部9において、フレームnとフレー
ムn−1の情報(D, △D, ρ, AC)のみならず、フ
レームn−2やフレームn−3などの、フレームn−1
よりさらに時間的に過去の情報を用いることも可能であ
る。
In order to improve the detection accuracy, the first
In the determination unit 6 and the second determination unit 9, not only the information (D, ΔD, ρ, AC) of the frame n and the frame n-1 but also the frame n-1 such as the frame n-2 and the frame n-3.
It is also possible to use past information in time.

【0045】さらに、高速性が要求される場合には、上
記条件式(3)〜(12)のうちのいくつかを選択して
用いて高速化を図ることが可能である。ただし、この場
合、未検出や過剰検出などの誤検出が多くなることが予
想される。
Further, when high speed is required, it is possible to increase the speed by selecting and using some of the conditional expressions (3) to (12). However, in this case, it is expected that false detections such as non-detection and excessive detection will increase.

【0046】また、種々のパラメータTH1 〜TH5,α〜θ
を変更することにより、未検出や過剰検出の割合を制御
することが可能である。
Further, various parameters TH1 to TH5, α to θ
It is possible to control the ratio of non-detection and over-detection by changing.

【0047】[0047]

【発明の効果】以上に説明したように、請求項1および
2の発明では、1または複数フレーム離れた参照画面と
入力画面のブロック平均値を用いた縮小画像を用いて、
輝度成分のフレーム間差分およびその時間変化で動画像
のカット検出を行った。したがって、この発明によれ
ば、処理に必要なデータ数が削減され、動画像のカット
画面の検出処理時間の短縮化を、検出精度を下げること
なく図ることができるという効果がある。
As described above, according to the first and second aspects of the present invention, the reduced image using the block average value of the reference screen and the input screen separated by one or a plurality of frames is used,
The cut detection of the moving image was performed by the difference between the frames of the luminance component and its change over time. Therefore, according to the present invention, there is an effect that the number of data required for the processing is reduced and the detection processing time of the moving image cut screen can be shortened without lowering the detection accuracy.

【0048】また、請求項3および4の発明では、1ま
たは複数フレーム離れた参照画面と入力画面のブロック
平均値を用いた縮小画像を用いて輝度成分のフレーム間
差分およびその時間変化でカット画面の候補となる画像
を選出し、該カット画面の候補となった画像に対して色
差成分ヒストグラムの相関を求め、該相関と前記フレー
ム間差分およびその時間変化とを総合的に判断してカッ
ト検出を行っている。この場合、縮小画像を用いること
により、処理に必要なデータ数が削減されるため、原画
像を用いた検索に比較して大幅に検出時間が縮小される
ほか、画素単位の細かな雑音や局所的な変化に対しても
影響を受けにくく、高精度化を図れるという効果があ
る。
Further, in the inventions of claims 3 and 4, the reduced image using the block average value of the reference screen and the input screen separated by one or a plurality of frames is used to cut the screen by the inter-frame difference of the luminance component and its time change. Image is selected, the correlation of the color difference component histogram is obtained for the image that is the candidate of the cut screen, and the correlation is detected and the inter-frame difference and its time change are comprehensively determined to detect the cut. It is carried out. In this case, by using a reduced image, the number of data required for processing is reduced, so the detection time is greatly reduced compared to the search using the original image, and fine noise and local It is less susceptible to changes in the environment and has the effect of improving accuracy.

【0049】また、輝度成分のフレーム間差分と色差ヒ
ストグラム相関を階層的に用いることにより、処理の階
層化を図ることが可能となり、検出時間の短縮化を図る
ことが可能となっている。
Further, by hierarchically using the inter-frame difference of the luminance component and the color difference histogram correlation, it is possible to make the processing hierarchical and shorten the detection time.

【0050】また、請求項5および6の発明において
は、圧縮符号化された画像データからのカット画面の検
索を、一旦元の画像に復元することなく行うことができ
る。すなわち、符号化データからの平均値成分を抽出す
るのみで縮小画面の作成が可能であるため、非常に高速
なカット画面の検出が可能である。
Further, in the fifth and sixth aspects of the invention, the search for the cut screen from the compression-coded image data can be performed without restoring the original image once. That is, a reduced screen can be created only by extracting the average value component from the encoded data, so that a very fast cut screen can be detected.

【0051】ここで、請求項3および4の発明を用い
て、実際の動画像からカット画面を検出した結果につい
て報告する。いくつかのニュースが含まれるテスト動画
像を用いて、ISO で標準化されたMPEG1 方式で符号化さ
れたビットストリームについて、参照フレームと入力フ
レームの間隔を15フレームとして、カット画面の検出
を行った。この場合、正しく検出されたカット画面数に
対する未検出カット画面の割合(未検出率)は2. 5
%、本来カット画面ではないのに誤って検出された画面
の割合(過剰検出率)は、17. 5%であり、総合的に
は従来の検出方法と同程度の検出率を得ることができ
た。
Here, the results of detecting a cut screen from an actual moving image using the inventions of claims 3 and 4 will be reported. Using a test moving image containing some news, a cut screen was detected for a bitstream encoded by the MPEG1 method standardized by ISO, with the interval between the reference frame and the input frame being 15 frames. In this case, the ratio of undetected cut screens to the number of correctly detected cut screens (undetected ratio) is 2.5.
%, The ratio of screens that were not detected as cut screens but were erroneously detected (excessive detection rate) was 17.5%, and as a whole, the same detection rate as the conventional detection method can be obtained. It was

【0052】また、検出時間は、再生時間の1/5程度
で処理を終了することができ、従来方式に比べて20倍
以上高速化を図ることが可能となった。
Further, the detection time can be completed in about 1/5 of the reproduction time, and the speed can be increased by 20 times or more as compared with the conventional method.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の概略の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention.

【図2】 図1の縮小画像処理部の動作の説明図であ
る。
FIG. 2 is an explanatory diagram of an operation of a reduced image processing unit in FIG.

【図3】 本発明の一実施例における第1判定部の処理
の内容を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining the content of processing of a first determination unit in the embodiment of the present invention.

【図4】 第2実施例の色差信号U、Vの領域番号j、
kの説明図である。
FIG. 4 is a region number j of color difference signals U and V of the second embodiment,
It is explanatory drawing of k.

【図5】 色差ヒストグラム行列Hn,j,k の説明図であ
る。
FIG. 5 is an explanatory diagram of a color difference histogram matrix Hn, j, k.

【図6】 本発明の第2実施例における第2判定部の処
理の内容を説明するためのフローチャートである。
FIG. 6 is a flow chart for explaining the contents of processing of a second determination unit in the second embodiment of the present invention.

【図7】 従来の動画像の高速カット検出方法における
カラーヒストグラムの説明図である。
FIG. 7 is an explanatory diagram of a color histogram in a conventional moving image fast cut detection method.

【符号の説明】[Explanation of symbols]

1、2…画像入力部、3、4…縮小画像処理部、5…フ
レーム間差分部、6…第1判定部、7…出力部、8…色
差ヒストグラム相関部、9…第2判定部。
1, 2 ... Image input unit, 3, 4 ... Reduced image processing unit, 5 ... Interframe difference unit, 6 ... First determination unit, 7 ... Output unit, 8 ... Color difference histogram correlation unit, 9 ... Second determination unit.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 動画像からカット画面の検出を行う動画
像のカット画面検出方法において、 入力画面および該入力画面から時間的に1フレームまた
は複数フレーム離れた参照画面の各々をブロック分割
し、 各々の画面の各ブロックの輝度信号の平均値から、各々
の画面の縮小画面を作成し、 両画面の縮小画面から、輝度信号のフレーム間差分量お
よびフレーム間差分の時間変化を求め、 該輝度信号のフレーム間差分量および差分の時間変化に
基づいて、カット画面、非カット画面を選別するように
したことを特徴とする動画像のカット画面検出方法。
1. A method for detecting a cut screen of a moving image, which detects a cut screen from a moving image, wherein each of an input screen and a reference screen temporally separated from the input screen by one frame or a plurality of frames is divided into blocks. A reduced screen of each screen is created from the average value of the luminance signal of each block of the screen, and the inter-frame difference amount of the luminance signal and the time change of the inter-frame difference are obtained from the reduced screens of both screens. A method for detecting a cut screen of a moving image, characterized in that a cut screen and a non-cut screen are selected based on the inter-frame difference amount and the temporal change of the difference.
【請求項2】 請求項1の動画像のカット画面検出方法
において、 前記輝度信号のフレーム間差分量Dn (nはフレーム番
号)、Dn-1 、それらの時間変化ΔDn およびΔDn-1
が、下記の(1) 式の条件を満たす時に非カット画面と決
定し、(2) 〜(4) 式の条件を満たす時にカット画面と決
定するようにしたことを特徴とする動画像のカット画面
検出方法。 Dn <TH1…(1) Dn-1 <TH2…(2) α|△Dn-1 |<△Dn かつβDn-1 <Dn …(3) γDn-1 <Dn …(4) ここに、TH1、TH2はしきい値(ただし、TH1<
TH2)、α、βおよびγは定数である。
2. The moving image cut screen detecting method according to claim 1, wherein the inter-frame difference amounts Dn (n is a frame number) of the luminance signal, Dn-1, and their time changes ΔDn and ΔDn-1.
Is a non-cut screen when conditions (1) below are satisfied, and a cut screen when conditions (2) to (4) are satisfied. Screen detection method. Dn <TH1 ... (1) Dn-1 <TH2 ... (2) α | ΔDn-1 | <ΔDn and βDn-1 <Dn ... (3) γDn-1 <Dn ... (4) where TH1, TH2 is a threshold value (TH1 <
TH2), α, β and γ are constants.
【請求項3】 動画像からカット画面の検出を行う動画
像のカット画面検出方法において、 入力画面および該入力画面から時間的に1フレームまた
は複数フレーム離れた参照画面の各々をブロック分割
し、 各々の画面の各ブロックの輝度信号の平均値から、各々
の画面の縮小画面を作成し、 両画面の縮小画面から、輝度信号の差分量および差分の
時間変化を求め、 該輝度信号の差分量および差分の時間変化に基づいて、
カット画面、非カット画面およびカット候補画面を選別
し、 該カット候補画面に対して、参照画面と入力画面の縮小
画面の色差成分のヒストグラム相関をとり、 該色差成分のヒストグラム相関値、前記輝度信号の差分
量、および該時間変化によりカット画面、非カット画面
に選別するようにしたことを特徴とする動画像のカット
画面検出方法。
3. A method for detecting a cut screen of a moving image for detecting a cut screen from a moving image, wherein each of an input screen and a reference screen temporally separated from the input screen by one frame or a plurality of frames is divided into blocks. A reduced screen of each screen is created from the average value of the luminance signal of each block of the screen, the difference amount of the luminance signal and the time change of the difference are obtained from the reduced screens of both screens, and the difference amount of the luminance signal and Based on the time change of the difference,
The cut screen, the non-cut screen and the cut candidate screen are selected, and the histogram correlation of the color difference components of the reference screen and the reduced screen of the input screen is taken for the cut candidate screen, and the histogram correlation value of the color difference component and the luminance signal A method for detecting a cut screen of a moving image, characterized in that a cut screen and a non-cut screen are selected according to the difference amount and the time change.
【請求項4】 請求項4記載の動画像のカット画面検出
方法において、 前記輝度信号のフレーム間差分量Dn (nはフレーム番
号)、Dn-1 、それらの時間変化ΔDn およびΔDn-1
、ならびに前記色差ヒストグラム相関値ρが、下記の
(5) 〜(7) 式のいずれかを満たすときにカット画面と決
定し、(5) 〜(7)式のいずれの条件も満たさない時に非
カット画面と決定するようにしたことを特徴とする動画
像のカット画面検出方法。 ζ≦ρ<δかつDn >TH3かつ|△Dn-1 |>TH4
かつ △Dn >TH5…(5) max (ACn, ACn-1 )>ε min(ACn, ACn-1
)…(6) ρ>ζ…(7) ここに、TH3、TH4およびTH5はしきい値、ε、
ζおよびδは定数である。また、ACn =ΣΣH2 n,j,
k 、ACn-1 =ΣΣH2 n-1,j,k であり、Hn,j,k は色
差ヒストグラムである。
4. The moving image cut screen detection method according to claim 4, wherein the inter-frame difference amounts Dn (n is a frame number) of the luminance signal, Dn-1, and their temporal changes ΔDn and ΔDn-1.
, And the color difference histogram correlation value ρ is
It is characterized in that when any one of the formulas (5) to (7) is satisfied, it is determined as a cut screen, and when none of the conditions (5) to (7) is satisfied, it is determined as a non-cut screen. A method for detecting cut screens in moving images. ζ ≦ ρ <δ and Dn> TH3 and | ΔDn-1 |> TH4
And ΔDn> TH5 ... (5) max (ACn, ACn-1)> ε min (ACn, ACn-1)
) (6) ρ> ζ (7) where TH3, TH4 and TH5 are threshold values, ε,
ζ and δ are constants. ACn = ΣΣH 2 n, j,
k, ACn-1 = ΣΣH 2 n-1, j, k, where Hn, j, k is a color difference histogram.
【請求項5】 請求項1または3記載の動画像のカット
画面検出方法において、 前記入力画面および該入力画面から時間的に1フレーム
または複数フレーム離れた参照画面が、符号化された動
画像情報であり、 前記縮小画面が前記入力画面および参照画面をブロック
化し、該ブロック化された動画像情報の平均値成分によ
り構成されたことを特徴とする動画像のカット画面検出
方法。
5. The moving image cut screen detection method according to claim 1, wherein the input screen and the reference screen temporally separated from the input screen by one frame or a plurality of frames are coded moving image information. A method for detecting a cut screen of a moving image, wherein the reduced screen is formed by blocking the input screen and the reference screen, and is configured by an average value component of the blocked moving image information.
【請求項6】 請求項5記載の動画像のカット画面検出
方法において、 前記入力画面および該入力画面から時間的に1フレーム
または複数フレーム離れた参照画面が、2次元の離散コ
サイン変換された動画像情報であり、 前記縮小画面がブロック化された動画像情報の直流成分
を、各ブロックごとに集めて形成されたことを特徴とす
る動画像のカット画面検出方法。
6. The moving image cut screen detection method according to claim 5, wherein the input screen and a reference screen temporally separated from the input screen by one frame or a plurality of frames are two-dimensionally discrete cosine transformed. A method for detecting a cut screen of a moving image, which is image information and is formed by collecting DC components of moving image information in which the reduced screen is divided into blocks, for each block.
JP5216895A 1993-08-10 1993-08-10 Video cut screen detection method Expired - Lifetime JP2978039B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5216895A JP2978039B2 (en) 1993-08-10 1993-08-10 Video cut screen detection method
US08/714,786 US5719643A (en) 1993-08-10 1996-09-13 Scene cut frame detector and scene cut frame group detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5216895A JP2978039B2 (en) 1993-08-10 1993-08-10 Video cut screen detection method

Publications (2)

Publication Number Publication Date
JPH0759108A true JPH0759108A (en) 1995-03-03
JP2978039B2 JP2978039B2 (en) 1999-11-15

Family

ID=16695602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5216895A Expired - Lifetime JP2978039B2 (en) 1993-08-10 1993-08-10 Video cut screen detection method

Country Status (1)

Country Link
JP (1) JP2978039B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112922A (en) * 1997-09-30 1999-04-23 Hitachi Ltd Method and device for stream event point detection display
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
JP2001527344A (en) * 1997-12-23 2001-12-25 サーノフ コーポレイション Conversion detection in Videokens
US7031385B1 (en) 1999-10-01 2006-04-18 Matsushita Electric Industrial Co., Ltd. Method and apparatus for detecting scene change of a compressed moving-picture, and program recording medium therefor
JP2007158807A (en) * 2005-12-06 2007-06-21 Sony Corp Recording and reproducing device and method, recorder and recording method, reproducing device and reproducing method, and program
US7245764B2 (en) 2002-06-27 2007-07-17 Seiko Epson Corporation Image processing method and image processing apparatus utilizing luminance histograms, and projector
KR20080065044A (en) * 2007-01-08 2008-07-11 삼성전자주식회사 Apparatus and method for creation thumbnail view
JP2008312215A (en) * 2007-06-18 2008-12-25 Sony (China) Ltd Video-image analyzer, video-image analyzing method, automatic digest preparation system, and automatic highlight extraction system
JP2009201131A (en) * 2009-04-24 2009-09-03 Kddi Corp Device for detecting cut point of moving picture
WO2022113430A1 (en) * 2020-11-27 2022-06-02 シャープ株式会社 Image processing device, display device, and image processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
JPH11112922A (en) * 1997-09-30 1999-04-23 Hitachi Ltd Method and device for stream event point detection display
JP2001527344A (en) * 1997-12-23 2001-12-25 サーノフ コーポレイション Conversion detection in Videokens
US7031385B1 (en) 1999-10-01 2006-04-18 Matsushita Electric Industrial Co., Ltd. Method and apparatus for detecting scene change of a compressed moving-picture, and program recording medium therefor
US7245764B2 (en) 2002-06-27 2007-07-17 Seiko Epson Corporation Image processing method and image processing apparatus utilizing luminance histograms, and projector
JP2007158807A (en) * 2005-12-06 2007-06-21 Sony Corp Recording and reproducing device and method, recorder and recording method, reproducing device and reproducing method, and program
JP4674535B2 (en) * 2005-12-06 2011-04-20 ソニー株式会社 Recording / reproducing apparatus and recording / reproducing method, recording apparatus and recording method, and reproducing apparatus and reproducing method
KR20080065044A (en) * 2007-01-08 2008-07-11 삼성전자주식회사 Apparatus and method for creation thumbnail view
JP2008312215A (en) * 2007-06-18 2008-12-25 Sony (China) Ltd Video-image analyzer, video-image analyzing method, automatic digest preparation system, and automatic highlight extraction system
JP2009201131A (en) * 2009-04-24 2009-09-03 Kddi Corp Device for detecting cut point of moving picture
WO2022113430A1 (en) * 2020-11-27 2022-06-02 シャープ株式会社 Image processing device, display device, and image processing method

Also Published As

Publication number Publication date
JP2978039B2 (en) 1999-11-15

Similar Documents

Publication Publication Date Title
US5719643A (en) Scene cut frame detector and scene cut frame group detector
Kim et al. Efficient camera motion characterization for MPEG video indexing
US7177470B2 (en) Method of and system for detecting uniform color segments
Patel et al. Compressed video processing for cut detection
Doulamis et al. Low bit-rate coding of image sequences using adaptive regions of interest
KR100591470B1 (en) Detection of transitions in video sequences
US6940910B2 (en) Method of detecting dissolve/fade in MPEG-compressed video environment
US20030061612A1 (en) Key frame-based video summary system
JP2010500818A (en) System and method for comic animation compression
JP2000224590A (en) Method for extracting characteristics of video sequence
US20070041445A1 (en) Method and apparatus for calculating interatively for a picture or a picture sequence a set of global motion parameters from motion vectors assigned to blocks into which each picture is divided
US7031385B1 (en) Method and apparatus for detecting scene change of a compressed moving-picture, and program recording medium therefor
EP0780776A1 (en) Apparatus for detecting a cut in a video
JP2004529578A (en) Detection of subtitles in video signals
CN113112519A (en) Key frame screening method based on interested target distribution
CN116363554A (en) Method, system, medium, equipment and terminal for extracting key frames of surveillance video
JP2978039B2 (en) Video cut screen detection method
US20020027616A1 (en) Wipe and special effect detection method for MPEG-compressed video using spatio-temporal distribution of macro blocks
US20090180670A1 (en) Blocker image identification apparatus and method
Fernando et al. Fade-in and fade-out detection in video sequences using histograms
JP2971724B2 (en) Video cut point detection device
Lee et al. Real-time camera motion classification for content-based indexing and retrieval using templates
US8582882B2 (en) Unit for and method of segmentation using average homogeneity
EP0780844A2 (en) Cut browsing and editing apparatus
JP2859345B2 (en) Scene change detection method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110910

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 14

EXPY Cancellation because of completion of term